224 86 16MB
German Pages 172 Year 2008
Linguistische Arbeiten
524
Herausgegeben von Klaus von Heusinger, Gereon Mller, Ingo Plag, Beatrice Primus, Elisabeth Stark und Richard Wiese
Guido Nottbusch
Handschriftliche Sprachproduktion Sprachstrukturelle und ontogenetische Aspekte
Max Niemeyer Verlag Tbingen 2008
n
Dissertation, Universität Bielefeld, Fakultät für Linguistik und Literaturwissenschaft Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet ber http://dnb.ddb.de abrufbar. ISBN 978-3-484-30524-3
ISSN 0344-6727
( Max Niemeyer Verlag, Tbingen 2008 Ein Imprint der Walter de Gruyter GmbH & Co. KG http://www.niemeyer.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschtzt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzul Wort) desto länger ist die Pause davor (Chanquoy et al., 1995). Die Ergebnisse von Chanquoy et al. (1995) konnten in zwei Studien von Nottbusch et al. (2007) und Nottbusch (in press) sowohl für die Produktion als auch für das Kopieren von Texten bestätigt werden. Für beide Modi gilt, dass syntaktische Einheiten wie Nominalphrasen und Verbalphrasen auch im zeitlichen Verlauf der Produktion durch längere initiale Pausen gekennzeichnet sind. Darüber hinaus finden sich deutliche Unterschiede zwischen einzelnen Wortarten: Inhaltswörter gehen mit längeren wortinitialen Pausen einher als Funktionswörter, wenn Letztere nicht den Beginn einer Präpositionalphrase markieren, Nomen und Verben zeigten die längsten Latenzen.
2.2.
Prozesse der Wortschreibung in der Handschrift
Die Erforschung der Handschrift hat eine lange Tradition und ließ sich bis in die siebziger Jahre hinein in die folgenden Bereiche aufteilen: − − − −
Handschrift als motorische Fertigkeit, normaler und gestörter Handschrifterwerb, Handschriftvermittlung sowie Beurteilung der Handschrift
(für Überblicksartikel siehe: Askov, Otto & Askov, 1970; Peck, Askov & Fairchild, 1980; Graham & Weintraub, 1996). Die experimentelle Erforschung der Handschrift als motorische Fertigkeit erhielt ab Ende der siebziger Jahre einen Schub durch die Fortschritte in der computerbasierten Aufzeichnung der Schreibspur mit Hilfe von Grafiktabletts, auch Digitizer genannt, und führte zu einer Verschiebung der Aufmerksamkeit vom Schreibprodukt zu den Schreibprozessen. Bis zu diesem Zeitpunkt bedurfte es komplizierter technischer Aufbauten, wie z.B. Schreibgeräten, die in konstanten Zeitabständen entweder Punktmarkierungen in das Papier brannten (Binet & Courtier, 1893; 200 Hz) oder mit Hilfe einer Nadel Löcher in die Schreibfläche stachen (McMillan, Wirtz & Katz; ohne weitere Angaben genannt bei Grünewald, 1970: 23), sodass über den Abstand der Punkte die Schreibgeschwin-
25 digkeit rekonstruiert werden konnte – mit der Einschränkung, dass bei mehrfach geschriebenen Linien die Einstiche oder Markierungen nicht zuzuordnen sind und die Dauer von Pausen nicht registriert werden kann. Eine weitere Apparatur ist der so genannte Skriptograph (Grünewald, 1970), bei dem sich unter der Schreiboberfläche aus Papier ein Kohlepapier befindet. Darunter wird mittels zweier Walzen mit konstanter Geschwindigkeit ein Papierband von rechts nach links transportiert, auf dem die Schreibspur dann praktisch in die Breite gezogen abzulesen ist, sodass z.B. bei ruhendem Stift eine horizontale Linie entsteht. Das Ergebnis ist eine angenäherte Abbildung der vertikalen Geschwindigkeit. Über die Länge und die Winkel dieser Linien (oder auch der Unterbrechungen) können anschließend Pausenlängen und Schreibgeschwindigkeiten rekonstruiert werden. Glücklicherweise ist die Registrierung der Schreibspur mit Hilfe der oben genannten Schreibtabletts inzwischen erheblich genauer und einfacher geworden (eine genaue Beschreibung der Funktionsweise und der erhaltenen Daten findet sich in den Kapiteln 3.2.1.4. Apparatur, Seite 81 und 3.2.1.5. Datenverarbeitung, Seite 82). Im Folgenden soll zunächst die Physiologie der an der Handschrift beteiligten Muskeln und Gelenke beschrieben werden. Hieraus ergeben sich einige biodynamische Folgerungen (nächstes Kapitel), die im Anschluss von neurologischen Befunden gestützt werden (Kapitel 2.2.2. Neurologische Aspekte, Seite 27). Darauf folgend werden mögliche Formen des Feedbacks (kinästhetische und visuelle Rückmeldungen) und ihr Einfluss auf die Handschrift diskutiert (ab Seite 28). In engem Zusammenhang stehen dann die Ergebnisse der kinematischen Analysen (ab Seite 29) und die Charakteristika ihrer Ausprägungen mit der Größe einer gespeicherten Basiseinheit (ab Seite 35). Diese Ausführungen sind entscheidend für die in den Experimenten angewandte Methode, da hier – im Gegensatz zur Tastaturschrift – zunächst geklärt werden muss, was eigentlich wie gemessen werden kann und welche Schlüsse daraus zu ziehen sind. Diese Vorüberlegungen schließen mit einer Betrachtung der Unterschiede zwischen den Schreibungen verschiedener Schreiber (interindividuell) einerseits und der Variation der Schreibungen derselben Person andererseits (intraindividuell) ab (siehe Seite 46f.). Auf dieser Grundlage sollen auch für die Handschrift die für diese Arbeit entscheidenden Evidenzen sprachlicher und vor allem silbischer Prozesse gesammelt werden (ab Seite 48).
2.2.1.
Physiologische und biodynamische Aspekte
Die Hand ist das am höchsten differenzierte Bewegungsorgan des menschlichen Organismus. Da Bewegungen der Hand auch über Muskeln und Bänder im Unterarm initiiert werden, finden sich in der Literatur je nach deren Einbezug widersprüchliche Angaben zur Anzahl von Muskeln, Gelenken und Knochen. So spricht Wiesendanger (2005) von 24 Knochen, 16 Gelenken und 18 kleinen und 15 langen Muskeln. Schiebler (2005) hingegen benennt und beschreibt 19 Unterarmmuskeln, 4 Muskeln des Daumenballens, 11 Hohlhandmuskeln und 4 Muskeln des Kleinfingerballens. Die Handgelenke bestehen laut Schiebler (2005) aus 15 Knochen und lassen sich in die Handwurzelgelenke und die Gelenke der Mittelhand unterteilen. Unter den Handwurzelgelenken nimmt dasjenige für den
26 Daumen eine Sonderstellung ein, da es als Sattelgelenk eine größere Zahl von Bewegungsrichtungen ermöglicht als die der anderen Finger. Auch bei den Fingergrundgelenken hat das Daumengrundgelenk als reines Scharniergelenk eine Sonderstellung gegenüber den in ihrer Bewegung eingeschränkten Kugelgelenken der vier anderen Finger. Alle übrigen Fingermittel- und Endgelenke sind ebenfalls reine Scharniergelenke. Die Gelenkzahl nimmt distal zu, d.h., je weiter die Extremität von der Körpermitte entfernt liegt, desto kleiner wird der Abstand zwischen den Gelenken. Die eigentliche Bewegungsausführung des Schreibens wird aufgrund der relativ begrenzten Funktion einzelner Gelenke nur durch eine Bewegungskoordination ermöglicht; es sind also immer mehrere Gelenke und Muskeln (Unterarm- und Handmuskeln) zu einer »funktionellen Synergie orchestriert« (Wiesendanger, 2005: 165). Schreibbewegungen werden vor allem durch drei Gelenk/Muskel-Systeme bewirkt. 1. Die Mittel- und Endgelenke des Daumens und der Finger erlauben als Scharniergelenke nur Bewegungen um eine Achse mit zwei Bewegungsrichtungen. Durch gleichzeitiges Stecken und Biegen des Daumens, des Zeige- und des Mittelfingers wird der Stift etwa quer zur Schreibrichtung auf und ab bewegt (Daumen streckende Muskeln: extensor pollicis brevis/longus [im Unterarm]; Daumen beugende Muskeln: flexor pollicis brevis/longus [im Daumenballen]; Fingerstrecker: extensor digitorum communis; Fingerbeuger: flexor digitorum profundus [im Unterarm]). Je nach Schriftgröße betragen diese Bewegungen normalerweise ca. 0,5 bis 1,5 cm, maximal je nach Größe der Hand ca. 4 bis 7 cm. 2. Kleinere, feinmotorische Bewegungen in und entgegen der Schreibrichtung werden vom Handgelenk vollführt. Das Handgelenk kann zwar auch kreisförmige Bewegungen ausführen, wird beim Schreiben aber fast nur wie ein Scharniergelenk eingesetzt, da ein Abheben der Hand von der Schreibfläche in erster Linie in Verbindung mit dem Unterarm geschieht. Bewegungen entgegen der Schreibrichtung erfolgen durch die Flexion in Richtung Speiche (d.h., der Daumenseite; flexor carpi radialis) und betragen meist weniger als 0,5 cm; in Schreibrichtung wird durch die Flexion in Richtung Elle oft eine Distanz bis zur Länge eines Wortes überbrückt (Kleinfingerseite; extensor carpi ulnaris). Es ergeben sich also wiederum zwei Hauptbewegungsrichtungen, die etwa orthogonal (abhängig von der Schriftneigung) zu den beiden oben beschriebenen stehen. 3. Weiträumigere Bewegungen in und entgegen der Schreibrichtung werden durch eine Abspreizung des Oberarms vom Oberkörper erreicht, die durch eine laterale Drehung des Arms im Schultergelenk (Kugelgelenk) und ausgleichende Beugung/Streckung und Drehung des Ellenbogengelenks (Drehscharniergelenk) unterstützt wird. Diese Bewegungen fallen häufig mit den Wortgrenzen zusammen und der Stift befindet sich in der Regel währenddessen nicht auf dem Papier. Da beim Schreiben meist der Unterarm aufliegt, kann die gute Beweglichkeit des Schultergelenks nur begrenzt genutzt werden. Die vielfältigen Bewegungen, die das Schreiben mit der Hand erfordert, können nur durch eine Koordination der zwei Achsen (Freiheitsgrade) bzw. der vier Hauptbewegungsrichtun-
27 gen entstehen. Aus diesen beiden Freiheitsgraden ergibt sich die Höhe und die Breite der Buchstaben. Diese Beschreibung bezieht sich auf Rechtshänder sowie auf Linkshänder, deren Hand sich bei der Schreibung unterhalb des Schriftzuges befindet (bei Letzteren sind jedoch die Handgelenk- und Schultergelenkbewegungen umgekehrt). Des Weiteren ist die Schreibhand bei einigen Linkshändern oberhalb der Schreibspur positioniert (vermutlich um das bereits Geschriebene besser lesen zu können); hier sind die Rollen des Handgelenks einerseits und des Daumens und der Finger andererseits vertauscht (vgl. Wing, 1978).
2.2.2.
Neurologische Aspekte
Die beschriebene extreme Differenzierung der Handphysiologie zeigt sich auch in einer »überproportionale[n] neuronale[n] Repräsentation der Hand im primär-motorischen Kortex« (Wiesendanger, 2005: 168). Bei der Handschrift sind jedoch noch weitere Areale aktiv. Aus Untersuchungen mit Hilfe der Positronen-Emissions-Tomographie (PET) und der funktionellen Magnetresonanztomografie (fMRI; Seitz, 1995: 264) geht hervor, dass unterschiedliche Schreibaufgaben abhängig von der Schreibfertigkeit von verschiedenen Hirnregionen gesteuert werden bzw. abhängig sind: »Zusammenfassend deuten die Ergebnisse der funktionellen Bildgebung darauf hin, dass der prämotorische Cortex des Menschen in funktionell differente Subregionen differenziert werden kann. Dabei scheint es so zu sein, dass die supplementär motorische Area von besonderer Bedeutung für die interne Generierung von Präzisionsbewegungen ist. Demgegenüber scheint der dorsolaterale Prämotorcortex bei der Bewegungsspezifizierung somatosensorisch geführter und trajektoreller Bewegungen bedeutsam zu sein.«
Vereinfacht gesagt lassen sich anhand dieser Untersuchungsmethoden unterschiedliche Areale identifizieren, die einerseits für das Erlernen und andererseits für die automatisierte Ausführung feinmotorischer Bewegungen zuständig sind. Dies soll im Folgenden näher erläutert werden: Den Probanden der Untersuchung von Seitz (1995) wurde die Aufgabe gestellt, Phantasiebuchstaben (Ideogramme) zu erlernen und zu üben. Um gleichzeitig PETMessungen vornehmen zu können, fand die Ausführung liegend statt und das visuelle Feedback wurde über einen Monitor gegeben. Die Schreibspur wurde mit einem Schreibtablett gemessen. Messungen wurden vorgenommen a) während der ersten Lernphase, b) nach einer Viertelstunde Übung (Performance-Phase) sowie c) während der Schreibung des bekannten Buchstabens ‹r›, der in fünf verschiedenen Größen je einmal möglichst schnell und einmal möglichst exakt geschrieben werden sollte. Die vier Aufgaben unterschieden sich signifikant bezüglich der durchschnittlichen Schreibgeschwindigkeit in drei Stufen (Lernphase: ca. 70 mm/s; Performance-Phase und exaktes Schreiben: ca. 100 mm/s; schnelles Schreiben: ca. 150 mm/s) sowie in den bei den Versuchspersonen signifikant gemeinsamen Aktivierungsarealen. Während in der Lernphase vor allem linksseitig im motorischen Kortex und rechtsseitig im Nucleus dentatus und im Vermis erhöhte Aktivierung auftrat, waren in der Performance-Phase zusätzlich prämotorische Aktivierungsareale tätig. Bei den Schreibungen des ‹r› erhöhte sich die Aktivierung des prämotorischen Cortex sowohl hinsichtlich der Größe des Areals als auch des Grades. Im rechtsseitigen Nucleus dentatus hin-
28 gegen nahm die Aktivierung ab und war unter der Bedingung des schnellen Schreibens nicht mehr nachweisbar. Des Weiteren waren unter allen Bedingungen Regionen des parietalen Assoziationscortex aktiv, der für das Bewegungssehen und die gerichtete Aufmerksamkeit verantwortlich ist (vgl. Seitz, 1995: 266ff.). Demnach werden mindestens für das Erlernen einer Schreibbewegung vorwiegend andere Hirnareale aktiviert als für automatisierte Bewegungsausführungen.
2.2.3.
Formen des Feedbacks
2.2.3.1. Propriozeptives Feedback Der Einfluss des propriozeptiven Feedbacks (Eigenwahrnehmung des Körpers) auf die Handschrift ist nach einer Untersuchung von Denier van der Gon & Thuring (1965) eher gering, obwohl die Zahl der Muskelspindeln in der Handmuskulatur sowie die Rezeptorendichte der Haut (vor allem in den Fingerspitzen; taktile Gnosis) relativ hoch sind. In einem Experiment, in dem während der Schreibungen die Reibung des Stiftes auf dem Papier kurzfristig und unerwartet für den Schreiber erhöht wurde, konnten die Versuchspersonen dies nicht kompensieren und produzierten kleinere Buchstaben, wenn auch ohne eine Veränderung der Gesamtdauer der Bewegung. Diese Abweichungen wurden von den Versuchspersonen erst einige Striche später (über den visuellen Kanal, siehe Kapitel 2.2.3.2. Visuelles Feedback ab Seite 28) bemerkt. Als Begründung hierfür lässt sich anführen, dass es sich wie bei Griffkorrekturen der Hand »nicht um spinale Dehnungsreflexe, sondern um komplexere polysynaptische Reaktionen, die möglicherweise auch supraspinale Strukturen einschließen« (Wiesendanger, 2005: 167), handelt. Die späte Reaktion deutet also darauf hin, dass es sich nicht nur um einen Dehnungsreflex handelt, bei dem Muskelspindeln über rasch leitenden Nervenfasern (80-120 m/s) Aktionspotentiale an das Rückenmark senden und einen monosynaptischen Reflex auslösen (vgl. de Marées, 1981), sondern dass Strukturen beteiligt sind, die über die schnellen Reizleitungen des Rückenmarks hinausgehen und vermutlich unter der Kleinhirnrinde gelegene Strukturen mit einschließen. Dies heißt natürlich nicht, dass propriozeptives Feedback keinen Einfluss auf die Schreibung hat, jedoch scheint sich dieses eher auf Schreibbewegungen auszuwirken, die als geführte Bewegungen bezeichnet werden, visuell kontrolliert sind und vor allem im Lern- bzw. Übungsprozess vorkommen. Im Gegensatz dazu reicht die Geschwindigkeit des propriozeptiven Feedbacks für automatisiert ausgeführte Schreibbewegungen nicht aus.
2.2.3.2. Visuelles Feedback Auch das visuelle Feedback scheint zu langsam für Anpassungen automatisierter Bewegungen zu sein und tritt erst in Kraft, nachdem Störungen aufgetreten sind (Teulings & Schomaker, 1993) und die Bewegung in kontrollierter Form fortgesetzt bzw. wiederholt wird.
29 Tatsächlich sind die so genannten Blickfolgebewegungen (smooth pursuit) nicht schnell genug, um die Schreibbewegungen eines routinierten Schreibers, der etwa fünf Auf- und Abstriche pro Sekunde ausführt (5 Hz), kontinuierlich zu verfolgen, d.h., die Stiftspitze kann bei normaler Schreibgeschwindigkeit nicht scharf gesehen werden. Auch Blicksprünge (Sakkaden), die gemessen an der Winkelgeschwindigkeit zu den schnellsten Bewegungen zählen, zu denen der menschliche Körper in der Lage ist, können nicht zum scharfen Sehen der Stiftspitze beitragen, da diese sich auf verhältnismäßig kleinem Raum bewegt und die Bewegungsrichtung sich mit der genannten hohen Frequenz verändert. Die hauptsächliche Rolle des visuellen Feedbacks scheint eher darin zu liegen, das unmittelbar fertiggestellte Produkt zu prüfen (bei rechtsläufiger Schrift liegt der Blick also knapp links der Stiftspitze) und dabei Eigenschaften wie z.B. die Einhaltung des horizontalen Verlaufs oder der Schriftgröße zu kontrollieren. Hierfür scheint das visuelle Feedback schnell genug, wie Marquardt, Gentz & Mai (1996) in einem Experiment zeigen konnten, in dem die visuelle Kontrolle über einen PC-Monitor in Bezug auf die Größe manipuliert wurde. Die Versuchspersonen passten die Größe des folgenden Buchstabens ohne Einbußen bei der Schreibflüssigkeit an das um ein Drittel vergrößerte bzw. verkleinerte Feedback an. Gestützt werden diese Ergebnisse durch die Untersuchung von Kandel, Orliaguet & Boë (1994), in der Versuchspersonen einen folgenden Buchstaben besser vorhersagen konnten, wenn ihnen die Produktion des vorhergehenden Buchstabens gezeigt wurde, als wenn sie nur das Endprodukt betrachten konnten. Dieses Ergebnis deutet auf implizites Wissen über die Dynamik der Handschrift hin, dass über den visuellen Kanal aktiviert werden kann. In Experimenten mit unterdrückter Sichtkontrolle (d.h., 'Blindschreiben'; van Galen, Smyth, Meulenbroek & Hylkema, 1989) zeigte sich eine Verlangsamung der Schreibgeschwindigkeit, die jedoch individuell sehr unterschiedlich ausfiel. Dabei waren Strichwiederholungen wie in ‹m› und ‹n› anfälliger für Verlangsamungen. Hieraus schlossen die Autoren, dass die visuelle Kontrolle auch dazu diene, die Kurzzeitspeicher vom bereits Geschriebenen zu entlasten. Darüber hinaus wird die visuelle Kontrolle von Schreibanfängern oder neurologischen Patienten eingesetzt, die die automatisierte Bewegungsausführung noch nicht oder nicht mehr beherrschen. Hier erfolgt die Schreibbewegung so langsam bzw. verlangsamt, dass eine Blickfolgebewegung möglich ist. Dabei unterscheiden sich weiter Erstschriftlerner von Lernern eines weiteren Schriftsystems dadurch, dass Letztere bereits auf ein großes Repertoire von Bewegungsmustern zurückgreifen können, für die eine visuelle Kontrolle nicht notwendig ist. Bereits automatisierte Schreibbewegungen werden durch die bewusste visuelle Kontrolle eher gestört als gestützt (Mai, Marquardt & Quenzel, 1997).
2.2.4.
Kinematische Aspekte
Die zwei wichtigsten kinematischen Parameter der Handschrift sind die Buchstabenform und die Bewegungsgeschwindigkeit (des Weiteren wären der Druck auf die Schreibunterlage und der Winkel zwischen dem Stift und dem Papier zu nennen). Im Folgenden sollen zunächst die vier von Viviani & Terzuolo (1983: 104ff.) vorgeschlagene Prinzipien genannt
30 werden, die sich aus der Kovarianz der beiden erstgenannten Parameter ergeben, und diese anschließend diskutiert werden. 1. Buchstabenform und die Bewegungsgeschwindigkeit kovariieren in Bezug auf die Winkelgeschwindigkeit bei der Bewegungswiederholung (unter der Winkelgeschwindigkeit versteht man den bei einer Kreisbewegung im Zeitintervall ∆t überstri∆t chenen Winkel ∆ϕ , also Winkelgeschwindigkeit = ∆ϕ ; die Winkelgeschwindigkeit des Minutenzeigers einer Uhr mit einer Umdrehung pro Stunde beträgt z.B. 360° pro Stunde bzw. 0,1° pro Sekunde). Hier gilt das so genannte Prinzip der Isogonie (isogonal = gleichwinklig). 2. Das räumliche Verhältnis der einzelnen Bewegungsteile bleibt relativ konstant über Veränderungen der Schriftgröße; dies bezieht sich auch auf unterschiedliche Effektoren, zumindest was die Zielführung betrifft (Prinzip der motorischen Äquivalenz [motor equivalence]). 3. Das Gleiche gilt für zeitliche Relationen, die über Veränderungen der Schreibgeschwindigkeit relativ konstant bleiben (homothetisches Prinzip). 4. In der Handschrift vieler Schreiber zeigt sich die Tendenz, gleiche Bewegungen unterschiedlicher Länge in der gleichen absoluten Dauer zu vollführen, d.h., längere Bewegungen werden schneller ausgeführt als kleine, um die größere Strecke in ähnlicher Zeit zu absolvieren (Prinzip der Isochronie; isochron = gleich lang dauernd). Seit der ersten Aufzeichnung der Handschrift (Binet & Courtier, 1893) ist bekannt, dass der Zeitverlauf der tangentialen Geschwindigkeit und der des Radius der Rundung starke Parallelen aufweisen, oder anders gesagt, je kleiner der Radius einer Rundung ist (im Extremfall Null mit einem Winkel von 180°), desto geringer ist die Geschwindigkeit des Stiftes auf dem Papier (im Extremfall wiederum Null). Dies ist nicht weiter überraschend, wenn man den Vergleich eines Autos heranzieht, das auf gerader Strecke und in weiten Kurven schneller fahren kann als in engen Kurven. Dieses Verhalten wurde für die Geschwindigkeit der Stiftspitze auf dem Papier in der Handschrift im Experiment mit computerbasierter Aufzeichnung vielfach nachgewiesen (Viviani & Terzuolo, 1980, 1982b, Lacquaniti, Terzuolo & Viviani, 1983). Demnach werden Teile von Bewegungen, die einen gleichen Winkel beinhalten, tendenziell in der gleichen Geschwindigkeit ausgeführt. Viviani & Terzuolo (1982b) tauften diesen Effekt daher als Prinzip der Isogonie. Da dieses Prinzip größtenteils auf physikalischen Bedingungen beruht, wird es in der Literatur nicht in Frage gestellt. Eine zentrale Rolle für die Beschreibung der Handschrift spielt der Begriff des motorischen Programms. Grundlegend ist hier die Beobachtung, dass Buchstaben, die von unterschiedlichen Effektoren produziert werden (z.B. Schreiben mit der dominanten Hand, mit der nicht-dominanten Hand, mit dem Fuß, mit den Zähnen usw.), sich in ihrem generellen Erscheinungsbild (dem Ziel) nur wenig unterscheiden (Prinzip der motorischen Äquivalenz; Stelmach & Teulings, 1983). Dabei ist die Variabilität im Erreichen des Ziels geringer als die Variabilität der einzelnen Vektoren (Zielinvarianz). Ein gespeichertes motorisches Programm ist demnach eine abstrakte, muskelunspezifische Repräsentation einer Bewegung. Diese Sicht wird auch von Viviani & Terzuolo (1980, 1982b, 1983) vertreten, nach denen neben den räumlichen Parametern auch das zeitliche Verhältnis der einzelnen Bewe-
31 gungsteile über Veränderungen der Schreibgeschwindigkeit relativ konstant bleibt. Sowohl Wing (1978, 1980) als auch Viviani & Terzuolo (1980, 1982b) konnten nachweisen, dass größere und kleinere Schreibungen der gleichen Buchstaben(-folgen) sich in der zeitlichen Dimension weniger unterscheiden als in der Höhe der Zeichen. So führt z.B. eine Verdoppelung der Schriftgröße nicht zu einer Verdoppelung der Schreibdauer, wenngleich diese auch erhöht ist (bei Wing [1978] ist dieser Unterschied signifikant). Dies stützt die Annahme, dass die Bewegungsgeschwindigkeit und die Bewegungsweite unabhängige Parameter sind, von denen Ersterer weniger variabel ist als der Letztere. Wing (1980) unterscheidet zwei unterschiedliche Prozesse der Größenanpassung: Einerseits die willentliche Vergrößerung der Schrift, bei der alle Buchstaben größer als in der 'normalen' Handschrift geschrieben werden. Andererseits einen Prozess, in dem innerhalb eines Wortes eigentlich gleichförmige Buchstaben in unterschiedlichen Größen geschrieben werden (z.B. ‹F› und ‹M›), um diese zu unterscheiden. In seiner Untersuchung unterschieden sich die Zeitspannen der Schreibungen für ‹F› und ‹M› innerhalb von Wörtern um 28%, wohingegen sich die Höhe der beiden Buchstaben um 82% unterschied. Im Vergleich dazu liegen bei der vergrößerten Schreibung des ganzen Wortes zwischen den normalen und vergrößerten Schreibungen bezüglich der Größe und der Dauer der Bewegung vergleichbare Unterschiede vor: 27% größer und 24% längere Dauer. Dieser Unterschied ist mit der Annahme eines motorischen Programms gut zu erklären: Bei unterschiedlichen Buchstaben handelt es sich um unterschiedliche motorische Programme (und nur hier gilt das Prinzip der Isochronie), bei gleichen Buchstaben wird dasselbe Programm mit unterschiedlichen Größenparametern aktiviert. Die räumliche und zeitliche Invarianz und somit das Prinzip der motorischen Äquivalenz und das homothetische Prinzip werden jedoch von späteren Arbeiten mehr oder weniger eingeschränkt. In Bezug auf unterschiedliche Effektoren fand Wright (1990, 1993) einige Unterschiede bezüglich der Beschleunigung innerhalb der Auf- und Abstriche, der Flüssigkeit der Bewegungen und in den Details der Buchstabenformen im Vergleich der dominanten und der nicht-dominanten Hand. Diese Unterschiede waren aber im Vergleich kleiner (hauptsächlich von Finger- und Handgelenk produzierter) und großer (hauptsächlich durch Armbewegungen erzeugter) Schreibungen mit der jeweils dominanten Seite wesentlich geringer. Castiello & Stelmach (1993) untersuchten die Schreibungen eines Linkshänders, der durch einen Unfall den linken Unterarm verloren hatte und daher auf das Schreiben mit der rechten Hand ausweichen musste. Die Versuchsperson erhielt acht Jahre nach ihrem Unfall eine myoelektrische Prothese für die verlorene linke Hand und erlernte mit dieser zu schreiben (myo = Muskel [gr.]; Fremdkraftprothese: Die noch vorhandenen Spannungen zur Steuerung der Restmuskeln werden von zwei oder mehr Elektroden zur Steuerung der Prothese abgenommen, verstärkt und als Steuerimpuls zum Öffnen, Schließen und Drehen der Elektrohand benutzt [vgl. Ärzte Zeitung, 2002]). Im Experiment wurden die Schreibungen der Versuchsperson mit (1) der myoelektrischen Hand, (2) der gesunden, aber nicht-dominanten rechten Hand und (3) des linken Armes (mit am Ellenbogen befestigtem Schreibgerät) miteinander verglichen. Sowohl die qualitative Untersuchung des Endproduktes als auch die kinematische Analyse der Produktion zeigten hohe Übereinstimmungen zwischen
32 den unterschiedlichen Effektoren. Bei einer ebenfalls linkshändigen gesunden Kontrollperson wurden jedoch größere Unterschiede zwischen den Effektoren gefunden und nur die generelle Form der Buchstaben stimmte überein. Wann & Nimmo-Smith (1990: 105) bezeichnen die räumliche Invarianz der Handschrift über verschieden große Schreibungen (desselben Effektors) als »motor myth«. In ihrer Untersuchung schrieben elf Versuchspersonen die beiden Wortpaare ‹select› / ‹delete›, ‹seclude› / ‹delude› eingebettet in einen Text je 72 Mal. 32 dieser Schreibungen erfolgten in der gewohnten Handschrift und für je 20 Schreibungen lautete die Aufgabe entweder doppelt so groß oder doppelt so schnell zu schreiben. Beide abweichenden Aufgaben interagierten: größer intendierte Schreibungen waren auch leicht schneller (um 10%, signifikant), die schnellere Produktion führte zu leicht größeren Schreibungen gegenüber der normalen Ausführung (9%, signifikant). Bei größeren Schreibungen verändert sich die Höhe stärker als die Breite: die durchschnittliche Verlängerung der Strichlänge um 65% setzt sich aus 46% horizontaler und 78% vertikaler Verlängerung zusammen. Dabei wird allerdings die Form bzw. das Höhen- und Seitenverhältnis der Buchstaben nur wenig verändert, stattdessen wird vor allem der relative Abstand zwischen den Buchstaben verringert, die Schrift wird also schmaler. Um die Vorhersage der zeitlichen Proportionalität zu überprüfen, stellten Wann & Nimmo-Smith (1990: 107) folgende Gleichung (2) auf:
T ij=R j Di e ij
(2)
Hier ist die Dauer eines Striches Tij das Produkt aus der (zentral gespeicherten) relativen Dauer (Di) und dem Geschwindigkeitsparameter der aktuellen Schreibung (Rj) plus Zufallsfehler (eij). Ein Strich (Auf- oder Abstrich) ist nach Hollerbach (1981) definiert als ein Element eines (in normaler Geschwindigkeit) produzierten Zeichens, das zwischen zwei NullDurchgängen der vertikalen Geschwindigkeit (Y-Achse) liegt. Demnach kann der Buchstabe ‹M› in zwei Striche geteilt werden: Der (Auf-)Strich endet im höchsten Punkt (hier ist die vertikale Geschwindigkeit Null), von dem aus auch der (Ab-)Strich beginnt, der wiederum im tiefsten Punkt endet. Während des Aufstriches ist die vertikale Geschwindigkeit positiv und während des Abstriches negativ. Folgt nach dem ‹M› ein weiterer Buchstabe, so schließt sich nach einem weiteren Null-Durchgang der vertikalen Geschwindigkeit wiederum ein Aufstrich an usw. Veränderungen der horizontalen Stiftposition spielen bei der Bestimmung der Auf- und Abstriche keine Rolle. Die Reduktion auf die Hauptbewegungsrichtung dient der Vereinfachung der Analyse. In den beiden untersuchten Wörtern ‹select› und ‹delete› (ob und warum das andere Wortpaar nicht weiter untersucht wurde bzw. über sie nicht berichtet wird, wird nicht begründet) ergaben sich so jeweils fünf Auf- und Abstriche, da der jeweils erste Buchstabe sowie die t-Striche aufgrund möglicher Konfusionen nicht untersucht wurden. Nach Gleichung (2) müsste sich die Dauer jedes Striches eines Wortes konstant zur Gesamtschreibdauer des Wortes verhalten, unabhängig davon, wie lang Letztere ist. Wenn also der dritte Aufstrich innerhalb eines Wortes in einer Schreibung doppelt so lange dauert wie der folgende Abstrich, dann sollte dieses Verhältnis sowohl bei langsamen als auch bei schnellen Ausführungen konstant sein. Wäre dies der
33 Fall, so müsste die Steigung einer linearen Regression der Verhältnisse der einzelnen Striche gegen die jeweilige Dauer des gesamten Wortes über alle Wiederholungen Null sein, d.h., der relative zeitliche Anteil eines Striches an der Gesamtschreibdauer eines Wortes sollte konstant sein. Wann & Nimmo-Smith (1990) überprüften diese Hypothese, indem sie für jeden Strich jeder Versuchsperson die Steigung der Regressionskurve über die Wiederholungen ermittelten und hieraus prozentual bestimmten, in wie vielen Fällen sich die Steigung signifikant von Null unterschied. Diese Ablehnungsrate betrug innerhalb der drei Bedingungen normal, groß und schnell 16,8%, 14,5% und 16,8%. Bei Vergleichen zwischen den verschiedenen Bedingungen ergaben sich jedoch sehr viel stärkere Ablehnungsraten: normal vs. schnell 28,6% bzw. normal vs. groß 30,4%. Gentner (1987) schätzte in einer vergleichbaren Anwendung auf die Tastaturschrift (siehe Kapitel 2.1.5. Größe der Basiseinheit, Seite 10ff.), dass im Falle einer geringen Variabilität, die bei der häufigen Wiederholung der gleichen Wörter gegeben ist, die Ablehnungsrate 10% nicht übersteigen sollte. Wann & Nimmo-Smith (1990: 113) schlagen vor, mit etwas »lenience« [Nachsicht] für die wiederholten Schreibungen bei der Mehrzahl der Versuchspersonen ein stabiles zeitliches Muster anzunehmen, für den Vergleich über verschiedene Bedingungen hinweg sei dies aber nicht mehr der Fall. Als Fazit stellen sie fest: »any attempt to describe size and speed changes in human handwriting in terms of linear transformations is something of an oversimplification« (Wann & Nimmo-Smith, 1990: 115). Ähnlich äußern sich auch Teulings, Thomassen & van Galen (1986) und Teulings & Schomaker (1993), die unterschiedliche Hierarchiestufen für die Repräsentation des motorischen Programms und die Anpassung an die Effektoren postulieren. Ihre Grundannahme lautet, dass hoch invariante Eigenschaften der Striche auf höhere Repräsentationen zurückzuführen sind als Eigenschaften, die in der wiederholten Ausführung variabler sind. Für die Analyse verwendeten Teulings et al. (1986) die so genannte signal-to-noise ratio (SNR; Signal-Rausch-Verhältnis), für die die Standardabweichung des über die Wiederholungen gemittelten und normalisierten Signals mit der Standardabweichung der Abweichungen von diesem Signal (Rauschen) verglichen wird. In der Untersuchung zeigte sich, dass die Strichlänge stabiler war als die Strichdauer und die eingesetzte (Höchst-)Kraft (proportional zur Höchstbeschleunigung). Die Autoren schlossen hieraus, dass die Strichlänge auf einer hierarchiehöheren Stufe repräsentiert ist und die Strichdauer und die Kraft aus der Strichlänge abgeleitet werden. Einen Schritt weiter gingen Teulings & Schomaker (1993), indem sie zwischen Auf- und Abstrichen unterschieden. In ihrer Studie baten sie vier rechtshändige Versuchsteilnehmer, das Wort ‹elementary› jeweils 16 Mal in normaler, schnellerer und langsamerer Form mit der Hand zu schreiben. Grundsätzlich konnten die Ergebnisse von Teulings et al. (1986) repliziert werden, also räumliche Eigenschaften der Striche waren weniger variant als dynamische Eigenschaften wie Strichdauer und Kraft. Interessanterweise waren die untersuchten Abstriche bezüglich der vertikalen Weite weniger variant als die Aufstriche. Dies begründen die Autoren damit, dass Aufstriche häufig auch für die Verbindung zum folgenden Buchstaben eingesetzt werden und einen größeren Anteil horizontaler Bewegungen beinhalten, die zu größeren Varianzen führen als vertikale Anteile. Ähnlich hatten auch schon Meulenbroek & van Galen (1989) argumentiert, die größere Varianzen in den von acht- bis zwölfjährigen Kindern produzierten Buchstabenverbindungen
34 fanden als in den Buchstaben selbst. Sie folgern daher, dass die Abstriche die Hauptinformationsträger der Handschrift seien. Überzeugend für die Argumentation, dass räumliche Muster in der Handschrift einen höheren hierarchischen Status einnehmen als zeitliche Muster, ist aber vor allem die Überlegung im Hinblick auf einen Leser: Das Ziel ist hier ausschließlich auf räumliche Relationen ausgerichtet, oder anders gesagt: für den Leser spielt der zeitliche Ablauf während der Produktion keine Rolle, sondern es zählt nur das räumliche Endprodukt. Für die Eigenschaften eines motorischen Programms kann gefolgert werden, dass eher ein 'Gerüst' der allgemeinen Form repräsentiert ist und dass Parameter wie relative Größe, relative Dauer und relative Kraft zwar grob, aber eben nicht vollständig spezifiziert sind. Dabei ist die Größe oder relative Strichlänge detaillierter (hierarchiehöher) repräsentiert als die relative Strichdauer und die eingesetzte Kraft. Die beiden letzteren Parameter werden vermutlich auf der Grundlage der Strichlänge angepasst. Des Weiteren können unterschiedliche Effektoren aber durch Übung zu annähernd gleichen Bewegungsausführungen gelangen, wie das Beispiel der Schreibungen mit der nicht-dominanten Hand bei der von Castiello & Stelmach (1993) untersuchten Person demonstriert. Umgekehrt zeigen die Unterschiede zwischen dominanter und nicht-dominanter Hand bei Wright (1990) und Castiello & Stelmach (1993; Kontrollperson), dass die Umsetzung eines motorischen Programms durch einen ungeübten Effektor von der Ausführung des geübten Effektors abweicht; dies scheint auch durch die Lateralität beeinflusst zu sein, wenn unterschiedliche Effektoren einer Seite ähnlicher agieren als gleiche Effektoren verschiedener Seiten. Jedoch liegt hier ein klassisches 'Henne-Ei-Problem' vor, d.h., es lässt sich nicht entscheiden, ob die Ursache die nicht ausreichende Spezifikation des motorischen Programms ist, das möglicherweise erst an den Effektor angepasst werden muss, oder ob sich der Effektor an die Ausführung des motorischen Programms 'gewöhnen' muss. Einen alternativen Ansatz zum motorischen Programm stellt Hollerbachs Modell der Handschriftengenerierung (Hollerbach, 1981) dar: Statt eines aktiven Prozesses, durch den die Gestalt eines Buchstabens geformt wird, existieren in diesem Modell typische Muster, deren Form durch Modulationen (Veränderungen) in die des Zielbuchstabens umgeformt werden: »A modulation will change the underlying oscillation pattern to a new one, which like the old will propagate indefinitely unless it too is modulated. In a sinusoidal based oscillation, for example, an original F cycloid can be modulated to an M cycloid, and after this modulation the new underlying pattern is the M cycloid« (Hollerbach, 1981: 155).
Es handelt sich demnach um einen Prozess auf zwei Ebenen: Um ein Wort aus mehreren Buchstaben zu erzeugen, muss eine Sequenz von Modulationen (Ebene 2) auf die bestehenden Muster (Ebene 1) angewendet werden. Dies lässt sich in der Computer-Metaphorik mit der Funktionsweise der Videokompression verdeutlichen: Um den Speicher zu entlasten, werden im jeweils folgenden Bild nur diejenigen Pixel bearbeitet, die sich vom vorhergehenden Bild unterscheiden. So wird die komplette Abbildung der Bilder als Ganzes eingespart, dafür steigt die Belastung des Prozessors, der die Unterschiede berechnen muss. Hollerbach (1981) spekuliert, dass diese Reduktion der Speicherkomplexität der Handschrift eine Voraussetzung dafür ist, zur gleichen Zeit denken und schreiben zu können. Jedoch
35 müssten auch die Modulationen der Basis-Oszillation für jedes Zeichen zentral repräsentiert sein – und zwar mindestens in den von dieser abweichenden Merkmalen, möglicherweise aber sogar in allen denkbaren Kombinationen aus den gegebenen Zeichen, da als zugrunde liegendes Muster immer das vorhergehende Zeichen genutzt wird (im deutschen Schriftsystem kommen 723 verschiedene Buchstabenkombinationen vor [177 der 900 möglichen Kombinationen widersprechen graphotaktischen Prinzipien (z.B. alle Kombinationen mit ‹q*› außer ‹qu›) und/oder werden nicht verwendet, z.B. ‹wm›; berechnet auf Grundlage der CELEX Wort-Datenbank; Baayen, Piepenbrock & van Rijn, 1993]). Gegen dieses Modell sprechen auch die Daten von Wing (1980; siehe Seite 31): Gäbe es kein zugrunde liegendes motorisches Programm, dann sollten sich Größenmodulationen zwischen verschiedenen Buchstaben und gleichen Buchstaben nicht in der von Wing (1980) gefundenen Weise unterscheiden.
2.2.5.
Größe der Basiseinheit
Auch in der Literatur zur Handschrift als motorische Fertigkeit steht die Frage nach der Größe der Basiseinheit im Zentrum. Die Beschreibung eines motorischen Programms allein sagt noch wenig über die zugrunde liegenden und übergeordneten Prozesse aus. Dabei zeigt sich, dass die intuitiv anzunehmende Größe des einzelnen Buchstabens sich auch in den kinematischen Analysen als eine wichtige Größe herausstellt. Hier ist es sinnvoll, diese Größe zunächst im Zusammenhang des Schriftsystem zu betrachten. In den meisten alphabetischen Schriftsystemen existieren für fast alle Grapheme durch die Groß- und Kleinschreibung mindestens zwei verschiedene Zeichen. Viele Schreiber haben darüber hinaus durch Druck- und Handschrift ein Repertoire von mehreren unterschiedlichen Versionen eines Buchstabens oder die Form hängt von der Position innerhalb eines Wortes ab (vor allem bei verbundenen Schriften). Die unterschiedlichen Formen, die ein Buchstabe annehmen kann, werden als seine Allographen bezeichnet. Ein einzelner schriftlich realisierter Buchstabe wird als Graph benannt (siehe Abbildung 1, Seite 36); dabei ist seine Zugehörigkeit zu einem Graphem noch nicht weiter bestimmt. Ein Graphem kann im Deutschen durch bis zu drei Buchstaben/Graphen repräsentiert sein (z.B. ‹sch› = Trigraphem). Verschiedene Autoren versuchten, der Größe der Basiseinheit durch Reaktionszeitstudien auf den Grund zu gehen. Wing (1978) untersuchte den Einfluss der Komplexität graphischer Zeichen auf die Reaktionszeiten in Schreibungen der Buchstaben ‹v, w, n, m›. Die Versuchspersonen wurden in mehreren Sitzungen mit jeweils dreihundert Schreibungen mit dem Design vertraut gemacht, sodass Buchstabenfrequenzen keine Rolle mehr spielen sollten. Wings Ergebnissen zufolge hat die Komplexität eines Buchstabens keinen Einfluss auf die Reaktionszeiten kompetenter Schreiber. Beim kinematischen Vergleich der jeweils identischen Anfangssequenzen der beiden Buchstabenpaare fanden sich sehr hohe Übereinstimmungen. Der jeweils erste Strich war bei allen Schreibungen langsamer als die folgenden. Darüber hinaus fand Wing (1978) positive Korrelationen zwischen aufeinander folgenden Auf- und Abstrichen (d.h., wenn z.B. ein Aufstrich relativ langsam ist, dann ist
36 auch der folgende Abstrich meist relativ langsam), was dafür spricht, dass eher Gruppen von Strichen eine motorische Einheit bilden als einzelne Striche.
Abbildung 1:
Der schriftlichen Realisierung (Graph) liegen abstrakte motorische Programme in Form von Allographen zugrunde; diese wiederum sind als Graphem lexikalisiert. Als Allographen sind hier Druckschrift, Lateinische Ausgangsschrift und Vereinfachte Ausgangsschrift gewählt (Abbildung angelehnt an Ellis [1982: 129]).
In ähnlicher Weise beobachteten Hulstijn & van Galen (1983), dass Reaktionszeiten länger wurden, wenn die zu kopierende Sequenz um einen Buchstaben verlängert wurde. Dies trifft jedoch wie bei Wing (1978) nicht auf die Anzahl der Striche innerhalb eines Buchstabens zu. Teulings, Thomassen & van Galen (1983) konnten zeigen, dass die Schreibung von Paaren identischer Buchstaben schneller initiiert werden konnte als die Schreibung zweier unterschiedlicher Buchstaben. Buchstabenpaare aus unterschiedlichen Buchstaben mit gleicher Strichfolge unterschieden sich jedoch bezüglich der initialen Reaktionszeiten nicht von unterschiedlichen Buchstaben mit unterschiedlicher Strichfolge. Diese Befunde stützen die Annahme der Repräsentation von motorischen Programmen als Allographen, die sich motorisch weiter in Auf- und Abstriche unterteilen lassen. Jedoch muss diese Sicht auf automatisierte Schreibbewegungen eingeschränkt werden, da Hulstijn & van Galen (1988) in den Reaktionszeiten auf unbekannte Zeichen durchaus einen Effekt der Anzahl der Striche fanden. Zu ähnlichen Ergebnissen kamen auch Portier, van Galen & Meulenbroek (1990), die nachwiesen, dass die Dauer des ersten Striches eines unbekannten Zeichens im Verlauf der Übung zunächst zunahm. Die Autoren interpretierten dies dahingehend, dass beim Erlernen eines neuen Zeichens zuerst strichweise vorgegangen wird und erst im Verlauf des Lernens mehr und mehr Striche zu einer Einheit zusammengefasst werden (vgl. hierzu auch die Befunde in Kapitel 2.2.2. Neurologische Aspekte ab Seite 27). Aufgrund des höheren Verarbeitungsaufwandes führe Letzteres zunächst zu längeren Produktionszeiten zu Beginn der Schreibungen.
37 Auch bei der willentlichen Modifikation der Schreibung treten Unterschiede zwischen der Veränderung des gesamten Wortes oder Zeichens und der Veränderung einzelner Teile eines Zeichens auf. Pick & Teulings (1983) konnten nachweisen, dass es Versuchspersonen vergleichsweise leicht fiel, die Größe oder die Neigung der Schreibungen zu variieren, dass sie jedoch große Schwierigkeiten hatten, Striche innerhalb eines Zeichens unabhängig voneinander abzuwandeln. Weitere Evidenz für die Repräsentation von Allographen und nicht einzelner Striche kommt aus der bereits oben genannten Studie von Teulings & Schomaker (1993). Durch die Berechnung der Korrelation zwischen aufeinander folgenden Strichen gingen sie der Frage nach, ob z.B. die Strichlänge für jeden Strich unabhängig variiert oder ob dieses Merkmal für eine Gruppe von Strichen (kleiner, gleich oder größer als das Muster) kovariiert. Die Ergebnisse stützen die Annahme einer Sequenz-Hierarchie, in der mehrere Striche gemeinsame Merkmale aufweisen. Negative Korrelationen bezüglich der Strichlänge zwischen aufeinander folgenden Strichen deuten auf Gruppen aus mindestens zwei Strichen. Für die Strichdauer wurden allerdings im Gegensatz zu Wing (1978, siehe Seite 35) keine signifikanten Korrelationen gefunden, was wiederum auf die unterschiedliche Repräsentation räumlicher und zeitlicher Maße hindeutet. Auch zeigte sich die Tendenz, dass Abweichungen eines Striches im folgenden Strich korrigiert werden können. Diese Erkenntnisse werden auch in der automatischen Handschrifterkennung umgesetzt, in der durch die Analyse von Strichgruppen bessere Erkennungsergebnisse erzielt wurden als durch die Analyse einzelner Striche (Edelman, Flash & Ullman, 1990). Die Produktion eines Wortes besteht demnach aus einer Verkettung der Programme für die einzelnen Allographen. Deren Repräsentationen sind eher räumlich als zeitlich spezifiziert und bestehen aus einer Sequenz von Auf- und Abstrichen. »Diese Sequenz ('graphic motor pattern') spezifiziert die Richtung, relative Größe, Position und Abfolge der einzelnen Striche, die den ausgewählten Allographen charakterisieren« (Mai & Marquardt, 1995a: 539).
2.2.6.
Lernprozesse
Die Handschrift stellt für fast alle Schreiber die erste erlernte Schreibform dar und wird in der Regel zu Beginn der Grundschule zuerst systematisch vermittelt. Im Gegensatz dazu findet das Erlernen des Tastaturschreibens, wenn überhaupt, erst in späteren Schuljahren unter völlig anderen Bedingungen statt: (fein-)motorische und orthographische Fähigkeiten sind erheblich weiter entwickelt. Daher ist die Lernkurve bei der Tastaturschrift wesentlich steiler und Zeitmuster verändern sich bei entsprechendem Training sehr schnell. Das Erlernen der Handschrift dagegen unterliegt einem sehr langwierigen Prozess – nicht zuletzt da die genannten motorischen und orthographischen Voraussetzungen noch nicht gegeben sind.
38 2.2.6.1. Vorschulische Entwicklung Vor Beginn der ersten Instruktionen sind bei den meisten Kindern durch Malen und Zeichnen zwar grundsätzliche motorische Fähigkeiten vorhanden, jedoch stellt die Handschrift erheblich größere Anforderungen an die Feinmotorik. Viele Kinder versuchen, die Schreibtätigkeit der Erwachsenen in der Vorschulzeit mit Kritzelbriefen zu imitieren, anhand derer sich unterschiedliche Entwicklungsstufen bezüglich der Repräsentation eines Schriftmodells ablesen lassen (siehe nächster Absatz). Auch eine (diffuse) Vorstellung davon, was Schrift ist, haben die Kinder schon vor den ersten formalen Schreibinstruktionen. In ihrer Umwelt hatten sie vielfältigen Kontakt mit gedruckter Schrift auf Verpackungen, Schildern, in der Werbung usw., aber auch in konventionellen Umgebungen wie Büchern, Zeitschriften und Zeitungen. Dieser Kontakt kann auch negativ geprägt sein, indem die Kinder merken, dass sie mit dem Geschriebenen noch nichts anfangen können oder Eltern sich durch das Lesen der sozialen Interaktion entziehen. Durch das Vorlesen kann sich aber schon eine Erkenntnis über das Wesen der Schrift einstellen: Ein geschriebener Text wird immer auf die gleiche Weise vorgelesen, die Reproduktion ist also konstant. Diese Erkenntnis zeigt sich, wenn ein Kind, dem ein bestimmter Text schon mehrfach vorgelesen wurde, Lesefehler oder inhaltliche Abkürzungen bemerkt und kommentiert: "Das steht so nicht da!" (vgl. Maas, 1992: 33). Darüber hinaus besitzen Vorschulkinder bereits ausgeprägte mündliche Sprachfähigkeiten. Die vorschulische Entwicklung wurde u.a. von De Goes & Martlew (1983) und Gombert & Fayol (1992) untersucht. In beiden Untersuchungen wurden 3- bis 6-jährige Kinder gebeten, unter verschiedenen Bedingungen (Diktat, Kopie, freies Schreiben) zu 'schreiben' und die Ergebnisse Entwicklungsstufen zugeordnet. Dies beginnt mit Kritzeleien, die keinen Bezug zur Schreibaufgabe zeigten, sondern hauptsächlich als Geste bzw. Schreibakt ausgeführt wurden. In diesem frühen Stadium findet sich noch kein Unterschied zwischen Malen und Schreiben: Nach Diktat werden häufig Piktogramme gezeichnet und das Abschreiben stellt noch eine Folge von Strichen dar. Mit zunehmendem (Entwicklungs-)Alter steigt die Zahl der Pseudobuchstaben und der 'echten' Buchstaben (hier zuerst die Buchstaben aus dem eigenen Namen) und Kopien von bereits Geschriebenem orientieren sich stärker am Original. Hier wurde bereits das Prinzip der Schriftsprache erkannt und umgesetzt, nach dem sich wiederholende Einheiten auf die gleiche Weise verschriftet werden. Auf der nächsten Stufe werden fast ausschließlich Buchstaben und Pseudobuchstaben verwendet und es finden sich bei einigen Kindern erste rudimentäre Anwendungen von Phonem-Graphem-Korrespondenzen. Einzelne Kinder drücken ihre Erkenntnis zur Funktionsweise des Schriftsystems in der Weigerung zu schreiben aus: Sie haben verstanden, dass das System für sie noch zu komplex ist und sie es daher noch nicht anwenden können. Bezüglich des Erkenntnisgrades über das Schriftsystem kann unterschieden werden zwischen: 1. dem grundsätzlichen Wissen darüber, dass die Reproduktion (das Lesen) eines geschriebenen Textes konstant ist;
39 2. der Anwendung dieses Wissens auf selbst produzierte 'Texte', die sich in Kopien zeigt, die dem Original stark ähneln oder in ähnlichen Produktionen für das gleiche Wort; 3. und schließlich der von der Semantik abstrahierten Anwendung dieses Prinzips auf gleich klingende Einheiten. Um sowohl den semantischen (2) als auch den phonologischen (3) Repräsentationen in den Schreibungen von Vorschulkindern auf den Grund zu gehen, variierten Gombert & Fayol (1992) einerseits die Zahl der Objekte bzw. Handlungen in den diktierten Stimuli und andererseits die Zahl der Silben. So konnte überprüft werden, ob eine steigende Zahl von (sich wiederholenden) Nomen sich in der Zeichenfolge niederschlägt, indem Phrasen / Sätze wie Pierre; Pierre et Jean; Pierre et Jean mangent un gâteau; Pierre et Jean mangent un gâteau et une pomme [Pierre und Jean essen einen Kuchen und einen Apfel.] diktiert wurden. In gleicher Weise wurden auch Sätze mit steigender Verb-/Adverbanzahl eingesetzt. Durch die sukzessive Erweiterung des Satzes konnte auch überprüft werden, ob gleiche Elemente auch auf die gleiche Art wiedergegeben wurden. In ähnlicher Weise wurden zur Überprüfung der Umsetzung phonologischer Übereinstimmung Einzelwortpaare, bestehend aus einem kurzen und langen Nomen präsentiert, bei denen das kürzere Teil des längeren ist (/Sa/ - /Sapo/, ‹Chat› - ‹Chapeau›, [Katze – Hut], /pa)/ - /låpa)/, ‹Pain› - ‹Lapin›, [Brot – Kaninchen]). So konnte getestet werden, ob sich Unterschiede der phonologischen Länge in der Zeichenfolge niederschlagen und ob gleiche Silben gleich verschriftet werden. Erwartungsgemäß finden sich Merkmale des Stimulus erst bei Kindern, die relativ weit entwickelt sind. Dabei scheint es nicht so zu sein, dass es ein 1:1-Verhältnis gibt, bei dem jedem Nomen/Verb eine Zeichengruppe entspricht, sondern es scheint vielmehr einen Mechanismus zu geben, der besagt: Je mehr es zu beschreiben gibt, desto mehr schreiben die Kinder. Dabei wird zwischen den Wörtern noch nicht immer segmentiert; vielfach gleichen sich jedoch die wiederholten Einheiten. Phonologische Merkmale zeigten bei nur fünf von 48 Kindern in Form erster rudimentärer Anwendungen von Phonem-Graphem-Korrespondenzen einen Effekt. Diese Kinder stolperten nicht über Wortpaare wie ‹Pain› - ‹Lapin›, in denen nicht die erste, sondern die letzte Silbe gleich ausgesprochen wird (zu allgemeinen Entwicklungsmodellen des Schriftspracherwerbs siehe Kapitel 4.1. Enkodierung im orthographischen Lexikon, Seite 125ff.).
2.2.6.2. Schulische Entwicklung In einer Längsschnittstudie mit 63 Kindern, von denen über einen Zeitraum von fünf Jahren (Klasse 2-6) einmal jährlich eine Schreibprobe genommen wurde, untersuchten Blöte & Hamstra-Bletz (1991) die Entwicklung von 13 Kriterien (z.B. Linearität, Anzahl der Buchstabenverbindungen, Inkonsistenz der Buchstabengröße usw.). Betrachtet wurde hier nur das jeweilige Endprodukt, also keine prozessbezogenen Daten. In der Betrachtung der Entwicklung fanden die Autoren positive Korrelationen zwischen allen 13 Kriterien, d.h., die Anzahl der 'Fehler' in einem Bereich blieb im Verhältnis zu den anderen Kriterien relativ konstant, oder anders gesagt: die Veränderungen verliefen über die verschiedenen Kriterien
40 hinweg meist parallel. Gepaart traten sehr häufig eine schlechte Linearität, unregelmäßige Buchstaben-Verbindungen, unregelmäßige Buchstaben-Größe und eine instabile Schreibspur auf. Insgesamt zeigten sich Abhängigkeiten zwischen der Geschwindigkeit, der Form und der Regelmäßigkeit, die sich je nach Alter der Kinder unterschieden. In der zweiten Klasse schrieben die langsamsten Schreiber am schönsten, aber auch am unsichersten; schnellere Schreiber schrieben gleichmäßiger, wobei sich in dieser Altersstufe noch ein insgesamt uneinheitliches Bild bot. Bei Schülerinnen und Schülern der dritten Klasse produzierten die langsamen Schreiber nicht mehr die schönsten Schriftzüge, sondern schrieben sehr ungleichmäßig; die schnellste Gruppe schrieb hier am sichersten und am schönsten. In den Klassen vier bis sechs wiederum stellten die langsamste und die schnellste Gruppe jeweils die unsichersten und unsaubersten Schreiber. Schüler mit mittlerer Schreibgeschwindigkeit zeigten die besten Ergebnisse. Die Schreibgeschwindigkeit steigert sich im Verlauf der Klassen zwei und drei sehr stark; ab der vierten Klasse gibt es nur noch geringe Veränderungen (anders bei Zesiger, Mounoud & Hauert (1993), siehe unten), jedoch verschlechtert sich die Lesbarkeit der Schrift geringfügig. Dieser Abbruch der Verbesserung nach der dritten Klasse wird zum Teil der beendeten formalen Instruktion zugeschrieben. Zusammengefasst bewegen sich die größten Veränderungen in zwei Dimensionen: 1. Die Schrift entwickelt sich von unregelmäßig/ungleichmäßig in Richtung gleichmäßig, glatt, regelmäßig. Die größten Fortschritte in dieser Richtung werden in den Klassen zwei bis vier erzielt. 2. Persönlicher Stil und Ökonomisierung der Schrift treten im fortgeschrittenen Alter auf. Buchstabenverbindungen werden ausgelassen oder verändert, teilweise werden auch andere Schrifttypen genutzt (eine systematische Auflistung findet sich auf Seite 45). Zesiger et al. (1993) fanden in einer Querschnittstudie ebenfalls unterschiedliche Entwicklungsverläufe für verschiedene Merkmale. Über die fünf Altersgruppen zwischen acht und zwölf Jahren nahm die Strichlänge zunächst stark ab, blieb bei den neun- bis elfjährigen relativ stabil, um bei den Zwölfjährigen wieder anzusteigen. Die Schreibgeschwindigkeit nahm dagegen fast kontinuierlich mit dem Alter zu. Der Schreibfluss steigerte sich über die ersten drei Altersgruppen, blieb darüber hinaus aber stabil. Die vorhandenen Unterschiede auch der ältesten Schülerinnen im Vergleich mit Erwachsenen deuten darauf hin, dass die Entwicklung in diesem Alter (12 Jahre) noch nicht abgeschlossen ist. Im Hinblick auf die Entwicklung der einzelnen Prozesse der Motorik beschreiben Meulenbroek & van Galen (1986) drei grobe Entwicklungsstufen. Die einzelnen Striche fünfbis sechsjähriger Kinder haben größtenteils nur eine sehr kurze Dauer und werden stark beschleunigt. Obwohl diese Striche meist ballistisch ausgeführt werden (siehe Kapitel 3.1.1.1. Automatisierte und geführte Schreibbewegungen, Seite 72ff.), resultiert aus der großen Geschwindigkeit eine nur geringe Kontrolle über die Bewegungsform und -richtung (hier kommt also das Gesetz von Fitts [Fitts' Law] zum tragen, nach dem die Zielgenauigkeit negativ mit der Geschwindigkeit korreliert). Die Notwendigkeit der Kontrolle führt bei den Kindern im Alter von etwa sieben bis acht Jahren zu einer eher instabilen Ausführung (vorwiegend visuell kontrolliert geführte Bewegungen, vor allem bei neu erlernten Zeichen), bis etwa ab dem neunten Lebensjahr die Zahl der automatisierten Bewegungen, die mit mittlerer Geschwindigkeit wieder ballistisch ausgeführt werden, anfängt, zu überwiegen. Parallel hierzu entwickelt sich ein mehr oder weniger individueller Stil, der häufig mit einer
41 Ökonomisierung der Buchstabenformen einhergeht (vgl. Seite 45). Diese Entwicklung setzt sich bis weit über die Pubertät hinaus fort. So fanden Tarnopol & Feldman (1987) einen starken Einfluss des persönlichen Stils auch in höheren Altersstufen. In einer Studie mit 160 Mädchen in den USA fanden sie in der 9. Klasse noch 48%, die nach wie vor die Ausgangsschrift schrieben, in der 12. Klasse hingegen waren es nur noch 12%. Smits-Engelsman, van Galen & Portier (1994) führten die Analyse von Meulenbroek & van Galen (1986) weiter und basierten ihren Ansatz auf dem Modell von van Galen (1991; siehe Kapitel 2.3.3. van Galens Modell der Handschrift, Seite 63ff.), nach dem die Produktion der Handschrift in verschiedene Subprozesse untergliedert werden kann. Dabei richteten sie ihre Aufmerksamkeit auf die drei psychomotorischen Module, die die drei letzten Stufen vor der eigentlichen Ausführung darstellen: 1. Die Auswahl des Allographen, also der Buchstabenform (siehe Abbildung 1, Seite 36), 2. die Kontrolle der Buchstabengröße (parameter setting), die auf die Repräsentation des Allographen angewandt wird, 3. die Vorbereitung der Muskelaktivierung. Eine Grundannahme stellt hier dar, dass die Bewegungsdauer durch die Integration einzelner Segmente in größere Einheiten abnimmt. Darüber hinaus nehmen die Autoren an, dass die Fähigkeit, mehrere Prozesse parallel bzw. inkrementell auszuführen (wie z.B. die Produktion des aktuellen Elementes und gleichzeitig die Planung des folgenden Elementes), mit steigender Lernkurve zunimmt. Für die Untersuchung wurden verschiedene Aufgaben definiert, die jeweils einen der genannten Prozesse am stärksten widerspiegeln sollten. Um die Auswahl der Allographen (1.) zu prüfen, wurden eine Aufgabe mit drei Schwierigkeitsgraden gewählt: Zunächst schrieben die Schüler eine Folge von vier Girlanden bzw. Arkaden (‹eeee›, ‹mmmm›). Dieser Aufgabe folgte ein Wechsel nach zwei Graphemen (‹eenn›, ‹mmee›) und schließlich die Alternation (‹enen›, ‹meme›). Für die Kontrolle der Größenparameter (2.) wurden die Schüler gebeten, verschiedene Buchstabenfolgen jeweils sehr klein (ca. 3 mm Höhe) und etwas größer (6 mm) zu schreiben. Die dritte Variable wurde mit einem Test der Genauigkeit der Schreibungen (3.) überprüft, wobei die Autoren annahmen, dass dies sich auf die Vorbereitung der Muskelaktivierung auswirke. Hierzu wurde die Breite der Buchstaben auf 1/3 bzw. 1/6 reduziert. Die Studie wurde sowohl als Querschnitt- als auch als Langzeitstudie angelegt. Für den Querschnitt wurden 48 Schüler der Klassen zwei bis vier untersucht, die nach der Beurteilung ihrer Lehrer je zur Hälfte schwächere oder gute Schreiber waren. 16 der Schüler nahmen an einer Wiederholung der Tests nach einem Jahr teil. Für die Analyse wurde für jedes Segment (Auf- bzw. Abstriche) die Geschwindigkeit, die Flüssigkeit (anhand der Beschleunigungsmaxima) sowie die räumliche Genauigkeit in Form von Überschreibungen der äußeren Begrenzungslinien und der Unterschreitung der inneren Linien registriert. Diese Werte wurden in verschiedenen Analysen der Querschnittstudie mit der Klassenstufe und den Ergebnissen der oben beschriebenen Tests in Beziehung gesetzt. Bezüglich der Geschwindigkeit ergab sich, dass die Girlanden und Arkaden der ersten Stufe der ersten Aufgabe schneller produziert wurden als die schwierigeren Stu-
42 fen und es eine Interaktion zwischen der Klassenstufe und der Geschwindigkeit gab: Jüngere Schüler zeigten eine stärkere Beeinflussung durch den Schwierigkeitsgrad der Aufgabe. Gleiches galt nicht für die zweite und die dritte Aufgabe. Hier zeigten die Schüler aller Altersstufen eine langsamere Produktion für die kleiner bzw. schmaler zu schreibenden Buchstabenketten. Hieraus folgerten die Autoren, dass die jüngeren Schüler vor allem bei der Auswahl der Allographen noch Schwierigkeiten hätten. Sehr ähnlich war das Bild bezüglich des Schreibflusses. Auch hier zeigten die Schüler in der ersten Aufgabe flüssigere Produktionen für die leichteren Versionen, in der zweiten Aufgabe für die größeren Buchstaben und in der dritten Aufgabe für die weniger schmalen Buchstaben. Wiederum zeigte sich eine Interaktion mit der Klassenstufe nur bezüglich der ersten Aufgabe. Überschreibungen der äußeren und inneren Begrenzungslinien nahmen ebenfalls mit der Schwierigkeit der Aufgabe zu, zeigten jedoch uneinheitliche Interaktionen mit der Klassenstufe. In der Langzeitstudie zeigte sich, dass die Kinder vor allem bei den schwierigeren Aufgaben große Fortschritte gemacht hatten. So stieg z.B. die Zahl der Überschreibungen der äußeren Begrenzungslinien bei den leichteren Aufgaben der ersten Aufgabe leicht an, nahm aber bei den schweren Versionen ab. Ähnliche Ergebnisse lieferten auch die beiden anderen Aufgaben. Die Autoren folgern hieraus, dass vor allem die kognitive Belastung durch die Auswahl der Allographen bei den jüngeren Kindern einen 'Flaschenhals' darstellt, der in den folgenden Jahren gemeistert wird. Die Kontrolle der Buchstabengröße fällt den jüngeren Kindern insbesondere bei größeren Buchstaben insgesamt noch schwerer, dagegen nimmt die Genauigkeit bei den älteren Kindern unter Belastung ab. Diese Entwicklung und auch die der Muskelaktivierung sehen die Autoren eher verteilt über einen längeren Zeitraum. Zur Begründung führen sie den Wechsel der eingesetzten Muskelgruppen an, der zu einer Diskontinuität in der Entwicklung führt, die schon Meulenbroek & van Galen (1986) konstatierten. Insbesondere letztere Begründung stützt sich jedoch kaum auf die erhobenen Daten. In diesem Punkt ist die Validität der Studie anzuzweifeln. Es ist fraglich, ob durch die Aufgabenstellung genau und isoliert die Initiierung der Muskelaktivität gemessen wird. Bezüglich der Auswahl der Allographen hingegen können die Ergebnisse dieser Studie überzeugen. So kann die detaillierte Analyse der Schreibbewegungen und insbesondere der Verzögerungen und Pausen im Schreibprozess dazu beitragen, die verschiedenen Stadien des Erwerbs zu identifizieren.
2.2.6.3. Einfluss der vermittelten Schrifttype Bei der Ökonomisierung der Handschrift verändern die Schreiber die ursprünglich erlernte Schrift in Bezug auf zwei Aspekte: 1. die Buchstabenform und 2. die Buchstabenverbindungen. Beides wird zunächst durch die Normschriften detailliert vorgegeben. Im deutschen Schulsystem wurden mindestens bis in die achtziger Jahre (aber größtenteils auch heute noch) verbundene Schreibschriften vermittelt: seit 1953 die Lateinische Ausgangsschrift, ab etwa 1980 mehr und mehr die Vereinfachte Ausgangsschrift. Erstere geriet schon bei Meis (1963) in die Kritik, der in einer empirischen Untersuchung mit 3750 Schulanfängern nachweisen konnte, dass die »Druckschrift wesentlich leichter wiederzugeben ist«
43 (Meis, 1963: 19). Sein Plädoyer für die Druckschrift und gegen die verbundene Lateinische Ausgangsschrift fällt eindeutig aus: »Die Druckschrift hat die klareren, prägnanteren, auf das Wesentliche reduzierten 'guten' Gestalten und schöneren Formen. Die Schreibschrift weist demgegenüber eine Fülle von Verbindungsstrichen, Schleifen, Bogen und anderen Zutaten auf, die für den Leseprozeß nur überflüssigen Ballast darstellen. [...] Für denjenigen, der sich die Formen geistig und motorisch aneignen muß, stellen sie eine nicht zumutbare Erschwerung dar.« (Meis, 1963: 20f.)
Der Einfluss dieser Publikation auf den Anfangsunterricht war allerdings nur gering (für historische Überblicke siehe z.B. Hasert, 2003; Neuhaus-Siemon, 1981, 1996; Schorch, 2003b). Mit den ersten Publikationen zur Vereinfachten Ausgangsschrift und in der Folge ihrer Einführung in den schulischen Alltag setzte eine längere Diskussion ein, die sich mit Schrifteigenschaften wie Anzahl der Drehrichtungswechsel und Deckstriche, Formkonstanz und Struktursynchronizität befasste und vor allem die Vorteile der jeweils vertretenen Schrifttype gegenüber der anderen beleuchtete. Mit dem Argument der besseren Strukturierung der Bewegungsphasen wurden für die Vereinfachte Ausgangsschrift Vorteile bei der Aneignung der Rechtschreibung vorhergesagt (z.B. Grünewald, 1970, 1987). Aus heutiger Sicht würde man die Vorteile mit einer Freisetzung kognitiver Kapazität mittels einer Reduktion der motorischen Komplexität erklären. Einem Zusammenhang mit der Rechtschreibleistung wurde allerdings (vorwiegend basierend auf Mängeln der Datenverarbeitung und Statistik) heftig widersprochen: Korrelationen würden nur schwache Zusammenhänge zeigen (vgl. Topsch, 1996: 59). Der stärkste Zusammenhang betreffe die negative Korrelation zwischen Unterbrechungen in Bewegungsphasen und einer niedrigen Anzahl richtiger Wörter in einem Rechtschreibtest. Aus graphomotorischer Sicht deuten Unterbrechungen von Bewegungsphasen, die nicht mit 'natürlichen' Geschwindigkeitsnullpunkten (siehe Kapitel 2.2.4. Kinematische Aspekte, S. 29ff.) übereinstimmen, stark auf Unsicherheiten hin – hier wird der normale, automatisierte Bewegungsfluss unterbrochen, weil es zu einer Störung des Ablaufs kommt. Diese Störungen können bei der Wortschreibung ihre Ursache in Rechtschreibschwierigkeiten oder (basaler) in der motorischen Ausführung haben. Daher ist es wenig überraschend, dass diese Schüler tendenziell weniger Wörter richtig schreiben – ein ursächlicher Zusammenhang mit der Schrifttype ist aber rein hypothetisch. In der Rückschau muss diese Diskussion (vgl. Topsch, 1998, Grünewald, 1998 und neutral: Richter, 1998a, 1998b) als relativ fruchtlos bewertet werden, denn letztlich sind beide Schrifttypen nicht konsequent auf die Optimierung der Bewegungsabläufe ausgerichtet, solange auf die maximale Verbundenheit bestanden wird. Damit kann auch die erhoffte Freisetzung kognitiver Kapazitäten für andere Prozesse nicht im erforderlichen Maße erfolgen. Dies soll an einem Beispiel verdeutlicht werden: Ein grundlegendes Argument der Befürworter der Vereinfachten Ausgangsschrift ist die Formstabilität. In der Vereinfachten Ausgangsschrift bleibt z.B. das ‹ › formstabil, d.h., es behält immer die gleiche Form, unabhängig davon, welcher Buchstabe zuvor geschrieben wurde oder ihm folgt. In der Lateinischen Ausgangsschrift dagegen ändert sich die Form je nach Kontext:. Das ‹ › beginnt dort, wo der vorige Buchstabe aufgehört hat (vgl. LA: ‹ › [oben] vs. ‹ › [unten]; VA: ‹ › vs. ‹ ›). Die Formstabilität der Vereinfachten Ausgangsschrift (die isoliert betrachtet si-
F
BF
oe
ae
e
PF
44 cherlich eine Vereinfachung darstellen würde) wird aber erkauft durch eine Unterbrechung des Schreibflusses (siehe Abbildung 2, Seite 44).
Abbildung 2:
Vorlage für das ‹e› aus dem Schreib-Kurs zur Vereinfachten Ausgangsschrift von Frede, Grünewald & Kleinert (2002) (A); Beispiel für die motorische Ausführung eines ‹e› der VA. Es handelt sich um eine für die Schülerin typische Ausführung (B).
Hinzu kommt, dass selbst in der Idealausführung (Abbildung 2A, Seite 44) ein Punkt des am häufigsten verwendeten deutschen Buchstabens drei Mal mit der Stiftspitze überfahren werden muss. In der Praxis zeigen sich aber nicht selten Schreibungen, bei denen ein weit längeres Stück mehrfach geschrieben wird. Die Ausführung im Beispiel (Abbildung 2B, Seite 44) entspricht also nicht der eigentlichen Anweisung, dafür aber der tatsächlichen Ausführung einiger Kinder. Schließlich wird in der Schule meist verlangt, dass die Deckstriche sich möglichst überlappen. Diese Genauigkeit ist aber nur durch eine stärkere Kontrolle zu erreichen, die wiederum zu einer Reduktion der Schreibgeschwindigkeit führen muss (siehe Kapitel 2.2.3. Formen des Feedbacks, Seite 28ff.) und der Automatisierung zuwiderläuft bzw. diese erschwert. In der Lateinischen Ausgangsschrift ist die Zahl der Deckstriche insgesamt noch höher und einige Majuskeln gehören eher in die Kalligraphiestunde als in das Aufgabenheft motorisch noch ungeübter Sechsjähriger. So fand Mai (1991) in einer Untersuchung zum Zeitvorteil vereinfachter Formen gegenüber der Lateinischen Ausgangsschrift für das ‹K› bei Erwachsenen einen Unterschied von knapp 800 ms, für das ‹L› knapp 600 ms, für ‹G› etwa 550 ms und für das ‹H› 500 ms. Dies sind immerhin Größenordnungen, in denen ein normaler Schreiber sonst ein kurzes Wort schreiben könnte. In den 1990er Jahren fand die Druckschrift als Erstschrift eine weite Verbreitung, jedoch meist unter der Maßgabe, später durch verbundene Schriften ersetzt zu werden (vgl. z.B. Schorch, 1988, 1995; Spitta, 1988). Erst in den letzten Jahren tragen die von Meis (1963) und Mai (1991), Mai & Marquardt (1998) und Hasert (1998) vorgetragenen Bedenken gegen die verbundenen Schriften Früchte und es zeigen sich Tendenzen, auf diese ganz zu verzichten (z.B. Bartnitzky, 2005 [Aufruf des Grundschulverbandes]) oder durch für die Motorik optimierte Formen als Richtvorgabe zu ersetzen (Mahrhofer-Bernt, 2005; Mahrhofer, 2004; Mahrhofer & Speck-Hamdan, 2001). Zuletzt sei noch auf eine Untersuchung von Meulenbroek & van Galen (1990) verwiesen, nach der Schüler der zweiten bis sechsten Klasse unabhängig vom Alter eine längere Reaktionszeit für die Schreibung von Buchstaben benötigen, wenn diese ihnen zuvor in Druckschrift präsentiert wurden, als wenn diese in der erlernten kursiven Schrift dargeboten wurden. Dieser Effekt wird von einer Reihe
45 weiterer Variablen verstärkt: Uneindeutigkeit der Buchstabenform, höhere Anzahl der Allographen für ein Graphem und geringe Buchstabenfrequenz. Die Autoren führen dies auf einen (mehr oder weniger erschwerten) zusätzlichen Übersetzungsschritt zurück, ohne jedoch den Schluss zu ziehen, dass dieser vermieden werden könnte, wenn auf die Vermittlung einer kursiven Schrift gänzlich verzichtet würde. In den Handschriften von Erwachsenen finden sich meist nur noch Anlehnungen an die gelernten Schrifttypen (vgl. auch Schorch, 2003a). Wie oben schon erwähnt (siehe Seite 41), ergaben Langzeitstudien, dass die Anpassung an den eigenen Stil etwa ab dem achten Lebensjahr beginnt und sich bis ins Erwachsenenalter hineinziehen kann. Dabei zeigte sich jedoch auch, dass sich Anpassungen schubweise und zu individuell unterschiedlichen Zeiten vollziehen. In Bezug auf den Aspekt der Buchstabenform verwenden erwachsene Schreiber vielfach abgewandelte, meist an die Druckschrift angelehnte und vereinfachte Formen. Insbesondere die Großbuchstaben der Ausgangsschriften nutzen Erwachsene kaum noch. Elemente der Anpassungen der Buchstabenform sind: − ausgelassene Striche (vor allem Aufstriche und Schleifen), − vereinfachte Striche (geradere Linien, weniger Drehrichtungswechsel), − Aufgabe der Verbundenheit, d.h., Einsatz von 'Luftsprüngen' anstelle von auf dem Pa-
pier ausgeführten Strichverbindungen, − Abweichungen vom dextralen Prinzip, d.h., nicht alle Buchstabenschreibungen enden
auf der in Schriftrichtung gelegenen Seite wie in den Ausgangsschriften, sondern teilweise sinistral, also auf der entgegen der Schriftrichtung gelegenen Seite (z.B. ‹s› [in Anlehnung an die Druckschrift und von oben nach unten geführt], ‹p›, ‹b›), oder richtungsneutral (z.B. ‹o›, ‹i›), − Hinzufügungen von Merkmalen zur Identifikation (z.B. ein Strich über dem ‹u›, um es vom identisch ausgeführten ‹n› zu unterscheiden), − ästhetisch motivierte Veränderungen. Viele der genannten Elemente bedingen sich meist gegenseitig. Die erhöhte Zahl der Abhebungen während der Schreibung ist auch das zentrale Merkmal des zweiten Aspektes der Veränderung der Schrift: den Buchstabenverbindungen. Routinierte Schreiber haben einen großen Teil der Buchstabenverbindungen vereinfacht, indem diese mit Luftsprüngen überbrückt werden. Die Mehrzahl dieser veränderten Buchstabenverbindungen lassen sich auf die oben beschriebenen veränderten Buchstabenschreibungen zurückführen. Jedoch ist nicht jedes Bewegungsmuster für Buchstabenverbindungen in gleicher Weise dazu geeignet, durch einen Luftsprung ökonomisiert zu werden. Ob dies der Fall ist, hängt stark von der verwendeten Buchstabenform ab und wo der letzte Strich eines Buchstabens endet (sowohl horizontal: dextral, sinistral oder richtungsneutral, als auch vertikal: oben, mittig oder unten). So findet z.B. zwischen ‹d› und ‹a›, ‹e› und ‹d› sowie ‹s› und ‹c› bei sehr vielen Schreibern eine Abhebung des Stiftes vom Papier statt, da der zweite Buchstabe meist rechts oben am Mittelband begonnen wird und der vorhergehende unten endet. Dagegen werden die Buchstabenkombinationen ‹le›, ‹ie›, ‹un› und ‹ch› häufig ohne Absetzung geschrieben, weil die Anbindung bewegungsökonomisch in den meisten Formen sinnvoll
46 ist, da der zweite Buchstabe dort begonnen (bzw. weitergeführt) werden kann, wo der erste aufgehört hat. Die Bewegung geht also flüssig in die nächste über. Eine Systematik dieser Art wird von allen kompetenten Schreibern unbewusst angewandt; sie unterliegt aber einer individuellen Variabilität (siehe Kapitel 2.2.7. Inter- und intraindividuelle Variabilität, ab Seite 46). Als weitere Ursache der Unterbrechungen haben Mai & Marquardt (1995a: 568f.) neben der Ökonomisierung vor allem die Motorik im Blick. Jeder Luftsprung dient auch der Entspannung der am Schreiben beteiligten Muskulatur, denn die Durchblutung eines Muskels wird durch seine Kontraktion stark herabgesetzt. Durch die Entspannung können die Muskeln also besser durchblutet werden und mit Gasen, Nähr- und Wirkstoffen versorgt werden bzw. Stoffwechselprodukte können abtransportiert werden. Würden diese Entspannungsphasen unterbleiben, so würden die Muskeln nach einiger Zeit verkrampfen. Dies äußert sich u.a. darin, dass der Druck auf die Schreibunterlage und die Griffkraft, mit der der Stift gehalten wird, ansteigen, je mehr Buchstaben in einem Zug geschrieben werden (Denier van der Gon & Thuring, 1965; Mai & Marquardt, 1995b: 29). Die beschriebenen Abwandlungen der Buchstabenformen und der Buchstabenverbindungen führen neben ästhetischen Veränderungen vor allem zu einer Ökonomisierung der Schrift und damit zu einer Erhöhung der Schreibgeschwindigkeit (s.o.). Diese ontogenetische Erscheinung spiegelt sich phylogenetisch auch in der Genese von Schriften wider (Daniels, 2006). Paul-Mengelberg (1996) unterscheidet bezüglich der Einflüsse auf die individuelle Handschrift exogene und endogene Faktoren. Unter exogenen Faktoren versteht sie Einflüsse von außen, wie z.B. die Körperhaltung, die Qualität der Schreibunterlage und des Schreibwerkzeuges, die Möglichkeit der visuellen Kontrolle. Hinzuzufügen ist sicherlich noch die Schreibsituation, die Textsorte sowie die Adressaten des Textes (z.B. privater/offizieller Brief, Formular, Notiz etc.). Endogene Bedingungen betreffen innere Einflüsse wie Erkrankung, altersbedingte Ausfallerscheinungen oder psychische Zustände.
2.2.7.
Inter- und intraindividuelle Variabilität
Zwischen den handschriftlichen Schreibungen verschiedener Individuen besteht eine sehr hohe Variabilität. Dies lässt sich nicht zuletzt auf die individuellen Schrifttypen zurückführen, die sich aus der Ökonomisierung und der persönlichen Anpassung der ursprünglich erlernten Schrifttype ergeben (zur Entwicklung siehe voriges Kapitel 2.2.6. Lernprozesse, Seite 37ff.). Diesbezüglich unterscheidet sich nicht nur die individuelle Ausführung der erlernten Schrift, sondern auch der Einfluss der Druckschrift und anderer Schrifttypen. Es spiegelt sich hier auch der Konflikt zwischen der gesellschaftlich normierten Schrift und der individuellen Ausprägung wider, wobei die Lesbarkeit als (meist) zu erhaltende Minimalanforderung als Bindeglied fungiert. Hieraus resultieren unterschiedliche Buchstabenformen und in engem Zusammenhang damit auch verschiedene Formen der Verbindung der Buchstaben (Abhebung mit Neuansatz, Abhebung in flüssiger Bewegung, direkte Verbin-
47 dung ohne Abhebung, Anbindung durch zusätzlichen Strich; siehe auch die Anmerkungen zu Buchstabenverbindungen auf Seite 45). Die Unterschiede zwischen a) den Schreibungen verschiedener kompetenter Schreiber (interindividuell) und b) wiederholten Schreibungen derselben Person (intraindividuell) lassen sich (neben kinematischen Variablen) einerseits bezüglich der Anzahl und der Orte der Abhebungen vergleichen und andererseits bezüglich der Dauer dieser Abhebungen. Insbesondere die Anzahl der ohne Unterbrechung bzw. Abhebung geschriebenen Buchstaben (definiert als ein Schriftzug) ist von der verwendeten Schrifttype abhängig und variiert zwischen verschiedenen Schreibern. Nottbusch (1998) fand in den Schreibungen von 27 Erwachsenen Extremwerte zwischen durchschnittlich 0,86 und 2,92 Buchstaben pro Schriftzug. Dabei wurden z.B. auch i-Punkte der obigen Definition folgend als Schriftzüge gezählt, was zu einer starken Reduktion der Buchstaben pro Schriftzug führte (wenn eine Versuchsperson z.B. das Wort ‹die› mit nur einer Abhebung für den i-Punkt schreibt, ergibt sich ein Durchschnitt von 1,5 Buchstaben pro Schriftzug). Bei einem Vergleich der Schreibungen aus dem ersten Teil der genannten Untersuchung mit denjenigen aus dem zweiten Teil (split-half Test) ergab sich, dass es nicht nur große Unterschiede zwischen den Versuchspersonen, sondern teilweise auch zwischen den verschiedenen Schreibungen einer Versuchsperson gab: Die Anzahl der Buchstaben pro Schriftzug war bei einigen Teilnehmern über beide Messungen relativ konstant – bei anderen ergaben sich Unterschiede bis zum Faktor 1,9. Es zeigte sich, dass der Unterschied zwischen beiden Messungen bei Schreibern mit vielen Abhebungen geringer war als bei Schreibern mit wenigen Abhebungen (r2 = .375). Somit kann konstatiert werden, dass die intraindividuelle Variabilität stark schwanken kann. Im direkten Vergleich war die Dauer der Abhebungen in der Handschrift der Schreiber in der Untersuchung von Nottbusch (1998) etwa um den Faktor 1,45 kürzer als die Dauer der Interkey-Intervalle derselben Schreiber in der Tastaturschrift. Jedoch kommt in der Handschrift noch der eigentliche Schriftzug hinzu; die Entsprechung in der Tastaturschrift – das Anschlagen der Taste – dauert dagegen meist nur wenige Millisekunden und wird in der Literatur mit der Dauer Null definiert (Gentner, Grudin, Larochelle, Norman & Rumelhart, 1983). Ein durchschnittlicher Schriftzug dauerte etwa 2,5 Mal so lange wie eine durchschnittliche Abhebung. Anhand dieses Verhältnisses kann aber auch die große Varianz in der Ausführung der Handschrift zwischen den Versuchspersonen abgelesen werden. So lag der Faktor für die Dauer Schriftzug/Abhebung in den Extremen zwischen 1,03 und 5,07 (Nottbusch, 1998). Auch bezüglich dieses Verhältnisses zeigten einige Versuchsteilnehmer im split-half Test sehr konstante Ausführungen, bei anderen schwankte dieser Wert bis zu einem Faktor von 2,1, d.h., das Verhältnis Schriftzug/Abhebung unterschied sich zwischen dem ersten und zweiten Teil des Versuches um mehr als das Doppelte. Ein möglicher Grund für die relativ kurzen Abhebungszeiten in der Handschrift ist vermutlich, dass die hierarchiehöheren kognitiven Prozesse bei der handschriftlichen Sprachproduktion auch während der Schriftzüge stattfinden (können) und sich dies verkürzend auf die Abhebungszeiten auswirkt.
48 2.2.8.
Spuren sprachlicher Prozesse
Die meisten Forschungsarbeiten, die sich mit dem zeitlichen Verlauf der Handschrift befassen, konzentrieren sich auf die Bewegungsausführung und vermuten aufgrund der Langsamkeit der Handschrift keine oder nur sehr schwache Spuren höherer sprachlicher Prozesse in ihrer Dynamik. So schreibt z.B. Thomassen (1996: 1028): »Incidentally, this low output rate is responsible for the fact that the interactions between abstract linguistic units (at the morpheme level or higher) and executive motor performance are in fact rather limited as compared to speech.«
Die vorherrschende Auffassung geht mehr in die Richtung einer (oben ausführlich beschriebenen) motorisch begründeten Dynamik. Einige Ausnahmen sind jedoch festzuhalten. Wing (1980) hat in einer Studie zur Handschrift gezeigt, dass Silbenakzente die Variation der Buchstabengröße im Englischen beeinflussen. Jedoch beruht dieses Ergebnis auf der Untersuchung von lediglich vier Wörtern mit identischem Beginn: ‹elect›, ‹eleven›, ‹element›, ‹elegy›. Die 24 Versuchspersonen hatten die Aufgabe, diese Wörter je einmal in normaler Größe zu schreiben und einmal um ca. 50% vergrößert. Das jeweils zweite ‹e›, das in ‹elect› und in ‹eleven› den Kern der prominenten Silbe darstellt, wurde unter der vergrößerten Bedingung im Vergleich zur normalen Schreibung um 31% größer geschrieben. In den Wörtern ‹element› und ‹elegy›, in denen der gleiche Buchstabe den Kern einer Reduktionssilbe repräsentiert, wurde dieser nur um 19% vergrößert produziert. Van Galen (1990) untersuchte den Effekt sich wiederholender Silben und Grapheme. Demnach ist die wortinitiale Latenz für (Pseudo-)Wörter mit sich wiederholenden Silben (z.B. ‹lenlenlen›; 284 ms) signifikant kürzer als für Wörter mit alternierenden Silben (‹lenhenlen›; 331 ms). In diesem Experiment wurden die Versuchspersonen angewiesen, den Stift vor, während und nach der Stimuluspräsentation bis zu einem Startsignal auf einem definierten Punkt zu halten. Gemessen wurde sowohl die Dauer bis zur Abhebung des Stiftes von diesem Punkt als auch die Dauer und die Weite des Luftsprunges zum Startpunkt des ersten Buchstabens. Die beiden letzteren Variablen waren von den unterschiedlichen Worttypen nicht beeinflusst. Im weiteren Verlauf der Schreibung wurden die Gesamtschreibzeit (ohne initiale Latenz) sowie die Dauer und Strichlänge ausgewählter Buchstaben bzw. deren Teile analysiert. Abhebungen während der Schreibungen oder verzögerte Striche wurden nicht untersucht. Bei der Gesamtschreibzeit kehrt sich der eingangs gefundene Effekt um: Wörter mit sich wiederholenden Silben haben eine längere Produktionszeit (2181 ms) als diejenigen mit alternierenden Silben (2157 ms). Der Effekt verteilt sich über alle beteiligten Buchstaben und wird vom Autor so interpretiert, dass die Ausführung einer motorischen Einheit eine Hemmung nach sich zieht und damit eine verlangsamte Ausführung der Wiederholung. Ein solcher Effekt ist denkbar und wurde auch im Zusammenhang mit Wiederholungsfehlern postuliert (vgl. Kapitel 2.3.1. Fehler als Fenster auf kognitive Prozesse, Seite 56ff.). Der reziproke Einfluss der Silbenwiederholung auf die initiale Latenz einerseits und die Schreibzeit andererseits ist allerdings schwer zu interpretieren. Der Zeitvorteil vor Beginn der Schreibung deutet darauf hin, dass hier schon mehr verarbeitet wird als reine Rahmeninformation im Sinne von 'Anzahl der Silben'. Allerdings könnte es
49 sein, dass der gefundene Zeitvorteil bereits auf Seiten der Rezeption entsteht. Dies könnte ausgeschlossen werden, indem überprüft wird, ob dieser Effekt vom Modus der Stimuluspräsentation abhängig ist. Ein ähnliches Paradigma verwendeten Pynte, Courrieu & Frenck (1991). Sie untersuchten handschriftliche Schreibungen französischer Wörter mit je zwei Morphemen. Schriftlich präsentiert wurden immer Triplets (drei Wörter gleichzeitig); dabei war in der ersten Variante das jeweils erste Morphem identisch und das zweite unterschiedlich (z.B. ‹entrelacé›, ‹entretenu›, ‹entreposé›), während diese Voraussetzungen in der zweiten Variante umgekehrt waren (z.B. ‹taximètre›, ‹décimètre›, ‹paramètre›). Für die Analyse wurde die mittlere Schreibgeschwindigkeit für jedes Morphem in Pixel pro 1/100 Sekunde angegeben, was darauf schließen lässt, dass nur Schriftzüge und keine Abhebungen untersucht wurden. Die (Haupt-)Aussage, dass die wiederholten Morpheme schneller geschrieben werden, beruht auf einer knapp nicht signifikanten Interaktion (p < .06) zwischen der Morphemposition im Wort und der Tripletvariante. Stärker fiel hingegen der Einfluss der Wortposition innerhalb des Triplets aus, der sich in signifikanten Interaktionen mit den beiden genannten Variablen zeigte: In Triplets aus Wörtern mit identischem ersten Morphem profitierten diese von der Wiederholung und wurden im dritten Wort schneller produziert als im ersten (es zeigt sich also der gegenteilige Effekt wie bei van Galen [1990], allerdings handelt es sich um jeweils zweisilbige Morpheme). Für die nicht identischen zweiten Morpheme derselben Wörter fand sich keine Beschleunigung. Auch in Triplets aus Wörtern mit identischem zweiten Morphem zeigte sich eine (minimale) Beschleunigung für den wiederholten Teil, jedoch war die Produktion des ersten (nicht identischen) Morphems im dritten Wort erheblich schneller als im ersten Wort. Letzteres Ergebnis lässt sich kaum erklären (zu vermuten sind wortspezifische Eigenschaften, die nicht kontrolliert wurden) und lässt damit die gesamten Ergebnisse etwas fragwürdig erscheinen. Abgesehen von diesem Ausreißer bestätigen die Daten jedoch den Schluss der Autoren, dass nicht alle drei Wörter gleichzeitig und komplett in das motorische Programm geladen wurden, sondern dass hier die Morpheme relevante Programmiereinheiten darstellen. Zu berücksichtigen ist hier allerdings, dass die behandelten Morphemgrenzen zugleich auch Silbengrenzen darstellen (vgl. Kapitel 3.2. Experiment: Silben in der Einzelwortschreibung nach Diktat, Seite 77ff.). In eine ähnliche Richtung wie Pynte et al. (1991) deuten die Ergebnisse von Orliaguet & Boë (1993). Die Autoren stellten ihre Versuchspersonen vor die Aufgabe, Wörter zu schreiben, für die im Französischen jeweils sowohl eine homophone als auch eine homographe Form existiert. Die Ambiguität wurde durch die Einbettung in einen Satz aufgehoben. Hierbei mussten die Teilnehmer in der Hälfte der Fälle eine grammatische Regel auf das jeweils zu schreibende Wort anwenden (Pluralisierung oder Konjugation). So ist die Schreibung des Wortes ‹vers› im Sinne von des vers (Würmer) morphologisch komplex (Grundmorphem + Pluralflexion), während ‹vers› im Sinne von gegen oder nach monomorphematisch ist. In vergleichbarer Weise ist ‹bois› im Sinne von je bois (ich trinke) eine konjugierte Form des Verbs boire, im Sinne von Holz hingegen ist das Wort wiederum monomorphematisch. Die Autoren fanden für die jeweils morphologisch komplexere Form verlängerte Latenzen und Gesamtproduktionszeiten. Unglücklicherweise wird aus der
50 Beschreibung der Methode nicht deutlich, welche Zeiträume Orliaguet & Boë (1993) genau mit den Termini »latency« und »delay« meinen. Sie schreiben hierzu: »Insofar as the delay between the acoustical presentation of the task word and the onset of recording on the graphic tablet has not been measured, the latency represents only a part of the reaction time.« (108, eigene Hervorhebung). Vermutlich ist aber der Zeitraum zwischen dem Ende des so genannten »delay« (eine nicht weiter beschriebene Zeit von einer Sekunde nach der Präsentation des Stimulussatzes) und dem Beginn der Schreibung gemeint. Da es sich aber um Zeiten von ca. 200 ms plus/minus 30 ms handelt, können dies eigentlich keine Reaktionszeiten sein, denn diese liegen in vergleichbaren Studien (selbst wenn es sich nur um ein Startsignal für eine bereits vorbereitete Schreibung handelt) erheblich höher (z.B. bei Ostry [1983] im besten Fall 310 ms; bei Will et al. [2006] trotz optimierter Verzögerungszeiten im Mittel über 500 ms). Interessanter sind aber sicherlich die Angaben zu den individuellen Unterschieden, die die Versuchspersonen bezüglich der Position verzögerter Schreibungen zeigten. So benötigten drei der acht Teilnehmer längere Schreibzeiten für das gesamte Wort, weitere drei schrieben nur innerhalb des ersten Buchstabens des Wortes etwas langsamer und die verbleibenden zwei nur innerhalb des Buchstabens, der der Morphemgrenze unmittelbar vorausging. Diese Streuung dürfte auch die Unterschiede zu den Ergebnissen von Nottbusch et al. (1998) erklären (siehe unten, ab Seite 54). Insgesamt kann jedoch konstatiert werden, dass die Morphemstruktur der untersuchten Wörter einen nachweisbaren Einfluss auf die Schreibungen hat und daher angenommen werden muss, dass Morpheme eine suprasegmentale Verarbeitungseinheit darstellen. Der Einfluss phonologischer und orthographischer Komplexität auf die handschriftliche Produktion von (fast ausschließlich phonologisch basierter) Stenographie und normaler Schrift wurde von Portier, van Galen & Thomassen (1993) untersucht. Die phonologische Komplexität innerhalb der verwendeten Pseudowörter wurde variiert, indem die schriftlich präsentierten Stimuli zwei gleiche Vokalgrapheme enthielten, die einmal demselben Phonem (z.B. /foloren/) und einmal unterschiedlichen Phonemen (z.B. /folorne/) zuzuordnen waren. Vorhergesagt wurde, dass sich dieser Unterschied vor allem in der stenographischen Produktion auswirken sollte, da hier die Übersetzung in ein (stenographisches) Graphem erfolgen müsse und diese Information nicht wie bei der normalen Schreibung schon im Stimulus enthalten sei. Umgekehrt wurde die orthographische Komplexität variiert, indem die auch im Niederländischen vorkommende Schärfungsschreibung verwendet wurde. Hier stellten die Autoren die Hypothese auf, dass die stenographische Schreibung von ‹folarre› zu größerer kognitiver Belastung führe als die Schreibung des Pseudowortes ‹folarte›, da im ersteren Fall eine von der phonologischen abweichende orthographische Repräsentation aufgebaut würde. Für die normale Schreibung wurde angenommen, dass es keinen Einfluss der Komplexität gegeben würde, da die orthographische Route aufgrund der Form des Stimulus immer schneller zu einem Ergebnis kommen würde als die phonologische. Tatsächlich zeigte sich ein Effekt der phonologischen Komplexität anhand einer verlangsamten Schreibung und einer erhöhten Zahl von Verzögerungen, und zwar innerhalb des vorhergehenden Vokalgraphems (zwei Zeichen vor der variierten Komplexität; keine Verzögerungen an anderen Positionen) und wie vorhergesagt nur in der Stenographie. Die Ergebnisse für die orthographische Komplexität sind annähernd parallel: Wiederum
51 finden sich fast ausschließlich in den stenographischen Schreibungen Effekte in Form von verlangsamten und weniger flüssigen Schreibungen. Die Position des Effekts ist diesmal ausschließlich das betreffende Zeichen selbst, in diesem Fall das Konsonantgraphem. Hier kommen die Autoren zu dem nur schwer nachvollziehbaren Schluss, dass es sich ebenfalls um ein vorhergehendes Graphem handele, da das zweite Konsonantgraphem in der stenographischen Umschrift nicht geschrieben werde (aber virtuell vorhanden sei). Diese Interpretation ist vermutlich dem Versuch geschuldet, möglichst dem vertretenen Modell von van Galen (1991) zu entsprechen, dass Verzögerungen durch die beteiligten Prozesse an der Position genau zwei Grapheme zuvor vorhersagt (vgl. Kapitel 2.3.3. van Galens Modell der Handschrift, Seite 63ff.; diese Annahme des Modells wird weiter unten widerlegt, Seite 110ff.). Der gefundene Einfluss orthographischer Komplexität auf die Stenographie stellt hingegen für die Autoren in Frage, dass die orthographische und die phonologische Route vollständig voneinander unabhängig seien. Dem ließe sich entgegenhalten, dass keineswegs als sicher gelten kann, dass die stenographische Schreibung ausschließlich phonologisch basiert ist, es sei denn, dass ihr Anwender nicht auf ein übliches Schriftsystem zurückgreifen kann. Unabhängig von der Erkenntnis, dass eine phonologische Mediation für die Stenographie wohl nicht zu umgehen ist, ist für diese Arbeit interessant, dass die Vorgabe eines schriftlichen Stimulus bei der normalen Handschrift eine phonologische Verarbeitung nicht unbedingt voraussetzt. Von besonderer Bedeutung ist hier vor allem die Erkenntnis zur Position der Verzögerungen, die scheinbar von der Art der Komplexität abhängig ist. Zu kritisieren am methodischen Aufbau bei Portier et al. (1993) ist allerdings die häufige Wiederholung der Schreibungen. Zwar ist dies geplant und fließt als Variable mit in die Statistik ein, jedoch ist anzuzweifeln, wie aussagekräftig die vorliegenden Ergebnisse für den üblichen Fall der 'einfachen' Produktion der Handschrift sind. Zesiger et al. (1993) konnten zeigen, dass erwachsene Schreiber identische Trigraphen innerhalb existierender französischer Wörter in kürzerer Zeit und mit leicht kürzerer Strichlänge schrieben als innerhalb von Pseudowörtern. Darüber hinaus fanden sie in den Daten vergleichbare Effekte für die Trigraphfrequenz. Für Kinder unterschiedlicher Altersgruppen (zwischen 8 und 12 Jahren) fanden sie allerdings weder für den Worttyp noch für die Trigraphfrequenz einen stabilen Effekt. Zur Erklärung liefern die Autoren eine interessante Hypothese: »the need for on-line monitoring of the production is inversely proportional to the familiarity of the sequence to be produced« (Zesiger et al., 1993: 363). Hierzu passt, dass die stärksten Unterschiede bei den erwachsenen Schreibern sich bei der Variablen dysfluency zeigen, d.h., bezüglich dieses Merkmals unterscheiden sich sowohl die untersuchten Worttypen als auch die unterschiedlich frequenten Trigraphen am stärksten. Søvik, Arntzen, Samuelstuen & Heggberget (1994) untersuchten die vier unabhängigen Variablen Wortlänge, Wortfrequenz, orthographische Regularität und Konsonantencluster anhand der vier abhängigen Variablen Reaktionszeit, Gesamtproduktionszeit, Genauigkeit und Rechtschreibfehler in den Schreibungen von neunzehn neunjährigen Schülern. Wortinterne Strukturen wie Silben oder Morpheme sowie kinematische Daten, die über die Registrierung der Start- und Endpunkte hinausgingen, wurden nicht betrachtet. Bezüglich der Reaktionszeit wurde ein signifikanter Unterschied nur zwischen orthographisch regulären und irregulären Wörtern festgestellt; erstaunlicherweise wurde schneller mit der Schreibung der
52 irregulären Wörter begonnen. Allerdings berichten die Autoren, dass die Stimuli den Schülern durch den Versuchsleiter mündlich vorgetragen wurden, der unmittelbar anschließend dem Messcomputer durch einen Tastendruck den Startpunkt für die Reaktionszeitmessung übermittelte. Diese Messung 'von Hand' lässt den Unterschied von 12 Zehntelsekunden zumindest fragwürdig erscheinen. Bezüglich der Produktionszeit (Dauer der Schreibung) fand sich nur ein Unterschied zwischen längeren (6-9 Buchstaben) und kürzeren Wörtern (3-5 Buchstaben), was allerdings kaum überraschen kann. Für die am Endprodukt beurteilte Genauigkeit wurden ebenfalls keine nennenswerten Unterschiede gemessen. Die Zahl der Rechtschreibfehler war jeweils höher in längeren, niederfrequenten und irregulären Wörtern, was ebenfalls nicht sonderlich überraschend ist. Interessanter erscheint die gefundene Interaktion zwischen der Frequenz und der Regularität: Von allen hochfrequenten Wörtern wurden die irregulären schneller und richtiger geschrieben als die regulären; bei den niederfrequenten Wörtern zeigte sich der umgekehrte Effekt. Vergleichbare Interaktionen finden sich auch zwischen der Regularität und der Wortlänge bezüglich der Gesamtproduktionszeit, der Schreibgenauigkeit und der Anzahl der Fehler. Abgesehen von der methodischen Schwäche, dass hier in manchen Kombinationen nicht mehr als zwei Wörter als Datenbasis dienen, lässt sich jedoch folgern, dass die Eigenschaften der Wörter klar einen Einfluss auf die Produktion haben. Die Vielzahl der Interaktionen erklärt sich allerdings durch sehr wahrscheinlich bestehende Kovarianzen der als unabhängig behandelten Variablen. So sind kurze, irreguläre Wörter meist extrem hochfrequent (im Deutschen z.B. ‹und› oder einige Personalpronomen), und es verwundert daher nicht, wenn diese Wörter schnell und korrekt geschrieben werden können. Zwischen den abhängigen Variablen konnten die Autoren die sehr interessante Korrelation zwischen der Zahl der Rechtschreibfehler und der Schreibgenauigkeit von r = .88 (r2 = .77) nachweisen. Hier schlägt sich die starke Belastung durch orthographische Schwierigkeiten in der motorischen Ausführung nieder. Ein (erheblich schwächerer) Zusammenhang von r = .17 (r2 = .03) scheint auch zwischen der Rechtschreibung und der initialen Latenz vorzuliegen (mit den oben genannten Einschränkungen; diese Korrelation zeigt sich in der vorliegenden Studie erheblich stärker, vgl. Kapitel 3.2.2.1. Wortinitiale Latenzen, S. 101ff.). Zesiger et al. (1994) versuchten, in ihrer Untersuchung den Einfluss von Silbenstrukturen sowohl in der Handschrift als auch in der Tastaturschrift (vgl. Kapitel 2.1.6. Spuren sprachlicher Prozesse in der Tastaturschrift, Seite 15ff.) nachzuweisen. Beide Experimente waren parallel aufgebaut: Je zehn Versuchspersonen schrieben fünf zweisilbige Wortpaare mit einer Länge von sechs bis sieben Buchstaben und einer identischen Anfangssequenz jeweils zehn Mal. Die beiden Wörter eines Paares unterschieden sich durch die Position der Silbengrenze (z.B. ‹ba-lade› vs. ‹bal-con›). Um einen möglichen Einfluss der Perzeption auszuschließen, wurden die Teilnehmer angewiesen, erst nach einem um 1 bis 1.5 Sekunden verzögerten Startsignal zu schreiben. Gemessen wurde die initiale Latenz, die Gesamtproduktionszeit, die mittlere Strichlänge und die mittlere Geschwindigkeit. Von Abhebungen während der Schreibung ist keine Rede. Hier stellt sich die Frage, ob a) keine Abhebungen vorlagen, b) diese nicht berücksichtigt wurden, c) diese ignoriert wurden oder d) die Versuchspersonen eventuell instruiert wurden, nicht abzuheben. Im Gegensatz zur Tastaturschrift konnten in keiner der vier Messungen (initiale Latenz, Gesamtproduktionszeit,
53 Strichlänge und Geschwindigkeit) signifikante Unterschiede zwischen den Silben des Typs CV und denen des Typs CVC festgestellt werden. Als Erklärung für diese Abweichung vermuten die Autoren, dass die motorischen Prozesse der Handschrift unabhängig von den höheren sprachlichen Prozessen ablaufen und Letztere daher in der Schreibspur nicht oder nur schwer sichtbar zu machen seien. Tatsächlich sind die gefundenen Ergebnisse im Lichte der Ergebnisse aus der Tastaturschreibung überraschend. Ein möglicher Grund für diese Diskrepanz könnte die geringe Anzahl der Testwörter sein. Für einen wortspezifischen Effekt spricht auch, dass die Reaktionszeit, die Strichlänge und die Schreibdauer bei den gleichen Wortpaaren nicht den Erwartungen entsprechen. Zwar ist das Ergebnis in der Tastaturschrift für dasselbe Wortmaterial eindeutig, aber hier wird ausschließlich die betreffende Position (das Intervall zwischen dem zweiten und dem dritten Buchstaben) gemessen, wohingegen in der Analyse der Handschrift in alle untersuchten Variablen Merkmale der Schreibung aller drei Buchstaben eingehen, sodass Auffälligkeiten, die möglicherweise nur an der Silbengrenze auftreten, vermutlich untergegangen sind. Bogaerts, Meulenbroek & Thomassen (1996) knüpfen mit ihrem Artikel The possible role of the syllable as a unit in handwriting an die Arbeit von Zesiger et al. (1994) an. Das erklärte Ziel der Autoren war, den Einfluss von Silbenstrukturen innerhalb der Handschrift mit Hilfe erweiterter Methoden doch noch nachzuweisen. Hierzu wurden acht Versuchspersonen instruiert, den Stift während der Schreibung absichtlich entweder an einer Silbengrenze, innerhalb einer Silbe oder gar nicht abzuheben. Die Autoren wollten hierdurch prüfen, ob es den Teilnehmern leichter fällt, den Stift an einer Silbengrenze vom Papier zu heben als an einer reinen Buchstabengrenze. Die zwölf verwendeten Stimuluswörter begannen entweder mit einer CV- oder einer CVC-Silbe und das Vokalgraphem war jeweils ein ‹a› oder ‹o›. Darüber hinaus wurden die verwendeten Konsonantgrapheme (vor und nach dem Vokal) aber nicht konstant gehalten, was sehr verwundert, da dies in der Vorlage von Zesiger et al. (1994) der Fall war. Hierdurch handeln sich die Autoren Einflüsse der (Diund Tri-)Graphemfrequenz ein, die sie aber nicht weiter beachten. Vom Beginn der schriftlichen Präsentation eines Stimulus bis zur Fertigstellung der Schreibung sollten die Versuchspersonen laut zählen, um eine mögliche subvokale Artikulation zu unterdrücken. Während der Präsentation wurde angezeigt, an welcher Position innerhalb des Wortes die Person den Stift abheben sollte. Dies war entweder nach dem zweiten oder dem dritten Graphem (also je nach Typ der ersten Silbe an der Silbengrenze, ein Graphem danach oder ein Graphem davor) oder erst am Wortende. Jedes Wort wurde sechzehn Mal geschrieben: acht Schreibungen ohne Abhebungen und je vier mit Abhebungen nach dem zweiten oder dritten Graphem. Gemessen wurden die mittlere Schreibzeit und die mittlere Schriftzuglänge für jeden der ersten vier Buchstaben sowie die Dauer und Weite der Luftsprünge. Die Erwartung, dass eine Abhebung innerhalb einer Silbe zu langsameren Schreibungen und längeren Strichen für das vorhergehende Zeichen führt, bestätigte sich nicht. Ebenso musste die zweite Hypothese, dass die Luftsprünge an Silbengrenzen zeitlich und räumlich länger sind als solche innerhalb von Silben, verworfen werden. Trotzdem fanden die Autoren Hinweise für einen Effekt silbischer Strukturen des Wortes auf die handschriftliche Produktion im Verlauf der mittleren Strichdauer und -länge der ersten vier Buchstaben der untersuchten Wörter. In Wörtern, die mit einer CVC-Silbe begannen, fanden sie zeitlich und räum-
54 lich längere Striche für den ersten und den vierten Buchstaben, also für den jeweils ersten Buchstaben der Silbe. In gleicher Weise fielen die längeren Strichparameter in Wörtern mit einer CV-Silbe auf den ersten und den dritten Buchstaben und damit wiederum auf die Silbenonsets. Für die nicht bestätigten Hypothesen bieten die Autoren verschiedene Erklärungen an: Zum einen seien Silben im Niederländischen weniger deutlich erkennbar als im Französischen oder Spanischen, zum anderen vermuten die Autoren einen Einfluss der Unterdrückung der subvokalen Artikulation, der die phonologische Rekodierung verhindert habe. Zumindest ein Einfluss der subvokalen Artikulation wurde inzwischen von Will et al. (2002) für die Tastaturschrift widerlegt (vgl. Kapitel 2.1.6. Spuren sprachlicher Prozesse in der Tastaturschrift, Seite 15ff.). Vielmehr ist das Untersuchungsparadigma insgesamt als ungeeignet abzulehnen, da die Handschrift eine hoch überlernte Fertigkeit ist. Durch forcierte Abhebungen kann weder die 'normale' Bewegungsausführung überprüft werden, noch kann erwartet werden, dass sich kognitive Prozesse so kurzfristig an die neuen Gegebenheiten anpassen (im Sinne von: dann stattfinden, wenn sich die Möglichkeit ergibt). Eine weitere Schwäche des Designs ist die, das nicht festzustellen ist, bei welchen Versuchspersonen eine Abhebung automatisiert erfolgte und wo diese erzwungen war. Zuletzt hängt die Wahrscheinlichkeit einer Abhebung von der Buchstabenkombination bzw. der Verbindung ab (vgl. die Ausführungen zu Buchstabenverbindungen, Seite 45ff.). Diese sind in der vorliegenden Untersuchung aber nicht konstant. Nottbusch (1998) bzw. Nottbusch et al. (1998) untersuchten wie Zesiger et al. (1994) dasselbe Wortmaterial sowohl in der Handschrift als auch in der Tastaturschrift (vgl. Kapitel 2.1.6. Spuren sprachlicher Prozesse in der Tastaturschrift, Seite 15ff.), konnten jedoch in beiden Schreibmodi Einflüsse der Silbenstruktur auf die Dynamik der Schreibung nachweisen. Das Wortmaterial war so konzipiert, dass für einen Digraphen (z.B. ‹n-e›) in verschiedenen Wörtern Morphem- und/oder Silbengrenzen oder keine sprachlichen Grenzen auftraten. Da ein direkter Vergleich der Hand- und der Tastaturschrift nicht möglich ist, beschränkten sich die Autoren darauf, in der Handschrift die Positionen und Dauer der Lüftsprünge zu analysieren. Im Gegensatz zu Bogaerts et al. (1996) 'durften' die 28 Versuchspersonen die akustisch dargebotenen Zielwörter in ihrer gewohnten Schreibweise produzieren. Es zeigte sich, dass sowohl die Anzahl als auch die durchschnittliche Dauer der Abhebungen an kombinierten Silben- und Morphemgrenzen gegenüber allen anderen Grenztypen signifikant erhöht war. Wie in der Tastaturschrift konnten auch Unterschiede zwischen verschiedenen Morphemtypen nachgewiesen werden: Abhebungen zwischen zwei Grundmorphemen dauerten (knapp nicht signifikant) länger als zwischen Grundmorphem und Wortbildungsmorphem und signifikant länger als zwischen zwei Wortbildungsmorphemen. Diese Ergebnisse zeigen, dass der morphemische Einfluss am stärksten an den Anfangsrändern der Grundmorpheme auftritt. Die Varianzanalyse zeigt aber auch, dass der Effekt nicht nur von der auf die Grenze folgenden Einheit bedingt ist, sondern auch von der vorhergehenden Einheit beeinflusst wird. Aus diesen Daten kann man allerdings nicht auf einen isolierten morphemischen Einfluss schließen, da der Anfang eines Grundmorphems im Deutschen immer mit dem Anfang einer Silbe zusammenfällt. Bezüglich der reinen Silbengrenzen gewinnt für die Handschrift die Aufgliederung der beiden Variablen mittlere
55 Dauer und Anzahl der Unterbrechungen an Bedeutung. Ein Zusammenhang im Sinne einer direkten 'Wenn-dann-Beziehung' besteht zwar nicht, dennoch verlaufen die Kurven der beiden Variablen häufig parallel, d.h., dass dort, wo die meisten Versuchspersonen den Stift vom Papier abheben, in sehr vielen Fällen auch die längsten Abhebungen liegen. Es zeigt sich jedoch eine starke Abhängigkeit vom jeweiligen Digraphem, z.B. hat die Kombination ‹o-t› bei den kombinierten Silben- und Morphemgrenzen zwar eine relativ geringe mittlere Dauer, aber eine sehr hohe Anzahl von Luftsprüngen. Bei der Kombination ‹e-n› liegt ebenfalls eine relativ geringe mittlere Dauer vor, aber die Anzahl der Luftsprünge ist die geringste aller Kombinationen. Dies hängt mit der schon diskutierten Ökonomie der Schreibbewegungen zusammen (siehe Seite 45ff.). Bezüglich der Anzahl der Luftsprünge zeigt sich aber die Tendenz, dass der Stift bei identischen Buchstabenkombinationen an Silbengrenzen häufiger abgehoben wird als an reinen Morphemgrenzen oder Buchstabengrenzen. Als interessant erwies sich auch die Betrachtung der zeitlichen Verlaufsmuster ganzer Silben. Wie auch schon Bogaerts et al. (1996) für die Schreibdauer zeigen konnten, haben die (hier 'freiwilligen/spontanen') Unterbrechungszeiten vor dem ersten Buchstaben der Silbe in allen Fällen die längste mittlere Dauer und unterscheiden sich in der Mehrzahl der Fälle signifikant von den zweiten Buchstaben der Silbe. Hier deutet sich an, dass Verzögerungen an den reinen Silbengrenzen hinter den kombinierten Silben- und Morphemgrenzen eine zweite Schicht bilden. Ausprägungen der reinen Morphemgrenzen auf die Dynamik der schriftlichen Sprachproduktion konnten nur in sehr schwacher Form festgestellt werden und zeigten sich am ehesten in der Handschrift. Weingarten (1998) untersuchte den Erwerb silbischer Muster in verschiedenen Altersstufen ebenfalls anhand der Dauer und der Anzahl der Abhebungen während der Handschrift. Während der Schreibfluss an den Stellen eines Wortes, an denen sowohl eine Silbe als auch ein Morphem beginnt, bereits von Kindern des zweiten Schuljahres länger unterbrochen wurde als an anderen Stellen, tritt die reine Silbe als dynamische Einheit auch bei Schülern des siebten Schuljahres (Hauptschule) noch nicht so ausgeprägt auf wie bei Erwachsenen. Dies bedeutet, dass eine engere Anpassung der Schreibdynamik an die sprachliche Struktur des zu schreibenden Wortes, einhergehend mit einer höheren Produktionsgeschwindigkeit, erst im Laufe des Schriftspracherwerbs gelernt wird. Unterstützend für diese Annahme ist auch die Anzahl der Unterbrechungen an den verschiedenen Grenztypen im Wort. Erwachsene heben den Stift eher an Silbengrenzen und kombinierten Silben- und Morphemgrenzen ab; wiederum ist dieses Muster selbst bei den Schülern des siebten Schuljahres noch nicht völlig ausgeprägt. Es kann angenommen werden, dass die Ausbildung dieser Muster, in dem die verschiedenen Komponenten der schriftlichen Sprachproduktion integriert werden, eine Bedingung für kompetentes Schreiben überhaupt ist.
56 2.3.
Modellierung der schriftlichen Wortproduktion
Schon vor der Einbeziehung kinematischer und temporaler Analysen entstanden mehrere psycholinguistische Modelle der schriftlichen Wortproduktion (Ellis, 1982, 1988; Margolin, 1984; Morton, 1980), die zum einen auf neurolinguistischer Evidenz und zum anderen auf Fehlerauswertungen beruhten. Letztere lassen vor allem Rückschlüsse auf die Verarbeitung auf segmentaler Ebene zu und sollen daher zunächst genauer betrachtet werden. Angelehnt an diese ersten Modelle fanden die gesammelten Befunde aus den computerbasierten Handschriftstudien der Gruppe um Gerard P. van Galen Einzug in ein strikt sequentielles Modell der Handschrift (van Galen, 1980, 1991), das im Anschluss beschrieben werden soll. Schließlich soll ein aktuelles Konstituentenmodell der schriftlichen Sprachproduktion vorgestellt werden.
2.3.1.
Fehler als Fenster auf kognitive Prozesse
Die Analyse von Fehlern wird in der Forschung zur Sprachproduktion häufig angewandt, um Erkenntnisse über die zugrunde liegenden kognitiven Prozesse zu gewinnen. Für die gesprochene Sprache ist die vorhandene Literatur immens (z.B. Leuninger, 1993, 1997), jedoch unterscheiden sich Versprecher und 'Verschreiber' grundsätzlich in der Größe der betroffenen Einheiten. So treten z.B. Vertauschungsfehler in der mündlichen Sprachproduktion zwischen ganzen Wörtern und Silben auf oder betreffen kleinere Einheiten in vergleichbaren Positionen innerhalb einer unabhängigen, übergeordneten Rahmenstruktur wie etwa Silben (z.B. Anlaute [krüne Greide – grüne Kreide], Silbenkerne [Cula por – Cola pur], seltener Reime/Kodas [keil Bein – kein Beil]). In der Schrift treten Vertauschungen jedoch meist in kleineren Einheiten (z.B. bei benachbarten Zeichen) auf und es sind grundsätzlich alle Graphemkombinationen schriftlich ausführbar (MacNeilage, 1964), was analog für die Phonemkombinationen der gesprochenen Sprache nicht möglich ist. Trotzdem scheint es einige graphotaktische Einschränkungen zu geben, die einen guten Blick auf die zugrunde liegenden sprachlichen und motorischen Prozesse ermöglichen. Hierbei sind grob drei Typen von Fehlern zu unterscheiden: 1. Orthographische Fehler, die auf Unkenntnis oder auf einer Unsicherheit bezüglich orthographischer Repräsentationen oder Regularitäten beruhen, 2. Fehler, die sich auf eine Fehlleistung der beteiligten (nicht-orthographischen) kognitiven Prozesse zurückführen lassen, 3. Fehler, die sich auf eine Fehlleistung der beteiligten motorischen Prozesse zurückführen lassen. Erstere sind eher im Hinblick auf die orthographische Repräsentation und somit für höhere kognitive Prozesse interessant (für eine Diskussion der Analyse orthographischer Fehler siehe Kapitel 3.2.1.5. Fehleranalyse, Seite 96ff.), wohingegen Fehler des Typs 2 und 3 eher peripheren Prozessen zuzuordnen sind. Wenn hierzu ausschließlich das fertige Schreibpro-
57 dukt analysiert wird, so wird der Produktionsaspekt (die 'Entstehungsgeschichte') außer Acht gelassen. Störungen im Zusammenspiel der unterschiedlichen kognitiven und motorischen Prozesse können sich aber auch in Verzögerungen und Pausen widerspiegeln, die am statischen Produkt nicht abzulesen sind. Die kontinuierliche und detaillierte Aufzeichnung der Wortproduktion kann daher zusätzliche Informationen zur Entstehung eines Fehlers liefern, die dazu beitragen können, die beteiligten Prozesse genauer zu identifizieren (vgl. Thomassen & Meulenbroek, 1990: 28f.). Verschiedene Autoren analysierten Fehler der Typen 2 und 3 in der Handschrift (z.B. Ellis, 1979), in der Tastaturschrift (z.B. Berg, 2002; Grudin, 1983a; Shaffer, 1975; Logan, 1999), in beiden Modi (z.B. MacKay, 1993) oder im Vergleich von handschriftlichen und mündlichen Fehlern (z.B. Berg, 1996; Hotopf, 1980; MacNeilage, 1985, 1998). Hierbei ist auch der jeweilige Entstehungskontext von Belang: Im Rahmen der Textproduktion treten zum Teil andere Fehler auf (vor allem ganze Silben und ganze Wörter betreffend) als in der Schreibung isolierter Wörter und auch die relative Häufigkeit der verschiedenen Fehlertypen ist unterschiedlich. Auch in neuropsychologischen Studien werden Fehleranalysen häufig genutzt, um z.B. die Art und Weise graphemischer Repräsentationen genauer zu bestimmen (z.B. Caramazza & Miceli, 1990). Hier werden auch häufig Fehler beim mündlichen Buchstabieren herangezogen. Allgemein werden fünf unterschiedliche Typen von Fehlern unterschieden (vgl. Gentner et al., 1983; die Beispiele stammen alle aus einem eigenen tastaturschriftlichen Fehlerkorpus [Nottbusch, 2006]): 1. Einfügung eines zusätzlichen Zeichens oder Graphems oder eines ganzen Wortes. Letzteres fast ausschließlich in Form einer Wiederholung des zuvor geschriebenen Wortes. Für die Tastaturschrift ist darüber hinaus die Unterscheidung in Einfügungen von Nachbartasten der vorhergehenden oder folgenden Taste (durch das Anschlagen zweier Tasten, dadurch sehr kurze Zeitintervalle; z.B. ‹*Nashiorn› für ‹Nashorn›) oder die Verdreifachung eines Buchstabens wie in ‹*Wäscheklammmer› für ‹Wäscheklammer› und Einfügungen von Nicht-Nachbartasten sinnvoll, z.B. ‹*Bügelebrett› für ‹Bügelbrett›. Nach Logan (1999) stellen letztere Einfügungen in 50% der Fälle eine Vorwegnahme (Antizipation) oder Erhaltung (Perseveration) eines Graphems innerhalb des Wortes dar. Die Unterteilung ist (wie im Beispiel) nicht immer eindeutig zu treffen. 2. Auslassung eines Zeichens oder Graphems, z.B. ‹*Erbeere› für ‹Erdbeere› bzw. einer Silbe oder eines ganzen Wortes. Letzteres tritt im Vergleich zur gesprochenen Sprache in der Textproduktion relativ häufig auf und betrifft zu 90% Funktionswörter (Hotopf, 1980). Bezogen auf die Einzelwortschreibung fand Shaffer (1976), dass das Interkey-Intervall zwischen dem der Auslassung vorhergehenden und dem folgenden Tastenanschlag leicht verlängert ist. Aus Grudins Videostudie (1983a) geht hervor, dass in etwa 50% der Auslassungen mindestens Ansätze zu einer Bewegung vorhanden waren. Auslassungen treten vor allem dann auf, wenn ein Graphem im gleichen Wort mehrfach vorkommt (z.B. ‹*Verküzung› für ‹Verkürzung›). Grudin (1983a) nimmt daher eine Inhibierung des motorischen Programms für den Buchstaben an, die möglicherweise konträr zur oben genannten Perseveration stehe und die
58 erneute Ausführung verhindere. Des Weiteren scheint dieser Fehlertyp in komplexeren Silben häufiger vorzukommen als in einfachen Silben und betrifft seltener den vokalischen Kern als die Konsonanten. Dies gilt für die Tastaturschrift und die Handschrift gleichermaßen (van Galen, 1990). 3. Ersetzung eines Zeichen oder Graphems durch ein anderes (z.B. ‹*Amanas› für ‹Ananas›). Bei diesem Fehlertyp kommt dem Vokal/Konsonant-Status des ersetzten und des ersetzenden Zeichens oder Graphems besondere Bedeutung zu, da deren Status in sehr vielen Fällen erhalten bleibt (in der Handschrift: Marini & Blanken, 1996; Caramazza & Miceli, 1990; McCloskey, Badecker, Goodman-Schulman & Aliminosa, 1994). Für die Tastaturschrift gilt dies nur für die Ersetzungen durch NichtNachbartasten (Grudin, 1983a; Logan, 1999; Will et al., 2003). Dabei wird die falsche Taste meist von einem anderen als dem eigentlich korrekten Finger angeschlagen (Grudin, 1983a). Will et al. (2002) fanden für diese Fälle einen Vokal/Konsonant-Statuserhalt von 100% für Konsonanten und 89% für Vokale. Für Nachbartasten fanden die Autoren dagegen nur einen Statuserhalt in 88% der Fälle mit Konsonanten und 43% der Vokale. Der für Konsonanten recht hoch erscheinende Wert relativiert sich im Vergleich zur theoretischen Vorhersage (ausgezählt anhand des Statuswechsels bzw. -erhalts für jede Buchstabentaste in Bezug auf ihre Nachbartasten auf einer deutschen QWERTZ-Tastatur), die aufgrund der hohen Zahl von Konsonanten bei 80% liegt (Vokale 31%). Der Statuserhalt spricht stark für eine Ersetzung auf der Repräsentationsebene. Des Weiteren ist die Tendenz zu nennen, dass ersetzte Grapheme bezüglich der Groß- und Kleinschreibung sehr häufig an die Umgebung angepasst werden (z.B. ‹*Bollarkurs› für ‹Dollarkurs›), was stark gegen eine Ersetzung auf der Allographenebene spricht (vgl. Abbildung 1, Seite 36). Ein weiterer sprachlicher Einfluss besteht bezüglich der relativen Frequenz, die in vielen Fällen für die tatsächlich produzierten Zeichen größer ist als für die ersetzten. Eine (rein motorisch verursachte) Untergruppe bilden in der Tastaturschrift die so genannten homologen Ersetzungen, bei denen eine Taste durch den entsprechenden Finger der anderen Hand ersetzt wird (z.B. ‹*Mail› für ‹Mais›; die Tasten L und S werden jeweils mit dem Ringfinger getippt). In der Handschrift existiert zusätzlich der so genannte Switch, bei dem der Schreiber mit einem falschen Graphem beginnt, aber während der Schreibung noch in das korrekte Muster wechselt. 4. Transposition (Vertauschung) zweier Zeichen bezüglich ihrer Reihenfolge (hauptsächlich benachbarte Zeichen, sehr selten auch über ein oder mehrere Zeichen hinweg → interchange error). Zu diesem Fehlertyp äußerten sich MacKay (1993) und vor allem MacNeilage (1998: 503) sehr skeptisch: “Any typist knows that, in contrast with spoken language, exchange errors occur not between units with comparable positions in an independently specified superordinate frame structure, but simply between adjacent letters. This is true whether the units are in the same syllable or in different syllables.” Entgegen diesen Ausführungen hat dieser Fehlertyp nachweisbar eine hohe Aussagekraft bezüglich der Größe der Basiseinheiten. Will et al. (2003) fanden unter den 60 Transpositionsfehlern in ihrem Korpus nur drei, die eine Silbengrenze, und zwei, die eine kombinierte Silben-/Morphemgrenze überspannten. Bei einer ange-
59 nommenen Gleichverteilung der Fehlerpositionen im verwendeten Material wäre ein Auftreten der Fehler innerhalb einer Silbe, über eine Silbengrenze und über eine kombinierte Silben-/Morphemgrenze im Verhältnis von 341 : 31 : 52 bzw. 80.4% : 7.3% : 12.3% zu erwarten. Tatsächlich traten sie aber im Verhältnis von 55 : 3 : 2 oder 91.7% : 5,0% : 3.3% auf. Es zeigt sich also eine merkliche Tendenz zur Vermeidung von Transpositionen über Silbengrenzen hinweg. Nach Logan (1999) entstehen 80% der Transpositionen bei alternierenden zweihändigen Kombinationen, was auf Fehler bei der zeitlichen Abstimmung der motorischen Ausführung schließen lässt. Diese Sicht wird gestützt von dem Ergebnis, dass die Zeitmuster der meisten Transpositionsfehler sich nicht von korrekten Zeichenfolgen unterscheiden (Shaffer, 1975). Letzteres spricht allerdings auch gegen die Annahme, dass hier lediglich eine Taste zu früh angeschlagen würde, sondern eher dafür, dass der Fehler schon auf der Repräsentationsebene auftritt. Die tatsächliche Anzahl der Transpositionen liegt vermutlich sehr viel höher, da sie, wenn sie vom Schreiber bemerkt werden und die Produktion abgebrochen wird, als Ersetzungen erscheinen. 5. Doppelungsfehler: Bei diesem Fehlertyp wird die an sich korrekte Verdoppelung eines Zeichens auf das falsche Zeichen angewandt, z.B. ‹*Zigaare› für ‹Zigarre›. Eine vermutlich verwandte Form ist der Alternierungsfehler, bei dem die Rollen zweier alternierender Zeichen vertauscht werden wie in ‹*Schrer› für ‹Schere›. Der Doppelungsfehler wurde seit seiner ersten Beschreibung von Lashley (1951) intensiv diskutiert. Lashley argumentierte, dass das betroffene Graphem nur einfach repräsentiert sei und die Ursache dieses Fehlers eine falsch gesetzte Verdoppelungsmarkierung sei. Dieses fand später Einzug in das Repräsentationsmodell von Caramazza & Miceli (1990; siehe Kapitel 2.3.2. Modelle auf Basis neurologischer Evidenzen, Seite 60ff.). Wie bereits ersichtlich wurde, unterscheiden sich Hand- und Tastaturschrift bezüglich der möglichen Fehler, da für die Tastaturschrift die relative Position der Taste auf der Tastatur von entscheidender Bedeutung ist. Dies spielt in der Handschrift keine Rolle. Dafür ist es in der Handschrift möglich, die Produktion eines bereits begonnenen Zeichens abzubrechen, wenn der Fehler früh genug bemerkt wurde (dies ist zwar auch bei der Tastaturschrift denkbar, jedoch ist eine abgebrochene Bewegung in Richtung einer Taste nur durch eine zeitlich hoch aufgelöste Videoanalyse [mit einer Hochgeschwindigkeitskamera] registrierbar und nicht in jedem Falle eindeutig). Dies erschwert die Analyse der handschriftlichen Fehler, da nicht in allen Fällen klar ist, welche Bewegungsausführung ursprünglich intendiert wurde. Andererseits besteht durch den Vergleich der Hand- und der Tastaturschrift die Möglichkeit, rein motorische Fehler dadurch zu identifizieren, dass sie in nur einem der beiden Modi auftauchen. So können in der Tastaturschrift durch Daten zum Zeitverlauf und die Unterscheidung in Nachbar- und Nicht-Nachbar-Tasten bestimmte Fehler als rein motorisch isoliert werden (Shaffer, 1975). Jedoch haben Fehler oft mehrere Ursachen und es ist nicht immer einfach, diese voneinander zu separieren. Wie gezeigt werden konnte, gibt es je nach Fehlertyp verschiedene auch sprachliche Ursachen bzw. Restriktionen. Viele Fehlertypen können auf der Basis dieser Daten bestimmten Teilprozessen zugeordnet werden. Durch den Nachweis der Existenz von sequentiellen
60 Klassenregularitäten im Sinne MacKays (1987), z.B. die Tendenz zum Erhalt des Vokal/Konsonant-Status oder die Vermeidung von Silbengrenzen übergreifenden Vertauschungen, bekräftigt die Fehleranalyse die Repräsentation des Vokal/Konsonant-Status, eine Markierung von Verdoppelungen, die Unterscheidung von Segmenten und Rahmen sowie die Differenzierung von reinen Silben- und kombinierten Silben-/Morphemrahmen. Auf diese Weise hat die Fehleranalyse dazu beigetragen, Modelle der schriftlichen Wortproduktion weiterzuentwickeln.
2.3.2.
Modelle auf Basis neurologischer Evidenzen
Basierend auf Mortons Logogen-Modell (1980) und einer Reihe von Erkenntnissen aus neurolinguistischen Fallstudien entwickelten Ellis (1982, 1988) bzw. Ellis & Young (1996) ein modularisiertes und hierarchisches Modell der handschriftlichen Wortproduktion (siehe Abbildung 3, Seite 61). Ausgangspunkt dieses Modells ist die semantische Repräsentation eines Konzeptes im so genannten Cognitive System. Für die Schreibung eines Wortes stehen zwei Wege zur Verfügung: Der erste Weg beruht auf der phonologischen Repräsentation des Wortes, die über das Speech Output Logogen System genannte Modul zur Verfügung gestellt wird und im Phonemic Buffer zwischengespeichert wird. Die vorliegende Phonemkette wird anschließend Schritt für Schritt in eine Graphemkette übersetzt, die wiederum zwischengespeichert werden muss (im Graphemic Buffer). Für unbekannte Wörter ist dieser nicht-lexikalische Weg obligatorisch, jedoch können diese nur auf der Basis der bekannten Phonem-Graphem-Korrespondenzen und den dazu gehörigen Kontextregeln generiert werden. Hieraus folgt, dass Schreibungen, die nach diesem System irregulär wären, auf diesem Weg nicht produziert werden können. Für irreguläre Wörter muss daher (analog zum Dual-Route-Cascading-Model des Lesens [Coltheart, 1978; Coltheart, Curtis, Atkins & Haller, 1993; Ziegler, Perry & Coltheart, 2000]) ein gesonderter orthographischer Speicher (Lexikon) angenommen werden, das so genannte Graphemic Output Logogen System. Schreibungen, die auf diese Weise zustande kommen, bezeichnet Ellis (1982) als den lexikalischen Weg. Jedoch würde der phonologische Code als Input für dieses System allein nicht ausreichen, da im Falle von Homophonen (z.B. /val/) nicht eindeutig wäre, welcher der möglichen orthographischen Kandidaten (im Beispiel ‹Wal› oder ‹Wahl›, neben anderen denkbaren Formen, vgl. Neef, 2005) der richtige ist. Als Alternative wäre der direkte Input aus dem Cognitive System denkbar. Diese Annahme wird gestützt durch das Vorhandensein semantischer Fehler, wenn z.B. auf den bildlichen Stimulus 'Biene' schriftlich mit ‹Ameise› reagiert wird. Jedoch sind semantische Fehler bei gesunden Probanden erheblich seltener als phonologisch plausible Fehler wie z.B. ‹*Mastganz› als Reaktion auf den schriftlichen Stimulus ‹Mastgans› (siehe Hotopf, 1980; Logan, 1999). Daher scheint der Input für das Graphemic Output Logogen System sowohl aus semantischem als auch aus phonologischem Code zu bestehen.
61
Abbildung 3:
Ellis' (1982: 140) Modell des Sprechens und Schreibens. ac. = acoustic code; all. = allographic code; gmp = graphic motor pattern; gr. = graphemic code; kin. = kinaestetic code; lex. = lexical code; ph. = phonemic code; sem. = semantic code; vis. = visual code
62 Die Trennung der beiden Möglichkeiten, zur Schreibung eines Wortes zu gelangen – einerseits lexikalisch und andererseits nicht-lexikalisch, wird gestützt durch Befunde aus der Neuropsychologie. Shallice (1981) berichtet von einem Patienten (PR), dessen Fähigkeit, Wörter zu schreiben oder mündlich zu buchstabieren gut erhalten war, der jedoch größte Schwierigkeiten hatte, die gleiche Aufgabe mit Pseudowörtern auszuführen. Perzeptive Ursachen konnten hierbei ausgeschlossen werden, da PR die Pseudowörter in allen Fällen nachsprechen und bis auf wenige Ausnahmen auch vorlesen konnte. Genau gegenteilige Fähigkeiten fanden Beauvois & Dérouesné (1981) bei dem Patienten RG. Dieser konnte für alle ihm vorgesprochenen Pseudowörter plausible Schreibungen produzieren, konnte jedoch nur 38% der diktierten irregulären Wörter korrekt schreiben (Wörter mit regulärer Orthographie stellten kein Problem dar). Beide Befunde gemeinsam ergeben eine doppelte Dissoziation. Darüber hinaus scheint es möglich zu sein, dass auf die lexikalische Repräsentation in zweierlei Weise nur teilweise zugegriffen werden kann. So zeigten die Antworten des Patienten von Beauvois & Dérouesné (1981) eine starke Beeinflussung durch die Wortfrequenz: Je höher die Frequenz eines irregulären Wortes, desto wahrscheinlicher war eine korrekte Schreibung; es konnten also nur bestimmte Wörter geschrieben werden. Eine von Morton (1980) beschriebene Patientin konnte in vielen Fällen nur einzelne Zeichen und ihre Position innerhalb des Wortes schreiben (z.B. ‹Tur__y› von ‹Turkey›) und nutzte dies, um Schwierigkeiten bei der mündlichen Benennung zu umgehen; hier konnte die graphemische Information also nur teilweise abgerufen werden. Des Weiteren konnte die Patientin häufig Wörter schreiben, die sie nicht aussprechen konnte (vgl. auch Sahel et al., 2005). Dies deutet auf die relative Unabhängigkeit des Graphemic Output Logogen System. Anhand der Fehler des Patienten von Beauvois & Dérouesné (1981) kann eine weitere Strategie, zur Schreibung eines Wortes zu gelangen identifiziert werden. In einigen Fällen versuchte er, über Analogien zu zugänglichen Wörtern die problematischen Positionen zu füllen (z.B. produzierte er ‹sym› auf den Pseudowortstimulus /sm/ in Analogie zu ‹symbol›). Ellis (1982) sieht die Schreibung per Analogie (siehe auch Kapitel 4.4. Verbales Arbeitsgedächtnis und der Aufbau orthographischer Repräsentationen ab Seite 131) aufgrund des Zugriffes auf eine lexikalisch gespeicherte Schreibung als funktional lexikalischen Prozess. Die Phonem-Graphem-Konversion teilt sich wiederum in zwei Prozesse: 1. die Segmentierung der phonologischen Information in Phoneme oder Silben und 2. die Konversion der Segmente in Grapheme oder Graphemgruppen. Eine zentrale Annahme des Modells von Ellis (1982) ist, dass die hierarchiehöheren Module einschließlich des Graphemic Output Buffers unabhängig von der Form der späteren motorischen Realisierung (Handschrift, Tastaturschrift, mündliches Buchstabieren) sind. In Letzterem ist die graphemische Form eines Wortes in noch abstrakter Form repräsentiert, die dann den Input für die folgenden Module bildet. In Anlehnung an die obige Unterscheidung in die abstrakte Repräsentation des Graphems und der dazu gehörigen Allographen sowie der motorischen Ausführung als Graph (vgl. Abbildung 1, Seite 36) nimmt Ellis für die Handschrift drei Stufen der Repräsentation an (graphemic, allographic, graphic motor-pattern), deren Output jeweils in einem speziellen Speicher geschrieben wird, der wiederum den Input für das nächste Modul darstellt. Die
63 zu realisierenden Grapheme aus dem Graphemic Buffer bilden den Input für den Allographic Long-term Store, in dem das jeweils passende Allograph (Majuskel/Minuskel; Schrifttype; evtl. Kontextinformation) ausgewählt wird. Fehler bei der Auswahl des Allographen würden sich im Endprodukt z.B. durch Großbuchstaben innerhalb eines Wortes oder unregelmäßige Verwendung der Schrifttype bemerkbar machen.
2.3.3.
van Galens Modell der Handschrift
Das Modell von van Galen (1991) lehnt sich in weiten Teilen an das von Ellis an, spezifiziert aber einige Untermodule genauer. Das Modell ist strikt sequenziell und hierarchisch organisiert: Jede Schreibung durchläuft von zentralen Prozessen bis zur peripheren motorischen Ausführung eine Reihe unabhängiger Module, die jeweils eine spezifische Eigenschaft verarbeiten. Dabei stellt der Output des zentraleren Moduls jeweils den Input des periphereren Moduls dar. Je niedriger die Stufe eines Moduls, desto kleiner ist die zu verarbeitende Einheit. Der Ablauf ist inkrementell, d.h., während ein hierarchie-niedrigeres Modul noch den Input des höheren Moduls verarbeitet, kann Letzteres schon die nächste Einheit verarbeiten. Demnach können mehrere Sequenzen parallel verarbeitet werden. Eine zentrale Annahme des Modells ist die aus der Gedächtnisforschung bekannte Begrenzung der kognitiven Kapazität (vgl. Kapitel 4.2. Aufbau des verbalen Arbeitsgedächtnisses, Seite 127ff.). Durch die Limitierung der Prozessorkapazität stehen gleichzeitig laufende Prozesse miteinander im Konflikt und so können sich z.B. Spuren höherer Prozesse in niedrigeren Prozessen wiederfinden. Der zeitliche Abstand zwischen der realen Produktion und der vorherigen Verarbeitung steigt mit der Stufe des Verarbeitungsprozesses. Hieraus resultiert, dass Einflüsse hierarchie-hoher Prozesse einige Zeit vor der eigentlichen Produktion auftreten sollten, hierarchie-niedrigere dagegen zeitnahen Einfluss haben müssten. Zwischen den Modulen werden jeweils Zwischenspeicher (memory buffers) angenommen. Angelehnt an Levelt (1989) werden drei hohe Ebenen angenommen: die Intention, die Bildung semantischer Strukturen und die syntaktische Verarbeitung. Auf der Wortebene wird wie bei Ellis (1982) angenommen, dass die Wörter zusammen mit ihrer Bedeutung in einem mentalen Lexikon abgespeichert sind. Das voll spezifizierte Wort wird im so genannten Orthographic Buffer für das folgende Spelling Module bereitgehalten. In diesem Modul wird das Wort in seine Buchstaben zerlegt. Es folgen drei hierarchie-niedrige Prozesse: die Auswahl des passenden Allographen aus dem motorischen Gedächtnis (muskelunspezifisch), die Anpassung der Größenparameter und schließlich die motorische Ausführung (muscular adjustment), die relativ autonom abläuft.
2.3.4.
Konstituentenmodell der schriftlichen Sprachproduktion
Die für diese Arbeit entscheidenden Modellvorstellungen lassen sich am besten an dem Konstituentenmodell der schriftlichen Sprachproduktion von Weingarten et al. (2004; hiervon abgeleitet: Abbildung 4, Seite 65) erläutern. Der Terminus, der auf der obersten Ebene
64 verwendet wird (graphemisches Wort), bezieht sich auf den Output des graphemischen Lexikons (bei Ellis [1982]: Graphemic Output Logogen System, vgl. Abbildung 3, Seite 61), der im komplexen Fall (auf der zweiten Ebene) in mehrere lexikalische Komponenten geteilt sein kann. (Die Frage, wie diese Repräsentationen im orthographischen Lexikon aufgebaut werden, wird in Kapitel 4.4. Verbales Arbeitsgedächtnis und der Aufbau orthographischer Repräsentationen ab Seite 131 behandelt). Für diese Unterteilung bestehen mehrere unabhängige Evidenzen: Badecker, Hillis & Caramazza (1990) fanden bei einem Patienten eine mit der Position im Wort steigende Fehlerzahl. Allerdings traf dies nur für monomorphematische Wörter zu. In Komposita stieg die Fehlerzahl jeweils nur bis zum Ende des ersten Morphems und fiel mit dem Beginn des folgenden Morphems, um anschließend wieder anzusteigen. Bei einem Patienten, dessen Wortschreibung hauptsächlich phonographisch gebildet waren, fanden Badecker, Rapp & Caramazza (1996) weitere Hinweise auf die morphemweise Verarbeitung. So schrieb der Patient das Zielwort ‹kneeled› phonographisch als ‹*neiled›; besondere Beachtung kommt hier der korrekten Schreibung des Flexionsmorphems ‹-ed› zu, das konsequenterweise als ‹*neild› hätte geschrieben werden müssen. Entsprechend zeigte sich, dass der Patient vor allem Grundmorpheme phonographisch erzeugte, während die Schreibung des Flexionsmorphems offensichtlich aus dem Lexikon abgerufen wurde. Hieraus schlossen die Autoren, dass auf der Ebene der Wortschreibung der morphemischen Struktur eine herausgehobene Bedeutung zukommt: »the distribution [...] indicated strongly that the asymmetry was defined over the morphemic components of the word, and not over the word as a whole.« Gestützt werden diese Ergebnisse durch die oben beschriebenen Evidenzen aus Zeitmessungen an gesunden Probanden. Hier finden sich sowohl für die Tastaturschrift als auch für die Handschrift Wortfrequenzeffekte an wortinternen kombinierten Silben-/Morphemgrenzen (vgl. Kapitel 2.1.6. Spuren sprachlicher Prozesse in der Tastaturschrift, Seite 15ff.). Des Weiteren unterscheiden sich verschiedene Morphemtypen signifikant voneinander und von 'reinen' Silbengrenzen (vgl. Kapitel 2.2.8. Spuren sprachlicher Prozesse in der Handschrift, Seite 48ff.). Die restlichen Ebenen des Modells von Weingarten et al. (2004) sind im Modell von Ellis (1982; siehe Abbildung 3, Seite 61) noch als Graphemic (Output) Buffer (GOB) abgebildet. Dieser kann bei Ellis (1982) auf drei verschiedene Weisen mit Informationen gefüllt werden: Über das Graphemische Output-Lexikon, über die Phonem-Graphem-Konversion oder direkt über das visuelle Kurzzeitgedächtnis. Der GOB dient der Zwischenspeicherung dieser Graphemfolge, bis die Weiterverarbeitung erfolgen kann. Die Annahme, dass die Grapheme in suprasegmentale Einheiten gruppiert werden, beruht ebenfalls auf neurolinguistischen und psycholinguistischen Untersuchungen. Diese Vorstellungen sind angelehnt an diejenigen zur Repräsentation der Phoneme in auto- und suprasegmentalen Schichten (tiers). Die meisten Modelle des GOB gehen davon aus, dass die Informationen auf diese Weise mehrschichtig gespeichert sind und neben der Graphemidentität und -reihenfolge auch deren Vokal/Konsonant-Status, Verdoppelungen und graphemische Silbengrenzen gespeichert sind (Caramazza & Miceli, 1990; McCloskey et al., 1994; Badecker, 1996; Marini & Blanken, 1996, Ward & Romani, 2000; Domahs, de Bleser & Eisenberg, 2001). Bei Weingarten et al. (2004) wird darüber hinaus eine Silbenkon-
65 stituenten-Schicht angenommen und die Buchstabenschicht in Grapheme und Buchstaben getrennt (siehe unten).
Abbildung 4:
Konstituentenmodell geschriebener Wörter (vgl. Weingarten et al., 2004). W = graphemisches Wort, LC = Lexikalische Konstituente, S = Silbe, O = Onset, R = Reim, GC = Konsonantgraphem, GCn = Konsonantgraphem mit n Zeichen, GV = Vokalgraphem.
Die Annahme graphemischer Silbengrenzen wurde zuerst von Ellis (1982: 135) in Betracht gezogen. Caramazza & Miceli (1990) fanden Hinweise in den schriftlichen Fehlern eines italienischen Patienten mit einer Schädigung des GOB, die zu großen Teilen darin bestanden, dass die Struktur komplexer Silben vereinfacht wurde. Die Auslassungen betrafen meist Konsonantencluster und fast nie einfache CV-Silben, wenn dies zur Bildung einer komplexeren Struktur geführt hätte – der Patient schien Verletzungen der Sonoritätshierarchie zu vermeiden. Hieraus folgerten die Autoren, dass die Silben unabhängige graphematische Repräsentationen darstellen. Dieser Sicht widersprachen Jónsdóttir, Shallice & Wise (1996), die die Daten des Patienten von Caramazza & Miceli (1990) mit denen eines englischsprachigen Patienten verglichen, der ein sehr ähnliches Krankheitsbild hatte. Dieser zeigte bezüglich der Fehlerverteilung keinen Unterschied zwischen einfachen und komplexen Silben, was die Autoren auf die Unterschiede zwischen den komplexen Phonem-Graphem-Beziehungen des Englischen und den sehr flachen des Italienischen zurückführten. Ward & Romani (2000) fanden bei einem weiteren vergleichbaren englischsprachigen Patienten ebenfalls keine Effekte der Silbenkomplexität, jedoch eine Tendenz des Erhalts der Sonoritätshierarchie und der Vokal/Konsonant-Struktur. Letzteres lies die Autoren für die Position von Caramazza & Miceli (1990) plädieren (für eine ausführliche Diskussion siehe Sahel et al., 2005). Hinweise auf den sublexikalischen Status der Silben liefern die Daten eines Patienten, über den Domahs et al. (2001) berichten. Die Autoren fanden bei einem Oberflächendysgrafiker, der nur sehr eingeschränkten Zugriff auf lexikalische Informationen hatte, implizites Wissen über Graphosilben bei der Verwendung des ‹h›, sowohl silben-
66 initial als auch als Dehnungszeichen. Domahs et al. (2001) schreiben dieses Verhalten der Phonem-Graphem-Konversion zu. Ähnlich argumentieren auch Sahel et al. (2005), die bei einem aphasischen Patienten mit stark gestörter Phonem-Graphem-Konversion keine Effekte der Silbensegmentierung im zeitlichen Verlauf der Schreibungen auf der Tastatur nachweisen konnten. Da die Funktionsweise des Graphemischen Output-Buffers bei diesem Patienten relativ gut erhalten war, lokalisierten die Autoren die Silbensegmentierung in der Phonem-Graphem-Konversion (vgl. auch Kapitel 2.1.6. Spuren sprachlicher Prozesse in der Tastaturschrift, Seite 15ff. und Kapitel 4.4. Verbales Arbeitsgedächtnis und der Aufbau orthographischer Repräsentationen, Seite 131ff.). Hiermit wird die komplette Unabhängigkeit der Graphosilben von phonologischen Prozessen (Hypothese der orthographischen Autonomie) in Frage gestellt. Nach dieser Hypothese sollen orthographische Information auch direkt und ohne Zuhilfenahme phonologischer Prozesse verarbeitet werden können (Miceli, Benvegnù, Capasso & Caramazza, 1997; Rapp, Benzing & Caramazza, 1997). Allerdings ist zu bedenken, dass die schriftliche Produktion des Patienten zwar möglich, jedoch sehr fehlerträchtig und langsam war. Unabhängig hiervon finden sich sowohl bei normal hörenden als auch bei gehörlosen Erwachsenen starke Einflüsse einer Silbensegmentierung auf den zeitlichen Verlauf der Handschrift (vgl. Kapitel 2.1.6. Spuren sprachlicher Prozesse in der Tastaturschrift, Seite 15ff.). Sowohl das Auftreten bei Pseudowörtern als auch das Ausbleiben eines Wortfrequenzeffektes bestätigen die Annahme, dass es sich bei der Silbensegmentierung um einen post-lexikalischen Effekt handeln muss (vgl. ausführlich Nottbusch et al., 2005). In den Untersuchungen von Will et al. (2003) zeigte auch die Silbenfrequenz keinen Effekt auf die Dauer der Interkey-Intervalle, sodass hier kein 'Silbenlexikon' angenommen werden kann, sondern die Silbensegmentierung eher auf einem regelbasierten Prozess beruht. Die Annahme einer weiteren Unterteilung der Silbensegmente in die Konstituenten Onset und Reim (vgl. Abbildung 4, Silbenkonstituenten, Seite 65) beruht auf dem Effekt der Onset-Länge auf die Interkey-Intervalle an Silbengrenzen (Will et al., 2006). Zu einer denkbaren weiteren Unterteilung des Reims in vokalischen Kern und Coda im Graphemic Output Buffer konnten keine Veröffentlichungen gefunden werden, allerdings zeigen die Untersuchungen von Weingarten (2005), dass Di- und Trigrapheme gesondert gespeichert werden müssen: In einer Vervollständigungsaufgabe mit komplexen Graphemen führten diejenigen Di- und Trigrapheme zu längeren Verzögerungen als bei Monographemen, deren Lautwert sich nicht aus der Summe der mit den Buchstaben korrespondierenden Phonemen ergibt (dies gilt z.B. für ‹sch› //, ‹ng› //, ‹äu, eu› //, aber nicht für ‹CC› /C/, ‹VV› /V/, ‹ck› /k/). In einem weiteren Experiment in Weingarten (2005) schrieben Versuchspersonen 25 Wortpaare, bei denen beide Wörter jeweils einen identischen Beginn aufwiesen, jedoch in der einen Variante ein komplexes Graphem enthielten und in der anderen Variante ein Monographem (z.B. ‹Haar› vs. ‹Hals›). In acht von zehn untersuchten Falltypen bestätigte sich die Hypothese, dass die Latenz vor dem komplexen Graphem etwas länger war als vor dem Monographem; dieser Unterschied war jedoch nicht signifikant. Ein signifikanter Effekt zeigte sich jedoch bei dem jeweils folgenden Zeichen: Der zweite Teil des komplexen Graphems wurde schneller getippt als das auf das Monographem folgende Graphem. Obwohl die folgenden Zeichen nicht identisch waren (und die Unterschiede daher
67 beispielsweise auch auf der Buchstabenfrequenz beruhen könnten), zeigt sich hier doch die klare Tendenz, dass komplexe Grapheme als eine Einheit verarbeitet werden. Daher wird in der Abbildung 4 (Seite 65) für die Repräsentation von Di- und Trigraphemen in der Graphemschicht eine Modifizierung vorgenommen, die sich an die von Caramazza & Miceli (1990) angenommenen Verdoppelungsmarkierung anlehnt. Dies trifft auch auf die Verdoppelung eines Konsonantgraphems im Falle eines Silbengelenks zu. Hier liegen zwar aus graphematischer Sicht zwei Segmente vor, die jeweils zu einer Silbe gehören (vgl. Eisenberg, 2005: 76f.; Primus, 2003: 35), im Graphemischen Output-Buffer scheint aber nur ein komplexes Graphem (mit einer Verdoppelungsmarkierung) repräsentiert zu sein, wie die obigen Ergebnisse zeigen (siehe auch Doppelungsfehler, S. 59). Die Silbe wird hier in Anlehnung an Primus (2003) verstanden als eine abstrakte und substanzunabhängige Einheit, deren Anwendung unabhängig vom sprachlichen Modus auf jeden sprachlichen Output obligatorisch ist. Dort, wo die Segmentierung aufgrund von Modalitäts- oder Sprachunterschieden variiert, muss eine Anpassung an den Output erfolgen. Dies ist im Deutschen z.B. dann der Fall, wenn in der gesprochenen Sprache der Onset maximiert wird, in der schriftlichen Sprache aber bevorzugt die Ein-Graphem-Regel Anwendung findet (Eisenberg, 1998). Als weiterer modalitätsspezifischer Unterschied wäre die mögliche Reduktion unbetonter Silben in der gesprochenen Sprache zu nennen, wohingegen in der deutschen Orthographie keine nicht-vokalischen Nuklei erlaubt sind. Die genannte Anpassung erfolgt wohl teilweise individuell unterschiedlich (Nottbusch & Weingarten, 2002). Die Anwendung der Silbensegmentierung auf den schriftlichen Output ist daher höchst wahrscheinlich ein Teil des Schriftspracherwerbs.
3.
Empirische Untersuchung der handschriftlichen Wortproduktion
Für die phonologische Organisation der gesprochenen Sprache spielen Silben unbestritten eine entscheidende Rolle (z.B. Blevins, 1995; Clements, 1990). Dies trifft – trotz aller Unterschiede – auch für die Verarbeitung von geschriebener Sprache zu. So stellen Silben eine Einheit des phonologischen Rekodierens beim Lesen dar (für einen Überblick: Wentink, van Bon & Schreuder, 1997), d.h., kompetente Leser eines alphabetischen Schriftsystems verarbeiten mehrsilbige Wörter, die nicht direkt erkannt werden, in Silbeneinheiten. Und auch beim Schreiben von Wörtern sind Silben eine entscheidende Verarbeitungseinheit, wie sich in verschiedenen Studien nachweisen ließ: Sowohl in der Tastaturschrift als auch in der Handschrift zeigen sich an Silbengrenzen Verzögerungen des normalen Schreibflusses. Gestützt werden diese Ergebnisse von Fehleranalysen und neurologischen Fallstudien (vgl. hierzu ausführlich Kapitel 2.1. Prozesse der Wortschreibung in der Tastaturschrift, Seite 5ff., 2.2. Prozesse der Wortschreibung in der Handschrift, Seite 24ff. und 2.3. Modellierung der schriftlichen Wortproduktion, Seite 56ff.). Einer der wesentlichen Unterschiede zwischen dem Erwerb der gesprochenen und dem der geschriebenen Sprache liegt darin, dass der mündliche Spracherwerb auf existierenden kognitiven Strukturen aufbauen kann und quasi 'von allein' geschieht, der Schriftspracherwerb aber auf dem entwickelten mündlichen Sprachgebrauch aufbaut und auf explizite Instruktionen angewiesen ist. Dies lässt sich auch auf die Rolle der Silbe als kognitiver Verarbeitungseinheit übertragen, die in der gesprochenen Sprache schon Kleinkindern intuitiv zugänglich ist (z.B. in Abzählreimen), in der geschriebenen Sprache aber erst erworben werden muss: In einer Untersuchung zum Schriftspracherwerb fand Weingarten (1998) Hinweise darauf, dass das silbische Muster in der Dynamik des handschriftlichen Schreibens sich erst im Laufe des Schriftspracherwerbs herausbildet (vgl. Kapitel 2.2.8. Spuren sprachlicher Prozesse in der Handschrift, Seite 48ff.). Es ergibt sich also zunächst das Problem, ob und wie der Aneignungsgrad silbischer Muster am dynamischen Verlauf der Handschrift nachgewiesen werden kann. Dass dies grundsätzlich möglich ist, stellt den Satz 1) der Hypothese dieses Experiments dar (siehe Seite 70). Als Basis der Analyse dient das Paradigma der Pausenmessung in der Sprachproduktion, das zunächst bei gesprochener Sprache eingesetzt wurde (z.B. Goldman-Eisler, 1972) und inzwischen eine etablierte Forschungsmethode der Psycholinguistik darstellt. Grundlegend für dieses Paradigma ist die Annahme einer begrenzten kognitiven Kapazität, die aus den Modellen zum Aufbau des menschlichen Arbeitsgedächtnisses entstanden ist (vgl. Kapitel 4.2. Aufbau des verbalen Arbeitsgedächtnisses, Seite 127ff.). Nach dieser Annahme konkurrieren die einzelnen Teilprozesse um die begrenzte kognitive Kapazität, sodass eine Belastungsspitze eines bestimmten Prozesses die Ausführung anderer, gleichzeitig aktiver Prozesse behindern oder sogar verhindern kann. Eine solche Belastungsspitze führt zu einer messbaren Pause oder Verzögerung im zeitlichen Verlauf der Produktion. Um nun dem zeitlichen Datum (der Dauer der Pause) einen Prozess zuordnen zu können (bzw. den wahrscheinlichsten Kandidaten), muss es mit einem sprachlichen Datum (der zu
70 oder nach diesem Zeitpunkt produzierten sprachlichen Einheit) in Verbindung gebracht werden. Aus diesen Überlegungen ergibt sich für die Überprüfung des Satzes 1) der Hypothese das Teilziel, anhand der erhobenen Daten genau herauszufinden, zu welchen Zeitpunkten und an welchen Positionen im Wort die handschriftliche Produktion von Kindern verlangsamt oder unterbrochen wird, um daraus abzuleiten, welche kognitiven Prozesse jeweils aktiv sind. Der Aneignungsgrad der Silbensegmentierung kann dann dadurch bestimmt werden, wie stark sich die Silbenstruktur der geschriebenen Wörter (bzw. die entsprechenden kognitiven Prozesse) im dynamischen Verlauf der Schreibungen niederschlägt. Damit dies möglich wird, müssen a) aus den erhobenen Daten die zeitlichen Informationen extrahiert werden und b) diese dann mit den sprachlichen Daten in Beziehung gesetzt werden. Hierzu wird in den folgenden methodischen Vorüberlegungen noch einmal die Struktur der Handschrift näher betrachtet, aus der sich die beobachtbaren Einheiten und die damit verbundenen zeitlichen Messgrößen ergeben, die für die Analyse der Handschrift herangezogen werden können. Im Anschluss soll diskutiert werden, auf welche Weise die zeitlichen Daten mit den sprachlichen Daten in Beziehung gesetzt werden können. Die Kombination der Ergebnisse zum Aneignungsgrad der Silbensegmentierung mit denen der Messung der orthographischen Kompetenz stellt den Kern des Experiments dar. Letztere wird einerseits in klassischer Weise am Endprodukt – also dem geschriebenen Wort – gemessen. Andererseits bieten die oben beschriebenen Daten zu Pausen und Verzögerungen während der handschriftlichen Produktion auch die Möglichkeit, implizites Regelwissen zu beschreiben. Dies kann geschehen, indem überprüft wird, wie sich orthographische Schwierigkeiten (unabhängig davon, ob sie in einem Fehler münden oder nicht) in der dynamischen Struktur niederschlagen. Somit wird für die Überprüfung der Kernhypothese sowohl die Produktion (die Entstehung) als auch das fertige Produkt betrachtet. Der beschriebenen psychologisch realen Stellung der Silbe als Verarbeitungseinheit in der Schriftsprache entspricht auf der sprachlichen Beschreibungsebene die Tatsache, dass das deutsche Schriftsystem (neben segmentalen, morphologischen und syntaktischen Bezügen) einen suprasegmentalen Bezug zur Silbe aufweist. Dies zeigt sich daran, dass verschiedene Teilbereiche der Orthographie wie Dehnung, Schärfung, S-Graphie, silbentrennendes ‹h› und Worttrennung am Zeilenende an der Silbe orientiert sind. Die Hypothese dieser Arbeit ergibt sich an der Schnittstelle der beiden Beschreibungsebenen und lautet 1. Der Aneignungsgrad silbischer Muster im Schriftspracherwerb ist messbar am dynamischen Verlauf der Handschrift. 2. Die Daten zu Pausen und Verzögerungen während der handschriftlichen Produktion ermöglichen eine Beschreibung impliziten Regelwissens, die weit über die Analyse des Endproduktes hinausgeht. 3. Die gemessene Kompetenz in orthographischen Bereichen, die an der Silbenstruktur orientiert sind, korreliert mit dem Aneignungsgrad der Silbensegmentierung. Dabei stellt Satz 3) die Kernhypothese dar, die auf den Sätzen 1) und 2) aufbaut. Zur Überprüfung der Hypothese wurde eine empirische Studie zur handschriftlichen Wortproduktion durchgeführt: In dieser Studie schrieben 27 Schülerinnen und Schüler einer fünften Klasse
71 (Gesamtschule) je 51 in Lückentexte eingebettete Wörter aus dem DRT5 (Grund, Haug & Naumann, 1995) nach Diktat. Die Produktion wurde mit Hilfe eines Digitizers (siehe Kapitel 3.2.1.4. Apparatur, Seite 81) aufgezeichnet, um in der oben skizzierten Weise die Ergebnisse zum Aneignungsgrad der Silbensegmentierung mit der orthographischen Kompetenz in Beziehung setzen zu können. Vor der eigentlichen Beschreibung des Experiments stehen eine Reihe methodischer Vorüberlegungen, die die Vorgehensweise bei der Datenverarbeitung maßgeblich bestimmen. Hierbei erfolgt eine Orientierung an einigen grundlegenden Definitionen und Methoden aus der Literatur (z.B. Motorprogramm, Unterteilung in Auf- und Abstriche, Anzahl der Geschwindigkeitsinversionen, Datenglättung usw.), aber in einigen begründeten Fällen auch eine Abweichung bzw. das Beschreiten neuer Wege (psycholinguistische Fundierung, Verbindung und statistische Auswertung temporaler und sprachlicher [vor allem orthographischer] Daten).
3.1.
Methodische Vorüberlegungen
3.1.1.
Temporale Daten
Die Dynamik der Handschrift lässt sich über die komplexen Bewegungsmerkmale hinaus durch die Position der Stiftspitze in zwei (von der Bewegung unabhängige) Bedingungen unterteilen: − die Stiftspitze befindet sich auf dem Papier oder − die Stiftspitze befindet sich in der Luft.
Die Produktion der Schreibspur, die das später sichtbare Endprodukt ausmacht, findet nur statt, während sich die Stiftspitze auf dem Papier befindet. Das bedeutet jedoch nicht, dass jede Abhebung des Stiftes grundsätzlich eine Verzögerung in der Produktion darstellt, denn viele der so genannten Luftsprünge dienen (vor allem bei flüssiger Produktion) lediglich der Neupositionierung der Stiftspitze. Als Verzögerung der Produktion sind daher nur solche Luftsprünge zu werten, die um einen noch näher zu definierenden Faktor länger dauern, als für die Bewegung vom Punkt der letzten Abhebung bis zum Punkt des Wiederaufsetzens benötigt würde (siehe Seite 75 und Kapitel 3.2.2.2. Luftsprung- vs. Schriftzuggeschwindigkeit, Seite 106). Andererseits können Verzögerungen auch während der Schriftzüge (vgl. Definition auf Seite 47) auftreten, wenn der Stift länger an einer Stelle auf dem Papier ruht oder langsamer bewegt wird als motorisch/kinematisch möglich oder notwendig. Somit sind beide Formen für die Analyse des zeitlichen Verlaufs der Handschrift von Bedeutung. Der erste Schritt der Analyse muss also die Identifikation der Verzögerungen und Pausen in der Produktion sein. Leider ist die Analyse der Handschrift durch diese größere Zahl möglicher Zustände sehr viel komplexer als die Analyse der Tastaturschrift, bei der lediglich die Dauer der Intervalle
72 zwischen den Anschlägen gemessen werden muss. Erschwerend kommt im Vergleich noch hinzu, dass die jeweils produzierte Einheit in der Handschrift oft nicht mit einem einzelnen Buchstaben übereinstimmt, wie das in der Tastaturschrift der Fall ist, sondern dass die Zahl der in einem Schriftzug produzierten Zeichen zwischen verschiedenen Schreibern stark variieren kann (vgl. Kapitel 2.2.7. Inter- und intraindividuelle Variabilität, Seite 46f.). Diese Unterschiede sind begründet in der abweichenden motorischen Realisierung und den dafür notwendigen motorischen Programmen, die in der Handschrift erheblich komplexer sind als in der Tastaturschrift. Während für die Produktion eines Buchstabens in der Tastaturschrift hauptsächlich Informationen über die relative Position der anzuschlagenden Taste und den dazu einzusetzenden Finger benötigt werden, sind die motorische Ausführung und die Buchstabenform bei der Handschrift isomorph (von gleicher Gestalt), d.h., dass eine Reihe von Strichen zur Buchstabenform zusammengesetzt werden muss, bei der zudem noch die Rechtsläufigkeit der Schrift mitverfolgt werden muss. Andererseits ist die Handschrift 'nur' eine einhändige Bewegung, bei der die beteiligten Finger gemeinsam zu einer Bewegung beitragen, statt wie in der Tastaturschrift zu großen Teilen unabhängig voneinander zu agieren. Nach den bisherigen Überlegungen entstehen also zunächst zwei unterschiedliche Datentypen zur Beschreibung einer Verzögerung in der Handschrift: Die Dauer eines Luftsprunges sowie die Dauer einer Verzögerung während der eigentlichen Schreibung. Beide ergeben sich prinzipiell aus dem Vergleich der vorliegenden Produktion mit der 'normalen' Produktion – hierzu muss aber zunächst definiert werden, was mit 'normaler Produktion' gemeint sein soll. Dies muss für beide Bewegungstypen (Stift auf dem Papier und Stift in der Luft) getrennt voneinander geschehen, da nur für ersteren komplette Daten vorliegen (die Position des Stiftes kann mit der verwendeten Apparatur maximal 0,5 cm über der Schreiboberfläche gemessen werden; vgl. Seite 81).
3.1.1.1. Automatisierte und geführte Schreibbewegungen Schreibbewegungen kompetenter Schreiber sind hochgradig überlernte Bewegungen, deren Bewegungsablauf stark automatisiert ist. Innerhalb der Schriftzüge ergibt sich aus physikalischen Gesetzmäßigkeiten ein ständiges An- und Abschwellen der Schreibgeschwindigkeit (z.B. wird die Geschwindigkeit in einem Umkehrpunkt immer Null sein). Weitere Geschwindigkeitsschwankungen werden durch graphomotorische oder graphotaktische Bedingungen verursacht. Als Basiseinheit wird hier der Buchstabe (bzw. das Zeichen) angenommen, der sich wiederum aus mehreren Auf- und Abstrichen als kleinsten motorischen Einheiten zusammensetzt (vgl. hierzu ausführlich Kapitel 2.2.5. Größe der Basiseinheit in der Handschrift, Seite 35ff.). Wären alle diese Geschwindigkeitsschwankungen rein motorisch bedingt, so müsste sich, unabhängig davon, ob diese Struktur von der motorischen Planung, den ausführenden Extensoren oder beiden determiniert wird, ein zyklisch-konstantes zeitliches Muster ergeben. Dies ist zu weiten Teilen tatsächlich der Fall, setzt aber voraus, dass die Schreibbewegung automatisiert ausgeführt wird, d.h., dass ihre Ausführung zwar bewusst angestoßen wird, aber unbewusst ausgeführt wird, weil die Bewegung bereits vor ih-
73 rer eigentlichen Ausführung vollständig in einem Motorprogramm spezifiziert ist (feed forward control). Automatisierte Bewegungen unterliegen wegen ihrer hohen Geschwindigkeit während der Ausführung nicht mehr der willkürlichen Kontrolle (vgl. Kapitel 2.2.3. Formen des Feedbacks in der Handschrift, Seite 28ff.). Der Vorteil des feed forward control ist die schnelle Ausführung; als Nachteil ist aber die fehlende Möglichkeit der Reaktion auf Änderungen der Umgebungsvariablen zu nennen. Das Profil des vertikalen Geschwindigkeitsverlaufs eines automatisiert ausgeführten Auf- oder Abstriches ist idealtypisch ballistisch. Dieses Profil ergibt sich aus dem Einsatz der beteiligten Muskulatur, deren Aktivität mit Hilfe neurologischer Methoden untersucht werden kann. Für die Untersuchung der Muskelaktivität während der Schreibung wird die Elektromyographie (EMG; Methode der medizinischen Elektrodiagnostik, bei der mit Hilfe von Oberflächenelektroden die Potenzialdifferenzen in großen Muskelfasergruppen gemessen werden) eingesetzt. Aus solchen Messungen (z.B. Denier van der Gon & Thuring, 1965) ist bekannt, dass die Aktivität des Agonisten (des Muskels, der eine Bewegung in eine bestimmte Richtung bewirkt) meist auf die Zeit vor und zu Beginn der Bewegung beschränkt ist und von antagonistischer Muskelaktivität (gegenspielende Muskelarbeit, die die eingeleitete Bewegung wieder abbremst) gefolgt wird. Hieraus ergibt sich, dass die meisten Auf- und Abstriche der Schreibung eines Buchstabens in ballistischer Form erfolgen, d.h., dass die Geschwindigkeit der Bewegung zunächst zunimmt, idealerweise in der Mitte ihre höchste Geschwindigkeit erreicht und anschließend wieder kontinuierlich abnimmt, vergleichbar mit der Bewegung eines Pendels (für eine Diskussion verschiedener physikalischer Modelle der bei der Handschrift beteiligten Kräfte und Faktoren siehe Wing, 1978). Der automatisierte Ablauf des Motorprogramms kann den bisher diskutierten psycholinguistischen Modellen zufolge aus (mindestens) zwei Gründen gestört werden: 1. durch die Belastungsspitze eines parallel aktiven Prozesses (z.B. orthographische Prozesse zur Entscheidung eines Problemfalls) oder 2. durch Unzulänglichkeiten der Repräsentation oder der Umsetzung des Motorprogramms (z.B. bei einem selten auftretenden Buchstaben wie ‹q›). In beiden Fällen erstreckt sich das Spektrum der Auswirkungen auf die Schreibgeschwindigkeit von einer minimalen Geschwindigkeitsverminderung bis zum Stillstand des Stiftes auf dem Papier, sodass nicht immer eindeutig auf die Ursache zu schließen ist. Der zweite Fall kann jedoch durch den Vergleich mit anderen Schreibungen desselben Buchstabens isoliert werden. Bei den so genannten geführten Bewegungen treten zusätzliche Kontrollmechanismen (feedback control, Rückkopplung) in Kraft. Sie sind gekennzeichnet durch starke Schwankungen und damit durch einen häufigen Wechsel zwischen positiver und negativer Beschleunigung, der durch die hohe Anzahl der Soll-Ist-Wert-Vergleiche zustande kommt. Während die Identifikation des Stillstands des Stiftes (oder eine extrem geringe Schreibgeschwindigkeit) in den erhobenen Daten relativ einfach zu bewerkstelligen ist, müssen die beschriebenen Geschwindigkeitsschwankungen für jeden Strich einzeln überprüft werden. Als Maß hierfür wurde die Anzahl der Umkehrpunkte des Geschwindigkeitsverlaufs für jeden Auf- oder Abstrich (Geschwindigkeitsinversionen bzw. Number of Inversions in Velocity = NIV; Mai & Marquardt, 1995a; Meulenbroek & van Galen, 1988) ver-
74 wendet. Bei einem automatisiert (ballistisch) ausgeführten Strich kehrt sich die Geschwindigkeitskurve typischerweise genau einmal (nach Erreichen der Höchstgeschwindigkeit) um. Wird dagegen während eines Striches der Stift nach dem Beginn einmal abgebremst (erste Umkehrung), anschließend noch einmal beschleunigt (zweite Umkehrung) und zum Ende wieder abgebremst (dritte Umkehrung), so hat die Variable NIV für diesen Strich den Wert 3 (vgl. hierzu auch Abbildung 8, Seite 90). Durch diese Berechnungen lassen sich innerhalb der erhobenen Daten automatisierte und geführte oder gestörte Schreibbewegungen anhand ihres Geschwindigkeitsverlaufs unterscheiden. Die Berechtigung zu dieser Unterscheidung wird gestützt durch weitere Merkmale, die automatisierte von geführten oder gestörten Schreibbewegungen absetzen. Neben dem Geschwindigkeitsverlauf sind zu nennen: die beteiligten Hirnregionen (vgl. Kapitel 2.2.2. Neurologische Aspekte, Seite 27ff.), die Qualität des Motorprogramms sowie die Bewegungskontrolle (vgl. Kapitel 3.1.1.1. Automatisierte und geführte Schreibbewegungen, Seite 72ff.). Alle Merkmale werden in Tabelle 1 (Seite 74) noch einmal zusammengefasst. Tabelle 1: Merkmale automatisierter und geführter Schreibbewegungen (Erläuterungen und Verweise im Text) Merkmal
automatisierte Schreibbewegung
geführte oder gestörte Schreibbewegung
Geschwindigkeitsverlauf (vy) bei Auf- und Abstrichen
ballistisch, eingipflige Glockenkurve
ungleichmäßig, mehrgipflige Kurve; ggf. Stillstand
hauptsächlich beteiligte supplementär motorisches Areal2 Hirnregionen
Motorprogramm
Bewegungskontrolle, Feedback
2
3
dorsolateraler Prämotorcortex3
motorisches Programm stabil, Grup- Unterbrechung des Motorpropen von Strichen bilden eine moto- gramms; rische Einheit noch instabiles Motorprogramm
unbewusst, verzögert; feed forward control
bewusst; visuelles und propriozeptives Feedback durch Verlangsamung möglich; feedback control (Rückkopplungsschleife)
auch als supplementär-motorischen Rinde bezeichneter Teil des motorischen Cortex, der wiederum einen Bereich der Großhirnrinde darstellt auch als prämotorische Rinde bezeichneter Teil des motorischen Cortex; dorsolateral = hinten seitlich
75 3.1.1.2. Luftsprünge und Pausen Wie schon erwähnt können die Bewegungen während der Luftsprünge der Stiftspitze nur bis zu einer Entfernung von maximal 0,5 cm der Schreibfläche erfolgen. Leider zeichnet die verwendete Software (vgl. Kapitel 3.2.1.4. Apparatur, Seite 81) nur Stiftbewegungen auf der Schreiboberfläche auf, sodass zu den Luftsprüngen außer den jeweiligen Anfangsund Endpunkten keine Daten vorliegen. Daher muss für die Identifikation der Luftsprünge, die länger dauern als motorisch/kinematisch notwendig, auf die vorliegenden Koordinaten zurückgegriffen werden. Berechnet wird die Länge der Geraden zwischen dem Ort der Abhebung und dem Ort des Wiederaufsetzens. Die tatsächliche Länge der Flugbahn des Stiftes kann allerdings nur dann annähernd dieser Geraden entsprechen, wenn die Richtung des vorhergehenden Striches mit der des folgenden Striches übereinstimmt bzw. die des ersten im zweiten fortgeführt wird. Dies ist aber relativ selten der Fall; vielmehr ist in einem Luftsprung häufig ein Richtungswechsel enthalten. Genau genommen müsste sogar der zusätzliche Weg in der dritten Dimension (von und zur Schreiboberfläche) hinzuaddiert werden. Da dies aber nicht sicher bestimmt werden kann, muss für die Analyse auf die vorhandene 'Luftlinie' zurückgegriffen werden; obigen Überlegungen folgend wird die so berechnete wahrscheinliche Luftsprunggeschwindigkeit zu niedrig ausfallen, weil die tatsächlich zurückgelegte Strecke in jedem Falle größer ist als die Gerade zwischen dem Anfangs- und dem Endpunkt. Anderseits ist zu beachten, dass der Stift in der Luft theoretisch schneller bewegt werden kann als auf dem Papier, da weder der Reibungswiderstand des Papiers vorhanden ist, noch die Bedingung der Genauigkeit erfüllt werden muss (die Luftsprünge hinterlassen schließlich keine Spuren). Des Weiteren muss bedacht werden, dass bei der Betrachtung des Verhältnisses zwischen dieser angenäherten Luftsprunggeschwindigkeit und der Schreibgeschwindigkeit individuell starke Unterschiede auftreten können. Dies resultiert u.a. daraus, dass einige Schreiber eher in der Bewegung innehalten, wenn sich der Stift in der Luft befindet, andere dagegen eher, wenn der Stift das Papier berührt. Für die Beurteilung der Dauer eines Luftsprunges muss dieses Verhältnis miteinbezogen werden, um für jeden Schreiber eine 'normale' Luftsprunggeschwindigkeit als Grenzwert bestimmen zu können. Alle Luftsprünge, deren Dauer diesen Grenzwert um einen noch festzulegenden Wert überschreiten, können als verzögert angesehen und der Differenzwert als Dauer der Pause gewertet werden.
3.1.2.
Sprachliche Daten
Um die Schwierigkeiten der Zuordnung sprachlicher Daten zu den erhobenen temporalen Daten zu verdeutlichen, soll hier noch einmal der Vergleich zur Analyse der Tastaturschrift herangezogen werden. Bei Letzterer ist dem zeitlichen Ereignis 'elektrischer Kontakt beim Anschlag einer Taste' eindeutig ein Tastencode und damit ein schriftliches Zeichen zugeordnet. Dies ist bei der Handschrift in dieser Einfachheit leider nicht gegeben. Stattdessen liegt hier nur eine große Menge von x- und y-Koordinaten mit einem konstanten zeitlichen Abstand vor, aus der ohne Weiteres nicht zu erkennen ist, welcher Buchstabe gerade produ-
76 ziert wurde und zu welchem Punkt innerhalb des Buchstabens die Koordinaten gehören. Dieses Problem versucht die (zum großen Teil kommerzielle) Forschung zur Handschriftenerkennung zu lösen, die sich von der reinen Zeichenerkennung für die Textverarbeitung bis zur Identifikation personenbezogener biometrischer Merkmale (z.B. für das OnlineBanking) erstreckt. Für die Zwecke dieser Untersuchung reicht es jedoch aus, die Zuordnung von Zeichen bis hinunter auf die Ebene der Auf- und Abstriche 'per Hand' nachzutragen. Dadurch wird es z.B. möglich, festzustellen, aus wie vielen Schriftzügen, Abhebungen und Strichen sich ein Wort zusammensetzt. Wichtiger noch ist aber die Möglichkeit, hier nun die temporalen und die sprachlichen Informationen zusammenzuführen, um z.B. feststellen zu können, ob ein bestimmter Buchstabe automatisiert produziert wurde, und wenn nicht, wie lange die Verzögerung dauerte. In einem zweiten Schritt müssen die reinen Buchstabeninformationen durch Informationen zur sprachlichen Struktur des Wortes erweitert werden. Für die vorliegende Untersuchung sind dies Informationen zu den Silbengrenzen und den kombinierten Silben-/Morphemgrenzen. Reine Morphemgrenzen werden vernachlässigt, weil sich in Untersuchungen der Tastaturschrift gezeigt hat, dass sie sich nicht messbar auf die Dynamik der Produktion auswirken (vgl. Kapitel 2.1.6. Spuren sprachlicher Prozesse in der Tastaturschrift, 15ff.). Diese Auszeichnung der Daten stellt die Grundlage der Feststellung des Grades der Aneignung silbischer Muster in der Handschrift dar. Zuletzt werden die Daten mit Markierungen für orthographische Schwierigkeiten annotiert, um (unabhängig davon, ob tatsächlich ein Fehler vorliegt oder nicht) feststellen zu können, ob die Schwierigkeit bei dem schreibenden Kind zu einer Verzögerung der Schreibgeschwindigkeit geführt hat. Gemeinsam mit der Analyse des Endproduktes kann so der für die Überprüfung der Kernhypothese wichtige Wert der orthographischen Kompetenz ermittelt werden.
3.1.3.
Ursachen für Verzögerungen
Nach der Identifikation der Verzögerungen und Pausen und der sprachlichen Annotation der Daten soll im letzten Schritt versucht werden, aus dem Ort ihres Vorkommens auf die Ursachen der Verzögerungen zu schließen. Als Ursache kommen verschiedene Prozesse in Frage für deren Aufzählung die in Kapitel 2.3. Modellierung der schriftlichen Wortproduktion (Seite 56ff.) beschriebenen hierarchischen Modelle maßgeblich sind: − rein motorisch/physiologische Prozesse: z.B. eine Abhebung zur Entlastung der Mus-
kulatur, − graphomotorische Prozesse wie − instabile motorische Programme für einzelne Allographen, − Instabilitäten an Buchstabenverbindungen, − Probleme bei der Auswahl des korrekten Allographen, also der Buchstabenform, − der Beginn einer neuen Silbe und damit sublexikalische Prozesse (vgl. Kapitel 2.1.6.
Spuren sprachlicher Prozesse in der Tastaturschrift, Seite 15ff.), − der Beginn eines neuen Grundmorphems und damit lexikalische Prozesse (ebd.),
77 − orthographische Prozesse, die auftreten, wenn die lexikalische Repräsentation zu
schwach ist und/oder interne Regelmechanismen nicht automatisiert ablaufen können (unabhängig davon, ob dies tatsächlich zu einem Rechtschreibfehler führt oder nicht), − zufällige und damit irrelevante Prozesse (verursacht z.B. durch Ablenkung). Entscheidend für die Zuordnung einer Verzögerung zu einem der genannten Prozesse ist der Ort ihres Vorkommens im Wort. Problematisch ist hier, dass zu einigen Zeitpunkten mehrere Prozesse gleichzeitig ablaufen (können) und eine eindeutige Zuordnung nicht immer möglich ist. Ohne detaillierte Entscheidungskriterien bestünde hier die Gefahr einer intuitiven Zuordnung. Daher wurde ein Entscheidungsbaum erstellt, mit dessen Hilfe anhand mehrerer binärer Verzweigungen für jede relevante Position im Wort ein nachvollziehbarer Wert zur Verfügung gestellt werden kann, ohne dabei die unterschiedlichen Datentypen aus den Augen zu verlieren (detaillierte Angaben zur Vorgehensweise werden im Methodenteil beschrieben). Auf diese Weise lassen sich Korrelationen der Pausen und Verzögerungen mit sprachlichen und motorischen Einheiten für jedes der an den Versuchen beteiligten Kinder berechnen.
3.2.
Experiment: Silben in der Einzelwortschreibung nach Diktat
Die Erforschung des Einflusses sprachlicher Einheiten auf die Handschrift ist aufgrund ihrer höheren Komplexität weit weniger fortgeschritten als für die Tastaturschrift (vgl. Kapitel 2.1.6. Spuren sprachlicher Prozesse in der Tastaturschrift, Seite 15ff. und 2.2.8. Spuren sprachlicher Prozesse in der Handschrift, Seite 48ff.). In den vorliegenden Untersuchungen wurden sowohl Grundmorpheme als auch Silben als mögliche Strukturgeber überprüft. Pynte et al. (1991) konnten zeigen, dass die wiederholte Schreibung von Morphemen zu einer Beschleunigung des Schreibtempos führte, und schlossen hieraus, dass Morpheme relevante Programmiereinheiten darstellen. In diesem Zusammenhang wurde erstmals die Möglichkeit beschrieben, dass zu Beginn der Schreibung eines Wortes noch nicht alle relevanten Informationen zur Verfügung stehen. Bestätigung fand diese Annahme durch die Arbeit von Orliaguet & Boë (1993), die eine verlangsamte Produktion bei erhöhter morphologischer Komplexität nachweisen konnten. Der Unterschied zwischen beiden Studien liegt darin, dass die untersuchten Morpheme bei Pynte et al. (1991) immer zweisilbige Grundmorpheme waren, bei Orliaguet & Boë (1993) hingegen der Einfluss von Flexionsmorphemen untersucht wurde. Für verschiedene Morphemtypen werden aufgrund neuropsychologischer Fallstudien getrennte Repräsentationen angenommen (z.B. Tyler, Behrens & Cobb, 1990; Miceli & Caramazza, 1988; Cholewa & de Bleser, 1995). Auch die theoretische Betrachtung spricht für eine Trennung: Im Deutschen können Grundmorpheme mehrere Silben beinhalten, einzelne Silben aber niemals mehrere Grundmorpheme. Affixe dagegen sind nur in sehr seltenen Fällen mehrsilbig, eine Silbe kann aber durchaus mehrere Affixe (meist Suffixe) überspannen. Diese Trennung wird durch die Ergebnisse von Nottbusch et al. (1998) bestätigt, die für die Grenze zwischen zwei Grundmorphemen (z.B. in
78 ‹Spar#urlaub›) bei gleichen Digraphen signifikant längere Abhebungszeiten in der Handschrift vorfanden als zwischen zwei Wortbildungsmorphemen (z.B. in ‹ver#unstalten›). Wichtig sind in diesem Zusammenhang auch die Ergebnisse aus der Tastaturschriftforschung, nach denen an kombinierten Morphem- und Silbengrenzen Wortfrequenzeffekte gefunden wurden. Dem Modell von Weingarten et al. (2004, siehe Seite 65) folgend sollen Grundmorpheme als lexikalische Einheiten angesehen werden, die in komplexen Wortformen hierarchiemäßig zwischen dem Wort und der Silbe stehen. Da in der Voruntersuchung von Weingarten (1998) schon Kinder der zweiten Klasse längere Verzögerungen an diesen Grenzen zeigten, werden diese auch für die vorliegenden Experimente erwartet. Der Einfluss von Silben wurde in mehreren Arbeiten nachgewiesen, wenn auch nicht in allen Fällen eindeutig (vgl. hierzu ausführlich Kapitel 2.2.8. Spuren sprachlicher Prozesse in der Handschrift, Seite 48ff.). Van Galen (1990) fand sowohl eine wortinitiale Beschleunigung als auch eine wortinterne Verlangsamung der Schreibung durch die Wiederholung von Silben. Zesiger et al. (1994) konnten zwar einen mit identischem Material in der Tastaturschrift gefundenen Silbeneffekt in der Handschrift nicht replizieren, analysierten aber für die Handschrift mit über jeweils drei Buchstaben gemittelten Werten wesentlich gröbere Einheiten als in der Tastaturschrift. Bogaerts et al. (1996) versuchten, durch erzwungene Abhebungen des Stiftes innerhalb von Silben verlängerte Pausen zu provozieren, waren damit aber nicht erfolgreich. Stattdessen fanden sie zeitlich und räumlich längere Striche für die jeweils ersten Buchstaben der Silben. Nottbusch et al. (1998) bestätigten die Befunde von Bogaerts et al. (1996), indem sie die Luftsprungdauer vor und innerhalb von Silben verglichen. Vor Silbengrenzen wurde der Stift nicht nur in allen untersuchten Wörtern häufiger, sondern auch durchschnittlich länger vom Papier gehoben als innerhalb der Silben. Ausgehend von den in Kapitel 2.3. Modellierung der schriftlichen Wortproduktion (Seite 56ff.) beschriebenen Modellen kann angenommen werden, dass sowohl für die Hand- und Tastaturschrift als auch für das Buchstabieren bis hinunter auf die Ebene des Graphemic Output Buffers eine gemeinsame Prozesskette abläuft. Unter dieser Voraussetzung und unter Einbezug der Evidenzen aus der Tastaturschriftforschung und der Neurolinguistik erscheinen die beschriebenen Ergebnisse als hinreichend für die Annahme, dass die Silbe eine postlexikalische Verarbeitungseinheit der schriftlichen Sprachproduktion darstellt. Aus den Ergebnissen von Weingarten (1998) kann geschlossen werden, dass der Aneignungsgrad der Silbensegmentierung bei Schülern der fünften Klasse individuell noch sehr unterschiedlich ausgeprägt sein dürfte. Die genannten Untersuchungen zur Handschrift unterscheiden sich hinsichtlich der analysierten Variablen: Pynte et al. (1991) betrachteten die eher allgemeinere Variable der Schreibdauer für ein ganzes Morphem, van Galen (1990) und Søvik et al. (1994) analysierten jeweils die Reaktionszeit sowie die Schreibdauer für das gesamte Wort. Zesiger et al. (1994) reduzierten die betrachtete Sequenz auf Trigrapheme. Orliaguet & Boë (1993), Portier et al. (1993) und Bogaerts et al. (1996) berechneten Mittelwerte für die Schreibgeschwindigkeit sowie die Strichlänge einzelner Buchstaben und konnten hierdurch sehr viel genauer nach den Positionen der Verzögerungen suchen. Letztere sind demnach einerseits individuell sehr unterschiedlich verteilt und andererseits von der Art der Schwierigkeit oder der Komplexität abhängig. Die Dauer von Abhebungen innerhalb der Wörter wurde von
79 Bogaerts et al. (1996) und Nottbusch et al. (1998) untersucht, jedoch war bei Ersteren den Versuchspersonen der Ort der Abhebung vorgegeben. Letztlich zeigten sich bei fast allen untersuchten Variablen Effekte, die sich auf sprachliche Eigenschaften der zu schreibenden Wörter zurückführen lassen. Daraus wird deutlich, dass für die Untersuchung der Handschrift einerseits eine möglichst natürliche Umgebung geschaffen werden muss und andererseits möglichst alle Ausprägungen von Verzögerungen in Betracht gezogen werden müssen. Dies beinhaltet die Messung der folgenden Variablen: − die initiale Latenz (also die Zeit, die vom Beginn der Stimuluspräsentation bis zum
ersten Aufsetzen des Stiftes vergeht), − die Dauer der Luftsprünge zwischen den Schriftzügen, − die Dauer von Verzögerungen innerhalb der Schriftzüge (keine oder nur sehr lang-
same Stiftbewegung, aber Stiftspitze auf dem Papier), − das Vorhandensein von Verzögerungen innerhalb der Schriftzüge bzw. der Schreibfluss (gemessen als NIV, Definition auf Seite 73). Keine der genannten Untersuchungen betrachtet alle genannten Datentypen und kombiniert diese mit den sprachlichen Daten. Um die oben formulierte Hypothese (die Kompetenz in orthographischen Bereichen, die an der Silbenstruktur orientiert sind, korreliert mit dem Aneignungsgrad der Silbensegmentierung, vgl. Seite 70) zu verifizieren, wurden die genannten Variablen in einem Experiment erhoben, indem ein standardisierter Rechtschreibtest mit der in Kapitel 3.2.1.4. (Seite 81) beschriebenen Apparatur durchgeführt wurde. Die Verwendung dieses Tests (DRT5, Grund, Haug & Naumann, 1995) sollte sicherstellen, dass alle Kernbereiche der deutschen Orthographie im Wortmaterial vorkommen. Durch die detaillierte Analyse der Verzögerungen im Hinblick auf die Position im Wort sollten graduelle Unterschiede in der Aneignung der orthographischen Kompetenz und der Silbensegmentierung gemessen und eine Überprüfung der möglichen Korrelation zwischen diesen beiden Ergebnissen ermöglicht werden.
3.2.1.
Methode
3.2.1.1. Teilnehmer Für das vorliegende Experiment wurde eine Kooperation mit der Gesamtschule in Fürstenau vereinbart. Dort wurde dem Autor die Möglichkeit eingeräumt, in einem separaten Raum mit Schülern einer fünften Klasse, die nach Aussage des Klassenlehrers einen erhöhten Anteil an rechtschreibschwachen Schülern hatte, verschiedene Tests durchzuführen. Das Projekt wurde von der Schulleitung ideell und finanziell unterstützt (Fahrtkostenerstattung) und wurde auf einem Elternabend vorgestellt. Als Gegenleistung erhielt der betreuende Lehrer individuelle Fehlerprofile für alle Kinder. Die Zustimmung der Eltern zur Teilnahme ihrer Kinder an den Tests war gegeben.
80 Die untersuchte Gruppe bestand aus 27 Kindern (18 Jungen und 9 Mädchen) im Alter von 11 bis 13 Jahren (M: 12,4; SD: 0,63), von denen sechs Russisch als Muttersprache angaben. Die Dauer des Aufenthaltes dieser Kinder in Deutschland lag zwischen sieben Monaten und ca. fünf Jahren. Die Daten von zwei der sechs Kinder lagen die Rechtschreibung betreffend innerhalb des oberen 10%-Perzentils (zweit- und drittbeste Leistung) und wurden infolgedessen mit analysiert. Die Daten der verbleibenden vier Kinder russischer Muttersprache gingen aufgrund offensichtlicher Schwierigkeiten mit der deutschen Sprache nicht in die Gesamtstatistik ein.
3.2.1.2. Wortmaterial Das Wortmaterial entspricht den 51 Wörtern des DRT5 (Grund et al., 1995) in der Form "Diktattext A", die verschiedene Aspekte der Orthographie abdecken (siehe Fehleranalyse, ab Seite 96) und jeweils in einen Satz eingebettet sind (eine Liste findet sich im Appendix 7.1. Wortmaterial aus dem DRT5, Seite 161). Für die Untersuchung wurden drei Teile à 17 Sätze gebildet und jeweils in der Schriftgröße 24 pt und 1,5-fachem Zeilenabstand auf ein DIN-A4 Blatt gedruckt. Die Lücke für das zu schreibende Wort war immer gleich groß (ca. 6,5 * 1,5 cm).
3.2.1.3. Versuchsablauf Die Kinder wurden einzeln in einem separaten Raum untersucht. Um den Kindern den Druck der 'Prüfungssituation' zu nehmen und eine möglichst unbeeinflusste Produktion zu erhalten, wurde ihnen versichert, dass ihre Leistung nicht bewertet würde und dass es nicht darauf ankomme, so gut und richtig wie möglich zu schreiben, sondern dass sie "einfach so wie immer" schreiben sollten, d.h., in Größe und Geschwindigkeit ihren Gewohnheiten entsprechend. Da das Interesse am technischen Aufbau in den meisten Fällen recht groß war, wurde dies genutzt, um eine entspanntere Atmosphäre zu schaffen, indem die Kinder Gelegenheit bekamen, mit dem Stift auf dem Grafiktablett Linien auf den Bildschirm des Computers zu "zaubern". Diese Aktivität wurde nach einiger Zeit in Schreibversuche gelenkt, was meistens aber gar nicht nötig war. Im Anschluss wurde der Testablauf erläutert und mit dem Test begonnen. In pseudozufälliger Reihenfolge wurde einer der drei DIN-A4-Bögen in einem für das Kind angenehmen Winkel auf das Grafiktablett geklebt. Mit dem von einem herkömmlichen Kugelschreiber kaum unterscheidbaren (kabellosen) Stift ergab sich somit eine annähernd natürliche Schreibsituation. Somit waren die von Mai & Marquardt (1995a: 552) geforderten Bedingungen erfüllt: »Bereits kleine Änderungen der Schreibbedingungen wie der Versuch, besonders präzise zu schreiben, oder das Schreiben zwischen Linien können die automatisierte Ausführung einer Bewegung empfindlich stören. Eine Untersuchung von automatisierten Schreibbewegungen sollte deshalb dem Schreiber die größtmögliche Freiheit bieten, seine individuelle und gewohnte Handschrift zu erzeugen.«
81 Mit dem zur Aufzeichnung verwendeten Apple-Notebook hatten die Versuchspersonen im weiteren Verlauf keinen direkten Kontakt, da alle Stimuli akustisch über Kopfhörer dargeboten wurden. Nach dem Start des Aufzeichnungsprogramms am Rechner schrieb das Kind seinen Namen auf das Papier. Anschließend setzte das Kind den Kopfhörer auf und die Stimuluspräsentation wurde gestartet. Der folgende Ablauf war für alle 17 Sätze eines Bogens identisch: Nach einem Systemklang (Ping) und einer anschließenden Pause von einer Sekunde wurde eine Sounddatei abgespielt, in der von einer weiblichen Stimme zunächst der gesamte Satz vorgelesen wurde und nach einer kurzen Pause das Zielwort wiederholt wurde (z.B. "Heute werde ich Glück haben. Glück."). Eine Sekunde nach Ende der Präsentation ertönte wiederum ein Ping, der als Startsignal für die Schreibung fungierte. Nach Beendigung der Schreibung wurde der nächste Durchgang durch den Versuchsleiter initiiert. Nach Abschluss aller 17 Sätze wurden die Daten gespeichert, ein weiterer Bogen aufgeklebt und der beschriebene Ablauf wiederholt, bis alle drei Bögen komplett bearbeitet waren. Je nach Schreibgeschwindigkeit und Erklärungsbedarf dauerte die Untersuchung pro Kind zwischen 40 und 90 Minuten.
3.2.1.4. Apparatur Die Schreibdaten der Teilnehmer wurden mit einem WACOM UltraPad A4 Digitizer (Grafiktablett) und einem UltraPen (kabelloser Stift mit wechselbaren Minen) erhoben, der an ein Apple-Notebook angeschlossen war. Die räumliche Genauigkeit des Grafiktabletts wird vom Hersteller mit ±0.15 mm angegeben (bei einer auslesbaren Fläche von 305 * 305 mm2 können maximal 30479 * 30479 Punkte aufgelöst werden, also knapp 100 pt/mm bzw. 2540 lpi [lines per inch]). Der Druck des Stiftes auf das Papier wird mit einer Auflösung von 256 Druckstufen aufgezeichnet und die Position des Stiftes kann bis zu einer Höhe von 5 mm über der Oberfläche des Grafiktabletts festgestellt werden. Der Stift enthält eine Induktionsspule, die aus dem Tablett gespeist wird und so ein gerichtetes elektromagnetisches Feld erzeugt. Leiterschleifen im Tablett ermitteln auf diese Weise die Stiftposition. Für die Erstellung von Software, die die vom Grafiktablett erhobenen Daten weiter verarbeitet, stellt die Firma WACOM ein so genanntes Software Development Kit (SDK) zur Verfügung. Auf dieser Grundlage wurde die verwendete Software zur Registrierung der Stiftspur im Rahmen des DFG-Forschungsprojektes Linguistische Einheiten, Hierarchien und Dynamik in der Schriftlichen Sprachproduktion von Prof. Dr. Dr. Udo Will in C++ geschrieben. Das Auslesen der Grafiktabletts erfolgt bei dieser Software mit einer zeitlichen Auflösung von 100 Hz, d.h., pro Sekunde werden 100 Mal x- und y-Koordinaten sowie der Stiftdruck in eine Textdatei geloggt.
82 3.2.1.5. Datenverarbeitung Vorhandene Rohdaten Das Programm zur Aufzeichnung der Schreibspur speichert je einen Zeitstempel für den Beginn eines Trials, für das Startsignal sowie für jedes Aufsetzen und Abheben des Stiftes. Hieraus kann die initiale Latenz sowie die Anzahl und Dauer der Schriftzüge und Luftsprünge berechnet werden. Während der Produktion der Schriftzüge wird kontinuierlich alle 10 ms ein Wert für die aktuelle x- und y-Position sowie für den Druck, der auf die Schreibunterlage ausgeübt wird, aufgezeichnet. Glättung Abgesehen von der nur begrenzten Aussagekraft von Herstellerangaben über die Genauigkeit von Grafiktabletts treten bei Messungen wie den vorliegenden, für die eine hohe Genauigkeit erforderlich ist, Fehler auf, die einer Korrektur bedürfen. Ward & Phillips (1987) unterscheiden für Digitizer-Daten 15 verschiedene Fehlertypen, die sie als räumliche, zeitliche und intrinsische Fehler kategorisieren. Acht dieser Fehler sind speziell für die Aufzeichnung von Handschriftdaten relevant (vgl. Meeks & Kuklinski, 1990). Räumliche Fehler wie fehlende Koordinaten, Linearisierungsfehler und Quantisierungsfehler beruhen auf der baulichen Struktur und der räumlichen Auflösung der Digitizer. Quantisierungsfehler entstehen dadurch, dass die Stiftposition nicht kontinuierlich ausgelesen werden kann, sondern nur an bestimmten (diskreten) Punkten und zu bestimmten Zeitpunkten. Alles, was zwischen diesen Punkten bzw. diesen Zeiten liegt, entzieht sich prinzipiell unserer Kenntnis. Das Problem liegt darin, dass eine physikalische Größe (die tatsächliche kontinuierliche Stiftposition) in digitale Werte mit einer begrenzten räumlichen und zeitlichen Auflösung umgewandelt werden muss. Wenn z.B. auf einem Koordinatensystem mit 3*3 Punkten im Abstand von je 10 ms (100 Hz) drei tatsächliche Positionen a, b und c vorliegen (vgl. Abbildung 5A, Seite 83), von denen sich die Position b aber in der Mitte der digitalen Messpunkte A2, A3, B2 und B3 befindet, so kann die Position b im vorliegenden Koordinatensystem nur mit einem Quantisierungsfehler verzeichnet werden. Je nachdem, ob das System die Position b dem Punkt A2 (Abbildung 5B), dem Punkt A3 (Abbildung 5C), dem Punkt B2 (Abbildung 5D) oder dem Punkt B3 (nicht abgebildet, da vergleichbar mit Abbildung 5B) zuordnet, ergeben sich unterschiedliche Folgen für die weitere Verarbeitung der Daten. Während sich für beide Koordinaten in allen vier Fällen die gleiche Abweichung um 0,5 Pt zwischen b und b' ergibt, so variiert die Geschwindigkeit für die Strecke ab' zwischen 10 Pt/ms für A2 und 22,4 Pt/ms für B3 und läge mit 14,1 Pt/ms für B2 noch am nächsten an den 'tatsächlichen' 15,8 Pt/ms für ab. Die tatsächlich gleich bleibende Geschwindigkeit (Beschleunigung = 0) würde im Falle von A2 und B3 stark positiv bzw. negativ verfälscht. Schließlich weichen die Bestimmungen des Winkels zwischen den Strecken ab und bc von den tatsächlichen 127° in Abbildung 5A ab, und zwar von 90° (5C) über 117° (5B) bis zu 180° (5D).
83
Abbildung 5:
Beispiel für Quantisierungsfehler in einem 3*3 Koordinatensystem. Der Messpunkt b (in 5 A) muss einem der Punkte im Koordinatensystem als b' zugeordnet werden (in 5 B-D; weitere Erläuterungen im Text).
Zeitliche Fehler kommen in Form von leichten Abweichungen von der Messfrequenz vor oder sind durch nicht-simultane Aufzeichnung der x- und y-Koordinaten (die meist die Ursache von Linearisierungsfehlern darstellen) gekennzeichnet. Intrinsische Fehler beziehen sich auf die Messmethode selbst und können z.B. durch den Einfluss der Stiftneigung entstehen. Ebenfalls zu den intrinsischen Fehlern wird das durch Trägheit bedingte Zurückbleiben oder Fortdauern der Wirkung hinter dem jeweiligen Stand der sie bedingenden veränderlichen Kraft (Hysteresis) auf die Aufzeichnung gerechnet. Durch intrinsische Fehler entstehen z.B. Unterbrechungen im Datenstrom bei sehr schnellen und/oder zu schwach anoder abgesetzten Schreibbewegungen. Das verwendete Grafiktablett wurde mit Hilfe einiger der in der Literatur genannten Tests (Phillips, 1987) überprüft. Da die Software die x- und y-Koordinaten mit 100 Hz speichert, kann die Überprüfung (über die rein visuelle Kontrolle hinausgehend) anhand dieser Daten erfolgen. Hierzu wurde mit einem Lineal zwischen zwei vorher definierten Punkten in unterschiedlichen Geschwindigkeiten und Stiftneigungen eine horizontale Linie gezogen. Überprüft wurde so, ob die gemessenen y-Koordinaten unabhängig von der Ausführung immer gleich blieben. Die gleiche Messung wurde mit vertikalen Linien wiederholt, wobei hier die gemessenen x-Koordinaten konstant bleiben sollten. Die Standardabweichung der gemessenen Datenpunkte von der horizontalen Linie (y-Koordinaten) betrug 0,012 mm und von der vertikalen Linie (x-Koordinaten) 0,014 mm. Um die simultane Aufzeichnung der xund y-Koordinaten zu überprüfen, wurden zusätzlich in hoher Ausführungsgeschwindigkeit und unter Verwendung eines Lineals diagonale Linien gezeichnet. Die Standardabweichung der gemessenen Datenpunkte von den diagonalen Linien betrug im Mittel 0,0076 mm und war damit geringer als bei Marquardt & Mai (1994; TDS Tablets LC-A3: SD: 0,058 mm) und Meeks & Kuklinski (1990; WACOM SD-421: SD: 0,34 mm). Bezüglich der Messfrequenz konnten ausschließlich minimale Abweichungen nach oben festgestellt werden. Der durchschnittliche Abstand zwischen zwei Messpunkten lag bei 10,153 ms (SD: 0,44), woraus sich eine tatsächliche Messfrequenz von etwa 98,49 Hz ergibt. Die gemessenen Fehlerwerte zeigen, dass systematische Fehler der verwendeten Apparatur nicht über die in der Literatur angegebenen Werte hinausgehen. Zufällige Fehler können jedoch nicht ausgeschlossen werden und potenzieren sich in der ersten Ableitung, der Geschwindigkeit, und insbesondere der zweiten Ableitung, der Beschleunigung (siehe Beispiel Quantisierungsfehler auf Seite 83; vgl. Marquardt & Mai, 1994: 40). Für die Berechnung der Geschwindigkeit werden mindestens die Koordinaten
84 zweier zu den Zeiten t0 und t1 aufgezeichneter Messpunkte benötigt, um die Länge der Strecke zu berechnen (anhand der konstanten Samplingfrequenz von 100 Hz und der Auflösung des Grafiktabletts von 100 Pt/mm lässt sich die Geschwindigkeit in mm/s berechnen; die abgeleiteten Geschwindigkeits- und Beschleunigungswerte werden für x- und y-Koordinaten getrennt voneinander berechnet). Die Beschleunigung bezeichnet die Veränderung der Geschwindigkeit pro Zeitintervall, für deren Bestimmung mindestens drei Messpunkte t0 bis t2 vorliegen müssen. Sie ist also aus der Geschwindigkeit zwischen t0 und t1 und der Geschwindigkeit zwischen t1 und t2 abgeleitet. Räumliche, zeitliche oder intrinsische Fehler, die sich während der Aufzeichnung der Koordinaten ergeben, treten demnach in den Ableitungen verstärkt auf. Um diese Probleme zu kontrollieren, wurden die in dieser Arbeit verwendeten Daten mit Hilfe eines von Marquardt & Mai (1994) vorgeschlagenen Kernschätzers (beruhend auf Gasser & Müller, 1979, 1984 und Gasser, Müller & Mammitzsch, 1985) geglättet (Anwendungsbeispiel in Abbildung 7, Seite 88):
g n , v t =
1 b
v1
n
si
∑ ∫ Kv i=1
si −1
t−u du Y t i b
(3)
Kernschätzer können beschrieben werden als gewichtete Mittelwerte für eine festgelegte Anzahl von Werten, die Bandbreite. Metaphorisch gesprochen wird ein 'Fenster' fester Größe über die zu glättenden Daten bewegt und aus den 'sichtbaren' Werten jeweils ein gewichteter Mittelwert gebildet, d.h., einige Werte werden stärker berücksichtigt als andere. Dabei werden für die Rohdaten (nullte Ableitung v0 = die x- und y-Koordinaten) eine geringere Bandbreite und andere Gewichte gewählt als für die daraus abgeleitete Geschwindigkeit (erste Ableitung v1) und die Beschleunigung (zweite Ableitung v2). Mit Hilfe der Formel (3) wird die v-te Ableitung von g(t) geschätzt, dabei ist Kv der eigentliche Kernschät, also mm für die nullte Ableitung, mm (Gezer. Die Einheit ergibt sich aus g v t= mm s s mm schwindigkeit v) für die erste Ableitung und s (Beschleunigung a) für die zweite Ableitung. b ist die Bandbreite des zu glättenden Intervalls zu beiden Seiten von Y(ti) als Parameter, und n ist die Anzahl der Datenpunkte innerhalb des Intervalls (n ist also die Anzahl der Datenpunkte im Bereich 2*b). Die Bandbreite b muss ein Vielfaches des zeitlichen Abstandes zwischen zwei Messungen sein, d.h., sie muss durch den Abstand teilbar sein. Der zeitliche Abstand zwischen zwei Messungen ist festgelegt durch die Samplingrate der Software, die für alle Untersuchungen bei 100 Hz lag und somit 10 ms entspricht. Die Serie 1 von si interpoliert das Intervall um ti und wird als s i = 2 t i t i1 bestimmt. si ist also ein Zeitpunkt, kein Messwert und ist immer die Mitte zwischen den Messwerten ti und ti+1. Die Festlegung der Bandbreite für die Glättung der Daten gilt als entscheidendes Kriterium für die Qualität der Glättung, die am möglichst geringen mittleren Fehlerquadrat (MSE) gemessen wird. Ziel ist hier, einen optimalen Kompromiss zwischen einer zu starken Dämpfung des Signals und der zu schwachen Glättung zu finden. Marquardt & Mai (1994) berechneten mit Hilfe synthetischer Daten für die Handschrift optimale Bandbreiten von 30 ms für die Positionsdaten, 50 ms für die erste Ableitung und 70 ms für die zweite Ableitung. Für die vorliegenden Experimente wurden diese Bandbreiten sowie die von Gasv
2
85 ser, Müller & Mammitzsch (1985) genannten Kernfunktionen verwendet (siehe Tabelle 2, Seite 85 und Abbildung 6, Seite 85). Tabelle 2: Optimale Kerne der Ordnung k=v+4 für v=0 bis 2; (Kernfunktionen aus: Gasser, Müller & Mammitzsch, 1985:243) Ordnung
Kernfunktion
7 x 4−10 x 23
Stammfunktion 45 F 0 = 21 x 5− 25 x 3 32 x 32 16
(0, 4)
15 32
(1, 4)
105 32
9 x 514 x 3−5 x
F 1 = 315 x6 735 x 4 525 x2 64 64 64
(2, 4)
315 32
77 x 6−135 x 463 x 2−5
F 2 = 3465 x7− 8505 x 5 6615 x3− 1575 x 32 32 32 32
Die Anwendung des Kernschätzers zur Glättung der Daten erfolgt für jeden Schriftzug einzeln. Zunächst ist zu klären, wie viele Messpunkte m es für den jeweiligen Schriftzug gibt. Der definierte Zeitraum vom Aufsetzen des Stiftes (t0) bis zum Abheben des Stiftes (tm) setzt sich aus m*10 ms zusammen, woraus sich ergibt, dass die Anzahl der Messpunkte m+1 ist; somit liegt die Bandbreite für die Glättung der Koordinaten bei 3/m, für die Geschwindigkeit bei 5/m und für die Beschleunigung bei 7/m. Da das zu glättende Intervall 2*b entspricht, werden für die nullte Ableitung sechs Gewichte gebildet (drei Koeffizienten C0,1, C0,2, C0,3, gespiegelt; vergleiche Abbildung 6A und Tabelle 2, Seite 85). Für die erste Ableitung werden zehn Gewichte genutzt (C1,1, C1,2, C1,3, C1,4, C1,5; 5 Integrale, gespiegelt mit umgekehrten Vorzeichen; vergleiche Abbildung 6B und Tabelle 2) und für die zweite Ableitung 14 Gewichte (C2,1, C2,2, C2,3, C2,4, C2,5, C2,6 C2,7; 7 Integrale, gespiegelt; vergleiche Abbildung 6C und Tabelle 2).
Abbildung 6:
Optimale Kerne mit den hier verwendeten Koeffizienten (Punkte) für v=0 (A) und die Ableitungen v=1 (B) und v=2 (C).
86 Zur Berechnung der Integrale wird zunächst die Stammfunktion bestimmt (siehe Tabelle 2, Seite 85). Je nach Bandbreite werden anschließend Werte in die Stammfunktion eingesetzt. und Die Koeffizienten werden mit C 0, 1 =F 0 13 −F 0 0 , C 0, 2 =F 0 23 −F 0 13 2 C 0, 3=F 0 1−F 0 3 gebildet, sodass z.B. der Koeffizient 1 der Ableitung 0 Formel 4 entspricht:
C 0, 1=
21 1 5 25 1 3 45 1 ∗ − 16 ∗ 3 32 ∗ 3 32 3
−
21 ∗0 5 − 25 ∗03 45 ∗0 32 16 32
=0,413580246914 (4)
Für vdie beiden Ableitungen werden entsprechend andere Werte eingesetzt, die noch mit 1b multipliziert werden (im Falle der 0-ten Ableitung 1). Die zur Glättung verwendeten Koeffizienten, die sich aus den festgelegten Bandbreiten ergeben, sind in Tabelle 3 aufgeführt. Tabelle 3: Zur Glättung verwendete Koeffizienten bei v=0 » b=3/m, v=1 » b=5/m und v=2 » b=7/m Ordnung
Koeffizient
Anpassung
C0, 1
0,413580246914
C0, 2
0,147376543210
C0, 3
-0,060956790123
C1, 1
0,310065
1 b
C1, 2
0,728595
1 b
C1, 3
0,655725
1 b
C1, 4
0,141855
1 b
C1, 5
0,195615
1 b
C2, 1
-6,444253669814
12 b
C2, 2
-3,286027186801
12 b
C2, 3
1,353669070710
12 b
C2, 4
4,783992001632
12 b
C2, 5
4,625352744180
12 b
C2, 6
0,797427623694
12 b
C2, 7
-1,830160583600
12 b
87 Die Umsetzung in Software (Visual Basic) ermöglicht eine automatisierte Verarbeitung der Rohdaten in kurzer Zeit. Den Kern bilden die folgenden (gekürzten) Zeilen des Programmcodes: For Ableitung = 0 to 2 For Zaehler = 1 To (3 + (2 * Ableitung)) GlattWert = GlattWert + _ c(Ableitung, Zaehler) * _ (Koord (MesspunktNr - Zaehler) * _ ((-1) ^ (Ableitung + 2)) + _ Koord (MesspunktNr - 1 + Zaehler)) Next Zaehler '[der Wert der Variablen GlattWert wird gespeichert 'und auf 0 zurückgesetzt] Next Ableitung
Die For-Next-Schleife der ersten und letzten Zeile mit der Variablen Ableitung sorgt dafür, dass der Reihe nach die nullte bis zur zweiten Ableitung bearbeitet werden. Die zweite, verschachtelte Schleife legt die Anzahl der zu addierenden Gewichte als (3 + 2 * Ableitung) fest, die die Variable Zaehler durchläuft, also drei, fünf und sieben. In der Variablen GlattWert werden die gewichteten Originalwerte aufsummiert. Dazu wurden zuvor die in Tabelle 3 (Seite 86) aufgeführten Koeffizienten in das zweidimensionale Datenfeld c sowie die Originaldaten in das Datenfeld Koord gespeichert. Da die Kerne für alle Ableitungen gespiegelt sind (für die erste Ableitung zusätzlich mit umgekehrten Vorzeichen), können jeweils zwei Werte zusammengefasst und mit dem jeweiligen Koeffizienten multipliziert werden. Für jede Original-Koordinate wird der Code fünfzehn Mal durchlaufen, um jeweils einen geglätteten Wert für jede Ableitung zu berechnen. Dies soll an einem Beispiel erläutert werden: Gegeben sei z.B. die y-Koordinate zum Zeitpunkt t 8 . Für die nullte Ableitung werden dieser und der vorhergehende Wert ( Y t8 Y t 7 ) mit dem ersten Koeffizienten der nullten Ableitung C0, 1 multipliziert und das Ergebnis in der Variablen GlattWert gespeichert. Im zweiten Durchlauf der inneren Schleife wird das Ergebnis aus C 0, 2∗Y t 9 Y t 6 zu GlattWert addiert und schließlich wird noch C 0, 3∗ Y t 10 Y t 5 hinzugerechnet. Das erste Ergebnis ist ein an seine Umgebung angepasster neuer Wert für Y t8 . Die Summe der zwei mal drei Koeffizienten der nullten Ableitung ergibt genau 1. Für die Berechnung der ersten Ableitung werden die selben Wertepaare genutzt, jedoch wird die Zahl der berücksichtigten Werte um zwei Paare erhöht ( Y t11 Y t 4 und Y t12 Y t 3 ), die der Reihe nach mit den Koeffizienten C1, 1 bis C1, 5 multipliziert werden. Bei der ersten Ableitung führt *((-1)^(Ableitung+2)) zur Umkehrung des Vorzeichens des jeweils ersten Wertes eines Paares. Die Summe ergibt einen geglätteten Wert für die y-Geschwindigkeit zwischen Y t7 und Y t8 . Zuletzt werden die berücksichtigten Werte erneut erweitert um Y t13 Y t 2 und Y t14 Y t 1 und mit den Koeffizienten C2, 1 bis C2, 7 multipliziert, sodass sich ein geglätteter Wert für die Beschleunigung zwischen Y t7 und Y t9 ergibt.
88
Abbildung 7:
Anwendung der Kernschätzung. Original-Koordinaten und geglättete Koordinaten (A), Geschwindigkeit ungeglättet und geglättet (B) sowie Beschleunigung und geglättet (C). ungeglättet , aus den geglätteten Geschwindigkeitsdaten
Wie aus der Abbildung 7 (Seite 88) zu ersehen ist, wirken sich Fehler in den Koordinaten in den Ableitungen Geschwindigkeit und Beschleunigung potenziert aus. Die im ungeglätteten Signal in 7A erkennbaren leichten Abweichungen im ersten Abstrich und im letzten Aufstrich führen zu starken Schwankungen in der ungeglätteten Geschwindigkeitskurve in 7B und zeigen sich als extreme Beschleunigungswerte in 7C. Durch die Glättung werden diese Effekte abgemildert. Die so verarbeiteten Werte können nun für die weitere Auswertung verwendet werden.
89 Aufbereitung der temporalen Daten Die geglätteten Daten wurden zunächst in einzelne Auf- und Abstriche zerlegt, indem die Maxima und Minima der y-Koordinaten markiert wurden. Diese Grenzen wurden jeweils als Endpunkt des vorhergehenden Striches und als Anfangspunkt des folgenden Striches weiterverarbeitet. Im Anschluss konnte die Unterscheidung von automatisierten und nicht-automatisierten Auf- und Abstrichen erfolgen. Problematisch ist hierbei zunächst der Umgang mit sehr kurzen Strichen. Als Strichfrequenz routinierter Schreiber werden in der Literatur 3 bis 6 Hz angegeben (z.B. Teulings & Maarse, 1984), d.h., pro Sekunde werden drei bis sechs Aufund Abstriche ausgeführt. Nimmt man eine maximale Frequenz von 10 Hz an, so läge die zeitliche Untergrenze für einzelne Striche bei 50 ms (entsprechend sechs Messpunkten). Da für die Glättung eines Geschwindigkeitswertes zehn Messpunkte einbezogen werden (siehe Abbildung 6B, Seite 85) und eine Beurteilung des Geschwindigkeitsverlaufs erst ab drei Geschwindigkeitswerten einigermaßen sinnvoll wird, müssen hierfür mindestens 12 Messpunkte vorliegen. Diese können aber teilweise auch aus vorhergehenden oder folgenden Strichen stammen, sodass vor allem die jeweils ersten und letzten Striche eines Schriftzuges gesondert behandelt werden müssen. Tatsächlich werden viele Schriftzüge durch einen Anstrich eingeleitet. Funktional betrachtet befindet sich der Stift hier entweder noch in der Bewegung zum (eigentlichen) Anfangspunkt des Graphems und kommt dabei gewollt oder ungewollt in Berührung mit der Schreiboberfläche (erkennbar an einer hohen Anfangsgeschwindigkeit und geringem Druck) oder der Anstrich wird bewusst angesetzt (und gehört zum Schriftbild). Unabhängig von der Funktionalität wurden die Anstriche nicht weiter analysiert, sofern sie nicht zusammen mit einer Verzögerung (siehe unten) auftraten; sie gingen jedoch in die Gesamtschreibzeit ein. In gleicher Weise wurde mit den jeweils letzten Strichen eines Schriftzuges verfahren, wenn diese zu kurz für die Analyse waren. Striche mit einer Dauer von weniger als 50 ms, die weder den Beginn noch das Ende des Schriftzuges darstellen, liegen meist dann vor, wenn der Stift (für den Betrachter) auf dem Papier ruht oder nur sehr langsam bewegt wird. Tatsächlich lässt sich der Stift kaum so ruhig halten, dass nicht eine minimale Stiftbewegung registriert wird (Mikrotremor), zumal dies ja nicht in der Absicht der Versuchspersonen liegt. Hierdurch kann eine Abfolge von vielen sehr kleinen (Pseudo-)Auf- und Abstrichen entstehen. Um festzustellen, ob in diesen Fällen eine Pause in der Produktion vorlag oder nicht, wurde überprüft, ob die Summe der innerhalb des Striches produzierten horizontalen und/oder vertikalen Strecke größer war als 1% der jeweiligen Länge für das gesamte Wort. Dieser Fall trat nur sehr selten auf und betraf dann meist horizontal ausgeführte Striche (z.B. t-Striche), die für die Fragestellungen dieser Arbeit nicht von Bedeutung sind. In allen anderen Fällen wurden diese Striche als Pause gewertet. Alle Striche, deren Dauer mindestens 50 ms betrug, wurden auf die Zahl der Geschwindigkeitsinversionen (NIV, Definition auf Seite 73) hin untersucht, um entscheiden zu können, ob eine automatisierte Schreibbewegung vorlag. Eine Inversion der Geschwindigkeitskurve wurde dann als solche gewertet, wenn die Kurve nach der Inversion über mindestens drei Messpunkte stabil war, d.h., die Geschwindigkeit nach dem Inversionspunkt (I) drei Mal nacheinander im Verhältnis zum jeweiligen Vorgänger zu- bzw. abnahm ( I
90 bzw. I ; siehe Abbildung 8A, Seite 90). Bei nur einem oder zwei Messpunkten zwischen zwei Inversionen ( I I [siehe Abbildung 8B] oder I I [siehe Abbildung 8C]) wurde die Relevanz der ersten Inversion davon abhängig gemacht, ob die Veränderung der Geschwindigkeit mindestens 5% des Datenbereichs des Striches ausmachte.
Abbildung 8:
glockenförmige Geschwindigkeitskurve eines Aufstriches mit eindeutiger Inversion (A), annähernd glockenförmige Kurve mit eindeutiger und nicht gewerteter In(B), geführter Abstrich mit mehreren gewerteten und einer nicht gewerversion Inversion (C) und zunächst glockenförmige Geschwindigkeitskurve mit anteten und langsamer Bewegung, gewertete Pausendauer schließend sehr langsamer = 16 Messpunkte = 150 ms (D).
91 Des Weiteren wurden alle Striche daraufhin analysiert, ob die Bewegungsgeschwindigkeit abgesehen vom Anfang und vom Ende des Striches zu einem oder mehreren Zeitpunkten gegen Null tendierte. Dazu wurde für jeden Messpunkt ermittelt, ob die Bewegungsgeschwindigkeit kleiner als 0,1%, 1% oder 5% der mittleren Schreibgeschwindigkeit der Versuchsperson war. Bei fünf oder mehr betroffenen Messpunkten wurde jeweils die Gesamtdauer des Stiftstillstands (< 0,1%), der sehr langsamen (< 1%) und der langsamen (< 5%) Bewegungen gespeichert (siehe Abbildung 8D, Seite 90). Auf dieser Grundlage konnte zu einem späteren Zeitpunkt der zeitliche Pausenanteil für den Strich aufsummiert werden. Zur Identifikation von Luftsprüngen, die länger dauerten als motorisch/kinematisch notwendig, wurde die zurückgelegte Strecke berechnet (Luftlinie vom Ort der Abhebung bis zum Ort des Wiederaufsetzens). Anhand der mittleren Schreibgeschwindigkeit über alle Wörter (Summe der Strecken zwischen den Messpunkten geteilt durch Summe der Schriftzugdauer) des jeweiligen Schreibers und dem individuellen Verhältnis zwischen der geschätzten Luftsprunggeschwindigkeit und der Schreibgeschwindigkeit wurde eine 'Solldauer' für die jeweilige Strecke berechnet. Alle Luftsprünge, deren Dauer den so gebildeten Grenzwert überschritten, wurden als verzögert angesehen und der Differenzwert als Dauer der Pause für den betreffenden Luftsprung gespeichert. Annotation mit sprachlichen Daten Im zweiten Schritt erfolgte die Annotation der Schriftzüge. Hierzu wurde in Visual Basic eine Anwendung programmiert, die die Koordinaten für jeden Schriftzug einlas, um diesen anschließend in einem Diagramm darzustellen. Die angezeigten Zeichen wurden vom Autor identifiziert, in ein Textfeld geschrieben und anschließend mit dem dazugehörigen Schriftzug gespeichert. Da in einigen Fällen Grapheme aus mehreren Schriftzügen zusammengesetzt werden, musste für diese Fälle eine Kodierung entwickelt werden, die sich zur (halb-)automatischen Weiterverarbeitung eignete. So wurden mehrteilige Grapheme in nummerierte Teile zerlegt; dies betrifft vor allem Großbuchstaben (z.B. "H1", "H2", "H3"), aber auch einige Kleinbuchstaben (z.B. ‹t›, ‹f›, ‹k›, ‹x›). I-Punkte und Umlaut-Punkte wurden durch ein nachgestelltes großes P markiert (z.B. "iP", "äP"). Zahlen und Großbuchstaben kommen innerhalb der Zielwörter nicht vor, sodass diese im String automatisch erkennbar sind. Zusammengesetzt und von den genannten Spezialfällen bereinigt ergab sich aus den Schriftzugannotationen das Ist-Wort (z.B. wird aus "f1 | f2ühlt1 | t2 | üP | üP" → "fühlt"). Bei Übereinstimmung mit dem Zielwort konnte eine fehlerfreie Schreibung registriert werden. Alle anderen Fälle wurden nach der unten beschriebenen Aufstellung einer Fehlerkategorie zugeordnet. Nach dieser ersten 'groben' Annotation wurde für die 'Feinannotation' auf die oben beschriebene Zerlegung der Schriftzüge in einzelne Auf- und Abstriche zurückgegriffen. Um die bisher über diese Striche gewonnenen Erkenntnisse auf die sprachlichen Daten beziehen zu können, mussten die einzelnen Striche je einem Buchstaben oder einem Buchstabenübergang zugeordnet werden. Hierzu wurde ein anderes Verfahren gewählt als die in der Literatur beschriebenen (z.B. Portier et al., 1993; Teulings & Maarse, 1984). Letztere beruhen darauf, dass die Segmentgrenze für das erste Minimum der (absoluten) Geschwindig-
92 keit des letzten Abstriches eines Buchstabens angenommen wird. Dies setzt eine flüssige Produktion des Übergangs zum nächsten Buchstaben voraus und ist für die Analyse von Schreibungen kompetenter und routinierter Schreiber gut begründbar; in den Schreibungen der hier untersuchten Kinder wurden jedoch häufig mehrfache Verzögerungen an den Buchstabenübergängen vorgefunden. Zu diesem Befund kamen auch Meulenbroek & van Galen (1989), die größere Varianzen in den von acht- bis zwölfjährigen Kindern produzierten Buchstabenverbindungen fanden als in den Buchstaben selbst. Daher wurden alle Striche, die zur Verbindung zweier Buchstaben produziert wurden, als solche kategorisiert, anstatt diese entweder dem einen oder dem anderen Buchstaben zuzuordnen. Dies betrifft meist den Aufstrich zum folgenden Buchstaben (der Übergang zur 'Kernform' des Buchstabens ist hier meist fließend) und zusätzlich den vorhergehenden Abstrich, wenn der vorhergehende Buchstabe am Mittelband endet, wie im Beispiel in Abbildung 9 (Seite 93) für den Übergang von ‹r› zu ‹i›. Für die Annotation der Striche wurde die oben beschriebene Visual Basic Anwendung erweitert. Zur besseren Übersicht wurden zwei Diagramme in das Formular integriert, von denen eines das gesamte Wort mit hervorgehobenem Schriftzug und das andere den Schriftzug mit hervorgehobenem Strich zeigte (vgl. Abbildung 9, Seite 93). Im unteren Teil des Formulars wurden Text(-eingabe-)felder eingerichtet, die Wort-, Schriftzug- und Stricheigenschaften anzeigten bzw. aufnehmen konnten. Auf der Basis der Annotation der Schriftzüge konnten einige bereits erstellte Daten in das Formular integriert und somit auch gleichzeitig überprüft und ggf. korrigiert werden. Zur Vereinfachung und Beschleunigung der Eingaben wurden aus der Zeichenfolge des jeweiligen Schriftzuges die wahrscheinlichsten Buchstaben-Kandidaten für die Zuordnung ermittelt (die Identität, die Menge und die Reihenfolge der Buchstaben war gegeben) und als Defaultwert in die entsprechenden Felder eingetragen, sodass die Zuordnung in der Mehrzahl der Fälle lediglich bestätigt werden musste. Hierdurch konnte auch die Anzahl der Fehleingaben reduziert werden. In einigen Fällen entsprach (durch nachträgliches Einfügen oder Streichen von Buchstaben durch den Schreiber) die Reihenfolge der produzierten Buchstaben nicht der Reihenfolge des Endproduktes. Für diese Fälle wurde die Checkbox "Korrektur" eingebaut, die dazu führte, dass alle Eingaben von Hand erfolgten. Gleiches gilt auch für Aufzeichnungsfehler, die in seltenen Fällen auftraten und meist auf einen zu geringen Stiftdruck zurückzuführen waren. Die Zuordnung von Fehlerkategorien zu den Ist-Wörtern, auf die weiter unten eingegangen wird, war zu diesem Zeitpunkt schon abgeschlossen, sodass die gefundenen Fehler nun auch den entsprechenden Schriftzügen und Strichen zugeordnet werden konnten. Im Beispiel in Abbildung 9 (Seite 93) traten die beiden Fehlertypen "GKS_Nomen" (Nomen ohne Großschreibung) und "Dehn-ie" (fehlende Dehnungsmarkierung für ‹i›) auf. Da der Schriftzug sowohl einen Teil des kleingeschriebenen ‹f› enthält als auch das ‹i›, sind ihm beide Fehlertypen zugeordnet.
93
Abbildung 9:
Screenshot der Anwendung zur Annotation sprachlicher Daten zum Wort (unten, linkes Drittel), zu den Schriftzügen (mittleres Drittel) und zu den Strichen (rechtes Drittel). Das Diagramm oben links zeigt die Koordinaten des ganzen Wortes und den grau (im Original: rot) hervorgehobenen aktuellen Schriftzug; das Diagramm oben rechts zeigt die Koordinaten des aktuellen Schriftzuges und den hervorgehobenen aktuellen Strich. Die Diagramme unten zeigen den Verlauf der y-Koordinaten (links), der absoluten y-Geschwindigkeit (mittig) sowie der y-Beschleunigung (rechts). Weitere Erläuterungen im Text.
Für die Zuordnung der verschiedenen Fehlertypen zu den Strichen musste zuerst eine Systematik entwickelt werden, nach der die Fehler in vier Klassen eingeteilt und einem oder mehreren Zeichen zugeordnet wurden: 1. Ersetzungen: Ein Graphem wird durch ein anderes ersetzt (z.B. ‹f› in ‹*frieden› für ‹Frieden›; ‹e› in ‹*kempfen› für ‹kämpfen›). Der Fehler wird jeweils dem betroffenen Graphem zugeordnet. 2. Einfügungen: Ein zusätzliches Graphem wird eingefügt (z.B. ‹n› in ‹*Hemnd› für ‹Hemd›). Hier wird das eingefügte Graphem markiert. Die (übergeneralisierende) Einfügung von Dehnungs- oder Schärfungsmarkierungen oder die Spirantisierung müssten nach dem hier vertretenen Graphembegriff als Ersetzungen behandelt werden
94 (technisch ist die Beschreibung als 'Einfügung eines Buchstabens' einfacher). Daher wird in diesen Fällen das gesamte Graphem markiert, also z.B. ‹ie› in ‹*geizieg›, ‹ck› in ‹*aufgereckt› oder ‹ch› in ‹*billich›. 3. Auslassungen: Ein Graphem fehlt. Der Fehler wird sowohl dem der Auslassung vorhergehenden als auch dem folgenden Graphem zugeordnet (z.B. ‹ak› in ‹*Quak› für ‹Quark›). Auch bei den Auslassungen spielen Dehnungs- oder Schärfungsmarkierungen eine besondere Rolle, da genau genommen wieder eine Ersetzung vorliegt. In diesen Fällen wird das (unvollständige) Vokalgraphem (z.B. ‹e› in ‹*nemen›) oder Konsonantgraphem (z.B. ‹l› in ‹*bilig›) markiert. 4. kombinierte Fehler: Hier wird das betroffene und ggf. das folgende Graphem markiert (z.B.: ‹emm› in ‹*nemmen› für ‹nehmen›; ‹iel› in ‹*bielig› für ‹billig›). In Abbildung 9 (Seite 93) wurde dem aktuellen Strich (der Buchstabenverbindung zwischen ‹r› und ‹i›) die fehlende Dehnungsmarkierung zugeordnet, da sie in die Klasse der Ersetzungen fällt (‹ie› wurde ersetzt durch ‹i›). Dieser Logik folgend wurde der Fehler auch den verbleibenden fünf Strichen des Schriftzuges zugeordnet, die zusammen das ‹i› bilden. Da ein direkter Übergang zum ‹d› nicht besteht, sondern an dieser Position ein Luftsprung vorliegt, erfolgte nach dem ‹i› keine weitere Zuordnung des Fehlers. Die Buchstaben- und die Fehlerzuordnung wurden auf zwei Durchgänge verteilt, um einerseits die jeweilige Annotation zu beschleunigen und andererseits die bereits getätigten Eingaben zu überprüfen. In mehreren weiteren Korrekturgängen wurde z.B. geprüft, ob alle Fehlertypen je mindestens einem Schriftzug zugeordnet waren, ob die Zuordnungen zu Schriftzügen und Strichen übereinstimmten oder ob die zugeordneten Fehlertypen für dasselbe Wort oder gleiche orthographische Schwierigkeiten kohärent waren usw. Tabelle 4: Beispiel einer Annotationstabelle für alle vorgekommenen Schreibungen des Wortes ‹Schwierigkeit›. Der Übersichtlichkeit halber wurde auf die Unterscheidung von Groß- und Kleinschreibung verzichtet. In den beiden unteren Zeilen sind die zugeordneten Grenztypen und die Fehlerschwerpunkte verzeichnet. Weiter Erläuterungen im Text. Wort
1
2
3
4
5
6
7
8
Schwierichkeit
S
c
h
ww
i
e
r
i
Schwierigkeit
S
c
h
ww
i
e
r
i
Schwirichkeit
S
c
h
ww
i
r
i
Schwirickkeit
S
c
h
ww
i
r
i
Schwiriegkeit
S
c
h
ww
i
r
i
Schwirigkeit
S
c
h
w
i
r
i
Schwirikeit
S
c
h
w
i
r
i
Grenztypen
IL
B
B
B
B
S
B
Fehlerschwerpunkte pri. GKS Fehlerschwerpunkte sek.
B
9
10
11
12
13
14
15
c
h
kk
e
i
t
g
kk
e
i
t
c
h
kk
e
i
t
c
kk
kk
e
i
t
g
kk
e
i
t
g
k
e
i
t
k
e
i
t
SM
B
B
B
e
B
Dehn-ie
B
B
Auslaut Dehn+KV
95 Für die Annotation der Daten mit Informationen zur sprachlichen Struktur des Wortes (Wortanfang, Beginn von Silben- und Morphemgrenzen, 'normale' Buchstabengrenzen) wurde zunächst eine Tabelle erstellt, in der jeweils alle aufgetretenen Schreibungen eines Wortes so untereinander geordnet waren, dass übereinstimmende Zeichen jeweils in einer Spalte angeordnet waren (siehe Tabelle 4, Seite 94). In diese Tabelle wurde dann zu jedem Buchstaben je ein "Grenztyp" geschrieben ("IL" (initiale Latenz) für den Wortanfang, "SM" für eine kombinierte Silben- und Morphemgrenze, "S" für eine Silbengrenze und "B" für alle sonstigen Fälle bzw. Buchstabengrenzen). Im Material fanden sich einige Wörter, bei denen die Bestimmung der orthographischen Silbengrenze nicht eindeutig getroffen werden konnte bzw. strittig ist. Dies betraf vor allem die Affrikaten /pf/ und /tz/ in ‹Gipfel›, ‹kratzen›, ‹spritzen›, ‹impfen› und ‹kämpfen›. In den beiden zuletzt genannten Beispielen steht vor der Affrikate je eine geschlossene Silbe mit festem Anschluss, sodass gegen die Auffassung von Eisenberg, hier die Ein-Graphemregel (Amtliche Regelung, § 108) anzuwenden (1998: 313f.), argumentiert werden könnte und stattdessen die Silbengrenze vor der Affrikate anzunehmen wäre. Die anderen genannten Fälle sowie die Wörter ‹Glocke›, ‹knicken› und ‹schlucken› können als Silbengelenke behandelt werden – sie treten intervokalisch nach kurzem betontem Vokal auf. Unabhängig von der Beurteilung mussten alle uneindeutigen Fälle (inklusive der Konsonantverdoppelungen) gesondert betrachtet werden, da auch bei kompetenten erwachsenen Schreibern keine eindeutigen Ergebnisse innerhalb der dynamischen Daten zu finden sind (Nottbusch & Weingarten, 2002). Daher wurden diese Fälle in der Tabelle mit "B*" und "S*" versehen und in einer zusätzlichen Spalte sortiert nach den beteiligten Graphemen mit "ck1" oder "ck2" bzw. "SG1" oder "SG2" versehen, um eine gesonderte Statistik zu ermöglichen. Anhand der Fehlertabellen im Begleitmaterial zum DRT5 (Grund et al., 1995) und der tatsächlich vorgefundenen Fehlerschwerpunkte in den Daten wurde die beschriebene Tabelle mit den sprachlichen Grenztypen um die Information "Fehlerschwerpunkte" ergänzt. Jeder Fehlerschwerpunkt wurde unter Anwendung der oben beschriebenen Systematik einem Graphem zugeordnet. Die zwei Ebenen der Fehlerbeschreibung (1. tatsächlich aufgetretene Fehler und 2. Fehlerschwerpunkte) wurden getrennt voneinander verarbeitet. Die Fehlerschwerpunkte wurden nach der Häufigkeit ihres Auftretens in primäre und sekundäre Fehlerschwerpunkte unterteilt. Unter primären Fehlerschwerpunkten wurden alle Fehler gelistet, die bei mindestens drei Teilnehmern auftraten oder die von der Silbenstruktur des Wortes abhängen. Als sekundär behandelt wurden weniger erwartbare silbenspezifische Fehler wie Dehnung nach Kurzvokal oder Schärfung nach Langvokal sowie alle übrigen Fehler. Fehler, die nur ein einziges Mal auftraten und auch nicht erwartbar waren, wurden unter den Fehlerschwerpunkten nicht gelistet. Die so in dieser Tabelle zusammengestellten Daten zu Grenztypen und Fehlerschwerpunkten bezogen sich auf die einzelnen Buchstaben der (orthographisch korrekten) Wörter. Die erhobenen Daten waren bis zu diesem Zeitpunkt allerdings noch aufgeteilt in Schriftzüge und Striche. Um eine sinnvolle Zuordnung vornehmen zu können, wurden Letztere daher auf Mittelwerte (NIV) bzw. Summen (Anzahl Striche, Dauer, Strecke, Anteil Geschwindigkeit < 0,1%, < 1%, < 5%; vgl. Seite 89f.) für einzelne Buchstaben und die Ver-
96 bindungen zwischen den Buchstaben reduziert. Hierdurch ergaben sich weitere Grenztypen, nämlich "Ü" für Buchstabenübergänge, "BI" für buchstabeninterne Abhebungen, "U" für undefinierbare Striche und "P" für Umlaut- und i-Punkte. Durch die Erstellung der Tabelle konnten die Daten nun problemlos zusammengeführt werden. Verzögerungen, die auf orthographische Schwierigkeiten zurückzuführen sind, sollten, dem Modell von van Galen (1991) folgend, ein bis zwei Grapheme vor der eigentlichen Schwierigkeit auftreten, da in diesem Modell angenommen wird, dass der Prozess der Phonem-Graphem-Konversion der motorischen Ausführung vorausgeht und die verschiedenen Prozesse inkrementell abgearbeitet werden. In diesem Fall würde dann der höhere Prozess der orthographischen Regelanwendung die motorische Ausführung stören, die sich tatsächlich erst vor dem eigentlichen Problem befindet. In einigen Fällen wird ein Fehler erst einige Zeit nach der Produktion bemerkt. Eine Zuordnung von so verursachten Verzögerungen zu den Fehlern ist aber nicht ohne Weiteres möglich, da die Spanne der Auswirkungen und die Abstände zum Fehler zu variabel sind und hierfür kein Maß zur Verfügung steht. Daher wurden nur die produzierten Schreibbewegungen in dem Bereich unmittelbar vor der orthographischen Schwierigkeit überprüft (vgl. Portier et al., 1993). Fehleranalyse Der DRT5 enthält im "Diktattext Form A" 51 Sätze mit jeweils einem ausgesparten Wort, die verschiedene Aspekte der Orthographie abdecken. Durch die Einbettung in Sätzen ist nicht nur die Überprüfung von orthographischen Schwierigkeiten mit Bezug zur elementaren segmental-phonographischen Ebene (Lautunterscheidung) und mit suprasegmental-silbischem Bezug (Dehnung und Schärfung, S-Graphie, silbentrennendes ‹h›), sondern auch mit morphologischen und syntaktischen Bezügen (Morphemstruktur/Konstantschreibung, Groß- und Kleinschreibung) möglich. Im Original-Test sind die möglichen Fehler jedoch nach den jeweiligen Regeln, die zu ihrer Vermeidung eingesetzt werden müssten, kategorisiert und es findet sich kein Bezug auf die oben genannten Ebenen oder auf die Stufen der Entwicklung des Schriftspracherwerbs, wie sie in verschiedenen Modellen (vgl. Kapitel 4.1. Enkodierung im orthographischen Lexikon, Seite 125ff.) beschrieben werden. Für die Kategorisierung der Fehler wurde daher eine eigene Systematik entwickelt, die sich auf die oben genannten Bezugsebenen stützt. Hinzu kommt für über elementare Phonem-GraphemBeziehungen hinausgehende Schreibungen die Unterscheidung in den unmarkierten Normalfall und die orthographische Markierung. Diese erlaubt eine Beurteilung des jeweiligen Entwicklungsstandes anhand auftretender Fehler in der Form, dass bei der fehlenden Markierung (z.B. ‹*hofen› für ‹hoffen›) keine Hinweise auf ein entsprechendes orthographisches Wissen vorliegen (»Grundfehler« bei Thomé, 1999), dagegen im Falle einer vorliegenden Markierung an einer falschen Stelle Ansätze eines Wissens im jeweiligen orthographischen Bereich angenommen werden können (Übergeneralisierung). Angesichts der vorliegenden Ergebnisse wurde mit der Graphomotorik noch eine vierte (unterste) Bezugsebene einbezogen. Dies betrifft mangelnde Graphemkenntnis, die sich allerdings auf wenige Möglichkeiten beschränkte. Hieraus ergeben sich die folgenden Kategorien:
97 − Graphematischer
−
−
−
−
Bezug: Graphemkenntnis (vor allem ‹Qu/qu› [z.B. in ‹*überQueren› oder ‹Qark›] und ‹ß› [z.B. in ‹*fleizig› für ‹fleißig›] betreffend, aber auch ‹st/sp› in ‹*erschtauntes› für ‹erstauntes› und ‹ck› in ‹*schlukken› für ‹schlucken›). Segmental-phonologischer Bezug: Phonographie (z.B. Lautunterscheidung: ‹*n› für ‹m› in ‹*inpfen›; Stimmung/Entstimmung [ohne Auslaut]: ‹*gewegt› für ‹geweckt›, ‹*böße› für ‹böse›; Auslassungen: ‹*Quak› für ‹Quark›; Einfügungen: ‹*Hemnd› für ‹Hemd›). Suprasegmental-silbischer Bezug: Dehnung und Schärfung: − fehlende Dehnungsmarkierung, z.B. ‹*nemen› für ‹nehmen›, ‹*richen› für ‹riechen›, − übergeneralisierte Dehnungsmarkierung, z.B. ‹*Wuht› für ‹Wut›, ‹*Giepfel› für ‹Gipfel›, − fehlende Schärfungsmarkierung, z.B. ‹*hofen› für ‹hoffen› (Silbengelenk in vorliegender Wortform) oder ‹*Hofnung› für ‹Hoffnung› (Silbengelenk in Referenzform), − übergeneralisierte Schärfungsmarkierung, z.B. ‹*verhällt› für ‹verhält› (fester Anschluss in Referenzform) oder ‹*geitzig› für ‹geizig› nach Langvokal/Diphthong. Morphologischer Bezug: verschiedene Formen der Konstantschreibung − Grundfehler, z.B. ‹*Hämd› für ‹Hemd› oder ‹*ferschlimmert› für ‹verschlimmert›, − Übergeneralisierung, z.B. ‹*Quarg› für ‹Quark› oder ‹*belond› für ‹belohnt›. Syntaktischer Bezug: Groß- und Kleinschreibung − fehlende Markierung: ‹*belohnung› oder ‹*glück› − übergeneralisierte Markierung: ‹*Donnern› oder ‹*Glücklich›
Eine weiter gehende Spezifizierung der verschiedenen Fehler würde nur für eine Einzelfallbetrachtung und unter Verwendung von wesentlich mehr als 51 Wörtern Sinn machen. So wird z.B. für die Oldenburger Fehleranalyse (OLFA, Thomé & Thomé, 2004) eine Mindestzahl von 250 bis 300 Wörtern angegeben. Grenzen der statistischen Analyse Die statistische Analyse solch hoch komplexer Handlungen wie der Handschrift wird immer kompromissbehaftet sein müssen. Die vielen sehr unterschiedlichen Einzelschreibungen bedürften eigentlich je einer individuellen Behandlung. Wenn z.B. ein Kind ein Wort zunächst fehlerfrei geschrieben hat, dies dann durchstreicht und anschließend eine falsche Schreibung produziert (oder andersherum), dann ist es schwierig bis unmöglich, diesen Fall mit allen seinen Ausprägungen motorischer und sprachlicher Art in eine verallgemeinernde Statistik zu überführen. Hierzu ein konkreteres Beispiel: Ein Kind schreibt das Wort ‹kräftig› bis zum Ende des ‹i› korrekt, führt den Stift anschließend ohne Verzögerung in eine Oberlänge, bricht am Ende des Aufstriches ab und setzt nach einiger Zeit am unte-
98 ren Mittelband wieder an, um – mit mehreren Verzögerungen – ein ‹g› zu schreiben. Hier ist zwar wahrscheinlich, dass der Aufstrich nach dem ‹i› der erste Strich eines ‹k› werden sollte, nicht zuletzt weil hier ein Fehlerschwerpunkt vorliegt, aber mit letzter Sicherheit kann man dies nicht festlegen, da der Aufstrich auch Teil eines ‹b›, ‹f›, ‹h›, ‹l› oder ‹t› gewesen sein könnte. Das ist zwar sehr unwahrscheinlich, kann aber nicht ausgeschlossen werden (am ehesten plausibel wäre hier das ‹h› als Teil einer Spirantisierung, gekoppelt mit der Auslassung des ‹c›). Des Weiteren könnte man spekulieren, ob der halb produzierte Fehler durch einen Abgleich visueller Information mit einer (noch instabil) gespeicherten orthographischen Repräsentation bemerkt wurde oder ob hier die Phonem-Graphem-Konversion und Prozesse der Regelanwendung nacheinander zu verschiedenen Ergebnissen gelangt sind und weiter konfligieren. Weitere mögliche Begründungen ließen sich finden – für die statistische Analyse bleibt jedoch nur ein undefinierbarer Strich (ohne Verzögerung), eine Abhebung von definierter Dauer, die Schreibung des ‹g› mit ihren Eigenschaften und das Datum, dass alle diese temporalen Daten mit einem Fehlerschwerpunkt zusammenfallen. So interessant solche Einzelschreibungen auch sein mögen, ohne die genannten Beschränkungen wären statistische Analysen der Verhaltensdaten nicht möglich, denn nur so lassen sich die Daten vieler Wortschreibungen von vielen Kindern miteinander vergleichen. Im folgenden Ergebnisteil wird daher die Einzelfallbetrachtung nur so weit ins Detail gehen, wie es nötig ist, um mit statistischen Mitteln den Aneignungsgrad silbischer Muster und implizites Regelwissen bei einem Kind zu bestimmen.
3.2.2.
Ergebnisse
Wie oben schon erwähnt, wurden die Striche für die Analyse zu größeren Einheiten zusammengefasst. Diese waren entweder Buchstaben oder Buchstabenübergänge. Letztere können naturgemäß nur innerhalb von Schriftzügen auftreten. Im Schnitt wurden einer Einheit 3,45 Striche zugeordnet (SD: 4,09). Buchstaben und Buchstabenübergänge unterscheiden sich diesbezüglich kaum, die Varianz ist bei Letzteren jedoch größer (Buchstaben, M: 3,45; SD: 3,41; Übergänge, M: 3,46; SD: 5,03). Hierbei ist zu bedenken, dass in diesen Mittelwert auch Abfolgen von vielen sehr kleinen (Pseudo-)Auf- und Abstrichen bei annähernd ruhendem Stift (Mikrotremor) mit einflossen. Daher ist diese Größe zur Beschreibung von Verzögerungen innerhalb der Produktion nicht geeignet. Hierfür standen andere Variablen zur Verfügung, die im Folgenden beschrieben werden. Die Daten von vier Kindern wurden von den Analysen ausgeschlossen, da ihre Muttersprache nicht Deutsch ist (siehe Kapitel 3.2.1.1. Teilnehmer, Seite 79); hierdurch entfielen 204 Wortschreibungen. Insgesamt blieben 1140 analysierte Wortschreibungen (23 Versuchspersonen * 51 Wörter, abzüglich 11 Aufzeichnungsfehler und 22 Wörter, die für ein Kind nicht aufgezeichnet werden konnten, weil die Kugelschreibermine während des Versuchs den Dienst versagte). Die Schreibungen setzten sich aus 4325 Schriftzügen (über alle Wörter: M: 3,76; SD: 1,91) und 56908 Strichen (M: 49,5; SD: 25,6) zusammen. Die durchschnittliche Anzahl der Schriftzüge pro Wort über alle Wörter war variabler (zwischen 1,3 für ‹nehmen› und 6,9 für ‹Schwierigkeit›) als die Mittelwerte pro Wort über alle Ver-
99 suchspersonen (min: 2,8; max: 5,9). Gleiches gilt für die mittlere Anzahl der Striche pro Wort (26,6 für ‹Wut› und 96,0 für ‹Schwierigkeit›) und pro Kind (min: 34,4; max: 79,0). Die so entstandenen Einheiten stellen die erste unabhängige Variable Grenztyp dar (Definition siehe Seite 18). Die Buchstabeneinheiten wurden weiter unterteilt. Hierbei sind die initiale Latenz und die Zahl der Buchstaben relativ unabhängig davon, ob und wo im Wort der Stift abgehoben wurde (die geringen Abweichungen ergeben sich aus den oben genannten Aufzeichnungsfehlern). Die Häufigkeiten der Übergänge sowie die der buchstabeninternen Abhebungen sind dagegen individuell unterschiedlich verteilt, wie die relativ hohen Standardabweichungen zeigen (Tabelle 5, Seite 99, rechte Spalte). Die leicht erhöhte Varianz bezüglich der Zahl der Umlautpunkte erklärt sich u.a. dadurch, dass nicht alle Schreiber hier regelmäßig zwei Punkte gesetzt haben. Insgesamt ergaben sich 16058 Einheiten mit den folgenden Häufigkeiten: Tabelle 5: Definierte Grenztypen und ihre Häufigkeiten im untersuchten Material. Angegeben wird sowohl die Gesamtzahl als auch der Mittelwert (M) und die Standardabweichung (SD) pro Kind. Spezialfälle in Klammern. Grenztyp Beschreibung
Anzahl gesamt
Anzahl/ Kind
Anzahl/ Kind
M
SD
1140 (14)
50,5 (0,6)
1,0 (0,8)
290
12,9
0,4
IL (IL*)
initiale Latenz (zusätzlich zweiter Wortanfang nach Streichung)
SM
Silben- und Morphemgrenze
S (S*)
Silbengrenze (bei unklaren Silbengrenzen S*)
529 (310)
23,5 (13,7)
1,0 (0,6)
B (B*)
(Kern-)Buchstabe (bei unklaren Silbengrenzen B*)
5437 (298)
241,0 (13,1)
6,7 (1,5)
Ü
Übergänge zwischen Buchstaben
5985
265,3
39,1
BI
buchstabeninterne Abhebungen
958
43,0
14,3
P
Umlaut- und i-Punkte
947
41,9
7,2
U
undefinierbare Striche
65
2,8
2,9
K
Korrekturen an schon geschriebenen Buchstaben
85
3,8
2,7
Summe
16058
Die zweite unabhängige Variable Fehlerschwerpunkt bezieht sich wie die erste auf die gebildeten Zeicheneinheiten. Die Vorkommenshäufigkeiten überschneiden sich in einigen Positionen systematisch (siehe Tabelle 6, Seite 100). Graphematische Schwierigkeiten (z.B. an ‹Qu/qu›, ‹st/sp›) treten im Material nur zu Beginn von Grundmorphemen (Grenztyp: IL oder SM) und den jeweils folgenden Buchstaben auf (Grenztyp: B). Schwierigkeiten, die die Phonemunterscheidung betreffen, können den Anfangsrand einer Silbe betreffen (z.B.
100 in ‹*böße› für ‹böse›) oder silbenintern auftreten. Gleiches gilt für die Dehnung und Schärfung. Fehlerschwerpunkte mit morphologischem Hintergrund können auch wortinitial (IL) in Form eines Präfixes auftreten. Die Groß- und Kleinschreibung bezieht sich mit Ausnahme des als graphematisch definierten ‹Q› nur auf die ersten Buchstaben der Wörter (IL). Eine Zuordnung zu buchstabeninternen Abhebungen sowie zu den Übergängen erfolgte zunächst nicht. Diese werden aber mit in Betracht gezogen, wenn die unmittelbare Umgebung der Fehlerschwerpunkte analysiert wird. Tabelle 6: Häufigkeiten für Fehlerschwerpunkte und Grenztypen. Mit S* und B* sind uneindeutige Silbengrenzen gekennzeichnet. Weitere Erläuterungen im Text. Kein FehlerGrapheschwerpunkt matischer Bezug
Phonologischer Bezug
Silbenbezug Dehnung
Silbenbezug Schärfung
Morphologischer Bezug
Syntaktischer Bezug
(N)
(Gr)
(Ph)
(D)
(S)
(Mo)
(Sy)
IL
247
23
--
--
--
45
825
IL*
14
--
--
--
--
--
--
SM
246
44
--
--
--
--
--
S
309
--
65
22
110
23
--
S*
65
--
22
--
223
--
--
3714
48
201
584
362
529
--
45
--
44
--
202
7
--
Ü
5984
--
--
--
--
--
--
BI
958
--
--
--
--
--
--
P
947
--
--
--
--
--
--
U
65
--
--
--
--
--
--
KK
85
--
--
--
--
--
--
12677
115
332
607
897
605
825
B B*
Summe
Aufgrund dieser Überschneidungen könnten Effekte auf die abhängigen Variablen durch Interaktionen der unabhängigen Variablen verursacht worden sein. Dies galt es in verschiedenen Varianzanalysen zu überprüfen. Eine jeweils ausreichende Zahl von Grenztypen, die nicht mit Fehlerschwerpunkten zusammenfällt, ermöglichte dies. Wie oben schon ausführlich erläutert, wurden die Auswirkungen der Wortstruktur und der Fehlerschwerpunkte auf drei abhängige Variablen analysiert. Es liegt in der Natur der Handschrift, dass nicht alle drei Variablen für jeden Punkt der Produktion vorlagen. Auch hier existieren grundsätzliche systematische Abhängigkeiten: − Eine Abhebung vor dem beobachteten Buchstaben liegt vor oder nicht – wenn eine
Abhebung vorliegt, kann ihre Dauer in quantifizierbarer Größe über dem definierten
101 Grenzwert (siehe Seite 75) liegen (liegt keine Abhebung vor, sollte es einen Übergang vom vorhergehenden Buchstaben geben, für den ggf. die beiden folgenden Maße angegeben werden können). − Ein Stillstand oder eine sehr starke Verlangsamung (Geschwindigkeit über einen längeren Zeitraum < 5% der Höchstgeschwindigkeit) während der Schreibung liegt vor oder nicht und ist die Dauer betreffend quantifizierbar (ggf. Null). − Für alle Striche eines Buchstabens, die nicht als Pause gewertet werden, lässt sich die Anzahl der Geschwindigkeitsinversionen (NIV, Definition auf Seite 73) quantifizieren. Die durchschnittliche NIV pro Strich eines Buchstabens kann eine nicht-automatisierte Produktion des Zeichens anzeigen. Hieraus folgt, dass die Messungen einerseits qualitative Unterschiede aufweisen (inhärente Kriterien) und andererseits mit unterschiedlichen Häufigkeiten auftreten (Abhebungen seltener). Eine denkbare Vorgehensweise wäre, alle drei Variablen jeweils einer separaten Analyse zuzuführen. Unterschiedliche Effekte auf die einzelnen Variablen wären so aber nur schwer zu deuten. Des Weiteren würden Abhängigkeiten zwischen den Variablen nicht berücksichtigt – schließlich stellen die hier untersuchten Variablen nur unterschiedliche Ausprägungen desselben Verhaltens dar: der Verzögerung der Schriftproduktion. So könnte man z.B. argumentieren, dass eine ausreichend lange Abhebung Verzögerungen während der Schreibung überflüssig macht. Andererseits scheinen bei unterschiedlichen Schreibern individuelle Strategien vorzuliegen, was sich im einen Extrem darin äußern kann, dass fast alle Schriftzüge flüssig erfolgen, jedoch lange Abhebungszeiten vorliegen, im anderen Extrem wird der Stift während der Verzögerungen eher nicht abgehoben, sondern nur gebremst. Aus diesem Grund wurden zusätzlich zu den einfachen Varianzanalysen (ANOVAs) multivariate Varianzanalysen (MANOVAs) durchgeführt, bei denen Korrelationen unter den abhängigen Variablen in der Berechnung berücksichtigt werden.
3.2.2.1. Wortinitiale Latenzen An der wortinitialen Latenz zeigen sich im Allgemeinen Effekte, die sich zum größten Teil auf Eigenschaften des gesamten Wortes beziehen. In der Literatur zur Handschrift- oder Tastaturschriftforschung wird z.B über Wortfrequenzeffekte und Age-of-Acquisition-Effekte (Erwerbsalter) berichtet. In den vorliegenden Daten der Kinder (hier: Zeit vom Startsignal nach der Präsentation des Stimulus bis zum Aufsetzen des Stiftes, d.h., verzögerte Kondition) konnte der Wortfrequenzeffekt allerdings nicht bestätigt werden. Zur Analyse wurden die Frequenzdaten aus dem DRT5 (Grund et al., 1995) übernommen (dort werden die Daten aus Naumann (1989) angegeben, die aus 19 verschiedenen Wortzählungen zusammengestellt wurden und jeweils anzeigen, in wie vielen Studien das Wort als häufig vorkommend gekennzeichnet ist). Die Wörter wurden oberhalb des Medians (2) in hochund niederfrequente Wörter unterteilt und die initialen Latenzen wurden verglichen. Es zeigt sich zwar ein signifikanter Effekt, jedoch entgegen der erwarteten Richtung: Die Reaktionszeiten sind vor den nach der Liste seltener vorkommenden Wörtern kürzer (M: 1250 ms; SD: 974; N: 601) als vor den häufig vorkommenden Wörtern (M: 1345; SD: 1186; N:
102 537). Bei genauerer Betrachtung der einzelnen Wörter ergibt sich ein sehr uneinheitliches Bild mit kurzen und langen Verzögerungen, verteilt über beide Häufigkeitsgruppen, sodass es sich hier um Verzerrungen durch andere Effekte handeln muss. In Frage kommt z.B. das Vorhandensein eines Fehlers oder eines Fehlerschwerpunktes. Diese können sich einerseits auf den ersten Buchstaben des Wortes beziehen (meist Großund Kleinschreibung, siehe Tabelle 6, Seite 100) oder weiter hinten im Wort vorkommen. Liegt ein Fehler bezüglich des ersten Buchstabens vor, so sind die Reaktionszeiten länger (M: 1358; SD: 994; N: 111) als die korrekter Schreibung (M: 1239; SD: 972; N: 1027); dieser Unterschied ist jedoch nicht signifikant. Ähnlich verhält es sich mit den Fehlerschwerpunkten. In den Fällen, in denen mindestens drei Versuchspersonen eine Fehlschreibung produziert haben, zeigen alle Teilnehmer etwas längere wortinitiale Latenzen (M: 1270; SD: 1033; N: 892) als in den vermeintlich leichteren Fällen (M: 1181; SD: 723; N: 246). Auch dieser Unterschied ist nicht signifikant. Etwas deutlicher ist der Effekt aufgrund der ausgeglicheneren Fallzahl bezüglich der korrekt bzw. falsch geschriebenen Wörter (also Fehler zu Beginn oder im weiteren Verlauf des Wortes). Die Reaktionszeiten vor richtigen Schreibungen sind kürzer (M: 1216; SD: 1006; N: 808) als vor Schreibungen mit mindestens einem Fehler (M: 1335; SD: 889; N: 330). Dieser Effekt liegt knapp oberhalb des 5%Signifikanzniveaus (F (1, 1136) = 3,51; p = .061). Interaktionen mit der Wortfrequenz liegen in keinem der Fälle vor. Der Einfluss der Fehler im Wort legt den Schluss nahe, dass diejenigen Kinder, die Schreibungen mit weniger Fehlern produzieren, im Durchschnitt auch schneller mit der Schreibung beginnen können. Dies wurde überprüft, indem eine Regression berechnet wurde, für die die Anzahl der Fehler im Gesamttest (Fehlersumme) mit der mittleren initialen Latenz in Relation gestellt wurde. Das Ergebnis ist recht eindeutig: Der r2-Wert (quadrierter Korrelationskoeffizient) von .494 zeigt an, dass knapp 50% der Varianz der mittleren initialen Latenz durch die Anzahl der Fehler erklärt wird (siehe Abbildung 10; F (1, 21) = 20.5, p < .0005). Des Weiteren wurde geprüft, ob die Fehlersumme mit einer der anderen Variablen interagiert (z.B., ob gute Rechtschreiber von Fehlerschwerpunkten weniger beeinflusst werden als schwächere), indem die Gruppe der Versuchspersonen am Median der Fehlersumme (16) geteilt wurde. In mehreren ANOVAs zeigten sich aber weder für die Wortfrequenz noch für die verschiedenen Ausprägungen der Fehler und Fehlerschwerpunkte signifikante Effekte. Des Weiteren zeigte sich für die genannten Variablen weder bezüglich der mittleren Verzögerungsdauer während der Schreibung noch bezüglich des Schreibflusses (ausgedrückt in NIV, Definition auf Seite 73) ein nennenswerter Effekt. Weitere wortspezifische Eigenschaften, für die in anderen Studien ein Einfluss auf die wortinitiale Latenz gefunden wurde, sind die Anzahl der Silben eines Wortes sowie die Länge des Silbenanfangsrandes (vgl. Will et al., 2003, 2006). Hier scheint es Unterschiede zur mündlichen Sprachproduktion zu geben, bei der sich für zweisilbige Wörter längere initiale Latenzen finden als für einsilbige Wörter (Santiago et al., 2000; Sternberg et al., 1978) und für komplexere Onsets als für einfache (Santiago et al., 2000). In der (tastatur-)schriftlichen Sprachproduktion hingegen fanden sich mit erhöhter Anzahl der Silben kürzere Reaktionszeiten. Einen Effekt des Silbenanfangsrandes fanden Will et al. (2006) nur innerhalb des Wortes, aber nicht wortinitial. Sollten sich diese Effekte auf die
103 eine oder andere Art und Weise auch in den vorliegenden Daten wiederfinden, so würde dies die angenommene Stellung der Silbe als Verarbeitungseinheit stützen. Regression Plot 3500
3000
2500
2000
1500
1000
500 0
5
10
15
20
25 F-Sum
30
35
40
45
Y = 684,537 + 30,513 * X; R^2 = ,494
Abbildung 10: Korrelation zwischen mittlerer wortinitialer Latenz und Summe der orthographischen Fehler. Bessere Rechtschreiber haben im Mittel kürzere Reaktionszeiten, bevor sie mit der Schreibung beginnen.
Um den Einfluss der Anzahl der Silben eines Wortes auf die initiale Latenz und die Eigenschaften des jeweils ersten Buchstabens zu überprüfen, wurde eine multivariate Varianzanalyse durchgeführt. Wie in den tastaturschriftlichen Untersuchungen von Will et al. (2003) zeigte sich, dass die Dauer der Reaktionszeit zu Beginn der Schreibung mit der Anzahl der Silben abnimmt. Dieser Effekt auf die drei Messungen war sowohl in der MANOVA signifikant (Wilks' Lambda = .967; F (6, 2242) = 6.39; p < .0001) als auch in den einzelnen ANOVAs zu den verschiedenen abhängigen Variablen: Initiale Latenz (F (2, 1123) = 5.09, p < .01), Schriftzugpausen (F (2, 1123) = 3.699, p < .05) und NIV (F (2, 1123) = 11.378, p < .0001; siehe Abbildung 11A-C, Seite 104). Im post-hoc SchefféTest unterschieden sich bezüglich der initialen Latenz jeweils die Wörter mit einer und zwei (p < .05) bzw. mit einer und drei Silben (p < .01) signifikant (vgl. Abbildung 11A). Bei den Schriftzugpausen unterschieden sich die Wörter mit drei Silben jeweils signifikant von denen mit einer Silbe (p < .05) und mit zwei Silben (p < .05; vgl. Abbildung 11B). Für die Schreibflüssigkeit, ausgedrückt in NIV, findet sich das gleiche Muster wie für die initiale Latenz: Die Wörter mit einer Silbe unterschieden sich von denen mit zwei und drei Silben (beide p < .0001; vgl. Abbildung 11C).
104
Abbildung 11: Unterschiedliche Typen der Verzögerung (Initiale Latenz [A], Schriftzugpausen [B] und NIV [C] innerhalb des ersten Buchstabens) in Abhängigkeit von der Anzahl der Silben des Wortes. In A ist zu sehen, dass die Initiale Latenz mit steigender Silbenanzahl abnimmt. B zeigt, dass Pausen innerhalb des ersten Buchstabens seltener und kürzer sind, wenn das Wort aus drei Silben besteht, als wenn es aus nur einer oder zwei Silben zusammengesetzt ist. Der Schreibfluss (ausgedrückt in NIV) während der Schreibung des ersten Buchstabens (abgebildet in C) nimmt ebenfalls mit der steigenden Silbenzahl des Wortes zu.
Die Länge des Silbenanfangsrandes wurde anhand der Anzahl zu produzierender Zeichen bestimmt (alternativ hätte auch die Anzahl der Grapheme gewählt werden können; dazu unten mehr). Da im deutschen Schriftsystem der Glottisverschluss nicht durch ein Graphem repräsentiert wird, treten auch (pseudo-)nackte Silben auf (Anfangsrandlänge = 0). Zur Überprüfung des Effektes wurde in gleicher Weise verfahren wie für die Anzahl der Silben. Auch hier zeigt sich in der multivariaten Varianzanalyse ein signifikanter Effekt (Wilks' Lambda = .948; F (12, 2961) = 5.04; p < .0001). Die drei ANOVAs zeigen ebenfalls signifikante Effekte (Initiale Latenz: F (4, 1121) = 6.694, p < .0001; Schriftzugpausen: F (4, 1121) = 2.928, p < .05; NIV: F (4, 1121) = 6.626, p < .0001; siehe Abbildung 12A-C, Seite 105). Die post-hoc Scheffé-Tests zeigen (nicht zuletzt aufgrund der niedrigeren Fallzahlen einiger Ausprägungen) weniger signifikante Ergebnisse: Bei der initialen Latenz un-
105 terscheiden sich Wörter mit einem Anfangsrand aus zwei Zeichen signifikant von denen mit einem einfachen (p < .05) und einem komplexeren Anfangsrand aus vier Zeichen (p < .001; siehe Abbildung 12A). Bezüglich der Schriftzugpausen erreicht keiner der Vergleiche ein signifikantes Niveau (vgl. siehe Abbildung 12B). Bei den Geschwindigkeitsinversionen pro Strich stechen wiederum die zweigliedrigen Anfangsränder heraus und unterscheiden sich signifikant von den vokalisch anlautenden Silben (p < .005) und von denen mit einfachem Anfangsrand (p < .01; siehe Abbildung 12C).
Abbildung 12: Unterschiedliche Typen der Verzögerung (Initiale Latenz [A], Schriftzugpausen [B] und NIV [C] innerhalb des ersten Buchstabens) in Abhängigkeit von der Länge des Silbenanfangsrandes in Buchstaben. Erläuterungen und Kommentare im vorhergehenden Absatz.
Würde man also nur die einfachen und zweifach besetzten Anfangsränder betrachten, so würden hier die Ergebnisse aus der mündlichen Sprachproduktion (s.o) bestätigt. Komplexere Anfangsränder zeigen aber wieder kürzere Latenzen, wie auch schon Will et al. (2003, 2006) gezeigt haben. Die dort vorgeschlagene Erklärung greift aber nicht für die vorliegenden Ergebnisse. Bei Will et al. (2003) entsprachen alle dreigliedrigen Anfangsränder dem Trigraphem ‹sch›, sodass man hier annehmen könnte, dass Grapheme hier die entschei-
106 dende Verarbeitungseinheit darstellen. Dem widersprechen die Werte für viergliedrige Anfangsränder aus dieser Untersuchung, die alle aus zwei Graphemen (‹sch› + ‹X›) bestehen, aber signifikant schneller und flüssiger initiiert werden können als andere Onsets, die ebenfalls aus zwei Graphemen bestehen.
3.2.2.2. Luftsprung- vs. Schriftzuggeschwindigkeit Für die oben untersuchte initiale Latenz ist die Strecke, über die der Stift bewegt wird, relativ uninteressant, da erstens kein lokal bestimmbarer Startpunkt vorliegt und zweitens grob vorgegeben ist, wo die Schreibung erfolgen soll. Für die Abhebungen innerhalb des Wortes ist dies anders, daher soll an dieser Stelle zunächst das Verhältnis von Abhebungs- und Schreibdauer bzw. der jeweiligen Bewegungsgeschwindigkeit betrachtet werden und hieraus der Grenzwert für die Variable Sprunggeschwindigkeit begründet werden. Da für die Luftsprünge jeweils nur die Anfangs- und Endpunkte bekannt waren, konnte für die Luftsprunggeschwindigkeit nur ein Näherungswert aus der Dauer und der Länge der Geraden zwischen den genannten Punkten ermittelt werden (der Einfachheit halber soll im Folgenden nur noch der Begriff Sprunggeschwindigkeit verwendet werden). Für die mittlere Schreibgeschwindigkeit dagegen konnte der tatsächlich zurückgelegte Weg des Stiftes auf dem Papier während eines Schriftzuges berücksichtigt werden. Beim direkten Vergleich der beiden Größen ist zu bedenken, dass (wie oben schon diskutiert, Seite 75) die Sprunggeschwindigkeit zu niedrig geschätzt ist, da die tatsächlich zurückgelegte Strecke in jedem Falle größer ist als die Gerade zwischen dem Anfangs- und dem Endpunkt. Dies zeigt sich in den folgenden deskriptiven statistischen Angaben, die sich auf die 1048 von 1140 Wortschreibungen beziehen, bei denen mindestens ein Luftsprung vorlag. Die Sprunggeschwindigkeit lag mit durchschnittlich 18,2 mm/s (SD: 11,5) erwartungsgemäß niedriger als die Schreibgeschwindigkeit (M: 22,6 mm/s; SD: 6,3). Da es vorkommen kann, dass der Stift nach einem Sprung (möglicherweise dem einzigen im Wort) annähernd dort wieder aufgesetzt wird, wo er abgehoben wurde, kann die Sprunggeschwindigkeit gegen Null gehen (bei 252 Wörtern lag die Sprunggeschwindigkeit im Mittel unter 10 mm/s, während die mittlere Schreibgeschwindigkeit nur in einem einzigen Fall unter 10 mm/s fiel, da nicht jeder Strich verlangsamt geschrieben wird). Hieraus erklärt sich, dass die Sprunggeschwindigkeit nicht normalverteilt ist (Kolmogorow-Smirnov-Test: Χ 2 = 13,9; p < .005) und die größere Varianz aufweist. Die Schreibgeschwindigkeit dagegen ist normalverteilt (Χ 2 = 3,14; p > .1). Bezogen auf alle Wortschreibungen war die Schreibgeschwindigkeit im Schnitt um den Faktor 2,5 (SD: 5,96) höher als die Sprunggeschwindigkeit. Große interindividuelle Unterschiede zeigen sich z.B. daran, dass fünf Kinder bei mehr als der Hälfte der Wörter den Stift in der Luft schneller bewegten als auf dem Papier (138 der insgesamt 349 Fälle stammen von diesen fünf Schreibern). Am anderen Extrem wurde der Stift von sieben Kindern bei (fast) allen Wörtern (46 oder mehr) auf dem Papier schneller bewegt. Das Verhältnis zwischen Sprung- und Schreibgeschwindigkeit reichte von 1 : 0,86 bis zu 1 : 9,34. Diese Unterschiede sprechen für die oben aufgestellte Annahme, dass Verzögerungen individuell unterschiedlich auf die Schriftzüge und Luftsprünge verteilt werden. Daher erscheint die
107 geplante Vorgehensweise sinnvoll, für die Dauer der Luftsprünge abhängig von der Sprungweite einen Grenzwert anzusetzen, der an der mittleren Schreibgeschwindigkeit orientiert ist. Alle Luftsprünge, deren Dauer den so gebildeten Grenzwert überschritten, wurden als verzögert angesehen und der Differenzwert als Dauer der Pause für den betreffenden Luftsprung gespeichert.
3.2.2.3. Wortinterne Grenzen Grundmorphem-, Silben- und Buchstabengrenzen Um zunächst grundsätzlich den Einfluss der sprachlichen Grenztypen und der Fehlerschwerpunkte auf die Schreibungen aller Kinder zu analysieren, wurden eine multivariate Varianzanalyse (MANOVA) sowie je eine univariate Varianzanalyse (ANOVA) mit einem 3 * 2-Faktorendesign (Grenztyp [wortintern]: B/S/SM * Fehlerschwerpunkt ja/nein) für die drei abhängigen Variablen Luftsprungpause, Schriftzugpause und NIV durchgeführt. Die Interaktion Grenztyp * Fehlerschwerpunkt war nicht signifikant: Keiner der p-Werte erreichte auch nur annähernd das alpha-Niveau von 5%. Hieraus lässt sich schlussfolgern, dass ein Effekt des sprachlichen Grenztyps mit oder ohne gleichzeitig vorhandenem Fehlerschwerpunkt gleich groß sein dürfte. Andersherum gesehen wirkt sich ein Fehlerschwerpunkt unabhängig vom vorliegenden Grenztyp aus. Diesem Ergebnis folgend kann die Interaktion Grenztyp * Fehlerschwerpunkt aus dem Modell herausgenommen werden und die Analyse auf die Haupteffekte beschränkt werden. Die MANOVA-Ergebnisse zeigen für beide untersuchten Variablen signifikante Werte, d.h., die Null-Hypothese, dass kein Effekt vorliegt, muss für beide Fälle verworfen werden. Bezüglich der Variablen Grenztyp zeigt sich ein p-Wert von < .0001 für die drei abhängigen Messungen. Dieser Effekt ist somit hochsignifikant (Wilks' Lambda = .952; F (6, 1682) = 6.98). Das Gleiche gilt für das Vorhandensein eines Fehlerschwerpunkts (Wilks' Lambda = .982; F (3, 841) = 5.06; p < 0.005). Die univariaten Varianzanalysen zeigten jedoch unterschiedliche Ergebnisse: Während der sprachliche Grenztyp einen hoch signifikanten Effekt auf die Luftsprungpausen (F (2, 843) = 11.14, p < .0001) und die Schriftzugpausen zeigt (F (2, 843) = 11.28, p < .0001), ist der Effekt der Fehlerschwerpunkte nur für die Luftsprungpausen signifikant (F (1, 843) = 13.07, p < .0005), aber knapp nicht signifikant für die Schriftzugpausen (F (1, 843) = 3.24, p = .07). An den NIV (mittlere Anzahl der Geschwindigkeitsinversionen) zeigte sich weder ein Effekt des Grenztyps (F (2, 843) = 1.59, p > .1) noch der Fehlerschwerpunkte (F (1, 843) < 1, p > .5). Die nicht signifikanten Ergebnisse der univariaten ANOVAs für Schriftzugpausen und NIV relativieren sich jedoch, wenn man sieht, dass für die bisher beschriebenen Varianzanalysen die Fallzahlen auf den kleinsten gemeinsamen Nenner – die Anzahl der Luftsprünge – reduziert werden mussten. Unter Berücksichtigung der in Tabelle 7 (Seite 108) aufgeführten Mittelwerte für jeweils alle vorliegenden Messungen sind die Effekte der Grenztypen und der Fehlerschwerpunkte auf die Schriftzugpausen hochsignifikant (Grenz-
108 typen: F (2, 6251) p < .0001).
= 40.15,
p < .0001;
Fehlerschwerpunkte:
F (1, 6251)
= 57.53,
Tabelle 7: Mittelwerte, Standardabweichungen und Fallzahlen für Luftsprungpausen, Schriftzugpausen und NIV (Definition auf Seite 73) in Abhängigkeit vom sprachlichen Grenztyp und dem Vorhandensein eines Fehlerschwerpunktes. FehlerGrenztyp schwerpunkt B S SM
Luftsprungpausen
Schriftzugpausen
NIV
M
SD
N
M
SD
N
M
SD
N
ja
400
407
226
49
145
1724
1,80
1,05
1718
nein
288
426
500
33
105
3714
1,70
1,06
3705
ja
422
233
27
63
112
220
1,81
1,07
220
nein
360
334
48
38
83
309
1,69
0,92
309
ja
750
684
12
198
387
44
2,21
1,12
44
nein
541
460
42
65
148
246
1,96
1,18
245
Wie in Abbildung 13B (Seite 109) zu sehen ist, wirkt sich das Vorhandensein eines Fehlerschwerpunktes auf die Pausendauer während eines Schriftzuges besonders stark aus, sodass sich hieraus eine signifikante Interaktion der beiden Variablen ergibt (F (2, 6251) = 16.51, p < .0001), jedoch betreffen alle diese Fälle (wie aus Tabelle 5 auf Seite 99 ersichtlich) die graphematische Ebene und im konkreten Fall verunglückte Schreibungen des Graphems ‹qu›. Daher kann diese Interaktion nicht auf die anderen Fälle übertragen werden. Unter Berücksichtigung aller vorhandenen Fälle zeigen sich auch Effekte an der Variablen NIV (Abbildung 13C, Seite 109): für die Grenztypen hochsignifikant (F (2, 6235) = 7.32, p < .001) und für die Fehlerschwerpunkte auf 5%-Niveau (F (1, 6235) = 5.59, p < .05). Hier spielt die Interaktion wiederum keine Rolle (F < 1). Bei der genaueren Betrachtung der Abbildung 13 (Seite 109) lässt sich erkennen, dass die Spanne der Konfidenzintervalle bei allen drei untersuchten Variablen mit der Größe der sprachlichen Einheit steigt. Dies ist vor allem für den Unterschied zwischen den Grenztypen B und S interessant, da diese sich in den jeweils durchgeführten post-hoc Scheffé-Tests nicht signifikant unterscheiden. Hier wird zu prüfen sein, ob sich die Hypothese (Satz 1, Seite 70) bestätigt, dass sich die Schüler bezüglich des Aneignungsgrades der silbischen Muster unterscheiden und dieser Unterschied für die hier gefundenen Ergebnisse verantwortlich ist. Wäre dies der Fall, so sollten sich bei Schülern, die die Silbe bereits als Produktionseinheit verinnerlicht haben, an den Silbengrenzen leichte Verzögerungen zeigen. Im Gegensatz dazu sollte für Schüler, deren Aneignungsgrad noch geringer ist, kein Unterschied in der Produktionsgeschwindigkeit zwischen silbeninternen Zeichen und solchen zu Beginn einer Silbe feststellbar sein.
109
Abbildung 13: Luftsprungpausen (A), Schriftzugpausen (B) und NIV (C) in Abhängigkeit vom sprachlichen Grenztyp (B / S / SM) und dem Vorhandensein eines Fehlerschwerpunktes (ja = J / nein = N).
Eine vergleichbare Beobachtung trifft auch für die Fehlerschwerpunkte zu und könnte eine ähnliche Erklärung finden. Dort, wo Fehlerschwerpunkte liegen, steigt die Varianz, weil hier einige Schüler Schwierigkeiten haben, die zu einer Verlangsamung der Produktion führen, andere dagegen können flüssig weiterschreiben. Sollte sich der Kernsatz der Hypothese bestätigen, dann sollten diejenigen Schüler mit einem hohen Aneignungsgrad silbischer Muster mindestens bei den Fehlerschwerpunkten, die von der Silbenstruktur abhängig sind, flüssigere Produktionen aufweisen. Andersherum wären von den weniger entwickelten Schülern gerade hier stärkere Verzögerungen zu erwarten. Dort, wo innerhalb eines Wortes Silben- und Morphemgrenzen zusammenfallen (SM), sind Abhebungen (wenn sie vorkommen) fast in allen Fällen länger als an den anderen Grenztypen. Bei fünf der 23 Versuchspersonen waren die Abhebungen an den SM-Grenzen nicht die längsten, dies relativiert sich jedoch dadurch, dass in vier dieser Fälle nur eine einzige Abhebung dieses Typs vorlag. Aber auch bezüglich der Luftsprünge und der NIV stellten die SM-Grenzen in vier bzw. fünf Fällen nicht die längsten Verzögerungen. Dies betraf jedoch bei jeder betroffenen Variable andere Versuchsteilnehmer. Eine mögliche Erklärung für diese leichten Abweichungen wäre, dass – ähnlich wie bei den individuellen Unterschieden – bezüglich der Abhebungen Unterschiede bestehen, die die bevorzugte Variable
110 einer Verzögerung betreffen. Zumindest statistisch setzen sich die SM-Grenzen von den beiden anderen Buchstabengrenzen B und S in allen untersuchten Variablen ab. Der posthoc Scheffé-Test zeigte für alle Vergleiche zwischen B und SM bzw. zwischen S und SM signifikante Unterschiede. Position der Verzögerungen Bisher wurde nur die Position der sprachlichen Grenze oder des Fehlerschwerpunkts direkt untersucht oder genauer: Geprüft wurden einerseits die Luftsprünge vor dem betroffenen Zeichen und andererseits die Schreibung des Zeichens selbst. Nach dem Modell von van Galen (1991) sollten sich von höheren kognitiven Prozessen verursachte Verzögerungen im Schreibfluss jedoch ein bis zwei Buchstaben vor der eigentlichen Produktion des Zeichens zeigen. Die bisherigen Ergebnisse widersprechen dieser Vorstellung – zumindest so weit, als dass die Verzögerungen (auch) während der Produktion der betroffenen Zeichen auftreten. Um die Position der Verzögerungen einzugrenzen, wurden für die folgenden Analysen zusätzlich die jeweils zwei vorhergehenden Zeichen und – wo vorhanden – auch die Buchstabenübergänge analysiert. Für die Analyse der Luftsprungpausen wurden nur diejenigen in Betracht gezogen, die vor einem Buchstaben lagen (mit den Grenztypen B, S und SM), da Abhebungen innerhalb eines Buchstabens (BI) nie mit Fehlerschwerpunkten zusammenfielen (siehe Tabelle 6, Seite 100). Ausgeführte Buchstabenübergänge und Luftsprünge schließen sich gegenseitig aus, daher wurden bezüglich der Luftsprungpausen die beiden vorhergehenden Buchstaben (in Abbildung 14 A auf Seite 111 mit "-2" und "-1" bezeichnet) und der Zielbuchstabe (in Abbildung 14: "0") untersucht. Die vorhergehenden Buchstaben stellen eine Untergruppe der oben als Fehlertyp "N" bezeichneten Werte dar (lag zwischen zwei Fehlerschwerpunkten nur ein Buchstabe, so wurde nur dieser untersucht; Fehlerschwerpunkte zur Groß- und Kleinschreibung mussten mangels vorhergehender Zeichen ebenfalls ausgeschlossen werden). Die Luftsprungpausen vor den den Fehlerschwerpunkten vorhergehenden Buchstaben unterschieden sich signifikant von den Pausen an dieser Position (F (2, 456) = 6.031, p < .005). Ein post-hoc Scheffé-Test zeigte signifikante Unterschiede zwischen "-2" und "0" sowie zwischen "-1" und "0" (vgl. auch Abbildung 14A). Der Einfluss von Fehlerschwerpunkten auf die Dauer von Luftsprüngen zeigt sich also nur vor dem Schwerpunkt selbst. Für die Untersuchung der Pausen während der Schriftzüge und der automatisierten Ausführung anhand der Geschwindigkeitsinversionen (NIV) können auch die Buchstabenübergänge mit einbezogen werden. An den Schriftzugpausen (Abbildung 14B, Seite 111) wird sehr augenfällig der grundsätzliche Unterschied zwischen den Buchstabenübergängen und den Buchstaben selbst deutlich: Auf den Verbindungslinien zwischen den Buchstaben kommt der Stift bei den untersuchten Kindern wesentlich häufiger und länger zum Stehen als bei der eigentlichen Produktion der Buchstaben. Im direkten Vergleich aller Pausen innerhalb der Buchstaben und aller Pausen zwischen den Buchstaben zeigen sich für Letztere mehr als doppelt so lange Zeiten, was sich auch in einem hochsignifikanten Unterschied widerspiegelt: F (1, 12239) = 306.9, p < .0001 (innerhalb von Buchstaben: M: 41,0 ms;
111 SD: 123,7; N: 6256; zwischen Buchstaben M: 97,0 ms; SD: 218,9; N: 5985). Hiermit wird also das Ergebnis von Meulenbroek & van Galen (1989) bestätigt. Aufgrund dieses generellen Ergebnisses verwundert der in Abbildung 14B (Seite 111) sichtbare starke Unterschied nicht und folgerichtig zeigt die Buchstabenposition vor dem Fehlerschwerpunkt einen hoch signifikanten Effekt (F (4, 6901) = 68.17, p < .0001). Interessant ist daher vor allem der signifikante Unterschied zwischen der Position -0,5 – also dem Übergang zum Zielbuchstaben – und der Position -1,5 – dem Übergang zum vorhergehenden Buchstaben (post-hoc Scheffé-Test: p < .0001). Die stärkste Verzögerung liegt unmittelbar vor dem Fehlerschwerpunkt. Damit spricht auch die Analyse der Pausen innerhalb der Schriftzüge für zielnahe Verzögerungen.
Abbildung 14: Luftsprungpausen (A), Schriftzugpausen (B) und NIV (C) in Abhängigkeit von der Position eines Fehlerschwerpunktes (0 = Fehlerschwerpunkt; -0,5 = Übergang vom vorhergehenden Buchstaben; -1 = vorhergehender Buchstabe; -1,5 = Übergang zum vorhergehenden Buchstaben; -2 = vor-vorhergehender Buchstabe). Die Werte für die Buchstabenübergänge (-1,5 und -0,5) in B und C unterscheiden sich deutlich von denjenigen für die vorhergehenden Buchstaben (-2 und -1) bzw. den betroffenen Buchstaben selbst (0). Hier liegen also offensichtlich unterschiedliche motorische Einheiten vor.
112 Zuletzt wurde die mittlere Zahl der Geschwindigkeitsinversionen pro Strich auf Positionseffekte im Verhältnis zum Fehlerschwerpunkt überprüft (vgl. Abbildung 14C, Seite 111). Auch bezüglich der Zahl der NIV unterscheiden sich buchstabeninterne Schreibbewegungen von denen zur Verbindung zweier Buchstaben (F (1, 12217) = 92, p < .0001). Daher überrascht in dieser Analyse vor allem der relativ hohe Wert für den zweiten Buchstaben vor dem Fehlerschwerpunkt. Abgesehen hiervon unterscheidet sich der Wert für die Position -0,5 auch bezüglich der NIV von der Position -1,5 signifikant (post-hoc Scheffé-Test: p < .0001). Zusammenfassend kann also festgestellt werden, dass Verzögerungen aufgrund der Fehlerschwerpunkte in den Schreibungen hauptsächlich unmittelbar vor und während der betreffenden Buchstaben auftreten. Silbengrenzen vs. Buchstabengrenzen Aus den bisherigen Analysen gingen zwar schon einige Hinweise auf Silben als Verarbeitungseinheit hervor (wortinitial: Anzahl der Silben und Länge des Silbenanfangsrandes, wortintern: Silben+Morphem-Einheiten), im direkten Vergleich der Silben- und Buchstabengrenzen wurden jedoch keine signifikanten Unterschiede gefunden. Ein erster Hinweis könnte jedoch die größere Varianz an den Silbengrenzen sein, die möglicherweise auf Unterschiede zwischen den Versuchspersonen zurückzuführen ist. Nach der Hypothese dieser Arbeit sollten Kinder mit einem hohen Aneignungsgrad der Silbensegmentierung in gleicher Weise wie kompetente erwachsene Schreiber an Silbengrenzen Verzögerungen aufzeigen. Dementsprechend sollten sich für Kinder mit einem weniger ausgeprägten Aneignungsgrad keine oder nur vereinzelte Merkmale einer Silbensegmentierung zeigen. Ein weiterer Teil der Hypothese besagt, dass die orthographische Kompetenz vom Aneignungsgrad der Segmentierung abhängig ist, zumindest was die Bereiche Dehnung und Schärfung angeht. Aus diesem Grund wurden die teilnehmenden Kinder nach der Zahl der Fehler im Bereich Dehnung und Schärfung am Median in gute und schwache Rechtschreiber geteilt. Die Anzahl dieser Fehler lag im Mittel bei 7,39 (SD: 5,2) und reichte von 1 bis 22. Durch die Teilung unterhalb des Medianwertes von 7 ergaben sich zwei Gruppen aus 11 bzw. 12 Kindern. In einer multivariaten Varianzanalyse wurde der Einfluss der Faktoren Grenztyp (B vs. S) und Rechtschreibergebnis (gut vs. schwach) auf die drei abhängigen Variablen Luftsprungdauer, Schriftzugpausen und NIV überprüft. Der Grenztyp SM wurde hier ausgeblendet, da oben schon ausreichend Hinweise für dessen Sonderstellung bei allen Versuchspersonen gezeigt werden konnten. Des Weiteren wurden alle Fälle von der Analyse ausgenommen, in denen ein Fehlerschwerpunkt vorlag, um mögliche Interaktionen mit dem oben beschriebenen Effekt zu vermeiden. Es handelt sich also durchgängig um Fälle, bei denen weniger als drei Schreiber orthographische Probleme aufzeigten. Die Analyse zeigte jedoch für keinen der beiden Faktoren signifikante Werte, sodass die Nullhypothese zunächst beibehalten werden muss. Wie auch schon bei der ersten Analyse ist jedoch zu bedenken, dass die Fallzahlen für diese komplexe Berechnung auf den kleinsten gemeinsamen Nenner – die Anzahl der Luftsprünge – reduziert werden mussten. In unabhängigen ANOVAs mit allen jeweils vorliegenden Werten zeigen sich dagegen signifikante Effekte. In beiden Grup-
113 pen dauern die Abhebungen vor Silbengrenzen länger als vor den Buchstabengrenzen. Der Effekt ist bei den besseren Rechtschreibern stärker (Differenz: 144 ms) als bei den schwächeren Rechtschreibern (Differenz: 82 ms), aufgrund sehr hoher Varianzen und geringer Fallzahlen (24 bzw. 18 Abhebungen vor S-Grenzen) liegt er aber knapp oberhalb des 10%Niveaus und ist damit nicht signifikant (F (1, 602) = 2.61, p > .1; vgl. Abbildung 15A, Seite 113).
Abbildung 15: Luftsprungpausen (A), Schriftzugpausen (B) und NIV (C) in Abhängigkeit vom Grenztyp (B = Buchstabengrenze; S = Silbengrenze) für gute Rechtschreiber (sechs oder weniger silbenrelevante Fehler) und schwächere Rechtschreiber (sieben oder mehr Fehler). Grundlage sind Wortschreibungen ohne Fehlerschwerpunkte. Weitere Erläuterungen siehe Text.
Für den Faktor Gruppe und die Interaktion zwischen Grenztyp * Gruppe ist F < 1. Ganz ähnlich sieht das Ergebnis für die Dauer der Verzögerungen während der Schriftzüge aus. Die Pausen während der Schreibung des ersten Buchstabens einer Silbe sind für beide Gruppen im Mittel länger als für Buchstaben innerhalb von Silben. Auch hier ist der Effekt mit 14 ms für die guten Rechtschreiber größer als für die schwachen Rechtschreiber (7 ms; vgl. Abbildung 15B, Seite 113). Der Faktor Grenztyp liegt hier nur sehr knapp oberhalb des 5%-Signifikanzniveaus (F (1, 4650) = 3.603, p > .05). Der zweite Faktor Gruppe fällt schwächer aus und liegt unterhalb des 10%-Niveaus (F (1, 4650) = 2.765, p > .05). An der mittleren Anzahl der Geschwindigkeitsinversionen pro Strich (NIV) zeigt sich ebenfalls ein ähnliches Bild. Bei den schwachen Rechtschreibern findet sich zwischen Strichen im ersten
114 Buchstaben der Silbe und solchen in Buchstaben innerhalb von Silben kein nennenswerter Unterschied. Bei den besseren Rechtschreibern liegt hierfür jedoch wieder die Neigung zu leichten Verzögerungen an Silbengrenzen vor (vgl. Abbildung 15C, Seite 113). Hier ist der Unterschied zwischen den beiden Gruppen signifikant (F (1, 4643) = 6.349, p < .05), der Faktor Grenztyp jedoch nicht (F (1, 4643) = 0.606, p > .1). Bis auf die Luftsprünge sind die Ausprägungen des Faktors Grenztyp in ihrem Umfang relativ gering aber konstant vorhanden. Weiterhin auffällig ist, dass für alle drei Variablen die Varianzen an Silbengrenzen bei geringeren Fallzahlen erheblich größer sind und für beide Gruppen ähnliche Größenordnungen haben. Nach den oben berichteten Ergebnissen zur Position von Verzögerungen konnten die Buchstabenübergänge miteinbezogen werden, wodurch sich die Datengrundlage annähernd verdoppelte (vgl. Tabelle 5, Seite 99). Alle Übergänge wurden nun den jeweils folgenden Grenztypen zugeordnet. Für eine Silbengrenze wurden also untersucht: die Produktion des ersten Buchstabens der Silbe in Form von Pausen und NIV sowie (wenn gegeben) die Dauer der Abhebung vor dem Buchstaben oder alternativ die Produktion des Übergangs zum ersten Buchstaben. Es ändert sich also nur die Datenlage für die Schriftzugpausen und die NIV. Tatsächlich verändern sich die Verhältnisse durch die Hinzunahme der Buchstabenübergänge kaum. Bezüglich der Pausendauer innerhalb von Schriftzügen hat sich das Niveau erwartungsgemäß erhöht, da Buchstabenübergänge langsamer produziert werden (s.o.; gut B: 49,7 ms; gut S: 82,3 ms; schwach B: 61,5; schwach S: 97,8) und beide Faktoren zeigen nun signifikante Effekte (Grenztypen: F (1, 8932) = 28.91, p < .0001; Gruppe: F (1, 8932) = 4.544, p < .05). Dabei scheinen die schwachen Schreiber in stärkerem Maße Pausen auf die Übergänge zu legen, da sich hier der Mittelwert gegenüber den Werten für Buchstaben mehr als verdoppelt hat. Bezüglich der NIV unterscheiden sich Schreibungen im Übergang zu oder zu Beginn von Silben für beide Gruppen nicht von denen innerhalb von Silben, dabei liegen die besseren Rechtschreiber im Mittel um etwa 0,2 NIV höher. Buchstabeninterne Abhebungen Die noch nicht behandelten buchstabeninternen Abhebungen können grob unterteilt werden in Abhebungen vor Punkten für das ‹i› und die Umlaute einerseits und Abhebungen vor anderen Buchstabenteilen andererseits. An diesen Abhebungen verdeutlicht sich die Berücksichtigung der Luftsprunggeschwindigkeit: Die Wege, die der Stift in der Luft zurücklegen muss, sind für die Punkte in der Regel weiter als für andere Buchstabenteile. Bei der Betrachtung der reinen Abhebungszeit findet man, dass die Zeiten vor Punkten (M: 431; SD: 343; N: 947) länger sind als die vor Strichen (M: 308 ms; SD: 255; N: 958). Unter der oben beschriebenen Berücksichtigung der Länge der Geraden zwischen Anfangs- und Endpunkt der Abhebung und der mittleren Schreibgeschwindigkeit der Versuchsperson ergibt sich jedoch ein anderes Bild: Die Pausendauer vor Punkten ist im Schnitt negativ, d.h., die Geschwindigkeit der Luftsprünge ist größer als die der Schriftzüge des jeweiligen Kindes. Dies ist ziemlich genau bei jeder zweiten von drei Messungen der Fall (66,8%). Für die Pausendauer vor Strichen trifft dies nur für etwas mehr als die Hälfte der Fälle zu (51,1%). Für beide Typen gilt, dass längere Pausen während der Luftsprünge (> 200 ms) nur in etwa
115 10% der Fälle auftreten. Innerhalb der Gruppe der Punkte liegt der Mittelwert für i-Punkte noch einmal deutlich unterhalb dessen für Umlautpunkte (i-Punkte: M: -111; SD: 605; N: 534; Umlaut-Punkte: M: 5; SD: 412; N: 413). Die Gruppe der Abhebungen vor Strichen lässt sich noch einmal einteilen in Abhebungen innerhalb von Majuskeln und innerhalb von Minuskeln. Bei den Majuskeln fallen Schreibungen durch lange Pausen auf, bei denen der Großbuchstabe in mehr Teile zerlegt wird als üblich (z.B. ‹F› in vier Teile) oder das Graphem sehr selten vorkommt (‹Q›). Gleiches gilt auch für die Gruppe der Minuskeln (‹c› oder ‹e› zerlegt in zwei Teile; ‹w› in vier Teile). Hervorzuheben sind hier noch die häufigen und hoch automatisierten Abhebungen zum t- oder f-Strich, die sich in ähnlichen Größenordnungen wie die i-Punkte bewegen. Wie schon erwähnt, liegen abhängig von der Häufigkeit des Vorkommens einer Abhebung in etwa 10% der Fälle sehr lange Pausen (> 200 ms) vor. Aufgrund des Einzelfallstatus wäre es aber nur mit sehr viel Aufwand möglich, diese zu betrachten oder in eine Statistik zu integrieren. Die Betrachtung der Schriftzüge, die auf die beschriebenen buchstabeninternen Abhebungen folgten (bei i- und Umlautpunkten sowie den t- und f-Strichen naturgemäß sehr kurz), zeigt weder für die Pausendauer noch für die NIV nennenswerte Merkmale, die vom oben Beschriebenen abweichen. Restliche Fälle Einen ähnlichen Einzelfallstatus wie die längeren buchstabeninternen Abhebungen haben auch die nicht definierbaren Produktionen sowie die Korrekturen und Streichungen. Diese Gruppe zieht die durchschnittlich längsten Verzögerungen überhaupt nach sich. Die ersten beiden Typen lassen sich wiederum teilen in schnell und flüssig ausgeführte Striche einerseits und lang verzögerte, meist sehr stark kontrollierte Striche andererseits. Erstere treten häufig auf, wenn einzelne Striche in der Länge korrigiert werden oder bevor eine Schreibung abgebrochen wird (vgl. Beispiel unter "Grenzen der statistischen Analyse" ab Seite 97). Letztere stehen oft in Verbindung zu Rechtschreibfehlern, die nach einer längeren Pause entweder korrigiert oder produziert werden. Vor allem solche meist nicht-linearen Produktionen sind nicht in eine allgemeine Statistik einzuordnen. Wenn z.B. eine Schreiberin nach Abschluss der Schreibung von ‹Hemd› vier Sekunden zögert, um anschließend zwischen ‹m› und ‹d› noch ein ‹n› einzufügen, dann ist dies für sich gesehen ein sehr interessanter Fall, aber diese Verzögerung kann für die statistische Analyse keinem Buchstaben oder Buchstabenübergang sinnvoll zugeordnet werden.
3.2.2.4. Einzelfallbetrachtung Um die Kernhypothese der Korrelation des Aneignungsgrades silbischer Muster und orthographischer Kompetenz (Seite 70) abschließend prüfen zu können, erscheint die oben vorgenommene Aufteilung in gute und schwache Rechtschreiber nicht ausreichend. Eine einfache Übernahme der oben angewandten statistischen Methoden auf alle Einzelfälle erscheint jedoch nicht möglich. Aufgrund der schon mehrfach beschriebenen Struktur der Hand-
116 schrift und der starken individuellen Unterschiede bezüglich der Zahl der Abhebungen und der Verzögerungspositionen ist die angestrebte Korrelation über alle Einzelfälle nur über die Reduktion der Daten auf ein vergleichbares Maß möglich. Um dies zu erreichen, wurde ein Entscheidungsbaum mit binären Verzweigungen entworfen, mit dessen Hilfe die Schreibung einer jeden produzierten Einheit (automatisiert) bewertet werden konnte (siehe Abbildung 16, Seite 116). Silben- oder Buchstabengrenze Luftsprung-Pause über Grenzwert?
nein
Pause im Schriftzug über Grenzwert?
nein
NIV über Grenzwert?
ja
ja
ja
nein
Abbildung 16: Entscheidungsbaum zur Reduktion der komplexen Datenlage. Mit Hilfe des Entscheidungsbaums kann für jeden definierten Bereich entschieden werden, ob eine Verzögerung vorliegt oder nicht. Hierdurch können sehr unterschiedliche Produktionen miteinander verglichen werden.
Jeder produzierte Buchstabe und jede Buchstabenverbindung (der Typen B und S) wurde wie folgt untersucht: Wenn eine Abhebung vor der Einheit vorlag, wurde geprüft, ob diese den (oben definierten, Seite 75) Grenzwert überschritt. Wenn dies der Fall war, wurde die Einheit als verzögert gespeichert. Lag keine Abhebung vor oder war deren Dauer kürzer als der Grenzwert, so wurde geprüft, ob innerhalb des Schriftzuges eine Pause vorlag, die län-
117 ger als der (ebenfalls oben definierte, Seite 89ff.) Grenzwert dauerte. War auch dies nicht der Fall, konnte eine Einheit zuletzt über eine erhöhte Zahl von Geschwindigkeitsinversionen pro Strich (NIV > 2) als verzögert definiert werden. Nur wenn alle diese Fragen negativ beantwortet werden mussten, wurde die Einheit als verzögerungsfrei registriert. Durch die drei im Entscheidungsbaum enthaltenen Möglichkeiten war die 'Chance', für eine Einheit eine Verzögerung zu identifizieren, relativ hoch. Dies hatte zur Folge, dass zu beiden Grenztypen mehr als verzögert klassifizierte Fälle vorlagen als nicht verzögerte (B- = 3731; B+ = 4498; S- = 270; S+ = 437). Unter der Annahme, dass Verzögerungen an Silbengrenzen eine andere Qualität besitzen als Verzögerungen an Fehlerschwerpunkten, weil in letzterem Falle höhere (z.T. lexikalische) kognitive Prozesse beteiligt sind als bei der (sublexikalischen) Silbenverarbeitung, ist dieser 'Tiefpassfilter' durchaus beabsichtigt. Anders ausgedrückt: Fehler oder Fehlerschwerpunkte sollten zu längeren und auffälligeren Verzögerungen führen als die Silbensegmentierung, weil bei Fehlern eine Störung der ablaufenden Prozesse vorliegt, der Ablauf im Gegensatz dazu aber bei der Silbensegmentierung optimiert ist. Daher wurden, wie oben, alle Produktionen mit Fehlern oder an Fehlerschwerpunkten von dieser Analyse ausgenommen, um zu verhindern, dass der vermeintlich schwächere Effekt durch den stärkeren Effekt überdeckt wird. Aus der Anwendung des Entscheidungsbaums auf die Daten ergab sich für jede Versuchsperson eine 2*2 Tabelle mit gefundenen Häufigkeiten für die Grenztypen B und S und jeweils die Anzahl der mit oder ohne Verzögerung produzierten Einheiten (vgl. Abbildung 17A, Seite 118). Aus diesen 'Rohdaten' wurde dann die Vorkommenswahrscheinlichkeit (probability) für jede Zelle berechnet, indem der Inhalt der Zelle durch die Spaltensumme geteilt wurde (vgl. Abbildung 17B). Die Summe der probabilities ist in jeder Spalte 1, woraus folgt, dass 1 - p(S) als Ergebnis p(B) zurückgibt und umgekehrt. Im zweiten Schritt werden die Chancen (odds) berechnet, die das Verhältnis zwischen den Wahrscheinlichkeiten wiedergeben, ob ein Ereignis/Ergebnis eintrifft/zutrifft oder nicht. Da hier nur die Wahrscheinlichkeit des Auftretens einer Verzögerung interessierte, wurden nur diese odds für beide Grenztypen berechnet (Abbildung 17C oben). Bei Werten über 1 ist die Wahrscheinlichkeit des Eintretens größer als die des Nicht-Eintretens, unter 1 ist sie kleiner. Die interessante Frage war hier die bedingte Chance für das Eintreten einer Verzögerung an B bzw. S. Unter der Annahme, dass die betreffende Versuchsperson in einer Wiederholung des Tests in vergleichbarer Weise agieren würde, ergibt sich aus dem im Beispiel gefundenen Verhältnis von 17 : 15 für die Silbengrenzen durch die Umrechnung die Aussage, dass die Chance für eine Verzögerung um den Faktor 1,13 höher liegt als die für eine Nicht-Verzögerung. Weiter sollte dies reduziert werden auf die relative Chance, dass bei S eine Verzögerung auftritt. Dazu wurde das Chancenverhältnis (odds ratio) berechnet. Die 'odds ratio' ist das Verhältnis zweier bedingter Chancen, hier odds(S) / odds(B), siehe Abbildung 17C (Seite 118) unten. Hieraus ergibt sich im Beispiel die Aussage, dass für das betreffende Kind die Wahrscheinlichkeit einer Verzögerung an einer Silbengrenze um den Faktor 1,65 größer ist als an einer Buchstabengrenze. Dieser Wert wurde für jedes der Kinder berechnet. Werte über 1 bedeuten, dass die Wahrscheinlichkeit einer Verzögerung an S-Grenzen höher war als an B-Grenzen. Für die Weiterverwendung in statistischen Analysen ist das Chancenverhältnis (odds ratio) nicht geeignet, da keine Symmetrie der Daten vorliegt: Im
118 Falle häufigerer Verzögerungen an B-Grenzen kann die Chance nur zwischen 0 und 0,999 liegen, bei S-Grenzen aber zwischen 1,001 und Unendlich. Diese Asymmetrie wäre ein Manko bei der Bestimmung der Stärke der Effektgröße, daher werden die berechneten Werte einer mathematischen Transformation unterzogen, indem jeweils zur natürlichen Basis e logarithmiert wurde (e = Eulersche Zahl = 2,718281828459...). Das so gebildete Maß für den Aneignungsgrad der Silbensegmentierung wurde nun mit verschiedenen Maßen der orthographischen Kompetenz in Relation gesetzt. Gewählt wurde hierfür aber nicht wie oben die Summe aller Fehler im Gesamttest, sondern lediglich die Summe der Fehler mit Silbenbezug, also hier die Summe der Fehler in den Bereichen Dehnung und Schärfung.
Abbildung 17: Berechnung des Chancenverhältnisses (odds ratio; Panel C unten) aus der Anzahl der Verzögerungen (V+) und Nicht-Verzögerungen (V-) an Silben (S) und Buchstabengrenzen (B; Panel A) über die Wahrscheinlichkeit des Auftretens (probability; Panel B) und die daraus berechneten Chancen (odds; Panel C oben). Aus den gegebenen Häufigkeiten für eine Versuchsperson (hier Vp10) ergibt sich, dass die Wahrscheinlichkeit einer Verzögerung an einer S-Grenze um den Faktor 1,65 höher liegt als die für eine B-Grenze.
Ein Logit-Wert über 0 drückt aus, dass die Wahrscheinlichkeit einer Verzögerung an Silbengrenzen für die betreffende Versuchsperson größer ist als für Buchstabengrenzen (bei 20 von 23 Kindern der Fall). Der r2-Wert von .353 zeigt an, dass etwa 35% der Varianz der Logits durch die Anzahl der Fehler mit Silbenbezug erklärt wird (siehe Abbildung 18A, Seite 119; F (1, 21) = 11.48, p < .005). Würde man die Abbildung 18A in vier Quadranten teilen, so fiele auf, dass die beiden Quadranten rechts oben und links unten so gut wie nicht belegt sind. Grob vereinfacht heißt dies, dass die hier untersuchten Kinder entweder an Silbengrenzen relativ häufig eine verzögerte Schreibung zeigten und gleichzeitig zu den besseren Rechtschreibern zählten oder hinsichtlich der Verteilung der Verzögerungen keinen oder kaum einen Unterschied zwischen Silben- und Buchstabengrenzen zeigten und gleichzeitig zu den schwächeren Rechtschreibern zählten. Eine in der vorgefundenen Effektgröße nicht erwartete Differenzierung des Ergebnisses ergibt sich, wenn die Fehler in die beiden Bereiche Dehnung und Schärfung getrennt werden. Die Korrelation zwischen der relativen Häufigkeit von Unterbrechungen an Silbengrenzen und der Zahl der Schärfungsfehler ist mit einem r2-Wert von .537 (F (1, 21) = 24.404, p < .0001) recht ausgeprägt – mehr als die Hälfte der Varianz der Logits erklärt sich aus der Anzahl der Schärfungsfehler. Für die Korrelation mit der Anzahl der Dehnungsfehler dagegen ergibt sich kein signifikanter pWert, wenn auch nur knapp (r2 = .148; F (1, 21) = 3.65, p = .07).
119
Abbildung 18: Korrelation zwischen dem als Logit ausgedrückten Aneignungsgrad der Silbensegmentierung (Erläuterungen im Text) und der Summe der orthographischen Fehler mit Silbenbezug (Schärfungs- und Dehnungsfehler) (A), der Summe der Schärfungsfehler (B) und der Summe der Dehnungsfehler (C).
Unklare Silbengrenzen Für die Untersuchung der unklaren Silbengrenzen wurde dieselbe Datenbasis verwendet wie zur Bestimmung des Aneignungsgrades der Silbensegmentierung (unter Verwendung des Entscheidungsbaums in Abbildung 16, Seite 116). Wie oben schon beschrieben wurden im Falle einer unklaren Silbengrenze jeweils das erste und das zweite Element annotiert (z.B. das erste Konsonantgraphem des ‹nn› in ‹donnern› als K1, das zweite als K2), sodass eine getrennte Auswertung möglich wurde. Drei Wörter im Test enthielten ein ‹ck› intervokalisch nach kurzem Vokal in betonter Silbe: ‹Glocke›, ‹knicken› und ‹schlucken›. Verglichen wurde hier für alle drei Wörter die Chance einer verzögerten Produktion für das ‹c› mit der für das ‹k›. Insgesamt traten in 80 von 106 (Teil-)Schreibungen des ‹c› Verzögerungen auf und in 81 von 112 (Teil-)Schreibungen des ‹k› (zum hoch erscheinenden Anteil verzögerter Schreibungen vgl. die Ausführungen auf Seite f.). Dies entspricht einer Chance von 3,08 für das ‹c› und 2,61 für das ‹k›. In Prozenten ausgedrückt liegt für ‹c› in 75,5% und für ‹k› in 72,3% eine Verzögerung vor. Für beide Zeichen ist das Auftreten einer verzögerten Produktion also unge-
120 fähr gleich häufig. Dies ist aber weder über die Wörter noch über die Versuchspersonen konstant. Zehn Kinder zeigen eher im ‹k› eine Verzögerung als im ‹c›, bei sieben Kindern ist es umgekehrt und bei weiteren sechs Kindern treten in beiden Zeichen gleich häufig Verzögerungen auf. Ein Zusammenhang mit der Rechtschreibleistung besteht nicht. Im Wort ‹Glocke› wird sehr viel häufiger im ‹c› verzögert als im ‹k›, für ‹knicken› ist die Bilanz genau ausgeglichen und in ‹schlucken› verzögern die Kinder eher im ‹k›. Klarer sind die Verhältnisse in den drei Wörtern mit ‹pf›: ‹Gipfel›, ‹impfen›, ‹kämpfen›. Die Erwartung eines Unterschieds zwischen offenen und geschlossenen Silben bestätigte sich nicht. In allen drei Wörtern ist die Chance einer Verzögerung vor oder während des ‹p› größer als vor oder während des ‹f›, in ‹Gipfel› und ‹impfen› jedoch stärker als in ‹kämpfen›. Vierzehn Kinder verzögerten häufiger vor ‹p› als vor ‹f›, bei sieben Kindern unterschied sich die Anzahl nicht und nur bei zwei Kindern war die Anzahl der Verzögerungen vor ‹f› knapp häufiger als vor ‹p›. Der genau umgekehrte Fall liegt bei ‹tz› in ‹spritzen› und ‹kratzen› vor: Hier finden sich in beiden Wörtern Verzögerungen eher im Übergang zum und innerhalb des ‹z› (vierzehn Schreiber) als im ‹t› (drei Schreiber); bei den restlichen sechs Schreibern findet sich kein Unterschied. Zuletzt wurden alle Silbengelenke mit verdoppelten Konsonantgraphemen in den Wörtern ‹billig›, ‹donnern›, ‹hoffen›, ‹müssen›, ‹passen› und ‹verschlimmert› untersucht. In vier der sechs Wörter wurde häufiger während der Schreibung des zweiten Konsonantgraphems verzögert, in zwei Wörtern (‹donnern›, ‹hoffen›) eher während des ersten. Hier zeigt sich bei den besseren Rechtschreibern (bezogen auf die Gesamtfehlerzahl) häufiger die Tendenz zur Verzögerung im zweiten Konsonanten als bei den schwächeren, dies ist allerdings nicht durchgängig der Fall.
3.2.3.
Diskussion
Tatsächlich oder 'beinahe' aufgetretene Fehler können im einen Extrem dazu führen, dass die Produktion für einen längeren Zeitraum abgebrochen wird, oder im anderen Extrem keinen Einfluss auf den dynamischen Verlauf der Schreibung zeigen. Im ersten Fall kann man sicher davon ausgehen, dass ein bewusster Entscheidungsprozess stattgefunden hat, in letzterem Falle hat genau dieser nicht stattgefunden. Gäbe es außer den beiden Extremen keine Zwischenstufen, dann wäre die Analyse relativ einfach und die Auswirkungen orthographischer Schwierigkeiten ließen sich gut von den Auswirkungen der Silbensegmentierung abgrenzen. Da lexikalisch-orthographische Repräsentationen aber nicht entweder vorhanden sind oder nicht, sondern vielmehr nach und nach stabiler werden (vgl. Kapitel 4.4. Verbales Arbeitsgedächtnis und der Aufbau orthographischer Repräsentationen, Seite 131ff.), können die Auswirkungen auf die Dynamik der Produktion entsprechend unterschiedlich ausfallen, genau wie die Grenze zwischen bewusster und unbewusster Entscheidung fließend verlaufen kann. Silbensegmentierungen hingegen sollten sich nur innerhalb gewisser Größenordnungen abspielen: Da hier angenommen wird, dass die Silbensegmentierung eine Optimierung der Produktion darstellt, wie sie bei kompetenten Schreibern vorzufinden ist, dürften die durch sie hervorgerufenen Verzögerungen in der Produktion nicht zu Unterbre-
121 chungen führen, sondern eben 'nur' zu Segmentierungen. Dies führt dazu, dass die beiden qualitativ sehr unterschiedlichen Ursachen zu quantitativ vergleichbaren Auswirkungen führen können. Diese Unklarheit lässt sich allerdings aufklären, wenn Daten mit vier verschiedenen Bedingungen vorliegen, nämlich Silbengrenzen mit und ohne Fehlerschwerpunkten sowie silbeninterne Buchstabengrenzen mit und ohne Fehlerschwerpunkten. Aus dem Vergleich dieser vier Bedingungen lassen sich die jeweiligen Effekte und mögliche Interaktionen ableiten, wie oben gezeigt. Zunächst sollen aber die Ergebnisse diskutiert werden, die sich aus der Analyse der wortinitialen Latenzen ergeben haben. Hier finden sich sowohl Auswirkungen von Fehlern und Fehlerschwerpunkten zu Beginn des Wortes als auch von Fehlern, die erst im weiteren Verlauf des Wortes produziert werden. Betrachtet man die Ergebnisse für die wortinternen Schreibungen, so sind die 'lokalen' Effekte nicht weiter verwunderlich – Fehler führen in den meisten Fällen zu Verzögerungen in der Produktion und zwar zum größten Teil an der Position, an der der Fehler im Wort liegt. Interessanter sind hier die Effekte, die sich auf Eigenschaften des gesamten Wortes beziehen und deren Ursache in vielen Fällen beim Zugriff auf das Orthographische Lexikon zu suchen ist: Wenn ein Fehler, der erst in der weiteren Produktion des Wortes auftritt, zu längeren wortinitialen Latenzen führt, dann lässt sich dies sehr gut mit einer noch nicht voll spezifizierten lexikalischen Repräsentation begründen. Ob die Verzögerung direkt beim Abruf entsteht oder erst bei der Weiterverarbeitung der vom Lexikon gelieferten Information sei dahingestellt – zumindest zeigt sie sich noch vor Beginn der Produktion. Ist dies bei vielen Wörtern der Fall, so führt dies einerseits durch die verursachten Verzögerungen zu einer erhöhten mittleren initialen Latenz und erhöht andererseits die Wahrscheinlichkeit des Auftretens von Fehlern. Dieser Zusammenhang wird sehr deutlich in der Korrelation zwischen der Fehlersumme und der mittleren initialen Latenz (vgl. Abbildung 10 auf Seite 103). Hieraus kann aber nicht geschlossen werden, dass die gesamte Schreibung des Wortes zu Beginn schon vollständig geplant sei. Vielmehr bilden lexikalische Einheiten wie Grundmorpheme und sublexikalische Suprasegmente wie Silben Verarbeitungseinheiten zwischen dem Wort- und dem Graphemlevel, die zu Wortbeginn noch nicht voll spezifiziert sind, sondern sukzessive abgearbeitet werden (vgl. hierzu ausführlich Kap. 2.3.4 Konstituentenmodell der schriftlichen Sprachproduktion). Diese Sicht würde den gefundenen Effekt der Anzahl der Silben eines Wortes auf die initiale Latenz erklären. Im Gegensatz zur mündlichen Sprachproduktion, bei der die Reaktionszeit mit steigender Silbenzahl zunimmt (Santiago et al., 2000; Sternberg et al., 1978), wurden hier die Ergebnisse von Will et al. (2003), nach denen die initiale Latenz der schriftlichen Wortproduktion mit steigender Silbenzahl abnimmt, auch für Schreiblerner bestätigt. Dieses auf den ersten Blick überraschende Ergebnis könnte der langsameren Produktionsgeschwindigkeit geschuldet sein, die möglicherweise dazu führt, dass ein Teil der 'Arbeit' zu Beginn eines Wortes auf die späteren Silbengrenzen verteilt werden kann. Mit der Länge des Silbenanfangsrandes steigert sich sowohl in der mündlichen (Santiago et al., 2000) als auch in der schriftlichen Sprachproduktion (Will et al., 2006) die Reaktionszeit. Im schriftlichen Modus nimmt die initiale Latenz aber bei Anfangsrändern mit mehr als zwei Segmenten wieder ab. Dieses Ergebnis aus der Tastaturschrift von Will et al.
122 (2006) wurde hier bestätigt (mit dem Unterschied, dass dort wortinterne Silbengrenzen betrachtet wurden und hier wortinitiale). Die Vermutung, dass Grapheme und nicht die Buchstaben hier die entscheidende Größe darstellen, können die hier gefundenen Effekte nicht erklären: Auch Kombinationen des Trigraphems ‹sch› mit einem weiteren Konsonanten werden signifikant schneller initiiert als andere zweigliedrige Onsets. Möglicherweise tritt hier auf einer niedrigeren Stufe der gleiche Effekt ein wie oben: Zeitkritische Belastungen für vielgliedrige Elemente werden teilweise vom Beginn auf die folgenden Elemente verlagert. Ein weiterer Unterschied zwischen den verschiedenen wortinitial auftretenden Effekten ist der, dass sich die silbenbezogenen Eigenschaften des Wortes auch in Form von Verzögerungen im Schriftzug und im Schreibfluss äußern, Fehler aber nur Effekte auf die initiale Latenz haben. Dies spricht dafür, dass die Prozesse, die zu letzteren Effekten führen (Lexikonzugriff oder Verarbeitung der lexikalischen Information), zu Beginn der Schreibung abgeschlossen sind, die silbischen Prozesse aber noch während der aktuellen Produktion ablaufen. Diese Erklärung würde gut in das Bild der Trennung lexikalischer und sublexikalischer Prozesse passen. Es kann also konstatiert werden, dass sich bei den untersuchten Schreibern bereits an der initialen Latenz Effekte der Silbenstruktur des Wortes zeigen. Wortintern konnte die oben bereits andiskutierte Unterscheidung zwischen Verzögerungen aufgrund von Fehlern und Verzögerungen aufgrund der Silbensegmentierung vorgenommen werden. Für die Interaktion zwischen den Faktoren 'Grenztyp' und 'Fehlerschwerpunkt' wurden weder in einer multivariaten noch in univariaten Varianzanalysen signifikante Werte gefunden, sodass der jeweilige Einfluss isoliert untersucht werden konnte. Es zeigten sich signifikante Effekte für beide Faktoren auf alle drei untersuchten Variablen: die Dauer von Abhebungen, die Dauer von Pausen innerhalb der Schriftzüge und den Schreibfluss (gemessen als Anzahl der Geschwindigkeitsinversionen pro Strich = NIV). An den so genannten SM-Grenzen, zu denen Silben- und Morphemgrenzen zusammenfallen, zeigten sich über alle Variablen hinweg besonders starke Effekte. Dies bestätigen die Befunde aus Nottbusch et al. (1998) und Weingarten (1998) und dies wird im Modell von Weingarten et al. (2004) mit wortinternen lexikalischen Zugriffen erklärt. Da die Zahl dieser Grenzen im untersuchten Wortmaterial relativ gering war und schon der Einfluss der Wortfrequenz auf die initiale Latenz zu inkonsistenten Ergebnissen geführt hatte, konnte keine sinnvolle Analyse eines Wortfrequenzeffektes durchgeführt werden. Für die Überprüfung der Hypothese dieser Arbeit spielen die SM-Grenzen jedoch nur eine sehr untergeordnete Rolle. Festgehalten werden kann aber, dass bei allen Kindern an mindestens einer der untersuchten Variablen starke Effekte für diesen Grenztyp gefunden wurden und er sich signifikant von den anderen wortinternen Grenztypen unterscheidet. Im Vergleich der Schreibungen der Buchstaben mit den Schreibungen der Verbindungsstriche zwischen den Buchstaben fanden sich große Unterschiede. Hiermit wird das Ergebnis von Meulenbroek & van Galen (1989) bestätigt. Gleichzeitig bestärkt dieses Ergebnis den Schluss, dass die Planung des zu schreibenden Elementes zeitlich in unmittelbarer Nähe zu diesem erfolgt. Dies wurde anhand der Fehlerschwerpunkte genauer untersucht. In allen drei beobachteten Variablen (den Luftsprüngen vor dem jeweiligen Zeichen, den Verzögerungen innerhalb des Schriftzuges und der Anzahl der Geschwindigkeitsinversionen
123 während der Produktion des Zeichens) zeigten sich Verzögerungen beinahe ausschließlich direkt vor (im Luftsprung vor oder im Übergang zum betreffenden Zeichen) oder im Zeichen selbst (vgl. Abbildung 14, Seite 111). Somit konnte der zu beobachtende Bereich für die folgenden Analysen eingeschränkt werden. Bezüglich der Silbengrenzen hatten sich im direkten Vergleich mit den silbeninternen Buchstabengrenzen keine signifikanten Unterschiede gezeigt, jedoch fanden sich an den Silbengrenzen stärkere Varianzen, was darauf schließen ließ, dass hier innerhalb der Gruppe individuelle Unterschiede vorlagen. Daher wurde die Gruppe anhand der Zahl der Fehler mit Bezug zur Silbenstruktur des Wortes in gute und schwache Rechtschreiber aufgeteilt. Darüber hinaus wurden die Fälle, bei denen ein Fehlerschwerpunkt vorlag, ausgeschlossen, um diesen Faktor zu vermeiden. Bei allen Schreibern waren sowohl die Dauer der Abhebungen als auch die Dauer der Verzögerungen während der Schriftzüge vor und an Silbengrenzen länger als silbenintern. Bei den besseren Rechtschreibern lagen im Mittel größere Unterschiede zwischen den Silben- und Buchstabengrenzen vor als bei den schwächeren (vgl. Abbildung 15, Seite 113), jedoch verfehlten alle diese Unterschiede (nicht zuletzt aufgrund geringer Fallzahlen) knapp die statistische Signifikanz. Dies änderte sich durch die Hinzunahme der Buchstabenübergänge, die dem jeweiligen Zielbuchstaben unmittelbar vorausgingen. Wie oben diskutiert, treten Verzögerungen nicht nur innerhalb des jeweiligen Zielbuchstabens, sondern auch davor auf. Auf Grundlage dieser erweiterten Datenbasis zeigte sich an den Pausen innerhalb der Schriftzüge sowohl ein signifikanter Effekt des vorliegenden Grenztyps als auch der orthographischen Kompetenz. Es kann also festgehalten werden, dass für beide Gruppen Unterschiede zwischen den Verzögerungen an Silbengrenzen und silbeninternen Grenzen vorliegen, diese aber bei den besseren Rechtschreibern stärker ausgeprägt sind. Für die Einzelfallanalyse, die über die Aufteilung in gute und schwache Rechtschreiber hinausgehen sollte, mussten die drei bisher betrachteten Variablen in ein für alle Fälle vergleichbares Maß transformiert werden. Dies geschah mit Hilfe eines binär verzweigten Entscheidungsbaums (vgl. Abbildung 16, Seite 116). So entstand für jede Schreibung einer Silben- oder Buchstabengrenze jedes Kindes ein boolescher Wert, d.h., entweder eine 1 für die Ausprägung WAHR (Verzögerung liegt vor) oder eine 0 für die Ausprägung FALSCH (keine Verzögerung). Aus den Werten in den oben schon einmal angesprochenen vier Feldern mit den Bedingungen Silbengrenze/Buchstabengrenze * Verzögerung wahr/falsch (vgl. Abbildung 17, Seite 118) konnte nun für jedes Kind der in Satz 1 der Hypothese beschriebene Aneignungsgrad der Silbensegmentierung als ein numerischer Wert (das Chancenverhältnis) dargestellt werden. Für die weitere statistische Verwendung dieses Kennwertes wurde eine Logarithmierung (Logits) vorgenommen. In Satz 3 der Hypothese wurde ein Zusammenhang zwischen der orthographischen Kompetenz und dem Aneignungsgrad der Silbensegmentierung postuliert. Dieser Zusammenhang macht natürlich nur dort Sinn, wo sich die Orthographie an der Silbenstruktur orientiert. Dies sind im Deutschen vor allem die beiden Bereiche der Dehnung und Schärfung. Zur Überprüfung der Hypothese wurde der Korrelationskoeffizient zwischen der Anzahl der Fehler in den beiden genannten Bereichen und dem Kennwert des Aneignungsgrades der Silbensegmentierung über alle Kinder berechnet. Es zeigte sich eine hochsignifikante
124 Korrelation, in der etwa 35% der Varianz des Kennwertes durch die Anzahl der Fehler mit Silbenbezug erklärt wird (siehe Abbildung 18, Seite 119). Dieser Wert steigerte sich sogar auf über 50%, wenn nur die Anzahl der Schärfungsfehler betrachtet wurde, fiel dagegen aber auf nicht mehr signifikante 15%, wenn nur die Anzahl der Dehnungsfehler in die Rechnung einfloss. Dies ist ein deutlicher Hinweis auf unterschiedliche Prozesse, die bei der Schärfungsschreibung einerseits und der Dehnungsschreibung andererseits beteiligt sind. Nur bei der Schärfungsschreibung zeigt sich ein signifikanter Vorteil, wenn das betreffende Kind seine Schreibungen silbisch segmentiert (zur Diskussion siehe Seite 144ff.). Die Betrachtung der unklaren Silbengrenzen ergab kein konsistentes Bild. Es bestätigten sich die bei erwachsenen Schreibern gefundenen Tendenzen, dass im Falle unklarer Silbengrenzen individuell unterschiedliche Lösungen gefunden wurden (Nottbusch & Weingarten, 2002). In der genannten Untersuchung zeigten jeweils etwa die Hälfte der Schreiber bei den Wörtern ‹Wüste›, ‹Küste› und ‹Kanne› längere Verzögerungen vor dem ‹s› bzw. dem ersten ‹n›, während die andere Hälfte erst vor dem folgenden Buchstaben segmentierte. Bei den hier untersuchten Kindern kam hinzu, dass selbst in mehreren Schreibungen desselben Kindes unterschiedliche Segmentierungen vorkamen, sich hier also noch keine Stabilität eingestellt hat. Da die Fallzahlen in der oben genannten Studie aber sehr gering waren, können solche Instabiliäten auch für erwachsene Schreiber nicht ausgeschlossen werden. Eine gründliche Untersuchung, die alle Feinheiten und Kombinationsmöglichkeiten von offenen und geschlossenen, betonten und unbetonten Silben, einfachen und komplexen Anfangsrändern usw. in Betracht zieht, steht noch aus. Als Fazit aus diesen Ergebnissen kann die aufgestellte Hypothese als insgesamt bestätigt angesehen werden. Dies manifestiert sich in dem in Abbildung 18B (Seite 119) offensichtlichen Zusammenhang zwischen dem Aneignungsgrad der Silbensegmentierung und der Zahl der Fehler, die an der Silbenstruktur orientiert sind. Die entwickelte Methode ermöglicht die Bestimmung des Fortschrittes, den ein Kind auf dem Weg zum kompetenten Schreiben in Bezug auf die Silbensegmentierung schon absolviert hat, und ist daher als Diagnosemethode geeignet.
4.
Der Aufbau orthographischer Repräsentationen und das verbale Arbeitsgedächtnis
Um im Folgenden auf den Einfluss des verbalen Arbeitsgedächtnisses auf den Aufbau orthographischer Repräsentationen eingehen zu können, soll Letzterer zunächst näher betrachtet werden. Die Frage lautet: Wie wird ein Wort in das orthographische Lexikon eingespeichert (enkodiert)? Im Anschluss soll dann diskutiert werden, welche Rolle das verbale Arbeitsgedächtnis bei der Enkodierung orthographischer Repräsentationen spielt. Dazu bedarf es zunächst einer Klärung, was das verbale Arbeitsgedächtnis eigentlich ist, wie es aufgebaut ist und welche Teile für diese Untersuchung interessant sind. Im Anschluss soll der Einfluss des verbalen Arbeitsgedächtnisses auf den generellen Aufbau des Wortschatzes diskutiert werden und schließlich auf die Besonderheiten der orthographischen Repräsentationen eingegangen werden. Bevor über die durchgeführte Untersuchung berichtet wird, sollen verschiedene Möglichkeiten der Messung der Spanne des verbalen Arbeitsgedächtnisses und ihre Reliabilität im Zusammenhang mit den vorliegenden Experimenten diskutiert werden.
4.1.
Enkodierung im orthographischen Lexikon
In den klassischen Stufenmodellen des Schriftspracherwerbs (Ehri, 1991; Frith, 1985; Seymour, 1997) stellt die alphabetische Strategie den wichtigsten Schritt auf dem Weg zum Aufbau orthographischer Repräsentationen dar. Über die Anwendung von Graphem-Phonem-Korrespondenzen während des Erlesens eines Wortes (auch alphabetisches oder lautierendes Lesen) wird das Enkodieren ermöglicht. In allen drei genannten Modellen wird die Reihenfolge des Erwerbs betont, d.h., die sichere Anwendung der alphabetischen Strategie wird als Voraussetzung für die Entwicklung orthographischer Repräsentationen betrachtet. Andere Autoren stellen diese serielle Abfolge der Stufen in Frage und postulieren stattdessen eine parallele, sich wechselseitig beeinflussende Entwicklung der alphabetischen und orthographischen Strategien (Lennox & Siegel, 1994; Martinet, Valdois & Fayol, 2004; Rittle-Johnson & Siegler, 1999). So zeigten die untersuchten Erstklässler in der Untersuchung von Martinet et al. (2004) bereits nach nur drei Monaten Unterricht Frequenzeffekte bezüglich irregulärer Graphemverbindungen und Analogieeffekte bei der Schreibung von Pseudowörtern. Die Autoren schließen hieraus, dass auch schon in diesem frühen Stadium des Schriftspracherwerbs zumindest Spuren orthographischer Repräsentationen eingespeichert werden und sich somit lexikalisches Wissen und Wissen über die Graphem-PhonemKorrespondenzen simultan entwickeln.
126 Unterstützt wird diese Sichtweise durch konnektionistische Modelle wie z.B. bei LaBerge & Samuels (1974) oder Seidenberg & McClelland (1984), nach denen sich jede Verbindung, die ein Leser zwischen Zeichen und Lauten oder einer Bedeutung herstellt, auf deren Repräsentation niederschlägt, d.h., jeder Leseversuch ist gleichzeitig ein Leselernversuch und führt zu einer Modifikation der bestehenden Repräsentation. In ähnlicher Weise steht der Erwerb einzelner Wörter in den Modellen von Perfetti (1992) und vor allem beim Self-teaching-Modell von Share (1995, 1999; Share & Shalev, 2004) im Vordergrund. Shares Hypothese zufolge werden unvertraute Wörter phonologisch rekodiert (Graphem-Phonem-Konversion) und das Ergebnis wird der wortspezifischen orthographischen Repräsentation hinzugefügt (Selbstorganisation des Lexikons). Untersuchungen des Hebräischen mit Schülern der zweiten Klasse (Share, 1999) zeigten, dass schon relativ wenige erfolgreiche Versuche für den Aufbau einer Repräsentation ausreichten. Die Schüler speicherten die Schreibung von Pseudowörtern nach vier- bis sechsmaligem lautem Lesen, sodass sie die gleichen Wörter drei Tage später zum Großteil aus verschiedenen homophonen Schreibungen auswählen konnten. Der Effekt war schwächer, wenn die Wörter nur gelesen, aber nicht laut gesprochen wurden. Versuche unter der Bedingung rein visueller Wahrnehmung (sinnlose Zeichenkombinationen) führten nicht zu vergleichbaren Ergebnissen. Der Autor folgerte, dass die Entwicklung orthographischer Repräsentationen hauptsächlich aus der phonologischen Rekodierung resultiert und so einerseits wortspezifisches, lexikalisches Wissen und andererseits generelles orthographisches Wissen aufgebaut wird. Vertraute Wörter hingegen werden nach Shares Meinung als visuell-lexikalische Einheiten gelesen. Shares Ergebnisse konnten inzwischen auch für das Englische repliziert werden (Cunningham, Perry, Stanovich & Share, 2002). Trotz dieser überzeugenden Resultate erscheint es allerdings fraglich, ob auf die Zwischenstufe mittlerer Einheiten völlig verzichtet werden kann. Nach Ehri (1991) stellen die Verarbeitungseinheiten auch im Stadium der Automatisation eine zerlegbare, statt eine visuell-lexikalische Einheit dar. Gestützt wird diese Annahme durch verschiedene Untersuchungen, die einen silbischen Einfluss auf das phonologische Rekodieren nachweisen konnten (ein Überblick bei: Wentink et al., 1997; Landerl & Wimmer, 1998). Demnach scheinen kompetente Leser mehrsilbige Wörter in Silbeneinheiten zu parsen. Diese Kompetenz bildet sich erst im Verlauf des Leseerwerbs heraus. In der Studie von Wentink et al. (1997) nutzten Leseanfänger des Holländischen ausschließlich die Graphem-Phonem-Konversion zur Dekodierung unbekannter Wörter, dagegen waren Kinder der sechsten Klasse (in ähnlicher Weise wie Erwachsene) in der Lage, auf Silbenebene zu dekodieren. Das Rekodieren auf Silbenebene bringt den Vorteil mit sich, dass mehr Information pro phonologischer Einheit kodiert werden kann als bei der reinen Graphem-Phonem-Konversion. Der Gegensatz der beiden genannten Positionen, serieller Ablauf und damit später Einsatz der orthographischen Strategie vs. parallele Entwicklung mit frühem Einsatz lexikalischer Repräsentationen, ist weniger ausgeprägt als es zunächst den Anschein hat. Als sicher kann gelten, dass ein neues Wort, bevor seine orthographische Repräsentation aufgebaut werden kann, zunächst einer Analyse unterzogen werden muss. Diese kann einerseits darin bestehen, dass die vorhandenen graphematischen Segmente (Grapheme und/oder Silben) in phonologische Segmente übersetzt werden und sukzessive zum ganzen Wort zusammenge-
127 setzt werden. Andererseits kann eine Analogie zu einem bereits bekannten Wort um die abweichenden Teile ergänzt werden. Dieser Aspekt ist sowohl in Stufenmodellen als auch in den konnektionistischen Modellen enthalten. Auch in den Weiterentwicklungen des Stufenmodells von Frith (1985) für das Deutsche (Eichler, 1986; Scheerer-Neumann, 1996, 1998) wird die strikte Serialität der Prozesse zurückgewiesen. Eichler (1986: 239) spricht von »hierarchischer Parallelität«. Die Sichtweise der orthographischen Strategie ist hier um Besonderheiten der deutschen Orthographie erweitert. Als hierarchisch werden somit aufeinander aufbauende orthographisch/morphematische Strategien betrachtet (z.B. wird die korrekte Verschriftung der Reduktionssilben /-ən/, /-ṇ/ oder /-ɐ/ durch ‹-en› und ‹-er› meist eher erlernt als etwa die Morphemkonstanz, vgl. hierzu auch Eichler & Thomé, 1995; Thomé, 1999). Die Entwicklung der alphabetischen Strategie und der Aufbau orthographischer Repräsentationen hingegen wird als paralleler Prozess betrachtet. Bei Scheerer-Neumann (1998) wird diese Trennung auch visuell deutlich durch die zweispaltige Anordnung ihres Stufenmodells: Auf der einen Seite stehen die (gegenüber dem Modell von Frith (1985) erweiterten) Stufen der alphabetischen/ lautorientierten Strategie (beginnend, entfaltet und voll entfaltet) und der orthographischen Strategie (steigende Zahl von Korrekturen durch orthographische Muster und Regelmäßigkeiten), die ausdrücklich auch parallel verlaufen können. Auf der anderen Seite stehen die Lernwörter, also abrufbare orthographische Repräsentationen, deren Zahl mit erleichtertem Erwerb stark zunimmt. Ein wichtiger Punkt ist hier die Qualität der orthographischen Repräsentation, die auch im Hinblick auf die unterschiedlichen Abrufprozesse der Rezeption und der Produktion von besonderer Bedeutung ist. Reicht für das Lesen eine eher ungenaue Repräsentation, so muss diese für das Schreiben eines Wortes sehr viel spezifizierter sein. Hieraus folgt auch, dass die Rezeption und die Produktion auf teilweise unterschiedlichen Analogiebildungen und Regularitäten aufbauen. Auf diese Unterschiede wird weiter unten nochmals eingegangen werden.
4.2.
Aufbau des verbalen Arbeitsgedächtnisses
Das Konzept des Working Memory (Arbeitsgedächtnis) wurde 1974 von Baddeley & Hitch entwickelt. Im Zentrum des Modells steht die so genannte central executive, die für den Informationsfluss und seine Verarbeitung innerhalb des Systems zuständig ist. Flankiert wird die zentrale Exekutive von den beiden Subsystemen phonological loop und visuo-spatial sketchpad. Das Letztere ist spezialisiert auf die Verarbeitung und Aufrechterhaltung visuell-räumlicher Information; die Funktion der phonologischen Schleife bezieht sich auf akustisch-phonologische Information. Um diese Aufgabe erfüllen zu können, ist die phonologische Schleife wiederum in zwei Einheiten unterteilt: den phonologischen Speicher (phonological short term store) und die subvokale Artikulation (subvocal rehearsal). Letztere dient im Modell von Baddeley & Hitch (1974) dazu, einerseits nicht-phonologisches
128 Material, wie z.B. geschriebene Wörter, zunächst durch einen subvokalen (nicht hörbaren) artikulatorischen Prozess in eine für den phonologischen Speicher verarbeitbare Form zu bringen. Andererseits dient die subvokale Artikulation dazu, die Informationen im flüchtigen phonologischen Speicher wieder aufzufrischen. Sprachliches Material, das bereits in phonologischer Form aufgenommen wird, gelangt sofort in den phonologischen Speicher. Letztere Annahme wird unterstützt durch Experimente, in denen Versuchspersonen während einer Gedächtnisaufgabe durch irrelevante verbale Information beeinträchtigt wurden (Salamé & Baddeley, 1982). Entscheidend war dabei der Grad der phonologischen Übereinstimmung zwischen den Zielworten und der irrelevanten Information, der einen signifikanten Einfluss zeigte, d.h., ähnliche phonologische Information wirkte sich störender auf die Leistung in der Gedächtnisaufgabe aus als abweichende. Hieraus folgt, dass der phonologische Speicher auch unabhängig von der subvokalen Artikulation angesteuert werden kann. Aufgrund von Beobachtungen an Versuchspersonen, die neben einer Gedächtnisaufgabe gleichzeitig eine zweite Aufgabe erfüllen sollten (dual-task), kamen Baddeley & Hitch (1974) zu dem Schluss, dass die Kapazität der zentralen Exekutive begrenzt sein müsse (vgl. Seite 69). Demzufolge fällt die Ausführung bestimmter Teilleistungen schwächer aus, je größer/stärker die Konkurrenz anderer Teilleistungen um die begrenzten Ressourcen ist. Eine Steigerung der Effizienz der einzelnen Teilleistungen (zum größten Teil durch Automatisierung) ermöglicht eine insgesamt geringere Kapazitätsbelastung, die wiederum zu besseren Gesamtleistungen führt. Als Beispiel für den Einfluss der Qualität der Prozesse auf die Kapazität des Gedächtnisses nennen Gathercole & Baddeley (1993) die Artikulationsgeschwindigkeit. Die Zuwächse der Gedächtnisspanne, die sich mit fortschreitendem Alter einstellen, können größtenteils durch die Entwicklung der Artikulationsgeschwindigkeit erklärt werden. Als Artikulationsrate wird hier die Geschwindigkeit der Wiederauffrischung der Information in der artikulatorischen Schleife (phonological loop) verstanden. Generell wird unterschieden zwischen der einfachen Speicherung im verbalen Kurzzeitgedächtnis (immediate short term memory) und der komplexen Speicherung und Verarbeitung im verbalen Arbeitsgedächtnis (Baddeley & Hitch, 1974; Cantor, Engle & Hamilton, 1991; Daneman & Carpenter, 1980; Swanson & Berninger, 1996). Je nach Aufgabentyp sind unterschiedliche Teile des verbalen Gedächtnisses gefordert. Das phonologische/verbale Kurzzeitgedächtnis wird an Aufgaben gemessen, in denen eine Liste von Items für einen kurzen Zeitraum behalten und anschließend unverändert wiedergegeben werden soll. Messungen, die eher dem Arbeitsgedächtnis zugeschrieben werden, bestehen dagegen meist aus einer Gedächtnisaufgabe, die mit einer weiteren Aufgabe kombiniert wird. Bei Messungen des Kurzeitgedächtnisses neigen Versuchspersonen dazu, eher einfache Strategien wie das Rehearsal zu verwenden, die für komplexere Aufgaben eine eher geringe Rolle spielen (vgl. Cantor et al., 1991: 232). Die gegenseitige Abhängigkeit der beteiligten Prozesse ist umstritten (für einen Überblick siehe Cantor et al., 1991). Grundsätzlich wird das Arbeitsgedächtnis in Bezug auf das Schreiben eher höheren kognitiven Aufgaben (im Rahmen des Modells der Textproduktion von Bereiter & Scardamalia (1987) als translation bezeichnet) zugeschrieben, wohingegen das verbale Kurzzeitgedächtnis eher hierar-
129 chieniedrigen Schreibaktivitäten (transcription) beigemessen wird (Swanson & Berninger, 1996). Ein weiterer Unterschied ist, dass Messungen des verbalen Kurzzeitgedächtnisses weitgehend die Verwendung von phonetisch-artikulatorischen Codes widerspiegeln, die, wenn sie nur zu einem kleinen Teil belastet werden, vom Arbeitsgedächtnis unabhängig arbeiten können (Baddeley & Hitch, 1974). Das Kurzzeitgedächtnis hat demnach seine eigene Spanne. Phonologische Codes finden zwar bei Tests des verbalen Arbeitsgedächtnisses ebenfalls Verwendung, jedoch liegt der Schwerpunkt hier auf der gleichzeitigen Nutzung unterschiedlicher Ressourcen. Mit dem System Arbeitsgedächtnis ist demnach nicht nur die Zwischenspeicherung von Informationen gemeint, sondern auch deren Verarbeitung und Organisation. Es geht im Falle des verbalen Arbeitsgedächtnisses also nicht um die einfache Spanne des Gedächtnisses, sondern vielmehr um die gleichzeitige Speicherung und Verarbeitung von Informationen. Das verbale Arbeitsgedächtnis ist ein Konstrukt, das nicht als eine einheitliche Größe zu verstehen ist, sondern sich aus vielen Teilleistungen zusammensetzt. Die Korrelationen zwischen Aufgaben verschiedener Typen (Wiedererkennung / Rezeption, (Re-)Produktion) oder mit unterschiedlichen Inhalten (semantisch, phonologisch, orthographisch) für die gleiche Person sind mitunter relativ gering. Daher ist es auch nicht sehr überraschend, dass Crosson, Rao, Woodley, Rosen, Bobholz, Mayer et al. (1999) in einer fMRI-Studie für semantisch, phonologisch und orthographisch geprägte Aufgaben jeweils Aktivität in unterschiedlichen Hirnregionen fanden (im Vergleich zu einer einheitlichen Kontrastaufgabe). Daneben gab es aber auch weitreichende Überlappungen, sodass die Autoren unterschiedliche, die zentralen Prozesse unterstützende Prozesse annehmen.
4.3.
Verbales Kurzzeitgedächtnis und früher Wortschatz
Der Aufbau des frühen Wortschatzes hängt entscheidend vom verbalen Kurzzeitgedächtnis ab. Bezogen auf Kinder im Vorschulalter kann dies natürlich noch nicht orthographische Repräsentationen betreffen, sondern nur phonologische, semantische, morphologische und syntaktische Eigenschaften des Wortes. Wie oben schon angedeutet, wird für die Einspeicherung unbekannter Wörter eine Zwischenspeicherung benötigt, die im phonologischen Kurzzeitspeicher erfolgt. Diese Informationen werden vor allem bei sehr jungen Kindern mit Hilfe der artikulatorischen Schleife ständig wiederholt, um so die Information immer wieder aufzufrischen. Diese Zusammenhänge zwischen dem verbalen / phonologischen Kurzzeitgedächtnis und dem Aufbau des Wortschatzes konnten mehrfach nachgewiesen werden: In einer Studie von Gathercole & Baddeley (1989) sagten Messungen der Spanne des phonologischen Kurzzeitgedächtnisses (Wiederholung von Pseudowörtern) bei Vierjährigen die Entwicklung des Wortschatzes ein Jahr später mit hoher Wahrscheinlichkeit voraus. Eine zweite Studie der gleichen Autoren zeigte, dass Kinder, die nur über eine geringe Spanne des phonologischen Kurzzeitgedächtnisses verfügen, länger brauchten, um neue,
130 unbekannte Namen für Gegenstände (Spielzeuge) zu lernen. Im Vergleich zu Kindern mit größerer Gedächtnisspanne fiel es diesen Kindern aber nicht schwerer, diesen Gegenständen neue, aber bereits bekannte Namen zuzuordnen (Gathercole & Baddeley, 1990b). Dieser Unterschied zwischen bereits bekanntem phonologischen Material und unbekannten Wörtern konnte auch in einem neuropsychologischen Fall nachgewiesen werden (Baddeley, Papagno & Vallar, 1988). Die unter einer Schädigung des phonologischen Kurzzeitgedächtnisses leidende Patientin PV war nicht in der Lage, Paare aus existierenden Wörtern und Pseudowörtern (deren Aussprache ihr jedoch keine Schwierigkeiten machte) zu lernen. Paare existierender Wörter dagegen konnte sie problemlos verbinden. Diese Befunde zeigen einen starken Zusammenhang zwischen dem phonologischen Kurzzeitgedächtnis und dem Erwerb neuer Wörter, also der Enkodierung. Die Richtung des ursächlichen Zusammenhangs wird jedoch durch eine Studie von Hulme, Maughan & Browne (1991) in Frage gestellt, bei der nachgewiesen werden konnte, dass die Wiederholung von bekannten Wörtern zu besseren Ergebnissen führt als die Wiederholung von unbekannten Wörtern. Daher könnte es auch sein, dass die Analogiebildung mit Hilfe des Langzeitgedächtnisses die phonologischen Gedächtnisprozesse unterstützt (hierdurch würde sich der Vorteil bei bekannten Wörtern erklären). Tatsächlich nimmt die Stärke der Korrelation zwischen dem phonologischen Arbeitsgedächtnis und dem Wortschatz etwa mit dem fünften leicht und ab dem achten Lebensjahr stark ab (Gathercole, Willis, Emslie & Baddeley, 1992). In gekreuzten partiellen Korrelationen stellten die Autoren einen signifikanten Zusammenhang zwischen den Wortschatzmessungen im Alter von fünf und sechs Jahren und der Leistung bei der Pseudowortwiederholung jeweils ein Jahr später fest. Im umgekehrten Fall (Pseudowortwiederholung vs. Wortschatz ein Jahr später) konnten jedoch keine signifikanten Korrelationen festgestellt werden. Es scheint daher so zu sein, dass der Wortschatzerwerb zunächst sehr stark vom phonologischen Kurzzeitgedächtnis abhängig ist. Mit dem Aufbau des mentalen Lexikons bestimmt aber zunehmend die Möglichkeit der Analogiebildung den Aufbau neuer Repräsentationen und damit nimmt die Bedeutung des phonologischen Arbeitsgedächtnisses ab. Diese Interpretation der vorhandenen Daten bestätigte sich in einer Untersuchung an Schülern der dritten Klasse mit ausgeprägten sprachlichen Defiziten (Gathercole & Baddeley, 1990a). Diese erreichten bei der Wiederholung von ein- und zweisilbigen Pseudowörtern im Vergleich zu zwei Kontrollgruppen (Gruppe 1: gleiches Alter, Gruppe 2: jünger, jedoch gleiches Leseniveau) keine schlechteren Ergebnisse (Deckeneffekt). Bei dreisilbigen Pseudowörtern hingegen, die den Kontrollgruppen noch keine Probleme bereiteten, brachen die Leistungen der Schüler mit sprachlichen Defiziten dramatisch ein (etwa um die Hälfte) und viersilbige Pseudowörter konnten kaum noch wiederholt werden (in der Gruppe der Schüler mit sprachlichen Defiziten ca. 10%, in den beiden Vergleichsgruppen je ca. 70%). Die Spanne des Kurzzeitgedächtnisses der betreffenden Schüler lag in etwa auf dem Niveau von Vorschulkindern, d.h., sie waren in ihrer Entwicklung noch nicht über das Stadium der Abhängigkeit vom Kurzzeitgedächtnis hinaus und entsprechend gering war ihr Wortschatz. In wechselseitigem Zusammenhang stehen hier die Qualität der Repräsentation im phonologischen Kurzzeitgedächtnis und deren Enkodierung im mentalen Lexikon. Je geringer die Qualität der zwischengespeicherten Information, desto schwächer ist auch ihr Einfluss
131 auf die Repräsentation im Lexikon. Andererseits ist die Automatisierung der phonologischen Prozesse der Kurzzeitspeicherung abhängig von der Qualität der Repräsentation im Langzeitgedächtnis. Die Steuerung des Informationsflusses und damit auch die Analogiebildung zu Repräsentationen im mentalen Lexikon auf vielen verschiedenen Ebenen erfolgt durch die zentrale Exekutive. So erklärt sich auch der zunehmende Einfluss des komplexen verbalen Arbeitsgedächtnisses.
4.4.
Verbales Arbeitsgedächtnis und der Aufbau orthographischer Repräsentationen
Unter den kognitiven Fertigkeiten, die für die Vorhersage der Rechtschreibleistung herangezogen werden können, sind die Gedächtnisfertigkeiten nur einer unter mehreren Punkten. So beruht beispielsweise das Zerlegen eines gehörten Wortes in seine lautlichen Bestandteile hauptsächlich auf der phonologischen Bewusstheit (siehe z.B. Mannhaupt, 2001). Die Hauptaufgabe des verbalen Arbeitsgedächtnisses für den Schriftspracherwerb liegt in der Übertragung des Wortes und der dazugehörigen Korrespondenzen in das Langzeitgedächtnis. Der Gedanke, dass der Aufbau orthographischer Repräsentationen von der Spanne des verbalen Arbeitsgedächtnisses beeinflusst sei, mag auf den ersten Blick nicht unmittelbar einleuchten. Jedoch sind sich alle Autoren der einschlägigen Schriftspracherwerbsmodelle (siehe Kapitel 4.1. Enkodierung im orthographischen Lexikon, Seite 125ff.), unabhängig davon, ob für den Erwerb in den einzelnen Modellen nun aufeinander aufbauende Stufen angenommen werden oder nicht, einig, dass unbekannte (nicht im orthographischen Lexikon enthaltene) Wörter für das Lesen wie für das Schreiben auf grundsätzlich zwei verschiedenen Wegen verarbeitet werden können. Jedoch ergeben sich im Detail zwischen Lesen und Schreiben entscheidende Unterschiede. Soll ein unbekanntes Wort gelesen werden (Rezeption), so gibt es unter logischen Gesichtspunkten zwei verschiedene Zugangsweisen: 1. Das geschriebene Wort wird in kleinere, bekannte Einheiten zerlegt (seien das nun Buchstaben, Grapheme, Silben oder andere Einheiten), in phonologische Einheiten übersetzt (rekodiert) und anschließend zum phonologischen Wort zusammengesetzt. Dieser Weg wäre komplett extralexikalisch. Der 2. mögliche Weg beruht zum Teil auf lexikalischen Repräsentationen. Voraussetzung ist, dass ein weitgehend gleich aufgebautes Wort oder Segment bekannt ist, das als Analogie verwendet und in den abweichenden Teilen angepasst werden kann (vgl. hierzu die Ausführungen im Kapitel 2.3. Modellierung der schriftlichen Wortproduktion, Seite 56ff.). Welcher der beiden Wege zum Erlesen des unbekannten Wortes auch begangen wird (oder bei paralleler Verarbeitung schneller zu einem Ergebnis führt) – in allen Fällen ist es notwendig, die Zwischenergebnisse der Prozesse in einem Speicher zu behalten. Im ersten Fall müssen die 'Summen' der bekannten Einheiten gebildet und bis zur endgültigen, koartikulierten Form behalten werden. Im zweiten Fall kann zwar aus dem Lexikon eine Form aktiviert werden,
132 jedoch muss auch diese mit der/den erforderlichen Änderung(en) verschmolzen und behalten werden. Auch wenn ein gehörtes, unbekanntes Wort geschrieben werden soll (Produktion), sind beide Strategien denkbar (jedoch ist hier die Quelle im Gegensatz zum geschriebenen Wort flüchtig und damit der Zwischenspeicher zusätzlich belastet): 1. Das gehörte Wort wird in einzelne, bekannte Teile zerlegt, übersetzt (Phonem-Graphem-Konversion) und in orthographischer Form zusammengesetzt oder 2. über die Aktivierung einer bekannten, analogen phonologischen Form wird auf die orthographische Zielform geschlossen. Dabei ist der Weg von der phonologischen zur orthographischen Form über die Mehrbelastung des Speichers aufgrund der Flüchtigkeit des Stimulus hinaus in dreifacher Hinsicht schwieriger als der umgekehrte Weg: Zunächst ist das Isolieren von Phonemen aus einem Schallsignal aufgrund fehlender Marker und der Koartikulation erheblich schwerer als das Zerlegen einer Buchstabenkette in Grapheme (größerer Bedarf an kognitiver Kapazität). Zweitens ist die Anzahl möglicher Grapheme, die für die Abbildung eines Phonems eingesetzt werden können, in der Regel höher als umgekehrt. Drittens erleichtern viele Phänomene der deutschen Orthographie das Lesen von Texten (z.B. Morphemkonstanz, Groß- und Kleinschreibung), erschweren aber die Schreibung. Gemeinsam ist beiden Prozessen (dem Lesen wie dem Schreiben unbekannter Wörter) jedoch, dass in beiden Fällen mehrere Verarbeitungsschritte organisiert und ihre Ergebnisse zwischengespeichert werden müssen. Diese komplexen, über den Einsatz des reinen Kurzzeitspeichers hinausgehenden Prozesse des verbalen Arbeitsgedächtnisses konnten in der Münchner Langzeitstudie (LOGIC, Schneider & Näslund, 1993, 1999) als ein starkes Vorhersagekriterium für die spätere Rechtschreibleistung nachgewiesen werden. Aus den im Kindergartenalter erhobenen Variablen leistet die Satzspanne (übernommen von Daneman & Blennerhasset, 1984; eine für Vorschulkinder angepasste, mündliche Form des Reading Memory Span) neben dem nonverbalen Intelligenzquotienten und dem Buchstabenwissen einen gravierenden Beitrag zur Vorhersage der Rechtschreibleistung im 3., 4. und 5. Schuljahr (Schneider & Näslund, 1999). Für die Vorhersage des Leseerwerbs ist die Rolle der Satzspanne weitaus geringer. Hiernach unterscheidet sich nicht nur der Aufbau des phonologischen Wortschatzes vom Aufbau orthographischer Repräsentationen, sondern es zeigen sich auch Unterschiede beim Abruf für das Lesen und Schreiben. Um diesen Unterschied besser erklären zu können, soll noch einmal auf den Status der orthographischen Repräsentationen eingegangen werden. Eine orthographische Repräsentation ist nicht einfach vorhanden oder nicht, sondern zwischen den beiden Extremen gibt es unterschiedliche Qualitäten der Einspeicherung, d.h., ein Wort kann sehr 'blass', ohne besondere Merkmale repräsentiert sein oder aufgrund häufiger Verwendung 'deutlich' abgebildet sein. Teile der Repräsentation können aufgrund von Abweichungen von den Regularitäten des Schriftsystems (z.B. Orthographeme vs. Basisgrapheme bei Thomé, 1999) oder anderen Besonderheiten einerseits außerordentlich deutlich oder andererseits besonders unscharf vertreten sein, d.h., eine Repräsentation muss nicht von 'vorne bis hinten' qualitativ konstant sein, sondern die verschiedenen Segmente in der Graphemfolge eines Wortes können unterschiedlich deutlich abgebildet sein. Diese unterschiedlichen Qualitäten und ihr Aufbau sollen in Abbildung 19 (Seite 133) noch einmal an einem fiktiven Beispiel verdeutlicht werden.
133
Abbildung 19: Hypothetische Auswirkungen von Leseversuchen auf die gespeicherten Phonem-Graphem-Korrespondenzen und die orthographische Repräsentation zu verschiedenen, aufeinander folgenden Zeitpunkten t1 bis t4.
Auf der linken Seite ist jeweils ein Leseversuch zu unterschiedlichen aufeinander folgenden Zeitpunkten t1 bis t4 phonetisch wiedergegeben. Nach den oben beschriebenen konnektionistischen Modellen verändert jeder Leseversuch die Repräsentation im mentalen Lexikon.
134 Zum dargestellten Zeitpunkt t1 wären die phonologischen Entsprechungen der Grapheme ‹l› und ‹n› schon bekannt, die des ‹e› in etwas schwächerer Form ebenfalls. Die Korrespondenz des ‹s› sowohl mit dem stimmhaft wie auch mit dem stimmlos produzierten Laut im Leseversuch könnte zu diesem Zeitpunkt noch verwirrend sein. Der Eintrag im orthographischen Lexikon wird zu diesem Zeitpunkt noch sehr unscharf sein. Zu einem späteren Zeitpunkt t2 fällt dem Kind die Lesung des Wortes schon leichter, weil die Phonem-Graphem-Beziehungen sich erweitert haben. In einigen mehrdeutigen Fällen bestehen aber immer noch Unsicherheiten. Die erlesenen Einheiten haben immer noch Segmentgröße, die Zusammensetzung zum bekannten Wort erfolgt aber schon schneller. Einige Zeit später (t3) haben sich die Phonem-Graphem-Beziehungen in den meisten Ausprägungen gefestigt und das Wort wird beim Erlesen bereits in Segmentgruppen zerteilt. Die orthographische Repräsentation ist annähernd voll spezifiziert. Zuletzt (t4) kann das Wort ganzheitlich erkannt werden. Das Lesen kann im Gegensatz zum Schreiben erleichtert sein, wenn über die rein orthographische Repräsentation hinaus für ein Wort (in Qualität und Quantität unterschiedliche) Verknüpfungen zu anderen Bereichen des mentalen Lexikons (semantisch, phonologisch, morphologisch, syntaktisch) existieren, die den Zugriff erleichtern (faszilitieren), aber auch erschweren (inhibieren) können. Auf der Grundlage dieser Überlegungen sollte deutlich werden, dass das Erlesen eines Wortes auch auf der Basis einer sehr viel schwächeren Repräsentation möglich ist, als dies für das Schreiben der Fall ist. Darüber hinaus helfen beim Lesen wortübergreifende Mechanismen wie die Vorhersagbarkeit von Wörtern durch den inhaltlichen Kontext (und vieles mehr), die beim Schreiben eines Wortes nicht weiterhelfen: Für die schriftliche Produktion eines Wortes muss die konkrete Graphemfolge aus dem Gedächtnis auf das Schreibmedium übertragen werden. Daher reicht beim Schreiben die Verarbeitungstiefe wesentlich weiter in die segmentale Ebene, als dies beim Lesen der Fall ist. In Bezug auf die Gedächtnisfertigkeiten stellt sich die Frage, welche Teile des verbalen Gedächtnisses in die Prozesse der Einspeicherung und des Abrufs orthographischer Repräsentationen involviert sind. Die subvokale Artikulation, die nach dem Modell von Baddeley & Hitch (1974) für die Wiederauffrischung der Information im phonologischen Speicher zuständig ist, ist selbst bei sechs- bis achtjährigen Kindern für das Lesen von bekannten Wörtern nicht entscheidend (Kimura & Bryant, 1983). Erstaunlicherweise spielt die subvokale Artikulation sogar für das Lesen von Pseudowörtern keine nachweisbare Rolle (Arthur, Hitch & Halliday, 1994). Die an der genannten Untersuchung beteiligten achtjährigen Kinder beurteilten die Lexikalität von Pseudowörtern trotz einer gleichzeitigen Belastung der Artikulationsorgane durch das wiederholtes Zählen von Eins bis Fünf bei gleicher Genauigkeit sogar schneller als ohne diese Unterdrückung der subvokalen Artikulation. Von der Artikulation unabhängige phonologische Prozesse zeigten sich jedoch an einer erhöhten Fehlerzahl bei Pseudowörtern, die existierenden Wörtern phonologisch ähnelten (unabhängig von der Untersuchungsbedingung). Bezüglich der Unterdrückung der subvokalen Artikulation konnten Will et al. (2003) in einer Untersuchung an Erwachsenen keine Unterschiede der Schreibgeschwindigkeit für Wortschreibungen auf der Tastatur feststellen (vgl. Seite 20). Auch hier konnten von der
135 subvokalen Artikulation unabhängige phonologische Prozesse nachgewiesen werden. Die Interkey-Intervalle an Silbengrenzen waren im Vergleich zu solchen innerhalb von Silben signifikant verzögert. Der silbische Effekt konnte auch in den Schreibungen von (von Geburt an) Gehörlosen nachgewiesen werden (Nottbusch, Grimm, Blanken & Weingarten, 2005), sowohl in bekannten Wörtern als auch in Pseudowörtern. Da die phonologisch-artikulatorischen Fähigkeiten Gehörloser vor allem auf segmentaler Ebene (Nottbusch et al., 2005; Sterne & Goswami, 2000) weniger ausgeprägt sind als die Normalhöriger, lässt sich auch für die schriftliche Produktion von bekannten und unbekannten Wörtern eine obligatorische Beteiligung der artikulatorischen Schleife ausschließen. Stattdessen kann eine Beteiligung abstrakter phonologischer Prozesse als gesichert gelten. In einer neurologischen Fallstudie eines Aphasikers mit intaktem Graphemischen Output-Buffer (GOB), aber weitestgehend zerstörter Phonem-Graphem-Konversion konnten Sahel et al. (2005) zeigen, dass die Phonologie auf abstrakter Ebene für die Schreibung unbekannter Wörter notwendig ist. Der Patient konnte bekannte Wörter zwar schreiben, musste sich hierbei aber ausschließlich auf lexikalische Informationen verlassen. Für die Schreibung bekannter Wörter kommt den phonologischen Prozessen daher lediglich eine unterstützende Funktion zu. Diese Ergebnisse widersprechen der Orthographischen Autonomie-Hypothese (Miceli et al., 1997; Rapp et al., 1997), nach der der Abruf orthographischer Repräsentationen unabhängig von der phonologischen Mediation geschehen kann, nur bedingt. Gestützt wird dieser Befund durch Ergebnisse aus Untersuchungen an gesunden, erwachsenen Schreibern, bei denen eine Beeinflussung der schriftlichen Benennung von Bildern durch inkonsistente Phonem-Graphem-Beziehungen im Vergleich zu konsistenten Fällen nachgewiesen werden konnte (Bonin, Peereman & Fayol, 2001). Die Autoren erklären diesen Effekt durch (gleichzeitig zum Zugriff auf das orthographische Lexikon aktive) phonologische Prozesse, die die Verarbeitung unterstützen. Die unterstützende Funktion phonologischer Prozesse beim Aufbau orthographischer Repräsentationen findet sich auch in der bereits genannten Self-teaching-Hypothese von Share (1995, 1999). Die Vorteile bei der Enkodierung mit gleichzeitigem lauten Lesen ergeben sich nicht durch den Einsatz der artikulatorischen Schleife, sondern die parallel ablaufende phonologische Verarbeitung trägt zum Aufbau der Repräsentation bei. Wenn der Abruf der orthographischen Repräsentation nicht vom akustischen Rehearsal abhängig ist, aber von abstrakteren phonologischen Prozessen unterstützt wird, dann ist ein Einfluss des verbalen Arbeitsgedächtnisses auf die Enkodierung orthographischer Information zu erwarten. Mit der Organisation, der Zwischenspeicherung und der Überführung der Information ins Langzeitgedächtnis erfüllt das verbale Arbeitsgedächtnis wichtige Aufgaben beim Aufbau der orthographischen Repräsentationen. Hierzu passt die Vorstellung, dass das Arbeitsgedächtnis ein Teil des Langzeitgedächtnisses ist, der für die Dauer der kognitiven Aktivität stark aktiviert ist (Baddeley & Hitch, 1974).
136 4.5.
Messung des verbalen Arbeitsgedächtnisses und ihre Reliabilität
Tests zur Messung der Spanne des verbalen Arbeitsgedächtnisses werden häufig in Verbindung mit Textverständnistests eingesetzt. Dabei wird davon ausgegangen, dass ein Leser Informationen über gelesene Wörter speichern muss, um in der Lage zu sein, diese mit den folgenden Wörtern in Beziehung zu setzen und den Sinn zu erschließen. Eine allgemeine Korrelation gilt für Erwachsene als gesichert. In der einschlägigen Forschung herrscht jedoch Uneinigkeit über die spezifischen Untermodule, die je nach Bedarf eingesetzt werden (vgl. Caplan & Waters 1999, Waters & Caplan, 2003). Bei jüngeren Kindern scheint dieser Mechanismus jedoch noch keine große Rolle zu spielen (vgl. McDougall & Hulme, 1994). Eine allgemein anerkannte Messung der Spanne des verbalen Arbeitsgedächtnisses wurde zuerst von Daneman & Carpenter (1980) entwickelt. In seiner Original-Version besteht der Reading Memory Span-Test (RMS) aus einer Sammlung von Karteikarten, denen jeweils ein einzelner englischsprachiger Satz einzeilig aufgedruckt ist. Die Aufgabe der Testperson besteht darin, pro Durchgang mehrere Sätze unmittelbar nacheinander laut vorzulesen und sich von jedem Satz das jeweils letzte Wort zu merken. Nach dem letzten Satz sind sämtliche Merkwörter des Durchgangs in der Reihenfolge der vorgelesenen Sätze zu wiederholen. Der Test beginnt nach einer Einführungsphase mit je drei mal zwei Sätzen. Die Anzahl der Sätze wird gesteigert, bis die Testperson in drei Versuchen nicht mehr mindestens einmal alle Wörter wiederholen kann, höchstens jedoch auf sechs Sätze. Die Spanne des Reading Memory entspricht dann der höchsten erreichten Zahl von gemerkten Wörtern. Um nicht nur die ganzzahligen Werte zwischen zwei und sechs als Ergebnis zu erhalten, wird noch jeweils ein halber Punkt vergeben, wenn von der nächsthöheren Satz-/ Wortanzahl mindestens zwei wiederholt werden konnten. Trotzdem ist die Differenzierung der Ergebnisse dieses Tests relativ gering. Dieses Manko sowie die ebenfalls mäßige Reliabilität in Langzeituntersuchungen führten zu einer Vielzahl abgeleiteter und konkurrierender Tests. Unabhängig davon ist der Reading Memory Span-Test nach wie vor ein häufig angewandter Standardtest. Die Grundannahme des Tests ist, dass ein Leser Informationen über gelesene Wörter speichern muss, um in der Lage zu sein, diese mit den folgenden Wörtern in Beziehung zu setzen und den Sinn zu erschließen. In der Theorie von Daneman & Carpenter (1980) trägt die Effizienz des Leseprozesses entscheidend zum Ergebnis bei: Eine hohe Effizienz befreit Ressourcen, die für das Behalten der Gedächtnisaufgabe verwendet werden können. Die Autoren sprechen daher im Gegensatz zu den einfachen Messungen der Spanne von der »functional capacity of working memory« [funktionalen Kapazität des Arbeitsgedächtnisses] (Daneman & Carpenter, 1980: 464). Das heißt, dass die Spanne des Arbeitsgedächtnisses davon abhängt, wie viel Kapazität für die Verarbeitung der Informationen benötigt wird. In ihrem Übersichtsartikel zum Thema weisen Caplan & Waters (1999: 86f.) darauf hin, dass das Lesen der Sätze von der gleichzeitigen Belastung des Arbeitsgedächtnisses beeinflusst werden kann. Die zusätzliche Aufnahme der Lesegeschwindigkeit, -genauigkeit und der Reaktionszeit in die Auswertung könne die Reliabilität des Tests erheblich erhöhen.
137 4.6.
Experiment: Verbales Arbeitsgedächtnis und orthographische Kompetenz
Wie oben bereits dargestellt, wird hier die Hypothese vertreten, dass die messbare Spanne des verbalen Arbeitsgedächtnisses die Aspekte der Speicherung bei der Phonem-GraphemKonversion sowie den Zugriff auf phonologisch-lexikalische Repräsentationen widerspiegeln kann. Daher wurde mit der oben bereits beschriebenen Gruppe von Kindern der fünften Klasse ein solcher Test mit der Absicht durchgeführt, die gefundenen Ergebnisse mit den Ergebnissen aus dem Schreibtest zu korrelieren. Hierzu wurden zwei Hypothesen formuliert: 1. Die Spanne des verbalen Arbeitsgedächtnisses korreliert mit der orthographischen Kompetenz. 2. Der Abruf der orthographischen Repräsentation wird von abstrakten phonologischen Prozessen unterstützt, daher beeinflusst das verbale Arbeitsgedächtnis die Enkodierung graphosilbischer Information.
4.6.1.
Methode
Eine deutschsprachige Version des Reading Memory Span-Tests ist bisher nicht publiziert, jedoch gibt es eine nicht veröffentlichte Version von Karsten Steinhauer (derzeit MPI Leipzig), die sich sehr eng an den Standardtest von Daneman & Carpenter (1980) hält. Leider ist diese Version nicht kindgerecht, sodass eine neue Version konzipiert werden musste. Auch die hier verwendete Version hält sich eng an die Vorlage von Daneman & Carpenter (1980), um eine Vergleichbarkeit mit den Ergebnissen anderer Untersuchungen zu gewährleisten.
4.6.1.1. Teilnehmer Die Teilnehmer an diesem Experiment waren die Gleichen wie im zuvor beschriebenen Schreibexperiment (vgl. Kapitel 3.2.1.1. Teilnehmer, Seite 79). Aufgrund der Erkrankung zweier Kinder zum Testzeitpunkt fehlen deren Daten in der Auswertung. Die Daten eines weiteren Kindes fehlen aufgrund eines Aufzeichnungsfehlers, sodass die Ergebnisse von 20 Teilnehmern weiter verarbeitet werden konnten.
4.6.1.2. Wortmaterial Besondere Aufmerksamkeit wurde auf die jeweils letzten Wörter der Sätze gelegt. Die betreffenden Wörter mussten die folgenden Kriterien erfüllen: Sie müssen im Wortschatz der Altersgruppe enthalten sein; ihre Länge sollte zwischen 5 und 7 Phonemen (in der Stan-
138 dardlautung) bzw. 5-7 Graphen liegen; sie sollten aus zwei Silben bestehen und ihre Vorkommenshäufigkeit in der deutschen Sprache laut CELEX-Datenbank zwischen 150 und 400 (M: 262; SD: 71; entspricht 25 bis 66 'Words per Million') liegen. Diese Spanne wurde gewählt, um einerseits die Schwierigkeit der Aufgabe konstant zu halten und andererseits Einflüsse der Wortfrequenz so gering wie möglich zu halten. Die Sätze, an deren Ende die Wörter standen, sollten ebenfalls nur Wörter enthalten, die im Wortschatz der Altersgruppe vorkommen. Sie bestehen aus 10 bis 13 Wörtern (M: 11,3) bzw. 11 bis 24 Silben (M: 17,9) und sind in ihrer syntaktischen Komplexität vergleichbar (eine Liste findet sich im Appendix 7.2. Wortmaterial für den Reading Memory Span-Test, Seite 163).
4.6.1.3. Versuchsablauf und Apparatur Die Untersuchung fand mit jedem Kind einzeln in einem separaten Raum statt. Auf eine Kennenlernphase wurde verzichtet, da die Teilnehmer und der Versuchsleiter sich bereits bekannt waren. Nach der Erklärung des Ablaufs wurden für einen Vortest zur Eingewöhnung fünf mal zwei Sätze bearbeitet (für eine Beschreibung des Untersuchungsparadigmas siehe Kapitel 4.5. Messung des verbalen Arbeitsgedächtnisses und ihre Reliabilität, Seite 136ff.). Danach folgten jeweils drei Mal zwei, drei, vier, fünf und sechs Sätze. Für die Durchführung des Versuches wurde ein Apple-Notebook verwendet. Ein Versuchsprogramm präsentierte die zu lesenden Sätze nach einem Warnton (500 ms) in einem Fenster des Bildschirms. Nach dem Vorlesen des Satzes konnten die Kinder durch Tastendruck den jeweils nächsten Satz abrufen und somit ihrer eigene Lesegeschwindigkeit wählen. Der gesamte Test wurde auf Mini-Disk digital aufgezeichnet, sodass Lesedauer, -fehler und die Antworten rekonstruiert werden konnten.
4.6.1.4. Datenverarbeitung Aus den erhobenen Aufnahmen wurden die Lesedauer, eventuelle Lesefehler und die Antworten extrahiert. In eine Datei wurden für jedes Kind die Anzahl der korrekten und falschen Antworten pro Trial und deren Reihenfolge geschrieben. Antworten, deren Reaktionszeit eine Minute überschritt, sowie grobe Lesefehler wurden als falsche Antworten notiert.
4.6.2.
Ergebnisse
Als starker Faktor erwies sich die Einhaltung der Reihenfolge der Items. Aus der Forschung ist zwar bekannt, dass die Gedächtnisspanne jüngerer Kinder bei beliebiger Reihenfolge annähernd doppelt so groß ist wie bei strikt serieller Abfolge (Chi, 1977), jedoch wäre bei den Kindern, die an dieser Untersuchung teilnahmen, aufgrund des höheren Alters eigentlich kein Reihenfolgeeffekt zu erwarten (Weinert & Schneider, 1989). Nichtsdestotrotz zeigte
139 sich in dieser Untersuchung ein starker Reihenfolgeeffekt. Im Gegensatz zu Daneman & Carpenter (1980) wurde daher nicht nur die Anzahl der Sätze, bei denen die Probanden die letzten Wörter in mindestens einem von drei Versuchen richtig erinnerten, verwendet. Da sich nicht alle Schüler (trotz mehrfacher Erinnerung) an die geforderte Reihenfolge hielten, musste dieses Merkmal mit in die Ergebnisse einfließen. Daher wurden für Antworten in der richtigen Reihenfolge mehr Punkte vergeben (1,1) als für diejenigen in einer anderen Reihenfolge (0,9). Als Spanne des verbalen Arbeitsgedächtnisses wurde die mittlere Anzahl erinnerter Wörter pro Set gewählt. Damit wurde ähnlich verfahren wie bei Waters & Caplan (1996), die alle Teilnehmer bis zu einer bestimmten Spanne testeten (also im Gegensatz zu Daneman & Carpenter (1980) nicht nach mehreren Fehlversuchen abbrachen) und die RM-Spanne als die Summe der erinnerten Wörter definierten. Zu beobachten waren unterschiedliche Strategien der Kinder (meist kumulative Wiederholungsstrategien, etwa "erlaubt, direkt, Absatz, erlaubt, direkt, Absatz ..." zwischen dem Vorlesen der Sätze), diese wurden allerdings nicht systematisch untersucht, da bei oberflächlicher Betrachtung kein Zusammenhang mit der Leistung erkennbar war. Die erhobene Spanne des verbalen Arbeitsgedächtnisses lag nach der verwendeten Methode zwischen 0,73 und 2,36 erinnerten Wörtern pro Trial. Im Mittel konnten 1,79 Wörter wiederholt werden (SD: 0,37). Nach der klassischen Auswertungsmethode von Daneman & Carpenter (1980; Anzahl der Wörter auf der maximal erreichten Stufe) hätte der Schnitt bei 3,23 (SD: 0,83) gelegen, jedoch hätte diese Methode mit nur sieben verschiedenen Stufen nicht in ausreichendem Maße zwischen den Leistungen differenziert (sieben Kinder hatten einen Wert von 2,5; sechs einen Wert von 3,5).
Abbildung 20: Korrelation zwischen der Spanne des verbalen Arbeitsgedächtnisses und der Summe der Fehler im DRT5 (A): Es zeigt sich, dass Kinder mit einer größeren Spanne des verbalen Arbeitsgedächtnisses weniger Fehler produzieren. Auf der rechten Seite ist die Korrelation zwischen der Arbeitsgedächtnisspanne und dem als Logit ausgedrückten Aneignungsgrad der Silbensegmentierung dargestellt (B): Hier zeigt sich sogar ein etwas stärkerer Zusammenhang.
Diese Ergebnisse wurden einerseits mit der Summe aller Rechtschreibfehler aus dem DRT5-Test und andererseits mit dem Logit-Wert, der den Aneignungsgrad der Silbenseg-
140 mentierung repräsentieren soll, korreliert (vgl. Kapitel 3.2.2.4. Einzelfallbetrachtung, Seite 115ff.). Für die Anzahl der Fehler ergab sich ein negativer quadrierter Korrelationskoeffizient von r2 = .211, d.h., je größer die Spanne des verbalen Arbeitsgedächtnisses, desto weniger Fehler werden im DRT5 produziert. Dieses Ergebnis war signifikant auf 5%-Niveau (F (1, 18) = 6.27, p < .05) und erklärt 21,1% der Streuung in der Regressionskurve (siehe Abbildung 20A, Seite 139). Auch im Vergleich der Spanne des verbalen Arbeitsgedächtnisses mit dem Aneignungsgrad der Silbensegmentierung zeigte sich ein signifikantes Ergebnis: Hier ergibt sich ein positiver quadrierter Korrelationskoeffizient von r2 = .258, d.h., je größer die Spanne des verbalen Arbeitsgedächtnisses, desto höher ist auch der Logit-Wert. Auch dieses Ergebnis ist signifikant (F (1, 18) = 4.83, p < .05) und zeigt an, dass etwa ein Viertel der Varianz der Logits durch die Spanne des verbalen Arbeitsgedächtnisses erklärt wird (siehe Abbildung 20B, Seite 139).
4.6.3.
Diskussion
Wenn auch weniger deutlich als erwartet, so zeigte sich eine Korrelation zwischen der Spanne des verbalen Arbeitsgedächtnisses und der orthographischen Kompetenz (ausgedrückt als Summe der Fehler im DRT5). Damit wurde die erste Hypothese dieses Experiments bestätigt. Entscheidend für diesen Effekt erscheint die Bedeutung des Arbeitsgedächtnisses für den Aufbau orthographischer Repräsentation zu sein, denn unabhängig von der verwendeten Strategie (lexikalisch durch Analogiebildung oder sublexikalisch durch die Phonem-Graphem-Konversion) müssen die Zwischenergebnisse der Prozesse in einem verbalen Speicher behalten werden. Dabei spielen die segmentalen Informationen für das Schreiben eines Wortes in dreifacher Hinsicht eine größere Rolle als für das Lesen: Ein gehörter Stimulus ist flüchtig, was die Isolierung der Phoneme erschwert und somit das Arbeitsgedächtnis stärker belastet. Zweitens ist die Anzahl möglicher Grapheme, die für die Abbildung eines Phonems eingesetzt werden können, in der Regel höher als umgekehrt und drittens ist die Orthographie ein System, das auf eine gute Lesbarkeit optimiert ist und nicht für das leichte Erlernen des Schreibens (z.B. Morphemkonstanz, Groß- und Kleinschreibung). Schreiben stellt also andere Anforderungen an die Verarbeitungstiefe der Segmente als das Lesen. Daher ist es nicht verwunderlich, wenn einige Kinder beim Lesen gute Leistungen zeigen, in der schriftlichen Produktion aber größere Schwierigkeiten haben, da sich ihnen beim Lesen zahlreiche Kompensationsmöglichkeiten bieten. Wie die Münchner Langzeitstudie gezeigt hat (siehe Seite 132), ist die Rolle der Satzspanne für die Vorhersage des Leseerwerbs weitaus geringer. Durch die Korrelation zwischen dem Aneignungsgrad der Silbensegmentierung und der Spanne des verbalen Arbeitsgedächtnisses bestätigt sich die Annahme, dass der Abruf und die Enkodierung der orthographischen Repräsentation von abstrakten phonologischen Prozessen unterstützt wird. Damit wurde auch die zweite Hypothese dieses Experiments bestätigt. Ein Zusammenhang wird auch dadurch vermutet, dass die Zusammenfassung von Segmenten zu Silben die Anforderungen an das verbale Arbeitsgedächtnis verringert. Silben und ihre Funktion als Struktureinheit der Sprache tragen einerseits zur Entlastung des Ar-
141 beitsgedächtnisses bei und verstärken andererseits die Qualität der Repräsentation. Da die Speicherung von Silbeneinheiten geringere Anforderungen an das verbale Arbeitsgedächtnis stellt als das Lesen und Zusammensetzen Graphem für Graphem, können durch diese Entlastung auch mehr Kapazitäten für die Verarbeitung der phonemischen Information freigesetzt werden. Durch eine bessere Qualität der Repräsentation im phonologischen Kurzzeitgedächtnis wird auch die Enkodierung im mentalen Lexikon erleichtert. Die Steuerung der Prozesse durch die zentrale Exekutive wird ebenfalls durch die Reduktion der Anforderungen an das Arbeitsgedächtnis verbessert. Unter der Annahme, dass die Phonem-Graphem-Konversion für die Silbensegmentierung verantwortlich ist, verwundert es nicht, dass sich zwischen den beiden genannten Variablen eine Korrelation ergibt.
5.
Zusammenfassung und Diskussion
Ausgangspunkt dieser Arbeit waren Erkenntnisse aus der Schreibforschung, nach denen kompetente Schreiber Wörter nicht in einem stetigen Fluss erzeugen, sondern die Wörter in 'schreibgerechte Häppchen' zerlegen, die in der Regel Silben entsprechen. Aus dem Befund, dass eine solche Silbensegmentierung bei Schülern verschiedener Altersstufen noch nicht konsistent nachgewiesen werden konnte (Weingarten, 1998), entwickelte sich die Hypothese, dass der Erwerb der Silbensegmentierung einen wichtigen Anteil des Schriftspracherwerbs darstellt und erst mit zunehmender Kompetenz entsteht. Dieser Logik folgend wird die Silbensegmentierung als eine sich selbst organisierende Optimierung der Produktion gesehen, d.h., kurze Verzögerungen oder Pausen werden dort im Schreibfluss eingesetzt, wo dies aufgrund der ablaufenden sprachlichen Prozesse sinnvoll ist. Da einige Bereiche der deutschen Orthographie von der Silbenstruktur abhängig sind (z.B. Dehnung und Schärfung), liegt der Schluss nahe, dass ein hoher Aneignungsgrad der Silbensegmentierung die Produktion von Wörtern mit solchen Schwierigkeiten erleichtert und hier zu einer geringeren Fehlerzahl führt. In der durchgeführten Handschriftuntersuchung konnten Spuren der Silbensegmentierung bei allen teilnehmenden Kindern einer fünften Klasse nachgewiesen werden. Zu Beginn der Wortschreibung zeigt sich an allen hier untersuchten Variablen (Reaktionszeit sowie Verzögerungen im Schriftzug und im Schreibfluss) sowohl ein Effekt der Silbenanzahl im Wort (siehe Abbildung 11A-C, Seite 104) als auch der Länge des Silbenanfangsrandes (siehe Abbildung 12A-C, Seite 105). Innerhalb der Wörter traten erwartungsgemäß wie bei erwachsenen Schreibern die längsten Verzögerungen dort auf, wo Silben- und Morphemgrenzen zusammenfielen. Dieser Effekt trat bei allen Kindern an mindestens einer der hier untersuchten Variablen (Abhebungsdauer [auch: Luftsprungpausen], Pausen innerhalb der Schriftzüge [auch: Schriftzugpausen] und Flüssigkeit der Bewegung, siehe Seite 100) auf. Zum Vergleich der Verzögerungen an Silbengrenzen und solchen an 'normalen' Buchstabengrenzen wurde die Gruppe in gute und schwache Rechtschreiber geteilt. Die Teilung erfolgte am Median der Anzahl der Fehler mit Bezug zur Silbenstruktur (d.h., Dehnung und Schärfung, siehe Fehleranalyse ab Seite 96). Um einen Einfluss möglicher Fehlerschwerpunkte auszuschließen, wurden darüber hinaus nur die Fälle untersucht, an denen nicht mehr als zwei der 23 Kinder einen Fehler produziert hatten. Die Analyse ergab für die Variable 'Pausen innerhalb der Schriftzüge' signifikante Effekte sowohl für den Grenztyp (silbeninitial vs. silbenintern) als auch für die orthographische Kompetenz (gute vs. schwächere Rechtschreiber). Die Dauer der Abhebungen vor den Segmenten zeigte eine ähnliche, aber aufgrund der geringen Fallzahl nicht signifikante Tendenz (vgl. Abbildung 15A-C, Seite 113). Es kann also festgehalten werden, dass für beide Gruppen Unterschiede zwischen den Verzögerungen an Silbengrenzen und silbeninternen Grenzen vorlagen, diese aber bei den besseren Rechtschreibern stärker ausgeprägt waren. Um die Hypothese des Zusammenhangs zwischen der orthographischen Kompetenz und dem Aneignungsgrad der Silbensegmentierung auch im Einzelfall zu überprüfen, musste
144 eine Methode entwickelt werden, die es erlaubte, den Aneignungsgrad für jedes Kind zu bestimmen. Hierzu wurden die vorhandenen Daten zu Luftsprungpausen, Schriftzugpausen und Unterbrechungen des Schreibflusses zunächst für jedes wortinterne Segment zu einem booleschen Wert komprimiert, der besagte, ob hier eine Verzögerung vorlag oder nicht. Aufgeteilt in silbeninitiale und silbeninterne Segmente konnten aus den jeweiligen Häufigkeiten so genannte Logits errechnet werden, die die relative (und logarithmierte) Chance des Auftretens einer Verzögerung an einer Silbengrenze für jedes Kind ausdrückten (vgl. hierzu Kapitel 3.2.2.4. Einzelfallbetrachtung, Seite 115ff.). Die berechneten Werte des so definierten Aneignungsgrades der Silbensegmentierung wurden anschließend mit der individuellen Anzahl der Fehler mit Bezug zur Silbenstruktur korreliert. Das Ergebnis bestätigte die Hypothese, allerdings war die Ausprägung des Effektes wesentlich stärker, wenn nur die Anzahl der Fehler im Bereich der Schärfungsschreibung in Betracht gezogen wurde. Wenn die Analyse auf die Anzahl der Dehnungsfehler beschränkt war, so zeigte sich nur noch ein schwacher und nicht signifikanter Effekt. Zumindest ergibt sich für Kinder, deren Aneignungsgrad silbischer Segmentierungen fortgeschritten ist, hierdurch kaum ein Vorteil bei der Schreibung von Dehnungsgraphien, was dagegen für die Schärfungsschreibungen in erheblichem Maße der Fall ist (vgl. Abbildung 18A-C, Seite 119). Dieses Ergebnis deckt sich weitgehend mit theoretischen Analysen der Dehnungs- und Schärfungsschreibung. Entscheidend ist die Unterscheidung zwischen tautosyllabischen und heterosyllabischen Beschreibungsansätzen. Der Aneignungsgrad der Silbensegmentierung ist heterosyllabisch fundiert, denn er wird gemessen an der motorischen Ausführung der Schreibung (Pausendauer, Schreibfluss) an oder unmittelbar vor Silbengrenzen. Eine Silbengrenze bezieht sich immer auf zwei Silben – bei einsilbigen Wörter fällt die Silbengrenze mit der Wortgrenze zusammen. Aus dem Vergleich vieler Messungen innerhalb von Silben und an Silbengrenzen ergibt sich, ob eine silbische Segmentierung des Schreibflusses bei einem Kind überwiegt oder nicht. Die Ursache dieser Silbensegmentierung wird in der Art und Weise vermutet, wie Sprache für den schriftlichen Gebrauch kognitiv verarbeitet wird, d.h., es handelt sich nicht um bewusste Prozesse, sondern um ein vermutlich unvermeidliches Phänomen der Optimierung dieser Prozesse. Die Verarbeitung in Silbeneinheiten impliziert das Erfassen von Silbengrenzen. Bezüglich der Schärfungsschreibung bezieht sich im silbenbasierten Beschreibungsansatz von Eisenberg (1989, 1997, 1998) die Verdoppelung des Konsonanten in der graphischen Struktur auf die Eigenschaft des entsprechenden (ambisyllabischen) Konsonanten in der phonologischen Struktur des Wortes. Der ambisyllabische Konsonant (auch: das Silbengelenk) gehört – wie der Name schon sagt – zu beiden Silben und markiert daher auch die Silbengrenze (dies spiegelt sich in der üblichen Transkription mit einer Kennzeichnung der Silbengrenze unter dem Konsonanten, z.B. in /aṭ/). Im Lichte dieses theoretischen Ansatzes ist es folgerichtig, dass sich für Kinder, deren Aneignungsgrad silbischer Segmentierungen fortgeschritten ist, ein erheblicher Vorteil bei der Produktion von Schärfungsschreibungen ergibt. Aber auch akzentbasierte Ansätze (Augst, 1991; Augst & Stock, 1997, Rat für deutsche Rechtschreibung, 2006), deren Bezugspunkt für die Konsonantenverdoppelung der vorausgehende Vokal ist, können nicht per se als tautosyllabisch klassifiziert werden, da sich die Bestimmung der betonten Silbe(n) in mehrsilbigen Wörtern aus dem
145 Vergleich mehrerer Silben ergibt. In abgeschwächter Form kann dies auch noch für die von Maas (1992, 2002, 2003) vertretene Anschlusskorrelation gelten, denn schließlich wird hier die Frage gestellt, ob der betreffende Konsonant zur nächsten Silbe gehört oder nicht (auch wenn hier bei zweisilbigen Wortformen mit festem Anschluss eines intervokalischen Konsonanten die Transkription ohne Markierung der Silbengrenze bevorzugt wird, z.B. /at/, Maas, 2006: 196). Im Gegensatz zur Schärfungsschreibung wird die Dehnungsgraphie – wenn überhaupt ein Bezug zur Silbe hergestellt wird – tautosyllabisch beschrieben, d.h., das Vorhandensein eines Dehnungszeichens ergibt sich aus der Silbenstruktur der betreffenden Silbe. Neben der 'eigentlichen' Funktion der Dehnungszeichen (insbesondere des Dehnungs-‹h›), nämlich darauf hinzuweisen, »dass der vorausgehende Vokal ein gespannter Langvokal ist« (Dudenredaktion, 2005: 73), werden weitere Funktionen mit Silbenbezug genannt. Dies ist z.B. der »Gewichtsausgleich für Schreibsilben« (Eisenberg, 1998: 303), der dazu führt, dass Dehnungszeichen bei einsilbigen Wortformen mit komplexem Endrand nicht und allgemein bei komplexem Anfangsrand seltener vorkommen. Des Weiteren sei die »graphematische Silbenkopfoptimierung« (Primus, 2000: 28f.) angeführt, bei der ein silbeninitiales stummes ‹h› die Reduktionssilbe »schützt«. Letzteres wird z.B. von der Dudenredaktion auch silbentrennendes ‹h› genannt und dient der Markierung der Silbengrenze zwischen zwei Vokalgraphemen (Dudenredaktion, 2005: 76). Somit lässt sich die Beobachtung, dass Kinder aus einem fortgeschrittenen Aneignungsgrad silbischer Segmentierungen kaum ein Vorteil bei der Schreibung von Dehnungsgraphien gewinnen können, anhand der genannten theoretischen Beschreibungsansätze erklären. Im Gegensatz zu den 'positiven' Verzögerungen an Silbengrenzen stellen Unterbrechungen des Schreibflusses im Umfeld von Fehlern oder Fehlerschwerpunkten einen eher unerwünschten Effekt dar. Unerwünscht insofern, als sie darauf hinweisen, dass die mentale Repräsentation des betroffenen Wortes oder der betroffenen Regel noch schwach ausgeprägt ist (vgl. zur Repräsentation auch Kapitel 4.4. Verbales Arbeitsgedächtnis und der Aufbau orthographischer Repräsentationen, Seite 131ff.). Es konnte gezeigt werden, dass sowohl tatsächlich produzierte Fehler als auch 'beinahe' produzierte Fehler an den Fehlerschwerpunkten zu Verzögerungen im Schreibfluss führen, was die Methode auch für die Diagnose von Rechtschreibproblemen interessant macht. Hierfür spricht auch der Befund, dass diese Verzögerungen in den meisten Fällen unmittelbar vor oder an der entsprechenden Position auftreten. Unsicherheiten bezüglich der Schreibung eines Wortes können aber auch wortinitial auftreten. Dieser Effekt wird dem Zugriff auf das mentale Lexikon zugeschrieben, da er sich auf die wortinitiale Latenz beschränkt und sich nicht, wie z.B. die Länge des Silbenanfangsrandes, in Form von Verzögerungen im Schriftzug und im Schreibfluss äußert. Dies spricht dafür, dass die lexikalischen Prozesse zu Beginn der Schreibung abgeschlossen sind, die sublexikalischen silbischen Prozesse aber noch während der aktuellen Produktion ablaufen. Bei sehr unsicheren Rechtschreibern summieren sich die wortinitialen Verzögerungen stark auf, was an der starken Korrelation zwischen der initialen Latenz und der Fehlersumme deutlich wird (vgl. Abbildung 10, Seite 103).
146 In einem weiteren Experiment wurde die Hypothese geprüft, dass auch die Spanne des verbalen Arbeitsgedächtnisses mit der orthographischen Kompetenz korreliert. Mit Hilfe eines Reading Memory Span-Tests, bei dem die Kinder die jeweils letzten Wörter einer Reihe von selbst vorgelesenen Sätzen erinnern sollten, konnten die Ergebnisse der Münchner Langzeitstudie (LOGIC, Schneider & Näslund, 1993, 1999) gestützt werden. Demnach sind die Prozesse des verbalen Arbeitsgedächtnisses ein starkes Vorhersagekriterium für die spätere Rechtschreibleistung. Entscheidend für diesen Effekt erscheint die Bedeutung des Arbeitsgedächtnisses für den Aufbau orthographischer Repräsentationen zu sein, denn unabhängig von der verwendeten Strategie (lexikalisch durch Analogiebildung oder sublexikalisch durch die Phonem-Graphem-Konversion) müssen die Zwischenergebnisse der Prozesse in einem verbalen Speicher behalten werden. Zuletzt wurden die Messungen der beiden Experimente in Bezug zueinander gesetzt. Eine signifikante Korrelation zwischen dem Aneignungsgrad der Silbensegmentierung und der Spanne des verbalen Arbeitsgedächtnisses (Erklärungsniveau: ca. 25%) bestätigte die zweite Hypothese des zweiten Experiments. Ein Zusammenhang war aufgrund der Annahme vermutet worden, dass eine weitgehend automatisierte Silbensegmentierung durch die Zusammenfassung von Segmenten die Anforderungen an das verbale Arbeitsgedächtnis verringert. Im Sinne der begrenzten kognitiven Kapazität würde hierdurch die Verarbeitung der phonemischen Information und somit deren Qualität verbessert. Somit führt die Aneignung silbischer Verarbeitungsstrategien auf mehreren Ebenen zu einer Ökonomisierung der Prozesse der schriftlichen Sprachverarbeitung.
6.
Literatur
Arthur, T. A. A., Hitch, G. J. & Halliday, M. S. (1994). Articulatory Loop and Children's Reading. – In: British Journal of Psychology, 85(2), 283–301. Ärzte Zeitung, 22.01.2002. Mit Teilhandprothese wird selbst ein rohes Ei sicher gehalten. – verfügbar unter: http://www.aerzte-zeitung.de/docs/2002/01/22/012a1001.asp, November 2005. Askov, E. N., Otto, W. & Askov, W. (1970). A decade of research in handwriting: Progress and prospect. – In: Journal of Educational Research, 64, 99–111 Augst, G. (1991). Alternative Regeln zur graphischen Kennzeichnung des kurzen Vokals im Deutschen - ein historischer Vergleich. – In: G. Augst, O. Ehrismann & H. Ramge (Hgg.), Festschrift für Heinz Engels zum 65. Geburtstag (pp. 320–344). Göppingen: Kümmerle (Göppinger Arbeiten zur Germanistik 561). Augst, G. & Stock, E. (1997). Laut-Buchstaben-Zuordnung. – In: G. Augst, K. Blüml & D. Nerius (Hgg.), Zur Neuregelung der deutschen Orthographie. Begründung und Kritik (pp. 113–134). Tübingen: Niemeyer (Reihe germanistische Linguistik 179). Baayen, R. H., Piepenbrock, R. & van Rijn, H. (1993). The CELEX lexical database [Computer Software]. Linguistic Data Consortium, Philadelphia, PA: University of Pennsylvania. Baddeley, A. D. & Hitch, G. (1974). Working memory. – In: G. H. Bower (Ed.), The psychology of learning and motivation (pp. 47–90). New York: Academic Press. Baddeley, A. D., Papagno, C. & Vallar, G. (1988). When long-term learning depends on short-term storage. – In: Journal of Memory and Language, 27, 586–595. Badecker, W. (1996). Representational properties common to phonological and orthographic output systems. – In: Lingua, 99, 55–83. Badecker, W., Hillis, A. & Caramazza, A. (1990). Lexical morphology and its role in the writing process: Evidence from a case of acquired dysgraphia. – In: Cognition, 35, 205–243. Badecker, W., Rapp, B. & Caramazza, A. (1996). Lexical Morphology and the Two Orthographic Routes. – In: Cognitive Neuropsychology, 13, 161–175. Bartnitzky, H. (2005). Welche Schreibschrift passt am besten zum Grundschulunterricht heute? – In: Grundschule Aktuell, Heft 91, 3–12. Beauvois, M.-F. & Dérouesné, J. (1981). Lexical or orthographic dysgraphia. – In: Brain, 104, 21–50. Bereiter, C. & Scardamalia, M. (1987). The psychology of written composition. Hillsdale, NJ: Lawrence Erlbaum Associates. Berg, T. (1996). The modality-specificity of linguistic representations: Evidence from slips of the tongue and the pen. – In: Journal of Pragmatics, 27, 671–697. – (2002). Slips of the typewriter key. – In: Applied Psycholinguistics, 23, 185–207. Binet, A. & Courtier, J. (1893). Sur la vitesse des mouvements graphiques. – In: Revue Philosophique, 35, 664–671. Blevins, J. (1995). The syllable in phonological theory. – In: J. Goldsmith (Ed.), The handbook of phonological theory (pp. 206–244). Cambridge, MA: Blackwell. Blöte, A. & Hamstra-Bletz, L. (1991). A longitudinal study on the structure of handwriting. – In: Perceptual and Motor Skills, 72, 983–994.
148 Bodner, G. E. & Masson, M. E. J. (1997). Masked repetition priming of words and nonwords: Evidence for a nonlexical basis for priming. – In: Journal of Memory and Language, 37, 268–293. Bonin, P., Peereman, R. & Fayol, M. (2001). Do Phonological Codes Constrain the Selection of Orthographic Codes in Written Picture Naming? – In: Journal of Memory and Language, 45, 688– 720. Bortz, J. (1977, 51999). Statistik für Sozialwissenschaftler. Berlin: Springer. Cantor, J., Engle, R. W. & Hamilton, G. (1991). Short-term memory, working memory, and verbal abilities: How do they relate? – In: Intelligence, 15, 229–246. Caplan, D. & Waters, G. S. (1999). Verbal working memory and sentence comprehension. – In: Behavioral and Brain Sciences, 22, 77–94. Caramazza, A. & Miceli, G. (1990). The structure of graphemic representations. – In: Cognition, 37, 243–297. Castiello, U. & Stelmach, G. E. (1993). Generalized representation of handwriting: Evidence of effector independence. – In: Acta Psychologica, 82, 53–68. Chi, M. T. H. (1977). Age differences in memory span. – In: Journal of Experimental Child Psychology, 23, 266–281. Clements, G. N. (1990). The sonority cycle in core syllabification. – In: J. Kingston & M. Beckman (Eds.), Papers in laboratory phonology I: Between the grammar and physics of speech (pp. 283– 333). Cambridge: Cambridge University Press. Cohen, J. (1994). The earth is round (p < .05). – In: American Psychologist, 49, 997–1003. Coltheart, M. (1978). Lexical access in simple reading tasks. – In: G. Underwood (Ed.), Strategies in information processing (pp. 151–216). London: Academic Press. Coltheart, M., Curtis, B., Atkins, P. & Haller, M. (1993). Models of Reading Aloud: Dual-Route and Parallel-Distributed-Processing Approaches. – In: Psychological Review, 100, 589–608. Cooper, William E. (Ed.). (1983). Cognitive aspects of skilled typewriting. New York, Heidelberg, Berlin: Springer. Coover, J. E. (1923). A method of teaching typewriting based upon a psychological analysis of expert typing. – In: National Education Association, 61, 561–567. Crosson, B., Rao, S. M., Woodley, S. J., Rosen, A. C., Bobholz, J. A., Mayer, A., Cunningham, J. M., Hammeke, T. A., Fuller, S. A., Binder, J. R., Cox, R. W. & Stein, E. A. (1999). Mapping of Semantic, Phonological, and Orthographic Verbal Working Memory in Normal Adults With Functional Magnetic Resonance Imaging. – In: Neuropsychology, 13, 171–187. Cunningham, A. E., Perry, K. E., Stanovich, K. E. & Share, D. L. (2002). Orthographic learning during reading: Examining the role of self-teaching. – In: Journal of Experimental Child Psychology, 82, 185–199. Daneman, M. & Blennerhassett, A. (1984). How to assess the listening comprehension skills of prereaders. – In: Journal of Educational Psychology, 76, 1372–1381. Daneman, M. & Carpenter, P. A. (1980). Individual Differences in Working Memory and Reading. – In: Journal of Verbal Learning and Verbal Behavior, 19, 450–466. Daniels, P. T. (2006). On beyond alphabets. – In: M. Neef & G. Nottbusch (Eds.) Written language and literacy, 9, 7–24. De Goes, C. & Martlew, M. (1983). Young children's approach to literacy. – In: M. Martlew (Ed.), The Psychology of Written Language (pp. 217–236). Chichester: John Wiley and Sons.
149 de Marées, H. (31981). Sportphysiologie. Köln: Tropon (Medizin von heute 10). Denier van der Gon, J. J. & Thuring, J. P. (1965). The guiding of human writing movements. – In: Biological Cybernetics, 2, 145–148. Domahs, F., de Bleser, R. & Eisenberg, P. (2001). Silbische Aspekte segmentalen Schreibens - neurolinguistische Evidenz. – In: Linguistische Berichte, Heft 185, 13–30. Dudenredaktion (Hgg.) (72005). Duden: Die Grammatik. Mannheim, Leipzig, Wien, Zürich: Dudenverlag. Dvorak, A. (1943) There is a Better Typewriter Keyboard. – In: National Business Education Quarterly, 11, 51–58, 66. Dvorak, A., Merrick, N. L., Dealey, W. L. & Ford, G. C. (1936) Typewriting behavior, American Book Co. Edelman, S., Flash, T. & Ullman, S. (1990). Reading cursive handwriting by alignment of letter prototypes. – In: International Journal of Computer Vision, 5, 303–331. Ehri, L. C. (1991). Learning to read and spell words. – In: L. Rieben & C. A. Perfetti (Eds.), Learning to read. Basic research and its implication (pp. 57–73). Hillsdale, NJ: Erlbaum. Eichler, W. (1986). Zu Uta Frith' Dreiphasenmodell des Lesens (und Schreiben) Lernens. Oder: Lassen sich verschiedene Modelle des Schriftspracherwerbs aufeinander beziehen und weiterentwickeln? – In: G. Augst (Ed.), New Trends in Graphemics and Orthography (pp. 234–247). Berlin: de Gruyter. Eichler, W. & Thomé, G. (1995). Bericht aus dem Forschungsprojekt "Innere Regelbildung im Orthographieerwerb im Schulalter". – In: H. Brügelmann, H. Balhorn & I. Füssenich (Hgg.), Am Rande der Schrift: zwischen Sprachenvielfalt und Analphabetismus (pp. 35–42). Lengwil am Bodensee: Libelle. Eisenberg, P. (1989). Die Schreibsilbe im Deutschen. – In: P. Eisenberg & H. Günther (Hgg.), Schriftsystem und Orthographie (pp. 57–84). Tübingen: Niemeyer (Reihe germanistische Linguistik 97). – (1997). Die besondere Kennzeichnung der kurzen Vokale - Vergleich und Bewertung der Neuregelung. – In: G. Augst, K. Blüml & D. Nerius (Hgg.), Zur Neuregelung der deutschen Orthographie. Begründung und Kritik (pp. 323–335). Tübingen: Niemeyer (Reihe germanistische Linguistik 179). – (1998). Grundriss der deutschen Grammatik. Bd.1: Das Wort. Stuttgart: Metzler. – (2005). Der Buchstabe und die Schriftstruktur des Wortes. – In: Dudenredaktion (Hgg.), Duden: Die Grammatik (7. Aufl., pp. 61–94). Mannheim, Leipzig, Wien, Zürich: Dudenverlag. Ellis, A. W. (1979). Slips of the pen. – In: Visible Language, 13, 265–282. – (1982). Spelling and writing (and reading and speaking). – In: A. W. Ellis (Ed.), Normality and pathology in cognitive functions (pp. 113–146). New York: Academic Press. – (1988). Normal writing processes and peripheral acquired dysgraphias. – In: Language and Cognitive Processes, 3, 99–127. Ellis, A. W. & Young, A. W. (1996). Spelling and writing. – In: A. W. Ellis & A. W. Young (Eds.) Human cognitive neuropsychology (augmented edition, pp. 163–190). Hove: Psychology Press. Fendrick, P. (1937). Hierarchical skills in typewriting. – In: Journal of Educational Psychology, 28, 609–620.
150 Frede, A., Grünewald, H. & Kleinert, I. (2002). Der Schreib-Kurs zur Vereinfachten Ausgangsschrift. – In: Praxis Grundschule, 25, 4–34. Frith, U. (1985). Beneath the surface of developmental dyslexia. – In: K. E. Patterson, J. C. Marshall & M. Coltheart (Eds.), Surface Dyslexia (pp. 300–330). London: Erlbaum. Gasser, T. & Müller, H-G. (1979). Kernel estimation of regression functions. – In: Lecture notes in mathematics, 757, 23–68. – (1984). Estimating regression functions and their derivates by the Kernel method. – In: Scandinavian Journal of Statistics, 11, 171–185. Gasser, T., Müller, H-G. & Mammitzsch, V. (1985). Kernels for nonparametric curve estimation. – In: Journal of the Royal Statistical Society B, 47, 238–252. Gathercole, S. E. & Baddeley, A. D. (1989). Evaluation of the role of phonological STM in the development of vocabulary in children: A longitudinal study. – In: Journal of Memory and Language, 28, 200–213. – (1990a). Phonological memory deficits in language disordered children: Is there a causal connection? – In: Journal of Memory and Language, 29, 336–360. – (1990b). The role of phonological memory in vocabulary acquisition: A study of young children learning new names. – In: British Journal of Psychology, 81, 439–454. – (1993). Working Memory and Language. Hove: Erlbaum (Essays in Cognitive Psychology). Gathercole, S. E., Willis, C., Emslie, H. & Baddeley, A. D. (1992). Phonological memory and vocabulary development during the early school years: A longitudinal study. – In: Developmental Psychology, 28, 887–898. Gentner, D. R. (1982a). Evidence against a central control model of timing in typing. – In: Journal of Experimental Psychology: Human Perception and Performance, 8, 793–810. – (1982b). Testing the central control model of typing: Comments on the reply by Viviani and Terzuolo. – In: Journal of Experimental Psychology: Human Perception and Performance, 8, 814–816. – (1983). The acquisition of typewriting skill. – In: Acta Psychologica, 54, 233–248. – (1987). Timing of skilled motor performance: Tests of the proportional duration model. – In: Psychological Review, 94, 255–276. Gentner, D. R., Grudin, J. T., Larochelle, S., Norman, D. A. & Rumelhart, D. E. (1983). A Glossary of Terms Including a Classification of Typing Errors. – In: W. E. Cooper (Ed.), Cognitive Aspects of Skilled Typewriting (pp. 39–43). New York, Heidelberg, Berlin: Springer. Gentner, D. R., Larochelle, S. & Grudin, J. (1988). Lexical, sublexical, and peripheral effects in skilled typewriting. – In: Cognitive Psychology, 20, 524–548. Gentner, D. R., Grudin, J. & Conway, E. (1980). Finger movements in transcription typing. [Tech. Rep. 8001]. La Jolla, CA: University of California, San Diego, Center for Human Information Processing. (ERIC Document Reproduction Service No. ED 187 903) Gombert, J. & Fayol, M. (1992). Writing in preliterate children. – In: Learning and Instruction, 2, 23– 41. Graham, S. & Weintraub, N. (1996). A review of handwriting research: Progress and prospects from 1980 to 1994. – In: Educational Psychology Review, 8, 7–87.
151 Grudin, J. T. (1983a). Error Patterns in Novice and Skilled Transcription Typing. – In: W. E. Cooper (Ed.), Cognitive Aspects of Skilled Typewriting (pp. 121–143). New York, Heidelberg, Berlin: Springer. – (1983b). Non-Hierarchic Specification of Components in Transcription Typewriting. – In: Acta Psychologica, 54, 249–262. Grudin, J. T. & Larochelle, S. (1982). Digraph frequency effects in skilled typing. CHIP Technical Report no. 110. Grund, M., Haug, M. & Naumann, C. L. (1995). Diagnostischer Rechtschreibtest für 5. Klassen: DRT 5. Beiheft mit Anleitung und Normentabellen. Weinheim: Beltz. Grünewald, H. (1970). Schrift als Bewegung. Empirische Untersuchungen über die Bewegungsstruktur der Lateinischen Ausgangsschrift und das schreibmotorische Verhalten. Deutsches Institut für Internationale Pädagogische Forschung, Abteilung Pädagogische Psychologie. Weinheim: Beltz (Studien zur Pädagogischen Psychologie 7). – (1987). Argumente für die Vereinfachte Ausgangsschrift im Hinblick auf die Rechtschreibung. – In: I. Naegele & R. Valtin (Hgg.) Rechtschreibunterricht in den Klassen 1-6 (pp. 97–102). Frankfurt a.M.: Arbeitskreis Grundschule e.V. – (1998). Untersuchungen zur Vereinfachten Ausgangsschrift. – In: Jahrbuch Grundschule, 199– 203. Hasert, J. W. (1998). Schreiben mit der Hand: Schreibmotorische Prozesse bei 8 - 10-jährigen Grundschülern. Frankfurt am Main: Peter Lang (Arbeiten zur Sprachanalyse 30). – (2003). Schulschriften. – In: U. Bredel, H. Günther, P. Klotz, J. Ossner & G. Siebert-Ott (Hgg.), Didaktik der deutschen Sprache. Ein Handbuch (pp. 307–318). Paderborn, München, Wien, Zürich: Schöningh (UTB 8236). Hollerbach, J. A. (1981). An oscillation theory of handwriting. – In: Biological Cybernetics, 13, 139– 156. Hotopf, N. (1980). Slips of the pen. – In: U. Frith (Ed.), Cognitive processes in spelling (pp. 147– 199). London: Academic Press. Hulme, C., Maughan, S. & Brown G. D. A. (1991). Memory for familiar and unfamiliar words: Evidence for a long-term memory contribution to short term memory span. – In: Journal of Memory and Language, 30, 685–701. Hulstijn, W. & van Galen, G. P. (1983). Programming in handwriting: Reaction time and movement time as a function of sequence length. – In: Acta Psychologica, 54, 23–49. – (1988). Levels of motor programming in writing familiar and unfamiliar symbols. – In: A. M. Colley & J. R. Beech (Eds.) Cognition and action in skilled behaviour (pp. 65–85). Amsterdam: North Holland. Jónsdóttir, M. K., Shallice, T. & R. Wise (1996). Phonological mediation and the graphemic buffer disorder in spelling: cross-language differences? – In: Cognition, 59, 169–197. Kandel, S., Orliaguet, J. P. & Boë, L. J. (1994). Visual perception of motor anticipation in the time course of handwriting. – In: C. Faure, P. Keuss, G. Lorette, A. Vinter (Eds.), Advances in Handwriting and Drawing: A Multidisciplinary Approach (pp. 379–388). Paris: Europia Kimura, Y. & Bryant, P. (1983). Reading and writing in English and Japanese: A cross-cultural study of young children. – In: British Journal of Developmental Psychology, 1, 143–154.
152 Knobloch, C. (1996). Historisch-systematischer Aufriß der psychologischen Schreibforschung. – In: H. Günther & O. Ludwig (Hgg.): Handbuch Schrift und Schriftlichkeit. Writing and its use. Ein interdisziplinäres Handbuch internationaler Forschung (pp. 983–992). Berlin: de Gruyter. LaBerge, D. & Samuels, S. J. (1974). Towards a theory of automatic information processing in reading. – In: Cognitive Psychology, 6, 293–323. Lacquaniti, F., Terzuolo, C. & Viviani, P. (1983). The law relating the kinematic and figural aspects of drawing movements. – In: Acta Psychologica, 54, 115–130. Landerl, K. & Wimmer, H. (1998). Lesenlernen bei deutsch- und englischsprachigen Kindern - Normaler und gestörter Leseerwerb. – In: R. Weingarten & H. Günther (Hgg.), Schriftspracherwerb (pp. 83–97). Baltmannsweiler: Schneider. Larochelle, S. (1983). A Comparison of skilled and novice performance in discontinuous typing. – In: W. E. Cooper (Ed.), Cognitive aspects of skilled typewriting (pp. 67–94). New York, Heidelberg, Berlin: Springer. – (1984). Some aspects of movement in skilled typewriting. – In: H. Bouma & D. G. Bouwhuis (Eds.), Attention and performance X. Control of language processes (pp. 43–54). Hillsdale, NJ: Erlbaum. Lennox, C. & Siegel, L. S. (1994). The role of phonological and orthographic processes in learning to spell. – In: G. D. A. Brown & N. C. Ellis (Eds.), Handbook of spelling: theory, process and intervention (pp. 92–109). Chichester: Wiley. Leuninger, H. (1993). Reden ist Schweigen, Silber ist Gold. Gesammelte Versprecher. Zürich: Ammann – (1997). Danke und Tschüß fürs Mitnehmen. Gesammelte Versprecher und eine kleine Theorie ihrer Korrekturen. Zürich: Ammann Logan, F. A. (1999). Errors in Copy Typewriting. – In: Journal of Experimental Psychology: Human Perception and Performance, 25, 1760–1773. Maas, U. (1992). Grundzüge der deutschen Orthographie. Tübingen: Niemeyer (Reihe Germanistische Linguistik 120). – (2002). Die Anschlusskorrelation des Deutschen im Horizont einer Typologie der Silbenstruktur. – In: P. Auer, P. Gilles & H. Spiekermann (Hgg.), Silbenschnitt und Tonakzente (pp. 11–34). Tübingen: Niemeyer (Linguistische Arbeiten 463). – (2003). Orthographie und Schriftkultur – nicht nur im Deutschen. Arbeitsskript zur Vorlesung. Osnabrück: Buchhandlung zur Heide. – (1999, 22006). Phonologie: Einführung in die funktionale Phonetik des Deutschen. Göttingen: Vandenhoeck & Ruprecht (Studienbücher zur Linguistik 2). MacNeilage, P. F. (1964). Typing errors as clues to serial ordering mechanisms in language behavior. – In: Language and Speech, 7, 144–159. – (1985). Serial ordering errors in speech and typing. – In: V. A. Fromkin (Ed.), Phonetic linguistics: Essays in honor of Peter Ladefoged (pp. 193–201). Orlando: Academic Press. – (1998). The frame/content theory of evolution of speech production. – In: Behavioral and Brain Sciences, 21, 499–546. Mahrhofer-Bernt, C. (2005). Die eigene Schrift entwickeln – von Anfang an. Wie kann Schreibunterricht die graphomotorische Entwicklung angemessen unterstützen? – In: Grundschule Aktuell, Heft 91, 21–25.
153 Mahrhofer, C. (2004). Schreibenlernen mit graphomotorisch vereinfachten Schreibvorgaben. Eine experimentelle Studie zum Erwerb der verbundenen Ausgangsschrift in der 1. und 2. Jahrgangsstufe. Bad Heilbrunn: Klinkhardt. Mahrhofer, C. & Speck-Hamdan, A. (2001). Schreibenlernen - ein Kinderspiel? Eine Analyse des Erstschreibunterrichts aus graphomotorischer Sicht auf der Basis neuerer Forschungsergebnisse. – In: Grundschule, 2001(2), 39–41. Mai, N. (1991). Warum wird Kindern das Schreiben schwer gemacht? Zur Analyse der Schreibbewegungen. – In: Psychologische Rundschau, 42, 12–18. Mai, N. & Marquardt, C. (1995a). Analyse und Therapie motorischer Schreibstörungen. – In: Psychologische Beiträge, 37, 538–582. – (1995b). Schreibtraining in der neurologischen Rehabilitation. Dortmund: Borgmann. – (1998). Registrierung und Analyse von Schreibbewegungen: Fragen an den Schreibunterricht. – In: L. Huber, G. Kegel & A. Speck-Hamdan (Hgg.), Einblicke in den Schriftspracherwerb (pp. 83–99). Braunschweig: Westermann. Mai, N., Marquardt, C. & Quenzel, I. (1997). Wie kann die Flüssigkeit von Schreibbewegungen gefördert werden? – In: H. Balhorn & H. Niemann, Sprachen werden Schrift. Mündlichkeit, Schriftlichkeit, Mehrsprachigkeit (pp. 220–230). Lengwil: Libelle. Mannhaupt, G. (2001). Lernvoraussetzungen im Schriftspracherwerb. Zur Entwicklung der Schriftsprache im Vor- und Grundschulalter. Kölner Studien Verlag. Margolin, D. I. (1984). The neuropsychology of writing and spelling: Semantic, phonological, motor, and perceptual processes. – In: The Quarterly Journal of Experimental Psychology, 36A, 459–489. Marini, V. & Blanken, G. (1996). Orthographie ohne Phonologie: Ein Fall von Tiefenagraphie bei neologistischer Jargon-Aphasie. – In: Neurolinguistik, 10, 83–107. Marquardt, C. & Mai, N. (1994). A computational procedure for movement analysis in handwriting. – In: Journal of Neuroscience Methods, 52, 39–45. Marquardt, C., Gentz, W. & Mai, N. (1996). On the Role of Vision in Skilled Handwriting. – In: M. L. Simner, C. G. Leedham & A. J. W. M. Thomassen (Eds.), Handwriting and Drawing Research: Basic and Applied Issues (pp. 87–98). Amsterdam, Oxford, Tokyo, Washington, DC: IOS Press. Martinet, C., Valdois, S. & Fayol, M. (2004). Lexical orthographic knowledge develops from the beginning of literary acquisition. – In: Cognition, 91, B11–B22. Massaro, D. W. & Lucas, P. A. (1984). Typing letter strings varying in orthographic structure. – In: Acta Psychologica, 57, 109–131. McCloskey, M., Badecker, W., Goodman-Schulman, R. A. & Aliminosa, D. (1994). The Structure of Graphemic Representations in Spelling: Evidence from a Case of Acquired Dysgraphia. – In: Cognitive Neuropsychology, 11, 341–392. Meeks, M. L. & Kuklinski, T. T. (1990). Measurement of dynamic digitizer performance. – In: R. Plamondon & C. G. Leedham (Eds.), Computer processing of handwriting. Singapore: World Scientific Publ. Meis, R. (1963). Schreibleistungen von Schulanfängern und das Problem der Anfangsschrift. Göttingen: Hogrefe. Meulenbroek, R. G. J. & van Galen, G. P. (1986). Movement analysis of repetitive writing behavior of first, second and third-grade primary school children. – In: H. S. R. Kao, G. P. van Galen & R.
154 Hoosain (Eds.): Graphonomics: Contemporary research in handwriting (pp. 133–139). Amsterdam: North Holland. – (1988). The acquisition of skilled handwriting: Discontinous trends in kinematic variables. – In: A. M. Colley & J. R. Beech (Eds.): Cognition and action in skilled behaviour (pp. 273–281). Amsterdam: North Holland. – (1989). The production of connecting strokes in cursive writing: Developing co-articulation in 8to 12-year-old children. – In: R. Plamondon, C. Y. Suen & M. L. Simner (Eds.), Computer recognition and human production of handwriting (pp. 273–286). Singapore: World Scientific Publishers. – (1990). Perceptual-motor complexity of printed and cursive letters. – In: The Journal of Experimental Education, 58, 95–110. Miceli, G., Benvegnu B., Capasso R. & Caramazza, A. (1997). The independence of phonological and orthographic lexical forms: Evidence from aphasia. – In: Cognitive Neuropsychology, 14, 35– 69. Miceli, G. & Caramazza, A. (1988). Dissociation of inflectional and derivational morphology. – In: Brain & Language, 35, 24–65. Monsell, S. (1985). Repetition and the lexicon. – In: A. W. Ellis (Ed.), Progress in the psychology of language Vol. 2 (pp. 147–195). Hillsdale, NJ: Erlbaum. Morton, J. (1980). The logogen model and orthographic structure. – In: U. Frith (Ed.), Cognitive processes in spelling (pp. 117–133). London: Academic Press. Neef, M. (2005). Die Graphematik des Deutschen. Tübingen: Niemeyer (Linguistische Arbeiten 500). Neuhaus-Siemon, E. (1981). Die Entwicklung des Erstschreibunterrichts seit den Schulreformbestrebungen in diesem Jahrhundert. – In: E. Neuhaus-Siemon (Hg.), Schreibenlernen im Anfangsunterricht der Grundschule (pp. 13–54). Königstein/Ts.: Scriptor Verlag (Scriptor Taschenbücher Grundschule 159). – (1996). Aspekte und Probleme des Schreibunterrichts: Erstschreiben. – In: H. Günther & O. Ludwig (Eds.), Handbuch Schrift und Schriftlichkeit. Writing and its use. Ein interdisziplinäres Handbuch internationaler Forschung (pp. 1240–1248). Berlin, New York: de Gruyter. Nottbusch, G. (1998). Dynamik in der handschriftlichen Sprachproduktion. Hausarbeit im Rahmen der ersten Staatsprüfung für das Lehramt an Gymnasien. Universität Osnabrück. Unveröffentlichtes Manuskript. – (2006). Implications of orthographic and non-orthographic errors on a model of spelling processes in writing. [Vortrag: 5th International Workshop on Writing Systems: Constraints on Spelling Changes, Nijmegen, The Netherlands, 4.-6. Oktober, 2006]. – (in press): Grammatical planning, execution and control in Written Sentence Production. – In: Reading & Writing. Special issue: Reading during writing. Nottbusch, G. & Weingarten, R. (2002). Linguistische Einheiten im Schreibprozess. [Vortrag: Tagung Linguistische Aspekte des Schriftspracherwerbs und der Textproduktion in Theorie und Praxis am 26./27. April 2002 in Osnabrück]. Nottbusch, G., Grimm, A., Weingarten, R. & Will, U. (2005). Syllabic structures in typing: Evidence from hearing-impaired writers. – In: Reading & Writing, 18, 497–526.
155 Nottbusch, G., Weingarten, R. & Sahel, S. (2007). From written word to written sentence production. – In: D. Galbraith, L. van Waes. & M. Torrance, M. (Eds.), Writing and Cognition (pp. 31–54). Amsterdam: Elsevier (Studies in Writing 20). Nottbusch, G., Weingarten, R. & Will, U. (1998). Schreiben mit der Hand und Schreiben mit dem Computer. – In: Osnabrücker Beiträge zur Sprachtheorie (OBST), 56, 11–27. Olsen, R. A. & Murray, R. A. (1976). Finger motion analysis in typing of texts of varying complexity. – In: Proceedings of the 6th Congress of the International Ergonomics Association, 446–450. Orliaguet, J.-P. & Boë, L.-J. (1993). The role of linguistics in the speed of handwriting movement: Effects of spelling uncertainty. – In: Acta Psychologica, 82, 103–113. Ostry, D. J. (1980). Execution-time movement control. – In: G. E. Stelmach, and J. Requin (Eds.), Tutorials in motor behavior (pp. 457–468). Amsterdam: North-Holland. – (1983). Determinants of interkey times in typing. – In: W. E. Cooper (Ed.), Cognitive aspects of skilled typewriting (pp. 225–246). New York: Springer. Paul-Mengelberg, M. (1996). Psychologische Aspekte von Schrift und Schriftlichkeit. – In: H. Günther & O. Ludwig (Eds.), Handbuch Schrift und Schriftlichkeit. Writing and its use. Ein interdisziplinäres Handbuch internationaler Forschung (pp. 1046–1051). Berlin: de Gruyter. Peck, M., Askov, E. N. & Fairchild, S. H. (1980). Another decade of research in handwriting: Progress and prospect in the 1970s. – In: Journal of Educational Research, 73, 283–298. Perfetti, C. (1992). The representation problem in reading acquisition. – In: P. B. Gough, L. C. Ehri & R. Treiman (Eds.), Reading acquisition (pp. 145–174). Hillsdale, NJ: Erlbaum. Phillips, M. J. (1987). Check digitizer specs carefully. – In: Computer Technology Review, 7, 16–49. Pick, H. L. & Teulings, H.-L. (1983). Geometric transformations of handwriting. – In: Acta Psychologica, 54, 327–340. Portier, S. J., van Galen, G. P. & Meulenbroek, R. G. J. (1990). Practice and the dynamics of handwriting performance: Evidence for a shift of motor programming load. – In: Journal of Motor Behavior, 22, 474–492. Portier, S. J., van Galen, G. P. & Thomassen, A. J. W. M. (1993). Phonological and orthographic demands in the production of handwriting. – In: Acta Psychologica, 82, 251–274. Primus, B. (2000). Suprasegmentale Graphematik und Phonologie: Die Dehnungszeichen im Deutschen. – In: Linguistische Berichte, Heft 181, 5–30. – (2003). Zum Silbenbegriff in der Schrift-, Laut- und Gebärdensprache. – In: Zeitschrift für Sprachwissenschaft, 22, 3–55. Pynte, J., Courrieu, P. & Frenck, C. (1991). Evidence of repeated access to immediate verbal memory during handwriting. – In: European Journal of Psychology of Education, VI, 121–125. Rapp, B. C., Benzing, L. & Caramazza, A. (1997). The autonomy of lexical orthography. – In: Cognitive Neuropsychology, 14, 71–104. Rat für deutsche Rechtschreibung (2006). Deutsche Rechtschreibung: Regeln und Wörterverzeichnis. – verfügbar unter: http://rechtschreibrat.ids-mannheim.de/download/. Richter, S. (1998a). Die Vereinfachte Ausgangsschrift auf dem Prüfstand: ein Fazit. – In: Jahrbuch Grundschule, 204–207. – (1998b): Was Schulschriften leisten können - und was nicht. – In: Grundschule Aktuell, 30, 9–11. Rittle-Johnson, B. & Siegler, R. S. (1999). Learning to spell: variability, choice and change in children’s strategy use. – In: Child development, 70, 332–348.
156 Rumelhart, D. E. & Norman, D. A. (1982). Simulating a skilled typist: A study of skilled cognitivemotor performance. – In: Cognitive Science, 6, 1–36. Sahel, S., Nottbusch, G. & Grimm, A. (in press). The impact of frequency and semantic transparency on the time course of German compound production. – In: Written Language and Literacy. Sahel, S., Nottbusch, G., Weingarten, R. & Blanken, G. (2005). The role of phonology and syllabic structure in the time course of typing: Evidence from aphasia. – In: Linguistische Berichte, Heft 201, 65–87. Salamé, P. & Baddeley, A. D. (1982). Disruption of memory by unattended speech: Implications for the structure of working memory. – In: Journal of verbal learning and verbal behavior, 21, 150– 164. SAS Institute (1998). StatView Reference. ISBN: 1-58025-162-5. Scheerer-Neumann, G. (1996). Der Erwerb der basalen Lese- und Schreibfähigkeiten. – In: H. Günther & O. Ludwig (Eds.), Handbuch Schrift und Schriftlichkeit. Writing and its use. Ein interdisziplinäres Handbuch internationaler Forschung (pp. 1153–1169). Berlin: de Gruyter. – (1998). Schriftspracherwerb: "The State of the Art" aus psychologischer Sicht. – In: L. Huber, G. Kegel, A. Speck-Hamdan (Hgg.), Einblicke in den Schriftspracherwerb (pp. 31–46). Braunschweig: Westermann. Schiebler, T. H. (2005). Bewegungsapparat, Extremitäten: Unterarm & Hand. – In: T. H. Schiebler (Hg.), Anatomie: Histologie, Entwicklungsgeschichte, makroskopische und mikroskopische Anatomie, Topographie (267–287). Berlin: Springer. Schneider, W. & Näslund, J. C. (1993). The impact of early metalinguistic competencies and memory capacity on reading and spelling in elementary school: Results of the Munich Longitudinal Study on the Genesis of Individual Competence (LOGIC). – In: European Journal of Psychology of Education, 8, 273–287. – (1999). Impact of early phonological processing skills on reading and spelling in school: Evidence from the Munich Longitudinal Study. – In: F. E. Weinert & W. Schneider (Eds.), Individual Development from 3 to 12. Findings from the Munich Longitudinal Study (pp. 126–147). Cambridge: Cambridge University Press. Schorch, G. (1988). Das Problem der Erst- und Ausgangsschrift aus grundschuldidaktischer Sicht. – In: Germanistische Linguistik, Heft 93/94, 59–82. – (1995). Erstschrift. – In: G. Schorch (Hg.), Studientexte zur Grundschulpädagogik und -didaktik: Schreibenlernen und Schriftspracherwerb (pp. 106–119). Bad Heilbrunn/Obb.: Klinkhardt. – (2003a). Entwicklung des Handschreibens. – In: U. Bredel, H. Günther, P. Klotz, J. Ossner & G. Siebert-Ott (Hgg.), Didaktik der deutschen Sprache. Ein Handbuch (pp. 286–296). Paderborn, München, Wien, Zürich: Schöningh (UTB 8236). – (2003b). Geschichte der Didaktik des Handschreibens. – In: U. Bredel, H. Günther, P. Klotz, J. Ossner & G. Siebert-Ott (Hgg.), Didaktik der deutschen Sprache. Ein Handbuch (pp. 273–285). Paderborn, München, Wien, Zürich: Schöningh (UTB 8236). Seidenberg, M. & McClelland, J. L. (1989). A distributed developmental model of word recognition and naming. – In: Psychological Review, 96, 523–568. Seitz, R. J. (1995). Repräsentation motorischer Fähigkeiten im Gehirn des Menschen. – In: Psychologische Beiträge, 37, 239 – 296.
157 Seymour, P. H. K. (1997). Foundation of orthographic development. – In: C. A. Perfetti, L. Rieben & M. Fayol (Eds.), Learning to spell: research, theory and practice across languages (pp. 319–337). Mahwah, NJ: Erlbaum. Shaffer, L. H. (1973). Latency mechanisms in transcription. – In: S. Kornblum (Ed.), Attention and performance IV (pp. 435–446). New York: Academic Press. – (1975). Control processes in typing. – In: Quarterly Journal of Experimental Psychology, 27, 419– 432. – (1976). Intention and Performance. – In: Psychological Review, 83, 375–393. – (1978). Timing in the motor programming of typing. – In: Quarterly Journal of Experimental Psychology, 30, 333–345. – (1984). Motor programming in language production: A tutorial review. – In: H. Bouma & D. G. Bouwhuis (Eds.), Attention and performance X. Control of language processes (pp. 17–41). Hillsdale, NJ: Erlbaum. Shaffer, L. H. & Hardwick, J. (1968). Typing performance as a function of text. – In: Quarterly Journal of Experimental Psychology, 20, 360–369. Shallice, T. (1981). Phonological agraphia and the lexical route in writing. – In: Brain, 104, 413–429. Share, D. & Shalev, C. (2004). Self-teaching in normal and disabled readers. – In: Reading and Writing, 17, 769–800. Share, D. L. (1995). Phonological recoding and self-teaching: Sine qua non of reading acquisition. – In: Cognition, 55, 151–218. – (1999). Phonological Recoding and Orthographic Learning: A Direct Test of the Self-Teaching Hypothesis. – In: Journal of Experimental Child Psychology, 72, 95–129. Smits-Engelsman, B. C. M., Van Galen, G. P. & Portier, S. J. (1994). Psychomotor development of handwriting. A cross-sectional and longitudinal study. – In: C. Faure, P. Keuss, G. Lorette, A. Vinter (Eds.), Advances in Handwriting and Drawing: A Multidisciplinary Approach (pp. 187– 205). Paris: Europia. Søvik, N., Arntzen, O., Samuelstuen, M. & Heggberget, M. (1994). Relations between linguistic wordgroups and writing. – In: C. Faure, P. Keuss, G. Lorette, A. Vinter (Eds.), Advances in Handwriting and Drawing: A Multidisciplinary Approach (pp. 231–246). Paris: Europia. Spitta, G. (1988). Von der Druckschrift zur Schreibschrift: Entdeckendes Schreibenlernen, Schreibenlernen mit Druckschrift, Übergänge zur Schreibschrift. Frankfurt am Main: Scriptor Verlag. Stelmach, G. E. & Teulings, H.-L. (1983). Response characteristics of prepared and restructured handwriting. – In: Acta Psychologica, 54, 51–67. Sternberg, S., Monsell, S., Knoll, R. L. & Wright, C. E. (1978). Latency and duration of rapid movement sequences: comparison of speech and typewriting. – In: G. E. Stelmach (Ed.), Information processing in motor control and learning (pp. 117–152). New York: Academic Press. Sterne, A. & Goswami, U. (2000). Phonological awareness of syllables, rimes, and phonemes in deaf children. – In: Journal of Child Psychology and Psychiatry, 41, 609–625. Swanson, H. L. & Berninger, V. W. (1996). Individual differences in children's working memory and writing skill. – In: Journal of Experimental Child Psychology, 63, 358–385. Tarnopol, M. & de Feldman, N. (1987). Handwriting and school achievement: A cross-cultural study. – In: J. Alston & J. Taylor (Eds.), Handwriting: Theory, Research, and Practice. London: Croom Helm.
158 Terzuolo, C. A. & Viviani, P. (1980). Determinants and characteristics of motor patterns used for typing. – In: Neuroscience, 5, 1085–1103. Teulings, H.-L. & Maarse, F. (1984). Digital recording and processing of handwriting movements. – In: Human movement science, 3, 315–333. Teulings, H.-L. & Schomaker, L. R. B. (1993). Invariant properties between strike features in handwriting. – In: Acta Psychologica, 82, 69–88. Teulings, H.-L., Thomassen, A. J. W. M. & van Galen, G. P. (1983). Preparation of partly precued handwriting movements: The size of movement units in handwriting. – In: Acta Psychologica, 54, 165–177. – (1986). Invariants in handwriting: The information contained in a motor program. – In: H. S. R. Kao, G. P. van Galen & R. Hoosain (Eds.): Graphonomics: Contemporary research in handwriting (pp. 305–315). Amsterdam: North Holland. Thomas, E. A. C. & Jones, R. G. (1970). A model for subjective grouping in typewriting. – In: Quarterly Journal of Experimental Psychology, 22, 353–367 Thomassen, A. J. W. M. (1996). Writing by hand. – In: H. Günther & O. Ludwig (Eds.): Handbuch Schrift und Schriftlichkeit. Writing and its use. Ein interdisziplinäres Handbuch internationaler Forschung (pp. 1027–1035). Berlin: de Gruyter. Thomassen, A. J. W. M. & Meulenbroek, R. G. J. (1990). Über die Schreibbewegung als linguistische Tätigkeit. – In: G. List & G. List (Hgg.): Gebärde, Laut und graphisches Zeichen. Schrifterwerb im Problemfeld von Mehrsprachigkeit (pp. 20–36). Opladen: Westdeutscher Verlag. Thomassen, A. J. W. M. & Teulings, H.-L. (1983). The development of handwriting. – In: M. Martlew (Ed.), The psychology of written language (pp. 179–213). Chichester, England: John Wiley & Sons. Thomé, G. (1999). Orthographieerwerb: qualitative Fehleranalysen zum Aufbau der orthographischen Kompetenz. Frankfurt: Lang. Thomé, G. & Thomé, D. (2004). OLFA. Oldenburger Fehleranalyse. Igel: Oldenburg. Topsch, W. (1996). Das Ende einer Legende. Die Vereinfachte Ausgangsschrift auf dem Prüfstand. Analyse empirischer Arbeiten zur Vereinfachten Ausgangsschrift. Donauwörth: Auer. – (1998): Streitpunkt Vereinfachte Ausgangsschrift. Die Forschungsergebnisse sind nicht haltbar. – In: Jahrbuch Grundschule, 193–198. van Galen, G. P. (1980). Handwriting and drawing: a two stage model of complex motor behaviour. – In: G. E. Stelmach & J. Requin (Eds.), Tutorials in motor behavior (pp. 567–578). Amsterdam: North-Holland. – (1990). Phonological and motoric demands in handwriting: Evidence for discrete transmission of information. – In: Acta Psychologica, 74, 259–275. – (1991). Handwriting: Issues for a psychomotor theory. – In: Human Movement Science, 10, 165– 191. van Galen, G. P. & Teulings, H.-L. (1983). The independent monitoring of form and scale factors in handwriting. – In: Acta Psychologica, 54, 9–22. van Galen, G. P., Meulenbroek, R. G. J. & Hylkema H. (1986). On the simultaneous processing of words, letters and strokes in handwriting: Evidence for a mixed linear and parallel model. – In: H. Kao, G. P. van Galen, R. Hoosain (Eds.), Graphonomics: Contemporary research in handwriting (pp. 5–20). Amsterdam: North-Holland.
159 van Galen, G. P., Smyth, M. M., Meulenbroek, R. G. J. & Hylkema H. (1989). The role of short-term memory and the motor buffer in handwriting under visual and non-visual guidance. – In: R. Plamondon, C. Y. Suen & M. L. Simner (Eds.), Computer recognition and human production of handwriting (pp. 253–271). Singapore: World Scientific Publishers. Viviani, P. & Laissard, G. (1996). Motor templates in typing. – In: Journal of Experimental Psychology: Human Perception and Performance, 22, 417–445. Viviani, P. & Terzuolo, C. A. (1980). Space-time invariance in learned motor skills. – In: G. E. Stelmach & J. Requin (Eds.), Tutorials in motor behavior (pp. 525–533). Amsterdam: North-Holland. – (1982a). On the relation between word-specific patterns and the central control model of typing: A reply to Gentner. – In: Journal of Experimental Psychology: Human Perception and Performance, 8, 811–813. – (1982b). Trajectory determines movement dynamics. – In: Neuroscience, 7, 431–437, Wann, J. P. & Nimmo-Smith, I. (1990). Evidence against the relative invariance of timing in handwriting. – In: The Quarterly Journal of Experimental Psychology, 42A, 105–119. Ward, J. & C. Romani (2000). Consonant-vowel encoding and orthosyllables in a case of acquired dysgraphia. – In: Cognitive Neuropsychology, 17, 641–663. Ward, J. R. & Phillips, M. J. (1987). Digitizer technology: Performance, characteristics and the effects on the user interface. – In: IEEE Computer Graphics and Applications, 7(4), 31–44. Waters, G. S. & Caplan, D. (1996). The Measurement of Verbal Working Memory Capacity and It's Relation to Reading Comprehension. – In: Quarterly Journal of Experimental Psychology A: Human Experimental Psychology, 49, 51–79. – (2003). The Reliability and Stability of Verbal Working Memory Measures. – In: Behavior Research Methods, Instruments and Computers, 35, 550–564. Weingarten, R. (1998). Schreibprozesse und Schriftspracherwerb. – In: R. Weingarten & H. Günther (Hgg.). Schriftspracherwerb (pp. 62–81). Baltmannsweiler: Schneider. – (2001). Orthographisch-grammatisches Wissen. – In: S. Wichter & G. Antos (Hgg.). Wissenstransfer zwischen Experten und Laien (pp. 209–226). Frankfurt/Main: Lang. – (2005). Subsyllabic units in written word production. – In: Written Language and Literacy, 8, 43– 61. Weingarten, R., Nottbusch, G. & Will, U. (2004). Morphemes, syllables, and graphemes in written word production. – In: T. Pechmann & Ch. Habel (Eds.), Multidisciplinary approaches to language production (pp. 529–572). Berlin: Mouton de Gruyter. Wentink, H. W. M. J., van Bon, W. H. J. & Schreuder, R. (1997). Training of poor readers' phonological decoding skills: Evidence of syllable-bound processing. – In: Reading & Writing, 9, 163– 192. Wiesendanger, M. (2005). Motorische Systeme. Zielbewegungen des Armes und Greifen. – In: R. F. Schmidt, F. Lang & G. Thews (Hgg.), Physiologie des Menschen mit Pathophysiologie (pp. 164– 171). Heidelberg : Springer Wilding, J. & Mohindra N. (1980). Effects of subvocal suppression, articulating aloud and noise on sequence recall. – In: British Journal of Psychology, 71, 247–61. Will, U., Nottbusch, G. & Weingarten, R. (2006). Linguistic units in word typing: Effects of word presentation modes and typing delay. – In: Written language and literacy, 9, 153–176.
160 Will, U., Weingarten, R., Nottbusch, G. & Albes, C. (2002). Linguistische Rahmen und segmentale Informationen bei der Einzelwortschreibung: Evidenzen aus Zeitstrukturen und Fehlerverteilungen. – In: C. Habel & T. Pechmann (Hgg.), Sprachproduktion. Opladen: Westdeutscher Verlag. – (2003). Linguistic units, hierarchies and dynamics in typing. – verfügbar unter: http://www.unibielefeld.de/lili/personen/gnottbusch/doc/Linguistic_units.pdf. Wing, A. M. (1978). Response timing in handwriting. – In: G. E. Stelmach (Ed.), Information processing in motor control and learning (pp. 153–172). New York: Academic Press. – (1980). The height of handwriting. – In: Acta Psychologica, 46, 141–151. Wright, E. (1990). Generalized motor programs: Reevaluating claims of effector independence. – In: M. Jeannerod (Ed.), Attention and performance XIII: Motor representation and control (pp. 285– 316). Hillsdale, NJ: Erlbaum. – (1993). Evaluating the special role of time in the control of handwriting. – In: Acta Psychologica, 82, 5–52. Zesiger, P., Mounoud, P. & Hauert, C.-A. (1993). Effects of lexicality and trigram frequency on handwriting production in children and adults. – In: Acta Psychologica, 82, 353–365. Zesiger, P., Orliaguet, J., Boë, L. & Mounoud, P. (1994). The influence of syllabic structure in handwriting and typing production. – In: C. Faure, P. Keuss, G. Lorette, A. Vinter (Eds.), Advances in Handwriting and Drawing: A Multidisciplinary Approach (pp. 389–401). Paris: Europia. Ziegler, J., Perry, C. & Coltheart, M. (2000). The DRC model in visual word recognition and reading aloud: An extension to German. – In: European Journal of Cognitive Psychology, 12, 413–430.
7.
Appendix
7.1.
Wortmaterial aus dem DRT5
1. Mein Kaninchen bekommt frisches __________ (Gras). 2. Die Urlauber __________ (hoffen) auf gutes Wetter. 3. Du musst die Straße am Zebrastreifen __________ (überqueren). 4. Der Junge lernt __________ (fleißig). 5. Die Menschen wünschen sich __________ (Frieden). 6. Sie macht ein __________ (erstauntes) Gesicht. 7. Hast Du ein __________ (Blatt) für mich? 8. Heute werde ich __________ (Glück) haben. 9. Sind die Äpfel __________ (billig)? 10. Meine Ausdauer wurde __________ (belohnt). 11. Hörst du, ob die __________ (Glocke) läutet? 12. Gleich wird es blitzen und __________ (donnern). 13. Deine Verletzung ist nicht __________ (schlimm). 14. Die Kinder __________ (spritzen) mit Wasser. 15. Bitte sei nicht __________ (böse)! 16. Manche Tiere __________ (kämpfen) um ihr Revier. 17. Das ist für mich keine __________ (Schwierigkeit). 18. Er __________ (fühlt) sich heute besser. 19. Die __________ (kranke) Frau geht zum Arzt. 20. Werden die Schuhe __________ (passen)? 21. Der Tiger __________ (verhält) sich ruhig. 22. Isst du gerne __________ (Quark)? 23. Der Patient muss die Tabletten __________ (schlucken). 24. Hast du eine Marke auf den Brief __________ (geklebt)? 25. In der __________ (Schale) liegen Äpfel. 26. Du darfst den Umschlag nicht __________ (knicken). 27. An der __________ (Kreuzung) passieren oft Unfälle. 28. Wann __________ (schließen) die Geschäfte? 29. Der Junge ist sehr __________ (kräftig).
162 30. Morgen __________ (müssen) wir früh aufstehen. 31. Das __________ (Hemd) wird gebügelt. 32. Sie hat die __________ (Hoffnung) nicht aufgegeben. 33. Die Wanderer erreichen den __________(Gipfel). 34. Der Kater wollte mich __________ (kratzen). 35. Die Zirkuslöwen waren ganz __________ (friedlich). 36. Du hast mich zu früh __________ (geweckt). 37. Wir __________ (nehmen) unseren Hund mit. 38. Die Braut sieht __________ (glücklich) aus. 39. Ich muß noch einmal __________ (telefonieren). 40. Das Raumschiff __________ (umkreist) die Erde. 41. Das Mädchen bekommt eine __________(Belohnung). 42. Der Motor __________ (läuft). 43. Dieser Mann ist __________ (geizig). 44. Die Krankheit hat sich __________ (verschlimmert). 45. Vor der Prüfung war sie __________ (aufgeregt). 46. Die Möwe breitet ihre __________ (Flügel) aus. 47. Ist das Rätsel __________ (schwierig)? 48. Er schreit vor __________ (Wut). 49. Ich lasse mich gegen Grippe __________ (impfen). 50. Der Hund __________ (passt) auf. 51. Die Blumen __________ (riechen) gut.
163
Anzahl Silben
Anz. Zeichen
Wörtlänge
Wortfrequenz
Wortmaterial für den Reading Memory Span-Test
Anzahl Wörter
7.2.
1 Um da oben hinzukommen brauchst Du mit Sicherheit Leiter. eine
10
18
52
6
326
2 Die Menschen stehen mit aufgerissenen Augen auf der unten. Glasplatte und sehen nach
13
24
71
5
398
3 Das Saubermachen gehört ab morgen blöderweise mit Auftrag. zu unserem
10
21
59
7
310
4 Mit dem Fahrrad zu fahren ist immer noch schneller als zu
12
17
53
6
282
5 Der Detektiv hielt den Handschuh hoch und sagte, das Beweis. sei der
12
17
55
6
266
6 Dass bei diesem Unfall niemand verletzt wurde, ist ein Wunder. kleines
11
18
58
6
256
7 Letztes Jahr waren wir in Italien an der Küste im
Urlaub.
11
18
46
6
234
8 Der Mann von der Sparkasse wollte das alles noch einmal genau
prüfen.
12
19
57
6
216
9 Dreh Dich mal um, dann siehst du dich im
Spiegel.
10
11
38
7
197
10 Auf diese Wand werden wir ein Bild malen mit ganz viel
Farbe.
12
16
49
5
189
11 Das Publikum fand die Vorstellung toll und klatschte heftig
Beifall.
10
17
58
7
373
12 Die türkische Familie macht nächstes Jahr wieder Urlaub in ihrer
Heimat.
11
21
61
6
361
13 Wenn du das einfach wegwirfst, ist das schlecht für die
Umwelt.
11
14
51
6
197
14 Du solltest mal versuchen, dort hinten an dem Seil zu
ziehen.
11
16
49
6
241
15 Das diese Aufgabe so einfach ist, hätte ich nicht
gedacht.
10
16
47
7
163
16 Im Winter wird es kalt und die Nächte werden immer
länger.
11
16
47
6
315
17 Das Fußballspielen auf dem Rasen ist hier schon ganz erlaubt. lange
11
17
56
7
205
18 Der Spieler überlegte nicht lange und verwandelte den direkt. Freistoß
10
20
60
6
372
19 Immer wenn wir einen Teil der Geschichte aufgeschrieben haben, machen wir einen
13
24
73
6
182
Nr. Satz
letztes Wort
laufen.
Absatz.
letztes Wort
Anzahl Wörter
Anzahl Silben
Anz. Zeichen
Wörtlänge
Wortfrequenz
164
gerne.
13
21
59
5
177
21 Weil es so warm war, stellten sich alle zur Abkühlung Regen. in den
13
18
53
5
252
22 Wenn ich einen Regenschirm mitnehme, dann ist das bestimmt kein
11
18
59
6
283
23 Für diesen alten und dreckigen Hut bezahle ich keinen Pfennig. einzigen
11
21
60
7
237
24 Wenn ein Auto an einem Fahrrad vorbeifährt, braucht es mindestens einen Meter
Abstand.
13
22
72
7
202
25 Im Bus setze ich mich jeden morgen nach ganz
hinten.
10
14
42
6
179
26 Der Kapitän fuhr mit dem Bus zu seinem Schiff im
Hafen.
11
15
44
5
157
27 Der Bürgermeister dankte der Feuerwehr und der Poli- Einsatz. zei für ihren
11
21
62
7
398
28 Paul bekommt in der nächsten Woche Besuch von sei- Bruder. nem kleinen
11
18
57
6
329
29 Martina war herumgegangen und hatte alle Leute auf der Party
begrüßt.
11
22
58
7
240
30 Er mußte noch einmal zurückgehen, denn er hatte noch nicht
bezahlt.
11
18
55
7
190
31 Das Spiel war so spannend, daß wir doch noch bis zum Schluß
blieben.
13
15
54
7
358
32 Fünfzehn Jahre sind für einen Hund schon ein ziemlich hohes
Alter.
11
17
55
5
229
33 Sie wollen in diesem Jahr das Auto stehenlassen und in den Urlaub
fliegen.
13
21
61
7
244
34 Nachdem das Rennen vorüber war, gratulierte der alte Sieger. Mann dem
11
20
57
6
260
35 Die Mutter von meiner Freundin hat einen ganz tollen Beruf.
10
16
49
5
285
36 Zu Weihnachten backt er immer Kekse in vielen lusti- Formen. gen
10
18
52
6
328
37 Der Spaß an der Sache ist natürlich ganz besonders
wichtig.
10
16
49
7
350
38 Als er die Torte ins Gesicht bekam, freute er sich und
lachte.
12
17
49
6
283
39 Nach unserem Umzug wohnen wir jetzt nur eine Treppe
tiefer.
10
17
49
6
215
Nr. Satz
20 Die Bratkartoffeln, die ihre Oma so gut macht, ißt sie immer wieder
Fehler.
letztes Wort
Anzahl Wörter
Anzahl Silben
Anz. Zeichen
Wörtlänge
Wortfrequenz
165
Zufall.
12
19
58
6
163
41 Das du hier herein gekommen bist, habe ich zuerst gar bemerkt. nicht
12
18
55
7
153
42 Andreas ist schon groß, aber Jochen ist noch viel
größer.
10
15
46
6
265
43 Am liebsten malt sie ihre Bilder auf Holz oder auf
Papier.
11
16
47
6
283
44 Als sie das Haus angestrichen hatten, waren alle fix und
fertig.
11
17
52
6
331
45 Sie umarmte mich und sagte, sie würde sich freuen mich zu
kennen.
12
18
52
6
377
46 Im Sommer, wenn die Sonne scheint, setzen wir uns wieder in den
Garten.
13
18
56
6
235
47 Meine Tante kam nach ihrer Krankheit ganz schnell wieder auf die
Beine.
12
18
59
5
186
48 Den ganzen Tag waren wir beschäftigt mit den Vorbe- Reise. reitungen für die
12
21
62
5
169
49 Es macht immer wieder Spaß sich zu treffen, aber es ist zu
selten.
13
18
52
6
374
50 Sie wurde ganz nervös, als sie die Blume geschenkt
bekam.
10
15
46
5
284
51 Sie hatte schon überall gesucht, aber ihre Mutter hatte gefragt. sie noch nicht
13
22
65
7
229
52 Nach diesem Berg von Arbeit machen wir jetzt erst mal eine
Pause.
12
17
53
5
208
53 Für das Ausschneiden der Figuren hat er ein Teppichmesser
benutzt.
10
18
56
7
180
54 Abends hat Oma immer tolle Geschichten aus ihrer Kindheit
erzählt.
10
20
56
7
291
55 Er ging schnell nach Hause, weil er nicht so lange bleiben
durfte.
12
16
53
6
266
56 Meine Oma wird jetzt jedes Jahr ein paar Millimeter
kleiner.
10
17
50
7
333
57 Der Verkäufer suchte die Schuhe für die alte Dame im Lager.
11
18
48
5
321
58 Obwohl sie ihn schon lange nicht gesehen hatte, hat sie ihn gleich
erkannt.
13
19
61
7
208
59 Am letzten Dienstag habt ihr eure Freunde im Krankenhaus
besucht.
10
17
55
7
180
Nr. Satz
40 Das wir uns in Hamburg getroffen haben, war wirklich ein großer
Anzahl Wörter
Anzahl Silben
Anz. Zeichen
Wörtlänge
Wortfrequenz
166
60 Manchmal fahren wir mit der ganzen Familie mit dem Gegend. Fahrrad durch die
13
21
63
6
170
61 Wenn ich zu spät nach Hause komme, macht sie sich immer
Sorgen.
12
16
50
6
303
62 Es macht unheimlich viel Spaß in diesem Buch zu
lesen.
10
14
44
5
333
63 Die Fußballmannschaft leistete zum Sportfest wie jedes Jahr einen tollen
Beitrag.
11
21
70
7
363
64 Dieses Auto kaufen wir sofort, denn es ist wirklich sehr
günstig.
11
17
53
7
249
65 Das Taxi fuhr langsam durch die ganze Stadt zum
Bahnhof.
10
14
46
7
176
66 Als er fertig war, war er müde, aber er hatte ein gutes
Gefühl.
13
19
48
6
372
67 Es macht mir überhaupt keinen Spaß, immer auf Dich warten. zu
11
16
49
6
369
68 Von diesem Geld werden wir uns eine Menge toller Sachen
kaufen.
11
18
52
6
347
69 So ein heftiges Gewitter habe ich in meinem ganzen Leben noch nicht
erlebt.
13
17
62
6
193
70 Die Zwillinge aus dem Nachbarhaus sehen sich wirklich überhaupt nicht
ähnlich.
11
20
67
7
176
Nr. Satz
letztes Wort