1,697 135 5MB
German Pages 485 Year 2016
Forschungsmethoden in der Fremdsprachendidaktik Ein Handbuch
Daniela Caspari, Friederike Klippel, Michael K. Legutke, Karen Schramm (Hrsg.)
Forschungsmethoden in der Fremdsprachendidaktik
Daniela Caspari / Friederike Klippel / Michael K. Legutke / Karen Schramm (Hrsg.)
Forschungsmethoden in der Fremdsprachendidaktik Ein Handbuch
Daniela Caspari ist Professorin für Didaktik der romanischen Sprachen und Literaturen an der Freien Universität Berlin. Friederike Klippel ist Professorin em. für Didaktik der englischen Sprache und Literatur an der Ludwig-Maximilians-Universität München. Michael K. Legutke ist Professor em. für Didaktik der englischen Sprache und Literatur an der Justus-Liebig-Universität Gießen. Karen Schramm ist Professorin für Deutsch als Fremdsprache an der Universität Wien.
Alle ganzseitigen Übersichtsgrafiken wurden von Frau Dr. Kristina Peuschel (Berlin) erstellt. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2016 · Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72 070 Tübingen www.narr.de · [email protected] Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Gedruckt auf chlorfrei gebleichtem und säurefreiem Werkdruckpapier. Satz: pagina GmbH, Tübingen Printed in Germany ISBN 978-3-8233-7839-6
Inhalt 1. Zur Orientierung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Daniela Caspari/Friederike Klippel/Michael K. Legutke/Karen Schramm 2. Grundfragen fremdsprachendidaktischer Forschung. . . . . . . . . . . . 7 Daniela Caspari 3. Forschungstraditionen der Fremdsprachendidaktik. . . . . . . . . . . . . 23 Friederike Klippel 3.1 Historische Forschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Friederike Klippel 3.2 Theoretische Forschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Michael K. Legutke 3.3 Empirische Forschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 Karen Schramm
4. Forschungsentscheidungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Karen Schramm 4.1 Texte, Daten und Dokumente als Forschungsgrundlage. . . . . . . . . . . . . 61 Michael K. Legutke 4.2 Prototypische Designs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Daniela Caspari 4.3 Sampling.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Urška Grum/Michael K. Legutke 4.4 Triangulation.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 Petra Knorr/Karen Schramm 4.5 Der zweite Blick: Meta-Analysen und Replikationen. . . . . . . . . . . . . . . 98 Claudia Harsch 4.6 Forschungsethik.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Michael K. Legutke/Karen Schramm
5. Forschungsverfahren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.1 Grundsatzüberlegungen.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Friederike Klippel
VI
Inhalt
5.2 Gewinnung von Dokumenten, Texten und Daten.. . . . . . . . . . . . . . . . . 121 Karen Schramm 5.2.1 Dokumentensammlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 Elisabeth Kolb/Friederike Klippel 5.2.2 Textzusammenstellung (für theoretische Arbeiten). . . . . . . . . . . 132 Barbara Schmenk 5.2.3 Beobachtung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Karen Schramm/Götz Schwab 5.2.4 Befragung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Claudia Riemer 5.2.5 Introspektion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 Lena Heine/Karen Schramm 5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Verena Mezger/Christin Schellhardt/Yazgül Şimşek 5.2.7 Erfassen von unterrichtsbezogenen Produkten .. . . . . . . . . . . . . 193 Daniela Caspari 5.2.8 Testen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Claudia Harsch 5.3 Aufbereitung und Analyse von Dokumenten, Texten und Daten .. . . . . 218 Karen Schramm 5.3.1 Analyse historischer Quellen .. . . . . . . . . . . . . . . . . . . . . . . . . . 220 Dorottya Ruisz/Elisabeth Kolb/Friederike Klippel 5.3.2 Hermeneutische Verfahren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 Laurenz Volkmann 5.3.3 Grounded Theory und Dokumentarische Methode.. . . . . . . . . . . 243 Karin Aguado 5.3.4 Inhaltsanalyse .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 Eva Burwitz-Melzer/Ivo Steininger 5.3.5 Typenbildung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 Michael Schart 5.3.6 Diskursanalytische Auswertungsmethoden.. . . . . . . . . . . . . . . . 280 Götz Schwab/Karen Schramm 5.3.7 Analyse von Lernersprache.. . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 Nicole Marx/Grit Mehlhorn 5.3.8 Korpusanalyse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 Cordula Meißner/Daisy Lange/Christian Fandrych 5.3.9 Statistische Verfahren – Einleitung. . . . . . . . . . . . . . . . . . . . . . . 319 Urška Grum/Wolfgang Zydatiß
Inhalt
VII
5.3.10 Deskriptiv- und Inferenzstatistik.. . . . . . . . . . . . . . . . . . . . . . . . 324 Julia Settinieri 5.3.11 Exploratorische und konfirmatorische Faktorenanalysen.. . . . . . 341 Thomas Eckes
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 Friederike Klippel 6.1 Von der Idee zur Forschungsfrage .. . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 Daniela Caspari 6.2 Wechselspiele zwischen Theorie und Praxis. . . . . . . . . . . . . . . . . . . . . . 364 Daniela Caspari 6.3 Literaturüberblick und Forschungsstand . . . . . . . . . . . . . . . . . . . . . . . . 370 Michael K. Legutke 6.4 Gestaltung des Designs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 Karen Schramm 6.5 Prozessplanung und -steuerung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382 Karen Schramm 6.6 Zusammenfassung und Diskussion der Erträge. . . . . . . . . . . . . . . . . . . 386 Michael K. Legutke 6.7 Präsentation von Forschung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 Friederike Klippel 6.8 Betreuung von Forschungsarbeiten .. . . . . . . . . . . . . . . . . . . . . . . . . . . 400 Daniela Caspari
7. Referenzarbeiten.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache?. . . . 406 Biebricher, Christine (2008). Lesen in der Fremdsprache. . . . . . . . . . . . . . . . 410 Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation.. . . . 415 Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419 Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule.. . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 Özkul, Senem (2011). Berufsziel Englischlehrer/in.. . . . . . . . . . . . . . . . . . . . 431 Schart, Michael (2003). Projektunterricht – subjektiv betrachtet.. . . . . . . . . . 435 Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen?.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
VIII
Inhalt
Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht .. . . . . . . . . . . . . . . . . . . . . . . 443 Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht ... . . . 447 Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen .. . . . . 451
8. Fremdsprachendidaktische Forschung im Kontext .. . . . . . . . . . . . . 457 Friederike Klippel/Michael K. Legutke Register. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467 Die Autorinnen und Autoren .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475
1. Zur Orientierung Daniela Caspari/Friederike Klippel/Michael K. Legutke/Karen Schramm
Zur Zielsetzung dieses Handbuchs
1.1
Forschung ist genuiner Bestandteil von Wissenschaft. Wie und wozu in einzelnen Wissenschaften Forschung betrieben wird, hat viel mit den jeweils herrschenden Grundannahmen und Erkenntnisinteressen zu tun. Junge Wissenschaften orientieren sich in ihren Forschungsmethoden zu Beginn an Nachbardisziplinen, und es ist ein Zeichen der erfolgten Etablierung, wenn sie eigene Forschungsansätze heranbilden. Die Fremdsprachendidaktik ist eine vergleichsweise junge Wissenschaft. Sie kann sich allerdings auf eine ausgedehnte Geschichte von Lehr-/Lern-Praxis in ihrem Feld berufen, so dass das Nachdenken über die Vermittlung und das Erlernen von Sprachen eine lange Tradition hat, in die wir uns mit diesem Band einordnen. In den letzten Jahrzehnten hat sich für die Erforschung der vielfältigen Kontexte, Praxen und Prozesse des Lehrens und Lernens fremder Sprachen ein bestimmtes Repertoire an Forschungsansätzen herausgebildet. Es ist das Ziel dieses Handbuches, umfassend in diese fremdsprachendidaktische Forschung einzuführen und dabei alle grundlegenden Ansätze systematisch zu berücksichtigen. Bei der Verwendung des Begriffs Fremdsprachendidaktik als Sammelbegriff für Sprachlehr- und Sprachlernforschung, für unterrichtsbezogene Zweitspracherwerbsforschung, für Fremdsprachenforschung und für Zweitsprachendidaktik lehnen wir uns an die Auffassung von Gnutzmann/Königs/Küster (2011: 7) an, dass „die Entwicklungen, die den Ansprüchen und Forderungen der Sprachlehrfoschung ja weitgehend gefolgt sind, dazu geführt [haben], dass man dem Begriff ‚Fremdsprachendidaktik‘ aufgrund seiner längeren Geschichte und der eingetretenen Veränderungen durchaus den Vorzug geben kann“. Auch wenn sich dieses Handbuch auf die deutschsprachige Fremdsprachendidaktik konzentriert, so haben wir doch die internationale Entwicklung in allen Teilen des Handbuchs im Blick. Es geht uns dabei zunächst einmal um eine Darstellung des aktuellen Standes der Forschungsmethodologie und um praktische Hilfen für den Forschungsprozess. Wir möchten sowohl denjenigen Informationen und Hilfestellung geben, die in die Forschung einsteigen, als auch diejenigen unterstützen, die wissenschaftliche Qualifikationsarbeiten betreuen und selbst forschend tätig sind. Weiterhin wollen wir dazu anregen, sich über Forschung, Forschungsverfahren und -ansätze nicht nur aus der Sicht einer guten handwerklichen Gestaltung von Forschungsprozessen zu informieren, sondern auch über allgemeine Aspekte von Forschung in unserem Feld nachzudenken. Wenn sich die hier entworfene Systematik auch für die Einordnung zukünftiger Forschungsarbeiten als hilfreich erweist, wäre ein wichtiges Anliegen erfüllt. Noch weitreichender ist die Hoffnung, dass Leser_innen des vorliegenden Handbuchs es als Einladung begreifen, die Gesamtentwicklung der Fremdsprachendidaktik auf einer Metaebene zu reflektieren und kritisch zu begleiten.
2
1. Zur Orientierung
Im Unterschied zu den bisher vorliegenden forschungsmethodischen Grundlagenwerken der Fremdsprachendidaktik setzt sich dieser Band deshalb zunächst mit den Grundfragen fremdsprachendidaktischer Forschung (Kapitel 2) auseinander und stellt sodann die historische, die theoretische und die empirische Forschungstradition in der Fremdsprachendidaktik dar (Kapitel 3), wobei auch wichtige Meilensteine fremdsprachendidaktischer Forschung erfasst werden. Stärker handwerklichen Charakter nimmt das Handbuch ab Kapitel 4 an, in dem grundsätzliche Forschungsentscheidungen erörtert werden, wie beispielsweise die Forschungsgrundlage in Form von Texten, Daten und Dokumenten, das Design, das Sampling, die Triangulation oder ethische Fragen. Das Kernkapitel des Bandes (Kapitel 5) stellt eine große Palette unterschiedlicher Forschungsverfahren zur Datengewinnung und -auswertung vor; hier wurden die Teilkapitel von ausgewiesenen Expert_innen für das jeweilige Verfahren verfasst. Die überblicksartigen Dachkapitel 5.1 zu Grundsatzüberlegungen in Bezug auf diese Forschungsverfahren, 5.2 zur Gewinnung von Dokumenten, Texten und Daten und 5.3 zu deren Aufbereitung und Analyse sollen jeweils Orientierung in der beachtlichen Vielfalt fremdsprachendidaktischer Forschungsverfahren bieten. Die Etappen des Forschungsprozesses, die von der Idee für ein Dissertationsprojekt bis zur Publikation der abgeschlossenen Studie dargestellt werden und die auch Fragen der Betreuung betreffen, sind Thema von Kapitel 6, das auf der langen und breitgefächerten Betreuungserfahrung der Autor_innen in unterschiedlichen fremdsprachendidaktischen Fächern basiert und sich deshalb auch im Duktus und der Verweisdichte von den anderen Kapiteln des Handbuchs deutlich unterscheidet. Kapitel 7 präsentiert zwölf ausgewählte Dissertationen, die in diesem Handbuch an vielen Stellen als Referenzarbeiten dienen. Da Wissenschaft von der Auseinandersetzung mit bisherigen Forschungsergebnissen und -verfahren bzw. vom entsprechenden Diskurs darüber lebt, erscheint es uns vorteilhaft, die forschungsmethodischen und -methodologischen Fragen immer wieder auch mit Bezug auf solche konkreten Arbeitserfahrungen zu thematisieren und zu illustrieren. Ein Blick auf die gesellschaftlichen und (bildungs-)politischen Kontexte fremdsprachendidaktischer Forschung steht am Ende des Bandes (Kapitel 8) und soll dazu beitragen, dem oben skizzierten Anliegen, auch einen analytischen Blick auf die Gesamtentwicklung der Fremdsprachendidaktik zu ermöglichen, gerecht zu werden. An dieser kurzen Vorstellung der einzelnen Kapitel wird deutlich, dass dieses Handbuch in der Absicht erstellt wurde, unterschiedlichen Lesergruppen zu dienen: Es wendet sich gleichermaßen an diejenigen, die einen systematischen Überblick über fremdsprachendidaktische Forschungsmethoden zu gewinnen suchen, und an diejenigen, die sich zu spezifischen Forschungsverfahren informieren möchten.
Zugriffe
1.2
Ein Handbuch wird man in der Regel nicht wie einen Roman lesen. Es ist auch nicht wie ein Roman geschrieben, in dem man die späteren Kapitel nur versteht, wenn man die voran-
1.3 Auswahl und Funktion der Referenzarbeiten
3
gehenden kennt. Ein Handbuch dient vor allem dem gezielten Nachschlagen von Informationen, die auf dem aktuellen Stand präsentiert werden. Viele Elemente des Handbuches unterstützen einen transparenten Zugriff: So finden sich zu Beginn jedes Großkapitels einleitende Passagen; in allen Kapiteln des Handbuchs gibt es zahlreiche Querverweise; viele Kapitel enthalten zudem kommentierte Leseempfehlungen. Ein Novum sind die informativen Grafiken, die vor allem die Teilkapitel zu den Forschungsentscheidungen (Kapitel 4) und Forschungsverfahren (Kapitel 5) illustrieren. In enger Abstimmung mit den jeweiligen Autor_innen und den Herausgeber_innen hat Kristina Peuschel Kernelemente und -prozesse einzelner Verfahren grafisch umgesetzt. Die Grafiken vermögen die Lektüre eines Kapitels nicht zu ersetzen, sie erleichtern jedoch das Erkennen der wesentlichen Zusammenhänge und – insbesondere für visuelle Lerner_innen – auch das Behalten. Besonders geeignet erscheinen uns die Grafiken zur Unterstützung von Methodenseminaren oder Doktoranden-Kolloquien zu sein, wenn ein Überblick über die zentralen Elemente einzelner Forschungsmethoden gegeben wird.
Auswahl und Funktion der Referenzarbeiten
1.3
Dass die in einem Forschungshandbuch angesprochenen forschungsmethodischen Fragen und Aspekte an Beispielen dargestellt und erläutert werden, ist in der internationalen Forschung gute Tradition. Dass dies durch ein ganzes Buch hindurch vorzugsweise an zwölf ausgewählten Dissertationen, so genannten Referenzarbeiten, geschieht, ist eine Besonderheit dieses Buches. Auf die in Kapitel 7 durch die Forscher_innen selbst vorgestellten Studien wird in den einzelnen Kapiteln des Buches immer wieder Bezug genommen. Sie stehen exemplarisch für zentrale Forschungsfelder und Themen der Fremdsprachendidaktik. Sie repräsentieren bestimmte Erhebungs- und Auswertungsverfahren und sind überzeugende Beispiele für das funktionale Zusammenspiel von Forschungsinteresse, Forschungsfrage, Design und Forschungsmethode(n) sowie für eine transparente und klare Darstellung des Forschungsprozesses und der Ergebnisse. Um der Vielfalt der fremdsprachendidaktischen Forschung und den unterschiedlichen Realisierungsformen bestimmter Designs und Formate Rechnung zu tragen, wird in jedem Kapitel dieses Forschungshandbuches zusätzlich auf viele andere Studien zurückgegriffen. Gleichwohl stellen die Referenzarbeiten in ihrer Gesamtheit relevante Entwicklungen der Forschungsmethodik in den Fremdsprachendidaktiken der letzten Jahre sowie einen repräsentativen Ausschnitt der Fremdsprachendidaktik als Forschungsdisziplin in dieser Zeitspanne dar. Unsere Wahl fiel auf Dissertationen, weil sie einen bedeutenden Anteil an der gesamten fremdsprachendidaktischen Forschung stellen und die Verfasser_innen und deren Betreuer_innen von Dissertationen die Hauptzielgruppe dieses Buches sind. Für die Auswahl der Arbeiten haben wir eine Reihe von Kriterien angelegt: Die Arbeiten wurden zwischen 2002 und 2011 veröffentlicht und unter den in der Fremdsprachendidaktik bislang üblichen Bedingungen realisiert, d. h. es handelt sich ausschließlich um Studien, die als Einzelarbeit ohne übergreifende Projektkontexte entstanden sind. Sie sind forschungsmethodologisch als Ganzes gelungen und zumindest in Einzelaspekten vorbildlich. Außerdem
4
1. Zur Orientierung
folgen sie dem Primat der Gegenstandsangemessenheit, d. h. sie sind vom Gegenstand und einer klaren Forschungsfrage her entwickelt worden. Sie entsprechen den gängigen Gütekriterien (s. Kapitel 2) und zeichnen sich durch die Passung von Forschungsfrage und Methodik, durch ein systematisches, forschungsökonomisches Vorgehen sowie durch Klarheit der Darstellung aus. Für die Aufnahme in ein Forschungshandbuch sind zudem ein angemessenes Reflexionsniveau hinsichtlich der Forschungsmethodologie und -methodik sowie ein sinnvolles Verhältnis von forschungsmethodischer Reflexion (‚Aufwand‘) und inhaltlichen Ergebnissen (‚Ertrag‘) unabdingbar. Aus den vielen Arbeiten, die diesen Kriterien genügen, wurden zwölf nach dem Prinzip maximaler Variation ausgewählt, um in der Gesamtheit eine möglichst große Breite hinsichtlich folgender Kriterien zu erreichen:
• Forschungstraditionen (historisch, theoretisch-konzeptionell, empirisch-qualitativ, empirisch-quantitativ);
• Forschungsfelder (z. B. Professionsforschung, Lernforschung, Begegnungsforschung, Kompetenzforschung etc.) (s. Kapitel 2);
• Settings (natürlich – arrangiert – experimentell, mit/ohne Intervention); • Erhebungsinstrumente; • Verfahren der Datenauswertung; • (Fremd-)Sprachen; • Forschungspartner_innen (Lehrkräfte, Studierende, Schüler_innen unterschiedlicher Schulformen, Lerner_innen aus außerschulischen Kontexten);
• Grad der forschungsmethodischen Komplexität (von eher schlicht bis sehr komplex); • Grad der thematischen Breite (von sehr fokussiert bis sehr weit). Zudem wurden Besonderheiten, wie z. B. die besonders gründliche Reflexion der Forscher _innenrolle, die Art der Kombination von Theorie und Empirie bzw. von qualitativen und quantitativen Verfahren oder der Prozesscharakter der Studie, berücksichtigt sowie auch Designs, die einen besonderen Erkenntnisgewinn speziell für fremdsprachendidaktische Fragestellungen versprechen. Trotz dieser Kriterien ist die nach langen Recherche-, Lese- und Diskussionsphasen gemeinsam getroffene Auswahl natürlich subjektiv, denn selbstverständlich gibt es auch außerhalb dieses Samples eine Reihe hervorragender Forschungsarbeiten. Insbesondere dann, wenn es zu einem Design oder einem bestimmten Forschungsverfahren zahlreiche überzeugende Arbeiten gab, fiel die Auswahl schwer. Insgesamt will die vorliegende Auswahl das gesamte methodische Spektrum fremdsprachendidaktischer Forschung in seiner Vielfalt dokumentieren. Um sich schnell und unaufwändig einen Eindruck von den ausgewählten Studien verschaffen zu können, wurden die Verfasser_innen gebeten, ihre Dissertation unter forschungsmethodischer Perspektive selbst vorzustellen. Die in Kapitel 7 zu findenden Darstellungen erlauben es, die einzelne Arbeit als Ganzes verstehen und insbesondere den jeweiligen inhaltlichen Bezug zwischen Forschungsinteresse, Forschungsfrage und eingesetzten Methoden nachzuvollziehen sowie die wichtigsten Ergebnisse zu erfahren. So können in den einzelnen Kapiteln des Forschungshandbuches direkt spezifische Aspekte und Details dieser Arbeiten angesprochen werden. Wir danken den Autor_innen, dass sie sich auf diese neue Textsorte „Darstellung der Forschungsarbeit“ eingelassen haben.
1.4 Entstehung des Handbuchs
5
Entstehung des Handbuchs
1.4
Man kann eine Publikation besser einschätzen, wenn man ihre Genese ein wenig kennt. An diesem Handbuch sind viele Autor_innen in unterschiedlichem Umfang und in unterschiedlicher Funktion beteiligt. Unser Anliegen als Herausgeber_innen und Autor_innen war und ist es, ein Handbuch vorzulegen, das den aktuellen Stand der Forschungsmethodologie in der Fremdsprachendidaktik angemessen wiedergibt. Dazu war es erforderlich, die in einzelnen Forschungsverfahren führenden Wissenschaftler_innen für eine Autorschaft zu gewinnen. Das ist in erfreulichem Umfang gelungen. Wir danken allen Autor_innen für ihre konstruktive und geduldige Mitwirkung an diesem Band. Zugleich war es unser Ziel, ein in sich geschlossenes, kohärentes Handbuch vorzulegen, dessen Kapitel miteinander verschränkt sind und aufeinander Bezug nehmen und das auf einer von uns allen geteilten Vorstellung von Forschung in der Fremdsprachendidaktik basiert. Dieses gemeinsame Forschungsverständnis haben wir Herausgeber_innen uns in häufigen intensiven Diskussionen und breiten Recherchen über etwa fünf Jahre hinweg erarbeitet. Jedes Kapitel, das von einer/m von uns verfasst ist, wurde in allen Fassungen von allen gelesen, einer kritischen Analyse unterworfen, kommentiert, ergänzt und ausführlich besprochen. Insofern ist dieses Handbuch auch in allen den Teilen, für die eine_r der vier Herausgeber_innen namentlich genannt ist, dennoch in vielerlei Hinsicht ein Gemeinschaftswerk. Das heißt jedoch nicht, dass unser Ziel der Vereinheitlichung und Abstimmung immer bis in die Formulierungen hineinwirkt. Aufmerksame Leser_innen werden feststellen, dass sich durchaus noch unterschiedliche Schreibstile, verschiedene und unterschiedlich konsequente Arten des gendergerechten Schreibens und Variationen in der Verweisdichte ergeben haben. Auch für die Konzeption und Struktur des Handbuches zeichnen wir – Daniela Caspari, Friederike Klippel, Michael K. Legutke, Karen Schramm – gemeinsam verantwortlich. Am Anfang stand die Idee eines Handbuches, das die Situation der deutschen fremdsprachendidaktischen Forschung und insbesondere Kontexte und Erfordernisse der Ausbildung des wissenschaftlichen Nachwuchses berücksichtigt. Ob wir diese Idee gut umgesetzt haben, werden unsere Leser_innen beurteilen. Über Rückmeldungen positiver und kritischer Natur freuen wir uns. ›› Literatur Gnutzmann, Claus/Königs, Frank/Küster, Lutz (2011). Fremdsprachenunterricht und seine Erforschung. Ein subjektiver Blick auf 40 Jahre Forschungsgeschichte und auf aktuelle Forschungstendenzen in Deutschland. In: Fremdsprachen Lehren und Lernen 40, 1 – 28.
2. Grundfragen fremdsprachendidaktischer Forschung Daniela Caspari
Was ist Forschung? Und was beeinflusst sie?
2.1
Diese grundlegende Frage wird in den bisher erschienenen deutschsprachigen Handbüchern bzw. Einführungen in die fremdsprachendidaktischen Forschungsmethoden nicht thematisiert. Obwohl auch im Rahmen dieses Handbuches keine grundlegende Abhandlung möglich ist, erscheint es gerade in Hinblick auf die Zielgruppe „Forschungsnoviz_innen“ sinnvoll, sich die Unterschiede zwischen Beobachtungen im Alltag oder in der beruflichen Praxis einerseits, so wie sie z. B. von angehenden Lehrkräften im Praktikum oder Referendariat verlangt wird, und der wissenschaftlichen Erforschung von Fragestellungen andererseits bewusst zu machen. Diese Unterschiede sind – wie z. B. bei der Darstellung der historischen Forschung (Kapitel 3.1), an bestimmten forschungsmethodischen Ansätzen (Kapitel 4.2) oder einigen Verfahren zur Datengewinnung (z. B. Kapitel 5.2.3 und 5.2.4) zu erkennen ist – eher gradueller als grundsätzlicher Natur. Denn es scheint in der Natur des Menschen zu liegen, Phänomenen in seiner Umwelt auf den Grund zu gehen, nach Gesetzmäßigkeiten zu suchen sowie auf der Basis von Beobachtungen und Erfahrungen Theorien aufzustellen und Vorhersagen zu machen. Während dies im Alltag in der Regel eher zufällig, unbewusst und ad hoc geschieht, zumeist um konkrete Herausforderungen und Probleme des täglichen Lebens zu meistern, zeichnet sich wissenschaftliche Forschung durch eine systematische und methodisch kontrollierte Herangehensweise aus. Bei wissenschaftlicher Forschung handelt es sich um einen Prozess, der von dem/der Forscher_in beständig bewusste Entscheidungen verlangt: von der Wahl des Forschungsgegenstandes (Thema), über die Forschungsfrage/n, die Erhebungs- und Auswertungsverfahren bis hin zu Art und Ort der Veröffentlichung der Ergebnisse. Da diese Entscheidungen von vielen, nicht immer bewusst gemachten Faktoren beeinflusst werden, sollen in diesem Kapitel einige dieser Faktoren ebenfalls angesprochen werden. Grundlegend für die Wahl des Forschungszugangs sind die jeweiligen Annahmen über die Beschaffenheit der sozialen Wirklichkeit und die Möglichkeiten ihrer Erforschung. Cohen/ Manion/Morrison (2011: 3 – 7) unterscheiden in Anlehnung an Burrell und Morgan (1979) vier voneinander abhängige Ebenen (s. Tabelle 1):
8
2. Grundfragen fremdsprachendidaktischer Forschung
A scheme for analysing assumptions about the nature of social science
The subjectivist approach to social science
The objectivist approach to social science
Nominalism
Ontology
Realism
Anti-positivism
Epistemology
Positivism
Voluntarism
Human nature
Determinism
Idiographic
Methodology
Nomothetic
The subjective-objective dimension Tabelle 1: Subjektivistischer und objektivistischer Forschungszugang (Nachzeichnung von Cohen/Manion/ Morrison 2011: 7)
Grundsätzlich werden ein subjektivistischer und ein objektivistischer Forschungszugang unterschieden (subjectivist approach vs. objectivist approach), die sich auf drei Ebenen voneinander unterscheiden: der ontologischen, der epistemologischen und auf der Ebene der Auffassung über die Natur des Menschen. Auf der ontologischen Ebene (ontology) geht es um grundlegende Annahmen über die Wirklichkeit und die Natur der Dinge. Gehe ich davon aus, dass es eine objektive, vom jeweiligen Betrachter unabhängige Welt gibt (realist position), oder bin ich der Überzeugung, dass Wirklichkeit erst durch den Betrachter geschaffen wird und somit das Produkt subjektiver Wahrnehmung ist (nominalist position)? Diese grundsätzliche Position bestimmt Annahmen darüber, was und wie man etwas herausfinden und dies anderen mitteilen kann (epistemology): Kann ich soziale Wirklichkeit ‚von außen‘, d. h. durch Beobachtung wahrnehmen und erklären, ihre Gesetzmäßigkeiten erkennen und daraus Voraussagen über zukünftiges Verhalten ableiten (positivism)? Diese Auffassung legt einen etischen Zugang zum Forschungsfeld nahe, in dem von außen Kategorien an einen Untersuchungsgegenstand angelegt werden. Oder muss ich Menschen bzw. spezifischen Gruppen von Menschen und ihren Referenzsystemen möglichst nahe kommen, damit ich, soweit dies überhaupt möglich ist, ihre Innensicht auf sich selbst und ihr soziales Umfeld nachzeichnen kann (anti-positivism)? Diese Auffassung legt einen emischen Zugang zum Forschungsfeld nahe, der von den kultur- und sprachspezifischen Kategorien der Forschungspartner_innen ausgeht. Mit den beiden epistemologischen Positionen verbunden sind grundsätzlich unterschiedliche Auffassungen über die menschliche Natur: Betrachte ich den Menschen in erster Linie durch seine Anlagen und seine Umwelt bestimmt (determinism) oder verstehe ich ihn als freies, selbstbestimmtes Wesen, das seine soziale Umwelt kreativ mitgestaltet (voluntarism)? Der objektivistischen Herangehensweise entsprechen sog. nomothetische Forschungszugänge (nomothetic), die das Ziel verfolgen, allgemein gültige Gesetzmäßigkeiten aufzustellen. Ausgangspunkt von Forschungsarbeiten in diesem, auch als analytisch-nomologisch bezeichneten, Forschungsparadigma (vgl. Grotjahn 1993: 229 – 230) sind i. d. R. zuvor aufgestellte Theorien, Modelle oder hypothetische Kausalbeziehungen; das Ziel besteht darin, die daraus abgeleiteten Hypothesen zu überprüfen. Ein solches Vorgehen ist grundsätzlich dann möglich, wenn der Forschungsstand weit entwickelt und die Fragestellungen eng gefasst
2.1 Was ist Forschung? Und was beeinflusst sie?
9
sind. Bevorzugte Forschungsverfahren in diesem Paradigma sind u. a. Tests, Experimente, repräsentative Befragungen. Der subjektivistischen Herangehensweise entsprechen sog. ideographische Forschungszugänge (ideographic), die das Ziel verfolgen, das Individuelle, Besondere zu beschreiben, zu interpretieren und daraus Erkenntnisse zu gewinnen. Innerhalb dieses, auch als explorativ-interpretativ bezeichneten, Forschungsparadigmas (vgl. Grotjahn 1993: 230 – 231) stehen somit Hypothesen und Konzepte bzw. Theorien nicht am Anfang des Forschungsprozesses, sondern sind dessen Ergebnis. Dieser Zugang bietet sich immer dann an, wenn der Gegenstand noch nicht gut erforscht ist oder wenn eine weite Forschungsfrage gestellt wird. Bevorzugte Forschungsverfahren in diesem Paradigma sind u. a. Fallstudien, Beobachtungen, Interviews. Über diese grundsätzlichen Paradigmen bzw. Forschungszugänge hinaus werden die für jedes Forschungsprojekt notwendigen einzelnen Entscheidungen durch zahlreiche weitere Faktoren bestimmt. Von entscheidender Bedeutung sind selbstverständlich die Disziplin und innerhalb der Disziplin die jeweilige Forschungsrichtung, die mehr oder weniger explizit gemachte Vorgaben bzw. Erwartungen an eine konkrete Forschungsarbeit richten. Die in den Disziplinen vorherrschenden Traditionen sind, was sich besonders deutlich in der Rückschau zeigt, nicht selten aktuellen Moden und Tabus unterworfen. Zur Entstehung zu solchen, zu einem bestimmten Zeitpunkt vorherrschenden Forschungspraktiken tragen neben der allgemeinen Forschungslandschaft und entsprechenden Tendenzen in den jeweiligen Bezugsdisziplinen auch einflussreiche Forscher_innen bzw. Forscher_innengruppen sowie nicht zuletzt große Geldgeber bei. So sind der Siegeszug der empirischen Bildungsforschung innerhalb der Erziehungswissenschaft und die aktuelle Vorliebe für Interventionsforschung innerhalb der naturwissenschaftlichen Fachdidaktiken auch durch Förderentscheidungen der Politik beeinflusst. In diesem Zusammenhang spielt ebenfalls der aktuelle gesellschaftliche Kontext eine Rolle: Welcher Beitrag zur gesellschaftlichen Entwicklung wird von der Forschung erwartet? Welche Themen stehen im Zentrum des Interesses? Wie verläuft der mediale Diskurs zu diesen Themen? Die Forschungstraditionen der einzelnen Disziplinen schlagen sich nicht selten in eta blierten, sog. prototypischen Designs nieder, die gewisse Standards setzen und oft als modellhaft gelten. Gerade wenn solche Designs detaillierte Vorgaben hinsichtlich der Erhebungsund Auswertungsverfahren machen, sind sie insbesondere für Anfänger_innen attraktiv und helfen, die notwendige methodische Qualität einer Forschungsarbeit zu sichern. Andererseits kann die Ausrichtung auf etablierte Designs dazu führen, dass bestimmte Forschungsfragen gar nicht erst gestellt werden oder dass die ursprüngliche Frage an die Erkenntnismöglichkeiten des Designs angepasst wird. Daher sollte ein Forschungsprojekt nicht mit methodischen Entscheidungen beginnen, sondern von der Forschungsfrage geleitet sein, und man sollte auch – und gerade – bei prototypischen Designs genau prüfen, ob die zugrundeliegenden Annahmen und Erkenntnisinteressen tatsächlich geeignet sind, die eigene Forschungsfrage zielführend zu bearbeiten. Ein anderer wichtiger Einflussfaktor für forschungsmethodische Entscheidungen besteht in der Kenntnis von bzw. der Vertrautheit mit einzelnen Erhebungs- und Auswertungsverfahren. Hier wurde der Fremdsprachendidaktik in der Vergangenheit zu Recht ein deutlicher Nachholbedarf attestiert; in bestimmten Bereichen, insbesondere innerhalb des analytischnomologischen Paradigmas, gilt dies bis heute. Gerade die einfache Zugänglichkeit von bzw.
10
2. Grundfragen fremdsprachendidaktischer Forschung
die individuelle Expertise in bestimmten Verfahren kann jedoch dazu führen, dass andere, für die Forschungsfrage möglicherweise sogar geeignetere Verfahren gar nicht erst in den Blick genommen werden. Dies mindert nicht nur die Qualität der Ergebnisse, sondern kann bei häufigerem Vorkommen sogar das Ansehen der Disziplin beeinträchtigen. Ein weiterer, in vielen Disziplinen zu beobachtender Effekt besteht in der Bildung sog. ‚Schulen‘. Damit bezeichnet man die Tendenz, dass einzelne Wissenschaftler_innen oder Gruppen von Wissenschaftler_innen für die jeweilige Wissenschaft ganz grundsätzlich bestimmte Forschungsverfahren und Designs propagieren. Um diese – möglicherweise begrenzenden – Einflussfaktoren zu erkennen, ist es sinnvoll, sich bei der Planung des eigenen Forschungsvorhabens auch außerhalb des eigenen Standortes und ggf. auch außerhalb der eigenen Disziplin beraten zu lassen. Nicht zuletzt bestimmen individuelle Vorlieben und die von der einzelnen Forscher_in mitgebrachten sowie die von ihrem Umfeld bereitgestellten Ressourcen forschungsmethodische Entscheidungen: Wie viel Zeit steht zur Verfügung? Wer kann die Forscher_in wobei womit unterstützen? Welche administrativen Hürden sind zu überwinden? Auf welche technischen Ressourcen kann zurückgegriffen werden? Diese Faktoren bestimmen nicht nur die individuellen Forschungsentscheidungen, sondern auch forschungsmethodische Entwicklungen innerhalb einer Disziplin. So waren die zunehmend preisgünstige Verfügbarkeit von technisch ausgereiften Kameras und die Entwicklung von spezieller Auswertungssoftware Voraussetzung für den aktuellen Boom der Videographie in der fremdsprachendidaktischen (Unterrichts-) Forschung (vgl. Kapitel 5.2.3). Eine Möglichkeit, sich die vielfältigen Einflussfaktoren auf die eigenen Forschungsentscheidungen bewusst(er) zu machen, besteht bei den Überlegungen zur Relevanz der eigenen Forschungsarbeit. Reflektiert werden kann bzw. sollte hier zum einen die Relevanz für die involvierten Personen bzw. Institutionen: die Forscher_in persönlich, ihr unmittelbares berufliches Umfeld, Geldgeber, ‚Abnehmer_innen‘ bzw. Anwendungsbereiche. Was sind ihre expliziten oder impliziten Interessen und Ziele? Zum anderen kann man sich anhand der Relevanz der eigenen Arbeit für das Forschungsfeld, die Disziplin und möglicherweise auch die Nachbardisziplinen größere Klarheit darüber verschaffen, welche Erwartungen dadurch an die eigene Arbeit gerichtet werden. Generell wird zwischen Grundlagenforschung und angewandter Forschung unterschieden, wobei die Grenzen fließend sind. Grundlagenforschung ist vom reinen Erkenntnisinteresse geleitet; sie geht generellen Fragen nach und versucht allgemein gültige Zusammenhänge und Gesetzmäßigkeiten aufzuspüren. Angewandte Forschung ist dagegen auf praxisrelevante, ‚nützliche‘ Ergebnisse ausgerichtet. Innerhalb der angewandten Forschung können weitere Forschungszweige, wie z. B. die Entwicklungsforschung oder die Evaluationsforschung unterschieden werden. Je nach erkenntnistheoretischer Position, Forschungszweig, Forschungsstand und Erkenntnisinteresse kommt Forschung unterschiedliche Funktionen zu: Die Spannweite reicht vom Aufzeigen und genauen Beschreiben von bestimmten Phänomenen über die Strukturierung, Systematisierung und Kategorisierung von Wirklichkeitsbereichen bis hin zur Entwicklung und Überprüfung von Hypothesen, Konzepten und Modellen. Im Bereich der anwendungsorientierten Forschung liegt der Schwerpunkt dabei auf der Erzeugung von praxisrelevantem Wissen sowie der theoriegeleiteten, systematischen Entwicklung und empirischen Überprüfung von für die Praxis ‚nützlichen‘ Konzepten und Materialien.
2.2 Was ist fremdsprachendidaktische Forschung? Und welches sind ihre zentralen Forschungsfelder? 11
Jeglicher Forschung gemein ist, dass sie fokussiert und zielgerichtet verläuft und dabei zugleich offen ist für Unerwartetes. Üblicherweise beruht Forschung daher auf einer gezielten und gründlichen Suche. Forschung kann aber auch durch ein beiläufiges Finden angeregt werden, das dann ein gezieltes Weiter-Suchen auslöst (zum Wechselspiel zwischen Suchen und Finden vgl. Schlömerkemper 2010: 11 – 13). Im Unterschied zum anfangs skizzierten Erwerb von Alltagswissen zeichnet sich wissenschaftliche Forschung durch eine in zweifacher Hinsicht systematische Vorgehensweise aus: zum einen bezüglich der untersuchten Phänomene (hier gilt es, alles zu berücksichtigen, was man findet, und nicht nur das, was zur eigenen Vorstellung passt), zum anderen bezüglich der Forschungsschritte und Forschungsverfahren. Der Forschungsprozess erfolgt methodisch reflektiert und kontrolliert, die Ergebnisse sind überprüfbar bzw. intersubjektiv nachvollziehbar. Ein wesentliches Merkmal besteht darin, dass die Ergebnisse auf der Basis bzw. in Zusammenhang mit bereits vorhandenem wissenschaftlichem Wissen entstehen und diskursiv verhandelbar bzw. korrigierbar sind. Daher ist es erforderlich, dass die Ergebnisse wissenschaftlicher Forschung veröffentlicht bzw. allgemein zugänglich gemacht werden. Die genannten Kriterien für wissenschaftliches Arbeiten gelten für jede Forschungsarbeit, sie werden mit zunehmender Größe und Bedeutung der Forschungsarbeiten jedoch differenzierter und strenger gehandhabt (vgl. auch Kapitel Kap. 3.3, Stufen der Empirie).
Was ist fremdsprachendidaktische Forschung?
2.2
Und welches sind ihre zentralen Forschungsfelder?
Fremdsprachendidaktische Forschung konstituiert sich durch ihren Gegenstandsbereich, „das Lehren und Lernen fremder Sprachen in allen institutionellen Kontexten und auf allen Altersstufen“ (Bausch/Christ/Krumm 2003: 1). Aufgrund der Entwicklungen der letzten Jahre könnte man diese bekannte Definition durch die Elemente „Zweitsprachen“ und „außerinstitutionelle Kontexte“ (vgl. Burwitz-Melzer/Königs/Riemer 2015) ergänzen. Während die Ursprünge fremdsprachendidaktischer Forschung bereits im 19. Jahrhundert liegen (vgl. Kapitel 3.1), etablierte sich die Fremdsprachendidaktik erst nach dem 2. Weltkrieg als eigenständige Disziplin. Folgende sechs Merkmale sind als besonders charakteristisch herauszustellen (vgl. im Folgenden Bausch/Christ/Krumm 2003, Doff 2008 und 2010, Edmondson/ House 2006, Grotjahn 2006): 1. Das wichtigste Charakteristikum fremdsprachendidaktischer Forschung ist ihr Erkenntnisinteresse. Noch in den 1950er und 60er Jahren wurde die zentrale Aufgabe der Didaktik darin gesehen, praktische Empfehlungen für den schulischen Unterricht zu geben. Seit den 1970er Jahren ist nicht zuletzt unter dem Einfluss der Sprachlehrforschung sowohl eine stärker theoretisch ausgerichtete (Grundlagen-) Forschung als auch eine stärkere Ausdifferenzierung des Theorie-Praxis-Bezuges zu beobachten. Das theoretische Ziel fremdsprachendidaktischer Forschung besteht – ganz allgemein – darin, die einzelnen Faktoren fremdsprachlichen Lernens und Lehrens differenziert zu erforschen und in ihrem Zusammenwirken immer genauer zu verstehen. Das praktische Ziel besteht – grob gesagt – darin,
12
2. Grundfragen fremdsprachendidaktischer Forschung
die Qualität des Fremdsprachenunterrichts und außerunterrichtlicher Lernangebote beständig zu verbessern. Dies kann angesichts der Vielfalt und Komplexität der Praxis jedoch nicht durch simple Ableitung theoretisch gewonnener Erkenntnisse geschehen, sondern nur in der Interaktion zwischen Theorie und Praxis. Als anwendungsorientierte Wissenschaft zeichnet sich die Fremdsprachendidaktik daher durch ein beständiges Wechselspiel zwischen Forschung und Anwendung aus.1 Generelles Ziel ist es, durch das forschungsgeleitete Aufstellen, empirische Überprüfen und erkenntnisbasierte Ausschärfen von theoretischen Grundlagen, Begriffen, Konzepten und Modellen das Erkennen, Verstehen und Erklären von komplexen Lehr- und Lernsituationen voranzutreiben und das Handeln in diesen Situationen zu verbessern. 2. Charakteristisch für den Gegenstandsbereich der Fremdsprachendidaktik ist weiterhin seine Faktorenkomplexion (Königs 2010), denn beim Lehren und Lernen von Fremdsprachen wirken zahlreiche Faktoren zusammen. Ein bekanntes Modell stammt von Edmondson (1984, wiedergegeben in Edmondson/House 2006: 25, im Folgenden leicht adaptiert). Er unterscheidet fünf große, sich gegenseitig beeinflussende Faktorenkomplexe: • Unterricht (beeinflusst durch Curriculum, Lern-/Lehrziele, Lehrinhalte, Lehrmethoden, Prinzipien, Übungsformen, Lehrwerke, Medien usw.) • Lehr- und Lernumgebungsfaktoren (Dauer, Frequenz, Ausstattung, Lerngruppengröße usw.) • personenbezogene Faktoren, d. h. Lehrkräfte und Lerner_innen (personale Faktoren, Ausbildung, Motivation/ Interesse, fremdsprachige Kompetenzen etc.) • soziopolitische Faktoren (Status der Fremdsprache, Fremdsprachenpolitik, Ausbildung, ökonomische Bedingungen etc.) • wissenschaftliche Faktoren (Ergebnisse aus der Sprachlehrforschung und der Fremdsprachendidaktik sowie aus den Bezugswissenschaften). Angesichts der Vielzahl und der Interdependenz der – keinesfalls vollständig aufgeführten – Einzelfaktoren leuchtet unmittelbar ein, dass die isolierte Darstellung und Erforschung eines Einzelfaktors forschungsmethodisch nicht sinnvoll zu realisieren ist. Fremdsprachendidaktische Forschung muss sich daher auch bei der notwendigen Fokussierung auf einen oder wenige Faktoren stets der Tatsache bewusst sein, dass es sich um Einzelaspekte innerhalb eines komplexen Gefüges handelt. 3. Aus den ersten beiden Merkmalen ergibt sich das dritte: Fremdsprachendidaktische Forschung ist interdisziplinär, denn sie greift sowohl inhaltlich als auch forschungsmethodisch auf Bezugswissenschaften zurück. Je nach Gegenstand und Fragestellung handelt es sich z. B. um die Erziehungswissenschaften, die Linguistik und Literaturwissenschaft, die Kultur- und Medienwissenschaften, die Soziologie und/oder die Psychologie. Jedoch geht es auch hierbei nicht um die alleinige Anwendung der Theorien, Modelle und Erkenntnisse aus den Bezugswissenschaften, sondern darum, diese für die spezifischen Fragen und 1 Grundsätzlich ist zwischen der Fremdsprachendidaktik als Forschungsdisziplin und als Lehrfach zu unterscheiden. Bedauerlicherweise ist fachdidaktische Lehre – vor allem durch die personelle Ausstattung an den Universitäten und Pädagogischen Hochschulen, aber z. B. auch durch die Erwartungshaltung von Studierenden bedingt – nicht selten auf unmittelbaren Anwendungsbezug hin ausgerichtet oder gar begrenzt.
2.2 Was ist fremdsprachendidaktische Forschung? Und welches sind ihre zentralen Forschungsfelder? 13
Interessen der Fremdsprachendidaktik zu nutzen und die unterschiedlichen Perspektiven zu integrieren. 4. Dieses interdisziplinäre und integrierende Vorgehen hat zur Folge, dass Fremdsprachendidaktik durch eine große Breite an methodischen Herangehensweisen charakterisiert ist und sich je nach Gegenstand und Forschungsfrage unterschiedlicher methodischer Ansätze und Verfahren bedient. Dabei überprüft sie die Passung zwischen ihren Fragen und den Ansätzen bzw. Verfahren verwandter Disziplinen und wandelt sie ggf. ab. In diesem Prozess entstehen zunehmend spezifisch fremdsprachendidaktische methodische Zugänge. 5. Aus dem Theorie-Praxis-Bezug ergibt sich, dass Praktiker_innen (wie Lerner_innen, Lehrer_innen oder Ersteller_innen von Curricula und Prüfungen) nicht nur Forschungspartner_innen sind, sondern auch selbst zu Forschenden werden können, die selbst oder in Zusammenarbeit mit universitären Forscher_innen sie interessierende Fragen untersuchen. Da sich diese Studien u. a. in Umfang und Zielsetzung häufig von etablierten Standards unterscheiden, wird immer wieder diskutiert, ob bzw. inwieweit es sich dabei tatsächlich um wissenschaftliche Forschung handelt. Im Design der Aktionsforschung und der insbesondere im englischsprachigen Raum verbreiteten Forschungsrichtung der teacher research (vgl. Kapitel 4.2) liegen inzwischen jedoch weithin akzeptierte Ansätze vor. Das Gros der fremdsprachendidaktischen Forschung findet allerdings weiterhin an Universitäten und Pädagogischen Hochschulen statt, die wichtigsten außeruniversitären Forschungseinrichtungen sind das Institut für Qualitätsentwicklung im Bildungswesen (IQB) in Berlin und das Institut für Pädagogik der Naturwissenschaften (IPN) in Kiel (vgl. auch Kapitel 8). 6. Charakteristisch für die Fremdsprachendidaktik ist weiterhin, dass der allergrößte Teil der Forschung von den Wissenschaftler_innen selbst angestoßen und durchgeführt wird, wobei den Qualifikationsarbeiten von Nachwuchswissenschaftler_innen besondere Bedeutung zukommt. Auftragsforschung z. B. von der Kultusministerkonferenz (KMK), Länderministerien oder Behörden wie dem Bundesamt für Migration und Flüchtlinge (BAMF), Institutionen wie dem Goethe-Institut oder dem Deutsch-Französischen Institut Ludwigsburg oder einzelnen Schulen ist eher selten. Die allermeisten Forschungsprojekte sind Einzelarbeiten, die zwar im Austausch mit Kolleg_innen und Betreuer_innen entstehen, letztlich aber von einzelnen Forscher_innen geplant, durchgeführt und veröffentlicht werden. Kleinere Forschungsverbünde (z. B. in Graduiertenkollegs oder Research Schools) oder die gemeinsame Arbeit größerer Forschergruppen (wie z. B. in der DESI-Studie 2008) sind bislang die Ausnahme. Es bleibt jedoch abzuwarten, ob die zunehmende Anzahl von, meist interdisziplinären, Graduiertenschulen und fächerübergreifenden Forschungsprojekten z. B. im Rahmen der empirischen Bildungsforschung, hier zu einem Wandel führen wird. Forschungsfelder
Typisch für fremdsprachendidaktische Forschungsarbeiten ist weiterhin, dass sie nicht nur Forschungsfelder anderer Disziplinen aufnehmen, sondern oft auch innerhalb der Fremdsprachendidaktik mehrere Felder betreffen. Forschungsfelder bestimmen sich durch einen thema-
14
2. Grundfragen fremdsprachendidaktischer Forschung
tischen Schwerpunkt. Bei der Durchsicht von annähernd einhundert Qualifikationsarbeiten für die Auswahl der Referenzarbeiten wurden insgesamt 13 Forschungsfelder ermittelt. In jedem dieser, in sich komplexen und weit gefassten Felder können Arbeiten vertreten sein, die zu den drei großen, in diesem Handbuch unterschiedenen Kategorien von Forschung gehören, nämlich historische Forschungsarbeiten (s. Kapitel 3.1), theoretische Arbeiten (s. Kapitel 3.2) und empirische Arbeiten (s. Kapitel 3.3). Die folgende alphabetische Liste erhebt keinen Anspruch auf Vollständigkeit, bietet jedoch eine generelle Orientierung und verdeutlicht die thematische Breite fremdsprachendidaktischer Forschung:
• Begegnungsforschung: Hier sind Arbeiten zu finden, die direkte und (medial) vermittelte Begegnungen von Sprechern unterschiedlicher Sprachen und unterschiedlicher (kultureller) Herkunft konzeptuell-theoretisch, historisch und empirisch untersuchen. • Curriculumforschung: Arbeiten in diesem Feld sind mit der theoretischen Begründung, historischen Entwicklung und empirischen Validierung von Lehrprogrammen für Sprachunterricht befasst. • Diagnostik: Arbeiten in diesem Forschungsfeld sind Tätigkeiten gewidmet, die in Abgrenzung zur Diagnostik anderer Berufsfelder unter dem Begriff Pädagogische Diagnostik zusammengefasst werden können. Im Brennpunkt stehen mit Bezug auf das Lehren und Lernen von Fremd- und Zweitsprachen Tätigkeiten „durch die bei einzelnen Lernenden und den in einer Gruppe Lernenden Voraussetzungen und Bedingungen planmäßiger Lehr- und Lernprozesse analysiert und Lernergebnisse festgestellt werden, um individuelles Lernen zu optimieren“ (Ingenkamp/Lissmann 2005:15). • Interaktionsforschung: Forschungen zu Bedingungen, Verlaufsformen und Strukturmerkmalen fremdsprachiger Interaktion in unterschiedlichen sozialen Arrangements sowie ihre Erträge sind diesem Feld zugeordnet. • Kompetenzforschung: Hier geht es um die theoretische Bestimmung und empirische Modellierung von Kompetenzen im Bereich des Lehrens und Lernens von Fremdsprachen (insbesondere sprachlicher, literarischer, medialer und interkultureller Kompetenzen) und um die Erforschung ihrer Entwicklung unter spezifischen institutionellen Bedingungen (Schule, Hochschule, Erwachsenenbildung). • Konzeptforschung: Die Entwicklung und systematische Analyse umfassender Konzepte und tragender Konstrukte der Fremdsprachendidaktik sowie die Modellbildung machen den gemeinsamen Nenner der Arbeiten dieses Forschungsfelds aus. • Lehr- und Professionsforschung: Forschungsarbeiten in diesem Feld beschäftigen sich mit dem Lehren fremder Sprachen als Beruf. Von Interesse sind nicht nur gesellschaftliche Ansprüche an Lehrkräfte oder deren berufliches Selbstverständnis, sondern in gleicher Weise Fragen der Aus- und Weiterbildung von Lehrkräften. Mit Blick auf die Praxis werden zudem Bedingungen und Prozesse des Lehrens von Fremd- und Zweitsprachen in diesem Feld unter besonderer Berücksichtigung der Lehrpersonen, ihres Wissens, ihrer Erfahrungen, Einstellungen und ihres Handelns in spezifischen Kontexten bearbeitet. • Lehrwerks- und Materialienforschung: Hier geht es um die systematische Analyse historischer wie gegenwärtiger Lehrwerke und Medienverbundsysteme analoger und digitaler Provenienz. Auf diesem Feld sind folglich Forschungen angesiedelt, die Materialentwicklung, Evaluation und Nutzung in Lehr und Lernprozessen fokussieren.
2.2 Was ist fremdsprachendidaktische Forschung? Und welches sind ihre zentralen Forschungsfelder? 15
• Lernforschung: Die Lernforschung untersucht die komplexen Voraussetzungen, Prozesse und Ergebnisse individuellen und kooperativen Sprachenlernens unter natürlichen und gesteuerten Bedingungen. • Lernerforschung: In diesem Feld steht die Sprachen lernende Person im Zentrum der Aufmerksamkeit und zwar als Individuum und als soziales Wesen mit ihrer speziellen Sprachlerngeschichte, mit ihren Potenzialen, sprachlich zu handeln, sowie ihrer kognitiven und affektiven Ausstattung. • Schulbegleit- und Schulentwicklungsforschung: Ziel dieser Forschung ist es, relevante Aspekte des Lehrens und Lernens von Fremdsprachen unter schulischen Bedingungen zu erkennen, um das Zusammenspiel zwischen der Institution und den in ihr tätigen Individuen und Gruppen zu verstehen. In diesem Feld sind ebenfalls Projekte angesiedelt, in denen Lehrkräfte und professionell Forschende von Hochschulen und/oder Forschungsinstituten zusammenwirken mit dem Ziel, die Handlungskompetenz der Beteiligten zu entwickeln. • Testforschung: Hier geht es sowohl um die Entwicklung, Validierung und Implementierung standardisierter Sprachtests als auch um unterrichtsbezogene Verfahren formativer und summativer Lernstandsermittlung, ihre Entwicklung und Erprobung. • Zweitsprachenerwerbsforschung: Aus diesem wesentlich weiteren Forschungsfeld sind für die fremdsprachendidaktische Forschung solche Arbeiten relevant, die sich darum bemühen, Prozesse ungesteuerten wie gesteuerten Fremdsprachenerwerbs zu beschreiben, Erwerbssequenzen zu bestimmen und Zusammenhänge zwischen Lehren und Erwerb aufzudecken. Dabei finden u. a. das Wechselverhältnis von Erst- und Zweitsprachen sowie weiterer Sprachen Berücksichtigung als auch soziale Bedingungen des Erwerbs oder die besonderen Merkmale der Erwerbssituation. Betrachtet man die ausgewählten Referenzarbeiten, so ist ein Großteil der Arbeiten in mindestens zwei Forschungsfeldern angesiedelt: Die Referenzarbeiten von Biebricher (2008) und Marx (2005) in der Lern- und Kompetenzforschung, die von Ehrenreich (2004) in der Begegnungs- und Professionsforschung, die von Schmidt (2007) in der Materialien- und Lernforschung, die von Schart (2003) in der Kompetenz- und Professionsforschung, die von Hochstetter in der Diagnostik und der Kompetenzforschung; die Untersuchung von Doff (2002) berührt die Felder der Lernforschung, Schulforschung und Professionsforschung. Die Fokussierung dieser in mehreren Feldern angesiedelten Arbeiten erfolgt jeweils durch die Forschungsfrage. Im Gegenzug berücksichtigen die Studien, die primär in nur einem Forschungsfeld verortet sind wie z. B. die Referenzarbeiten von Arras (2007) (Testforschung), Özkul (2011) (Professionsforschung), Schwab (2009) (Interaktionsforschung) sowie Schmenk (2002) und Tassinari (2010) (Konzeptforschung), die Faktorenkomplexion z. B. bei der Einordnung bzw. Gewichtung der Ergebnisse oder der Rückbindung an den Kontext bzw. eine Theorie. Möglicherweise ist die Faktorenkomplexion auch ein Grund dafür, dass in der Fremdsprachendidaktik der Theorie-Empirie-Bezug in der Form der Überprüfung von zuvor aufgestellten Modellen wenig verbreitet ist. Der Vielfalt der Lehr-/ Lernsituationen und der weiten Verbreitung von Einzelforschung könnte wiederum geschuldet sein, dass bisher insgesamt vergleichsweise wenige Studien auf repräsentative Ergebnisse abzielen. Dafür konn-
16
2. Grundfragen fremdsprachendidaktischer Forschung
ten in den letzten 15 Jahren durch zahlreiche Studien mit qualitativen Forschungsansätzen der Gegenstandsbereich des Lehrens und Lernens fremder Sprachen besser exploriert werden und viele Einzelfaktoren und -aspekte in ihrer Vielschichtigkeit und Komplexität erforscht und dargestellt werden.
Welche Gütekriterien gelten für
2.3
fremdsprachendidaktische Forschung?
Wissenschaftliche Forschung unterscheidet sich von der anfangs erwähnten Alltagsbeobachtung nicht zuletzt durch die Einhaltung bestimmter forschungsmethodischer Standards, den sog. Gütekriterien. Als Prinzipien verstanden, helfen sie dabei, sich der jeweiligen qualitativen Standards bewusst zu werden und sie bei der Planung und Durchführung der Untersuchung einzuhalten; als Kriterien verstanden, ermöglichen sie, im Nachhinein die Qualität und die Reichweite der gewonnenen Ergebnisse einer Forschungsarbeit zu beurteilen. Auffällig ist, dass Gütekriterien bislang nahezu ausschließlich im Kontext empirischer Forschung diskutiert werden. Sowohl in der theoretisch-hermeneutischen wie auch in der historischen Forschung steht eine intensivere forschungsmethodologische Diskussion erst am Anfang. Auffällig ist ebenfalls, dass sich die Diskussion über Gütekriterien in der empirischen Forschung nach wie vor zumeist an der soziologischen, psychologischen und erziehungswissenschaftlichen Forschung orientiert. Erst seit der Etablierung der Gegenstandsangemessenheit als zentralem Gütekriterium ist zu beobachten, dass in fremdsprachendidaktischen Arbeiten bei der Präsentation und Analyse der Forschungsmethodik offensiver anhand fremdsprachenforschungsspezifischer Charakteristika argumentiert wird. Trotzdem ist der Stand der Diskussion aus den genannten Disziplinen nach wie vor wegweisend. Grundsätzlich unterscheiden sich die Gütekriterien in quantitativen und qualitativen Forschungsansätzen (vgl. Kap. 3.3). Als zentrale Kriterien quantitativer Forschung (vgl. im Folgenden Edmondson/House 2006: 39 – 40, Grotjahn 2006, Schmelter 2014) gelten Objektivität, Reliabilität und Validität. Unter Objektivität versteht man die Intersubjektivität einer Methode, d. h. die Unabhängigkeit der Ergebnisse von den Forscher_innen, die die Untersuchung durchgeführt haben. Dabei unterscheidet man anhand der einzelnen Forschungsschritte Durchführungs-, Auswertungs- und Interpretationsobjektivität. Detaillierte Vorschriften sollen dafür sorgen, dass sowohl der Einfluss der Untersuchung auf die Untersuchungsteilnehmer_innen als auch der Einfluss der Forscher_innen auf die Untersuchung kontrolliert und möglichst gering gehalten wird. Eng mit dem Kriterium der Objektivität zusammen hängt das Kriterium der Zuverlässigkeit (Reliabilität). Es misst die Genauigkeit des Datenerhebungs- bzw. Messvorgangs und gibt den Grad der Verlässlichkeit der Ergebnisse an. Für ein hochreliables Ergebnis müssen bei einer Wiederholung der Untersuchung unter gleichen Bedingungen die gleichen Ergebnisse erzielt werden (Replizierbarkeit der Messergebnisse). Reliabilität umfasst drei Aspekte: die Stabilität (die Übereinstimmung der Messergebnisse zu unterschiedlichen Zeitpunkten), die Konsistenz (das Maß, mit dem die zu einem Merkmal
2.3 Welche Gütekriterien gelten für fremdsprachendidaktische Forschung?
17
gehörenden Items dasselbe Merkmal messen) und die Äquivalenz (die Gleichwertigkeit von Messungen, wenn z. B. durch das Wiederholen eines Tests ein Lerneffekt eintritt). Objektivität und Reliabilität der Methoden bestimmen die Validität, d. h. die Gültigkeit einer Variable, eines Messverfahrens bzw. der erzielten Ergebnisse. Sie bestimmt das Maß ihrer Übereinstimmung mit dem untersuchten Realitätsausschnitt. Man unterscheidet in Bezug auf Untersuchungsverfahren zum einen innere bzw. interne Validität (das Maß, mit dem ein Forschungsverfahren tatsächlich das erfasst oder misst, was es erfassen oder messen soll – und nicht z. B. durch andere Einflüsse wie z. B. Störvariablen oder systematische Messfehler beeinträchtigt wird). Hierbei unterscheidet man insbesondere die Inhaltsvalidität (die Eignung eines Verfahrens für die Erfassung bzw. Messung des Konstruktes), die Kriteriumsvalidität (die Übereinstimmung der gemessenen Ergebnisse mit einem empirischen Kriterium, z. B. den Ergebnissen, die mit einem anderen Verfahren gewonnen wurden) und die Konstruktvalidität (die Zuverlässigkeit der Ergebnisse bezüglich des gesamten untersuchten Konstruktes und nicht nur einzelner Aspekte des Konstruktes). Zum anderen bestimmt man die externe Validität, d. h. die Möglichkeit der Übertragung der Ergebnisse über die jeweilige Stichprobe und Situation der konkreten Untersuchung hinaus (Möglichkeit der Verallgemeinerung, Repräsentativität). Grundsätzlich ist eine hohe Reliabilität eine Voraussetzung für hohe Validität, allerdings kann sich eine zu hohe Reliabilität negativ auf die Validität auswirken, weil dann nur sehr enge Konstrukte erfasst werden können. Während Studien mit einem quantitativen Forschungsansatz das Forschungsfeld und die Forschungsgegenstände aus einer distanzierten Außenperspektive betrachten, setzt sich qualitative Forschung das Ziel, die Untersuchungsgegenstände soweit es geht aus der Innenperspektive der Beteiligten zu erforschen (vgl. Kapitel 3.3). Diese Forschung verlangt daher andere Gütekriterien (vgl. im Folgenden Flick 1987 und 1995, Schmelter 2014, Steinke 1999). Ein Teil dieser Kriterien stellt eine Um- oder Neudefinition der aufgeführten Gütekriterien quantitativer Forschung dar, dazu kommen spezifische Kriterien qualitativer Forschung. Das Kriterium der Objektivität ist nicht vereinbar mit der Subjektivität der Forschungsbeteiligten, der Notwendigkeit ihrer Interaktion und der Anwendung interpretativer Auswertungsverfahren; zudem widerspricht es zentralen Charakteristika qualitativer Forschung wie z. B. den Prinzipien der Gegenstandsentfaltung, der Offenheit, der Alltagsorientierung und der Kontextualität. Als Äquivalenzkriterium führt Steinke (1999: 143) das Kriterium der Intersubjektiven Nachvollziehbarkeit ein, für das die Reflexivität des/der Forscher_in wichtig ist. Auch das Kriterium der Reliabilität ist nicht direkt auf qualitative Forschung übertragbar, u. a. weil weder eine Standardisierung der Erhebungssituation noch eine vorgängige exakte Bestimmung und Operationalisierung des Untersuchungsgegenstandes möglich bzw. sinnvoll sind, auch ist das Untersuchungsphänomen in den meisten Fällen nicht ausreichend stabil. Stattdessen schlägt Flick (1995: 242) die Prüfung der Verlässlichkeit von Daten und Vorgehensweisen vor, für die u. a. die konsequente Dokumentation des Forschungsprozesses notwendig ist. Daneben werden auch Verfahren der Reliabilitätsprüfung aus quantitativen Forschungsansätzen auf qualitative Designs übertragen, wenn z. B. zwei Forscher_innen die gleichen Texte kodieren und ihre unterschiedlichen Deutungen diskutieren (Inter-Coder-Reliabilität).
18
2. Grundfragen fremdsprachendidaktischer Forschung
Das Kriterium der Validität wird für qualitative Forschungsansätze dagegen teilweise übernommen und in Bezug auf den Auswertungs- und Interpretationsprozess hin erweitert. Validierung wird verstanden als – zumeist kommunikativer – Prozess, in dem das Zustandekommen der Daten, die Darstellung der Phänomene und die daraus abgeleiteten Schlüsse auf systematische Verzerrungen oder Täuschungen hin untersucht werden (Flick 1995: 244 – 245). Die zentrale Frage lautet, „inwieweit die Konstruktionen des Forschers in den Konstruktionen derjenigen, die er untersucht hat, begründet sind (…) und inwieweit für andere diese Begründungen nachvollziehbar sind“ (Flick 1995: 244). Ein Verfahren der Validitätsprüfung ist die Triangulation (vgl. auch Kapitel 4.4), die hierbei jedoch nicht primär auf die Bestätigung der Ergebnisse und damit auf die Gewinnung eines einheitlichen Gesamtbildes abzielt, sondern auf ergänzende und vertiefende Perspektiven. Neben den drei genannten gelten als weitere wichtige Kriterien qualitativer Forschung Offenheit (gegenüber dem Forschungsfeld und gegenüber unerwarteten Ergebnissen), Flexibilität (angesichts gewachsener Erkenntnisse oder als Reaktion auf Unerwartetes), die Darlegung des Vorverständnisses, die Reflexion der Rolle der Forscher_in, die Indikation des Forschungsprozesses und der Bewertungskriterien (d. h. die Prüfung, ob die getroffenen methodischen Entscheidungen indiziert, d. h. angemessen gewählt worden waren) sowie die empirische Verankerung der Theoriebildung (die Theoriebildung erfolgt dicht an den Daten). Obwohl mit qualitativen Untersuchungen keine Generalisierung angestrebt werden kann, ist zu prüfen, wie weit die gewonnenen Ergebnisse über den Untersuchungskontext hinaus Gültigkeit beanspruchen können (Kriterium der Limitation bzw. Reichweite). Im Unterschied zu den Gütekriterien in quantitativen Forschungsansätzen zielen die Kriterien in qualitativen Forschungsansätzen weniger auf Kontrolle, sondern auf Vertrauenswürdigkeit, Glaubwürdigkeit und Verlässlichkeit. Wichtige Gütekriterien für beide Ansätze sind die Offenlegung des Gegenstandsverständnisses (es bildet die Grundlage für die Beurteilung der Angemessenheit des gewählten Ansatzes und der eingesetzten Methoden) sowie die theoretische und praktische Relevanz der Fragestellung und der Forschungsergebnisse (es muss z. B. deutlich erkennbar sein, an welchen Theorien und Ergebnissen die Untersuchung anknüpft, welche Praxisaspekte sie aufgreift sowie welche neuen Deutungen oder Erklärungen für die untersuchten Phänomene sie bereitstellt und welches Innovationspotential sie enthält). Darüber hinaus müssen in jedem Fall ethische Standards eingehalten werden (vgl. Kapitel 4.6). Das zentrale Gütekriterium sind in jedem Fall die Gegenstandsangemessenheit der gewählten Ansätze und Verfahren für die Bearbeitung der Forschungsfrage und, darüber hinaus, die Passung, das sinnvolle Zusammenwirken der einzelnen Elemente und Entscheidungen innerhalb der Forschungsarbeit: zum einen Passung von Gegenstand, Fragestellung, Zielsetzung und Relevanz untereinander, zum anderen Passung von Forschungstradition, Forschungskonzept bzw. -design und Verfahren untereinander sowie die unerlässliche Passung beider Stränge.
2.3 Welche Gütekriterien gelten für fremdsprachendidaktische Forschung?
19
›› Literatur Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDAF). Tübingen: Narr. [Referenzarbeit, Kapitel 7] Bausch, Karl-Richard/Christ, Herbert/Krumm, Hans-Jürgen (2003). Fremdsprachendidaktik und Sprachlehrforschung. In: Dies. (Hg.). Handbuch Fremdsprachenunterricht. 4. vollständig neu bearbeitete Ausgabe. Tübingen: Francke. Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Burwitz-Melzer, Eva/Königs, Frank/Riemer, Claudia (Hg.) (2015). Lernen an allen Orten? Die Rolle der Lernorte beim Lehren und Lernen von Fremdsprachen. Arbeitspapiere der 35. Frühjahrskonferenz zur Erforschung des Fremdsprachenunterrichts. Tübingen: Narr. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage. London: Routledge. DESI-Konsortium (2008) (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz. Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. München: Langenscheidt-Longman. [Referenzarbeit, Kapitel 7] Doff, Sabine (2008). Englischdidaktik in der BRD 1949 bis 1989. Konzeptuelle Genese einer Wissenschaft. München: Langenscheidt. Doff, Sabine (2010). Englischdidaktik in den 1970er und 1980er Jahren: Stationen auf dem Weg zu einer wissenschaftlichen Disziplin. In: Fremdsprachen Lehren und Lernen 39, 145 – 159. Edmondson, Willis J./House, Juliane (2006). Einführung in die Sprachlehrforschung. 3. Auflage. Tübingen: Francke. Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Das „assistant“-Jahr als ausbildungsbiographische Phase. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Flick, Uwe (1987). Methodenangemessene Gütekriterien in der qualitativ-interpretativen Forschung. In: Bergold, Jarg B./Flick, Uwe (Hg.). Ein-Sichten. Zugänge zur Sicht des Subjekts mittels qualitativer Forschung. Tübingen: Deutsche Gesellschaft für Verhaltenstherapie. Flick, Uwe (1995). Qualitative Forschung: Theorie, Methoden, Anwendung in Psychologie und Sozialwissenschaften. Reinbek: Rowohlt. Groeben, Norbert/Wahl, Diethelm/Schlee, Jörg/Scheele, Brigitte (1988). Das Forschungsprogramm Subjektive Theorien. Eine Einführung in die Psychologie des reflexiven Subjekts. Tübingen: Francke. Grotjahn, Rüdiger (1993). Qualitative vs. quantitative Fremdsprachenforschung: Eine klärungsbedürftige und unfruchtbare Dichotomie. In: Timm, Johannes-Peter/Vollmer, Helmut Johannes (Hg.). Kontroversen in der Fremdsprachenforschung. Dokumentation des 14. Kongresses für Fremdsprachendidaktik, veranstaltet von der Deutschen Gesellschaft für Fremdsprachenforschung (DGFF) Essen, 7. – 9. Oktober 1991. Bochum: Brockmeyer, 223 – 248. Grotjahn, Rüdiger (2006). Zur Methodologie der Fremdsprachenerwerbsforschung. In: Scherfer, Peter/ Wolff, Dieter (Hg.). Vom Lehren und Lernen fremder Sprachen. Eine vorläufige Bestandsaufnahme. Frankfurt/M.: Lang, 247 – 270. Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Ingenkamp, Karlheinz/Lissmann, Urban (2005). Lehrbuch der Pädagogischen Diagnostik. 5. Auflage. Weinheim: Beltz.
20
2. Grundfragen fremdsprachendidaktischer Forschung
Königs, Frank G. (2010). Faktorenkomplexion. In: Barkowski, Hans/Krumm, Hans-Jürgen (Hg.). Fachlexikon Deutsch als Fremd- und Zweitsprache. Tübingen: Francke: 78. Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines Sensibilisierungsunterrichts im „DaF-nE“. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Özkul, Senem (2011). Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in Anglistik/Amerikanistik. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Schlömerkemper, Jörg (2010). Konzepte Pädagogischer Forschung. Eine Einführung in Hermeneutik und Empirie. Bad Heilbrunn: Klinkhardt. Schmelter, Lars (2014). Gütekriterien. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh, 33 – 45. Schmenk, Barbara (2002). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Stauffenburg. [Referenzarbeit, Kapitel 7] Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. [Referenzarbeit, Kapitel 7] Steinke, Ines (1999). Kriterien qualitativer Forschung: Ansätze zur Bewertung qualitativ-empirischer Sozialforschung. Weinheim: Juventa. Tassinari, Giovanna (2010). Autonomes Fremdsprachenlernen. Komponenten, Kompetenzen, Strategien. Frankfurt/M.: Lang. [Referenzarbeit, Kapitel 7]
»» Zur Vertiefung empfohlen Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage London: Routledge, 3 – 30. Im ersten Kapitel dieses Handbuches „The nature of enquiry: setting the field“ erläutern die Autoren die zentralen Forschungsparadigmen einschließlich ihrer erkenntnistheoretischen Grundlagen. Gnutzmann, Claus/Königs, Frank/Küster, Lutz (2011). Fremdsprachenunterricht und seine Erforschung. Ein subjektiver Blick auf 40 Jahre Forschungsgeschichte und auf aktuelle Forschungstendenzen in Deutschland. In: Fremdsprachen Lehren und Lernen 40, 1 – 28. Nach einer Klärung des Gegenstandsbereiches fremdsprachendidaktischer Forschung zeichnen die Autoren anhand von sechs aktuellen Forschungsfeldern, darunter Forschungsmethoden, die Entwicklung der Fremdsprachendidaktik in den letzten 40 Jahren nach. Grotjahn, Rüdiger (1993). Qualitative vs. quantitative Fremdsprachenforschung: Eine klärungsbedürftige und unfruchtbare Dichotomie. In: Timm, Johannes-Peter/Vollmer, Helmut Johannes (Hg.). Kontroversen in der Fremdsprachenforschung. Dokumentation des 14. Kongresses für Fremdsprachendidaktik, veranstaltet von der Deutschen Gesellschaft für Fremdsprachenforschung (DGFF) Essen, 7. – 9. Oktober 1991. Bochum: Brockmeyer, 223 – 248.
2.3 Welche Gütekriterien gelten für fremdsprachendidaktische Forschung?
21
Ausgehend von dem seiner Meinung nach unfruchtbaren Gegensatz zwischen qualitativer und quantitativer Forschung erläutert der Autor grundlegende methodologische Paradigmen und Gütekriterien. Von den Spezifika der Fremdsprachendidaktik aus konturiert er Ansätze zur Überwindung dieses methodologischen Gegensatzes. Kron, Friedrich W. (1999): Wissenschaftstheorie für Pädagogen. Tübingen: E. Reinhardt. In diesem Handbuch wird ein systematischer Überblick über die wichtigsten wissenschaftstheoretischen Begriffe, Fragen und Konzepte gegeben. Die Darstellung der zentralen Paradigmen und Methoden erfolgt aus Sicht der Pädagogik. Schmelter, Lars (2014). Gütekriterien. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/ Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh, 33 – 45. Dieser Artikel gibt, ausgehend vom Forschungsgegenstand der Fremdsprachenforschung, einen Überblick über Gütekriterien quantitativer und qualitativer Forschungsansätze. Außerdem werden übergreifende Gütekriterien sowie bislang ungelöste Fragen hinsichtlich der Gütekriterien fremdsprachendidaktischer Forschung diskutiert.
3. Forschungstraditionen der Fremdsprachendidaktik Friederike Klippel
Die Fremdsprachendidaktiken sind als wissenschaftliche Disziplinen noch relativ jung, denn sie etablierten sich erst nach dem Zweiten Weltkrieg in Deutschland als akademische Fächer. Dennoch gibt es eine Tradition der Erforschung des Lehrens und Lernens von Sprachen, die viel weiter zurückreicht als in die 1960er Jahre, in denen an den Pädagogischen Hochschulen der Bundesrepublik Deutschland in größerem Umfang Professuren für die Fachdidaktiken in den Sprachenfächern eingerichtet wurden. Wenn man unter Forschung die systematische Suche nach neuen Erkenntnissen versteht (s. auch Kapitel 2), dann müssen auch die Bemühungen aus früheren Jahrhunderten anerkannt werden, die Ziele, Inhalte, Verfahren und kontextuelle Einbettung des Sprachenlernens theoretisch oder empirisch genauer zu fassen. Kelly (1969) charakterisiert zwei Grundtypen früher Forschung zum Sprachenlernen: The all-important stages of learning a language were developed by two sorts of amateur. One was the professional grammarian who, for various reasons, found himself in the classroom; the other was the professional educator who, because of an interest in language, turned to teaching languages. Erasmus is a good example of the first and Comenius of the second. (Kelly 1969: IX)
Auch wenn Kellys Bezeichnung „amateur“ für Gelehrte wie Erasmus und Comenius nicht ganz passend erscheint, so besitzt doch seine Unterscheidung in diese beiden Grundtypen bis in das 20. Jahrhundert hinein Gültigkeit: Ein Interesse an der intensiven Beschäftigung mit dem Sprachenlernen erwuchs entweder aus der Beschäftigung mit der Sprache oder den Sprachen selbst, so etwa im Falle von Hermann Breymann, Professor für französische und englische Sprache an der Münchener Universität von 1875 bis 1909. Breymann, der vor seinem Ruf nach München sieben Jahre lang in England u. a. als Französischlektor selbst Sprachunterricht erteilt und Lehrbücher für das Französische verfasst hatte (Riedl 2005: 233), widmete sich als Wissenschaftler sowohl der Erforschung des Provençalischen, der historischen Entwicklung des Französischen und Spanischen und bestimmten Epochen der englischen Literatur als auch der inhaltlichen Gestaltung der Lehrerbildung in den neueren Sprachen und der bibliographischen Aufarbeitung der neusprachlichen Reformbewegung. Seine kommentierten Bibliographien zur Reformbewegung (Breymann 1895, 1900) sind bis heute eine unverzichtbare Grundlage der fachhistorischen Forschung. Als Vertreter des anderen Typus, nämlich des Pädagogen, dessen Interesse an Bildungsprozessen im Allgemeinen auch die sprachliche Bildung im Besonderen umfasst, wäre z. B. Carl Wilhelm Mager zu nennen, der um die Mitte des 19. Jahrhunderts ein Konzept für eine umfassende Schulbildung entwirft, in dessen Rahmen dem Unterricht in Sprachen, und zwar sowohl den lebenden als auch den
24
3. Forschungstraditionen der Fremdsprachendidaktik
klassischen Sprachen, besonderer Stellenwert zukommt (Mager 1846). Die von Mager dafür entwickelte und propagierte „genetische Methode“ wurde zu seiner Zeit in einigen erfolgreichen Lehrbüchern umgesetzt (Klippel 1994: 444 – 447). Die Klassifizierung in eher linguistisch oder pädagogisch motivierte frühe fremdsprachendidaktische Forschung liegt quer zu der heute üblichen Unterscheidung von Grundlagenforschung und angewandter Forschung (s. Kapitel 2). Die aktuell gültigen und allgemein üblichen Güte- und Qualitätskriterien für Forschungsarbeiten (s. Kapitel 2) waren im 19. und frühen 20. Jahrhundert noch nicht in gleichem Maße bekannt oder selbstverständlich. Das bedeutet jedoch nicht, dass weit zurückliegende Forschungsarbeiten a priori fehlerhaft oder gar wertlos sind. Man muss sie allerdings – ganz im Sinne einer inneren und äußeren Quellenkritik (dazu Kapitel 5.3.1) – im Kontext ihrer Zeit lesen und interpretieren. Geht man vom zeitlichen Rahmen bisheriger großer historischer Abrisse des Fremdsprachenlehrens und -lernens aus (Kelly 1969, Germain 1993, Wheeler 2013), dann lassen sich Überlegungen zum Sprachenlehren und -lernen aus 5000 bis 2500 Jahren belegen. Sicherlich sind nicht alle diese Überlegungen als Forschung im engeren Sinne einzuordnen, aber die Grenze zwischen den in den vergangenen Jahrhunderten niedergelegten Annahmen, Prinzipien und Beobachtungen engagierter Sprachenlehrer (etwa von Seidelmann 1724 oder Falkmann 1839) einerseits und theoretischen Ideen und Konzepten etwa eines Comenius (1643) andererseits ist schwer festzulegen. Ist beides, nur eines oder gar nichts davon als Forschung zu sehen? Da der Fokus dieses Handbuchs auf der deutschen Fremdsprachendidaktik liegt, werden im Folgenden die Forschungstraditionen in Deutschland ab dem 19. Jahrhundert skizziert, seit es eine theoretische, historische und empirische Auseinandersetzung mit dem Forschungsfeld in größerem Ausmaß gibt. Wer forscht?
Heute erfolgt ein Großteil der fremdsprachendidaktischen Forschung an Universitäten und Hochschulen, oftmals im Kontext wissenschaftlicher Qualifizierungsarbeiten oder geförderter Projekte. Das war im 19. und frühen 20. Jahrhundert noch völlig anders. In einer Zeit, in der sich die modernen Sprachen erst langsam an Schulen und Universitäten etablierten (dazu z. B. Finkenstaedt 1983: 27 – 123; Hüllen 2005: 75 – 91), befand sich ein Großteil derer, die sich systematisch mit dem Fremdsprachenunterricht befassten, als Lehrer an einer höheren Schule. Viele der damaligen Sprachlehrer waren leidenschaftliche Verfechter ihres Faches und kämpften für dessen Berechtigung und stärkere Berücksichtigung. Dazu veröffentlichten sie theoretische Abhandlungen in den ebenfalls ab der Mitte des 19. Jahrhunderts entstehenden pädagogischen und philologischen Fachzeitschriften. Insbesondere zu Zeiten der neusprachlichen Reformbewegung ab etwa 1880 setzten sich Befürworter und Gegner der Reform intensiv auseinander. In diesem Kontext entstanden auch die ersten Forschungsarbeiten, die sich in heutiger Terminologie eventuell als empirische Unterrichtsforschung oder Handlungsforschung bezeichnen lassen, indem einzelne Lehrer (z. B. Klinghardt 1888) über einen längeren Zeitraum hinweg ihren Unterricht systematisch aufzeichneten, ihre Beobachtungen notierten und diese dann mit Bezug auf die gängigen Theorien zum Sprachenlernen interpretierten (Klippel 2013). Andere Lehrer untersuchten die Geschichte des Französisch- oder
3. Forschungstraditionen der Fremdsprachendidaktik
25
Englischunterrichts (s. Kapitel 3.1 zu einschlägigen Beispielen), wiederum andere befassten sich mit theoretischen Konzepten zu einer Sprachenfolge in den höheren Schulen – etwa Julius Ostendorf (dazu Ostermeier 2012). Der Beginn der Forschungstradition im Bereich der Fremdsprachendidaktik ist also eng verknüpft mit der Lehrerschaft. Die zunehmende Professionalisierung dieser Lehrer und ihr starkes Engagement für die aufstrebenden modernen Sprachen sowie ihr Bemühen, den Unterricht wissenschaftlich zu fundieren und zu optimieren, führten zu einem regen fachlichen Diskurs. Und es ist festzuhalten, dass bereits damals historisch, theoretisch und empirisch geforscht wurde – wenn auch letzteres nicht in breitem Umfang. Bis in die 1960er Jahre ändert sich diese Situation nicht wesentlich. Zwar gibt es vereinzelt Dissertationen zum Lehren und Lernen fremder Sprachen (s. Überblick in Sauer 2006), doch findet der wissenschaftliche Diskurs primär nicht auf akademischer Ebene statt, sondern vielmehr bei Fachtagungen und in fachdidaktischen Fachzeitschriften, wie z. B. Die Neueren Sprachen, Neusprachliche Mitteilungen, Praxis des neusprachlichen Unterrichts, die weiterhin für den Unterricht in den beiden Sprachen Englisch und Französisch publizieren1 und zumeist, so scheint es, von Sprachlehrern selbst herausgegeben, verfasst und gelesen werden. Der Französisch- und Englischunterricht ist in der ersten Hälfte des 20. Jahrhunderts an Gymnasien und Mittelschulen etabliert; an den Universitäten sind fast überall Professuren für die neuphilologischen Fächer eingerichtet, deren Schwerpunkt jedoch weiterhin in der Literaturwissenschaft und der Historischen Sprachwissenschaft liegt. Erst mit dem Ausbau des Unterrichts in einer modernen Fremdsprache, meist Englisch, für Schülerinnen und Schüler aller Schulformen in Folge des Hamburger Abkommens von 1964 und der dadurch erforderlichen Einrichtung von fremdsprachendidaktischen Professuren an den Pädagogischen Hochschulen, an denen damals die Lehrkräfte für die nicht-gymnasialen Schulformen ausgebildet wurden, gewinnt die Fachdidaktik Englisch (vgl. dazu Doff 2008) und in Folge dessen auch die Fachdidaktik der romanischen Sprachen an wissenschaftlicher Statur und Forschungskapazität. Gleichzeitig erhöht sich die Zahl der Lehrkräfte erheblich, die für den Sprachunterricht ausgebildet werden müssen und die als potentielle Rezipienten von Forschungsergebnissen – während der Ausbildung oder im Beruf – zu sehen sind. Im Bereich Deutsch als Fremdsprache erfolgt die Entwicklung mit einiger Verzögerung und mit anderen Vorzeichen, denn ein wissenschaftliches Fach etabliert sich in der alten Bundesrepublik erst Ende der 1970er Jahre in unterschiedlich enger Verzahnung mit der Germanistik und mit unterschiedlichen Denominationen (vgl. Götze et al. 2010: 19 – 20). Für Deutsch als Fremdsprache geht die Forschungstätigkeit weniger von den praktizierenden Lehrkräften aus als von den Wissenschaftlerinnen und Wissenschaftlern. Als „Motor der Entwicklung im Wissenschaftsbereich“ identifizieren Götze et al. (2010: 20 – 21) ab 1971 den „Arbeitskreis Deutsch als Fremdsprache“ (AKDaF; heute „Fachverband Deutsch als Fremdsprache“ FaDaF). In den 1970er Jahren entstehen die einschlägigen DaF-Publikationsorgane wie etwa die Zeitschrift „Zielsprache Deutsch“ (ab 1970) und das „Jahrbuch Deutsch als Fremdsprache“ (ab 1975) (vgl. Götze et al. 2010: 21).
1 Die fremdsprachendidaktische Zeitschrift der DDR, „Fremdsprachenunterricht“, enthielt auch Artikel zum Russischunterricht.
26
3. Forschungstraditionen der Fremdsprachendidaktik
Die hier geschilderte Entwicklung verlief in der DDR etwas anders. So gab es am Leipziger Herder-Institut, an dem seit 1956 Deutschunterricht für ausländische Studierende erteilt wurde, bereits ab 1968 eine Professur im Fach Deutsch als Fremdsprache. Die fremdsprachendidaktische Forschung in der DDR orientierte sich weitgehend an der russischen (Psycho-) Linguistik und Pädagogik, während die westdeutsche eher in die USA blickte. Vor der Wiedervereinigung 1989 wollte oder konnte man sich in BRD und DDR gegenseitig kaum in den jeweiligen Forschungsbemühungen wahrnehmen (so Hüllen 1991), wenngleich es etwa im Bereich der fachhistorischen Forschung bereits in den 1980er Jahren auf der Basis der Initiative einzelner Forscher zu einem wissenschaftlichen Austausch kam (etwa Strauß 1985). Die große Steigerung der Forschungsaktivität ab den späten 1960er Jahren zeigt sich eindrücklich an der wachsenden Zahl von Dissertationen und Habilitationsschriften, die in der Fremdsprachendidaktik angefertigt werden. Während Sauer (2006) für den Zeitraum von 1900 bis 1962 lediglich 19 einschlägige Arbeiten aufführt, sind es von 1968 bis zum Jahr 2000 insgesamt 355. Ab dem Jahr 2000 erfolgen in Deutschland jährlich im Durchschnitt zwischen 15 und 25 Promotionen und Habilitationen in den fremdsprachendidaktischen Fächern.2 Selbstverständlich sind unter den Promovenden und Habilitanden auch Lehrkräfte der Sprachenfächer; genaue Zahlen dazu gibt es jedoch nicht. Dennoch hat sich somit in den letzten 50 Jahren die Forschungstätigkeit eindeutig aus den Schulen in die Universitäten und Hochschulen verlagert, zumal für Lehrkräfte im Schuldienst eine Promotion keine die Laufbahn direkt fördernde Qualifikation darstellt. Es ist heutzutage nicht in jedem Bundesland zwingend erforderlich, dass bei der Besetzung von fachdidaktischen Professuren in den Sprachenfächern Schul- oder Unterrichtspraxis nachgewiesen wird. Insofern hat sich auch in dieser Hinsicht die Forschung aus der Schule heraus verlagert. Was wird erforscht?
Fremdsprachendidaktische Forschung dient dem Ziel, die Komponenten des Sprachunterrichts, dessen Ziele, Inhalte und Methoden, aber auch die Prozesse der Sprachaneignung und die Kontexte, in denen Lehren und Lernen realisiert wird, besser zu verstehen und in Folge effektiver zu gestalten. Wenn man also das Didaktische Dreieck zum Ausgangspunkt einer Analyse nimmt, dann bestehen für die fremdsprachendidaktische Forschung die vier Optionen, ihren Fokus stärker auf die Lern(er)perspektive, die Lehr(er)perspektive oder die Inhaltsperspektive zu legen; als weiterer Fokus kommt der Kontext hinzu, in dem Lehren bzw. Lernen verortet ist. Betrachtet man die jüngere deutsche Tradition der fremdsprachendidaktischen Forschung in den vergangenen gut einhundert Jahren, so kann man Phasen unterscheiden, in denen einzelne der genannten Schwerpunkte im Zentrum der Forschung standen, während andere kaum Beachtung fanden. Zu jeder Zeit gibt es Bereiche des Sprachenlernens, die als weitgehend geklärt oder unstrittig gelten, so dass sie als wenig ertragreich für die Forschung 2 Zu Zahl und Titeln der Dissertationen und Habilitationen in den fremdsprachendidaktischen Fächern wird in Fortführung der Chronologie von Sauer (2006) eine jährlich aktualisierte Liste auf der Webseite der DGFF geführt, die auf Meldungen von Nachwuchswissenschaftler_innen und Professor_innen basiert. (http://www.dgff.de/de/qualifikationsarbeiten.html 18. 11. 2015 )
3. Forschungstraditionen der Fremdsprachendidaktik
27
betrachtet werden. Gegenwärtig ist das etwa für die generelle Ausrichtung des Fremdsprachenunterrichts auf funktionale Sprachfertigkeiten der Fall. Dass dies ein wichtiges Ziel ist, wird theoretisch kaum hinterfragt; die Mehrzahl der Forschungsvorhaben konzentriert sich vielmehr auf Fragen nach dem optimalen Gestalten von Lernumgebungen, Aufgaben oder Leistungsmessung innerhalb des akzeptierten Konzepts. Solange fremdsprachendidaktische Forschung vor allem durch die Sprachlehrer selbst erfolgte, standen Fragen nach der methodischen Gestaltung des Unterrichts und nach der Eignung bestimmter Texte und Materialien im Vordergrund. Die Lern(er)perspektive findet sich in dieser Zeit nur sehr selten. So scheint zwar die kleine Monographie von Felix Franke (1884) aufgrund ihres Titels „Die praktische Spracherlernung auf Grund der Psychologie und der Physiologie der Sprache dargestellt“ einen Fokus auf das Lernen zu besitzen, doch geht es Franke vielmehr um die möglichst einsprachige, aus seiner Sicht natürliche Methode, um Sprachen zu vermitteln. Die nützliche und leider fast vergessene Bibliographie von Kohl/Schröder (1972), die Veröffentlichungen zur englischen Fachdidaktik und deren Bezugsfelder bis 1971 aufführt, liefert für die Zeit bis 1960 unter der Rubrik „Der Fremdsprachen-Lernprozess“ (Kohl/Schröder 1972: 62 – 65) wesentlich weniger Einträge als ab 1960. Insgesamt enthält die Bibliographie zu dem Themenbereich des Fremdsprachen Lernens nur einen geringen Bruchteil an Publikationen im Vergleich zu denen, die unter „Methodische Grundfragen“ zusammengestellt sind (Kohl/Schröder 1972: 191 – 286) und die sich also mit der Lehrperspektive befassen. Auch wenn viele der in dieser Bibliographie genannten Aufsätze und Monographien nicht zur Forschungsliteratur im engeren Sinne gezählt werden können, so werden doch zeitlich bedingte Schwerpunktsetzungen sehr deutlich. Die Lern(er)perspektive wird ab den 1970er Jahren im Zuge der Etablierung der Sprachlehrforschung sehr viel stärker berücksichtigt. Dieser Blickwechsel wird durch internationale Entwicklungen gestützt, die der Second Language Acquisition Research zur Blüte verhelfen (Königs 2003). Applied Linguistics emanzipiert sich von der Sprachwissenschaft und behauptet sich seitdem als eigener Forschungszweig. Zahlreiche Verbands- und Zeitschriftengründungen im englischsprachigen Raum in den 1960er und 1970er Jahren tragen dem Rechnung. So gibt es die „Association Internationale de Linguistique Appliquée“ (AILA) seit 1964, die „British Association for Applied Linguistics“ (BAAL) seit 1967, die „American Association for Applied Linguistics“ (AAAL) seit 1977. Organisationen und Zeitschriften, die sich auf Forschung zur Vermittlung einer Sprache konzentrieren, sind in der Regel jüngeren Datums als diejenigen, die sich mit mehreren lebenden Sprachen befassen, was die fortlaufende Differenzierung des gesamten Feldes in Einzeldisziplinen in Deutschland und im internationalen Raum widerspiegelt. So gibt es die Vereinigung der Fremdsprachenlehrer in den USA, die „National Federation of Modern Language Teachers“, und ihre Zeitschrift „Modern Language Journal“ bereits seit 1916. Nach dem zweiten Weltkrieg werden wichtige internationale englischdidaktische Zeitschriften gegründet: „English Language Teaching“ (heute: „English Language Teaching Journal“) besteht seit 1946, „TESOL Quarterly“ seit dem Jahr 1966, „Language Teaching“ seit 1967. Auch in Deutschland differenziert sich das Angebot an einzelsprachigen Zeitschriften erst ab den 1960er Jahren aus: „Englisch“ wird 1965 gegründet, „Englisch-Amerikanische Studien (EASt)“ im Jahr 1979.
28
3. Forschungstraditionen der Fremdsprachendidaktik
Man kann wahrscheinlich davon ausgehen, dass Dissertationen und Habilitationsschriften im Großen und Ganzen mit den jeweils aktuellen Forschungstrends konform gehen. Blickt man auf die Themen der seit dem Jahr 1843 abgeschlossenen Arbeiten (Sauer 2006 und DGFF-Webseite, siehe Fußnote 2), dann lassen sich anhand der Titel die thematischen Schwerpunkte zumindest oberflächlich feststellen. Tabelle 1 gibt einen Überblick. Thematischer Schwerpunkt
1843 bis 1970
1971 bis 1999
2000 bis 2014
N = 29
N = 336
N = 282
Inhalte
1
24 %
123
37 %
86
30 %
Lehren, Lehrer
10
34 %
58
17 %
56
20 %
Lernen, Lerner
7
3 %
127
38 %
124
44 %
Kontext
12
41 %
28
8 %
16
6 %
Tabelle 1: Themenbereiche fremdsprachendidaktischer Dissertationen und Habilitationen 1843 bis 2014
Selbstverständlich kann eine solche Übersicht nur einen groben Trend verdeutlichen, denn zum ersten sind vermutlich nicht alle Dissertationen und Habilitationen in den benutzten Übersichten erfasst, zum zweiten lässt sich das Themengebiet aus den Titeln nicht immer eindeutig bestimmen und zum dritten umgreifen sehr viele Arbeiten vermutlich mehr als nur einen Schwerpunkt. Dennoch ist die Verlagerung von der Lehrperspektive zur Lernperspektive klar zu erkennen. Studien zu den Inhalten des Fremdsprachenunterrichts haben sich in ihrem Anteil nicht wesentlich verändert, was vor allem darauf zurückzuführen ist, dass literatur- und kulturdidaktische Untersuchungen in der deutschen Fremdsprachendidaktik – anders als etwa im englischsprachigen Raum – seit jeher einen hohen Stellenwert besitzen. Wie wird geforscht?
Wenn man von den drei großen Kategorien von Forschung ausgeht, die auch in diesem Handbuch unterschieden werden, nämlich historische, theoretische und empirische Forschung, dann haben sich die Gewichte in den letzten drei Jahrzehnten stark zur empirischen Forschung hin verschoben. Vor gut hundert Jahren gab es zwar auch schon erste empirische Studien zum Fremdsprachenunterricht, der Großteil der Forschung war jedoch eher theoretisch-konzeptuell und historisch-beschreibend ausgerichtet. Es ist nicht verwunderlich, dass die historische Forschung in den letzten Jahrzehnten des 19. und bis in die späten 1960er Jahre bedeutsam war, denn jede neue Disziplin sucht im Prozess der Selbstdefinition und Selbstfindung nach historischen Wurzeln und Belegen für eine eventuell schon vorhandene Tradition. Während im englischsprachigen Raum mit der Entwicklung der Applied Linguistics nach einer theoretischen Konsolidierungsphase in den 1960er Jahren (z. B. Halliday/McIntosh/ Strevens 1964) in den letzten Jahrzehnten vor allem empirische Forschungsvorhaben durchgeführt wurden, blieben die Traditionen der theoretisch-konzeptuellen und der historischen
3. Forschungstraditionen der Fremdsprachendidaktik
29
Forschung im deutschsprachigen und europäischen Raum stärker lebendig, wenngleich auch bei uns die empirische Forschung heute den Hauptanteil aller Vorhaben in der Fremdsprachendidaktik ausmacht. Es ist insofern interessant, dass erst jetzt in der englischsprachigen Welt der Fremdsprachendidaktik die Forderung nach systematischer historischer Forschung geäußert wird (Smith 2016), die etwa auch in der Romania schon lange im Rahmen von SIHFLES (Société Internationale pour l’Histoire du Français Langue étrangère ou seconde) oder CIRSIL (Centro Interuniversitario di Ricerca sulla Storia degli Insegnamenti Linguistici) erfolgt. Die Einflüsse auf die fremdsprachendidaktische Forschung in Deutschland stammen aus unterschiedlichen Feldern. Durch die feste Verankerung der Fremdsprachendidaktik in der Lehrerbildung ergeben sich Schnittmengen mit der bildungswissenschaftlichen Forschung und der in anderen Fachdidaktiken. Der Aufstieg der empirischen Bildungsforschung hat auch in der Fremdsprachendidaktik Wirkungen entfaltet. Zudem geschieht Forschung heute stärker als noch vor einigen Jahrzehnten in größeren Verbünden; das DESI-Projekt (Deutsch-Englisch-Schülerleistungen-International) ist dafür ein Beispiel. Eine größere Kooperation gibt es auch über die Grenzen einzelner Fachdidaktiken hinweg; ab 2015 ist dies häufiger im Rahmen von Verbundprojekten der Qualitätsoffensive Lehrerbildung (gefördert durch das BMBF) der Fall. Für die fremdsprachendidaktische Forschung sind auch die Initiativen und Aktivitäten des IQB (Institut zur Qualitätsentwicklung im Bildungswesen) von großer Bedeutung, mit denen etwa eine Entwicklung und empirische Validierung von fachspezifischen Aufgaben erfolgt, die in den Schulen die Erreichung der Bildungsstandards fördern und überprüfen sollen. Fremdsprachendidaktische Forschung war auch schon früher mit Innovationen und Entwicklungen im Schulwesen eng verknüpft. Insbesondere die Einführung des Englischunterrichts in der Grundschule führte in den 1970er (Doyé/Lüttge 1977) und frühen 1990er Jahren (Kahl/Knebler 1996) zu wichtigen Forschungsarbeiten. Wie geforscht wird und geforscht werden kann, hängt nicht zuletzt auch mit den vorhandenen Infrastrukturen zusammen. Die fremdsprachendidaktische Forschung hat vor allem von der Etablierung von Professuren in den letzten fünfzig Jahren profitiert, aber auch von der Einrichtung des DFG-Schwerpunkts „Sprachlehrforschung“ und der Graduiertenkollegs der DFG. Zwölf Jahre lang, von 1991 bis 2003, bestand das Graduiertenkolleg „Didaktik des Fremdverstehens“ an der Justus-Liebig-Universität Gießen und hat durch seine Absolvent_innen, von denen weit mehr als ein Dutzend erfolgreich die Wissenschaftler_innenlaufbahn eingeschlagen haben, die deutsche Forschungslandschaft der fremdsprachendidaktischen Fächer in den vergangenen zwanzig Jahren nachhaltig geprägt. Offenbar gehen eine intensive Nachwuchsförderung und ein bedeutsamer Forschungs-Output Hand in Hand, wie ein Blick in die Zusammenstellung von Sauer (2006) zeigt. Universitäten, an denen zahlreiche Dissertationen und Habilitationsschriften entstanden sind (vgl. Sauer 2006: 75 – 109) – etwa Gießen, Bielefeld, Hamburg, München und Berlin – können auch als forschungsstark angesehen werden, wenngleich nicht immer in allen fremdsprachendidaktischen Fächern. Der Blick zurück zeigt eine Reihe von parallel und sukzessive verlaufenen Entwicklungen sowie einige Konstanten. Die fremdsprachendidaktische Forschung hat sich in den letzten 130 Jahren von den Lehrern auf die Wissenschaftler_innen an Universitäten und Hochschulen verlagert. Neben die Inhalts- und Lehrperspektive ist zunehmend die Lernperspektive als
30
3. Forschungstraditionen der Fremdsprachendidaktik
Forschungsgegenstand getreten. Historische und theoretische Forschungsansätze haben zwar etwas an Bedeutung verloren, sind jedoch keineswegs obsolet. Diesen Verschiebungen im Fokus fremdsprachendidaktischer Forschungsaktivitäten stehen die Konstanten gegenüber, die sich etwa in den Forschungsfragen zeigen, von denen sich viele – zwar im jeweiligen Zeitraum anders formuliert und fokussiert – mit der Sinnhaftigkeit bestimmter Lehr-Lernziele oder der Wirksamkeit einzelner unterrichtlicher Maßnahmen befassen. Auch die Analyse von Lehr- oder Lernmaterialien ist ein immer wieder aufgegriffenes Forschungsthema. Der Blick in diese reiche Tradition lohnt sich auch heute und in Zukunft. ›› Literatur Breymann, Hermann (1895). Die neusprachliche Reform-Literatur 1876 – 1893. Eine bibliographischkritische Übersicht. Leipzig: Deichert. Breymann, Hermann (1900). Die neusprachliche Reform-Literatur 1894 – 1899. Eine bibliographischkritische Übersicht. Leipzig: Deichert. Comenius, Johann Amos (1643). Janua Linguarum Reserata. Danzig: Hünefeld. Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. München: Langenscheidt. Doyé, Peter/Lüttge, Dieter (1977). Untersuchungen zum Englischunterricht in der Grundschule. Bericht über das Braunschweiger Forschungsprojekt „Frühbeginn des Englischunterrichts“ FEU. Braunschweig: Westermann. Falkmann, Christian Friedrich (1839). Einige Bemerkungen über den Unterricht in den neuern Sprachen. Lemgo: Meyer. Finkenstaedt, Thomas (1983). Kleine Geschichte der Anglistik in Deutschland. Darmstadt: Wissenschaftliche Buchgesellschaft. Franke, Felix (1884). Die praktische Spracherelernung auf Grund der Psychologie und Physiologie der Sprache dargestellt. Heilbronn: Henninger. Germain, Claude (1993). Évolution de l’enseignement des langues: 5000 ans d’histoire. Paris: CLE international. Götze, Lutz/Helbig, Gerhard/Henrici, Gert/Krumm, Hans-Jürgen ( 2010). Die Strukturdebatte als Teil der Fachgeschichte. In: Krumm, Hans-Jürgen/Fandrych, Christian/Hufeisen, Britta/Riemer, Claudia (Hg.). Deutsch als Fremd- und Zweitsprache. Ein internationales Handbuch. 1. Halbband. Berlin: de Gruyter, 19 – 34. Halliday, M. A. K./Mclntosh, Angus/Strevens, Peter (1964). The Linguistic Sciences and Language Teaching. London: Longmans. Hüllen, Werner (1991). Honi soit qui mal y pense. Fremdsprachenforschung in Deutschland. Zeitschrift für Fremdsprachenforschung 2 (2), 4 – 15. Hüllen, Werner (2005). Kleine Geschichte des Fremdsprachenlernens. Berlin: Schmidt. Kahl, Peter W./Knebler, Ulrike (1996). Englisch in der Grundschule und dann? Evaluation des Hamburger Grundschulversuchs Englisch ab Klasse 3. Berlin: Cornelsen. Kelly, Louis G. (1969). 25 Centuries of Language Teaching. 500 BC – 1969. Rowley (Mass.): Newbury House. Klinghardt, Hermann (1888). Ein Jahr Erfahrungen mit der neuen Methode. Bericht über den Unterricht mit einer englischen Anfängerklasse im Schuljahr 1887/88. Zugleich eine Anleitung für jüngere Fachgenossen. Marburg: Elwert.
3.1 Historische Forschung
31
Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher und Unterrichtsmethoden. Münster: Nodus. Klippel, Friederike (2013). Die neusprachliche Reformbewegung im Unterrichtsalltag: Frühe Handlungsforschung. In: Klippel, Friederike/Kolb, Elisabeth/Sharp, Felicitas (Hg.). Schulsprachenpolitik und fremdsprachliche Unterrichtspraxis. Historische Schlaglichter zwischen 1800 und 1989. Münster: Waxmann, 125 – 138. Kohl, Norbert/Schröder, Konrad (1972). Bibliographie für das Studium der Anglistik III. Englische Fachdidaktik. 2 Bände. Frankfurt am Main: Athenäum. Königs, Frank (2003). Teaching and Learning Foreign Languages in Germany: a personal overview of developments in research. In: Language Teaching 36 (4), 235 – 251. Mager, Carl Wilhelm (1846). Die genetische Methode des schulmäßigen Unterrichts in fremden Sprachen und Litteraturen. 3. Bearb. Zürich: Meyer und Zeller. Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859 – 1931). Stuttgart: ibidem. Riedl, Michael (2005). Hermann Wilhelm Breymann (1843 – 1910) – Ein bayerischer Neuphilologe und Hochschulreformer. In: Hüllen, Werner/Klippel, Friederike (Hg.). Sprachen der Bildung – Bildung durch Sprachen im Deutschland des 18. und 19. Jahrhunderts. Wiesbaden: Harrassowitz, 229 – 246. Sauer, Helmut (2006). Dissertationen, Habilitationen und Kongresse zum Lehren und Lernen fremder Sprachen. Eine Dokumentation. Tübingen: Narr. Seidelmann, Christian Friedrich. (1724 / 1984). Tractatus Philosophico-Philologicus de Methodo Recte Tractandi Linguas Exoticas Speciatim Gallicam, Italicam et Anglicam. Facsimile und Übersetzung von Franz-Josef Zapp and Konrad Schröder 1984. Augsburg: Universität Augsburg. Smith, Richard (2016). Building ‚Applied Linguistics Historiography‘: Rationale, Scope, Methods. In: Applied Linguistics 37, 71 – 87. Strauß, W. H. (Hg.) (1985). 150 Jahre Methodik des Englischunterrichts als Wissenschaft und akademisches Lehrfach. Probleme und Entwicklungstendenzen in Vergangenheit und Gegenwart. Internationales Symposium aus Anlaß des 575-Gründungsjubiläums der Universität Leipzig am 25. und 26. Oktober 1984. Augsburg: Universität. Wheeler, Garon (2013). Language Teaching Through the Ages. New York und London: Routledge.
Historische Forschung
3.1
Friederike Klippel
Die Beschäftigung mit der Geschichte von Fächern und Disziplinen hat in den Fachdidaktiken eine gewisse Tradition, wenngleich fachhistorische Forschung meist nur ein Minderheiteninteresse darstellt. Der Großteil gegenwärtiger Forschungstätigkeit in der Fremdsprachendidaktik befasst sich verständlicherweise mit Fragen, die aus der Gegenwart erwachsen oder die nahe Zukunft der Fachdidaktiken und ihres Praxisfelds betreffen und nimmt dazu vorliegende Forschungsergebnisse nur aus einem Zeitraum von wenigen Jahren zur Kenntnis. Bestenfalls findet man in den jeweiligen Einleitungen kurze Hinweise auf die Genese des Forschungsfeldes und einige seiner früheren Erträge. Weiter zurückliegende Forschung wird in der Regel bei dieser ‚Einleitungshistorie‘ kaum berücksichtigt; auch findet eine intensive Auseinandersetzung mit Traditionen, früheren theoretischen Überlegungen und gelebter Praxis meistens
32
3. Forschungstraditionen der Fremdsprachendidaktik
nicht statt. Dadurch gehen wichtige Erkenntnisse, weiterhin gültige theoretische Annahmen und Wissensbestände sowie auch das Wissen über erfolgreiche Praktiken verloren. Es bedarf daher auch der gezielten historischen Forschung. Historische Forschung in der Fremdsprachendidaktik kann insofern eine gewisse fachliche Kontinuität herstellen, ein Bewusstsein für fundamentale Fragen und Entwicklungen schaffen und zur Selbstreflexion und Selbstvergewisserung der Disziplin beitragen. In der rückblickenden Analyse von Entwicklungen, Theorien, Praktiken, Materialien und institutionellen sowie individuellen Lehr-/Lernsituationen besitzt die fachdidaktisch historische Forschung Schnittstellen zu historischer Bildungsforschung und zur Wissenschaftsgeschichte ebenso wie zu Ideen- und Kulturgeschichte, denn Lehren und Lernen war immer Teil kultureller Praktiken.
3.1.1 Die Anfänge fremdsprachendidaktischer historischer Forschung um 1900 Die Forschung zur Geschichte des Fremdsprachenlehrens und -lernens setzt in Deutschland gegen Ende des 19. Jahrhunderts ein. Das erklärt sich aus einer Reihe von Entwicklungen: Zum ersten etablierten sich im Verlauf des 19. Jahrhunderts sowohl die modernen Sprachen als Unterrichtsfächer an den höheren Schulen als auch die Neuphilologien als forschende und lehrerbildende Disziplinen an den Universitäten; zum zweiten entstand im Zuge dieser Konsolidierungen eine selbstbewusste, gebildete und wissenschaftlich interessierte Lehrerschaft, deren forschende Neugier sich auch auf die historischen Wurzeln des eigenen Tuns richteten. Zum dritten gab es mit den ab 1824 jährlich zu erstellenden Schulprogrammen, die jeweils auch einen wissenschaftlichen Beitrag enthielten (s. Klippel 1994: 302) und den gegen Ende des 19. Jahrhunderts zunehmend verbreiteten pädagogischen Lexika und Handbüchern (z. B. Rein 1895) sowie der steigenden Zahl an pädagogischen und neuphilologischen Zeitschriften zahlreiche Möglichkeiten zur Publikation historischer Arbeiten. Das Interesse dieser frühen historischen Arbeiten richtete sich zum ersten auf die Darstellung der Entwicklung des Unterrichts in den modernen Fremdsprachen in früheren Jahrhunderten im Allgemeinen (Lehmann 1904, Boerner/Stiehler 1906), in bestimmten Regionen (z. B. Ehrhart 1890 zu Württemberg), an bestimmten Institutionen (z. B. zu Berliner Handelsschulen Gilow 1906, zur Universität Gießen Behrens 1907), im Hinblick auf bestimmte Lehr/ Lernmaterialien (zu Comenius siehe Liese 1904, zu Johann König siehe Driedger 1907, zu Grammatiken siehe Horn 1911) oder auf die Vermittlung einzelner Sprachen, wie des Französischen (Dorfeld 1892, Streuber 1914, Huth 1905) oder Englischen (Pariselle 1895, Junker 1904). Für die gegenwärtige historische Forschung liefern diese frühen Schriften, denen aus heutiger Perspektive natürlich in gewisser Weise auch der Status historischer Quellen zukommt, aufschlussreiche Einblicke in die damalige Sicht auf die Vergangenheit, die von den Diskursen ihrer Entstehungszeit – etwa im Sinne der Positionierung im Hinblick auf die Neusprachenreform – geprägt ist. Wichtiger für die heutige Forschung sind diese Veröffentlichungen jedoch
3.1 Historische Forschung
33
als Belege zu den Quellen früherer Jahrhunderte, von denen viele die Weltkriege und deren Zerstörungen nicht überdauert haben. Es ist für die heutige Forschung zudem ein großer Vorteil, dass die Fremdsprachendidaktiker der Wende vom 19. zum 20. Jh nicht nur eigene historische Untersuchungen durchgeführt haben, sondern auch die Publikationen ihrer Zeit akribisch recherchiert und als bibliographische Hilfsmittel zusammengestellt haben. Eine besondere Position nimmt dabei die von Hermann Breymann über einen längeren Zeitraum publizierte Bibliographie zur neusprachlichen Reformliteratur (Breymann 1895, 1900; Breymann/Steinmüller 1905, 1909) ein, die die Beiträge der Neusprachenreformer und ihrer Gegner nicht nur bibliographisch aufführt, sondern auch kommentiert, so dass der Diskurs im Kontext seiner Zeit aus der Sicht des Bibliographen abgebildet wird, der weder ein radikaler Reformer noch ein Reformgegner war. Eine bedeutsame Rolle spielen auch die ab der Mitte des 19. Jahrhunderts erscheinenden Enzyklopädien zum Studium der neueren Sprachen, in denen zahlreiche Hinweise auf Lehrwerke, Literatur, Zeitschriften, einschlägige zeitgenössische Veröffentlichungen und den jeweiligen Kenntnisstand zu einzelnen Bereichen der Sprachen und ihrer Vermittlung zu finden sind (siehe etwa Schmitz 1859, Wendt 1893).
3.1.2 Fremdsprachendidaktische historische Forschung nach 1945 Nach der ersten Blüte der historischen Forschung zum Fremdsprachenunterricht um 1900 gibt es für die Zeit bis zum Ende des zweiten Weltkriegs nur ein größeres Werk, das auch heute noch nicht überholt ist, nämlich Wilhelm Aehles Untersuchung zum frühen Englischunterricht insbesondere an den Ritterakademien (Aehle 1938). Man kann eventuell davon ausgehen, dass die durch die nationalsozialistische Schulpolitik vorgenommene Aufwertung des Englischen gegenüber dem bis dahin klar dominierenden Französisch die Erforschung der Anfänge des Englischunterrichts in Deutschland motiviert hat. Wie schwierig sich damals die historische Forschung aufgrund der Rahmenbedingungen gestaltete, erkennt man an Aehles Vermutung, dass sich wohl kein Englischbuch aus dem 18. Jahrhundert mehr auffinden lasse, wenn selbst die Bibliothek des traditionsreichen Gymnasiums zum Grauen Kloster in Berlin kein Exemplar des Ende des 18. Jahrhunderts an der Schule verwendeten Buches von Gedike mehr besitze (siehe Aehle 1938: 222 – 223). Heute bestehen aufgrund des hervorragend vernetzten und leicht digital zugänglichen Bibliotheks- und Archivwesens wesentlich bessere Voraussetzungen für die historische Forschung und auch zahlreiche Lehrwerke des 18. Jahrhunderts sind noch vorhanden (siehe Klippel 1994, Turner 1978). In den 1960er Jahren setzte die historische Forschung zum Lehren und Lernen von Sprachen wieder ein und stellt bis heute einen stetigen, wenngleich geringen Anteil aller Forschungsarbeiten im Feld der Fremdsprachendidaktiken, wie man aus der Chronologie bei Sauer (2006) ersehen kann. Vier Dissertationen aus den 1960er Jahren zeigen zum einen die nun gefestigte Vorrangstellung des Englischen, denn sowohl Sauer (1968, zum Englischunterricht in der Volksschule) als auch Schröder (1969, zum Englischunterricht an den Universitäten bis 1850) befassen sich ausschließlich mit der Vermittlung des Englischen, während
34
3. Forschungstraditionen der Fremdsprachendidaktik
Flechsig (1962) und Rülcker (1969) Entwicklungen der neusprachlichen Bildung und des neusprachlichen Unterrichts über längere Zeiträume untersuchen. Aus Konrad Schröders Beschäftigung mit der Geschichte des Sprachenlernens an Universitäten im deutschsprachigen Raum erwuchs eine überaus fruchtbare und ertragreiche Tätigkeit als Bibliograph und Chronist, deren Ergebnis zahlreiche nützliche Nachschlagewerke zu Lehrbüchern, Lernorten und Sprachenlehrenden vergangener Jahrhunderte sind (etwa Schröder 1975, Schröder 1980 – 1985, Schröder 1987 – 1999, Glück/Schröder 2007). Es ist in der Tat ein Kennzeichen der historischen Forschung des letzten Drittels des 20. Jahrhunderts, dass die Erschließung und Aufarbeitung der Vergangenheit in zahlreichen Bibliographien und Quellensammlungen ihren Niederschlag findet, die bestimmte Felder kartieren und in Folge anderen Forschern als Arbeitsmittel zur Verfügung stehen (z. B. Flechsig 1965 und Hüllen 1979 mit Primärquellen, von Walter 1977 zu Schulprogrammschriften, Christ/Rang 1985 zu Lehrplänen, Macht 1986 – 1990 zu Lehrbüchern; neuerdings die Arbeiten von Helmut Glück und anderen in der Reihe „Fremdsprachen in Geschichte und Gegenwart“). Somit sind die Voraussetzungen für historische Forschung am Ende des 20. und zu Beginn des 21. Jahrhunderts sehr viel besser als jemals zuvor. Der leichtere Zugriff auf die Quellen mag dazu beigetragen haben, dass ab den 1980er Jahren die Forschungsfragen spezifischer und/oder die untersuchten Zeiträume kürzer werden. Dabei geraten zunehmend auch zeitgeschichtliche Entwicklungen in den Blick, wie etwa die Zeit der Kulturkunde (Mihm 1972), die des Nationalsozialismus (Lehberger 1986 zum Englischunterricht, Hausmann 2000 zur Romanistik bzw. Hausmann 2003 zu Anglistik und Amerikanistik an den Universitäten), die Nachkriegszeit (Ruisz 2014), die Zeit zwischen 1945 und 1989 (Doff 2008) oder die Epoche des kommunikativen Fremdsprachenunterrichts (Kolb 2013). Zugleich verengt sich der Fokus der einzelnen Arbeiten auf spezifische Fragestellungen: so analysiert Franz (2005) die speziell für deutsche Auswanderer nach Nordamerika veröffentlichten Sprachführer im 19. Jahrhundert; Ostermeier (2012) untersucht die Debatte um die Sprachenfolge an höheren Schulen im 19. Jahrhundert und Schleich (2015) stellt auf breiter Quellenbasis die Anfänge des internationalen Schülerbriefwechsels vor dem ersten Weltkrieg dar. Das 19. Jahrhundert spielt zu Recht eine wichtige Rolle in der fremdsprachendidaktischen historischen Forschung, denn in dieser Zeit wurden wesentliche Grundlagen für den modernen Sprachunterricht in institutioneller (Lehrpläne, Stundentafeln), materieller (Schulbücher, Materialien, Medien), personeller (Lehrer) und wissenschaftlicher (Lehrerbildung, Forschung) Hinsicht gelegt. Nicht alle dieser Aspekte wurden bisher gleichermaßen untersucht. So wissen wir Näheres nur über wenige wichtige Aktanden dieser Zeit – etwa über V. A. Huber und S. Imanuel (Haas 1990) oder Julius Ostendorf (Ostermeier 2012) – ; viele wichtige Persönlichkeiten, wie etwa Ludwig Herrig oder Carl Mager, jedoch harren noch darauf, in ihrem Wirken und ihren Werken näher erforscht zu werden. Die Entstehung neuphilologischer Lehrstühle an den Universitäten ist gut dokumentiert und analysiert (z. B. Haenicke 1979, Finkenstaedt 1983, Christmann 1985), doch wurde bislang die Lehrerbildung nur punktuell einbezogen (Haenicke 1982). Die mit dem Fremdsprachenunterricht verknüpften Bildungsvorstellungen und außersprachlichen, kulturellen Inhalte untersuchen Flechsig (1962) und Raddatz (1977). Einzelne Forschungsarbeiten zu dieser Epoche widmen sich der Entwicklung von Medien (z. B. Schilder 1977, Reinfried 1992) sowie Lehr- und Lesebüchern (Diehl 1975, Bode 1980,
3.1 Historische Forschung
35
Niederländer 1981, Klippel 1994); dabei wird die Methode der historischen Lehrbuchanalyse zunehmend verfeinert. Schwierig ist es, aus historischer Sicht etwas zu den konkreten Lernbedingungen in den Schulen der Vergangenheit und den Lernenden selbst herauszufinden. Selbstverständlich gehen alle Untersuchungen vom „Normalfall“ aus; für das 19. Jahrhundert sind das die höheren Schulen, die Knaben vorbehalten waren. Die wegweisende Studie von Sabine Doff (2002) zum Fremdsprachenlernen von und Fremdsprachenunterricht für Mädchen im 19. Jahrhundert liefert Einsichten in ein anderes, aus heutiger Sicht moderneres Konzept von Sprachenlernen. In Kubanek-German (2001) wird die Ideengeschichte des Fremdsprachenunterrichts für jüngere Kinder aufgearbeitet. Die Lernenden im privaten oder schulischen Umfeld sind immer Ziel des methodischen Bemühens des Sprachmeisters oder Sprachlehrers. Die Frage nach der richtigen, der besten, der effektivsten, der natürlichsten Methode der Sprachvermittlung hat nicht nur die Sprachlehrer aller Zeiten beschäftigt, sie ist auch in der historischen Forschung sehr präsent. Neben Dokumentationen (Macht 1986 – 1990) und Überblicksdarstellungen zur Methodenentwicklung (Apelt 1991, Klippel 1994) finden sich auch Untersuchungen zur Rolle der Muttersprache (Butzkamm 1973). Alle diese Untersuchungen stammen aus dem 20. Jahrhundert, und es ist bemerkenswert, dass gerade in jüngerer Zeit keine historischen Arbeiten zu fremdsprachenunterrichtsmethodischen Fragen mehr entstanden sind. Zu den historischen fremdsprachendidaktischen Forschungsfeldern zählt auch die Geschichte des Deutschunterrichts in anderen Ländern (z. B. Wegner 1999, Eder 2006) und die Geschichte des Unterrichts in anderen als den gängigen Schulfremdsprachen. Auch wenn es angesichts der zahlreichen historischen Untersuchungen aus gut einhundert Jahren und der großartigen Synthesen von Hüllen (2005) und Kuhfuß (2013) so scheinen mag, als lägen Erkenntnisse für alle Epochen und Aspekte der Geschichte des Sprachenlernens und -lehrens der unterschiedlichen Sprachen vor, gibt es doch weiterhin viele weiße Flecken auf der Landkarte der Vergangenheit.
3.1.3 Forschungsdesiderata und forschungsmethodische Entwicklungen Nimmt man das Didaktische Dreieck mit seinen drei „Ecken“ Lehrer-Lerner-Stoff als Ausgangspunkt, dann fehlen historische Untersuchungen zu Lehrerbildung und Lehrerverhalten, wenngleich letzteres natürlich nur sehr schwer zu rekonstruieren ist. Dass die Frage nach der Entwicklung von Unterrichtsmethoden, die ja gerade im 20. Jahrhundert viele Wandlungen erfahren haben, bislang keine Aufmerksamkeit erfahren hat, wurde bereits erwähnt. Aber auch die konkreten Verkörperungen von Methoden, nämlich Lehrmaterialien und Handbücher für den Unterricht, wurden bisher nur punktuell aus historischer Perspektive untersucht. Die Geschichte der Medien ist noch nicht bis in die Gegenwart fortgeschrieben worden. Im Hinblick auf die Lernenden existiert keine Sozialgeschichte der Fremdsprachenlerner, deren altersmäßige und soziale Zusammensetzung sich insbesondere im 20. Jahrhundert stark verändert hat. Auch ein Überblick über die Entwicklung der Sprachlerntheorien und deren
36
3. Forschungstraditionen der Fremdsprachendidaktik
Rezeption in der Unterrichtspraxis wäre wünschenwert. Zu den Unterrichtsinhalten und Curricula liegen erste Arbeiten vor (z. B. Kolb 2013). Zusätzlich zu diesen breit gefassten, bisher kaum oder gar nicht bearbeiteten Feldern gibt es eine Vielzahl von regionalen, lokalen oder gar individuellen Forschungsfragen, deren Aufarbeitung sich lohnen würde. In den vergangenen drei Jahrzehnten hat sich die historische fremdsprachendidaktische Forschung in Anlehnung an die aktuellen Ansätze in der allgemein-historischen und der bildungshistorischen Forschung methodisch weiterentwickelt. Verfahren der Quellenkritik und der Diskursanalyse (s. Kap. 5.3.1 Analyse historischer Quellen) und deren Reflexion sind ebenso selbstverständlich geworden wie der Gang in die Archive (z. B. Ruisz 2014) und der Blick über die nationalen Grenzen (z. B. Kolb 2103). Es ist heute unabdingbar, den historischen Entstehungskontext in die Analyse einzubeziehen und neben der Entwicklung im Bildungssystem auch politische, wirtschaftliche, soziale und technische Fortschritte der Zeit zu betrachten, die das Interesse an und die Vermittlung von bestimmten Sprachen stark beeinflussten (so beispielhaft in Schleich 2015). Des Weiteren hat sich in den jüngeren Arbeiten zur Geschichte des Fremdsprachenlernens und -lehrens eine größere Sensibilität gegenüber dem historischen Sprachgebrauch entwickelt (s. Kap. 5.2.1 und 5.3.1), so dass in der Vergangenheit verwendete Begrifflichkeiten nicht ohne weiteres als identisch mit heutigen gleichlautenden Konzepten angesehen, sondern vielmehr konzeptuell analysiert werden. Fremdsprachendidaktische historische Forschung hat sich insofern als eigenständiger Forschungszweig auch in methodologischer Hinsicht etabliert. ›› Literatur Aehle, Wilhelm (1938). Die Anfänge des Unterrichts in der englischen Sprache besonders auf den Ritterakademien. Hamburg: Riegel. Apelt, Walter (1991). Lehren und Lernen fremder Sprachen. Grundorientierungen und Methoden in historischer Sicht. Berlin: Volk und Wissen. Behrens, Dietrich (1907). Zur Geschichte des neusprachlichen Unterrichts an der Universität Gießen. In: Universität Gießen (Hrsg.) (1907). Die Universität Gießen von 1607 bis 1907. Festschrift zur dritten Jahrhundertfeier. Zweiter Band. Gießen: Töpelmann, 329 – 356. Bode, Hans (1980). Die Textinhalte in den Grundschen Französischlehrbüchern. Eine fachdidaktische Untersuchung von Lesestoffen französischer Sprachlehrbücher für höhere Schulen in Deutschland zwischen 1913 und 1969. Frankfurt/Main: Lang. Boerner, Otto /Stiehler, Ernst (1906). Zur Geschichte der neueren Sprachen. In: Neue Jahrbücher für das klassische Altertum, Geschichte und deutsche Literatur und für Pädagogik 18, 334 – 351, 392 – 412, 459 – 471. Breymann, Hermann (1895). Die neusprachliche Reformliteratur von 1876 bis 1893. Eine bibliographisch-kritische Übersicht. Leipzig : Deichert. Breymann, Hermann (1900). Die neusprachliche Reformliteratur. Ergänzungsheft für den Zeitraum von 1894 bis 1899. Leipzig: Deichert. Breymann, Hermann/Steinmüller, Georg (1905). Die neusprachliche Reformliteratur. Ergänzungsheft für den Zeitraum von 1896 bis 1904. Leipzig: Deichert. Breymann, Hermann/Steinmüller, Georg (1909). Die neusprachliche Reformliteratur. Ergänzungsheft für den Zeitraum von 1904 bis 1909. Leipzig: Deichert.
3.1 Historische Forschung
37
Butzkamm, Wolfgang (1973). Aufgeklärte Einsprachigkeit. Zur Entdogmatisierung der Methode im Fremdsprachenunterricht. Heidelberg: Quelle & Meyer. Christ, Herbert/Rang, Hans-Joachim (Hg.) (1985). Fremdsprachenunterricht unter staatlicher Verwaltung 1700 bis 1945. Eine Dokumentation amtlicher Richtlinien und Verordnungen. 7 Bände. Tübingen: Narr. Christmann, Hans Helmut (1985). Romanistik und Anglistik an der deutschen Universität im 19. Jahrhundert. Mainz: Mainzer Akademie der Wissenschaften. Diehl, Erika (1975). Deutsche Literatur im französichen Deutschlesebuch 1870 – 1970. Ein Beitrag zur literarischen Kanonbildung. Wiebaden: Athenaion. Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für Mädchen im 19. Jahrhundert. München: Langenscheidt-Longman. Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. Konzeptuelle Genese einer Wissenschaft im Dialog von Theorie und Praxis. München: Langenscheidt. Dorfeld, Karl (1892). Beiträge zur Geschichte des französischen Unterrichts in Deutschland. In: Beilage zum Programm des Großherzoglichen Gymnasiums in Gießen. Driedger, Otto (1907). Johann Königs (John King’s) deutsch-englische Grammatiken und ihre späteren Bearbeitungen (1706 – 1802). Versuch einer kritischen Behandlung. Diss. phil. Marburg. Eder, Ulrike (2006). „Auf die mehrere Ausbreitung der teutschen Sprache soll fürgedacht warden.“ Deutsch als Fremd- und Zweitsprache im Unterrichtssystem der Donaumonarchie zur Regierungszeit Maria Theresias und Josephs II. Innsbruck: Studien Verlag. Ehrhart, o.V. (1890). Geschichte des fremdsprachlichen Unterrichts in Württemberg. In: KorrespondenzBlatt für die Gelehrten- und Realschulen Württembergs 37, 281 – 308. Finkenstaedt, Thomas (1983). Kleine Geschichte der Anglistik in Deutschland. Darmstadt: Wissenschaftliche Buchgesellschaft. Flechsig, Karl-Heinz (1962). Die Entwicklung des Verständnisses der neusprachlichen Bildung in Deutschland. Diss. phil. Göttingen. Flechsig, Karl-Heinz (Hg.) (1965). Neusprachlicher Unterricht I. Weinheim: Beltz. Franz, Jan (2005). Englischlernen für Amerika! Sprachführer für deutsche Auswanderer im 19. Jahrhundert. München: Langenscheidt. Gilow, Hermann (1906). Das Berliner Handelsschulwesen des 18. Jahrhunderts im Zusammenhange mit den pädagogischen Bestrebungen seiner Zeit dargestellt. Berlin: Hofmann. Glück, Helmut/Schröder, Konrad (2007). Deutschlernen in den polnischen Ländern vom 15. Jahrhundert bis 1918. Eine teilkommentierte Bibliographie. Wiesbaden: Harrassowitz. Haas, Renate (1990). V. A. Huber, S. Imanuel und die Formationsphase der deutschen Anglistik. Frankfurt/Main: Lang. Haenicke, Gunta (1979). Zur Geschichte der Anglistik an deutschsprachigen Universitäten 1850 – 1925. Augsburg: Universität Augsburg. Haenicke, Gunta (1982). Zur Geschichte des Faches Englisch in den Prüfungsordnungen für das Höhere Lehramt 1831 – 1942. Augsburg: Universität Augsburg. Hausmann, Frank-Rutger (2000). Vom Strudel der Ereignisse verschlungen. Deutsche Romanistik im Dritten Reich. Frankfurt/Main: Klostermann. Hausmann, Frank-Rutger (2003). Anglistik und Amerikanistik im „Dritten Reich“. Frankfurt/Main: Klostermann. Horn, Jacob (1911). Das englische Verbum nach den Zeugnissen von Grammatikern des 17. und 18. Jahrhunderts. Diss. phil. Gießen. Hüllen, Werner (Hg.) (1979). Didaktik des Englischunterrichts. Darmstadt: Wissenschaftliche Buchgesellschaft. Hüllen, Werner (2005). Kleine Geschichte des Fremdsprachenlernens. Berlin: Schmidt.
38
3. Forschungstraditionen der Fremdsprachendidaktik
Huth, G. (1905). Geschichte von Unterrichtsgegenständen. Französisch. In: Mitteilungen der Gesellschaft für deutsche Erziehungs- und Schulgeschichte, 15, 327 – 333. Junker, H. P. (1904). Englischer Unterricht, geschichtlicher Abriß. In: Rein, Wilhelm (Hg.) Enzyklopädisches Handbuch der Pädagogik. 2. Aufl. Langensalza: Beyer & Mann, 406 – 421. Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher und Unterrichtsmethoden. Münster: Nodus. Kolb, Elisabeth (2013). Kultur im Englischunterricht: Deutschland, Frankreich und Schweden im Vergleich (1975 – 2011). Heidelberg: Carl Winter. Kubanek-German, Angelika (2001). Kindgemäßer Fremdsprachenunterricht. Band 1: Ideengeschichte. Münster: Waxmann. Kuhfuß, Walter (2013). Eine Kulturgeschichte des Französischunterrichts in der frühen Neuzeit. Französischlernen am Fürstenhof, auf dem Marktplatz und in der Schule in Deutschland. Göttingen: Vandenhoeck & Ruprecht. Lehberger, Reiner (1986). Englischunterricht im Nationalsozialismus. Tübingen: Stauffenburg. Lehmann, Alwin (1904). Der neusprachliche Unterricht im 17. und 18. Jahrhundert, insbesondere seine Methode im Lichte der Reform der Neuzeit. In: Jahresbericht der Annenschule zu Dresden-Altstadt. Liese, Ernst (1904). Des J. A. Comenius Methodus Linguarum Novissima. Inhalt und Würdigung. Bonn: Carl Georgi. Macht, Konrad (1986 – 1990). Methodengeschichte des Englischunterrichts. 3 Bände. Augsburg: Universität Augsburg. Mihm, Emil (1972). Die Krise der neusprachlichen Didaktik. Eine systeminterne Ortsbestimmung. Frankfurt/Main: Hirschgraben. Niederländer, Helmut (1981). Französische Schulgrammatiken und schulgrammatisches Denken in Deutschland von 1850 bis 1950. Ein Beitrag zur Lehrwerkanalyse. Frankfurt/Main: Lang. Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859 – 1931). Ein historischer Diskurs. Stuttgart: ibidem-Verlag. Pariselle, o.V. (1895). Englischer Unterricht, geschichtlicher Abriß. In: Rein, Wilhelm (Hg.). Encyklopädisches Handbuch der Pädagogik. Langensalza: 834 – 838. Raddatz, Volker (1977). Englandkunde im Wandel deutscher Erziehungsziele 1886 – 1945. Kronberg/ Ts.: Scriptor. Rein, Wilhelm (Hg.) (1895). Encyklopädisches Handbuch der Pädagogik. Langensalza: Beyer. Reinfried, Marcus (1992). Das Bild im Fremdsprachenunterricht. Eine Geschichte der visuellen Medien am Beispiel des Französischunterrichts. Tübingen: Narr. Ruisz, Dorottya (2014). Umerziehung durch Englischunterricht? US-amerikanische Reeducation-Politik, neuphilologische Orientierungsdebatte und bildungspolitische Umsetzung im nachkriegszeitlichen Bayern (1945 – 1955). Münster: Waxmann. Rülcker (1969). Der Neusprachenunterricht an höheren Schulen. Frankfurt/Main: Diesterweg. Sauer, Helmut (1968). Fremdsprachen in der Volksschule. Untersuchungen zur Begründung des Englischunterrichts für alle. Hannover: Schroedel. Sauer, Helmut (2006). Dissertationen, Habilitationen und Kongresse zum Lehren und Lernen fremder Sprachen. Eine Dokumentation. Tübingen: Narr. Schilder, Hanno (1977). Medien im neusprachlichen Unterricht seit 1880. Eine Grundlegung der Anschauungsmethoden und der auditiven Methode unter entwicklungsgeschichtlichem Aspekt. Kronberg/Ts.: Scriptor. Schleich, Marlis (2015). Geschichte des internationalen Schülerbriefwechsels. Entstehung und Entwicklung im historischen Kontext von den Anfängen bis zum Ersten Weltkrieg. Münster: Waxmann. Schmitz, Bernhard (1859). Encyklopädie des philologischen Studiums der neueren Sprachen. Greifswald: Koch.
3.2 Theoretische Forschung
39
Schröder, Konrad (1969). Die Entwicklung des englischen Unterrichts an deutschsprachigen Universitäten bis zum Jahre 1850. Ratingen: Henn. Schröder, Konrad (1975) Lehrwerke für den Englischunterricht im deutschsprachigen Raum 1665 – 1900. Darmstadt: Wissenschaftliche Buchgesellschaft. Schröder, Konrad (1980 – 1985). Linguarum Recentium Annales. Der Unterricht in den modernen europäischen Sprachen im deutschsprachigen Raum. 4 Bände. Augsburg: Universität Augsburg. Schröder, Konrad (1987 – 1999). Biographisches und bibliographisches Lexikon der Fremdsprachenlehrer des deutschsprachigen Raumes, Spätmittelalter bis 1800. 6 Bände. Augsburg: Universität Augsburg. Streuber, Albert (1914). Beiträge zur Geschichte des französischen Unterrichts im 16. bis 18. Jahrhundert. Teil 1: Die Entwicklung der Methoden im allgemeinen und das Ziel der Konversation im besonderen. Berlin: Emil Ebering. Turner, John Frank (1978). German Pedagogic Grammars of English 1665 – 1750. The Nature and Value of Their Evidence of Language Usage in Early Modern English. Diss. Braunschweig. Walter, Anton von (1977). Bibliographie der Programmschriften zum Englischunterricht. Augsburg: Universität Augsburg. Wegner, Anke (1999). 100 Jahre Deutsch als Fremdsprache in Frankreich und in England. Eine vergleichende Studie von Methoden, Inhalten und Zielen. München: iudicium. Wendt, Otto (1893). Encyklopädie des englischen Unterrichts. Methodik und Hilfsmittel für Studierende und Lehrer der englischen Sprache mit Rücksicht auf die Anforderungen der Praxis. Hannover: List, Meyer.
Theoretische Forschung
3.2
Michael K. Legutke
Neben der historischen und der empirischen Forschung zählt die theoretische Forschung zu den bedeutsamen Arbeitsbereichen der Fremdsprachendidaktik. Theoretische Forschung zeichnet sich dadurch aus, dass sie bemüht ist, den Gegenstandsbereich Lehren und Lernen von Fremdsprachen und seine verschiedenen Teilbereiche zu bestimmen, zu systematisieren, Konzepte zu entwickeln bzw. diese einer kritischen Reflexion zu unterziehen und/oder angesichts gesellschaftlicher Entwicklungen und neuerer Forschungsergebnisse weiter zu entwickeln. Theoretische Forschung ordnet empirische Befunde, systematisiert Phänomene des Gegenstandsbereiches, entwirft handlungsleitende Modelle und erörtert deren Grenzen und Reichweite. Sie gewinnt Erkenntnisse in Auseinandersetzung sowohl mit der Theoriebildung innerhalb der Fremdsprachendidaktik als auch mit Konzeptbildungen und Erkenntnissen affiner Wissenschaftsdisziplinen (wie der Spracherwerbsforschung, der Bildungswissenschaften, der Sozialwissenschaften, der Linguistik und der Kultur- und Medienwissenschaften). Theoretische Arbeiten sind nicht gleichzusetzen mit der Literaturanalyse, die als Voraussetzung jeder Art wissenschaftlicher Forschung zu gelten hat, sondern schließen diese ein (vgl. Kapitel 6.3 Literaturüberblick und Forschungsstand). Eine Möglichkeit der Systematisierung theoretischer Forschung bieten ihre unterschiedlichen Funktionen. Diese sollen zunächst unter Berücksichtigung exemplarischer Arbeiten skizziert werden. Danach werden vier Meilensteine theoretischer Forschung in der Fremd-
40
3. Forschungstraditionen der Fremdsprachendidaktik
sprachendidaktik vorgestellt, die aus unterschiedlichen Fachkulturen stammen und Arbeitsweisen solcher Forschung verdeutlichen. Das besondere Verhältnis theoretischer Forschung zur Empirie soll in einem letzten Abschnitt angesprochen werden.
3.2.1 Typen und Funktionen theoretischer Forschung Die folgende Zusammenstellung erhebt nicht den Anspruch auf Vollständigkeit, sondern bietet die Möglichkeit der Orientierung in einem weiten Feld teils sehr unterschiedlicher Forschungsaktivitäten. Die zur Verdeutlichung herangezogenen Arbeiten haben exemplarischen Charakter. Soweit als möglich wurden Studien zu unterschiedlichen Fremdsprachen berücksichtigt. Die zur Bezeichnung von Typen und Funktionen theoretischer Forschung gewählten Begriffe sind nicht trennscharf. Auch wenn deshalb Mehrfacheinordnungen möglich sind, bieten Typen und Funktionen eher die Möglichkeit der Systematisierung und Orientierung als ein Versuch, theoretische Forschung über ihren Bezug zu affinen Wissenschaftsdisziplinen zu bündeln. Selbst Arbeiten, die vorwiegend einer Disziplin verpflichtet scheinen, wie die folgenden Beispiele und die Meilensteine zeigen, belegen, dass die Faktorenkomplexion fremdsprachlichen Lehrens und Lernens fachdidaktische Forschungsgegenstände nur durch interdisziplinäre Zugriffe analysierbar macht. 1 Entwicklung umfassender Konzepte der Sprachvermittlung
In der Konsolidierungsphase der Fremdsprachendidaktik in den 70er und 80er Jahren des letzten Jahrhunderts (vgl. Doff 2008) stellten theoretische Forschungen den Hauptanteil der Forschungsaktivitäten dar. Sie beförderten die Konturierung des Faches und seiner Teildisziplinen. Für die Sprachdidaktik wären als Beispiele zu nennen: Werner Hüllens Didaktische Analysen zum Verhältnis von Linguistik und Englischunterricht (Hüllen 1971, 1979, s. u. „Linguistik und Englischunterricht“), Harald Gutschows schulstufenspezifische Ausdifferenzierung der Englischdidaktik für die Hauptschule (Gutschow 1964, 1973), Hans-Eberhard Piephos Arbeiten zur Kommunikativen Kompetenz als übergeordnetem Lernziel des Englischunterrichts (Piepho 1974) oder Helmut Heuers lerntheoretische Fundierung des Englischunterrichts (Heuer 1976). Die Literaturdidaktik wurde als eigenständige Teildisziplin konturiert durch die Arbeiten Lothar Bredellas (1976), der die Hermeneutik und Rezeptionsästhetik für die Fremdsprachendidaktik nutzbar machte (s. u. „Das Verstehen literarischer Texte“). Konzepte einer politisch engagierten Landeskundedidaktik legte Gisela BaumgratzGangl vor (1990, s. u. „Persönlichkeitsentwicklung und Fremdsprachenerwerb“). Für den Komplex Literatur- und Kulturdidaktik wären auch die an einer skeptischen Hermeneutik orientierten Arbeiten Hans Hunfelds zu nennen (z. B. Hunfeld 2004). Beispielhaft für den hier zusammengefassten Typus theoretischer Forschung kann ferner die Kritische Methodik des Englischunterrichts von Rudolf Nissen (1974) gelten.
3.2 Theoretische Forschung
41
2 Entwicklung und/oder kritische Analyse tragender Konstrukte der Fremdsprachendidaktik
Arbeiten dieses Typus fokussieren zentrale Konstrukte der Fremdsprachendidaktik, deren Herausbildung interdisziplinär verortet und deren Grenzen und Möglichkeiten für unterschiedliche Praxisfelder kritisch erörtert werden, beispielsweise für die Materialentwicklung, die Unterrichtsgestaltung, die Aufgabenkonstruktion oder die Lehrerbildung. Drei Beispiele sollen diesen Typus verdeutlichen. (1) Mit seiner Studie Aufgeklärte Einsprachigkeit. Zur Entdogmatisierung der Methode im Fremdsprachenunterricht, ebenfalls situiert in der Konstituierungsphase der Fremdsprachendidaktik, positioniert sich Wolfgang Butzkamm (1973) in der Debatte um die Einsprachigkeitsproblematik, indem er Befunde der Bilingualismusforschung, der Lernpsychologie und der Spracherwerbsforschung auswertet und zu einer Unterrichtmethodik verdichtet, die dem gezielten Gebrauch der Muttersprache eine angemessen funktionale Verwendung im Unterricht zuweist.3 (2) Für Daniela Caspari ist Kreativität im Umgang mit literarischen Texten im Fremdsprachenunterricht Untersuchungsgegenstand (Caspari 1994). Sie arbeitet zentrale Aspekte der psychologischen Kreativitätsforschung und der rezeptionstheoretischen Lesetheorien heraus, die sie vergleichend analysiert, um auf diesem Hintergrund das kreative Potenzial fremdsprachlicher literarischer Texte zu erfassen, das in unterrichtlichen Lehr- und Lernprozessen genutzt werden kann. Caspari wertet dabei ein breites Spektrum dokumentierten Unterrichts und problematisierender fachdidaktischer Arbeiten aus. (3) Aus der Perspektive des Deutschen als Fremdsprache skizziert Swantje Ehlers (1998) in ihrer Arbeit Lesetheorie und fremdsprachliche Lesepraxis einen theoretischen Entwurf für eine fremdsprachliche Lesedidaktik („Ansätze einer fremdsprachlichen Leselehre“), die der Eigengesetzlichkeit fremdsprachlichen Lesens Rechnung tragen soll. Sie wertet dazu lesetheoretische Positionen zum Lesen in der Erst- und Zweisprache aus, bündelt entwicklungs- und kognitionspsychologische Forschung, um dann die Besonderheiten fremdsprachlichen Lesens zu fokussieren. Dabei setzt sie sich kritisch mit der empirischen Leseforschung in der Fremdsprachendidaktik auseinander. Dem hier angesprochenen Typus wären auch Arbeiten zuzuordnen wie die von Corinna Koch (2013) und Elena Bellavia (2007), die das fremdsprachendidaktische Potenzial der Metapher untersuchen. Bellavia fokussiert Deutsch als Fremdsprache, Koch die Sprachen Englisch, Französisch und Spanisch. Die Theoriebildung ermöglicht es beiden Autorinnen, ein Instrument zur kritischen Analyse und Optimierung von Lehrmaterial zu entwickeln. 3 Modellbildung
Die Entwicklung und kritische Erörterung von Modellen gehört zu den zentralen Aufgaben theoretischer Forschung, denn Modelle haben die Funktion, komplexe Zusammenhänge und Abläufe verständlich zu machen – sie sind ein notwendiger Teil von Theoriebildung, die deshalb auch ohne Modelle nicht vorstellbar ist. Insofern arbeiten alle bisher erwähnten Beispiele mit mehr oder weniger expliziten Modellen. Wenn hier dennoch ein eigener Typus theoretischer Arbeiten markiert wird, so geschieht dies im Anschluss an die Tradition didaktischer 3 Zur wissenschaftsgeschichtlichen Einordnung der Arbeiten von Butzkamm und zu seinem Beitrag zur Konstitution der Fremdsprachendidaktik als Wissenschaft vgl. Doff 2008: 216 – 17.
42
3. Forschungstraditionen der Fremdsprachendidaktik
Modelle, die den Anspruch erheben, handlungsleitend zu sein. Im Kontext fachdidaktischer Forschung spielen Modellbildungen eine bedeutende Rolle (Jank & Meyer 2002). Für das Lehren und Lernen von Fremdsprachen repräsentieren zwei Arbeiten den hier gemeinten Typus: (1) Ausgehend vom kulturwissenschaftlichen Konzept der Intertextualität modelliert Wolfgang Hallet (2002) das fremdsprachliche Klassenzimmer als hybrid-kulturellen Handlungsraum für die diskursive Aushandlung und die Erprobung gesellschaftlicher Partizipationskompetenz. Das Modell ist handlungsleitend für die Konzeption von Lehr- und Lernmaterial (s. u. „Das Spiel der Texte und Kulturen“). (2) In der Referenzarbeit Autonomes Fremdsprachenlernen: Komponenten, Kompetenzen, Strategien entwickelt, validiert und erprobt Maria Tassinari ein „dynamisches Autonomiemodell“ mit seinen Deskriptoren. Das Modell liefert die Basis für Checklisten zur Reflexion eigener Lernprozesse von Studierenden (Tassinari 2010). 4 Analyse und Auswahl von Lehr- und Lernmaterial
Der Komplex Analyse von Lehr- und Lernmaterial lässt sich nach zwei Gruppen von Arbeiten ordnen, nämlich nach solchen, die sich mit einem Lehrwerksystem oder Materialien einer Fremdsprache befassen und solchen, die lehrwerkvergleichend mehrere Fremdsprachen berücksichtigen. Innerhalb der beiden Gruppen kann nach den Bezugstheorien unterschieden werden, aus denen die Analysekriterien entwickelt werden. So bestimmen beispielsweise lerntheoretische Überlegungen die Studie von Dietmar Rösler (1984) zum Spannungsverhältnis von Lernerbezug und vorgefertigtem Lehrmaterial für Deutsch als Fremdsprache. Politik- und sozialwissenschaftlich orientiert ist die Analyse von Angelika Kubanek-German (1987): Dritte Welt im Englischlehrbuch der Bundesrepublik Deutschland. Aspekte der Darstellung und Vermittlung. Methodengeschichtliche Kriterien bestimmen die Studie von Lilli-Marlen Brill (2005), die am Beispiel von Lehrwerken zu Deutsch als Fremdsprache die These überprüft, ob Lehrwerkgenerationen als Ausdruck bestimmter Vermittlungsmethoden gelten müssen. Als prägnante Vertreter theoriegeleiteter, vergleichender Lehrwerkanalyse für mehrere Sprachen können die Studie von Dagmar Abendroth-Timmer (1998) und Christian Thimme (1996) gelten. Abendroth-Timmer vergleicht Lehrwerke zu den Sprachen Deutsch, Französisch und Russisch in Hinblick auf landeskundliches und interkulturelles Lernen. Für Thimme ist die Behandlung landeskundlicher, insbesondere geschichtlicher Aspekte in Lehrwerken für Deutsch und Französisch Forschungsgegenstand. Für den Komplex der Auswahl von Lehr- und Lernmaterial können stellvertretend zwei literaturdidaktische Studien herangezogen werden, die das didaktische Potenzial literarischer Genres untersuchen. Annette Werner (1993) rekonstruiert Kontinuität und Diskontinuität des fachdidaktischen Diskurses zur Behandlung von Lyrik im Englischunterricht, indem sie sowohl pädagogische und didaktische Begründungen seit 1945 als auch Lyriksammlungen, Handreichungen und Rahmenpläne untersucht. Forschungsgegenstand der Arbeit von Nancy Grimm (2009) sind Romane der indigenen Gegenwartsliteratur als Textgrundlage für die Förderung des Fremdverstehens im fortgeschrittenen Englischunterricht. Die Mehrzahl der für diesen Typus erwähnten Arbeiten bedienen sich hermeneutisch-textanalytischer Verfahren.
3.2 Theoretische Forschung
43
5 Phänomenologische Arbeiten
Dieser Typus versammelt Arbeiten, die Phänomene aus dem Gegenstandsbereich Lehren und Lernen fremder Sprachen zusammenstellen, systematisch beschreiben, ihre Behandlung in theoretischen Diskursen nachzeichnen und die Relevanz für die unterrichtliche Praxis ausloten. Zwei repräsentative Beispiele sollen ihn verdeutlichen: (1) Die Studie von Friederike Klippel (1980) ist dem Spielphänomen gewidmet. Nach der Aufarbeitung spieltheoretischer und spielpädagogischer Grundlagen sichtet die Verfasserin die Behandlung des Lernspiels in der fachdidaktischen Literatur (Lexika, didaktisch-methodische Handbücher, Richtlinien) und rekonstruiert seine Stellung im fremdsprachlichen Unterricht aus Erfahrungsberichten und Spielesammlungen. Ansätze einer Theorie des Lernspiels liefern die Grundlagen für die Erörterung des bewussten und integrativen Einsatzes des Lernspiels im Englischunterricht. Eine Klassifizierung von Lernspielen, verbunden mit einem Instrument zu ihrer didaktischen Aufarbeitung, sind u. a. Ergebnisse dieser Studie. (2) Das Offenheits-Paradigma bestimmt die Studie von Engelbert Thaler (2008), dessen vielfältige Wurzeln zunächst aufgedeckt werden (u. a. philosophisch-erkenntnistheoretische, anthropologisch-pädagogische, fremdsprachendidaktisch-methodische). Das Paradigma dient dazu, unterschiedliche Lernarrangements zu erfassen und zu analysieren sowie im Kontext der fachdidaktischen und bezugswissenschaftlichen Diskussion zu verorten. Thalers Studie bietet damit einen theoriegeleiteten, deskriptiven Methodenvergleich. 6 Bildungswissenschaftliche und bildungspolitische Positionierungen
Auch hier sollen zwei Studien diesen Typus verdeutlichen. (1) Lutz Küster (2003) liefert eine bezugs- und bildungswissenschaftliche sowie eine bildungspolitische Positionierung fremdsprachendidaktischer Kernkonzepte, die mit Bezug auf empirische Aspekte des Anfangsunterrichts im Fach Französisch sowie auf den fortgeschrittenen Unterricht mit literarischen Texten verdeutlicht werden. Der Autor versteht diese Bezüge als „Verknüpfungen und Vertiefungen“ zu den von ihm behandelten Grundsatzfragen der Didaktik des Fremdverstehens, der Literaturdidaktik, der Theorien interkultureller, ästhetischer und medialer Bildung. (2) Das zweite Beispiel fokussiert den bilingualen Sachfachunterricht. Nach einer problem- und ideengeschichtlichen Rekonstruktion des Theoriediskurses unternimmt Stephan Breidbach (2007) eine bildungstheoretisch und bildungswissenschaftlich fundierte Theoriebildung zum bilingualen Sachfachunterricht, die als Basis für die Weiterentwicklung seiner Didaktik dienen soll. Auch die schon erwähnte und unten im Detail vorgestellte Arbeit von BaumgratzGangl (1990, s. u.) ließe sich hier verorten. 7 Vergleichende Überblicksforschungen
Vergleichende Überblicksforschungen bezeichnen Arbeiten, deren Forschungsgegenstand vorhandene Studien, wissenschaftliche Publikationen und Theorieansätze sowie Lehr- und Lernmaterialien sind, die unter einer spezifischen Fragestellung systematisch analysiert werden; existente Forschung wird unter einer neuen Perspektive kritisch gesichtet. Vergleichende Überblicksforschungen sind von Metaanalysen zu unterscheiden, da erstere weder neue
44
3. Forschungstraditionen der Fremdsprachendidaktik
Analysen mit bestehenden Daten noch neue Datenerhebungen durchführen.4 Beispiele für diesen Typus theoretischer Forschung liefern die Studien von Barbara Schmenk Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs (2008) und die Referenzarbeit Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtsspezifischer Lerner- und Lernbilder in der Fremdsprachenforschung (2002, 2009). Die interdisziplinäre Anlage, Fragen der Textauswahl und ihrer Systematisierung sowie die qualitativ-interpretative Herangehensweise als auch forschungsmethodologische Implikationen vergleichender Überblicksforschungen werden dort transparent dargestellt (vgl. Schmenk 2002, 2009).
3.2.2 Meilensteine theoretischer Forschung Vier Meilensteine theoretischer Forschung in der Fremdsprachendidaktik werden nun vorgestellt, die zum einen aus unterschiedlichen Fachkulturen und Teilbereichen der Disziplin stammen, zum anderen einige Funktionen und Arbeitsweisen solcher Forschung verdeutlichen und die sich schließlich durch ihre Bezugnahme auf affine Wissenschaftsdisziplinen zumindest teilweise unterscheiden. 1 „Das Verstehen literarischer Texte“: Literaturwissenschaft und Rezeptionsästhetik
Ein prägnantes Beispiel theoretischer Forschung liefern die Arbeiten Lothar Bredellas, die zur Konstitution der Literaturdidaktik als noch junger, eigenständiger Teildisziplin der Fremdsprachendidaktik beitrugen (Bredella 1976, 1980, 2002, 2004). Bredella erörtert die Bedeutung literarischer Texte für das Lernen von Fremdsprachen aus der Perspektive des Verstehensprozesses, den er vor allem in kritischer Auseinandersetzung mit den literaturtheoretischen Positionen des New Criticism entfaltet. Nicht die textimmanente Interpretation des für sich selbst sprechenden Kunstwerks, sondern die Sinnbildung durch Lesen und Deuten rücken in den Vordergrund. Bezugspunkte sind die philosophische Hermeneutik (Gadamer) und die literaturwissenschaftliche Rezeptionsästhetik der Konstanzer Schule (Iser, Jauß). Mit der expliziten Fokussierung auf den Vorgang der Rezeption zeigt Bredella, dass literarische Texte eine authentische Kommunikationssituation im Klassenzimmer schaffen helfen, weil sie Lernende zu Deutungen und Stellungnahmen herausfordern. Indem Bredella dem Vorverständnis, den subjektiven Wahrnehmungen und Reaktionen der Lernenden im Rezeptionsvorgang ein eigenes Gewicht gegenüber dem Text zuweist, eröffnet er ein Feld für pädagogisch bedeutungsvolles Handeln, für Lernerorientierung. Gleichzeitig betont er jedoch die besondere Gestalt des literarischen Textes. Aus diesem Grund weist er subjektivistische Rezeptionsmodelle, die die Zeichenhaftigkeit und formale Gestalt des Textes ausblenden und seine besondere Qualität damit entwerten (Fish, Bleich), entschieden zurück (Bredella 2002). Bredella versteht deshalb auch den Verstehensprozess als dialogisch, als Interaktion zwischen Leser und Text, die unter den institutionellen Bedingungen von Lehren und Lernen immer sozialer Natur ist und die Lehrkraft als Dialogpartner einschließt. 4 Zur Bestimmung von Metaanalysen vgl. Kapitel 4.5: „Der zweite Blick: Metaanalysen und Replikation“. Eine knappe Einführung in den Komplex Metaanalysen liefern auch: Lueginger/Renger (2013).
3.2 Theoretische Forschung
45
Aus der Fokussierung auf den Verstehensprozess leitet Bredella zwei zentrale Aufgaben für die Literaturdidaktik ab. Zum einen geht es um die Auswahl herausfordernder und bedeutungsvoller literarischer Texte für den unterrichtlichen Diskurs, zum anderen um die Entwicklung und Erprobung angemessener Verfahren, die die Leser-Text-Interaktion im Klassenzimmer ermöglichen. Beiden Aufgaben stellt sich Bredella in seinen Arbeiten, indem er zahlreiche literarische Texte im Hinblick auf ihr Interaktionspotenzial exemplarisch deutet und unterrichtsnahe Handlungsoptionen skizziert. 2 „Das Spiel der Texte und Kulturen“: Kultur- und Textwissenschaft
Text- und diskurstheoretische Überlegungen, insbesondere eine Auseinandersetzung mit dem Konstrukt der Intertextualität, führen Hallet zur Modellierung des fremdsprachlichen Klassenzimmers als „hybriden“ Raum (Hallet 2002: 48), in dem „Texte und Diskurse aus verschiedenen kulturellen Sphären in ein wechselseitiges Zusammenspiel treten“ (ebd. 54). Fremdsprachenunterricht wird als eine eigenkulturelle Diskurssphäre markiert, als kultureller Handlungsraum, in dem vielfältige kulturelle Stimmen wahrnehmbar werden können, die den Lernenden Gelegenheit bieten, eigene Überzeugungen und Wahrnehmungsmuster zu erkennen, zu hinterfragen und möglicherweise zu modifizieren. Dialogische Aushandlungsprozesse unter Nutzung der Fremdsprache sind wesentliches Merkmal der unterrichtlichen Diskurssphäre, Lernende werden als (inter)kulturelle Aktanten (ebd. 34) und diskursive Mitspieler begriffen. Hallet erörtert das didaktische Potenzial von Intertextualität in doppelter Weise. Zum einen thematisiert er die Zusammenstellung von Materialien als Textensembles, zum anderen das intertextuelle Arbeiten und die Rolle lerneraktivierender Verfahren. Beide Perspektiven führen ihn zu einer Neubewertung von Materialentwicklung im weiteren Sinne und somit zu einer Neubestimmung der Aufgaben der Textdidaktik. Hallet konkretisiert sein Modell und dessen Implikationen für die Materialentwicklung auf der einen und die Strukturierung des Lern- und Begegnungsraums auf der anderen Seite durch verschiedene Unterrichtsmodelle und Unterrichtsreihen, die das Zusammenspiel von literarischen Schlüsseltexten als Teil komplexerer Textensembles und den diskursiven Zugriffen im Klassenzimmer weiter differenzieren. Die Möglichkeiten der Kontextualisierung literarischer Texte durch andere Textsorten sowie das Potential gattungstypologischen Arbeitens mit einer klaren Orientierung auf thematisch relevante Diskurse werden unterrichtsnah mit Beispielen erörtert. 3 „Persönlichkeitsentwicklung und Fremdsprachenerwerb“: Landeskundedidaktik
Gisela Baumgratz-Gangls Forschungsarbeit (1990) ist in den engagierten bildungspolitischen Diskussionen der 70er und 80er Jahren situiert, die auf die Expansion des europäischen Binnenmarktes folgte und der damit gegebenen größeren Mobilität seiner Bürger. Sie nimmt Bezug auf eine ganze Reihe deutsch-französischer Bildungsprojekte. Letztere galten sowohl der Entwicklung von Unterrichtskonzepten für den Französischunterricht der Sekundarstufe I und II, der Lehrerfortbildung durch erlebte Landeskunde und vor allem der Förderung deutsch-französischer Austauschaktivitäten, die von Korrespondenzprojekten über Studienfahrten bis hin zum Schüleraustausch reichten. Baumgratz-Gangl entwickelt einen theoriegeleiteten Zugriff auf diese Erfahrungen, ohne sie allerdings empirisch auszuwerten. Aus-
46
3. Forschungstraditionen der Fremdsprachendidaktik
gehend von der Annahme, dass der schulische Fremdsprachenunterricht einen „wichtigen Beitrag zur Verbesserung transnationaler und internationaler Kommunikation leisten“ kann, „wenn es gelingt, die Schüler für andere Menschen, ihre Gefühle, Gewohnheiten, Wünsche und Lebensbedingungen zu interessieren“ (ebd. 28), erörtert Baumgratz-Gangl Ergebnisse der Sozialisationsforschung, insbesondere psychosoziale Faktoren der Subjektkonstitution, um zu bestimmen, welche Persönlichkeitsentwicklung bei Schülerinnen und Schülern gefördert werden muss, damit sie befähigt werden, sowohl die Herausforderungen transkultureller Mobilität (etwa Erfahrungen der Fremdheit und Entfremdung) zu meistern, als auch die Chancen zum Lernen von und mit anderen selbstbewusst zu ergreifen. Der Tätigkeitstheorie von Galperin folgend skizziert Baumgratz-Gangl Dimensionen einer relationalen Sprach- und Landeskundedidaktik, die nicht primär das Ziel verfolgt, Wissen zu vermitteln, sondern auf die „Qualifizierung der Persönlichkeit für den zwischenmenschlichen Umgang mit Angehörigen der anderen Gesellschaft und Kultur, bzw. anderer Gesellschaften und Kulturen“ (ebd. 131) setzt. Das Gesamtarrangement des Unterrichts (das Ensemble von Themen, Texten und kommunikativen Situationen) berücksichtigt die persönlichen Erfahrungen der Lernenden; die Unterrichtsmethoden stärken ihre Risikobereitschaft und sensibilisieren für den Umgang mit Fremden. In Bamgratz-Gangls Lehr- und Lernkonzept spielen alle jene Situationen eine Schlüsselrolle, die einen kommunikativen Ernstfall involvieren: die Klassenkorrespondenz, das Auslandspraktikum und der Schüleraustausch. 4 „Linguistik und Englischunterricht“
Das zweibändige Werk Werner Hüllens Linguistik und Englischunterricht (Hüllen 1971, 1979) trägt den Untertitel „Didaktische Analysen“, die sich zum Ziel setzen, den fremdsprachlichen „Unterricht, wie er im praktischen Vollzug erfahren wird, durch theoretische Überlegungen konsistenter, verlässlicher, wohl auch besser und erfolgreicher zu machen“ (Hüllen 1971: 7). Kontext für Hüllens Arbeiten sind zum einen die bildungspolitischen Umwälzungen, die sich in der 1965 beschlossenen Einführung der ersten Fremdsprache für alle Kinder ab der 5. Klasse, also auch für die Hauptschüler, zeigten und deshalb neue Konzepte für das Lehren und Lernen von Fremdsprachen erforderlich machten, zum anderen die Theoriebildung in der Linguistik, insbesondere die Herausbildung der Angewandten Linguistik. Hüllen geht es um eine Klärung des Verhältnisses der verschiedenen Teilbereiche und Modelle der Sprachwissenschaft zu dem eigenständigen Handlungsbereich Fremdsprachenunterricht. Er erörtert didaktische Implikationen linguistischer Grundbegriffe (Sprache, Grammatik, Lexik, Semantik), diskutiert didaktische Leistungen linguistischer Modelle (Generative Transformationsgrammatik, Kontextualismus) und wendet sich dann vor allem den Implikationen der Pragmalinguistik zu, die zusammen mit der Fokussierung der Emanzipation als übergeordnetem Lernziel des Fremdsprachenunterrichts in der Phase der sogenannten Kommunikativen Wende die fachdidaktische Diskussion bestimmte. Zu welchen Ergebnissen linguistisch fundierte Planung von Englischunterricht führt und wie dabei Linguistik und Fachdidaktik zusammenwirken, wird für verschiedene Komplexe verdeutlicht (Passiv in einer didaktischen Grammatik, Nominalkomposita oder Ausspracheunterricht). Im Schlusskapitel des zweiten Bandes bilanziert Hüllen mit Rückblick auf mehr als ein Jahrzehnt Diskussion über das Verhältnis von Linguistik und Didaktik, dass die „hohen Er-
3.2 Theoretische Forschung
47
wartungen an eine didaktische Verwendbarkeit linguistischer Begriffe, Methoden und Erkenntnisse [. . .] zurückgenommen werden mussten“ (1976: 141) und dass eine direkte Übernahme linguistischer Erkenntnisse und Analyseverfahren für den Fremdsprachenunterricht seinen besonderen Bedingungen nicht Rechnung tragen kann. Es sei Aufgabe der Fremdsprachendidaktik, ihre Möglichkeiten als praxisorientierte Wissenschaft interdisziplinär zu verorten und von einer solchen Perspektive ihre Forschungspraxis und damit zugleich das Verhältnis von Linguistik und Didaktik zu bestimmen (1976: 151).
3.2.3 Theorie und Empirie Theoretische Forschung als Teil einer praxisorientierten Disziplin, einer Handlungswissenschaft, bezieht sich immer auch auf die Empirie, wie die hier erwähnten und skizzierten Beispiele zeigen. Ein solcher Bezug kann in mehrfacher Weise deutlich werden: Die Empirie kann diesen Studien entweder vorgelagert sein und geht als Bericht, als dokumentierte Erfahrung, als Erfahrung der Autorinnen und Autoren in die Überlegungen ein. Der Studie von Klippel zum Lernspiel vorgelagert waren „viele anregende englische „Spielstunden“ mit Hauptschülern unterschiedlicher Klassenstufen“ (Klippel 1980: 5); Hallets Textensembles (Hallet 2002) sind vor ihrer diskursiven Erörterung durch mehrjährige Erprobungen im eigenen Unterricht gegangen. Oder die Empirie ist den Studien nachgelagert und erscheint in der Form von Überprüfung oder Vergewisserung: Nach der umfassenden Bestimmung kreativer Verfahren im Umgang mit literarischen Texten befragt Caspari (1994) Berliner Französischlehrkräfte zum Einsatz und zur Bewertung eben dieser Verfahren. Ferner lassen Ergebnisse theoretischer Forschung die Empirie als anvisierte erscheinen. Sie manifestiert sich in Handlungsvorschlägen, Empfehlungen oder Angeboten von neuen Sichtweisen auf die Praxis, etwa in der Bestimmung und Begründung von Textauswahl und im Entwurf lerneraktivierender Aufgaben für zukünftigen Unterricht (Bredella 2002). Sie zeigt sich in der Konkretisierung intertextueller Unterrichtsmodelle (Hallet 2002), in Vorschlägen zur Nutzung transkultureller Begegnungen innerhalb und jenseits des Unterrichts (Baumgratz-Gangl 1990), in Ansätzen einer fremdsprachlichen Leselehre (Ehlers 1998) sowie im Erkennen und Auskundschaften von Spielräumen für Autonomie (Schmenk 2008). Dieser anvisierte Praxisbezug ist jedoch in keinem der Beispiele präskriptiv gemeint bzw. von dem Verständnis bestimmt, als zwingend aus der Theorie gewonnene Ableitungen für praktisches Handeln im Unterricht zu gelten. Die hier skizzierte theoretische Forschung versteht sich folglich auch nicht als Anwendungsdidaktik. Denn alle auf die Praxis bezogenen Erkenntnisse, zum Teil als Empfehlungen für das Handeln im Unterricht formuliert, bedürfen nicht nur der diskursiven Würdigung und Validierung derjenigen, die aus den unterschiedlichen Perspektiven ihrer jeweiligen Praxis (als Lehrende, als Verfasserinnen und Verfasser von Lehr- und Lernmaterial) auf solche Erkenntnisse zugreifen und dabei ihre Relevanz und Reichweite ausloten. Die Erkenntnisse verlangen auch nach empirischer Überprüfung. Ein besonderes Merkmal theoretischer Arbeiten besteht deshalb darin, dass sie Angebote zum Diskurs über zentrale Aspekte des Gegenstandsbereichs Lehren und Lernen von Fremdsprachen machen und zugleich Motor empirischer Forschung sein können.
48
3. Forschungstraditionen der Fremdsprachendidaktik
›› Literatur Abendroth-Timmer, Dagmar (1998). Der Blick auf das andere Land. Ein Vergleich der Perspektiven in Deutsch-, Französisch- und Russischlehrwerken. Tübingen: Narr. Baumgratz-Gangl, Gisela (1990). Persönlichkeitsentwicklung und Fremdsprachenerwerb: transnationale und transkulturelle Kommunikationsfähigkeit im Französischunterricht. Paderborn: Schöningh. Baumgratz-Gangl, Gisela (1993). Compéténce transculturelle et échanges éducatifs. Paris: Hachette. Bellavia, Elena (2007). Erfahrung, Imagination und Sprache. Die Bedeutung der Metaphern der Alltagssprache für das Fremdsprachenlernen am Beispiel der deutschen Präpositionen. Tübingen: Narr. Bredella, Lothar (1976). Einführung in die Literaturdidaktik. Stuttgart: Kohlhammer. Bredella, Lothar (1980). Das Verstehen literarischer Texte. Stuttgart: Kohlhammer. Bredella, Lothar (2002). Literarisches und interkulturelles Verstehen. Tübingen: Narr. Bredella, Lothar (2004). Grundlagen für eine rezeptionsästhetische Literaturdidaktik. In: Bredella, Lothar/Burwitz-Melzer, Eva (Hg.). Rezeptionsästhetische Literaturdidaktik mit Beispielen aus dem Fremdsprachenunterricht Englisch. Tübingen: Narr, 25 – 80. Breidbach, Stephan (2007). Bildung, Kultur, Wissenschaft. Reflexive Didaktik für den bilingualen Sachfachunterricht. Münster: Waxmann. Brill, Lilli-Marlen (2005). Lehrwerke, Lehrwerkgenerationen und die Methodendiskussion im Fach Deutsch als Fremdsprache. Aachen: Shaker. Butzkamm, Wolfgang (1973, 21978). Aufgeklärte Einsprachigkeit. Zur Entdogmatisierung der Methode im Fremdsprachenunterricht. Heidelberg: Quelle & Meyer. Casapri, Daniela (1994). Kreativität im Umgang mit literarischen Texten im Fremdsprachenunterricht. Theoretische Studien und unterrichtspraktische Erfahrungen. Frankfurt: Lang. Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. Konzeptuelle Genese einer Wissenschaft im Dialog von Theorie und Praxis. München: Langenscheidt. Ehlers, Swantje (1998). Lesetheorie und fremdsprachliche Lesepraxis aus der Perspektive des Deutschen als Fremdsprache. Tübingen: Narr. Grimm, Nancy (2009). Beyond the ‚Imaginary Indian‘: Zur Aushandlung von Stereotypen kultureller Identität. Perspektiven in/mit indigener Gegenwartsliteratur. Heidelberg: Winter. Gutschow, Harald (1964, 81973). Englisch an Hauptschulen. Probleme und Arbeitsformen. Berlin: Cornelsen. Hallet, Wolfgang (2002). Fremdsprachenunterricht als Spiel der Texte und Kulturen. Intertextualität als Paradigma einer kulturwissenschaftlichen Didaktik. Trier: WVT. Heuer, Helmut (1976). Lerntheorie des Englischunterrichts. Untersuchungen zur Analyse fremdsprachlicher Lernprozesse. Heidelberg: Quelle & Meyer. Hüllen, Werner (1971). Linguistik und Englischunterricht 1. Didaktische Analysen. Heidelberg: Quelle & Meyer. Hüllen, Werner (1976). Linguistik und Englischunterricht 2. Didaktische Analysen. Heidelberg: Quelle & Meyer. Hunfeld, Hans (2004). Fremdheit als Lernimpuls. Skeptische Hermeneutik, Normalität des Fremden, Fremdsprache Literatur. Meran: Alpha Beta Verlag. Jank, Werner/Meyer, Hilbert (112002). Didaktische Modelle. Buch didaktischer Landkarte. Berlin: Cornelsen. Klippel, Friederike (1980). Lernspiele im Englischunterricht. Mit 50 Spielvorschlägen. Paderborn: Schöningh. Koch, Corinna (2013). Metaphern im Fremdsprachenunterricht. Englisch. Französisch. Spanisch. Frankfurt: Lang.
3.3 Empirische Forschung
49
Kubanek-German, Angelika (1987). Dritte Welt im Englischlehrbuch der Bundesrepublik Deutschland. Aspekte der Darstellung und Vermittlung. Regensburg: Pustet. Küster, Lutz (2003). Plurale Bildung im Fremdsprachenunterricht. Ästhetisch-literarische und interkulturelle Aspekte von Bildung an Beispielen romanistischer Fachdidaktik. Frankfurt/M.: Lang. Lueginger, Elisabeth/Renger, Rudi (2013). Das weite Feld der Metaanalyse. Sekundär-, literatur- und metaanalytische Verfahren im Vergleich. Kommunikation.medien 2, 1 – 31 [www.journal.kommunikation-medien.at]. Nissen, Rudolf (1974). Kritische Methodik des Englischunterrichts. 1: Grundlegung. Heidelberg: Quelle & Meyer. Piepho, Hans-Eberhard (1974). Kommunikative Kompetenz als übergeordnetes Lernziel im Englischunterricht. Limburg: Frankonius-Verlag. Rösler, Dietmar (1984). Lernerbezug und Lehrmaterialien Deutsch als Fremdsprache. Heidelberg: Groos. Schmenk, Barbara (2002). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Stauffenberg. [Referenzarbeit]. Schmenk, Barbara (2008). Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs. Tübingen: Narr. Tassinari, Maria Giovanni (2010). Autonomes Fremdsprachenlernen. Konzepte, Kompetenzen, Strategien. Frankfurt: Lang. [Referenzarbeit] Thahler, Engelbert (2008). Offene Lernarrangements im Englischunterricht. Rekonstruktion, Konstruktion, Konkretion, Exemplifikation, Integration. München: Langenscheidt. Thimme, Christian (1996). Geschichte in Lehrwerken Deutsch als Fremdsprache und Französisch als Fremdsprache für Erwachsene. Ein deutsch-französischer Lehrbuchvergleich. Baltmannsweiler: Schneider Hohengehren. Werner, Annette (1993). Lyrik im Englischunterricht nach 1945. Die Entwicklung einer fachdidaktischen Debatte. Augsburg: Universität Augsburg (= Augsburger I & I Schriften, Bd. 67).
Empirische Forschung
3.3
Karen Schramm
3.3.1 Begriffsklärung Im Gegensatz zu historischer und theoretischer Forschung (s. Kapitel 3.1 und 3.2) ist für die empirische Forschung charakteristisch, dass sie auf der datengeleiteten Untersuchung einer Forschungsfrage beruht. Riemer (2014: 15) stellt in Anlehnung an einschlägige Arbeiten dazu fest, dass „[v]on empirischem Wissen […] – anders als im Fall von Allgemeinwissen und unsystematisch reflektiertem Erfahrungswissen – erst dann gesprochen werden [kann], wenn die allgemeinen Merkmale der Systematizität und Datenfundiertheit wissenschaftlicher Forschung eingehalten werden“. Diese für die jeweilige Untersuchung erfasste oder erhobene Datengrundlage (s. Kapitel 5.2) kann unterschiedlich umfangreich sein, sodass sich empirische Forschung auf einem Kontinuum von Erfahrungsberichten über explorative und deskriptive Studien bis hin zu explanativen Studien beschreiben lässt.
50
3. Forschungstraditionen der Fremdsprachendidaktik
Eine erste Stufe der Empirie stellen Erfahrungsberichte dar. Als fremdsprachendidaktische Beispiele kann u. a. auf Rattunde (1990), Minuth (1996) oder Wernsing (1995) verwiesen werden, die über Unterrichtserfahrungen berichten und auf dieser Grundlage methodische Handlungsempfehlungen entwickeln. Für den Bereich der Projektarbeit zeigt Peuschel (2012: 13 – 17) als Grundlage ihrer eigenen Studie in ihrem Literaturbericht beispielsweise auf, dass bisherige Forschungen zu diesem Thema weitestgehend auf der Stufe von Erfahrungsberichten angesiedelt sind. Blickt man auf die Entwicklung der empirischen Forschung in der Fremdsprachendidaktik zurück, so ist auch bemerkenswert, dass uns bereits aus früheren Jahrhunderten einige empirische Arbeiten der Fremdsprachendidaktik zugänglich sind, die sich in der Regel auf dieser ersten Stufe der Empirie bewegen (s. Kapitel 3 und 3.1). Als zweite Stufe der Empirie zielen explorative Studien auf die Erkundung eines Untersuchungsgegenstands ab, der bisher kaum erforscht ist. In der Regel ist es Ziel solcher explorativen Studien, Hypothesen über einen bisher wenig erforschten Untersuchungsgegenstand zu generieren. Zahlreiche der in Kapitel 7 unter methodisch-methodologischer Perspektive zusammengefassten – und an vielen Stellen dieses Handbuchs illustrativ aufgegriffenen – Referenzarbeiten liefern Beispiele für solche gewinnbringenden Explorationen: Arras (2007) zu Leistungsbeurteilungen, Ehrenreich (2004) zum ausbildungsbiographischen Ertrag eines assistant-Jahres, Hochstetter (2011) zur diagnostischen Kompetenz von Englischlehrpersonen in der Grundschule, Schart (2003) zur Perspektive von Lehrenden auf Projektunterricht und Schmidt (2007) zum gemeinsamen Lernen mit Selbstlernsoftware. Auf einer dritten Stufe lassen sich deskriptive Studien einordnen, die genaue Beschreibungen von Phänomenen vornehmen, die bereits in Vorgängerstudien exploriert wurden. Die Referenzarbeit von Özkul (2011) illustriert den Fall einer Fragebogenstudie, die aufgrund von quantitativen Daten zu statistischen Aussagen (und zwar über Berufs- und Studienfachwahlmotive) gelangt; die Referenzarbeit von Schwab (2009) dagegen zeigt den Fall einer konversationsanalytischen Videostudie, die aufgrund von qualitativen Daten interpretative Aussagen (und zwar über Partizipationsmöglichkeiten von Schüler_innen im Plenumgsgespräch) trifft. Auf einer vierten Stufe der Empirie bewegen sich explanative Studien, die auf die Erforschung kausaler Zusammenhänge abzielen. Hierbei steht die Überprüfung von Hypothesen, die zu einem extensiv explorierten und deskriptiv erforschten Untersuchungsgegenstand zum Zeitpunkt der Studie bestehen, im Zentrum der Forschungsanstrengung. Der Wunsch, über die Deskription von Fremdsprachenunterricht hinauszugehen und auch explanative Studien durchzuführen, ist in der Fremdsprachendidaktik spätestens nach Erscheinen des Gemeinsamen europäischen Referenzrahmens (Europarat 2001) und dem Erstarken der Kompetenzorientierung deutlich erkennbar. Die (quasi-)experimentellen Interventionsstudien zum Hörverstehen im Deutschen als Tertiärsprache von Marx (2005) und zu Effekten extensiven Lesens im Fremdsprachenunterricht von Biebricher (2008) illustrieren als Referenzarbeiten dieses Handbuchs, dass auch Dissertationen, die nicht in größere Verbundprojekte eingebunden sind, fundierte Aussagen über Ursache und Wirkung treffen können; oft nutzen explanative Qualifikationsarbeiten aber auch Synergieeffekte aus kooperativen, teils standortübergreifenden Projekten für Einzelstudien.
3.3 Empirische Forschung
51
Die folgenden Abschnitte geben einen einführenden Überblick über prototypische Designs fremdsprachendidaktischer Empirie (dazu grundlegend Abschnitt 2). Dabei findet einerseits die statistische Auswertung quantitativer Daten (Abschnitt 3) und andererseits die interpretative Auswertung qualitativer Daten besondere Berücksichtigung (Abschnitt 4). Auch die komplexen Kombinationsmöglichkeiten dieser Vorgehensweisen in Studien, die als mixed methods bezeichnet werden, sollen kurz angerissen werden (Abschnitt 5).
3.3.2 Quantitatives und qualitatives Paradigma In der Regel werden das qualitative und das quantitative Forschungsparadigma als zwei diametral gegenübergestellte empirische Arbeitsweisen charakterisiert, die sich bezüglich des Erhebungskontextes, der erhobenen Daten, der Auswertungsmethoden und der dahinterliegenden Wissenschaftstheorie diametral unterscheiden (s. Kapitel 2). Als Prototyp quantitativer Forschung gilt das Experiment. Für dessen quantitative Natur ist die Tatsache charakteristisch, dass es im Labor, also nicht im natürlichen Kontext, und damit unter streng kontrollierten Bedingungen durchgeführt wird. Bei den in Experimenten erhobenen Daten handelt es sich typischerweise um Messwerte (z. B. um Reaktionszeitmessungen oder Test-Werte), die mithilfe statistischer Verfahren ausgewertet werden. Experimentelle Forschung basiert auf der wissenschaftstheoretischen Position des Rationalismus, nach der in einem hypothesentestenden Verfahren eine objektive bzw. universalgültige Wahrheit aus der Außenperspektive von Forscher_innen, einer sogenannten etischen Perspektive, beschrieben werden soll (s. Kapitel 2). Als Prototyp qualitativer Forschung gilt hingegen die Ethnographie, bei der die Daten mittels teilnehmender Beobachtung im natürlichen Kontext und damit unter hochgradig unkontrollierten Bedingungen gesammelt werden. Diese Daten werden zu Zwecken der Hypothesengenerierung mithilfe interpretativer Verfahren ausgewertet, wobei eine emische Perspektive verfolgt wird, d. h. dass Forschende die Innenansicht der Forschungspartner_innen analytisch herausarbeiten. Wissenschaftstheoretisch basiert diese Vorgehensweise auf dem Relativismus, der der rationalistischen Vorstellung einer universalgültigen Wahrheit das Konzept (sozio-)kulturell geprägter bzw. kontextgebundener Wahrheiten entgegensetzt (s. Kapitel 2). Grotjahn (1987) hat in einem auf die deutschsprachige Fremdsprachendidaktik sehr einflussreichen Beitrag bereits in den 80er Jahren verdeutlicht, dass diese simple Gegenüberstellung von zwei Prototypen den vielen denkbaren Varianten empirischer Forschungsdesgins nicht gerecht wird. Er unterscheidet neben diesen beiden „Reinformen“ (Grotjahn 1987: 59) des explorativ-interpretativen und des analytisch-nomologischen Paradigmas sechs weitere „Mischformen“ (ebd.), die sich aus den möglichen Kombinationen der drei Pole (a) (quasi-) experimentelles vs. nicht-experimentelles Design, (b) quantitative vs. qualitative Daten und (c) statistische vs. interpretative Auswertung ergeben: Beispielsweise ist es möglich, im Feld metrische Werte zu erheben und statistisch auszuwerten oder im Labor verbale Daten zu erheben, die interpretativ ausgewertet werden. Somit wird deutlich, dass empirische Designs nicht immer eindeutig einem paradigmatischen Prototypen zugeordnet werden können,
52
3. Forschungstraditionen der Fremdsprachendidaktik
sondern dass sich eine Vielzahl von durch das Erkenntnisinteresse geleiteten grundlegenden Design-Möglichkeiten ergibt.
3.3.3 Quantitative Daten und statistische Auswertungen Zur fremdsprachdidaktischen Illustration des analytisch-nomologischen Paradigmas können die Referenzarbeit von Marx (2005) als Forschungsleistung einer Einzelperson und die DESIStudie als Forschungsleistung eines umfassenden Verbundes dienen. In der Untersuchung von Marx (2005) zu Hörverstehensleistungen im Deutschen als Tertiärsprache handelt es sich um ein Experiment, bei dem Lernende im Bereich Deutsch als Fremdsprache nach Englisch (DaFnE) auf der Grundlage von Eingangstests und Fragebögen mit dem Ziel einer Balancierung von Kontroll- und Experimentalgruppe auf zwei parallele Nullanfängerkurse verteilt wurden. Oft steht die Verteilung von Proband_innen auf unterschiedliche Kurse nicht im Einflussbereich der Forschenden, sodass bei Experimenten, die im Feld durchgeführt werden, i. d. R. mit bestehenden Parallelgruppen in einem sogenannten Quasi-Experiment gearbeitet wird. In solchen Fällen stellt sich dann die Frage der Vergleichbarkeit der Gruppen, die häufig in Paarvergleichen abgesichert werden soll. In der Studie von Marx (2005) handelt es sich jedoch nicht um ein Quasi-Experiment, sondern tatsächlich um ein Experiment, bei dem die Gruppen gezielt nach bestimmten Überlegungen in vergleichbarer Weise zusammengesetzt wurden. Anders als in der oben beschriebenen Reinform des analytisch-nomologischen Paradigmas wurden dabei jedoch nicht für das Experiment charakteristische Messwerte erhoben, sondern Daten aus Hörverstehensaufgaben und retrospektive Erklärungen zu den von Lernenden wahrgenommenen Gründen für erfolgreiches Verstehen, die beide für die Zwecke einer statistischen Auswertung mittels Mann-Whitney-U-Test und MANOVA (s. Kapitel 5. 3. 10) erst in Zahlenwerte überführt werden mussten (vgl. dazu die Darstellung der Referenzarbeit in Kapitel 7).5 Ein zweites Beispiel aus dem Bereich der Fremdsprachendidaktik ist die DESI-Studie (Deutsch-Englisch-Schülerleistungen-International). Sie zielte darauf ab, den Leistungsstand in Deutschland, Österreich und der Schweiz in den Fächern Deutsch und Englisch zu erfassen und zur Verbesserung von Curricula, Lehrmaterialien, Aus- und Weiterbildung von Lehrpersonen und Unterrichtsgestaltung in diesen beiden Fächern beizutragen: In einem interdisziplinären Team aus Bildungsforscher_innen und Fachdidaktiker_innen wurden dazu ca. 11 000 Schüler_innen der neunten Klasse aller Schularten befragt und zu zwei Zeitpunkten getestet sowie neben Videoaufnahmen des Unterrichts auch Befragungen mit Lehrpersonen, Eltern und Schulleitungen durchgeführt (Klieme 2008). Zur Kurz-Illustration des Umfangs dieser Art von empirischer Großuntersuchung sei als eine der vielen DESI-Teilstudien die Videostudie des Englischunterrichts (Helmke et al. 2008) herausgegriffen, die Aufnahmen, Transkripte, Basiskodierungen und Beurteilungen der Unterrichtsqualität von 105 Englischstunden beinhaltete. Auf dieser Grundlage konnten u. a. quantitative Aussagen zu einer Reihe von Aspekten des untersuchten Englischunterrichts (z. B. verwendete Unterrichtssprache, 5 Es sei angemerkt, dass diese quantifizierten Daten wiederum um qualitative, interpretativ ausgewertete Daten (Fragebögen zum Unterricht) ergänzt wurden.
3.3 Empirische Forschung
53
Sprechanteile von Lehrpersonen und Schüler_innen, Art und Länge der Schüleräußerungen, Fehlerkorrektur und Wartezeit) sowie auch Zusammenhänge dieser Unterrichtsmerkmale mit anderen Variablen wie Schülerleistungen (z. B. in einem C-Test oder Hörverstehenstest) herausgearbeitet werden.
3.3.4 Qualitative Daten und interpretative Auswertungen Als fremdsprachendidaktische Beispiele für den Gegenpol, das explorativ-interpretative Paradigma, sollen hier die Dissertation von Haider (2010) zu Sprachbedürfnissen von Pfleger_ innen mit Deutsch als Zweitsprache und die umfangreiche Studie zur mündlichen Fehlerkorrektur im Italienisch- und Spanischunterricht von Kleppin & Königs (1991) dienen. Haiders (2010) Untersuchung ist im Themenfeld Deutsch für den Beruf angesiedelt und wird von der Autorin selbst im Titel als kritische Sprachbedarfserhebung charakterisiert. Mithilfe von Erhebungsmethoden wie job-shadowing, also der Begleitung der Forschungspartner_innen im Arbeitsalltag, und insbesondere auf der Grundlage von 13 halbstandardisierten, interpretativ ausgewerteten Interviews arbeitet die Forscherin heraus, welchen sprachlichen Herausforderungen Gesundheits- und Krankenpfleger_innen in Österreich, die Deutsch als Zweitsprache erwerben, sich bei ihrer Berufstätigkeit ausgesetzt sehen. Charakteristisch für das explorativ-interpretative Paradigma ist u. a. ihre Zielsetzung, die Innenperspektive des Pflegepersonals zu erfassen: Im Gegensatz zu klassischen Bedarfsanalysen, die stärker die Außenperspektive einnehmen und beispielsweise Anforderungen des Arbeitsmarktes ins Zentrum der Untersuchung stellen, ist diese Studie der emischen Perspektive zuzuordnen. Anhand der Schilderungen des Berufseinstiegs will die Autorin sprachliche Probleme der Berufspraxis aufzeigen, die die Betroffenen selbst als relevant erleben; diese sollen als Grundlage für berufsorientierte Deutschkurse dienen – und letztlich auch in einem politisch-kritischen Sinn Mängel im System von Pflegeeinrichtungen mit Bezug auf Spracherwerbsmöglichkeiten offenlegen und auf deren Behebung drängen. Die umfassende Studie von Kleppin/Königs (1991: 117), in der sie „[d]er Korrektur auf der Spur“ sind – so der Titel – , kann als früher Meilenstein fremdsprachendidaktischer Empirie bezeichnet werden. Das untersuchte Datenkorpus besteht aus 97 videografierten Stunden Spanisch-Unterricht und 91 videografierten Stunden Italienisch-Unterricht; weiterhin wurden auch zwölf flankierende Lehrerinterviews ausgewertet. Ergänzend wurden „zu einem Teil der Unterrichtsaufzeichnungen“ (Kleppin/Königs 1991: 107) Daten nachträglichen Lauten Denkens als „unterrichtskommentierende Daten“ (ebd.) erhoben. Auch fokussierte Interviews und ein in elf Klassen verteilter und von 198 Lernenden ausgefüllter Fragebogen waren Grundlage der Analysen. Die Autor_innen erläutern, dass sie die an einem Datensatz gewonnenen Interpretationen an einem anderen Datensatz zu bestätigen gesucht haben, um die Reichweite der jeweiligen Interpretation zu erhöhen bzw. um bei Nicht-Bestätigung entsprechend vorsichtig mit der Interpretation umzugehen (Kleppin/Königs 1991: 117). Zentrale Aspekte der Auswertung betreffen die linguistisch basierte Fehlerkodierung und -auszählung nach Unterrichtsphasen, die diskursanalytische Auswertung von Initiation der Korrektursequenz, Reaktion auf Initiationen, Korrekturen und ihrer Art und Weise sowie von
54
3. Forschungstraditionen der Fremdsprachendidaktik
Reaktionen und Nachreaktionen auf die Korrekturen. Für 16 Unterrichtsstunden nehmen die Autor_innen detaillierte Quantifizierungen dieser Aspekte vor; darüber hinaus präsentieren sie Befunde zu den subjektiven Theorien der Lehrpersonen und zu Schülerwünschen und -erwartungen hinsichtlich der mündlichen Fehlerkorrektur. Die Autor_innen ordnen diese frühe, beeindruckende Videostudie des Fremdsprachenunterrichts explizit der explorativ-interpretativen Forschungsrichtung zu (ebd.) und dementsprechend würdigt Henrici (1992: 250) in seiner Rezension – neben vielen anderen Aspekten – auch „die vorsichtig zurückhaltende Darstellung der Ergebnisse, die dem verwendeten Paradigma und dessen Ansprüchen gerecht wird“.
3.3.5 Mixed methods Unter dem Begriff mixed methods ist die Möglichkeit der Kombination von Verfahren aus dem sogenannten qualitativen und quantitativen Paradigma (vgl. dazu Abschnitt 2) diskutiert worden und nach anfänglichen Zweifeln bezüglich der grundsätzlichen Vereinbarkeit von Ansätzen, die auf wissenschaftstheoretisch so unterschiedlichen Grundannahmen basieren (s. Kapitel 2), doch das besondere Potenzial einer solchen Verknüpfung betont worden (einführend – allerdings ohne fremdsprachendidaktischen Bezug – s. Kuckartz 2014). Dabei lassen sich in Anlehnung an Ivankova/Creswell (2009: 138) zur methodologischen Einordnung von mixed-methods-Studien die Aspekte (a) zeitliche Anordnung (timing), (b) Gewichtung (weighting) und (c) Mischung (mixing) qualitativer und quantitativer Verfahren unterscheiden. Mit dem ersten Begriff der zeitlichen Anordnung ist gemeint, dass eine qualitative und eine quantitative Teilstudie entweder sequentiell zeitlich aufeinander folgen (qualitativ -> quantitativ oder quantitativ -> qualitativ) oder dass sie gleichzeitig durchgeführt werden können (qualitativ + quantitativ). Der zweite Begriff der Gewichtung zielt darauf ab, die Bedeutung der qualitativen und der quantitativen Anteile der Studie zueinander in Beziehung setzen: Sind beide gleichgewichtet (QUAL, QUAN), ist der qualitative Anteil höher einzuschätzen (QUAL, quan) oder ist der quantitative Anteil stärker gewichtet (qual, QUAN)? Schließlich bezieht sich der dritte Begriff des Mischens auf die Forschungsphase, in der die qualitativen und quantitativen Anteile miteinander in Beziehung gesetzt werden; dies kann in der Phase der Erhebung, der Auswertung oder der Interpretation der Ergebnisse geschehen. Im Hinblick auf den letztgenannten Aspekt ist in der mixed-methods-Diskussion von einigen Forschenden die weitreichende Forderung vertreten worden, dass die Mischung alle Phasen des Forschungsprozesses betreffen müsse; auf diesen rigorosen Fall bezieht sich der Begriff mixed models. Auf der Grundlage der Kriterien zeitlicher Anordnung, Gewichtung und Mischung lassen sich in Anlehnung an Kuckartz (2014) folgende vier mixed-methods-Designs unterscheiden:
• Vertiefungsdesign (auch: explanatory design): Es ist sequenziell angeordnet und die Studie schreitet vom Quantitativen zum Qualitativen voran (QUAN -> qual, quan -> QUAL, QUAN -> QUAL). Die qualitativen Befunde der zweiten Teilstudie dienen dazu, die quantitativen Befunde der ersten Teilstudie vertiefend zu erklären. Beispielsweise könnte auf der
3.3 Empirische Forschung
55
Grundlage bestehender Forschungsergebnisse zunächst eine umfassende Fragebogenstudie erfolgen und im zweiten Schritt könnten überraschende Befunde in einer Interviewstudie zu Einzelfällen genauer beleuchtet werden. • Verallgemeinerungsdesign (auch: exploratory design): Es ist ebenfalls sequenziell, aber bei diesem Design ist die qualitative Forschung der quantitativen vorgeschaltet (QUAL -> quan, qual -> QUAN, QUAL -> QUAN). Dies ist beispielsweise der Fall, wenn zunächst in explorativer Absicht eine Studie einzelner Fälle durchgeführt und auf der Grundlage dieser Exploration dann ein Fragebogen entwickelt und bei einer weitreichenderen Stichprobe eingesetzt wird. Die quantitative Teilstudie dient dabei dem Ziel, die qualitativen Befunde zu verallgemeinern oder Zahlenangaben über einzelne Aspekte der qualitativen Befunde zu erhalten. • Das parallele Design (auch: triangulatory design): Es handelt sich nicht um ein sequenzielles Design, sondern um eins, das auf der Gleichzeitigkeit bzw. Parallelität einer qualitativen und einer quantitativen Teilstudie beruht (QUAL + quan, qual + QUAN und QUAL + QUAN). Hierbei bauen die Teilstudien nicht aufeinander auf, sondern sie werden unabhängig voneinander durchgeführt und erst danach werden beim Mixing die parallelen Ergebnisse und Schlussfolgerungen miteinander verglichen oder kontrastiert. Der aus beiden Teilstudien integrierte Forschungsbericht soll somit möglichst gut validierte Forschungsergebnisse erbringen. • Das Transferdesign (auch: embedded design): Es zeichnet sich dadurch aus, dass entweder qualitative Daten quantifiziert werden (wenn beispielsweise bei einer qualitativen Inhaltsanalyse Kodierungen ausgezählt werden) oder dass quantitative Daten qualifiziert werden (wenn beispielsweise nach einer Zeitmessung die metrischen Daten in verbale Angaben oder Kategorien überführt werden). Als Beispiel für eine zweitsprachdidaktische mixed-methods-Studie sei an dieser Stelle die Arbeit von Ricart Brede (2011) zur Sprachförderung in Kindertagesstätten kurz vorgestellt. Es handelt sich um zwei sequentielle Teilstudien, die in einer groben Annäherung dem Vertiefungsdesign (quan -> QUAL) zugeordnet werden können. In der ersten Teilstudie nimmt die Forscherin niedrig- bis mittelinferente Kodierungen von 48 Videoaufnahmen von Sprachfördereinheiten vor. Dabei werden Aktivitäten (wie Begrüßung/ Verabschiedung, Organisatorisches, Aufgabe mit bzw. ohne Spielcharakter, motorisch bestimmte Tätigkeit, Lied/ Vers, Arbeit mit Text/ Bild, mündliche Kommunikation und Sonstiges), Sozialformen (Gesamtgruppe-Dialog, Gesamtgruppe-Monolog, Partner-/ Kleingruppenarbeit und Einzelarbeit) sowie auch Sprachbereiche (phonologische Bewusstheit, Wortschatz, Grammatik, Gespräch, Erklären, Erzählen, Vorlesen/ Rezitieren) kodiert (s. Ricart Brede 2011: 124). In dieser ersten Teilstudie kann die Forscherin u. a. den chronologischen Ablauf einer typischen Sprachfördereinheit herausarbeiten. Für die zweite Teilstudie erfolgt aus den 625 auf diese Weise gebildeten Handlungssequenzen eine Stichprobenziehung von 40 Sequenzen, die einer hochinferenten (also stärker interpretativen) Analyse in Bezug auf bestimmte Qualitätsmerkmale von Sprachförderung wie sprachlicher Input der Sprachförderperson (z. B. wie Äußerungsfunktionen oder Umgang mit Fehlern), Intake der Kinder (z. B. Aufmerksamkeit) und sprachlicher Output der Kinder (z. B. Komplexität der Äußerungen) unterzogen werden. Mit Blick auf den mixed-methods-Charakter dieser Studie ist weiterhin anzumerken, dass
56
3. Forschungstraditionen der Fremdsprachendidaktik
diese Untersuchung in beiden Teilstudien mit der Quantifizierung von qualitativen (genauer gesagt videographischen) Interaktionsdaten arbeitet, sodass beide Teilstudien jeweils auch ein Transferdesign beinhalten. Dieser kurze Überblick deutet die vielfältigen Möglichkeiten an, die sich für fremdsprachendidaktische mixed-methods-Designs aus den unterschiedlichen Kombinationen von zeitlicher Anordnung, Gewichtung und Mischung ergeben. Zentrale Bedeutung hat bei Entscheidungen auf Designebene die Forschungsfrage, die vor dem Hintergrund des erreichten Forschungsstands in einem (oder an der Schnittstelle mehrerer) Forschungsfeld(er) formuliert wurde. Gerade bei Qualifikationsarbeiten und bei begrenzten Ressourcen sollte die Vielfalt der Möglichkeiten aber keinesfalls dazu verleiten, das Design allzu komplex zu gestalten.
3.3.6 Fazit und Ausblick Zusammenfassend ist festzuhalten, dass eine breitere methodologische Diskussion zu empirischen Fragen in der Fremdsprachendidaktik ab den 90er Jahren zu beobachten ist, in der die empirischen Erfahrungen wichtiger Bezugsdisziplinen verstärkt zur Kenntnis genommen werden. In der Auseinandersetzung mit diesen beginnt die Fremdsprachendidaktik in dieser Zeit verstärkt, erfolgreich um die Eigenständigkeit fremdsprachendidaktischer Forschung zu ringen (z. B. Müller-Hartmann/Schocker-von Ditfurth 2001). Trotz zahlreicher wichtiger Studien, die auf quantitativen Daten und statistischen Auswertungen beruhen, haben die Erhebung von qualitativen Daten und die interpretative Auswertung in der fremdsprachendidaktischen Empirie bisher deutlich mehr Aufmerksamkeit erfahren. Dies bedeutet mit Blick auf die Ausbildung von Nachwuchsforscher_innen für die Fremdsprachendidaktik zweifellos eine Herausforderung, die ebenfalls für die Weiterentwicklung des mixed-methods-Zugangs grundlegend ist. Das aktuelle Interesse der Fremdsprachendidaktik bzw. ihre intensive Beschäftigung mit empirischen Forschungsmethoden zeigt sich – nicht zuletzt im Zusammenhang mit der Verankerung entsprechender Ausbildungsangebote der Fremdsprachendidaktik im Zuge der mit der Bologna-Reform verbundenen Revision der entsprechenden Studiengänge – auch in zahlreichen aktuellen Publikationen zur Methodenlehre (s. die Einführungen von Doff 2012 und Settinieri et al. 2014 oder die Sammelbände mit spezifischerem Fokus von Aguado/Schramm/ Vollmer 2010 und Aguado/Heine/Schramm 2013). ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.) (2013). Introspektive Verfahren und Qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt a. M.: Peter Lang. Aguado, Karin/Schramm, Karen/Vollmer, Helmut Johannes (Hg.) (2010). Fremdsprachliches Handeln beobachten, messen, evaluieren. Neue methodische Ansätze der Kompetenzforschung und der Videographie. Frankfurt a. M.: Peter Lang.
3.3 Empirische Forschung
57
*Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDaF). Tübingen: Narr. [Referenzarbeit, Kapitel 7] *Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Doff, Sabine (Hg.) (2012). Fremdsprachenunterricht empirisch erforschen. Grundlagen – Methoden – Anwendung. Tübingen: Narr. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Europarat/Rat für kulturelle Zusammenarbeit (2001). Gemeinsamer europäischer Referenzrahmen für Sprachen: Lernen, lehren, beurteilen. München: Langenscheidt. [http://www.goethe.de/z/50/ commeuro/deindex.htm] (3. 12. 2015) Grotjahn, Rüdiger (1987). On the methodological basis of introspective methods. In: Faerch, Claus/Kasper, Gabriele (Hg.). Introspection in Second Language Research. Clevedon, PH: Multilingual Matters. *Haider, Barbara (2010). Deutsch in der Gesundheits- und Krankenpflege. Eine kritische Sprachbedarfserhebung vor dem Hintergrund der Nostrifikation. Wien: Facultas.wuv. *Helmke, Tuyet/Helmke, Andreas/Schrader, Friedrich-Wilhelm/Wagner, Wolfgang/Nold, Günter/Schröder, Konrad (2008). Die Video-Studie des Englischunterrichts. In: DESI-Konsortium (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz, 345 – 363. Henrici, Gert (1992). Rezension Kleppin, Karin/Königs, Frank G. (1991). Der Korrektur auf der Spur – Untersuchungen zum mündlichen Korrekturverhalten von Fremdsprachenlehrern. In: Deutsch als Fremdsprache 29(4), 248 – 250. *Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Ivankova, Nataliya V./Creswell, John W. (2009). Mixed methods. In: Heigham, Juanita/Croker, Robert A. (Hg). Qualitative Research in Applied Linguistics. A Practical Introduction. Houndmills, Basinstoke: Palgrave-Macmillan, 135 – 161. *Kleppin, Karin/Königs, Frank G. (1991). Der Korrektur auf der Spur – Untersuchungen zum mündlichen Korrekturverhalten von Fremdsprachenlehrern. Bochum: Universitätsverlag Dr. N. Brockmeyer. Klieme, Eckhard (2008). Systemmonitoring für den Sprachunterricht. In: Klieme, Eckhard (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim, Beltz, 1 – 10. [http://www.pedocs.de/volltexte/2010/3149/pdf/978_3_407_25 491_7_1A_D_A.pdf] (4. 12. 2015). Kuckartz, Udo (2014). Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer VS. *Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache: zum Nutzen eines Sensibilisierungsunterrichts im ‚DaFnE‘. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] *Minuth, Christian (1996). Freie Texte im Französischunterricht. Berlin: Cornelsen. Müller-Hartmann, Andreas/Schocker-von Ditfurth, Marita (Hg.) (2001). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr. *Özkul, Senem (2011). Berufsziel Englischlehrer/in. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Peuschel, Kristina (2012). Sprachliche Tätigkeit und Fremdsprachenlernprojekte. Fremdsprachliches Handeln und gesellschaftliche Teilhabe in radiodaf-Projekten. Baltmannsweiler: Schneider Verlag Hohengehren.
58
3. Forschungstraditionen der Fremdsprachendidaktik
*Rattunde, Eckhardt (1990). Poésie et écriture poétique. Möglichkeiten eines kreativen Umgangs mit poetischen Texten im Französsichunterricht (Chanson – comptime – poème). Berlin: Cornelsen. *Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen. Freiburg i.B.: Fillibach. Riemer, Claudia (2014). Forschungsmethodologie Deutsch als Fremd- und Zweitsprache. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 15 – 31. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] *Schmidt, Torben (2007). Gemeinsamens Lernen mit Selbstlernsoftware im Englischunterricht – Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen im Unterricht der Klasse 7. Tübingen: Narr. [Referenzarbeit, Kapitel 7] *Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. [Referenzarbeit, Kapitel 7] Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. München: Fink/ Schöningh. *Wernsing, Arnim Volkmar (1995). Kreativität im Französischunterricht. Berlin: Cornelsen.
»» Zur Vertiefung empfohlen Doff, Sabine (Hg.) (2012). Fremdsprachenunterricht empirisch erforschen. Grundlagen – Methoden – Anwendung. Tübingen: Narr. Dieser einführende Sammelband liefert Empirie-Noviz_innen hilfreiche Hinweise zu Vorüberlegungen zu einem Forschungsprojekt, zu Untersuchungsdesigns, zur Datenerhebung und -analyse. Zur Illustration und Vertiefung werden zahlreiche Erhebungs- und Analyseverfahren jeweils anhand eines Qualifikationsprojekts konkret im Zusammenhang mit Forschungsfrage und Design thematisiert. Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. München: Fink/Schöningh. Diese Einführung ist zwar spezifisch auf das Fach Deutsch als Fremd- und Zweitsprache bezogen, bietet jedoch zweifellos auch Leser_innen anderer fremdsprachendidaktischer Fächer einen verständlich geschriebenen, höchst lohnenswerten Einstieg in empirische Erhebungs- und Auswertungsmethoden. Auf Designebene werden insbesondere die Themen Methodologie, Gütekriterien, Triangulation und Planung empirischer Studien thematisiert.
4. Forschungsentscheidungen Karen Schramm
Ist eine grundsätzliche Entscheidung dahingehend gefallen, in welcher Forschungstradition (s. Kapitel 3) die eigene geplante Studie verortet werden soll, sind zahlreiche Überlegungen zur Anlage der Studie auf der Makroebene zu treffen. Wichtige Aspekte solcher Makroentscheidungen werden in diesem Kapitel thematisiert, während das darauffolgende Kapitel 5 die nachgeordneten Entscheidungen auf der Ebene der Gewinnung von Dokumenten, Texten und Daten sowie auch auf der Ebene von deren Aufbereitung und Analyse beleuchtet. In der empirischen Forschung steht auf Makroebene das zielgerichtete Zusammenspiel von Forschungsfrage und Auswahl des Erhebungskontexts, von Datentyp(en) sowie auch von Aufbereitungs- und Auswertungsverfahren im Zentrum der Überlegungen, während Fragen auf Mikroebene spezifischer auf Entscheidungen in Bezug auf Einzelaspekte der Erhebung oder der Aufbereitung und Analyse bezogen sind. Dabei ist zu berücksichtigen, dass ein Wechselspiel der Entscheidungen auf beiden Ebenen nicht nur unvermeidbar, sondern sinnvoll und gewinnbringend ist. Die Notwendigkeit, Entscheidungen beim Entwurf der eigenen Studie vielfach zu überdenken und zu verfeinern, sollte von Forschungsnoviz_innen deshalb keinesfalls als persönliches Scheitern, sondern als erfolgreiche Ausdifferenzierung eines Designs zur Beantwortung der Forschungsfrage gedeutet werden, das in einem anspruchsvollen – und dementsprechend auch anstrengenden – Prozess des Nachdenkens immer weiter an Gestalt und Qualität gewinnt. Auch Arbeiten in historischer oder theoretischer Tradition sind durch dasselbe Wechselspiel von Entscheidungen auf unterschiedlichen Ebenen betroffen. Dementsprechend haben auch bei solchen Studien viele Entscheidungen auf der Mikroebene, die in Kapitel 5 angesprochen werden, Rückwirkungen auf die Makroentscheidungen. Das Kapitel 4.1 zur Grundlage der eigenen Forschungsarbeit ist stark mit der Entscheidung für eine bestimmte Forschungstradition verknüpft. Hier ist eine (zunächst vorläufige) Weichenstellung bezüglich der Frage vorzunehmen, ob bzw. welche Daten, Dokumente oder Texte grundsätzlich dazu geeignet sind, der Forschungsfrage nachzugehen. Hieran schließen sich Entscheidungen für einen grob skizzierten Gang der Untersuchung bzw. im Fall von empirischen Studien für einen Design-Entwurf an. In Kapitel 3 wurden für die verschiedenen Forschungstraditionen charakteristische Vorgehensweisen bereits kurz angesprochen; diese gilt es für die eigenen Zielsetzungen genau zu prüfen, zu adaptieren und kreativ zu gestalten. Zu diesem Zweck stehen auch bestimmte etablierte Untersuchungsformen bereit, die – oft im Rahmen spezifischer Forschungsfelder oder theoretischer Schulen – gewissermaßen fest gefügte Ensembles von Makroentscheidungen als Substrat vorangegangener Untersuchungsentwürfe für das eigene forscherische Handeln zur Verfügung stellen (s.
60
4. Forschungsentscheidungen
dazu Kapitel 4.2). In Bezug auf solche Design-Vorlagen auf Makroebene wie beispielsweise die Fallstudie, die Aktionsforschung und das Forschungsprogramm Subjektive Theorien ist zu betonen, dass sie – wie jeder andere Projektentwurf auch – vor dem Hintergrund der Forschungsfrage als mögliche Handlungsoption kritisch zu hinterfragen und gegenstandsadäquat auszugestalten (sowie den Leser_innen explizit zu begründen) sind. Solche Makroentscheidungen können selbstverständlich nur in Abhängigkeit vom jeweiligen Forschungsstand getroffen werden. In besonderer Weise gilt dies für zwei Sonderfälle: die Entscheidung für eine Meta-Analyse oder für eine Replikationsstudie, welche beide in Kapitel 4.5 unter der Metapher des zweiten Blicks behandelt werden. Bei Metaanalysen ist ein sehr umfänglicher empirischer Forschungsstand vonnöten, damit auf dieser Grundlage eine Synthese der unterschiedlichen Befunde mithilfe statistischer Verfahren durchgeführt werden kann. Dabei wird gewissermaßen aus den Mosaiksteinchen zahlreicher Einzelstudien ein Gesamtbild zusammengesetzt. Die Replikationsstudie ist dagegen eher angezeigt, wenn bisher noch wenig Erkenntnis bzw. gesicherte Befunde bezüglich eines Untersuchungsgegenstands vorliegen und aus diesem Grund ein bestimmtes Design in einen anderen Kontext transferiert bzw. dort erneut oder in vergleichbarer Form durchgeführt wird. Spezielle Spielarten der vielfältigen Erscheinungsformen empirischer Forschung sind nicht nur durch die in Kapitel 3.3 thematisierte Frage von Rein- und Mischformen von Designs bestimmt, sondern ergeben sich auch aus verschiedenen Formen der Triangulation. Kapitel 4.4 stellt einführend die vielfältigen Entscheidungsalternativen in Bezug auf Daten-, Methoden-, Forscher_innen- und Theorientriangulation vor, die die Gestaltungsmöglichkeiten auf Makroebene teils begrifflich mit denen in Kapitel 3.3 diskutierten Optionen überlappen und teils wiederum erweitern. Unter dem Titel Sampling bietet Kapitel 4.3 zahlreiche Denkanstöße zu Auswahlentscheidungen an, die vor allem die Forschungspartner_innen bzw. die Stichprobenziehung betreffen. Sampling beinhaltet darüber hinaus durchaus aber auch weitere Selektionsprozesse, z. B. in Bezug auf die Vertiefung der Analyse bestimmter Datensätze oder die Präsentation ausgewählter Beispiele. An das Ende von Kapitel 4 zu den Makroentscheidungen haben wir das Ethikkapitel 4.6 gestellt, das das vorausschauende Abwägen bestimmter Handlungsalternativen unter Berücksichtigung des Schutzes der Forschungspartner_innen oder anderer Personen, Institutionen oder des Fachs sowie auch den reflektierten Umgang mit ethischen Dilemmata ergründet. Viele der hier angesprochenen Fragen, beispielsweise die Anonymität der Forschungspartner_innen oder die Frage des Feldzugangs, betreffen zwar die Datenerhebung und könnten damit auch der Mikroebene zugeordet werden; doch reichen die ethischen Entscheidungen auch in andere Phasen des Forschungsprozesses hinein (z. B. die kommunikative Validierung oder die Präsentation der Ergebnisse), sodass es stringent erscheint, sie an dieser Stelle im Verbund mit den anderen Entscheidungen auf Makroebene anzusprechen.
4.1 Texte, Daten und Dokumente als Forschungsgrundlage
61
Texte, Daten und Dokumente als
4.1
Forschungsgrundlage Michael K. Legutke
Ziel des folgenden Beitrags ist es, drei Schlüsselbegriffe zu bestimmen, deren Bedeutung in der Forschungsliteratur selten geklärt, sondern anscheinend als allgemein bekannt vorausgesetzt wird. Mit diesen Begriffen werden in der fremdsprachendidaktischen Forschung die Belege bezeichnet, die ihr als Forschungsgrundlage dienen. Während Daten nur in der empirischen Forschung Verwendung finden, sind Texte und Dokumente für alle drei Forschungstraditionen von Bedeutung: für die historische, die theoretische und die empirische Forschung (s. Kapitel 3).
4.1.1 Texte als Forschungsgrundlage Unabhängig davon, welcher Forschungstradition oder welchem Forschungsparadigma der Forscher oder die Forscherin verpflichtet ist, sie/ er wird auf jeden Fall (meist zu Beginn der Arbeit) das Vorhaben im wissenschaftlichen fremdsprachendidaktischen Diskurs verorten und dabei oftmals nicht nur einen Literaturbericht liefern (s. Kapitel 6.3), sondern bereits eigene Hypothesen entwickeln und Positionen formulieren, um den theoretischen Bezugsrahmen der Arbeit zu markieren. Grundlage solcher Bemühungen sind vorwiegend schriftliche wissenschaftliche Texte, wobei zwischen primären Texten (umfassende Studien) und sekundäre Texten (Zusammenfassungen und Überblicksdarstellungen) unterschieden wird (s. Kapitel 5.2.2). Neben primären und sekundären wissenschaftlichen Texten können auch andere Textgenres die Grundlage theoretischer Forschungsarbeiten bilden (s. Kapitel 3.2). Je nachdem welcher Teildisziplin der Fremdsprachendidaktik (z. B. Sprach-, Literatur-, Kultur- oder Mediendidaktik) die einzelne Forschungsarbeit zuzuordnen ist, werden bestimmte Textgenres eher als andere die Grundlage des Forschungsbemühens sein. Für kultur- und literaturdidaktische Arbeiten könnten beispielsweise klassische literarische Texte (Kurzgeschichten) oder multimodale literarische Texte (multimodale Jugendromane), Animationsfilme oder Lehrmaterialien die zentrale Forschungsgrundlage bilden. Aber angesichts der Komplexität des Gegenstandsbereichs und abhängig von der Fragestellung wird es meist darum gehen, ein Ensemble verschiedener Texte zusammenzustellen und auszuwerten.
4.1.2 Dokumente als Forschungsgrundlage Auch Dokumente sind Texte; sie unterscheiden sich jedoch von den oben genannten wissenschaftlichen Primär- und Sekundärtexten insofern, als sie nicht im Kontext wissenschaftlicher Arbeit entstanden sind, sondern einem anderen Zweck dienen. Der Begriff ‚Dokument‘ wird
62
4. Forschungsentscheidungen
dabei allgemein im Anschluss an McCulloch verstanden als „a record of an event or process“ (McCulloch 2011: 249). Dokumente können verschiedene Erscheinungsformen haben. Sie stehen nicht nur als gedruckte Texte, sondern in vielfältig medialen Realisierungen zur Verfügung (Bilder, Fotografien, Filme). In der fremdsprachendidaktischen Forschung werden Dokumente nach den Urhebern, nach dem Vertriebsweg und ihrer Zugänglichkeit unterschieden: offizielle Dokumente (z. B. Gesetze der Bundesländer, Stellungnahmen der Ständigen Konferenz der Kultusminister der Länder (KMK), Expertisen des Europarats, Lehrpläne), halboffizielle Dokumente (z. B. schulinterne Curricula, Arbeitspapiere von Lehrergruppen, Konferenzprotokolle, ‚graue Papiere‘) und private Dokumente (Tagebücher, Briefe, aber auch Stundenvorbereitungen von Lehrkräften oder Hausaufgaben der Schüler). Als öffentlich werden Dokumente dann bezeichnet, wenn sie in der einen oder anderen Form veröffentlicht wurden und deshalb leicht zugänglich sind. 1 Für die Fremdsprachenforschung von Interesse sind unter anderem die Dokumente, die als unterrichtsbezogene Produkte entstehen. Obwohl im öffentlichen Kontext Schule situiert, sind sie private Dokumente von Lehrenden und Lernenden. Ihr Spektrum reicht von unterschiedlichen schriftlichen und mündlichen Sprachhandlungsprodukten der Lehrkraft oder der Lernenden (schriftliche Unterrichtvorbereitungen, Tafelanschriebe, Plakate oder Präsentationen von Einzelnen und von Gruppen, Aufzeichnungen von Rollenspielen) über Bewertungen unterschiedlicher Provenienz (Verbalbeurteilungen, Kommentare zu Einzelarbeiten) bis hin zu Tagebuchnotizen (s. Kapitel 5.2.7). Für die historische Fremdsprachenforschung liefern Dokumente die entscheidende Forschungsgrundlage (Kapitel 3.1 und 5.3.1). Dokumentenanalyse kann jedoch auch ein Teil theoretischer Forschung sein oder im Kontext empirischer Studien erfolgen.
4.1.3 Daten als Forschungsgrundlage Auch Daten lassen sich mit der allgemeinen Definition „a record of an event or process“ (McCulloch 2011: 249) bestimmen. Diese Definition geht auf Gregory Bateson zurück, der wie folgt formulierte: „[…] ‚data‘ are not events or objects but always records or desricptions or memories of events or objects“ (Bateson 1973: 24). Was Daten jedoch von Dokumenten unterscheidet, ist ihre Entstehung, denn sie werden durch die eingesetzten Erhebungsverfahren erst hervorgebracht, d. h. sie werden geschaffen. Daten sind demnach das Produkt von Forschungshandlungen. Die Ausprägung von Daten kann entweder qualitativer oder quantitativer Art sein, ihr Inhalt wird durch die Forschungsfrage und die Datenquellen bestimmt. In der fremdsprachendidaktischen Forschung wird zwischen Primär-, Sekundär- und Tertiärdaten unterschieden. Primärdaten sind sprachliche Rohdaten (z. B. Videodaten einer Unterrichtsstunde, Ergebnisse eines Prä- oder Posttests). Sekundärdaten sind alle Verarbeitungsstufen der Rohdaten (z. B. kodierte Daten, Transkripte, skalierte Testergebnisse). Tertiärdaten schließlich sind alle Metadaten zu den vorangegangenen Datentypen (z. B. Angaben zum Kontext, zur Entstehungszeit; s. auch Kapitel 5.2.6; 5.3.8). 1 Eine differenzierte Begriffsklärung liefert das Kapitel 5.2.1 „Dokumentensammlung“. Hier wird auch der begriffliche Unterschied zwischen Dokumenten und Quellen erörtert.
4.1 Texte, Daten und Dokumente als Forschungsgrundlage
63
Häufig wird in der allgemeinen Forschungsliteratur nur zwischen Primär- und Sekundärdaten unterscheiden. Erstere bezeichnen dann Daten, die bei der Datenerhebung unmittelbar geschaffen werden, letztere hingegen solche, die von anderen Forschern oder von Institutionen erhoben wurden: Beispiele sind das Statistische Bundesamt, Statistische Landesämter, Ministerien, die OECD, die UNO, die Weltbank (vgl. O’Leary 2014: 243 – 273). Quantitative Daten sind das Ergebnis eines Transformationsprozesses, in dem Belege zu Sachverhalten, Ereignissen, Prozessen und Objekten in eine Zahlenform verwandelt werden. Man spricht deshalb auch von numerischen Daten. Sie bilden die Grundlage für den Einsatz statistischer Verfahren und sind das Herzstück einer quantitativ-hypothesenprüfenden Fremdsprachenforschung, die sich um objektiv überprüfbare und repräsentative Ergebnisse sowie validierbare Verallgemeinerungen bemüht (s. Kapitel 3.3). Datenquellen sind zum Beispiel Tests aller Art (Sprach-, Kompetenz- oder Intelligenztests), strukturierte und kontrollierte Messungen bestimmter Phänomene (Reaktionszeiten bei der Bearbeitung von OnlineAufgaben) oder Fragebögen. Quantitative Daten verdichten komplexe Zusammenhänge zu messbaren Einheiten. Eine vertiefende Einführung liefern die Kapitel 5.3.9 bis 5.3.11. Qualitative Daten sind Belege zu Sachverhalten, Ereignissen und Prozessen, die in unterschiedlicher Text- und Medienform die Grundlage rekonstruktiv-qualitativer Fremdsprachenforschung bilden. Ihre Interpretation liefert nicht repräsentative oder generalisierbare Erkenntnisse, sondern erschließt, was konkrete Menschen in spezifischen sozialen und institutionellen Kontexten tun, wie sie interagieren, wie sie ihr Handeln verstehen und bewerten. Folgende Datentypen seien hier als Beispiele, d. h. ohne Anspruch auf Vollständigkeit genannt. Die Bezeichnungen bieten eine grobe Orienteirung und sind nicht trennscharf:2
• Deskriptive Daten: Daten, die Verhalten von Menschen, Ereignisse, Institutionen und konkrete Settings repräsentieren. Erhoben werden diese durch Beobachtungen aller Art mit Hilfe von (Feld-)Notizen, Tagebüchern, Beobachtungsprotokollen. • Narrative Daten: Diese repräsentieren biographische und berufliche Erfahrungen. Erhebungsinstrument sind narrative Interviews. • Introspektionsdaten: Diese gestatten Einblicke in Gedanken und Gefühle der Forschungspartner, die der Beobachtung in der Regel nicht zugänglich sind. Erhoben werde solche Daten durch Verfahren des Lauten Denkens und Lauten Erinnerns (s. Kapitel 5.2.5). • Berichts- und Meinungsdaten: Diese machen zugänglich, was Menschen zu Situationen, Ereignissenn und Zusammenhängen sagen und/oder meinen. Sie werden u. a. durch Interviews erhoben (s. Kapitel 5.2.4). • Diskursdaten: Diese geben wieder, was Menschen in spezifischen Situationen wie zueinander sagen (z. B. im fremdsprachlichen Klassenzimmer). Erhebungsinstrumente sind hier Audio- und Videoaufzeichnung (s. Kapitel 5.3.5). Auch die oben genannten Dokumente, nämlich die unterrichtsbezogenen Produkte und Artefakte, werden in der Forschungsliteratur häufig als Datenquelle gefasst und somit den qualitativen Daten zugeschlagen (vgl. Zydatiß 2002). Eine solche Zuordnung ist insofern plausibel, als diese Produkte zwar als integrale Bestandteile des laufenden Unterrichts ent2 Einen tabellarischen Überblick über qualitative Datentypen mit Datenbeispielen bietet Holliday 2012: 62 – 63.
64
4. Forschungsentscheidungen
stehen und demnach nicht durch die Forschungsverfahren geschaffen werden. Sie sind jedoch durch die Forschungsfrage(n) aus diesem quasi naturwüchsigen Zusammenhang herausgehoben, werden besonders markiert und bestimmten Verfahren der Aufarbeitung und Analyse unterzogen. Die Grenze zwischen den Begriffen ‚Dokumente‘ und ‚Daten‘ ist bezogen auf diese Belege demnach fließend. Der Unterschied zwischen Daten (geschaffene Belege) und Dokumenten (unterrichtsbezogene Belege im Fokus einer Forschungsfrage) legt auf jeden Fall nahe, begrifflich zwischen dem Erfassen von Dokumenten und Erheben von Daten zu unterscheiden (s. Kapitel 5.2.6). Da für die empirische Fremdsprachenforschung prinzipiell vier Perspektiven unterschieden werden können, nämlich der „Blick auf die Produkte, die Akteure und die Lern- und Bildungsprozesse selbst“ (Bonnet 2012: 286) sowie auf die Kontexte (Kapitel 3.3), können auch Datenquellen und die aus ihnen gewonnenen Daten diesen vier Perspektiven zugeordnet werden. Eine solche Einteilung der Daten nach Produkt-, Personen-, Prozess- und Kontextdaten kann sich u. a. als funktional für das Datenmanagement (s. u.) erweisen. Die Ausprägung dieser Daten kann je nach Forschungsansatz entweder qualitativer oder quantitativer Natur sein. In Studien, die quantitativ-hypothesenprüfende und qualitativ-rekonstruktive Ansätze kombinieren, werden beide Datenarten nebeneinander vertreten sein.
4.1.4 Texte, Dokumente und Daten im Verbund: zwei Beispiele Dass sich für empirische Arbeiten in der fremdsprachendidaktischen Forschung besondere Chancen eröffnen, wenn sie auf alle drei Belegtypen im Verbund zugreifen, soll anhand der Arbeit von Britta Freitag-Hild (2010) erläutert werden. Freitag-Hild verfolgt die These, dass das kulturwissenschaftliche Konzept der Transkulturalität nicht nur geeignet ist, kulturelle Komplexität und Hybridität deskriptiv zu erfassen, sondern auch die Grundlage für die Konzeption von Unterrichtseinheiten bietet (Bestimmung von Inhalten, Lernzielen, Textauswahl, Auswahl und Integration von Aufgaben), die Lernende für kulturelle Vielstimmigkeit sensibilisieren. Die Verfasserin entwickelt zunächst ein theoretisch fundiertes Unterrichtsmodell zu British Fictions of Migration, das dann in drei Fallstudien im Literaturunterricht der Sekundarstufe II konkretisiert und auf seine Leistungsfähigkeit in Hinblick auf die angestrebte Sensibilisierung untersucht wird. Unterrichtsgegenstand sind ein Spielfilm und zwei Romane. Die qualitativ-explorative Untersuchung der Unterrichtsprozesse über mehrere Wochen führt die Verfasserin zu einer Neukonzeption des zunächst theoretisch entwickelten Unterrichtsmodells. Für die theoretische Fundierung und Konzeptualisierung des Unterrichtsmodells bilden sowohl kulturwissenschaftliche und kultur- bzw. literaturdidaktische theoretische Primär- und Sekundärtexte die Forschungsgrundlage als auch literarische Texte unterschiedlicher Genres (Kurzgeschichten, Romane) und Filme, die auf ihr didaktisches Potenzial im Sinne der übergeordneten Fragestellung analysiert werden. Für die unterrichtsbezogene Aufbereitung der Analyseergebnisse wertet die Verfasserin weitere Texte aus, die sie mit den ausgewählten literarischen Texten und Filmen zu intertextuellen Arrangements als Arbeitsgrundlage im
4.1 Texte, Daten und Dokumente als Forschungsgrundlage
65
Unterricht verknüpft. Die Erörterung des didaktischen Potentials erfolgt schließlich in Verbindung mit der Analyse offizieller Dokumente staatlicher Institutionen (Lehrpläne, Bildungsstandards, Einheitliche Prüfungsanforderungen im Abitur). Datenquellen der drei Fallstudien sind das Unterrichtsgeschehen und insbesondere die Interaktionsprozesse, die beobachtet und audiovisuell aufgezeichnet werden. Freitag-Hild erhebt Daten zu Lehrer-Schüler-Interaktionen, Unterrichtsgesprächen, Phasen der Gruppenarbeit sowie zur Vorbereitung von Rollenspielen in Gruppen. Forschungsgrundlage sind ferner eine Vielzahl von Produkten dieser Interaktionsprozesse, also Dokumente des laufenden Unterrichts wie Lernertexte (interpretative und kreative Schreibprodukte, Poster, Collagen, Rollenspiele) und Klausuren (Vorschläge der Forscherin, Klausuraufgaben der Lehrkraft sowie ausgewählte Klausurbeispiele von Schülern). Die Außenperspektive der Forscherin auf die Prozesse und ihre Produkte (festgehalten durch Beobachtungsprotokolle) werden ergänzt und differenziert durch die Innenperspektive der Akteure (Lehrkräfte und Lernende). Diese Datenquellen werden durch retrospektive Interviews nach einzelnen Stunden und am Ende der Unterrichtseinheiten erschlossen. Auch wenn Freitag-Hilds Arbeit deutlich macht, wie für die Beantwortung bestimmter Forschungsfragen die Verschränkung vieler Datenquellen, Texte und Dokumente in besonderer Weise zielführend sein kann, ist damit nicht gesagt, fremdsprachendidaktische Forschung müsse stets derart breit und mehrmethodisch angelegt sein. Als Gegenbeispiel kann die Referenzarbeit von Michael Schart (2003) dienen. Die Studie beschäftigt sich mit dem subjektiven Verständnis des Projektunterrichts bei Lehrenden für Deutsch als Fremdsprache im universitären Kontext und benutzt neben primären und sekundären Texten zwei Datenquellen: In einem mixed-methods-Ansatz verknüpft Schart quantitative Daten, die aus einer Fragebogenerhebung gewonnen wurden, mit qualitativen Daten aus problemorientierten, halbstandardisierten Interviews.
4.1.5 Organisation und Überprüfbarkeit der Belege Wie die verschiedenen Belegtypen gesammelt, organisiert und/oder katalogisiert werden müssen, hängt nicht zuletzt von den Forschungstraditionen ab, denen die Studie verpflichtet ist, und den jeweiligen Forschungsverfahren. Möglichkeiten des Datenmanagements werden im Kapitel 5.3 „Aufbereitung und Analyse von Dokumenten, Texten und Daten“ dieses Handbuchs in den jeweiligen Teilkapiteln angesprochen. Eine klare Organisation der Belege ist nicht nur aus forschungspraktischen Gründen von großer Wichtigkeit, sondern schafft auch die Voraussetzung dafür, dass die Auswahl von Texten und Dokumenten von anderen Forschenden nachvollzogen, dass Daten überprüft werden bzw. als Grundlage weiterer Forschungen, etwa in Metastudien (s. Kapitel 4.5), genutzt werden können. Sofern es sich um wissenschaftliche Primär- und Sekundärtexte und um offizielle Dokumente handelt, garantiert die genaue bibliographische Angabe die Überprüfbarkeit. Weniger klar ist die Sachlage für halboffizielle und vor allem für private Dokumente. In solchen Fällen kann es sinnvoll sein, die Belege unter Berücksichtigung forschungsethischer Prinzipien (s. Kapitel 4.6) als Anhänge zu den Forschungsarbeiten zugänglich zu machen.
66
4. Forschungsentscheidungen
Besondere Aufmerksamkeit verlangen qualitative und quantitative Daten. Sie müssen nicht nur für das jeweilige Projekt organisiert werden, sondern sollten im Sinne der Grundsätze zum Umgang mit Forschungsdaten der Allianz der deutschen Wissenschaftsorganisationen (Allianz 2010) und der DFG Denkschrift: Sicherung guter wissenschaftlicher Praxis (DFG 1998) gesichert und aufbewahrt werden. Die Empfehlung 7 „Sicherung und Aufbewahrung von Primärdaten“ dieser Denkschrift lautet: „Primärdaten als Grundlagen für Veröffentlichungen sollen auf haltbaren und gesicherten Trägern in der Institution, wo sie entstanden sind, zehn Jahre lang aufbewahrt werden“ (DFG 1998: 21). Wie diese Empfehlungen im Einzelnen in die Praxis umgesetzt werden, hängt von den Regeln ab, die sich Forschungsinstitutionen, Universitäten, Fachbereiche oder Institute gegeben haben. Verpflichtende Strukturen und Formen der Datenarchivierung existieren in Deutschland nicht (s. Klump, o. J.). ›› Literatur Allianz der deutschen Wissenschaftsorganisationen (2010). Grundsätze zum Umgang mit Forschungsdaten. [http://www.allianzinitiative.de/de/handlungsfelder/forschungsdaten/grundsaetze.html]. Bateson, George (1973). Steps to an Ecology of Mind. Collected Essays in Anthropology, Psychiatry, Evolution and Epistomology. London: Granada Publishing. Bonnet, Andreas (2012). Von der Rekonstruktion zur Integration: Wissenssoziologie und dokumentarische Methode in der Fremdsprachenforschung. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen. Grundlagen. Methoden. Anwendung. Tübingen: Narr, 286 – 305. DFG (1998). Denkschrift: Sicherung Guter Wissenschaftlicher Praxis. Weinheim: WILEY-VCH Verlag GmbH. [http://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp/index.html]. Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT. Holliday, Adrian (2012). Doing and Writing Qualitative Research. 2nd edition. Los Angeles: SAGE. Klump, Jens (o. J.). Wissenschaftliche Primärdaten. In: Nestor Handbuch. Eine kleine Enzyklopädie der digitalen Langzeitarchivierung. Niedersächsische Staats- und Universitätsbibliothek: Göttingen, Kapitel 15, 54 – 63. [http://nestor.sub.uni-goettingen.de/handbuch/artikel/nestor_handbuch_artikel_275.pdf]. McCulloch, Gary (2011). Historical and Documentary Research in Education. In: Cohen, Louis/Manion, Lawrence/Morrison, Keith (Hg.). Research Methods in Education. 7. Auflage. London: Routledge, 248 – 255. O’Leary, Zina (2014). Doing Your Research Project. 2nd Edition. Los Angeles: SAGE. Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren [Referenzarbeit, Kapitel 7]. Zydatiß, Wolfgang (2002). Leistungsentwicklung und Sprachstandserhebungen im Englischunterricht. Methoden und Ergebnisse der Evaluierung eines Schulversuchs zur Begabtenförderung : Gymnasiale Regel- und Expressklassen im Vergleich. Frankfurt: Peter Lang.
4.2 Prototypische Designs
67
Prototypische Designs
4.2
Daniela Caspari
Wie in der Einleitung zu Kapitel 4 bereits erwähnt, bedingen bestimmte Forschungsentscheidungen einander, während andere voneinander weitgehend unabhängig sind. So stellt die Wahl einer bestimmten Forschungstradition eine richtungsweisende Vorentscheidung für geeignete Erhebungs- und Auswertungsverfahren dar, die dann je nach Forschungsfrage und Gegebenheiten ausgewählt und miteinander kombiniert werden können. Auch innerhalb der empirischen Forschungstradition stellt die Entscheidung für ein bestimmtes Paradigma (qualitativ – quantitativ – mixed methods) eine Vorentscheidung für die Auswahl der verwendbaren Forschungsinstrumente dar (z. B. Fragebogen nur mit geschlossenen Fragen versus Fragebogen mit teiloffenen und offenen Fragen, quantitative versus qualitative Inhaltsanalyse). Im Laufe der Zeit hat sich insbesondere innerhalb der quantitativ-empirischen Forschungstradition eine Reihe von festen Elementen und Abfolgen herausgebildet, die sich für bestimmte Zielsetzungen besonders gut eignen, z. B. für experimentelle Forschung, Evaluationsforschung oder Implementationsforschung. Eine solche Kombination bestimmter Erhebungs-, Aufbereitungs- und Auswertungsverfahren im Kontext eines bestimmten Forschungsansatzes bzw. für eine bestimmte Zielsetzung wird auch als „komplexes Design“ bezeichnet. In der qualitativen Forschungstradition gibt es im Rahmen bestimmter Forschungsansätze ebenfalls solche festgelegten Kombinationen, z. B. die Grounded Theory oder die Dokumentarische Methode (s. Kapitel 5.3.3). In diesem Kapitel werden drei Designs vorgestellt, die als komplexe, relativ fest gefügte Ensembles einen forschungsmethodologischen und forschungsmethodischen Rahmen für bestimmte Zielsetzungen und Absichten bieten, ohne sich eindeutig dem qualitativen oder quantitativen Paradigma zuzuordnen. Ausgewählt wurden drei unterschiedliche Designs, die innerhalb der pädagogischen und fachdidaktischen Forschung für ganz unterschiedliche Absichten stehen: 1. Fallstudien verfolgen das Ziel, einzelne Personen, Gruppen oder Institutionen in ihrer Komplexität zu erfassen. Sie gehen davon aus, dass sich in diesen Einzelfällen allgemeinere Strukturen manifestieren. 2. Das Forschungsprogramm Subjektive Theorien (FST) ist ein theoretischer und methodologischer Ansatz, mit dem individuelle Kognitionen und Argumentationen von Menschen erhoben, rekonstruiert und – in der weiten Fassung des Programms – an der Realität überprüft werden können. 3. Die Aktionsforschung bietet Praktiker/innen ein zyklisches Verfahren, alleine oder in Zusammenarbeit mit Kolleg/innen oder Forscher/innen ihren Unterricht systematisch zu erforschen und im Prozess der Erforschung zu verändern. In der forschungsmethodischen Literatur gibt es weder einen festen Oberbegriff noch eine einheitliche ‚Einordnung‘ für diese Ansätze, man findet sie z. B. unter styles of educational research (Cohen/Manion/Morrison 2011) oder unter research design issues (Nunan/Bailey 2009). Häufig werden sie mit „approach“ bzw. „research approach“ (Nunan/Bailey 2009,
68
4. Forschungsentscheidungen
Hitchcock/Hughes 1995, Heighman/Croker 2009) bezeichnet. Unter Forschungsansatz bzw. approach versteht Lamnek (2010: 272 – 273) eine vielschichtige methodische Vorgehensweise, die methodologisch zwischen einem methodologischen Paradigma und einer konkreten Erhebungstechnik angesiedelt ist. Der hier gewählte Begriff „Design“ soll die Gesamtheit und das funktionale Zusammenspiel der für die Erreichung des Forschungsziels notwendigen Einzelelemente betonen; „prototypisch“ deswegen, weil sie alle drei typische Ziele pädagogischen bzw. fachdidaktischen Forschens verfolgen und beispielhaft in ein Design umsetzen. Daher ist mit diesem Kapitel auch keinesfalls eine vollständige Darstellung solcher „besondere[r] Forschungsansätze“ (Riemer 2014) beabsichtigt. Vielmehr soll an drei in der fremdsprachendidaktischen Forschung häufig verwendeten Designs auf diese methodologische Besonderheit aufmerksam gemacht werden.
4.2.1 Fallstudie Fallstudien (engl. case studies) stehen in der Tradition enthnografischer Forschungsansätze. Während sie in den deutschsprachigen Erziehungswissenschaften bishlang eher ein „Mauerblümchendasein“ fristen (Lamnek 2010: 272), kommt ihnen in den Untersuchungen zum Erstund Zweitsprachenerwerb sowie in der englischsprachigigen erziehungswissenschaftlichen Forschung seit den 1970er Jahren eine große Bedeutung zu. Bislang gibt es keinen einheitlichen Begriffsgebrauch (Fatke 2010: 161, vgl. auch die Zusammenstellung unterschiedlicher Definitionen in Nunan/Bailey 2009: 161). Zentrales Merkmal ist die Konzentration auf einzelne Einheiten wie Menschen, Gruppen oder Organisationen, d. h. Individuen in einem sozialwissenschaftlichen Sinn (Lamnek 2010: 273). Unterschieden werden sie nach drei Kriterien:
• Einzelfallstudien und Studien mit mehreren Fällen (multiple Fallstudien), • holistische Studien (der einzelne Fall wird in seiner Gänze und unter Einbeziehung des Kontextes untersucht) und eingebettette (embedded) Studien (der einzelne Fall wird ausschnitthaft in Bezug auf einen übergeordneten Fall untersucht), • beschreibende Fallstudien (Darstellung des Falles in seiner Komplexität) und erklärende Fallstudien (Klärung von Kausalbeziehungen). Innerhalb des quantitativen Forschungsparadigmas können Fallstudien vor oder nach einer quantitativ orientierten Studie zur Exploration oder zur Entwicklung von Hypothesen bzw. zur Illustration oder zur Überprüfung der Praktikabilität ihrer Ergebnisse eingesetzt werden (Lamnek 2010: 276 – 284). Als eigenständige Forschungsmethode ist das Haupteinsatzgebiet von Fallstudien jedoch die qualitative, d. h. explorativ-interpretative Forschung (s. Kap. 3.3). Man geht davon aus, dass sich in Einzelfällen über das ihnen Spezifische hinaus generellere Strukturen manifestieren, so dass sich „[a]us dem Besonderen eines Einzelfalls […] stets noch anderes von allgemeiner Relevanz ableiten [lässt], als nur das, was dem Theoretiker in seinen kategorialen Blick gelangt“ (Fatke 2010: 167). Als Vorteile gelten insbesondere der hohe Grad an Vollständigkeit und die Tiefe der Analyse, die Integration vielfältiger Sichtweisen und Interpretationen sowie die Möglichkeit, dass die Leser/innen im dargestellten Fall ihre Wirklichkeit wiedererkennen
4.2 Prototypische Designs
69
und daraus Erkenntnisse gewinnen können (vgl. Nunan/Bailey 2009: 166 – 167). Wichtig ist daher eine vielschichtige, offene Herangehensweise, wobei die Methodentriangulation zugleich eine relative Gewähr biete, Methodenfehler vergleichend zu erkennen bzw. zu vermeiden (Lamnek 2010: 273). Grundlage der Forschung ist die gezielte Auswahl des Falls bzw. der Fälle (‚typische‘ Fälle vs. gezielt abweichende oder extreme Fälle, vgl. auch Kapitel 4.3). In Studien mit mehreren Fällen folgt der individuellen Auswertung häufig ein Fallvergleich mit dem Ziel der Erfassung der überindividuellen Phänomene sowie einer Typisierung (Lamnek 2010: 291 – 292, zur Typenbildung vgl. auch Kapitel 5.3.5). Fallstudien in der Fremdsprachendidaktik
Auch in der deutschsprachigen Fremdsprachendidaktik erfreut sich der Einsatz von Fallstudien großer Beliebtheit. Neben den vielen Studien zum Zweit- und Fremdsprachenerwerb existiert eine Fülle von kleineren und größeren Untersuchungen, die in der Datenbank des ifs (Informationszentrum Fremdsprachenforschung) als „Fallstudie“ klassifiziert werden. Diese Beliebtheit dürfte nicht nur daran liegen, dass dieses Design eine Möglichkeit darstellt, der Faktorenkomplexion des Lehrens und Lernens von Sprachen gerecht zu werden, sondern vor allem daran, dass „die Einzelfallstudie als elementarer Baustein jeder qualitativen Studie anzusehen ist, denn eine qualitative Befragung von dreißig Personen etwa besteht aus dreißig Einzelfallstudien, die sich der gleichen Erhebungstechnik bedienen und analytisch miteinander verbunden sind“ (Lamnek 2010: 285). Häufig werden auch einzelne Fälle etwa aus einer umfangreicheren (Interview-) Studie vorab veröffentlicht. Für die Auswahl eines Beispiels aus der Fremdsprachendidaktik wurde daher ein engeres Verständnis von Fallstudie zugrunde gelegt: Fallstudie verstanden als eine mehrmethodische Untersuchung unterschiedlicher Konstituenten eines oderer mehrerer komplexer Fälle. Beispiele hierfür sind u. a. die Studien von Biebricher (2008), Bär (2009), Burwitz-Melzer (2003), Freitag-Hild (2010), Grünewald (2006), Kimes-Link (2013), Roters (2012), Peuschel (2012), Schubert (2013), Steininger (2014) und Tesch (2010). Grünewald (2006) konzipiert seine Untersuchung zur subjektiv wahrgenommenen Wirkung verschiedener Computeranwendungen im spanischen Anfangsunterricht aufgrund der zugrunde gelegten konstruktivistischen Auffassung von Fremdsprachenlernen (ebda.: 21 – 53) als Fallstudie. Um den Motivationsverlauf und den selbst eingeschätzten Lernfortschritt von Schüler/innen aus drei neunten Klassen (n=60) zu erheben, verwendet er unterschiedliche Instrumente: Eingangsfragebogen, strukturiertes Lerntagebuch mit Motivationskurven, Abschlussfragebogen und Leitfadeninterviews mit 15 ausgewählten Schüler/innen. Grünewald versteht die Falldarstellung als „Methode“, die bereits mit der Datenaufbereitung und der Fallanalyse beginnt (vgl. ebda.: 167 – 168). Daher verfolgt die Auswertung der Daten mit Hilfe des Transkriptionsprogramms MAXQDA das Ziel, jeden einzelnen Fall möglichst individuell zu erfassen. Um diesem Anspruch gerecht zu werden, wurden die Kategorien aus dem Material entwickelt und es wurden zu jedem/jeder Lerner/in zusätzlich zu den Daten aus den Interviews die Daten aus den anderen Untersuchungsinstrumenten mit kodiert. Ausgewählt wurden schließlich sechs Fälle (zu den Auswahlkriterien vgl. ebda.: 151 – 152), die auf jeweils gut 20 Seiten dargestellt und in einer vergleichenden Synopse zusammengestellt werden. Die in Form von „zusammenfassenden Thesen“ dargestellten Ergebnisse beruhen ausschließlich
70
4. Forschungsentscheidungen
auf diesen sechs Fällen. In der abschließenden Reflexion kommt Grünewald zu dem Schluss „dass methodisch kontrollierte Einzelfalldarstellung[en] mehr können, als Theorien zu veranschaulichen oder zu überprüfen. Sie können auch mehr als nur Hypothesen für weitere […] Forschung generieren: Sie tragen zur Gewinnung neuer wissenschaftlicher Erkenntnisse und damit letztendlich zur Theoriebildung bei“ (ebda.: 316). Die Studie von Rauschert (2014) ist ein Beispiel für ein Design, das Fallstudie und Aktionsforschung (Abschnitt 3) verknüpft. Ausgehend von dem bisher nur in der Pädagogik bekannten Unterrichtsansatz des Service Learning setzt sich die Arbeit mit der Frage auseinander, wie im Englischunterricht in der gymnasialen Mittelstufe durch Projektarbeit, die fachspezifische Ziele und Inhalte mit sozialem Engagement verbindet, interkulturelle und kommunikative Kompetenzen gefördert werden können. Ausgehend von Byrams Modell (Byram 1997) der interkulturellen kommunikativen Kompetenz und dem Leitgedanken des Service Learning gestaltet die Verfasserin ein Projekt in einer 10. Klasse, in dessen Rahmen die Schüler/innen in Zusammenarbeit mit indischen Schüler/innen ein Magazin zum Thema „Happiness“ erarbeiten und produzieren, dessen Erlös einer indischen Schule zugute kommt. Rauschert diskutiert den „action research cycle“ anhand ihres eigenen Projekts (Rauschert 2014: 161 – 166). Dabei reflektiert sie ihre eigenen Rollen als Forscherin und Lehrerin und setzt sich mit kritischen Einschätzungen dieses Forschungsansatzes auseinander. Somit wird deutlich, dass die Wahl des forscherischen Vorgehens getragen ist von genauer Kenntnis des Ansatzes in seinen Schwächen und Stärken, von nachvollziehbaren Überlegungen zur Passung von Forschungsthema, Fragestellungen und Methode und von (selbst-)kritischer Reflexion der eigenen Rolle. In den einzelnen Projektphasen werden unterschiedliche Formen der Datenerhebung eingesetzt, zu denen erstens ein Fragebogen im Pretest-Posttest-Format zur Feststellung interkultureller Fähigkeiten, Kenntnisse sowie Einstellungen, zweitens drei Befragungen der beteiligten Schüler/innen in Form von Interviews, drittens eine (simulierte) Pressekonferenz, viertens eine freie Textproduktion (Portfolio) und schließlich eine schriftliche Abschlussbefragung ein Jahr nach dem Projekt zählen. Alle Formen der Datenerhebung werden im Hinblick auf die Gütekriterien empirischer Forschung genau analysiert. Der eingesetzte Fragebogen wurde sowohl mit einer großen Stichprobe pilotiert als auch einem Expertenrating unterworfen.
4.2.2 Forschungsprogramm Subjektive Theorien (FST) Das zentrale Ziel qualitativer Forschung ist die Erhebung der Innen- bzw. Binnensicht der Forschungspartner/innen. Dazu gibt es eine Reihe von Konzepten und Zugängen, z. B. die Erforschung von Einstellungen (attitudes), Überzeugungen (beliefs), Wissen (knowledge) oder persönliche Konstrukten (personal constructs) bzw. Konzepten (conceptions). In der deutschsprachigen fremdsprachendidaktischen Forschung wurde der vergleichsweise weit gefasste, integrative Ansatz der „subjektiven Theorien“ besonders populär. Hauptvertreterin dieses Ansatzes im deutschsprachigen Raum ist eine Gruppe um Norbert Groeben, die in den 1970er und 80er Jahren das „Forschungsprogramm Subjektive Theorien“ (FST) (Groeben et al. 1988, s. im Folgenden auch Scheele/Groeben 1998) entwickelte. Dieses theoretisch und methodisch ausgereifte, anspruchsvolle Modell geht von der sog. „Struk-
4.2 Prototypische Designs
71
turparallelität“ des Denkens aus, d. h. davon, dass Forscher/innen und Forschungspartner/- innen prinzipiell die gleichen Denkstrukturen und -prozesse verwenden, die zum Aufbau von „Subjektiven Theorien“ führen. Damit werden relativ stabile Denkinhalte und -strukturen bezeichnet, die sich auf die eigene Person, auf andere Personen und die übrige Welt beziehen können. Sie können sowohl aus bewussten wie auch aus impliziten, dem Bewusstsein der Personen nicht zugänglichen Kognitionen bestehen und weisen eine zumindest implizite Argumentationsstruktur auf. In Analogie zu wissenschaftlichen Theorien dienen sie u. a. dazu, Situationen zu definieren, Sachverhalte zu erklären, Vorhersagen zu treffen oder Handlungsentwürfe und -empfehlungen zu konstruieren. Im FST wird Subjektiven Theorien zudem eine zumindest potenziell handlungsleitende Funktion zugeschrieben. In der sog. „engen Begriffsexplikation“ werden zwei weitere Anforderungen an Subjektive Theorien gestellt: Sie müssen im „Dialog-Konsens“ zwischen Forscher/in und Forschungspartner/in rekonstruierbar sein, d. h. es soll durch eine nachträgliche kommunikative Validierung sichergestellt werden, dass die erhobene Subjektive Theorie adäquat verstanden und rekonstruiert worden ist. Zudem soll durch eine „explanative“ oder Handlungsvalidierung festgestellt werden, ob die rekonstruierte subjektive Theorie auch tatsächlich handlungsleitend und damit als ‚objektive‘ Theorie gültig ist. In dieser weiten Explikation vermag das FST zur „Überwindung des unfruchtbaren Gegensatzes von sog. qualitativer und quantitativer Forschung beizutragen“ (Grotjahn 1998: 34). Das FST in der Fremdsprachendidaktik
Das FST stellt die Grundlage zahlreicher Studien zur Erhebung der Binnensicht von Lerner/innen und Lehrer/innen dar. Die Feststellung von Schart (2001:56), dass man „zumindest im deutschen Sprachraum nicht umhin [komme], den eigenen Ansatz [dazu] in Bezug […] zu setzen“ gilt bis heute. Dabei legen nur wenige Arbeiten die enge Begriffsexplikation zugrunde (u. a. Richert 2009, Lochtman 2002). Wesentlich häufiger wird auf die weite Explikation rekurriert (u. a. von Martinez 2008, Schart 2003, Hochstetter 2011, Hüttner/Dalton-Puffer 2013), nicht selten zuzüglich der kommunikativen Validierung (u. a. Berndt 2003, Kallenbach 1996, Morkötter 2005, Viebrock 2007). Zwar beklagt Grotjahn (1998: 34), dass das FST „häufig in einer sehr vagen und allgemeinen Bedeutung sowie ohne hinreichende theoretische Verankerung verwendet wird“. Trotzdem kam und kommt ihm vor allem als Prototyp in dem Sinne, dass von Forscher/innen in Auseinandersetzung mit dem FST eine individuelle, gegenstandsbezogene Forschungsmethodik für die eigene Forschungsfrage entwickelt wird, eine hohe Bedeutung für die forschungsmethodologische Diskussion innerhalb der Fremdsprachendidaktik zu. Als Anwendungsbeispiel sei die eng an die Methodik des FST angelehnte, häufig zitierte Arbeit von Kallenbach (1996) skizziert. Sie untersucht die individuellen Vorstellungen von fortgeschrittenen Fremdsprachenlerner/innen. Um diese subjektiven Theorien mittlerer Reichweite zu erheben, führte sie „halbstrukturiert-leitfadenorientierte“ Interviews mit insgesamt 14 Schüler/innen aus verschiedenen 12. Klassen, die seit einem guten Jahr zusätzlich Spanisch lernten. Aus den Interviews erstellte die Verfasserin eine erste Rekonstruktion der individuellen subjektiven Theorien. Diese wurden anschließend mit Hilfe der Heidelberger Strukturlege-Technik kommunikativ validiert. Dazu erstellten die Schüler/innen aus den von
72
4. Forschungsentscheidungen
der Verfasserin ausgewählten und auf Kärtchen notierten zentralen Begriffen aus den Interviews mit Hilfe von zehn Relationskärtchen (z. B. „Wechselwirkung“, „Folge, Konsequenz“, „Ober-/Unterbegriff“ oder „Beispiel“) ein Strukturbild, das ihre Subjektive Theorie möglichst genau wiedergibt. Die Strukturbilder boten zum einen Anlass, im Gespräch bestimmte Aspekte erneut zu thematisieren, außerdem wurden sie später den in den Interviews entwickelten Argumentationen gegenübergestellt, so dass sich Hinweise auf die Konsistenz der erhobenen Theorien ergaben. Zusätzlich füllten die Schüler/innen zwischen Interview und kommunikativer Validierung einen fünfseitigen Fragebogen mit Fragen zu ihrem Fremdsprachenlernen aus, den die Verfasserin punktuell als Zusatzinformation heranzog. Fünf der subjektiven Theorien wurden als einzelne Fälle dargestellt, zusätzlich wurden die zentralen, von allen Gesprächspartner/innen thematisierten Aspekte des Fremdsprachenlernens interviewübergreifend zusammengestellt („aggregiert“).
4.2.3 Aktionsforschung Mit der 1990 erschienenen Erstauflauge des Buches „Lehrer erforschen ihren Unterricht“ (Altrichter/Posch 1990) etablierte sich die Aktionsforschung (action research) oder Handlungsforschung bzw. die häufig als Synonyme verwendeten, eng damit verbundenen Konzepte der Praxisforschung und teacher research auch im deutschsprachigen Raum. Sie bietet die Möglichkeit, Theorie und Praxis in der Forschung untrennbar miteinander zu verbinden (zum Verhältnis von Theorie und Praxis siehe auch Kapitel 6.2). Grundgedanke ist die Vorstellung von Lehrer/innen als reflektierenden Praktiker/innen, die aktiv und systematisch ihren Unterricht erforschen und im Forschungsprozess verändern wollen. Aktionsforschung kann in unterschiedlichen Kontexten angewandt werden: als Instrument der Aus- und Fortbildung (vgl. Hermes 2001, z. B. in der Studie von Benitt 2015), als Verfahren, um (selbstbestimmt) den eigenen Unterricht zu verändern, als Verfahren zur Unterrichts- und Schulentwicklung (vgl. Weskamp 2003), als Schulbegleitforschungsprojekt für die Konkretisierung und Erprobung bildungspolitischer Innovationen (z. B. AbendrothTimmer 2007, Bechtel 2015), als Instrument zur Implementation von Forschungsergebnissen in der Praxis (vgl. Riemer 2014: 257) sowie als Instrument zur Erprobung und ggf. Weiterentwicklung wissenschaftlicher Erkenntnisse in der Praxis (z. B. Even 2003, Jäger 2011, Lamsfuß-Schenk 2008, Schart 2008, Müller-Hartmann/Schocker/Pant 2013, Schreiber 2010, Raith 2011). Normalerweise werden die Ergebnisse von Aktionsforschungsprojekten nur im letzten Fall veröffentlicht, die anderen stehen der Öffentlichkeit zumeist nicht zur Verfügung. Allerdings folgt die Aktionsforschung auch in weiteren Aspekten nicht unbedingt den traditionellen Kriterien wissenschaftlicher Forschung bzw. definiert sie teilweise neu (vgl. Altrichter 1990, Altrichter/Feindt 2011: 214 – 215): – Die traditionelle Trennung von Forschung und Entwicklung wird in einem Prozess, in dem Forschung und Entwicklung einander bedingen, aufgehoben. – Ähnlich wie im FST (s. Abschnitt 2) werden Praktiker/innen als Akteure des Forschungsprozesses angesehen.
4.2 Prototypische Designs
73
– Die Forschung ist als längerfristiger, zyklischer Prozess angelegt, innerhalb dessen – i. d. R. ausgehend von einem Praxisproblem – theoretische Annahmen zur Veränderung der Praxis im praktischen Handeln überprüft werden und nach erneuter Reflexion in revidierten Praxisvorschlägen bzw. Veränderungen der theoretischen Annahmen münden (vgl. auch die Darstellung in Burns 2010: 9). – Aktionsforschung versucht der Komplexität der Praxis durch den Einbezug möglichst unterschiedlicher Forschungsinstrumente (i. d. R. (Selbst-) Beobachtungen und Befragungen) und Perspektiven (neben den Lehrkräften und universitären Forscher/innen z. B. Schüler/innen, Kolleg/innen, studentische Beobachter/innen) gerecht zu werden. – Viele Aktionsforschungsprojekte werden als Gemeinschaftsprojekte durchgeführt. Neben forschungspraktischen Gründen wird dies der Vorstellung von professionellem Lernen als sozialem Lernen gerecht. – Dadurch, dass Aktionsforschung in soziale Praktiken eingreift, kann sie nicht wertneutral sein. – Die traditionellen, am quantitativen Paradigma ausgerichteten Vorstellungen von Objektivität, Reliabilität und Validität werden neu definiert bzw. ersetzt durch Multiperspektivität, praktische Erprobung und ethische Kriterien, z. B. der Vereinbarkeit mit pädagogischen Zielen. Aktionsforschung in der Fremdsprachendidaktik
Praktische Anleitungen zur Planung, Durchführung und Auswertung von Aktionsforschungsprojekten finden sich z. B. in Altrichter/Posch (insb. in der 4. Auflage des Buches von 2007), auf den Fremdsprachenunterricht fokussierte Anleitungen und Beispiele in Burns (2010), Riemer (2014) und Wallace (1998). Wie an der Zahl und dem Erscheinungsdatum der im letzten Abschnitt genannten Beispiele deutlich wird, zählt Aktionsforschung inzwischen zu einem in der Fremdsprachendidaktik anerkannten Design. Auffällig ist, dass alle aufgeführten Arbeiten entweder von universitären Wissenschaftler/innen begleitet wurden oder das Aktionsforschungsprojekt Gegenstand der eigenen Qualifikationsschrift war. Insbesondere für Nachwuchswissenschaftler/innen, die parallel als Fremdsprachenlehrkräfte tätig sind, scheint es sich um ein attraktives Forschungsdesign zu handeln, mit dem sie die beiden beruflichen Felder verbinden können. So stellte sich Anja Jäger (2011) aufgrund der Beobachtung, dass sich viele Lehrkräfte mit der Entwicklung interkultureller Kompetenzen im Englischunterricht schwertun, die Frage, welche Aufgaben sich dazu besonders gut eignen und unter welchen Bedingungen sie ihr Potenzial am besten entfalten. Dazu entwarf sie unter Rückgriff auf Forschungen und Erfahrungsberichte zum interkulturellen Lernen, zum aufgabenorientierten Ansatz, zur Literaturdidaktik und zur Dramenpädagogik einen theoretischen Rahmen für die Erstellung von Aufgaben. In ihrem Aktionsforschungsprojekt erprobte sie dann die für den Jugendroman „Bend it like Beckham“ von ihr entwickelten Aufgaben in drei Realschulklassen, wobei sie beim ersten Mal selbst unterrichtete und aufgrund der Erfahrungen des ersten und zweiten Durchlaufs die Aufgaben jeweils veränderte. Als Forschungsinstrumente setzte sie Forschertagebuch, teilnehmende Beobachtung, Video- und Audioaufnahmen der Unterrichts-
74
4. Forschungsentscheidungen
stunden, die schriftlichen Unterrichtsprodukte und retrospektive Leitfadeninterviews sowie Fragebögen ein (Jäger 2011: 180 – 189). In der engen Zusammenarbeit mit den beteiligten Lehrkräften, Schüler/innen und den (je nach Zyklus wechselnden) begleitenden Studierenden entstand eine Forschergemeinschaft, die den Prozess des Unterrichtens, der Datenerhebung und -auswertung gemeinsam durchführte bzw. beobachtete und dadurch eine Vielperspektivität sicherstellte, die sich in den dichten Beschreibungen und den detaillierten Analysen der einzelnen Unterrichtssequenzen niederschlägt.
4.2.4 Fazit Die jeweils hohe Anzahl an Studien, die methodisch auf die hier vorgestellten komplexen Designs zurückgreifen, deutet darauf hin, dass es sich hierbei um für fremdsprachendidaktische Forschung besonders attraktive Forschungsansätze handelt. Dies könnte mit bestimmten Spezifika fremdsprachendidaktischer Forschung (vgl. Kapitel 2) zusammenhängen: So ist es mit Fallstudien besonders gut möglich, die Komplexität fremdsprachlicher Lehr-/Lernprozesse abzubilden. Auch scheint dieses Design der Tatsache entgegenzukommen, dass fremdsprachendidaktische Qualifikationsarbeiten i. d. R. als Einzelprojekt geplant und durchgeführt werden. In Fallstudien werden zumeist mehrere Fälle (Subjekte, Lerngruppen, institutionelle Kontexte) vorgestellt, so dass auf diese Weise nicht nur die Vielschichtigkeit, sondern auch die Vielperspektivität fremdsprachendidaktischer Realitäten abgebildet werden kann. Das FST als prominentester Ansatz zur Erforschung der Binnensicht von Subjekten spiegelt zum einen die hohe Bedeutung, die den Akteur/innen fremdsprachlicher Lehr-/Lernprozesse als Subjekten bzw. Individuen in der fremdsprachendidaktischen Forschung zukommt. Zum anderen ermöglicht das Forschungsprogramm wie der Ansatz der Fallstudien, die Komplexität und Unterschiedlichkeit subjektiver Vorstellungen sichtbar zu machen. Die enge Variante des FST erlaubt darüber hinaus, das Handeln der untersuchten Personen in den Blick zu nehmen und bietet damit eine – wenn auch nicht unumstrittene Möglichkeit – Theorie und Praxis zu verbinden. Dies ist ebenfalls das Anliegen der Aktionsforschung, wobei dieser Ansatz bewusst über das Verstehen von Praxis hinausgeht und explizit auf ihre (forschende) Veränderung abzielt. Dies geschieht ebenfalls in Form von Fallstudien, wobei den im Lehr-/Lernprozess handelnden Akteur/innen die Schlüsselrolle zukommt. Zudem wird in diesem Ansatz das zentrale Anliegen jeglicher fremdsprachendidaktischer Forschung, direkt oder indirekt auf eine Verbesserung des Fremdsprachenlernens hinzuwirken, unmittelbar verfolgt. ›› Literatur Abendroth-Timmer, Dagmar (2007). Akzeptanz und Motivation: Empirische Ansätze zur Erforschung des unterrichtlichen Einsatzes von bilingualen und mehrsprachigen Modulen. Frankfurt/M.: Lang. Altrichter, Herbert (1990). Ist das noch Wissenschaft? Darstellung und wissenschaftstheoretische Diskussion einer von Lehrern betriebenen Aktionsforschung. München: Profil.
75 4.2 Prototypische Designs
quantitativ
4.2 Prototypische Designs
- in der Spezifik generelle Strukturen finden - Exploration, Hypothesenbildung, Überprüfung der Praktikabilität von Ergebnissen
Ziele
- Konzentration auf Individuen bzw. soziale Gemeinschaften - Interviews, Fragebögen, Beobachtungen - qualitative Analysen
Aspekte / Verfahren
- reflektierende Praktiker/ innen - Beobachtungen, Forschungstagebuch, Fragebögen, Interviews
- Interviews, Fragebogen Strukturbilder, kommunikative Validierung - explanative Validierung
- Verstehen, forschende Veränderung und Verbesserung von Praxis
- Rekonstruktion der Binnensicht von Forschungspartner/innen im Dialog-Konsens - Überprüfung der Handlungsleitung
feste Fügung von Forschungsinstrumenten mit spezifischen Zielen
Fallstudien (case studies) Einzelfallanalyse multipel, holistisch, beschreibend, vollständig, analytisch tiefgehend, multiperspektivisch
Forschungsprogramm Subjektive Theorien (FST) Methodologie und Methode Strukturparallelität des Denkens von Forscher/innen und Partner/innen
Aktionsforschung
durch Akteur/innen von Lehr-/Lernprozessen häufig als forschende Gemeinschaft vereinbar mit pädagogischen Zielen zyklisch
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
qualitativ
76
4. Forschungsentscheidungen
Altrichter, Herbert/Feindt, Andreas (2011). Lehrerinnen und Lehrer erforschen ihren Unterricht: Aktionsforschung. In: Terhart, Ewald/Bennewitz, Hedda/Rothland, Martin (Hg.). Handbuch der Forschung zum Lehrerberuf. Münster: Waxmann, 214 – 231. Altrichter, Herbert/Posch, Peter (1990). Lehrerinnen und Lehrer erforschen ihren Unterricht. Bad Heilbrunn: Klinkhardt. (4. Auflage 2007). Bär, Marcus (2009). Förderung von Mehrsprachigkeit und Lernkompetenz. Fallstudien zu Interkomprehensionsunterricht mit Schülern der Klassen 8 bis 10. Tübingen: Narr Bechtel, Mark (Hg.) (2015). Fördern durch Aufgabenorientierung. Bremer Schulbegleitforschung zu Lernaufgaben im Französisch- und Spanischunterricht der Sekundarstufe I. Frankfurt/M.: Lang. Benitt, Nora (2015). Becoming a (Better) Language Teacher. Classroom Action Research and Teacher Learning. Tübingen: Narr. Berndt, Annette (2003). Sprachenlernen im Alter. Eine empirische Studie zur Fremdsprachengeragogik. München: iudicium. Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practitioners. New York: Routledge. Burwitz-Melzer, Eva (2003). Allmähliche Annäherungen: Fiktionale Texte im interkulturellen Fremdsprachenunterricht der Sek. I. Tübingen: Narr. Byram, Michael (1997). Teaching and assessing intercultural competence. Clevedon: Multilingual Matters. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 4. Auflage. London: Routledge. Even, Susanne (2003). Drama Grammatik: Dramapädagogische Ansätze für den Grammatikunterricht Deutsch als Fremdsprache. München: iudicium. Fatke, Reinhard (2010). Fallstudien in der Erziehungswissenschaft. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. vollständig überarbeitete Auflage. Weinheim: Juventa, 159 – 172. Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT. Groeben, Norbert/Wahl, Diethelm/Schlee, Jörg/Scheele, Brigitte (1988). Das Forschungsprogramm Subjektive Theorien: eeine Einführung in die Psychologie des reflexiven Subjekts. Tübingen: Francke. Grotjahn, Rüdiger (1998). Subjektive Theorien in der Fremdsprachenforschung: Methodologische Grundlagen und Perspektiven. In: Fremdsprachen Lehren und Lernen 27, 33 – 59. Grünewald, Andreas (2006). Multimedia im Fremdsprachenunterricht. Motivationsverlauf und Selbsteinschätzung des Lernfortschritts im computergestützten Spanischunterricht. Frankfurt/M.: Lang. Heigham, Juanita/Croker, Robert A. (2009). Qualitative Research in Applied Linguistics. A Practical Introduction. Houndmills: Palgrave MacMillan. Hermes, Liesel (2001). Action Research – Lehrkräfte erforschen ihren Unterricht. Herausgegeben vom Landesinstitut für Schule und Weiterbildung NRW, Soest. Hitchcock, Graham/Hughes, David (1995). Research and the Teacher: A Qualitative Introduction to School-based Research. 2. Auflage. New York: Routledge. Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Hüttner, Julia/Dalton-Puffer, Christiane (2013). Der Einfluss subjektiver Sprachlerntheorien auf den Erfolg der Implementierung von CLIL-Programmen. In: Breidbach, Stephan/Viebrock, Britta (Hg.). Content and language integrated learning (CLIL) in Europe. Research perspectives on policy and practice. Frankfurt/M.: Lang, 129 – 144.
4.2 Prototypische Designs
77
Jäger, Anja (2011). Kultur szenisch erfahren. Interkulturelles Lernen mit Jugendliteratur und szenischen Verfahren im aufgabenorientierten Fremdsprachenunterricht. Frankfurt/M.: Peter Lang. Kallenbach, Christiane (1996). Subjektive Theorien. Was Schüler und Schülerinnen über Fremdsprachenlernen denken. Tübingen: Narr. Kimes-Link, Ann (2013). Aufgaben, Methoden und Verstehensprozesse im englischen Literaturunterricht der gymnasialen Oberstufe. Eine qualitativ-empirische Studie. Tübingen: Narr. Lamnek, Siegfried (2010). Einzelfallstudie. In: Ders. (Hg.). Qualitative Sozialforschung. 5. überarbeitete Auflage. Weinheim: Beltz: 271 – 300. Lamsfuß-Schenk, Stefanie (2008). Fremdverstehen im bilingualen Geschichtsunterricht: Eine Fallstudie. Frankfurt/M.: Lang. Lochtman, Katja (2002). Korrekturhandlungen im Fremdsprachenunterricht. Bochum: AKS-Verlag. Martinez, Hélène (2008). Lernerautonomie und Sprachenlernverständnis: Eine qualitative Untersuchung bei zukünftigen Lehrerinnen und Lehrern romanischer Sprachen. Tübingen: Narr. Morkötter, Steffi (2005). Language Awareness und Mehrsprachigkeit. Eine Studie zu Sprachbewusstheit und Mehrsprachigkeit aus der Sicht von Fremdsprachenlernern und Fremdsprachenlehrern. Frankfurt/M.: Lang. Müller-Hartmann, Andreas/Schocker, Marita/Pant, Hans Anand (Hg.) (2013). Lernaufgaben Englisch aus der Praxis. Braunschweig: Bildungshaus Schulbuchverlage Nunan, David/Bailey, Kathleen M. (2009). Case Study Research. In: Dies. (Hg.). Exploring Second Language Classroom Research. A Comprehensive Guide. Boston, MA: Heinle, 157 – 185. Peuschel, Kristina (2012). Sprachliche Tätigkeit und Fremdsprachenlernprojekte. Fremdsprachliches Handeln und gesellschaftliche Teilhabe in „radiodaf“-Projekten. Baltmannsweiler: Schneider Verlag Hohengehren. Raith, Thomas (2011). Kompetenzen für aufgabenorientiertes Fremdsprachenunterrichten. Eine qualitative Untersuchung zur Ausbildung von Fremdsprachenlehrkräften. Tübingen: Narr. Rauschert, Petra (2014). „Intercultural Service Learning“ im Englischunterricht. Ein Modell zur Förderung interkutureller Kompetenz auf der Basis journalistischen Schreibens. Münster: Waxmann. Richert, Anja Simone (2009). Einfluss von Lernbiografien und subjektiven Theorien auf selbst gesteuertes Einzellernen mittels E-Learning am Beispiel Fremdsprachenlernen. Frankfurt/M.: Lang. Riemer, Claudia (2014). Besondere Forschungsansätze: Aktionsforschung. In: Settinieri, Julia/Dermirkaya, Servilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 255 – 267. Roters, Bianca (2012). Professionalisierung durch Reflexion in der Lehrerbildung. Eine empirische Studie an einer deutschen und einer US-amerikanischen Universität. Münster: Waxmann. Schart, Michael (2001). Aller Anfang ist Biografie – Vom Werden und Wirken der Fragestellung in der qualitativen Forschung. In: Müller-Hartmann, Andreas/Schocker-von Ditfurth, Marita (Hg.) (2001). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 40-61. Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Schart, Michael (2008). What matters in TBLT – task, teacher or team? An action research perspective from a beginning German language classroom. In: Eckerth, Johannes/Siekmann, Sabine (Hg.). Taskbased Language Learning and Teaching: Theoretical, Methodological, and Pedagogical Perspectives. Frankfurt/M.: Lang, 47 – 66. Scheele, Brigitte/Groeben, Norbert (1998). Das Forschungsprogramm Subjektive Theorien: theoretische und methodologische Gründzüge in ihrer Relevanz für den Fremdsprachenunterricht. In: Fremdsprachen Lehren und Lernen 27, 12 – 32. Schreiber, Rüdiger (2010). Aktionsforschung zum Einsatz von Podcasts und MP3 als Interaktionsmedium zwischen Dozenten und Lernenden. In: Chlosta, Christoph/Jung, Matthias (Hg.). DaF integriert:
78
4. Forschungsentscheidungen
Literatur, Medien, Ausbildung. 36. Jahrestagung des Fachverbandes Deutsch als Fremdsprache 2008 an der Heinrich-Heine-Universität Düsseldorf. Göttingen: Universitätsverlag, 191 – 211. Schubert, Anke (2013). Fremdverstehen durch amerikanische Jugendliteratur: Ein Beitrag zu einem authentischen Englischunterricht. Trier: WVT. Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdsprachenunterricht der Sekundarstufe I. Tübingen: Narr. Tesch, Bernd (2010). Kompetenzorientierte Lernaufgaben im Fremdsprachenunterricht. Frankfurt/M.: Lang. Viebrock, Britta (2007). Bilingualer Erdkundeunterricht. Subjektive didaktische Theorien von Lehrerinnen und Lehrern. Frankfurt/M.: Lang. Wallace, Michael J. (1998). Action Research for Language Teachers. Cambridge: CUP. Weskamp, Ralf (2003). Fremdsprachenunterricht entwickeln: Grundschule – Sekundarstufe I – Gymnasiale Oberstufe. Hannover: Schroedel.
»» Zur Vertiefung empfohlen Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practitioners. New York: Routledge. Hierbei handelt es sich um eine umfassende, an Praktiker/innen gerichtete Einführung in die Aktionsforschung. Die Verfasserin behandelt alle für die Planung, Durchführung und Auswertung von Aktionsforschungsprojekten notwendigen Grundlagen, Aspekte und Verfahren, wobei der Schwerpunkt auf der kollaborativen Aktionsforschung liegt. Viele Beispiele von Aktionsforschungsprojekten und zahlreiche praktische Hinweise ermutigen dazu, selbst ein solches Projekt zu beginnen oder zu begleiten. De Florio-Hansen, Inez (Koord.) (1998). Fremdsprachen Lehren und Lernen 27. Themenschwerpunkt: Subjektive Theorien von Fremdsprachenlehrern. Dieses Themenheft enthält zahlreiche Beiträge zur Erforschung subjektiver Theorien in der Fremdsprachendidaktik. Die Spannweite reicht von grundlegenden forschungsmethodologischen und -methodischen Aufsätzen über Beiträge zur Erforschung von subjektiven Theorien von (angehenden) Lehrkräften bis hin zu Berichten über die Arbeit mit subjektiven Theorien in der Lehrerausbildung.
Sampling
4.3
Urška Grum/Michael K. Legutke
4.3.1 Begriffsklärung und Einführung Empirisch arbeitende Fremdsprachendidaktiker müssen im Forschungsprozess Auswahlentscheidungen treffen, die wesentlichen Einfluss auf die Datenerhebung, die Datenauswertung sowie die Präsentation der Ergebnisse haben und damit nicht zuletzt den Erfolg und die Aussagekraft der Studie bestimmen. Den Prozess der Auswahlentscheidungen, der im folgenden
4.3 Sampling
79
Kapitel skizziert werden soll, nennt man Sampling. So geht es u. a. um die Frage, von welchen Personen, Gruppen, Objekten oder Merkmalen (Stichprobe) in welcher Anzahl Daten erhoben werden sollen (Stichprobenziehung). Entschieden werden muss ferner, welche der erhobenen Daten im Detail zu analysieren sind (Datensampling) und welche Ergebnisse der Analyse prominent diskutiert und dargestellt werden müssen (Präsentationssampling). Unter Sample versteht man eine Stichprobe, also eine Gruppe von Menschen oder Objekten, die einer Grundgesamtheit (Population) entnommen wurde, um diese auf bestimmte Merkmale hin zu untersuchen, sprich um von dieser Daten zu erheben. In der qualitativen Studie von Steininger (2014), die die Modellierung literarischer Kompetenz für den Englischunterricht am Ende der Sekundarstufe I versucht, setzt sich die Stichprobe aus jeweils zwei 10. Gymnasialklassen, zwei 10. Realschul-, zwei 10. Gesamtschul- und schließlich zwei 9. Hauptschulklassen zusammen (Steininger 2014: 99). Sie besteht demnach aus acht Fällen bzw. Teilstichproben. Die Grundgesamtheit bildet hier die Gruppe aller Schülerinnen und Schüler mit Englischunterricht am Ende der Sekundarstufe in Hessen. Da Forschungsvorhaben, die einem quantitativen Paradigma verpflichtet sind, sich in den grundlegenden Zielsetzungen von denen unterscheiden, die qualitativen Designs folgen, differieren auch die Auswahlentscheidungen und -prozesse. Aus diesem Grund wird nachfolgend Sampling in der quantitativen (Abschnitt 2) und der qualitativen Forschung (Abschnitt 3) getrennt erörtert. Trotz der Unterschiede zwischen quantitativen und qualitativen Forschungsarbeiten sind empirisch arbeitende Forschende in der Regel mit den Herausforderungen des Zugangs zum Forschungsfeld konfrontiert, den Schlüsselpersonen und Institutionen (gatekeepers) regulieren. Für Arbeiten im schulischen Bereich sind dies u. a. die Kultusministerien der Länder, die Schulleitungen, die Schulkonferenzen und die Lehrkräfte. Gatekeepers spielen häufig eine zentrale Rolle bei der Konkretisierung der Auswahlentscheidungen (Merkens 2012: 288). Forschende können oftmals gar nicht anders, als ein aus forschungsstrategischen Überlegungen als ideal eingestuftes Sampling zu modifizieren, weil die Anforderungen der gatekeepers Einschränkungen mit sich bringen (s. auch Kapitel 4.6). Auswahlentscheidungen sind deshalb häufig Ergebnisse von Kompromissen, ohne die das jeweilige Forschungsprojekt gefährdet wäre, wie unten an Beispielen noch verdeutlicht wird.
4.3.2 Sampling in der quantitativen Forschung Quantitative Forschung strebt vom Grundsatz her Repräsentativität der Ergebnisse an. Diese wäre vollständig gegeben, würden alle für die Beantwortung der Forschungsfrage zu untersuchenden Personen, Merkmale oder Objekte untersucht. Da dies jedoch aus Praktikabilitätsgründen meistens nicht möglich ist, muss aus der Grundgesamtheit eine Stichprobe gezogen werden, die das zu untersuchende Phänomen möglichst genau abbildet, sprich repräsentiert. Mit anderen Worten: quantitative Forschung ist daran interessiert, Ergebnisse zu gewinnen, die nicht nur für die Stichprobe selbst, sondern für die gesamte Population gültig sind. Die zugrunde gelegte Population, die anhand einer Stichprobe genauer untersucht werden soll, kann dabei sehr groß (z. B. alle 15-jährigen Schülerinnen und Schüler weltweit) oder auch sehr klein sein (z. B. alle Schülerinnen und Schüler einer Klasse). Welche Stichprobengröße in Relation zur Grundgesamtheit angemessen ist, wird in Abschnitt 2.3 erläutert. Zunächst soll
80
4. Forschungsentscheidungen
jedoch diskutiert werden, welche Sampling-Strategien (Stichprobenziehungsverfahren) dafür zum Einsatz kommen können (Abschnitt 2.2) und welche a priori Entscheidungen getroffen werden müssen, um eine größtmögliche Repräsentativität der Stichprobe zu gewährleisten (Abschnitt 2.1). Zur Verdeutlichung möglicher Sampling-Strategien werden ausgewählte Forschungsarbeiten aus den Fremdsprachendidaktiken herangezogen. 1 Vorabentscheidungen
Um die mit Hilfe statistischer Verfahren gewonnenen Analyseergebnisse einer Stichprobe später auf die gesamte Population verallgemeinern zu können, müssen vorab genaue Überlegungen angestellt werden, wie die Repräsentativität der Stichprobe sichergestellt werden kann. Vollständige Repräsentativität ist gegeben, wenn alle Mitglieder der Grundgesamtheit untersucht werden, so dass Population und Stichprobe deckungsgleich sind. Diese Totaloder Vollerhebung stellt die einfachste Sampling-Strategie dar. In diesem Fall ist die gesamte Population erhebungsrelevant und kann mit den gegebenen Ressourcen in ihrem Umfang auch erfasst werden. Beispielsweise ließen sich über eine Vollerhebung alle Schülerinnen und Schüler einer Schule zu ihrer Zufriedenheit mit dem kulinarischen Angebot der Schulmensa befragen, wohingegen es ein hoffnungsloses Unterfangen wäre, mit dieser Sampling-Strategie die Lesekompetenz aller 15-jährigen Schülerinnen und Schüler weltweit messen zu wollen. Hier empfiehlt es sich, von einer Vollerhebung abzusehen und die erhebungsrelevante Grundgesamtheit in ihrer Anzahl (Umfang der Grundgesamtheit: N) im Rahmen einer Teilerhebung auf eine Stichprobe geringerer Zahl (Stichprobenumfang: n) zu reduzieren. Um jedoch die aus der Analyse der über die Stichprobe gewonnenen Befunde auf die Grundgesamtheit (alle 15-Jährigen weltweit) beziehen zu können, bedarf es einer Stichprobe, die die Grundgesamtheit repräsentiert. Eine repräsentative Stichprobe stellt ein unverzerrtes Miniaturabbild der Grundgesamtheit in Bezug auf die zu untersuchenden Personen, Objekte oder Merkmale dar. Ist die Miniatur nicht deckungsgleich mit dem Original, entsteht ein Zerrbild, was die Grundgesamtheit nicht zuverlässig darstellt. Repräsentativität ist in der Forschungspraxis eher eine theoretische Zielvorgabe als ein Attribut konkreter Untersuchungen […] Die meisten Laien […] glauben, dass große Stichproben (z. B. 1000 Befragte) bereits die Kriterien für Repräsentativität erfüllen. […] Es ist ein weit verbreiteter Irrtum, dass mit wachsender Stichprobengröße die Repräsentativität der Stichprobe generell steigt. Dies trifft nur bei unverzerrter Auswahl zu. Bei einer verzerrten Auswahl hilft auch ein großer Stichprobenumfang nicht, den Fehler zu beheben, er wiederholt sich nur in großem Stil. (Bortz/Döring 2006: 398)
Repräsentativität ist eine Grundvoraussetzung für schließende bzw. inferenzstatistische Verfahren, die auf die Daten der Stichprobe angewendet werden. Ist die Stichprobe nicht repräsentativ für die Grundgesamtheit, lassen sich formal-statistisch die Studienergebnisse nicht auf die Grundgesamtheit verallgemeinern und die Aussagekraft der Studie reduziert sich auf die Stichprobe selbst. Es lassen sich zur Beschreibung der Stichprobe lediglich Verfahren der deskriptiven Statistik verwenden. Repräsentative und nicht-repräsentative Stichproben unterscheiden sich also in ihrer Aussagekraft und in der Art statistischer Verfahren, die auf sie angewendet werden können. Damit empfiehlt es sich, vorab festzulegen, welche Aussagekraft die Ergebnisse einer Studie haben sollen und Stichprobe und Sampling-Verfahren entsprechend zu wählen.
4.3 Sampling
81
Es gibt verschiedene Sampling-Strategien, die eine größtmögliche Repräsentativität der Stichprobe anstreben. Sampling-Strategien geben einen Stichprobenplan vor, nach dem die Stichprobenziehung erfolgt. Dieser legt genau fest, welche Elemente in welcher Anzahl in die Stichprobe aufgenommen werden. Es gibt probabilistische wie nicht-probabilistische Sampling-Strategien. Erfolgt die Auswahl aus der Grundgesamtheit so, dass die ausgewählten Elemente die gleiche bzw. bekannte Auswahlwahrscheinlichkeit haben, entstehen probabilistische Stichproben; ist die Auswahlwahrscheinlichkeit unbekannt, ergeben sich nicht-probabilistische Stichproben (vgl. z. B. Bortz/Döring 2006: 402). 2 Sampling-Strategien
Probabilistischen Sampling-Strategien (Zufallsstichprobenauswahl) liegt die Annahme zugrunde, dass sich Zufallsstichproben, die von einer Grundgesamtheit gezogen werden, zwar unterscheiden, aber alle Elemente der Grundgesamtheit qua Zufall eine ähnliche Wahrscheinlichkeit haben, genauso verteilt zu sein wie in der Grundgesamtheit. Statistisch betrachtet ist somit eine ausreichend große Wahrscheinlichkeit gegeben, dass eine einzelne Zufallsstichprobe dem Mittel der Grundgesamtheit ähnelt. Aus probabilistischen Stichproben gewonnene Ergebnisse erlauben daher populationsbeschreibende Rückschlüsse. Aus den gängigsten probabilistischen Sampling-Strategien resultieren u. a. folgende Stichprobentypen:
• Zufallsstichprobe: Eignet sich für Untersuchungen, bei denen noch nichts über die untersuchungsrelevanten Merkmale bekannt ist. Per Zufallsauswahl werden die Probandinnen und Probanden (oder Objekte) direkt aus der Grundgesamtheit gezogen. Dazu muss die Grundgesamtheit bekannt sein und die Auswahl nachweislich zufällig stattfinden (vgl. z. B. Bortz/Döring 2006: 480, Bortz/Schuster 2010: 80, Cohen/Manion/Morrison 2011: 153). Dies kann z. B. dadurch gewährleistest werden, dass jedes Mitglied der Grundgesamtheit eine Nummer erhält. Die Auswahl der zur Stichprobe gehörigen Nummern erfolgt dann über einen Zufallsgenerator. Hier wird statistisch unterschieden zwischen einfacher Zufallsstichprobe (die gezogenen Nummern werden zurückgelegt und können erneut ausgewählt werden) und Zufallsstichprobe (hier kann jedes Mitglied der Grundgesamtheit nur einmal in die Stichprobe gewählt werden). • Geschichtete Stichprobe: Um die Verteilung der zu untersuchenden Merkmalsausprägung in einer Stichprobe analog zu ihrer Verteilung auf verschiedene Schichten innerhalb der Grundgesamtheit replizieren zu können, muss diese Verteilung (z. B. aus Vorstudien) bekannt sein. Die Mitglieder aus den Schichten der Grundgesamtheit werden zufällig in die entsprechende Schicht der Stichprobe gewählt (vgl. z. B. Bortz/Döring 2006: 425, Bortz/ Schuster 2010: 81, Cohen/Manion/Morrison 2011: 154). Ist beispielsweise bekannt, dass sich Leistungskurse in der Fremdsprache Französisch im Mittel aus 20 % männlichen und 80 % weiblichen Jugendlichen zusammensetzen, dann sollte sich diese Quote auch in der Stichprobe einer entsprechenden Studie wiederfinden. Gleiches gilt für alle Merkmale, die Einfluss auf die im Forschungsfokus stehende Eigenschaft haben könnten. • Klumpenstichprobe: Als Klumpen werden natürliche Teilkollektive oder bereits bestehende Gruppen bezeichnet, wie etwa Schulklassen und Schulen. Analog zur Zufallsstichprobenziehung ist auch hier eine Liste aller studienrelevanten Klumpen notwendig, aus der per Zufall eine bestimmte Anzahl an Klumpen in ihrer Gesamtheit für die Stichprobe
82
4. Forschungsentscheidungen
ausgewählt wird (vgl. z. B. Bortz/Döring 2006: 435 – 6, Bortz/Schuster 2010: 81, Cohen/ Manion/Morrison 2011: 154). Es ist beispielsweise nicht möglich, im Rahmen einer Klumpenstichprobenziehung, für die ganze Schulklassen ausgewählt werden, nur einige Schüler aus einer gewählten Schulklasse in die Stichprobe aufzunehmen. • Mehrstufige Stichprobe: Klumpenstichproben können oftmals zu umfangreich werden, wenn die Klumpen selbst schon sehr groß sind. In diesen Fällen bieten sich zwei- oder mehrstufige Stichprobenziehungen an. Dabei wird in einem ersten Schritt eine Liste aller untersuchungsrelevanten Klumpen erstellt, aus der per Zufall eine bestimmte Anzahl an Klumpen ausgewählt wird (Klumpenstichprobe). In einem zweiten Ziehungsschritt wird wiederrum per Zufall eine bestimmte Anzahl an einzelnen Untersuchungsobjekten für die Stichprobe ausgewählt. Diese Schritte können mehrfach wiederholt werden (vgl. z. B. Bortz/Döring 2006: 440 – 1, Cohen/Manion/Morrison 2011: 155). Die Stichprobenziehungen der PISA-Studien folgen annäherungsweise einer zweistufigen Sampling-Strategie: Zuerst werden per Zufall aus einer vollständigen Liste infrage kommender Bildungseinrichtungen Schulen ausgewählt (Klumpenstichprobe), aus denen dann in einem zweiten Schritt zufällig die 15-jährigen Probandinnen und Probanden gezogen werden. Um größtmögliche Repräsentativität der Stichprobe zu gewährleisten, muss in der Forschungspraxis oft auf mehrstufige Sampling-Verfahren zurückgegriffen werden. Dies lässt sich beispielhaft an der Studie von Grum (2012) darstellen: Untersucht wurde das Leistungsspektrum mündlicher englischer Sprachfähigkeit von Schülerinnen und Schüler der zehnten Jahrgangsstufe mit und ohne Bilingualem Sachfachunterricht in Berlin. Da es zum Erhebungszeitpunkt eine überschaubare Menge an Schulen mit bilingualem Sachfachunterricht gab (drei Gymnasien und drei Realschulen), wurden alle Schulen in die Studie aufgenommen. Anschließend wurden zu gleichen Anteilen aus den bilingualen wie regulären Klassen per Zufall, stratifiziert nach Geschlecht und Leistung, 84 Schülerinnen und Schülern gezogen, die an einem mündlichen Test teilnahmen. Der Stichprobenplan stellt somit eine Kombination aus Vollerhebung und geschichteter Stichprobe dar. Als weiteres Beispiel aus der SprachlehrLernforschung sei hier die Studie von Özkul (2011) zur Berufs- und Studienfachwahl von Englischlehrenden genannt. Auch hier wurde auf eine Mischform der Stichprobenziehung zurückgegriffen. Die Grundgesamtheit lässt sich folgendermaßen beschreiben: alle Lehramtsstudierende mit Anglistik/ Amerikanistik an deutschen Hochschulen im Wintersemester 2008, die an studieneinführenden Veranstaltungen teilnahmen. An 19 von 40 möglichen Hochschulen wurden Fragebögen verschickt, die von den Studierenden beantwortet wurden. Dieses Verfahren scheint zu einer Klumpenstichprobe in Kombination mit einer Zufallsstichprobe zu führen. Allerdings kann dieses Verfahren nicht als probabilistisch beschrieben werden, da sich Hochschulen und Studierende selbst für die Teilnahme an der Fragebogenergebung entschieden haben (Selbstauswahl) und nicht per Zufall ausgewählt wurden. Somit ist die Stichprobe nicht zufällig, sondern willkürlich entstanden und als nicht-probabilistisch einzustufen. Bei nicht-probabilistischen Sampling-Strategien (Quotenauswahlstrategien) spielt der Zufall keine Rolle, sodass ein höheres Risiko besteht, Auswahlfehler zu begehen, die zu einem verzerrten Abbild der Grundgesamtheit führen. Aus nicht-probabilistischen Stichproben gewonnene Ergebnisse erlauben daher keine verallgemeinernden Aussagen über die Grund-
4.3 Sampling
83
gesamtheit, gleichwohl lässt sich aber die Stichprobe beschreiben. Daher sind nicht-probabilistische Stichprobenverfahren dann sinnvoll, wenn beispielsweise die Grundgesamtheit unbekannt ist oder eine Studie zu rein deskriptiven oder explorativen Zwecken durchgeführt wird. Zu nicht-probabilistischen Sampling-Strategien gehören u. a. folgende Stichprobentypen:
• Ad-hoc-Stichprobe (Bequemlichkeitsauswahl oder Gelegenheitsstichprobe): Eine bereits bestehende Personengruppe bildet die Stichprobe (z. B. eine Schulklasse oder Lerngruppe, Passanten). Es ist meist nicht zu rekonstruieren, welche Grundgesamtheit eine Ad-hocStichprobe abbildet (vgl. z. B. Bortz/Döring 2006: 723, Bortz/Schuster 2010: 82, Cohen/ Manion/Morrison 2011: 155 – 6). • Quotenstichprobe: Die Zusammensetzung der Stichprobe erfolgt nach Merkmalsquoten, die analog zur Zusammensetzung dieser in der Population erfolgt. Es werden gezielt vermeintlich passende Untersuchungsobjekte in die Stichprobe aufgenommen, um die Quote für bestimmte Merkmalskategorien zu erfüllen. Die Erfüllung der Quoten spielt dabei eine größere Rolle als die zufällige Auswahl der Stichprobe und erfolgt nicht per Zufall, sondern nach subjektiven Kriterien der Datenerhebenden (vgl. z. B. Bortz/Döring 2006: 483, Bortz/ Schuster 2010: 82, Cohen/Manion/Morrison 2011: 156). Von einer Quotenauswahl kann beispielsweise dann gesprochen werden, wenn die Vorgabe ist, je vier Englischlehrerinnen und -lehrer zu befragen und der Interviewer sich in den Schulpausen im Lehrerzimmer solange passende Interviewpartner sucht, bis die Quote erfüllt ist. • Theoretische Stichprobe: Nicht zufalls-, sondern theoriegeleitet werden für eine Forschungsfrage besonders typische oder untypische Fälle ausgewählt, mit dem Ziel, deren Verteilung in der Grundgesamtheit in der Stichprobe widerzuspiegeln (vgl. z. B. Bortz/ Döring 2006: 742 – 3, Bortz/Schuster 2010: 82, Cohen/Manion/Morrison 2011: 156 – 7). Dieses Verfahren wird auch bei quantitativen Studien eingesetzt, findet aber primär in der qualitativen Forschung Anwendung (s. Kapitel 4.3). 3 Stichprobengröße
Um eine möglichst hohe Repräsentativität für die Aussagekraft der Ergebnisse einer Studie zu erzielen, ist neben der Genauigkeit, mit der eine Stichprobe die Grundgesamtheit abbildet, und dem Grad an Zufälligkeit, mit der die Elemente der Grundgesamtheit in die Stichprobe gewählt werden, auch die Größe der Stichprobe von Bedeutung. Prinzipiell lassen sich statistische Kennzahlen mit jedem ‚irgendwie‘ erhobenen Datensatz jeglicher Größe berechnen – jedoch lassen sich weder die Qualität der Ergebnisse noch die Aussagekraft der Studie nachvollziehen. Wird ein quantitativ-empirisches Forschungsdesign mit auf die Grundgesamtheit schließenden inferenzstatistischen Verfahren angestrebt, lässt sich a priori der Umfang für die probabilistisch zu erhebende Stichprobe berechnen. Dabei wird ein möglichst optimaler Stichprobenumfang angestrebt, denn zu kleine Stichproben verringern die Teststärke und zu große Stichproben erhöhen den Erhebungsaufwand unnötig. „Stichprobenumfänge sind optimal, wenn sie einem Signifikanztest genügend Teststärke geben, um einen getesteten Effekt bei vorgegebener Effektgröße entdecken und auf einem vorgegebenen Signifikanzniveau absichern zu können“ (Bortz/Döring 2006: 736). Statistisch gesehen hängen Teststärke, Effektgröße, α-Fehlerniveau und Stichprobenumfang voneinander ab. Dies bedeutet, dass
84
4. Forschungsentscheidungen
sich die Stichprobengröße berechnen lässt, wenn man Teststärke, Effektgröße und α-Fehlerniveau festlegt. Diese Berechnung ist auch abhängig vom gewählten statistischen Verfahren, das auf die Daten angewendet werden soll. Das α-Fehlerniveau wird oftmals auf 5 % oder 1 % festgelegt und die Teststärke (1-β) auf .80. Die Effektgröße hingegen ist stark abhängig vom Forschungszusammenhang und wird oft in kleinere, mittlere und größere Effekte unterteilt. Der optimale Stichprobenumfang lässt sich für spezifische statistische Tests beispielsweise mit der Software G*Power berechnen oder in Tabellen nachschlagen (vgl. z. B. Cohen/Manion/ Morrison 2011: 147 – 8, Bortz/Döring 2006: 627 – 8). Zusammenfassend lässt sich für die Planung eines quantitativen Samplings folgender Ablaufplan erstellen: Zuerst wird entschieden, ob es nötig ist, eine Stichprobe zu ziehen oder ob eine Vollerhebung durchgeführt werden kann. Danach wird die Population in ihrer Größe und ihren erhebungsrelevanten Merkmalen definiert. Anschließend erfolgt die Festlegung auf eine für die Studie passende Sampling-Strategie. Zum Schluss wird überprüft, ob Zugang zur Stichprobe besteht (gatekeepers) oder ggf. die Sampling-Strategie geändert werden muss.
4.3.3 Sampling in der qualitativen Forschung Da qualitative Forschungen nicht statistische Repräsentativität der Ergebnisse anstreben, spielt die Frage auch keine Rolle, ob die für die Datenerhebung gewählte Stichprobe für die Gesamtheit einer Population repräsentativ ist. Bei qualitativen Studien werden Auswahlentscheidungen deshalb nicht von probabilistischen, sondern eher von inhaltlichen Gesichtspunkten gesteuert; sie sind eng mit dem Forschungsprozess verbunden und stellen sich auf drei Ebenen, nämlich (1) der Ebene der Datenerhebung, (2) der Ebene der Datenauswertung und schließlich (3) der Präsentation der Ergebnisse (vgl. Flick 2011: 155). Damit das jeweilige Forschungsvorhaben intersubjektiv nachvollziehbar ist, muss das Sampling transparent und damit nachvollziehbar sein. Im Folgenden sollen solche Auswahlentscheidungen unter Berücksichtigung ausgewählter Forschungsarbeiten aus den Fremdsprachendidaktiken skizziert werden. 1 Vorabentscheidungen und Festlegung des Samples für die Datenerhebung
Die Festlegung der Stichprobe wird zunächst durch die Forschungsfrage und die theoretischen Vorüberlegungen des Forschers bestimmt; sie leiten eine von Kriterien bestimmte, gezielte Auswahl. Die Entscheidung ist demnach theorie- und kriteriengeleitet: purposive sampling und criterion sampling (Silverman 2000: 104 – 5). Als Beispiel für solche begründeten (Vorab-) Entscheidungen diene die Referenzarbeit von Ehrenreich (2004), in der die Forscherin die Bedeutung des Auslandsaufenthalts für die Fremdsprachenlehrerbildung unter besonderer Berücksichtigung des Assistant-Jahres mit Hilfe einer Interviewstudie untersucht. Theoretische Vorüberlegungen im Zusammenhang der Aufarbeitung der Fachliteratur bilden die Basis für eine Kriterienmatrix mit entsprechenden Parametern, die die Forscherin bei der tatsächlichen Informantenauswahl leiteten. Auswahlkriterien sind u. a.: Geschlecht, Herkunftsbundesland, Zielland und Ausbildungsphase zum Zeitpunkt der Interviews. Unter Berücksichtigung dieser Matrix konstituiert Ehrenreich im Schneeballverfahren (s. Kapitel 5.2.1) die Stichprobe ihrer
4.3 Sampling
85
Studie, eine Gruppe von 22 Informanten, die zum einen als typisch markierte Fälle gemäß der Kriterien enthält, zum anderen eine maximale Variation der Teilnehmenden innerhalb der Gesamtgruppe abbildet (Ehrenreich 2004: 158f). Kimes-Link (2013) untersucht „welche Aufgaben und Methoden Lehrkräfte im englischen Literaturunterricht der gymnasialen Oberstufe bei der Lektüre von Ganzschriften einsetzen und inwiefern diese geeignet sind, die Interaktion zwischen den Lernenden und dem Text sowie die Interaktion innerhalb der Lerngruppe zu intensivieren, gemeinsame Bedeutungsaushandlungen zu initiieren und vertiefte Verstehensprozesse zu begünstigen“ (Kimes-Link 2013: 85). Sie konstituiert theoriegeleitet die Stichprobe ihrer Studie aus insgesamt sieben Kursgruppen gymnasialer Oberstufen, die zum einen unterschiedliche Schul- und Kurstypen repräsentieren, zum anderen ein Spektrum unterschiedlicher literarischer Genres zum Arbeitsgegenstand haben (Dramen, Jugendromane, Romane und Kurzgeschichten). A priori vorgenommene, kriterien- und theoriegeleitete Konstruktionen einer Stichprobe werden, wenn es um die konkrete Realisierung des Projekts geht, von drei Aspekten beeinflusst, die letzten Endes den Forschungsprozess beeinflussen und häufig für das Sampling modifizierend wirken. Die Frage, wo und wie Forschende ihre Forschungspartner gewinnen, bringt die Herausforderung auf den Begriff. Da ist zum einen der Aspekt der räumlichen und institutionellen Zugänglichkeit. So kann es sein, dass ein räumlich naher und deshalb forschungspragmatisch günstiger Kontext, der für die Bearbeitung der Forschungsfrage zudem sehr vielversprechend wäre, nicht zugänglich ist, weil die gatekeepers unüberwindliche Hürden errichten. Andererseits kann ein räumlich ferner Kontext zugänglich sein, der den Forschenden jedoch einen größeren Zeitaufwand abnötigt und damit den Forschungsprozess erheblich belastet. Damit ist auch der zweite Aspekt angesprochen, nämlich die Machbarkeit des Projekts. Gerade für Qualifikationsarbeiten, die in der Regel von Individuen und nicht von Forschergruppen geleistet werden und mit oft sehr begrenzten Zeitbudgets auskommen müssen, ist die Frage, was unter den konkreten Bedingungen leistbar ist, von Bedeutung. Machbarkeitsüberlegungen werden deshalb in das Sampling eingehen müssen. Die Kombination von Machbarkeits- und Zugänglichkeitsüberlegungen kann zu einer Ad-hoc-Stichprobe führen, die weniger kriterien- und zielgeleitet, als vielmehr pragmatisch bestimmt ist: Die Forschende wendet sich Personen und Kontexten zu, die zur Verfügung stehen, wie die Untersuchung von Roters (2012: 161 – 63) verdeutlicht. Roters befasst sich in ihrer explorativen Studie mit dem Konstrukt der Reflexion, das in Diskursen zur Entwicklung von Lehrerprofessionalität als Schlüsselkompetenz markiert wird. Untersuchungsgegenstand sind die Beschreibung und Analyse zweier Lehrerbildungsprogramme und -kontexte einer deutschen und einer US-amerikanischen Universität. Die Auswahl der Stichprobe erfolgte zunächst theoriegeleitet und über umfangreiche Dokumentenanalysen, dann aber nach Kriterien der Zugänglichkeit und Machbarkeit, wobei nicht zuletzt formale und institutionelle Anforderungen bestimmend wirkten. Von Relevanz für die Bestimmung der Stichprobe ist schließlich die Bereitschaft der Forschungspartner, sich auf die Belastungen des Forschungsprozesses einzulassen: etwa auf narrative Interviews (Ehrenreich 2004) oder auf Videoaufnahmen im Klassenzimmer (KimesLink 2013): „… wie kann [der Forscher] erreichen, dass eine entsprechende Bereitschaft nicht nur geäußert wird, sondern zu konkreten Interviews und anderen Daten führt“ (Flick 2011: 143)?
86
4. Forschungsentscheidungen
2 Entscheidungen bei der Datenbearbeitung und Sampling-Strategien
Auch wenn zunächst entschieden ist, von welchen Personen und Gruppen Daten erhoben werde sollen, ist damit für qualitativ Forschende in der Regel das Sampling nicht abgeschlossen. Nicht nur Forschungsanfänger stehen vor der Herausforderung, die große Datenfülle, die in qualitativen Studien anfallen kann, zu meistern. Dabei stellen sich zwei Fragen. Welche Daten sind für die Beantwortung der Forschungsfrage zielführend, „the real challenge is not to generate enough data, but to generate useful data“ (Dörnyei 2007: 125 [Hervorh. im Original]) und welche Daten sollen in welcher Breite und Tiefe etwa mit Hilfe von Datentriangulation (s. Kapitel 4.4) bearbeitet werden. Entscheidungen sind dann häufig an den Prozess der Datenbearbeitung gebunden, aus dem sich oftmals auch eine weitere Differenzierung der Forschungsfrage(n) ergibt. Die Fälle werden damit schrittweise ausgewählt, Entscheidungskriterium ist ihre Relevanz für die Forschungsfrage und nicht ihre Repräsentativität (Flick 2011: 163). Forschenden stehen eine Reihe von Sampling-Strategien zur Verfügung, zu denen u. a. folgende gehören:3
• Sampling typischer Fälle: Der Forscher, der sich z. B. mit dem beruflichen Selbstverständnis von Englischlehrkräften in der Grundschule befasst, konzentriert sich auf Personen in den Daten, die in Hinblick auf die Forschungsfrage über typische Eigenschaften, Merkmale und/oder Erfahrungen verfügen (weibliche Lehrkräfte mit mehr als drei Jahren Berufserfahrung, die Englisch nicht als Muttersprache mitbringen), auf Personen also, die typisch für die Mehrzahl der untersuchten Fälle sind. • Sampling maximaler Variation: Der Forscher interessiert sich besonders für Fälle, die signifikante Unterschiede aufweisen, um die Bandbreite und Variabilität von Erfahrungen der untersuchten Gruppe zu erfassen und dabei mögliche Gemeinsamkeiten herauszuarbeiten. • Sampling extremer oder abweichender Fälle: Die Strategie ähnelt der vorangegangenen. Der Forscher fokussiert auf die Extremfälle, z. B. auf Lehrkräfte, die ihr berufliches Selbstverständnis besonders stark mit der Einschätzung ihrer L2-Kompetenz verknüpfen und sich Muttersprachlern besonders unterlegen fühlen. Auch hier könnte von Interesse sein, ob selbst solche Extremfälle Gemeinsamkeiten aufweisen. • Event-Sampling: Diese Sampling-Strategie ist vorwiegend in der Videoforschung vertreten und filtert bestimmte niedrig- oder hochinferente Phänomene (wie Partnerarbeit oder mündliche Fehlerkorrekturen) aus dem Videomaterial heraus. Event-Sampling wird vom Time-Sampling abgegrenzt. Beim Time-Sampling werden Kodierungen in bestimmten Zeitabständen vorgenommen (z. B. alle 2 Minuten) (vgl. Appel/Rauin 2015). • Sampling kritischer Fälle: Diese Strategie ist dem Event-Sampling ähnlich. Sie zielt auf Fälle in den Daten, die als zentral für die untersuchten Zusammenhänge gelten können. Schwab (2006), der mit Hilfe einer konversationsanalytischen Longitudinalstudie die Interaktionsstrukturen im Englischunterricht einer Hauptschulklasse untersucht, konkretisiert nach der ersten Durchsicht einer Grobtranskription der Daten die Gesprächspraktik „Schülerinitiative“ als ein kritisches Phänomen und zentrales Element von Schülerpartizipation. 81 dieser kritischen Fälle werden dann im Detail transkribiert und einer differenzierten 3 Zu den einzelnen Strategien vgl.: Dörnyei 2007: 95ff; Flick 2011: 165 – 67; Cohen/Manion/Morrison 2011: 148 – 164.
4.3 Sampling
87
Analyse unterzogen (Schwab 2006). Die Referenzarbeit von Schwab verdeutlicht, dass Sampling-Prozesse in qualitativen Studien in der Regel offen und iterativ sind, denn die zu untersuchenden Fälle gewinnen oftmals erst im Prozess der Datenbearbeitung an Gestalt: die Grundgesamtheit kann nicht von vorneherein genau bestimmt werden, sondern konstituiert sich durch einen Prozess der sukzessiven Differenzierung bereits gewonnener Erkenntnisse und die daraus folgende, erneute Interpretation der Daten, die u. U. sogar eine weitere Phase der Datengewinnung im Sinne der Forschungsfrage nahe legt. Die Auswahlentscheidungen werden durchgängig von Relevanzkriterien für die Forschungsfrage und durch die bereits formulierten Einsichten und Vermutungen und, nicht zuletzt, durch vorhandene Wissensbestände (Vorwissen, Fachwissen) geleitet. Dieses zyklisch voranschreitende Auswahlverfahren wird als Theoretical-Sampling bezeichnet und wurde erstmals von Vertretern der empirischer Sozialforschung im Zusammenhang der Grounded Theory beschrieben (s. Kapitel 5.3.3). Obwohl der Begriff ursprünglich in der Grounded Theory-Methodologie verortet ist und dort den Prozess der datengeleiteten Theoriegenerierung bezeichnet, wird das Verfahren des Theoretical-Sampling auch mit anderen Methoden qualitativer Forschung verbunden (s. Kapitel 5.3.4). Alle oben genannten Sampling-Strategien können im Verfahren des Theoretical-Sampling zur Anwendung kommen.4 3 Entscheidungen für die Präsentation der Ergebnisse
Da es für qualitative Studien nicht per se die richtige Entscheidung oder Strategie gibt, sondern diese sowohl von der Fragestellung, dem Gang der Analyse und vorhandenen Wissensbeständen abhängt, zu der das jeweilige Forschungsprojekt in Beziehung steht, müssen die Entscheidungen auch im Kontext dieses Gesamtzusammenhangs gefällt und entsprechend begründet werden: „Samplingentscheidungen lassen sich nicht isoliert treffen“ (Flick 2011: 169). Das gilt natürlich auch für Entscheidungen, welche Befunde wie zu präsentieren sind. Als Beispiel diene die Referenzarbeit von Arras (2007), die Prozesse der Beurteilungsarbeit mit Hilfe eines Mehrmethodendesigns erforschte. Arras erhob qualitativ introspektive Daten (Laut-Denk-Protokolle) von vier Beurteilerinnen, die danach durch Daten aus retrospektiven Interviews ergänzt und vertieft wurden. Die Datenanalyse erbrachte eine solche Fülle von Einzelhandlungen und Strategien der Beurteilerinnen, dass für die Darstellung der Befunde eine Auswahl getroffen werden musste. Arras begründet ihre Entscheidung mit zwei Auswahlkriterien: Sie konzentriert sich einerseits gemäß ihrer zentralen Fragestellung auf jene Befunde, die „den Umgang mit dem Beurteilungsverfahren und … die Rolle … der Deskriptoren beleuchten. Zum anderen werden jene Beobachtungen referiert …, die über das Test-DaFBeurteilungsinstrumentarium hinausweisen“ (Arras 2007: 217). Von besonderem Interesse sind nämlich „Strategien, die vermutlich auf zugrunde liegenden subjektiven Annahmen und
4 Das methodische Vorgehen des Theoretical Sampling und seine methodologische Begründung werden im Kapitel 5.3.3. ausführlich erörtert und mit Hinweisen auf Referenzarbeiten verdeutlicht. Eine Einzeldarstellung kann hier deshalb entfallen. S. auch Silverman 2000: 105 – 110.
88
4. Forschungsentscheidungen
persönlichen Erfahrungen gründen“. Befunde dieser beiden Großgruppen werden dann im Detail präsentiert.5
4.3.4 Fazit Auch wenn es sinnvoll ist, Sampling-Verfahren nach qualitativ und quantitativ zu unterscheiden, lassen sich Forschungsvorhaben nicht immer strikt in quantitative oder qualitative Erhebungs- und Analyseverfahren unterteilen, so dass es auch Sampling-Strategien gibt, bei denen quantitative und qualitative Verfahren kombiniert werden (Mixed-Methods-Sampling). Hierzu gehören z. B. parallele, sequenzielle oder multi-level Auswahlverfahren (vgl. z. B. Kuckartz 2014, Cohen/Manion/Morrison 2011: 162 – 3, Teddlie/Yu 2007, s. auch Kapitel 3.3 und 6.4). Prinzipiell sollte die Sampling-Strategie immer auf Basis der Forschungsfrage gewählt werden und dem Forschungszweck dienen. Die gewählte Strategie muss transparent sein, mögliche Einschränkungen berücksichtigen und zum gewählten Design passen. Alle diese Aspekte bestimmen letztendlich auch den Grad an Generalisierbarkeit, der für die gewonnenen Ergebnisse erreicht werden kann bzw. die angestrebte Aussagekraft der Studie. ›› Literatur
Forschungsarbeiten, in denen hier erläuterte Sampling-Strategien angewendet werden, sind mit einem Sternchen markiert. Appel, Johannes/Rauin, Udo (2015). Methoden videogestützter Beobachtungsverfahren in der Lehrund Lernforschung. In: Elsner, Daniela/Viebrock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Peter Lang, 59 – 79. *Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung Test Deutsch als Fremdsprache (TestDAF). Tübingen: Narr. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] *Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] *Benitt, Nora (2015). Becoming a (Better) Language Teacher. Classroom Action Research and Teacher Learning. Tübingen: Narr. Bortz, Jürgen/Döring, Nicola (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4. Auflage. Berlin: Springer. Bortz, Jürgen/Schuster, Christof (2010). Statistik für Human- und Sozialwissenschaftler. 7. Auflage. Berlin: Springer. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage. London: Routledge. Dörnyei, Zoltan (2007). Research Methods in Applied Linguistics. Oxford: Oxford University Press.
5 Weitere Beispiele für solche Entscheidungsprozesse liefern die Arbeiten von Benitt (2015) und Zibelius (2015).
4.3 Sampling
89
*Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Das assistant-Jahr als ausbildungsbiographische Phase. München: Langenscheidt. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] Flick, Uwe (2011). Qualitative Forschung. Eine Einführung. 4. vollständig überarbeitete Auflage. Reinbek: Rowohlt. G*Power [http://www.gpower.hhu.de] (25. 09. 2015) *Grum, Urška (2012). Mündliche Sprachkompetenzen deutschsprachiger Lerner des Englischen. Entwicklung eines Kompetenzmodells zur Leistungsheterogenität. Frankfurt/Main: Peter Lang. *Kimes-Link, Ann (2013). Aufgaben, Methoden und Verstehensprozesse im englischen Literaturunterricht der gymnasialen Oberstufe. Eine qualitativ-empirische Studie. Tübingen: Narr. Kuckhartz, Udo (2014). Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer. Merkens, Hans (2012). Auswahlverfahren, Sampling, Fallkonstruktion. In: Flick, Uwe/von Kardorff, Ernst/Steinke, Ines (Hg.). Qualitative Forschung. Ein Handbuch. 9. Auflage. Reinbek: Rowohlt, 286 – 299. Özkul, Senem (2011). Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in Anglistik/Amerikanistik. Berlin: Langenscheidt. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] *Roters, Bianca (2012). Professionalisierung durch Reflexion in der Lehrerbildung. Eine empirische Studie an einer deutschen und einer US-amerikanischen Universität. Münster: Waxmann. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Hohengehren: Schneider. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] *Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] Silverman, David (2000). Doing Qualitative Research. A Practical Handbook. London: Sage. *Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdsprachenunterricht der Sekundarstufe I. Tübingen: Narr. Teddlie, Charles/Yu, Fen (2007). Mixed Methods Sampling. A Typology with Examples. Journal of Mixed Methods Research 1/1, 77 – 100. *Zibelius, Marja (2015). Cooperative Learning in Virtual Space. A Critical Look at New Ways of Teacher Education. Tübingen: Narr. »» Zur Vertiefung empfohlen Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education [Chapter 5. The ethics of educational and social research]. Hoboken: Taylor and Francis, 143 – 164. Das Kapitel „Sampling“ gibt einen sehr umfassenden Überblick über Samplingprozesse in quantitativer, qualitativer und Mixed-Method-Forschung. Dörnyei, Zoltan (2007). Research Methods in Applied Linguistics. Oxford: Oxford University Press, 95 – 100 (Sampling in quantitative research); 125 – 29 (Sampling in qualitative research). Beide Teilkapitel bieten eine knappe Einführung in Sampling-Fragen und -Prozesse für die Fremdund Zweitsprachenforschung.
90
4. Forschungsentscheidungen
Triangulation
4.4
Petra Knorr/Karen Schramm
4.4.1 Begriffsklärung Mit Triangulation wird eine methodologische Strategie bezeichnet, bei der ein Forschungsgegenstand aus zwei oder mehreren Perspektiven betrachtet wird und es zu einer Kombination verschiedener Methoden, Datenquellen, theoretischer Zugänge oder Einflüsse durch mehrere Forschende kommt. Der Begriff ist der Landvermessung entlehnt und wird dort für die exakte Lokalisierung eines Objektes durch die Verwendung bereits bekannter Fixpunkte verwendet. Der Grundgedanke, durch den Einsatz mehrerer Bezugspunkte möglichst genaue Ergebnisse zu erzielen, führte einst auch zur Verwendung des Begriffs als Metapher in der sozialwissenschaftlichen Forschung (Campbell/Fiske 1959, Webb et al. 1966). Triangulation stand zunächst dafür, die Validität von Forschungsergebnissen zu erhöhen, indem vor allem im Rahmen quantitativer Studien der Reaktivität von Methoden durch die Verwendung mehrerer Messinstrumente entgegengewirkt werden sollte. Die Schwächen einer Methode sollten durch komplementäre Testverfahren ausgeglichen, Messartefakte sollten ausgeschlossen werden. Denzin (1970) sprach sich für eine Verbindung qualitativer und quantitativer Methoden aus und brachte die Triangulation als Validierungsstrategie in die qualitative Methodendiskussion ein. Das Verständnis über die Zielsetzung von Triangulation hat sich seither weiter ausdifferenziert und umfasst gegenwärtig weniger die Validierung von Forschungsergebnissen als vielmehr die Vertiefung und Erweiterung von Erkenntnissen (Denzin 1989 revidierte Position, Fielding/Fielding 1986). Vor allem vor dem Hintergrund konstruktivistischer Positionen wurde problematisiert, dass ein methodischer Zugang nicht durch einen anderen korrigiert oder validiert werden kann, denn jede Methode, jede Forschungsperson oder jede Theorie wirkt sich auf das aus, was als Ergebnis ermittelt wird. Der Forschungsgegenstand wird durch die verwendete Methode konstituiert. Gerade weil aber jedes Verfahren einen bestimmten Aspekt bzw. eine andere Facette des zu untersuchenden Phänomens offenlegt, kann ein triangulierendes Vorgehen den jeweiligen Gegenstandsbereich umfassender und weitreichender beschreiben und erklären. Daher eignet sich die Triangulation insbesondere in Settings, die durch eine hohe Faktorenkomplexion gekennzeichnet sind (wie z. B. fremdsprachliche Lehr- und Lernkontexte). Es besteht nicht der Anspruch, kongruente Ergebnisse zu erzielen; vielmehr werden durchaus Befunde erwartet, die divergieren, sich aber komplementär und multiperspektivisch ergänzen. Die Betrachtung verschiedener Perspektiven kann sich durch verschiedene Formen der Triangulation realisieren. Diese wurden von Denzin (1970) klassifiziert und vier Typen zugeordnet, auf die seither rekurriert wird: Daten-, Methoden-, ForscherInnen- und Theorientriangulation.
4.4 Triangulation
91
4.4.2 Datentriangulation Von Datentriangulation wird gesprochen, wenn Datensätze kombiniert werden, die verschiedenen Quellen entstammen (Denzin 1970). Allein nach dieser Definition könnte jedoch jede Art der Methodentriangulation auch als Datentriangulation bezeichnet werden, denn der Einsatz verschiedener Methoden führt immer auch zu unterschiedlichen Datensätzen (Aguado 2015: 207, Settinieri 2015: 23). Denzin spricht daher nur dann von Datentriangulation, wenn dieselbe Methode verwendet und das gleiche Phänomen untersucht wurde (Denzin 1970: 301). In Anlehnung an Denzin können drei Subtypen von Datentriangulation entsprechend der Triangulation verschiedener Zeitpunkte, Personen und/oder Orte unterschieden werden. So kann, wie z. B. in der Studie von Schwab (2009), die Datenerhebung zu mehreren Zeitpunkten stattfinden. Obwohl es nicht um das Nachzeichnen einer Entwicklung ging, erstreckten sich die Videomitschnitte von Unterrichtssequenzen in dieser Untersuchung über zwei Schuljahre. Die Erhebung von Daten mit einer spezifischen Methode kann auch mit einer weiteren Person oder Personengruppe durchgeführt werden, was geradezu den Regelfall darstellt und mit Blick auf Sampling-Prozeduren zu reflektieren ist (vgl. Kapitel 4.3). Der dritte Triangula tionstyp beschreibt die Kombination von Datensätzen, die an mehreren verschiedenen Orten erhoben wurden. In allen drei Fällen geht es nicht darum, auf diese Weise unterschiedliche Variablen (verschiedene Zeitpunkte, Personen oder Orte) zu erfassen und bei der Analyse zu berücksichtigen, sondern Datentriangulation dient grundsätzlich dazu, die Robustheit der Studie zu erhöhen. Die Beispiele machen deutlich, dass meist mehrere Triangulationsstrategien gleichzeitig verwendet werden und Denzins Klassifizierungen nicht immer trennscharf sind. So ist die lokale Datentriangulation auch zwingend immer eine Kombination verschiedener Personen(gruppen). In Bezug auf die zeitliche Triangulation wird mehrfach angemerkt, dass demnach auch Longitudinalstudien triangulierende Untersuchungen wären, da hier die Datensätze mehrerer Zeitpunkte in Beziehung zueinander gesetzt werden. Dieses Vorgehen dient jedoch weder der Validierung noch der Vertiefung von Erkenntnissen, sondern der Erforschung von Prozessen (s. auch Aguado 2015: 207 – 8). Im Unterschied zu Denzins Verwendung des Begriffs Datentriangulation als Oberbegriff gehen andere Klassifizierungen von Datentriangulation (bezogen auf Personen als verschiedene Informationsquellen), von zeitlicher und örtlicher Triangulation als nebeneinander stehende Triangulationstypen aus (Brown/Rodgers 2002, Cohen/Manion/Morrison 2011). Denzin plädiert in Anlehnung an das theoretical sampling der Grounded Theory dafür, innerhalb einer Studie nach möglichst vielen auf den Forschungsgegenstand bezogenen Datenquellen zu suchen, um durch Vergleiche möglichst kontrastiver Settings entsprechende theoretische Konzepte sukzessive herausarbeiten zu können (Denzin 1970: 301). Dem Prinzip von Replikationsstudien (s. Kapitel 4.5) liegt ein ähnlicher Gedanke zugrunde, doch spricht man von Triangulation nur in den Fällen, in denen Daten bei der Analyse direkt zueinander in Beziehung gesetzt werden; dies ist in der Regel nur im Rahmen jeweils einer Studie der Fall, da Replikationsstudien zwar die Befunde, in der Regel aber nicht die Daten von Vorgängerstudien mit den eigenen Daten in Beziehung setzen (s. auch Kapitel 4.5 zu Metaanalysen).
92
4. Forschungsentscheidungen
4.4.3 Methodentriangulation Die Kombinationen mehrerer Methoden zur Erforschung eines Gegenstands ist die wohl am häufigsten durchgeführte Art der Triangulation. Denzin (1970: 308 – 9) unterscheidet hier zwei Formen: zum einen die Triangulation innerhalb einer Methode (within-method) und zum anderen die Verwendung verschiedener Methoden zur Beantwortung einer Forschungsfrage (between-method). Wenn z. B. in der Studie von Schart (2003) innerhalb eines Fragebogens offene und geschlossene Fragen gestellt werden, kann hier von methodeninterner Triangulation gesprochen werden. Schwab (2009) arbeitete in seiner Untersuchung methodenübergreifend und triangulierte das Verfahren der videografischen Unterrichtsbeobachtung mit anschließenden retrospektiven Interviews mit den an der Studie teilnehmenden Lehrenden; außerdem wurden die Schülerinnen und Schüler leitfadengestützt interviewt (between method triangulation). Diese Referenzarbeit illustriert somit das Potential einer Kombination von Beobachtungen zur Erfassung der sozialen Dimension mit Befragungen zur Erfassung der mentalen Dimension. Doch auch innerhalb einer Perspektive lassen sich Methoden triangulieren; beispielsweise kombinierte Arras (2007) die Methode des Lauten Denkens mit der Durchführung retrospektiver Interviews. Vergleichsweise selten findet der methodentriangulatorische Fall Erwähnung, dass derselbe Datensatz mit unterschiedlichen Auswertungsverfahren bearbeitet wird wie beispielsweise von Knorr (2015), die Planungsgespräche von angehenden Lehrpersonen sowohl inhaltsanalytisch als auch gesprächsanalytisch auswertete. Werden jedoch unterschiedliche Variablen mit unterschiedlichen Methoden erhoben, wie dies u. a. die Referenzarbeit von Biebricher (2008) illustriert, so handelt es sich nicht um ein triangulatorisches, sondern um ein mehrmethodisches Vorgehen. Eine spezielle Form der methodologischen Triangulation stellt die Verbindung quantitativer und qualitativer Forschungsmethoden dar, die auch als mixed methods oder mixed methodologies bezeichnet wird (s. Kapitel 3.3). Diese Mischung von Methoden, die ehemals nahezu unvereinbare Paradigmen verknüpft, wird gegenwärtig nicht mehr in Frage gestellt; es werden jedoch Diskussionen nach dem Verhältnis beider Positionen innerhalb eines Forschungsdesigns, nach der Gewichtung der Ergebnisse, der Abfolge des Einsatzes der jeweiligen Methode und nach dem Umgang mit Divergenzen geführt (z. B. Flick 2011: 75 – 96, Kelle/ Erzberger 2004, Kuckartz 2014, Lamnek 2010: 245 – 265, Mayring 2001, Schründer-Lenzen 2010). Gerade divergierende Ergebnisse werden eher als Chance betrachtet, da die Suche nach alternativen Erklärungen zur Modifikation von Theorien führen kann (Lamnek 2010: 259).
4.4.4 ForscherInnentriangulation Als ForscherInnentriangulation wird der Fall bezeichnet, bei dem „das gleiche Phänomen von unterschiedlichen Forschern (Beobachtern) untersucht und interpretiert [wird]; die Ergebnisse werden trianguliert, man erhofft sich so, den Einfluss von Forschern auf den Forschungsgegenstand ermitteln zu können“ (Kuckartz 2014: 46). Es ist damit also kein arbeitsteiliges Vorgehen, sondern der Prozess der Zusammenführung von gemeinsam oder unabhängig voneinander durchgeführten Erhebungs-, Aufbereitungs- und/oder Auswertungsschritten
4.4 Triangulation
93
gemeint. Dieser Prozess dient zumeist der Erhöhung der Reliabilität, in einigen Fällen auch der Komplementarität von individuell bedingten Herangehensweisen. Die Erhebung von Messwerten und deren statistische Auswertung im Rahmen des quantitativen Forschungsparadigmas erfordern in der Regel keine ForscherInnentriangulation, doch bei der Quantifizierung qualitativer Daten (also beispielsweise bei der Überführung von Video- und Videotranskriptdaten in Zahlenwerte) empfiehlt es sich in einigen Fällen, die Inter-Coder- bzw. die Inter-Rater-Reliabilität zu überprüfen (vgl. Hugener et al. 2006). Bei niedrig-inferenten Kodier- und Beurteilungsvorgängen (z. B. Welches Objekt hat die im Morgenkreis erzählende Person in der Hand? Wie ruhig verhalten sich die Zuhörenden im Erzählkreis?) ist dies möglicherweise unnötig, während es bei hoch-inferenten Kodier- und Beurteilungsprozessen (z. B. Welche Art von Geschichte erzählt die Person? Wirkt sie motiviert?) jedoch sehr relevant erscheint. Im Rahmen des qualitativen Forschungsparadigmas handelt es sich fast durchgängig um hoch-inferente interpretative Analyseprozesse, die den Gütekriterien der Transparenz und der intersubjektiven Nachvollziehbarkeit gerecht werden sollen (s. Kapitel 2). Dementsprechende Beispiele für ForscherInnentriangulation reichen von der Präsentation und Diskussion eigener interpretativer Analysen in einer Forschergruppe über interaktionsanalytische Datensitzungen bis zur Gegenkodierung von Teil- oder Gesamtdatenkorpora wie beispielsweise in der Referenzarbeit von Hochstetter (2011), in der das gesamte Material von zwei Kodiererinnen getrennt voneinander bearbeitet wurde. Aufgrund begrenzter Ressourcen ist eine wünschenswerte ForscherInnentriangulation jedoch häufig unmöglich; in solchen Fällen erscheint die Überprüfung der Intra- (im Gegensatz zur Inter-) Coder- bzw. der Intra-Rater-Reliabiltät als mögliche Lösung. So wurde in der Referenzarbeit von Arras (2007) zur Erhöhung der Reliabilität beispielsweise eine Zweitkodierung im zeitlichen Abstand von drei Monaten von derselben Forscherin durchgeführt. ForscherInnentriangulation spielt im Rahmen qualitativer Forschung jedoch nicht nur bei der interpretativen Auswertung eine wichtige Rolle: Auch der Einfluss der forschenden Person(en) in der Erhebungsphase ist bei nicht-standardisierten Verfahren, beispielsweise bei Interviews oder bei teilnehmender Beobachtung, von großem Interesse (vgl. auch Schründer-Lenzen 2010 zur epistemologischen Funktion von Triangulation in der Ethnographie). Darüber hinaus ist es bei der Aufbereitung von Audio- und Videodaten im Rahmen interaktionsanalytischer Forschung üblich, die dabei entstehenden detailreichen Transkripte von einer zweiten Person korrigieren zu lassen und das entsprechende Transkriptions- und Korrekturverhältnis zu erfassen, um die Reliabilität der Analysegrundlage zu erhöhen bzw. für die Leserschaft einschätzbar zu machen.
4.4.5 Theorientriangulation Unter Theorientriangulation versteht man in Anlehnung an Denzin (1970: 303) in der Regel die Annäherung an Daten aus verschiedenen theoretischen Perspektiven und mit unterschiedlichen Hypothesen, um auf diese Weise ggf. Hypothesen zu widerlegen und die Nützlichkeit und Stärke verschiedener Theorien zu überprüfen. Laut Flick (2011: 14) „sollen hier aber auch die Erkenntnismöglichkeiten fundiert und verbreitert werden“.
ngsgegen u s ch
Datentriangulation
Untersuchung des gleichen Phänomens durch unterschiedliche Personen (z.B. Interrater-Reliabilität)
ForscherInnentriangulation
Annäherung an Daten aus verschiedenen theoretischen Perspektiven
Theorientriangulation
Kombination verschiedener Datensätze bei gleicher Methode: Variation des Zeitpunktes, der Personen, des Ortes
nd ta
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Voraussetzungen: Gegenstandsangemessene Integration von Verfahren/Ansätzen, Methodenkompetenz, professionelle Reflektiertheit
mixed methods Kombination qualitativer und quantitativer Methoden
between methods Triangulation verschiedener Methoden
within method methodeninterne Triangulation
Kombination von Methoden
Methodentriangulation
For s
Betrachtung eines Forschungsgegenstands aus mehreren Perspektiven
4.4 Triangulation
94 4. Forschungsentscheidungen
4.4 Triangulation
95
Aguado (2014: 50) stellt fest, dass Theorientriangulation „in der Forschungsrealität kaum vor[kommt]“, und vertritt die Auffassung, dass es „weder sonderlich zielführend noch sehr ökonomisch [ist], mehrere theoretische Ansätze gleichzeitig in Anwendung zu bringen.“ Konzept und Potential der Theorientriangulation lassen sich jedoch an der zweitsprachendidaktischen Dissertation von Gadow (2016) illustrieren, die mit Blick auf das bildungssprachliche Handeln von ViertklässlerInnen bei Berichten über Experimente zum Sinken und Schwimmen systematisch Theorien aus der Naturwissenschaftsdidaktik und aus der Linguistik zusammenführt. Sie arbeitet u. a. heraus, dass das auf das inhaltlich-konzeptionelle Lernen ausgerichtete naturwissenschaftsdidaktische Konstrukt des evidenzbasierten Begründens gewinnbringend mit den unter funktional-pragmatischer Perspektive entwickelten Konstrukten des (einfachen und funktionalen) Beschreibens und des (einfachen und funktionalen) Erklärens in Verbindung gebracht werden kann. Ihre empirische Untersuchung zeigt, dass sich eine Theorientriangulation in Form einer „bedeutsame[n] Integration“ (Aguado 2015: 208) im Gegensatz zur „bloße[n] Akkumulation“ (ebd.) insbesondere als Grundlage von interdisziplinär angelegten Forschungsarbeiten als sehr gewinnbringend erweisen kann. Dieser Aspekt ist für kooperative Projekte von besonderer Relevanz.
4.4.6 Fazit Allen Triangulationsarten liegt der Gedanke einer Integration im Gegensatz zu einer reinen Akkumulation zugrunde. Daten- und Methodentriangulation spielen in der Fremd- und Zweitsprachenforschung zweifellos eine prominentere Rolle als ForscherInnen- und Theorientriangulation. Der Einsatz mehrerer Methoden ist inzwischen fast zu einem Gütekriterium qualitativer Forschung geworden, was vielfach kritisch hinterfragt wird (z. B. Aguado 2015, Lamnek 2010, Settinieri 2015). Aguados Meinung nach sollte nicht der Eindruck entstehen, „dass ein mehrmethodisches Vorgehen für eine hochwertige, aktuellen forschungsmethodologischen Entwicklungen verpflichtende qualitative Forschung zwingend erforderlich sei“ (2015: 204). Als notwendige Voraussetzung für die Durchführung einer triangulierenden Studie wird immer wieder die angemessene Auswahl an Methoden und deren sinnvolle Kombination gefordert, um ein eklektisches Nebeneinander diverser Verfahren ohne direkten Mehrwert zu vermeiden. Vor allem bei einer mixed-methods-Triangulation, aber auch bei Triangulation innerhalb des qualitativen Paradigmas ist zu beachten, dass nicht alle Methoden per se miteinander kombinierbar sind. Es muss daher sorgfältig abgewägt werden, ob Untersuchungsgegenstand, Forschungsfrage(n) und Erhebungs- sowie Auswertungsmethode optimal zueinander passen. Neben einem erhöhten Aufwand bei der Durchführung mehrmethodischer Forschung ist ein höheres Maß an Methodenkompetenz und professioneller Reflektiertheit nötig, um die Potentiale der Methodentriangulation voll ausschöpfen zu können. Grundsätzlich erscheint eine Annäherung an den Forschungsgegenstand notwendig, die sich zunächst der Vielfalt theoretischer Perspektiven bewusst wird, um daran anschließend Entscheidungen bezüglich der Verwendung verschiedener Methoden, Datensätze, ForscherInnen oder Theorien gegenstandsangemessen und theoretisch begründet zu treffen.
96
4. Forschungsentscheidungen
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin (2014). Triangulation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremdund Zweitsprache. Paderborn: Schöningh, 47 – 56. Aguado, Karin (2015). Triangulation: Möglichkeiten, Grenzen, Desiderate. In: Elsner, Daniela/Viebrock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 203 – 219. *Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDaF). Tübingen: Narr. [Referenzarbeit] Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. Brown, James D./Rodgers, Theodore S. (2002). Doing Second Language Research. Oxford: Oxford University Press. Campbell, Donald T./Fiske, Donald W. (1959). Convergent and discriminant validation by the multitrait-multimethod matrix. In: Psychological Bulletin 56, 81 – 105. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. New York: Routledge. Denzin, Norman K. (1970). The Research Act. Chicago: Aldine. Denzin, Norman K. (1989). The Research Act. 3. Auflage. Englewood Cliffs, NJ: Prentice Hall. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. [Referenzarbeit] Fielding, Nigel G./Fielding, Jane L. (1986). Linking data. Beverly Hills, CA: Sage. Flick, Uwe (2011). Triangulation. Eine Einführung. 3. aktualisierte Auflage. Wiesbaden: Verlag für Sozialwissenschaften. *Gadow, Anne (2016). Bildungssprache im naturwissenschaftlichen Sachunterricht. Beschreiben und Erklären von Kindern mit deutscher und anderer Familiensprache. Berlin: ESV. *Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit] Hugener, Isabelle/Rakoczy, Katrin/Pauli, Christine/Reusser, Kurt (2006). Videobasierte Unterrichtsforschung. Integration verschiedener Methoden der Videoanalyse für eine differenzierte Sicht auf Lehr-Lernprozesse. In: Rahm, Sybille/Mammes, Ingelore/Schratz, Michael (Hg.). Schulpädagogische Forschung. Bd. 1: Unterrichtsforschung. Perspektiven innovativer Ansätze. Innsbruck: Studienverlag, 41 – 53. Kelle, Udo/Erzberger, Christian (2004). Qualitative und quantitative Methoden: kein Gegensatz. In: Flick, Uwe/Kardorff, Ernst von/Steinke, Ines (Hg.). Qualitative Forschung: Ein Handbuch. Reinbek: Rowohlt, 299 – 309. *Knorr, Petra (2015). Kooperative Unterrichtsvorbereitung: Unterrichtsplanungsgespräche in der Ausbildung angehender Englischlehrender. Tübingen: Narr. Kuckartz, Udo (2014). Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer Fachmedien. Lamnek, Siegfried (2010). Qualitative Sozialforschung. Lehrbuch. 5. überarbeitete Auflage. Weinheim: Beltz.
4.4 Triangulation
97
Mayring, Philipp (2001). Kombination und Integration qualitativer und quantitativer Analyse. In: Forum Qualitative Sozialforschung/Forum Qualitative Social Research 2(1), Art. 6. [Online: http:// nbn-resolving.de/urn:nbn:de:0114-fqs010 162] (11. 8. 2015). *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit] Schründer-Lenzen, Agi (2010). Triangulation – ein Konzept zur Qualitätssicherung von Forschung. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. vollständig überarbeitete Auflage. Weinheim: Juventa, 149 – 158. *Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. [Referenzarbeit] Settinieri, Julia (2015). Forschst Du noch, oder triangulierst Du schon? In: Elsner, Daniela/Viebrock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 17–35. Webb, Eugene J./Campbell, Donald T./Schwartz, Richard D./Sechrest, Lee (1966). Unobtrusive Measure: Nonreactive Research in the Social Sciences. Chicago: Rand McNally. »» Zur Vertiefung empfohlen Flick, Uwe (2011). Triangulation. Eine Einführung. 3. aktualisierte Auflage. Wiesbaden: Verlag für Sozialwissenschaften. Bei der Monografie von Flick handelt es sich um einen gut lesbaren und komprimierten Überblick über die Thematik der Triangulation. Flick gibt einen Abriss über Ursprung und Geschichte des Konzepts und zeichnet kritische Diskussionen nach. Er arbeitet mit zahlreichen Verweisen auf Norman Denzin als den Begründer der Triangulation im Bereich qualitativer Forschung sowie mit vielen beispielhaften Veranschaulichungen aus der Forschungspraxis. Neben einem Fokus auf Methodentriangulation in der qualitativen Forschung, insbesondere in der Ethnographie, richtet Flick sein Augenmerk auf die Kombination qualitativer und quantitativer Forschung und zeigt abschließend praktische Durchführungsprobleme von Triangulationsstudien auf. Settinieri, Julia (2015). Forschst Du noch, oder triangulierst Du schon? In: Elsner, Daniela/Viebrock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Peter Lang, 17–35. Dieser einführende und sehr verständlich geschriebene Beitrag leistet eine präzise Klärung des Triangulationsbegriffs. Dazu wird erstens der Forschungsdiskurs zu den beiden Funktionen Validierung und Erkenntniserweiterung seit den 1950er Jahren nachgezeichnet und zweitens ein informativer Überblick über Daten-, Methoden-, Theorien- und ForscherInnentriangulation gegeben. Der Begriff der Triangulation wird drittens in ebenso erhellender Weise auch auf die Diskussion von mixed methods bezogen und viertens in der überraschenden Wendung der Titelfrage zu „Triangulierst Du noch, oder forschst Du schon?“ auch als aktuelle Modeerscheinung kritisch hinterfragt.
98
4. Forschungsentscheidungen
Der zweite Blick: Meta-Analysen6 und
4.5
Replikationen Claudia Harsch
4.5.1 Einführung Mit steigender Zahl an Studien und der Kumulierung von Forschungsergebnissen zu einem bestimmten Bereich steigt auch der Bedarf an einer Synthese dieser Ergebnisse, ebenso wie das Interesse an einer Replikation bestimmter Studien, um zu generalisierbaren Aussagen über verschiedene Zielgruppen und Kontexte hinweg zu gelangen (z. B. Plonsky 2012a). Zur Synthese empirischer Daten eignen sich Meta-Analysen: Ausgehend von einer umfassenden Literaturrecherche werden systematisch empirische Daten gesammelt und analysiert, um zu empiriegestützten Aussagen über eine Vielzahl von Studien hinweg zu gelangen; darüber hinaus erlauben Meta-Analysen die Analyse etwaiger Moderatorvariablen zur Bestimmung des Einflusses, die diese auf die zu untersuchenden Variablen ausüben (Plonsky/Oswald 2012a). Replikationsstudien hingegen haben das Ziel, ausgewählte Studien zu replizieren, um Ergebnisse zu validieren oder die Übertragbarkeit von Ergebnissen auf andere Kontexte oder Zielgruppen zu überprüfen. Die Ergebnisse solcher Replikationsstudien können ebenfalls in Meta-Analysen einfließen, um zu evidenzbasierten und möglichst generalisierbaren Synthesen zu kommen. Solche Synthesen können zum einen eine gegebene Studie im Kontext des derzeitigen Wissensstands platzieren, sie stellen aber auch die Basis für weitere Forschung dar, da sie den derzeitigen Erkenntnissstand zusammenfassen und somit aufzeigen helfen, wo es Forschungsbedarf gibt. Des Weiteren leisten sie einen Beitrag zur evidenzbasierten Entscheidungsfindung, indem sie die Forschungserträge auf einem bestimmten Gebiet kumulativ zusammenstellen (z. B. Rousseau/McCarthy 2007). Meta-Analysen und Replikationen sind jedoch zu unterscheiden von vergleichenden Überblicksforschungen, wie sie etwa Schmenk (2008) darstellt. Solch ein zweiter theoretischer Blick fasst existente Forschung zusammen, doch werden keine neuen Analysen mit bestehenden Daten und keine neuen Datenerhebungen durchgeführt. Eine gute Übersicht zu mehr als 140 Meta-Analysen und Forschungssynthesen im Bereich der Zweit- und Fremdsprachenforschung bietet die Internetseite von Luke Plonsky (http:// oak.ucc.nau.edu/ldp3/bib_metaanalysis.html). Die Universität Murcia bietet unter http:// www.um.es/metaanalysis eine Übersicht über Bücher zum Thema und eine Datenbank zu Publikationen von Meta-Analysen.
6 Ich möchte mich bei Yo In’nami und Eric A. Surface für den wertvollen Input ihres Pre-Conference Workshops auf dem Language Testing Research Colloquium (LTRC) im Juni 2014 in Amsterdam bedanken.
4.5 Der zweite Blick: Meta-Analysen und Replikationen
99
4.5.2 Durchführung von Meta-Analysen Meta-Analysen werden wegen ihres Umfangs meist von einem Team von Forschenden durchgeführt; sie bestehen aus einer Abfolge von Schritten, welche im Folgenden kurz beschrieben werden:
• Problemstellung; • Literaturrecherche; • Evaluation und Kodierung der ausgewählten Studien; • Datenanalyse, Untersuchung der Ergebnisse, Interpretation; • Berichterstattung, Publikation. Die Formulierung der Problemstellung, der zu untersuchenden Fragestellung ist von zentraler Bedeutung. Sie kann sowohl theoriegeleitet als auch empirisch begründet sein. Eng geführte Fragen eignen sich, um bekannte Hypothesen und Effekte zu prüfen, Forschungen zu dieser Themestellung zusammenzufassen oder bestimmte Populationen und Kontexte zu vergleichen. Offenere Problemstellungen eignen sich, um neue Erkenntnisse aus der Synthese zu gewinnen. Die Fragestellung bestimmt somit, welche Studien in die Meta-Analyse einfließen sollen; beispielsweise hängen die Auswahl und der Fokus auf konzeptionelle Fragen, Methoden, Probanden, Messmodelle und berichtete empirische Indizes (outcome measures) von der Fragestellung ab. Die Literaturrecherche ist direkt von der Problemstellung geleitet. Hier gilt es, so umfassend und systematisch wie möglich vorzugehen, um möglichst viele Studien und Replikationen in der zu untersuchenden Problemstellung zu erfassen. Dabei sollten neben den einschlägigen Zeitschriften, Buch- und Kongresspublikationen und Internetrecherchen (z. B. google scholar) auch Datenbanken abgefragt werden (In’nami/Koizumi 2011). Bei der Recherche stellt sich das Problem des so genannten publication bias, da in der Regel nur Studien mit signifikanten Effekten publiziert werden; dadurch gehen für die Synthese wertvolle Informationen verloren, welche zumindest teilweise durch statistische Verfahren abgefangen werden können (Hunter/ Schmidt 2004; s. unten die Ausführungen zu Datenanalyse und Untersuchung der Ergebnisse). Darüber hinaus gibt es Datenbanken zu unveröffentlichten Studien, die herangezogen werden können. Auch auf den so genannten English language bias darf verwiesen werden: Publikationen in internationalen englischsprachigen Journals berichten oft stärkere Effekte als Publikationen in anderen Sprachen; hier hilft es, auch anderssprachige Publikationen zu beachten. Es gilt, transparente Kriterien zum Einschluss (und ggf. Ausschluss) von Studien zu entwickeln; der Kriterienkatalog kann in einem iterativen Prozess während der Auseinandersetzung mit der Literatur verfeinert werden. Hierbei sollten Forschungsstandards angelegt werden, wie sie beispielsweise Porte (2010) beschreibt. Wichtig ist es, eine gesunde Balance zwischen Ein- und Ausschlusskriterien zu finden, um nicht die Generalisierbarkeit durch den Ausschluss zu vieler Studien zu gefährden, andererseits aber nicht die Qualität und Validität der Ergebnisse der Meta-Analyse durch den Einschluss methodisch mangelhafter Studien zu riskieren. Alle Schritte der Literaturrecherche und der eingesetzten Strategien und Kriterien zur Suche und Auswahl sollten transparent dokumentiert werden. Sind die Studien ausgewählt, müssen sie hinsichtlich ihrer Charakteristika und der berichteten Effektstärken evaluiert und kodiert werden. Hier helfen ein Kodierplan und ein
100
4. Forschungsentscheidungen
Kodierbuch, um die relevanten Charakteristika und das Kodierschema zu definieren. Idealerweise wird das Kodierschema pilotiert und alle Studien werden von mindestens zwei Forschenden kodiert, um zu reliablen und validen Kodierungen zu kommen. In’nami7 schlägt vor, mindestens die folgenden Charakteristika zu den Studien und den empirischen Daten zu kodieren: Studie
Empirische Datenlage
• ID, bibliographische Angaben, Abstract; • Moderatorvariablen: Population, Kontext; • Kriterien zur Qualität der Studie; • Informationen zu etwaigen Artefakten
• Effektstärke (s. Ausführungen unten):Da-
(Hunter/Schmidt 2004);
• Forschungsdesign: Probanden, experimentelles (oder anderes) Design, Manipulationen.
tenbasis, Methode der Bestimmung, etwaige Gewichtung; • Stichprobengröße; • Gemessene(s) Konstrukt(e), Instrumente; • Zeitpunkte, zu denen die verschiedenen Variablen gemessen wurden; • Reliabilität der Messungen; • statistische Tests, die zum Einsatz kamen; • Moderatorvariablen.
Abbildung 1: Kodiervorschläge nach In’nami (s. Fußnote 7)
Spätestens bei der Kodierung der Studien kann es sein, dass fehlende Daten zu Tage treten. Hier kann es helfen, die Autoren direkt anzuschreiben, um gezielt nach fehlenden Informationen zu fragen. Im Zweifelsfall müssen Studien, zu denen keine hinreichenden Daten vorliegen, ausgeschlossen oder die fehlenden Werte mittels statistischer Verfahren imputiert werden. Auch dies sollte dokumentiert werden. Das Konzept der Effektstärken sei hier kurz skizziert (s. auch Kapitel 5. 3. 10), da sie die zentrale Analyseeinheit von Meta-Analysen darstellen (s. Borenstein et al. 2011, insbesondere Kapitel 3 – 9, Plonsky 2012b). Die Ergebnisse empirischer Studien werden in der Regel mittels zweier Statistiken berichtet: Zum einen interessiert die Größe oder die Stärke eines untersuchten Effekts (die so genannte Effektstärke), zum anderen ist die Signifikanz der Effekte wichtig – man bedenke, dass nicht-signifikante Ergebnisse ebenso bedeutsam sind wie signifikante Effekte, doch werden sie meist nicht publiziert (s. oben, publication bias). Effektstärken sind statistische Indizes, welche grundsätzlich auf zwei Wegen bestimmt werden können: mittels Korrelationen (die Gruppe der sogenannten r Indizes) oder mittels (standardisierter) Unterschiede in Mittelwerten oder Standardabweichungen (die Gruppe der d Indizes). Die in den für eine Meta-Analyse ausgewählten Studien berichteten Statistiken lassen sich problemlos in die Effektstärken r oder d überführen8, je nachdem, welche Herangehensweise für die Meta-Analyse verwendet werden soll. Johnson/Eagly (2000) empfehlen r für Studien, die vorwiegend Korrelationen berichten, und d für Studien, welche ANOVA und t-tests einsetzen. 7 Unveröffentlichte Präsentation aus dem Pre-Conference Workshop Meta-Analysis, LTRC 2014, Amsterdam.
8 In’nami empfiehlt den ES Calculator (http://mason.gmu.edu/~dwilsonb/ma.html: download „es_calcula tor.zip“).
4.5 Der zweite Blick: Meta-Analysen und Replikationen
101
Zur eigentlichen Datenanalyse und zur Untersuchung der Ergebnisse gibt es eigens für Meta-Analysen entwickelte Computerprogramme, beispielsweise das Programm Comprehensive Meta-Analysis9. Eine Evaluation verschiedener Programme ist unter http://www.um.es/ metaanalysis/software.php zu finden. Es empfiehlt sich, Einführungen und Workshops zur Nutzung eines bestimmten Programms zu besuchen, um sich mit den Spezifika, Modellen, Annahmen und Anforderungen vertraut zu machen. Generell besteht die zentrale Datenanalyse einer Meta-Analyse aus der Berechnung des Mittelwerts und der Varianz der in den ausgewählten Studien berichteten Effektstärken (Plonsky/Oswald 2012b: 275). Dazu gibt es verschiedene Modelle (die so genannten fixed-, random- oder mixed-effect Modelle, s. Borenstein et al. 2011, insb. Kapitel 10 – 14 und 19), von denen das angemessenste gewählt werden muss. Ebenso müssen Entscheidungen getroffen werden hinsichtlich der zu nutzenden Effektstärkeindizes (s. oben) und der Gewichtung bestimmter Studien. Zur Interpretation der Ergebnisse ist es nötig, sich die Effektstärken, Konfidenzintervalle und die Richtung der Effekte der einzelnen Studien sowie Mittelwert und Varianz der Effekte über die Studien hinweg zu betrachten, um die Homogenität der gefundenen Effektstärken beurteilen zu können. Zur Interpretation helfen neben den statistischen Indizes so genannte forest plots, graphische Darstellungen, welche von den Programmen erstellt werden. Es kann nötig sein, den erwähnten publication bias statistisch zu korrigieren; hierzu gibt es verschiedene Möglichkeiten (s. z.B. Banks/Kepes/Banks 2012, Borenstein et al. 2011, Kapitel 30), von denen die graphische Methode des funnel plottings in der Fremdsprachenforschung die verbreiteste ist (z. B. Norris/Ortega 2000). Es empfehlen sich weiterführende Moderator-Analysen, um den Effekt bestimmter Moderatorvariablen auf die zu untersuchende Variable festzustellen; beispielsweise haben Jeon/Yamashita (2014) Befunde zum Leseverstehen in der Fremdsprache in einer groß angelegten Meta-Analyse zusammengestellt und dabei u. a. die Moderatoren Alter und Vokabelwissen untersucht. Abschließend darf auf so genante Power Analysen verwiesen werden (z. B. Cohen 1988, Plonsky 2013), um die Wahrscheinlichkeit zu bestimmen, dass ein bestimmter statistischer Test einen gegebenen Effekt auch erfassen kann. Dazu werden die notwendige minimale Stichprobengöße oder die minimal zu erwartende Effektgröße bei einer gegebenen Stichprobengröße bestimmt. Power Analysen können für die Einzelstudien, die in eine Meta-Analyse einfließen, ebenso wie retrospektiv für eine gegebene Meta-Analyse durchgeführt werden. Sind die Effektgrößen bestimmt und die Ergebnisse interpretiert, so schließt sich die Phase der Berichterstattung und Publikation an. Hier darf auf die APA Meta-Analysis Reporting Standards (APA 2008, American Psychological Association 2010) verwiesen werden, ebenso wie auf die Hinweise in Plonsky (2012b); letztere eignen sich auch gut zur Evaluation publizierter Meta-Analysen. Folgende Elemente sollte die Publikation minimal abdecken:
9 Download: http://www.meta-analysis.com/pages/full.php; das Programm kann einen Monat kostenlos getestet werden.
102
4. Forschungsentscheidungen
Eingeschlossene Studien
Resultate
• Auswahlkriterien, Publikationsstatus,
• Effekgrößen: Datenbasis, Methode der Be-
Referenzen, Datenbanken; • Forschungskontext; • Teilnehmende: demographische Angaben, Stichprobengrößen; • Forschungsdesign: experimentelles (oder anderes), Pre-/ Post, Längs-/ Querschnitt; • eingesetzte Instrumente.
stimmung, Gewichtung;
• Konfidenzintervalle, obere und untere
Grenzen, Mittelwert, Varianz, forest plots;
• weiterführende Analysen (Moderatoren, publication bias);
• Interpretation, Kontextualisierung der Ergebnisse;
• Implikationen.
Abbildung 2: Minimale Publikationselemente von Meta-Analysen
4.5.3 Replikationsstudien Replikationsstudien dienen der Wiederholung bestimmter Experimente, Interventionen oder Studiendesigns, einerseits zum Zweck der Überprüfung der Generalisierbarkeit der Ergebnisse der Originalstudie für andere Zielgruppen oder Kontexte, andererseits zur Validierung der berichteten Ergebnisse (Abbuhl 2012, Porte 2010). In empirischen Untersuchungen kommt der Replizierbarkeit einer Studie und deren Ergebnissen besondere Bedeutung zu, können doch auf diese Weise die Fehlertypen I und II (fälschliches Verwerfen bzw. Akzeptieren der Nullhypothese) kontrolliert werden (Schmidt 2009). Abbuhl (2012) unterscheidet verschiedene Typen von Replikationsstudien, die sie auf einem Kontinuum von exakter Replikation (eher selten in den Sozialwissenschaften zu finden) über systematische oder approximative Replikation bis hin zur konzeptuellen oder konstruktiven Replikation anordnet. Bei der approximativen Replikation wird die Originalstudie so getreu wie möglich repliziert, doch eine der Schlüsselvariablen wird variiert, um etwa eine andere Zelgruppe oder einen anderen Kontext zu untersuchen. Die konzeptuelle Replikation bleibt dem Untersuchunggegenstand treu, doch verwendet sie zusätzlich zu den qualitativen der Originalstudie andere Zugänge, wie etwa andere Instrumente oder quantitative Methoden. Replikationsstudien beginnen mit der Forschungsfragestellung und der Evaluation und Auswahl einer geeigneten Studie, welche die Forschungsfrage in relevanter Weise operationalisiert und untersucht. Es schließt sich die Entscheidung an, welche Art der Replikation für die zu untersuchende Fragestellung angemessen ist. Hierbei muss die Vergleichbarkeit und Anschlussfähigkeit zwischen Replikation und Originalstudie bedacht werden mit Hinblick auf Zielpopulationen und Stichproben, Untersuchungsgegenstand, Design, eingesetzte Instrumente und Analysemethoden. Etwaige Abweichungen sollten wohlbegründet sein (Gass/Mackey 2005). Nach der Durchführung und Analyse der Replikationsstudie erfolgt die Interpetation der Ergebnisse, immer auch in Bezug auf die Resultate der Originalstudie. Unterstützen die Replikationsbefunde die Ergebnisse der Originalstudie, so kann dies als ein weiterer Hinweis auf die Validität der ursprünglichen Befunde gedeutet werden. Widersprechen die Replikationsergebnisse denen der Originalstudie, kann dies als Anlass genommen werden, die
4.5 Der zweite Blick: Meta-Analysen und Replikationen
103
Generalisierbarkeit bestimmter Ergebnisse kritisch zu diskutieren, oder die Parameter, die in die Studien einflossen, zu hinterfragen und gezielt in weiteren Untersuchungen zu erforschen (z. B. Eden 2002). Abschließend steht der Schritt der Publikation an, in welcher der Anlass der Replikationsstudie und etwaige Abweichungen von der Originalstudie begründet werden, die Vorgehensweise transparent dargestellt und die Ergebnisse im Vergleich zur Originalstudie diskutiert und kommentiert werden sollten.
4.5.4 Anwendung in Studien Während es, wie Schmidt (2009) ausführt, nur wenige Replikationsstudien in den Sozialwissenschaften gibt, erfreuen sich Meta-Analysen zunehmender Beliebtheit. Hier sollen drei Meta-Analysen exemplarisch das Feld illustrieren. Eine frühe, einflussreiche Meta-Analyse wurde von Norris/Ortega (2000) zur Effektivität von L2 Instruktionen durchgeführt. Sie verglichen die Effektstärken von 49 experimentellen und quasi-experimentellen Studien, die in den Jahren 1908 bis 1998 durchgeführt wurden. Sie fanden u. a. heraus, dass explizite Formen des Unterrichtens effektiver sind als implizite und dass fokussiertes Unterrichten zu langfristigen Lernerfolgen führt. Allerdings mussten sie feststellen, dass die Effektstärke vom jeweils eingesetzten Messinstrument beeinflusst wird und dass die Ergebnisse ihrer Meta-Analyse nur beschränkt generalisierbar sind, da es damals dem Feld noch an empirisch rigorosen Operationalisierungen und Replikationen der Konstrukte mangelte. Eine wesentlich umfangreichere Meta-Analyse, die eine gewisse Generalisierbarkeit aufweist, führte Hattie (2009) durch. Die so genannte ‚Hattie-Studie‘ beeinflusste die bildungspolitische Diskussion im In- und Ausland, weshalb sie hier erwähnt werden soll, wenngleich die meisten Studien, die in Hatties Meta-Analyse eingingen, nicht aus dem fremdsprachlichen Unterricht stammen. Er unterzog über 800 Meta-Analysen einer Meta-Metaanalyse und untersuchte 138 unterrichtsrelevante Variablen und ihre Effektivität auf das Lernen. Das Novum an seinem Ansatz ist, dass er die Effektstärken inhaltlich interpretiert, indem er sie in unterschiedliche Bereiche einteilt. Für den untersten Bereich (bis 0,15) behauptet Hattie, dass diese Effekte auch erzielt würden, wenn kein Unterricht stattfinde; Effektstärken im Bereich 0,15 bis 0,40 würden auch durch regulärem Unterricht einer durchschnittlichen Lehrkraft erzielt; nur Effektstärken über 0,40 würden auf tatsächliche Effekte der untersuchten Variablen deuten. Die stärksten Effekte fand Hattie in den Variablen ‚selfreported grades‘, ‚Piagetian programmes‘ und ‚providing formative evaluation‘. Es wäre interessant, diese Variablen gezielt für den fremdsprachlichen Unterricht zu untersuchen. Hattie leitet auf Basis seiner Ergebnisse ein theoretisches Modell erfolgreichen (fachunabhängigen) Lehrens und Lernens ab; er nutzt die Meta-Analyse also zur Theorie-Generierung. Die dritte Meta-Analyse, die hier vorgestellt werden soll, wurde von Jeon/Yamashita (2014) durchgeführt für den Bereich des Leseverstehens in der Fremdsprache. Diese Studie soll die o. g. Moderatorenanalysen illustrieren. Jeon/Yamashita (2014) untersuchten u. a. die Moderatoren Alter und Vokabelwissen. Die Befunde legen nahe, dass das fremdsprachliche Leseverständnis am höchsten mit fremdsprachlichem Grammatik- und Vokabelwissen korre-
→ → → → →
Studie x
Studie 3
Studie y
→ Forschungsfragestellung → Auswahl der Originalstudie → Replikationstyp: exakt, systematisch, approximativ → Durchführung und Analyse → Ergebnisinterpretation im Vergleich zum Original
Studie x
Wiederholung von Studien zur Überprüfung der Generalisierbarkeit von Ergebnissen
Replikationsstudien
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
! aufwändige Umsetzung
Formulierung der Problemstellung Auswahl der Studien publication bias Evaluation, Kodierung Effektstärken Datenanalyse mit Hilfe von Statistik-Software Berichterstattung nach APA Standards
Studie 1
Studie 2
Synthese empirischer Daten über einzelne Studien hinweg, meist im Forschungsteam
Meta-Analysen
Forschungsergebnisse synthetisieren und kumulieren
4.5 Der zweite Blick: Meta-Analysen und Replikationen
104 4. Forschungsentscheidungen
4.5 Der zweite Blick: Meta-Analysen und Replikationen
105
liert und dass Leseverstehen vom Alter und der Distanz zwischen erster und zweiter Sprache beeinflusst wird.
4.5.5 Fazit Die hier vorgestellten Möglichkeiten des ‚zweiten Blicks‘ auf existente Studien, sei es mittels quantitativer Meta-Analysen oder mittels Replikationsstudien, stellen eine Möglichkeit dar, existente Ergebnisse zu nutzen und zu transformieren. Auf diese Weise können, wie es beispielsweise Hattie (2009) zeigt, Theorien entwickelt und untermauert werden, oder es können Ergebnisse eines Bereichs oder Kontexts in neuen Kontexten überprüft werden, wie es in Replikationsstudien geschieht. Diese Herangehensweisen bieten effektive Wege, existente Ergebnisse zusammenzuführen, sie zu validieren und etwa zur evidenzbasierten Entscheidungsfindung oder zur weiteren Forschungsplanung zu nutzen. Allerdings sollten sie in ihrem Aufwand nicht unterschätzt werden. ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Abbuhl, Rebekha (2012). Why, when, and how to replicate research. In: Mackey, Alison/Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition: A Practical Guide. London: Basil Blackwell, 296 – 312. APA Publications and Communications Board Working Group on Journal Article Reporting Standards (2008). Reporting standards for research in psychology: Why do we need them? What might they be? In: American Psychologist 63, 848 – 849. [https://www.apa.org/pubs/authors/jars.pdf] (4. 12. 2015) American Psychological Association (2010). Publication Manual of the American Psychological Association. 6. Auflage. Washington, DC: American Psychological Association. Banks, Georges C./Kepes, Sven/Banks, Karen P. (2012). Publication bias: The antagonist of meta-analytic reviews and effective policy making. In: Educational Evaluation and Policy Analysis 34, 259 – 277. Borenstein, Michael/Hedges, Larry V./Higgins, Julian P. T. / Rothstein, Hannah R. (2011). Introduction to Meta-Analysis. Chichester, UK: Wiley. Cohen, Jacob (1988). Statistical Power Analysis for the Behavioral Sciences. 2nd edition. Hillsdale, NJ: Erlbaum. Eden, Dov (2002). Replication, meta-analysis, scientific progress, and AMJ’s publication policy. In: Academy of Management Journal 45, 841 – 846. Gass, Susan M./Mackey, Alison (2005). Second Language Research: Methodology and Design. Mahwah, NJ: Lawrence Erlbaum. *Hattie, John (2009). Visible Learning: A Synthesis of Over 800 Meta-Analyses Relating to Achievement. Oxon: Routledge. Hunter, John E./Schmidt, Frank L. (2004). Methods of Meta-Analysis: Correcting Error and Bias in Research Findings. 2nd edition. Newbury Park, CA: Sage. In’nami, Yo/Koizumi, Rie (2010). Database selection guidelines for meta-analysis in applied linguistics. In: TESOL Quarterly 44, 169 – 184.
106
4. Forschungsentscheidungen
*Jeon, Eun H./Yamashita, Junko (2014). L2 reading comprehension and its correlates: A meta-analysis. Language Learning 64(1), 160 – 212. Johnson, Blair T./Eagly, Alice H. (2000). Quantitative synthesis of social psychological research. In: Reis, Harry T./Judd, Charles M. (Hg.). Handbook of Research Methods in Social and Personality Psychology. New York: Cambridge University Press, 496 – 528. *Norris, John M./Ortega, Lourdes (2000). Effectiveness of L2 instruction: A research synthesis and quantitative meta-analysis. Language Learning 50, 417 – 528. Plonsky, Luke (2012a). Replication, meta-analysis and generalizability. In: Porte, Graeme K. (Hg.). Replication Research in Applied Linguistics. New York: Cambridge University Press, 116 – 132. Plonsky, Luke (2012b). Effect size. In: Robinson, Peter (Hg.). The Routledge Encyclopedia of Second Language Acquisition. New York: Routledge, 200 – 202. Plonsky, Luke (2013). Study quality in SLA: An assessment of designs, analyses, and reporting practices in quantitative L2 research. In: Studies in Second Language Acquisition 35, 655 – 687. Plonsky, Luke/Oswald, Frederick L. (2012a). Meta-analysis. In: Robinson, Peter (Hg.). The Routledge Encyclopedia of Second Language Acquisition. New York: Routledge, 420 – 423. Plonsky, Luke/Oswald, Frederick L. (2012b). How to do a meta-analysis. In: Mackey, Alison/Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition: A Practical Guide. London: Basil Blackwell, 275 – 295. Porte, Graeme K. (2010). Appraising Research in Second Language Learning. A Practical Approach to Critical Analysis of Quantitative Research. Amsterdam: John Benjamins. Rousseau, Denise M./McCarthy, Sharon (2007). Evidence-based management: Educating managers from an evidence-based perspective. In: Academy of Management Learning and Education 6, 94 – 101. Schmenk, Barbara (2008). Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Schmidt, Stefan (2009). Shall we really do it again? The powerful concept of replication is neglected in the social sciences. In: Review of General Psychology 13, 90 – 100.
»» Zur Vertiefung empfohlen Borenstein, Michael/Hedges, Larry V./Higgins, Julian P. T. / Rothstein, Hannah R. (2011). Introduction to Meta-Analysis. Chichester, UK: Wiley. Das Buch beschreibt in klarer und umfassender Weise alle grundsätzlichen und weiterführenden Aspekte, die zu einer Meta-Analyse gehören. Es erläutert zugrunde liegende Konzepte und führt die Leser an die statistischen Grundlagen und Formeln, welche durch Beispiele veranschaulicht werden. Das Buch eignet sich gut zum Selbststudium und wird durch Online-Materialien ergänzt. Cooper, Harris/Hedges, Larry V./Valentine, Jeff C. (Hg.). (2009). The Handbook of Research Synthesis and Meta-Analysis. 2nd edition. New York: Russel Sage Foundation. Das Handbuch bietet einen guten Einstieg in die Thematik der Meta-Analsyen. Es ist als Enzyklopädie angelegt, wobei die Kapitel sich je einem spezifischen Aspekt widmen. Eine Besonderheit ist, dass sich alle Kapitel auf denselben Datensatz beziehen. Das Buch ist geeignet für Forschende und Statistiker. Plonsky, Luke/Oswald, Frederick L. (2012b). How to do a meta-analysis. In: Mackey, Alison/ Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition: A Practical Guide. London: Basil Blackwell, 275 – 295.
4.5 Der zweite Blick: Meta-Analysen und Replikationen
107
Das Kapitel gibt eine leicht verständliche Einführung in die Planung und Durchführung von MetaAnalysen, mit praktischen Tipps und Anregungen. Es eignet sich gut als erster Einstieg. Porte, Graeme K. (Hg.) (2012). Replication Research in Applied Linguistics. New York: Cambridge University Press. Das Buch bringt Experten zusammen, die die Bedeutsamkeit von Replikationsstudien in der Angewandten Linguistik unterstreichen. Die Autoren beleuchten Replikationsstudien von theoretischer Seite, geben praktische Ratschläge zur Planung, Vorbereitung, Durchführung solcher Studien und nicht zuletzt Hinweise dazu, wie die Studien und Ergebnisse berichtet werden können.
108
4. Forschungsentscheidungen
Forschungsethik
4.6
Michael K. Legutke/Karen Schramm
4.6.1 Begriffsklärung Der Gegenstandsbereich der Forschungsethik umfasst Prinzipien und Regeln, die das Handeln der Forschenden leiten sollen. Er befasst sich mit Fragen wie: Was darf ich als Forschender? Was ist erlaubt? Wem bin ich verantwortlich? (Bach/Viebrock 2012). Obwohl empirische Studien in besonderer Weise ethischen Ansprüchen Rechnung tragen müssen, wie wir darlegen werden, unterliegen alle Typen von Forschung, egal welcher Forschungstradition sie zuzuordnen sind, ethischen Codes. Küster (2011: 139) schlägt vor, den Komplex Ethik in der Fremdsprachenforschung unter zwei Perspektiven in fünf Handlungsfelder zu strukturieren. Er unterscheidet eine „prudentielle Perspektive“ mit den beiden Handlungsfeldern (1) „Verantwortung des Forschers vor und für sich selbst“ und (2) „Verantwortung des Fremdsprachenforschers gegenüber seinem privaten Umfeld“ sowie eine „moralische Perspektive“. Zur letzteren gehört (3) die „Verantwortung des Fremdsprachenforschers gegenüber der scientific community“. Diese zeigt sich u. a. in der Sorgfalt und Vertrauenswürdigkeit des Forschers im Umgang mit anderen Forschungen und Quellen, in der Ehrlichkeit im Umgang mit Positionen und Forschungsergebnissen, der Strenge der Arbeitsweisen und Darstellung sowie der Transparenz der Argumentationen, der Integrität und Lauterkeit des wissenschaftlichen Arbeitsprozesses. Zur moralischen Perspektive gehören ferner (4) die „Verantwortung des empirischen Fremdsprachenforschers gegenüber den unmittelbar Beforschten (quantitative Forschung) bzw. den am Forschungsprozess unmittelbar Beteiligten (qualitative Forschung und Handlungsforschung)“ (Küster 2011: 139) und schließlich (5) die „Verantwortung des Fremdsprachenforschers gegenüber gesellschaftlichen und universitären Institutionen und deren Anforderungen“ (Küster 2011: 139). Die Handlungsfelder 3 und 4 werden in diesem Beitrag genauer bestimmt. Das fünfte Handlungsfeld ist u. a. Gegenstand des Kapitels 2 dieses Handbuchs. Nationale wie internationale Fachgesellschaften aus den Natur- und Sozialwissenschaften haben Ethik-Kodizes entwickelt, die Forschenden eine Grundorientierung geben und deren Prinzipien und Regeln sich auch für die Praxis der Fremdsprachenforschung fruchtbar machen lassen.10 Zu den Grundprinzipien, die in diesen Kodizes in unterschiedlichen Graden der Konkretisierung erscheinen, gehören: das Prinzip der Schadensvermeidung, das Prinzip des Nutzens bzw. des Mehrwerts von Forschung, der Respekt vor anderen Menschen sowie das 10 Für die Fremdsprachenforschung sind besonders relevant: Teachers of English to Speakers of Other Languages (TESOL) ; The American Association of Applied Linguistics (AAAL) ; die Deutsche Gesellschaft für Erziehungswissenschaften (DGfE): . Vgl. auch die Vorstellungen der Deutsche Forschungsgemeinschaft (DFG) zur Sicherung guter wissenschaftlicher Praxis: . Die Ethik-Kodizes verwandter deutscher Fachgesellschaften werden dargestellt in Viebrock 2015: 87 – 97.
4.6 Forschungsethik
109
Prinzip der Redlichkeit (vgl. Kitchener/Kitchener 2009: 13 – 16; Bach/Viebrock 2012). Im Folgenden werden wir die Implikationen solcher Prinzipien für verantwortungsvolles Handeln in der Fremdsprachenforschung verdeutlichen.
4.6.2 Gestaltung von Forschungsbeziehungen Wesentliches Merkmal empirischer fremdsprachendidaktischer Forschung ist ihr sozialer Charakter, denn sie ist abhängig von und situiert in den Beziehungen des Forschers zu Personen und deren Umfeld (z. B. Kinder mit Migrationshintergrund mehrerer Grundschulen einer Großstadt, Erwachsene über 60 einer Kreisvolkshochschule, Lehrer und Lehrerinnen mehrerer Bundesländer). Aus diesem Umstand ergeben sich Verantwortlichkeiten und Ansprüche gegenüber den Personen und ihren Handlungskontexten auf der einen Seite und gegenüber der scientifc community auf der anderen Seite. So stellt sich nicht nur die Frage, wie der Forscher Zugang zu dem Forschungsfeld finden kann und welche Regeln dabei zu beachten sind (z. B. Forschungserlasse der Kultusministerien der Länder), sondern auch, wie ein vertrauensvolles Arbeitsbündnis entwickelt wird, das für den anvisierten Forschungsprozess tragfähig ist (vgl. dazu Holliday 2007: 75 – 104). Die Personen(gruppen) haben Anspruch, dass ihre Interessen geschützt sind und ihre Privatsphäre respektiert wird, dass sie über das Vorhaben, über mögliche Belastungen11 und die Nutzung der Daten (s. Kapitel 4.6.3 und 4.6.4) informiert werden. Arbeitsbündnisse können dann besondere Produktivität entfalten, wenn es gelingt, Formen der Gegenseitigkeit zu entwickeln, die von den am Forschungsprozess beteiligten Personen als gewinnbringend wahrgenommen werden können, wenn es also gelingt, ein Verhältnis des Gebens und Nehmens zu etablieren. Als Beispiele für das forscherseitige Geben sind neben einer möglichen Bezahlung von Untersuchungsteilnehmenden etwa das Versenden der Forschungsergebnisse oder das Angebot von Fortbildungen zu den Forschungsergebnissen zu nennen.12 Im Hinblick auf das forscherseitige Nehmen ist beispielsweise zu reflektieren, dass es angesichts der von den Forschungspartnern investierten Zeit und Mühe nicht gerechtfertigt erscheint, Daten zu erheben, die anschließend nicht ausgewertet werden. Auch wird immer häufiger thematisiert, dass die Forschungspartner (und nicht wie bisher zumeist der Forschende) als Eigentümer der Daten zu konzeptualisieren seien und ihnen damit das Recht der Auswahl von Daten für Analyseprozesse zukomme. Die ethische Forderung nach Transparenz der Ziele, Verfahren und Ergebnisse des Vorhabens bringt allerdings eine doppelte Herausforderung für die Forscher mit sich. Denn 11 Körperliche und psychische Beeinträchtigungen der Untersuchungsteilnehmenden sind bestmöglich zu vermeiden: Unbeabsichtigte Beeinträchtigungen erfordern unverzügliches forscherseitiges Eingreifen; beabsichtigte Beeinträchtigungen wie das Herbeiführen einer besonderen Anstrengung sind im Hinblick auf ihre Notwendigkeit und Zumutbarkeit ethisch zu reflektieren (Aeppli/Gasser/Gutzwiller/Tettenborn 2010: 58 – 59). 12 In besonderer Weise stellt sich die Problematik des Gebens auch dann, wenn vielversprechende oder kostenintensive Maßnahmen (z. B. zusätzliche Sprachförderung, moderne technische Ausstattung) nur bei einem Teil der Forschungspartner erprobt werden. Um die Vergleichsgruppe nicht schlechter zu behandeln, bietet es sich in solchen experimentellen Designs an, die beteiligten Gruppen nacheinander mit den erwünschten Maßnahmen zu versorgen.
110
4. Forschungsentscheidungen
zum einen bedarf die Fachsprache der Wissenschaft, die die Beteiligten in der Regel als unzugänglich wahrnehmen, der angemessenen Übersetzung in die Alltagsprache. Verständnis muss erarbeitet und ausgehandelt werden (Holliday 2007: 145 – 152). Das Dilemma sprachlicher Vermittlung zwischen dem Forscher und den Forschungspartnern einerseits und andererseits den Anforderungen, die an die Veröffentlichung der Ergebnisse von Seiten der Wissenschaft gestellt werden, thematisiert die Referenzarbeit von Schart (2003: 51 – 52). Ferner stellt sich die Frage, wie viel Transparenz aus ethischen Gründen nötig und aus forschungsmethodischen Anforderungen möglich ist, ohne das Vorhaben selbst zu gefährden. Wenn Forschungspartnern aus Gründen des Forschungsdesigns bestimmte Informationen vorenthalten oder sie getäuscht werden, ist von Seiten der Forschenden explizit zu reflektieren, ob dies für das Design tatsächlich unabdingbar ist und ob den Teilnehmenden dadurch in psychologischer Hinsicht Schaden wie beispielsweise Stress oder Unbehaglichkeit entsteht. In der Debriefing-Phase einer solchen Studie sollten die Verantwortlichen dann gewissenhaft dafür Sorge tragen, dass die Teilnehmenden über die Täuschung und die Gründe für die Täuschung aufgeklärt werden (dehoaxing) und dass sie jegliche, durch die Studie verursachte unangenehme Gefühle abbauen können (desensitizing), beispielsweise indem man unerwünschtes Verhalten oder unangenehme Gefühle auf eine Situationsvariable statt auf die Person des Forschungspartners zurückführt oder indem man verdeutlicht, dass das Verhalten oder die Gefühle der Forschungspartner so erwartbar waren (Johnson/Christensen 2008: 116 – 117). Besondere Aufmerksamkeit verlangt schließlich die Phase des Projekts, wenn der Forscher das Feld wieder verlässt und damit die Beziehung beendet. Dieser Feldrückzug muss bewusst als Beendigung einer Beziehung gestaltet und den Teilnehmenden erklärt werden. Rallis/Rossman (2009: 278) erörtern in diesem Zusammenhang das Bild des Verführens und Sitzenlassens: „The image is that you seduce the participants into disclosing their worldviews, then abandon them when you have gotten what you wanted – data“. Auch gehen viele Forscher davon aus, dass den Beteiligten unbedingt die Ergebnisse der Forschung bekannt zu machen seien. Andere wiederum erkennen darin die Gefahr eines „Verletzungsrisiko[s]“ (Miethe 2010: 933); so reflektiert beispielsweise Viebrock (2007) an einem Beispiel aus der Fremdsprachendidaktik, inwieweit ihr Versuch der kommunikativen Validierung schmerzhaft für die betroffene Forschungspartnerin war. Da der Forscher mit dem Eintritt in das Feld und mit dem Aufnehmen und Unterhalten der Beziehungen, dies gilt in besonderem Maße bei qualitativen Studien, durch seine Präsenz nolens volens den Forschungsprozess mit prägt und damit das Forschungsvorhaben selbst verändert, wobei Forschungsfragen neu justiert, konkretisiert und oftmals modifiziert werden (Holliday 2007), erwächst eine besondere Verantwortung gegenüber der scientific community, diesen Forschungsprozess, die Rolle des Forscher und die Dynamik der Beziehungen transparent zu machen (Freeman 2009).
4.6 Forschungsethik
111
4.6.3 Freiwilligkeit der Teilnahme Ein zentrales datenschutzrechtliches und damit gesetzliches Erfordernis empirischer Untersuchungen ist, dass Forschungspartner freiwillig an einer Studie teilnehmen. Forscher müssen deshalb ihre Forschungspartner vor einer Untersuchung über das geplante Vorgehen detailliert informieren und sich deren Teilnahmebereitschaft schriftlich bestätigen lassen. Dies betrifft insbesondere Ziele, Zeitdauer, Procedere, mögliche Nach- und Vorteile für die Forschungspartner, Maßnahmen zur Einhaltung gesetzlicher Datenschutzbestimmungen sowie Ansprechpartner bei rechtlichen und inhaltlichen Fragen (vgl. dazu genauer Mackey/Gass 2005; Johnson/Christensen 2008). Den Forschungspartnern ist ausreichend Gelegenheit zu geben, dazu Fragen zu stellen bzw. zu klären. Essentiell ist dabei, dass die Forschungspartner keinerlei Nachteile bei Nicht-Teilnahme befürchten und dass sie keinerlei Bedrängnis zur Teilnahme verspüren, wie dies beispielsweise der Fall wäre, wenn Forschungspartner dem Fortschritt der Wissenschaft nicht im Weg stehen wollen und sich deshalb der Autorität des Forschers unterordnen, wenn Vorgesetzte ausdrücklich die Teilnahme ihrer Lehrerschaft wünschen, wenn Lehrpersonen ihre Schülerschaft um Einwilligung bitten oder wenn Eltern bei Nicht-Teilnahme ihrer Kinder Nachteile für diese in der Schule befürchten. Forscher stehen in der Verantwortung, proaktiv Maßnahmen gegen derartigen sanften oder unbeabsichtigten Druck zu ergreifen (beispielsweise mit der Lehrerin abzusprechen, dass sie bei der Datenerhebung nicht anwesend ist). Die informierte Einwilligungserklärung sollte grundsätzlich auch auf die Tatsache aufmerksam machen, dass die Teilnahme an der Studie jederzeit (während und auch nach der Datenerhebung) ohne weitere Erklärung zurückgezogen werden kann; zu diesem Zweck sollte der Forscher die entsprechenden Kontaktinformationen bereitstellen. Darüber hinaus müssen die Forschungspartner über die weitere Verwendung der Daten informiert werden. Dazu gehört, dass sie vor ihrer informierten Einwilligungserklärung erfahren, wie lange die Daten verwahrt werden, wer Zugang zu den Daten hat und in welcher Form die Daten in Publikationen oder Vorträgen präsentiert werden. Darüber hinaus sind ethische Prinzipien auch dann zu bedenken und in den entsprechenden Publikationen zu thematisieren, wenn Zweifel bestehen, inwieweit die Forschungspartner in der Lage sind, die Einwilligungserklärung zu verstehen. Dies ist in der Fremdsprachenforschung in sprachlicher Hinsicht insbesondere im Hinblick auf die Zusammenarbeit mit Migranten von Bedeutung, denen die entsprechenden Einwilligungserklärungen bei entsprechenden Zweifeln in ihrer Erstsprache vorgelegt oder mündlich in der Erstsprache erläutert werden sollten. Doch auch konzeptuelle Verständnisschwierigkeiten schutzbedürftiger Gruppen wie beispielsweise schriftunkundiger Zweitsprachenlerner, Kinder, dementer oder geistig behinderter Personen sind ggf. zu reflektieren und angemessen zu berücksichtigen. Bei Kindern und Jugendlichen unter 18 Jahren sind darüber hinaus ebenfalls die Eltern um ihre Einverständniserklärung zu bitten; bei Untersuchungen in Schulen ist beim entsprechenden Kultusministerium eine Genehmigung zu erwirken, was in der Regel einen längeren zeitlichen Vorlauf von mehreren Monaten erfordert. Noch virulenter sind solche ethischen Problemlagen häufig bei Internetforschungen, bei denen schwerer zu beurteilen ist, ob die Forschungspartner die Informationen zum Forschungsvorhaben tatsächlich verstanden haben und ob sie in der Lage oder alt genug sind,
or
r/in
(*) Transparenz Ehrlichkeit Geben und Nehmen Zugang zum Feld Rückzug aus dem Feld Freiwilligkeit Vertraulichkeit
he sc
handlungsleitende Prinzipien und Regeln (*)
F
mu
4.6 Forschungsethik
prudentielle Perspektive moralische Perspektive
h u n g sfeld
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Manipulation von Daten, Verleugnen der Autorschaft, Plagiarismus
wissenschaftliches Fehlverhalten
informierte Einwilligungserklärung, Datensicherheit, Pseudonymisierung / Anonymisierung
Gesetze
Mehrwert, Respekt, Redlichkeit, Schadensvermeidung
Ethik-Kodizes
1) für sich selbst 2) für das Umfeld 3) gegenüber der scientific community 4) gegenüber den Beteiligten 5) gegenüber Institutionen
Verantwortung
Forschung = dynamisches Arbeitsbündnis im sozialen Gefüge
sci e n
tifi c c
nity
rsc o F
o
m
112 4. Forschungsentscheidungen
4.6 Forschungsethik
113
ihre Einwilligung zu erklären. In solchen Fällen gewinnen nach Eynon/Fry/Schroeder (2008) Bemühungen um eine verständliche Sprache und ggf. auch online-Verständnistests besondere Bedeutung. Erwähnt sei in diesem Zusammenhang auch, dass Beobachtungsstudien in virtuellen Welten wie Second Life oder bei der Teilnahme an Chatgroups mit derselben ethischen Reflexion wie auch in der realen Welt anzugehen sind (ebd.); auch für das Debriefing ist bei Internetforschung besondere Sorge zu tragen (Johnson/Christensen 2008: 126).
4.6.4 Vertraulichkeit der Daten Ebenfalls gesetzlich geregelt ist in den meisten (Bundes-)Ländern, welche Anforderungen an die Vertraulichkeit der Daten zu stellen sind. Eine wichtige Unterscheidung ist in diesem Zusammenhang zwischen Anonymisierung und Pseudonymisierung zu treffen. Anonyme Daten liegen dann vor, wenn dem Untersuchungsteam die Zuordnung von Daten zu Namen unmöglich ist (bspw. beim Einsatz nummerierter Fragebögen ohne Erhebung von Namen). Pseudonymisierung bedeutet hingegen, dass dem datenerhebenden Forscher die Namen der Forschungspartner bekannt sind, diese aber bei der Aufbereitung der Daten durch Pseudonyme ersetzt werden, sodass weder bei der Bearbeitung der Daten noch bei der Präsentation der Ergebnisse die Identität der Forschungspartner bekannt wird.13 Die Referenzarbeit von Ehrenreich (2004: 457) illustriert den Einbezug der Forschungspartnerinnen in die Pseudonymisierung der Transkripte. Die Autorin gibt den interviewten Fremdsprachenassistentinnen neben der Korrektur inhaltlicher Fehler hinaus auch die Möglichkeit, über die von der Autorin vorgenommene Pseudonymisierung14 hinaus auch bestimmte Wörter zu neutralisieren oder zu streichen. Fürsorglich weist sie im Sinne eines Schutzes der Forschungspartnerinnen auch darauf hin, dass niemand aufgrund der für die Mündlichkeit charakteristischen Satzbrüche und anderer Phänomene der Mündlichkeit an der eigenen Ausdrucksfähigkeit zweifeln solle. Pseudonymisierung stellt insbesondere bei der Arbeit mit Bild- und Videomaterial eine Herausforderung dar, da arbeitsaufwändige Verpixelungen oder Balken über Gesichtern die Identitäten von Forschungspartnern unter Umständen nicht hinreichend verdecken, mög licherweise aber sogar die Datenauswertung behindern. So ist es bei Einwilligungserklärungen hinsichtlich videographischer Fremdsprachenforschung insbesondere von Interesse, den Forschungspartnern alternative Präsentationsweisen der audiovisuellen Daten (von der Begrenzung auf pseudonymisierte Transkripte bis hin zu Filmvorführungen bei Vorträgen auf wissenschaftlichen Konferenzen und in der Lehreraus- und -weiterbildung) anzubieten und ihr schriftliches Einverständnis einzuholen. Ethisch zu reflektieren ist auch der Wunsch einiger Forschungspartner, ihre Identität zu benennen, um auf diese Weise ihren Forschungsbeitrag zu würdigen. Wie Miethe (2010: 931 – 932) ausführt, ist bei De-Anonymisierung jedoch insbesondere zu bedenken, inwieweit die Betroffenen, vor allem Kinder, die Reichweite einer solchen Entscheidung absehen 13 Auch bereits während der Datenerhebung ist darauf zu achten, dass auf Nachfrage der Forschungspartner keine Weitergabe der Informationen von anderen Personen erfolgt.
14 Allerdings spricht Ehrenreich (2004: 457) selbst von Anonymisierung.
114
4. Forschungsentscheidungen
können und inwieweit damit auch andere Personen wie Familienmitglieder oder Kollegen de-anonymisiert werden. Ebenfalls reflexionsbedürftig erscheint bei Internetforschung beispielsweise das Zitieren von Postings in Diskussionsforen, da diese im Internet unmittelbar aufgefunden werden können und möglicherweise die Identität der Beforschten preisgeben; auch die sichere Datenübertragung bei Befragungen bzw. der mögliche Zugriff Dritter auf die Daten muss Internetforscher in besonderer Weise beschäftigen (vgl. Eynon/Fry/Schroeder 2008). Da bei Internetforschung keine klaren nationalen Grenzen gegeben sind und somit rechtliche Grauzonen entstehen, erscheint in diesen Fällen die ethische Reflexion durch das Forscherteam in besonderer Weise geboten (s. ebd.).
4.6.5 Wissenschaftliches Fehlverhalten Neben dem Betrug wie beispielsweise dem Fälschen von Daten oder dem Manipulieren von Ergebnissen sind als wissenschaftliches Fehlverhalten auch solche Fälle zu bezeichnen, in denen der Umgang mit gefälschten Daten von Kollegen bewusst übersehen wird, bestimmte (widersprüchliche) Daten gezielt zurückgehalten werden oder das Forschungsdesign auf Druck des Geldgebers verändert wird (Johnson/Christensen 2008: 104; s. Kapitel 2). Bei Publikationsaktivitäten ist im Hinblick auf wissenschaftliches Fehlverhalten zum einen die Frage der Autorenschaft von besonderer Relevanz. Autorenschaft gebührt denjenigen, die entscheidend zur Entwicklung und Durchführung des Forschungsprojekts beigetragen haben; besondere Sensibilität ist diesbezüglich bei einem hierarchischen Gefälle der Beteiligten bzw. bei Kooperationen von etablierten Forschern mit Nachwuchswissenschaftlern angebracht. Zum anderen steht der Plagiarismus immer wieder im Mittelpunkt der universitären und der öffentlichen Diskussion, da der Diebstahl geistigen Eigentums einen grundlegenden Verstoß gegen die ethischen Prinzipien des wissenschaftlichen Arbeitens sowie auch gegen das Urheberrecht und damit ein strafbares Vergehen darstellt, das rechtliche Konsequenzen nach sich zieht (Ackermann 2003; Aeppli/Gasser/Gutzwiller/Tettenborn 2010: 57).
4.6.6 Fazit Die hier erörterten Handlungsmaximen sind nicht als abzuarbeitender Regelkatalog misszuverstehen. Vielmehr sollen sie die Sensibilität für die Implikationen forschenden Handelns fördern. Forschende sind gehalten, sich immer wieder neu der Konsequenzen ihres Handelns bewusst zu werden. Abweichungen von Prinzipien sind im Kontext konkreter Forschungsprojekte nicht zu vermeiden; solche Abweichungen bedürfen jedoch der genauen Begründung und der kritischen Abwägung, die auch den Rat von Experten mit einbezieht (vgl. Denscombe 2010: 77). Macfarlane (2009) entwickelt seine Forschungsethik auf der Grundlage von sechs Tugenden. Zu diesen gehört neben Mut, Respekt, Entschlossenheit, Ernsthaftigkeit und Bescheidenheit die Schlüsseltugend der Reflexivität, die Fähigkeit Abstand zu nehmen,
4.6 Forschungsethik
115
zu fragen, ob ich als Forscherin, als Forscher meinen Verantwortlichkeiten gerecht werde und wie ich mein Handeln begründe. Es ist genau jene Tugend, der wir mit diesem Kapitel das Wort reden. ›› Literatur Ackermann, Kathrin (2003). Plagiat. In: Ueding, Gert (Hg.). Historisches Wörterbuch der Rhetorik. 6. Auflage. Darmstadt: Wissenschaftliche Buchgesellschaft, 1223 – 1230. Aeppli, Jürg/Gasser, Luciano/Gutzwiller, Eveline/Tettenborn, Annette (2010). Empirisches wissenschaftliches Arbeiten. Ein Studienbuch für die Bildungswissenschaften. Bad Heilbrunn: Klinkhardt. Bach, Gerhard/Viebrock, Britta (2012). Was ist erlaubt? Forschungsethik in der Fremdsprachenforschung. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 19 – 35. Denscombe, Martyn (2010). Ground Rules for Social Research. Guidelines for Good Practice. 2. Auflage. Maidenhead: Open University Press. Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. München: Langenscheidt. [Referenzarbeit, s. Kapitel 7]. Eynon, Rebecca/Fry, Jenny/Schroeder, Ralph (2008). The ethics of internet research. In: Fielding, Nigel/ Lee, Raymond M./Blank, Grant (Hg.). The Sage Handbook of Online Research Methods. Los Angeles, CA: Sage, 23 – 41. Freeman, Donald (2009). What makes research qualitative? In: Heigham, Juanita/Crocker, Robert (Hg.). Qualitative Research in Applied Linguistics. A Practical Introduction. Houndmills: Palgrave Macmillan, 25 – 41. Holliday, Adrian (2007). Doing and Writing Qualitative Research. 2. Auflage [Kap. 7: Writing about Relations]. Los Angeles, CA: Sage, 137 – 163. Johnson, R. Burke/Christensen, Larry B. (2008). Educational Research. Quantitative, Qualitative, and Mixed Approaches. 3. Auflage. Los Angeles, CA: Sage. Kitchener, Karen/Kitchener, Richard (2009). Social science research ethics: Historical and philosophical issues. In: Mertens, Donna/Ginsberg, Pauline (Hg.). The Handbook of Social Research Ethics. Los Angeles, CA: Sage, 5 – 22. Küster, Lutz (2011). Entscheidungs(spiel)räume in der Fremdsprachenforschung. In: Bausch, KarlRichard/Burwitz-Melzer, Eva/Königs, Frank/Krumm, Hans-Jürgen (Hg.). Erforschung des Lehrens und Lernens fremder Sprachen: Forschungsethik, Forschungsmethodik und Politik. Tübingen: Narr, 135 – 145. Macfarlane, Bruce (2009). Researching with Integrity. The Ethics of Academic Inquiry. London: Routledge. Mackey, Alison/Gass, Susan M. (2005). Second Language Research. Methodology and Design. Mahwah, NJ: Routledge, 25 – 42. Miethe, Ingrid (2010). Forschungsethik. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim: Juventa, 927 – 937. Rallis, Sharon F./Rossman, Gretchen B. (2009). Ethics and trustworthiness. In: Heigham, Juanita/Croker, Robert A. (Hg.). Qualitative Research in Applied Linguistics. A Practical Introduction. New York: Palgrave Macmillan, 263 – 287. Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Hohengehren: Schneider. [Referenzarbeit, s. Kapitel 7].
116
4. Forschungsentscheidungen
Viebrock, Britta (2007). Kommunikative und argumentative Validierung: Zwischen Gütekriterien, Subjektivität und forschungsethischen Fragestellungen. In: Vollmer, Helmut Johannes (Hg.). Empirische Zugänge in der Fremdsprachenforschung. Herausforderungen und Perspektiven. Frankfurt/Main: Lang, 73 – 87. Viebrock, Britta (2015). Forschungsethik in der Fremdsprachenforschung. Eine systematische Betrachtung. Frankfurt/Main: Lang.
»» Zur Vertiefung empfohlen Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education [Chapter 5. The ethics of educational and social research]. Hoboken: Taylor and Francis, 75 – 104. Das Kapitel „The ethics of educational and social reseach“ gibt einen sehr umfassenden Überblick sowohl zu grundsätzlichen Fragen der Forschungsethik (zusammengefasst in einem Modell forschungsehtischer Parameter auf S. 77) als auch zu praktischen Erfordernissen wie Zugang zum Feld und Forschungsverträge. Ethische Kodizes einschlägiger Fachgesellschaften aus dem anglo-amerikanischen Raum werden eingeführt und kommentiert. Holliday, Adrian (2007). Doing and Writing Qualitative Research. 2. Auflage [Kap. 7: Writing about Relations]. Los Angeles, CA: Sage, 137 – 163. Auf der Grundlage extensiver Beispiele aus der fremdsprachendidaktischen Forschungspraxis werden in diesem Handbuchkapitel Problemfälle beim Feldzugang und insbesondere bei der Gestaltung der Beziehung mit den Forschungspartnern thematisiert. Angesichts der Tatsache, dass das Untersuchungsfeld eine andere Kultur als die der Forscherin aufweist, plädiert Holliday für konsequentes kulturelles Lernen und eine culture of dealing, bei der sich die Forscherin der zu untersuchenden Welt unterordnet. Miethe, Ingrid (2010). Forschungsethik. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim: Juventa, 927 – 937. In diesem erziehungswissenschaftlichen Handbuchartikel behandelt die Autorin die Themen (a) informierte Einwilligung als Basis der Forschungsbeziehung, (b) Anonymisierung und (c) Publikation bzw. die Frage der Rückmeldung von Ergebnissen. Dabei arbeitet sie besonders deutlich die jeweils kontroversen Aspekte dieser drei Themen heraus. Rallis, Sharon F./Rossman, Gretchen B. (2009). Ethics and trustworthiness. In: Heigham, Juanita/ Croker, Robert A. (Hg.). Qualitative Research in Applied Linguistics. A Practical Introduction. New York: Palgrave Macmillan, 263 – 287. Dieser von Erziehungswissenschaftlerinnen publizierte Artikel ist spezifisch für eine fremdsprachendidaktische Leserschaft verfasst worden und behandelt Ethik – neben kompetenter Praxis – als einen Aspekt der Vertrauenswürdigkeit von Forschung. Glaubwürdigkeit, Genauigkeit und Nutzen fremdsprachendidaktischer Forschung werden deshalb ebenso thematisiert wie ethiktheoretische Ansätze und ethische Aspekte wie Wahrung der Privatsphäre, Geheimhaltung und Vertraulichkeit sowie auch Täuschung und Einwilligung, Vertrauen und Betrug. Viebrock, Britta (2015) Forschungsethik in der Fremdsprachenforschung. Eine systematische Betrachtung. Frankfurt/Main: Lang. Diese erste umfassende Darstellung der Forschungsethik für den Gegenstandsbereich Fremdsprachenforschung bietet differenzierte Vertiefungen zu grundsätzlichen Fragestellungen (z. B. zur Integrität
4.6 Forschungsethik
117
des Forschers, der Forscherin), zu theoretischen Konzepten und Hintergründen (z. B. Ethik-Theorien) und praxisnahen Problemstellungen, die in dem vorliegenden Kapitel angesprochen werden.
5. Forschungsverfahren
Grundsatzüberlegungen
5.1
Friederike Klippel
Im zentralen fünften Kapitel dieses Handbuches geht es um das methodische Kernelement von Forschung: zum ersten um die wesentlichen Verfahren und Werkzeuge für die Datengewinnung und -erhebung sowie die Zusammenstellung von Dokumenten (Kapitel 5.2.1 bis 5.2.8), zum zweiten um Verfahren und Instrumente für die Aufbereitung und Analyse von Daten und Dokumenten (5.3.1 bis 5. 3. 11). Dieses Kapitel ist denn auch bei weitem das umfangreichste des Handbuchs. Die einzelnen Teilkapitel wurden von ausgewiesenen Expert_innen für das jeweilige Verfahren verfasst; wie in Kapitel 4 illustrieren auch hier klare Grafiken die zentralen Vorgehensweisen und Elemente der unterschiedlichen Forschungsmethoden. Während Kapitel 4 die grundsätzlichen Forschungsentscheidungen im Hinblick auf das zu wählende Design, auf Fragen des Sampling oder der Forschungsethik behandelt, also Aspekte der Forschungsmethodologie, geht es hier vor allem um einzelne Forschungsmethoden. Wir verstehen den Begriff Forschungsmethode bzw. Forschungsverfahren relativ breit; Methoden oder Verfahren der Forschung bedienen sich unterschiedlicher Instrumente oder Werkzeuge. So arbeitet die Methode der Befragung etwa mit dem Instrument Fragebogen, zu dessen quantitativer Auswertung das Werkzeug SPSS in Anwendung kommen kann. Auch das Interview ist ein Verfahren der Befragung; bei seiner Durchführung kann als Instrument der Interviewleitfaden eingesetzt werden. Bei der Inhaltsanalyse etwa ist ein Instrument das Kodierschema; dazu hilft als Werkzeug eine Software wie z. B. MAXQDA. Allerdings lassen sich Werkzeuge und Instrumente nicht für jedes Forschungsverfahren sauber voneinander trennen. Zugleich sind einige Werkzeuge bei der Anwendung unterschiedlicher Verfahren einsetzbar. Wenn im Folgenden die Verfahren für historische, theoretische und empirische Forschung in dieser Reihenfolge im Einzelnen vorgestellt werden, dann bedeutet diese Reihung keinerlei Wertung. Desgleichen ist mit der vergleichsweise breiten Darstellung von Verfahren für die empirische Forschung nicht ausgesagt, dass diese Art von Forschung grundsätzlich bedeutsamer sei als andere Forschungsansätze. Es ist jedoch unübersehbar, dass sich die aktuelle Diskussion zu und Beschreibung von Forschungsmethoden fast ausschließlich auf empirische Forschung bezieht, während historische und theoretisch-konzeptuelle Forschung in den gängigen Handbüchern nur selten überhaupt beachtet werden. Insofern betritt dieses Kapitel Neuland, indem es auch diese Herangehensweisen unter forschungsmethodischer Perspektive thematisiert. Die 19 Teilkapitel bieten eine breite Palette an geeigneten Forschungsmethoden für die Fremdsprachendidaktik, wobei wir selbstverständlich keinen Anspruch auf Vollständigkeit
120
5. Forschungsverfahren
erheben. Da sehr viele Autor_innen an Kapitel 5 mitgewirkt haben, ergibt sich an dieser Stelle des Handbuchs eine gewisse Vielfalt der Stile und Sichtweisen. Zudem wird deutlich, dass sich einzelne Instrumente und Werkzeuge nicht nur einem, sondern mehreren Verfahren zuordnen lassen, da gewisse Affinitäten zwischen unterschiedlichen Verfahren bestehen. In einem Handbuch, das Hilfen für die eigene Forschungsarbeit oder zur Betreuung von Qualifikationsarbeiten bereitstellen möchte, sollte es vor allem um eine klare und konkrete Darstellung der einzelnen Verfahren und Instrumente gehen. Diesem Ziel dienen die Übersichts-Grafiken, die fast allen Kapiteln zugeordnet sind. Weniger wichtig erschien es daher aus Sicht der Herausgeber_innen, historische Entwicklungen von einzelnen Methoden, bestimmte Schulenbildungen oder Kontroversen zu einzelnen Forschungsmethoden detailliert zu referieren. Dieses Kapitel, in dem sehr viele Forschungsmethoden vorgestellt werden, mag vielleicht den Charakter eines Menüs suggerieren, aus dem man nach Geschmack beliebig auswählen kann. Sich über unterschiedliche Zugangsweisen in der Forschung zu informieren, hat jedoch immer das Ziel, die für das jeweilige Forchungsvorhaben am besten geeignete Methode zu finden. Die Passung von Forschungsfrage und Forschungsmethode spielt in jeder Forschungsarbeit eine zentrale Rolle. Nicht jedes Verfahren eignet sich zur Bearbeitung jeder Forschungsfrage; vielmehr muss auf der Basis des treibenden Erkenntnisinteresses überlegt werden, wie man am besten zu Ergebnissen gelangt. Die eingesetzten Forschungsmethoden und ihre Instrumente sind zudem nicht wertneutral, sondern tragen eine bestimmte Perspektive, ein bestimmtes Menschenbild in sich. Daher gibt es durchaus gewisse Affinitäten zwischen dem Wissenschafts- und Forschungsverständnis individueller Forscher_innen und deren bevorzugter Wahl von bestimmten Forschungsmethoden. Neben die individuellen Präferenzen treten zeitbedingte Strömungen. Jede Epoche besitzt häufiger und weniger beachtete Ausprägungen von Forschung, und zwar sowohl im Hinblick auf die beforschten Bereiche und Themen als auch auf die forschungsmethodischen Ansätze. Schließlich durchläuft auch die Forschungsmethodologie generell durch die fortwährende Forschertätigkeit eine Entwicklung, die zur Verfeinerung, Ausweitung, Schärfung, Neuentwicklung oder auch zum Aufgeben bestimmter Verfahren führen kann. Noviz_innen in der Forschung sollten daher bestehende Methoden oder Designs nicht einfach unreflektiert übernehmen, sondern – abhängig von der Forschungsfrage – durch ihre Ideen und Experimentierfreude dazu beitragen, auch die Forschungsverfahren weiter zu entwickeln. Anregungen dazu können aus der Kombination unterschiedlicher Methodologien, der Modifikation bekannter Verfahren oder aus benachbarten Disziplinen kommen. Allerdings muss dabei beachtet werden, dass sich nicht alles mit allem sinnvoll kombinieren lässt, da den einzelnen Ansätzen unterschiedliche Auffassungen von Forschung zugrundeliegen können (s. Kapitel 2). Dass solche forschungsmethodischen Innovationen in Qualifikationsarbeiten zudem nur in Absprache mit den betreuenden Wissenschaftler_innen vorgenommen werden sollten, ist selbstverständlich. Betrachtet man die in diesem Kapitel vorgestellten Verfahren mit dem Ziel, unterschiedliche Arten des Forschens zu unterscheiden, dann ließe sich eine grobe Differenzierung in eher zyklische und eher lineare Vorgehensweisen treffen. Hermeneutische, inhaltsanalytische und hypothesen-generierende Ansätze beruhen ebenso wie die historische Forschung auf einer wiederholten Befassung mit den zu analysierenden Texten, Dokumenten und Daten. Dem-
5.2 Gewinnung von Dokumenten, Texten und Daten
121
gegenüber ist die hypothesenprüfende Vorgehensweise stärker linear und umfasst eine Reihe von klar definierten, aufeinanderfolgenden Schritten. Eine Rückbindung an die theoretische Grundlegung, die man als zyklisches Element ansehen könnte, erfolgt in diesen Verfahren vor allem im Zuge der Interpretation und Diskussion der Ergebnisse. Angesichts der Fülle der möglichen forschungsmethodischen Zugriffe ist es für Forschungsnoviz_innen oft schwer, sich für ein bestimmtes Verfahren zu entscheiden. Die Wahl der Forschungsmethode ist eine zentrale Weichenstellung für die gesamte Arbeit und bedarf gründlicher Überlegungen. Dieses Kapitel soll dabei helfen, die gesamte Breite der forschungsmethodischen Optionen und deren besondere Stärken bewusst werden zu lassen. Als Illustration für ein spezifisches Vorgehen dienen jeweils Referenzarbeiten, die als Beispiele ausgewählt wurden, weil in ihnen die forschungsmethodische Umsetzung besonders gelungen ist. Insofern liefert dieses Großkapitel auch die Möglichkeit, an guten Beispielen zu lernen.
Gewinnung von Dokumenten, Texten und Daten
5.2
Karen Schramm
Dieser Abschnitt thematisiert Verfahren der Dokumenten-, Text- und Datengewinnung. Diese stellen einen zentralen Arbeitsschritt im Forschungsprozess dar, der zwar prinzipiell nach der forschungsfragebasierten Design-Erstellung (s. Kapitel 3 und 4) und vor der Datenaufbereitung und -analyse (s. Kapitel 5.3) zu verorten ist. Dennoch ist zu betonen, dass sich diese Arbeitsschritte – insbesondere bei explorativ-interpretativen Forschungsarbeiten – nicht einfach in linearer Abfolge sukzessiv abarbeiten lassen, sondern dass aufgrund der komplexen Zusammenhänge spiralförmig voranschreitende Vorgehensweisen bzw. dabei vorzunehmende kontinuierliche Verfeinerungen notwendig sind. Gelingt es, das Forschungsdesign und die entsprechende Größe des Dokumenten-, Textoder Datenkorpus hinreichend zu präzisieren, so lässt sich bei der Gewinnung dieses Korpus eine überdimensionierte Ansammlung vermeiden. Die Forschungspraxis zeigt jedoch, dass die gezielte Eingrenzung allzu häufig Schwierigkeiten bereitet. Im Bereich der empirischen Forschung wird darauf scherzhaft mit der Metapher von Datenfriedhöfen Bezug genommen; damit ist die Ansammlung von Daten gemeint, die aufgrund der für die Auswertung zur Verfügung stehenden zeitlichen Ressourcen nicht analysiert werden können. Diesen unglückseligen Fall schon im Vorfeld zu vermeiden, erscheint mit Rücksicht auf die Anstrengungen, die eine Datenerhebung den Forschungspartner_innen abverlangt, genauso wichtig wie im Hinblick auf die begrenzten Ressourcen der erhebenden Forschenden selbst. Grundlegend unterscheiden wir in diesem Handbuch zwischen dem Erfassen und dem Erheben und nutzen den Begriff der Gewinnung von Dokumenten, Texten und Daten (s. zu dieser Unterscheidung Kapitel 4.1) als Oberbegriff für beide Verfahren. Das Konzept des Erfassens bezieht sich dabei auf Dokumente, Texte und Daten, die unabhängig von der jeweiligen Forschungsarbeit vorzufinden sind. Wie Abbildung 1 verdeutlicht, kann dieses Erfassen
122
5. Forschungsverfahren
sich erstens konkret auf den Unterricht beziehen (beispielsweise auf das Einsammeln von lehrer- und lernerseitigen Arbeitsprodukten wie Unterrichtsplanungen oder Aufsätze). Es wurde in der forschungsmethodischen Diskussion bislang kaum thematisiert; das in dieser Hinsicht innovative Kapitel 5.2.7 ist solchen Verfahren gewidmet. Zweitens ist für die Fremdsprachendidaktik auch die Erfassung von Dokumenten und Texten von Interesse, die über konkrete Unterrichtssituationen hinausreichen und die entweder auf eine Dokumentensammlung für historische Forschungsarbeiten (s. Kapitel 5.2.1) oder eine Textsammlung für theoretische Studien (s. Kapitel 5.2.2) hinauslaufen. Im Gegensatz zum Erfassen ist für das Erheben die Tatsache charakteristisch, dass die gewonnenen Daten ohne die Forschungsarbeit nicht existierten. Abbildung 1 zeigt die vielen Verfahren zur Datenerhebung, die in der Fremdsprachendidaktik Beachtung finden: Hier ist zunächst einmal die häufig getroffene Unterscheidung von Beobachten und Befragen relevant. Die vielfältigen Formen des Beobachtens (unter anderem die ethnographisch motivierte teilnehmende Beobachtung mit Feldnotizen, die gesteuerte Beobachtung anhand von Beobachtungsbögen oder die videographische Beobachtung) werden in Kapitel 5.2.3 thematisiert. Befragungen in Form von Fragebögen und Interviews stellt Kapitel 5.2.4 vor. Die in Kapitel 5.2.5 aufgefächerten Verfahren der Introspektion sind in Abbildung 1 zwischen dem Beobachten und Befragen abgebildet, da Verfahren des Lauten Denkens und des Lauten Erinnerns einerseits ähnlich wie Befragungen auf Impulsen der Forschenden beruhen, aber andererseits ähnlich wie Beobachtungen nicht-kommunikativ bzw. auch in Abwesenheit der Forschenden ablaufen können. Auch der Themenbereich des Testens ließe sich begrifflich der Befragung zuordnen; aufgrund der Bedeutung dieses Bereichs wurde er in Abbildung 1 jedoch ausgegliedert und wird in einem eigenen Kapitel (5.2.8) ausführlich behandelt. Im Fall des Kapitels zur Lernersprache und Korpuserstellung (5.2.6) hat es sich als gewinnbringend erwiesen, das Erfassen und Erheben gemeinsam zu thematisieren, sodass dieses Kapitel in Abbildung 1 entsprechend platziert ist. Als wesentlich für die Charakterisierung von empirischen Unterrichtsdaten wird seit spätestens den 1980er Jahren die Unterscheidung von Produkt- und Prozessdaten betrachtet. In Abbildung 1 weist die hell- und dunkelgraue Markierung auf diese (nicht immer trennscharfe) Dichotomie hin, die zwischen den punktuellen Ergebnissen des Lernens, dem Produkt, und dem zeitlich ausgedehnten Vorgang des Lernens, dem Prozess, unterscheidet: Als eher produktorientiert sind die unterrichtsbezogene Erfassung von Daten, das Erfassen und Erheben von Lernersprache und das Testen zu charakterisieren, während das Beobachten, das Befragen und die Introspektion sich besonders für die Erforschung von (meta-)kognitiven, affektiven und sozialen Prozessen eignen. Steht bei einer Untersuchung die sprachliche oder kulturelle Entwicklung von Lernenden über einen längeren Zeitraum im Vordergrund, erweist sich auch die begriffliche Unterscheidung von Längs- und Querschnittdaten als zentral. Dabei zeichnen Längsschnittdaten die tatsächliche Entwicklung von Personen über einen längeren Untersuchungszeitraum nach, während Querschnittdaten Personengruppen in unterschiedlichen Entwicklungsstadien (z. B. Klassenstufen oder Sprachniveaus) untersuchen, um auf der Grundlage einer Datenerhebung zu einem einzigen Zeitpunkt Aussagen über angenommene Entwicklungsprozesse zu treffen.
4.6.6 Fazit
123
Designerstellung (3 & 4) Dokumenten-, Text- und Datengewinnung (5.2)
Beobachtung (5.2.3)
Erheben
Lernersprache und Korpuserstellung (5.2.6)
Erfassen
eher produktbezogen
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Textsammlung für theoretische Studien (5.2.2)
außerhalb des Unterrichts
Dokumentensammlung für historische Studien (5.2.1)
im Unterricht
eher prozessbezogen
Erfassen unterrichtsbezogener Produkte (5.2.7)
Introspektion (5.2.5)
Testen (5.2.8)
Datenaufbereitung und Analyse (5.3)
Befragungen (5.2.4)
Abbildung 1: Übersicht über Verfahren zur Gewinnung von Dokumenten, Texten und Daten
124
5. Forschungsverfahren
5.2.1 Dokumentensammlung Elisabeth Kolb/Friederike Klippel
Wenn das Erkenntnisinteresse einer Forschungsarbeit darin liegt, gegenwärtige Prozesse und Zustände oder vergangene Epochen und Ereignisse zu beschreiben, zu interpretieren und zu bewerten, so ist es nötig, sich auf Dokumente zu stützen, die diese Gegebenheiten repräsentieren. Um tatsächlich gültige Aussagen treffen zu können, muss diese Analyse auf einer möglichst breiten, objektiven, systematischen, repräsentativen und validen Basis an Belegen beruhen. Daher sind wichtige Forschungsstrategien die Suche, Sammlung, Auswahl und Anordnung von Dokumenten. Dabei ist der Begriff ‚Dokument‘ ganz allgemein zu verstehen als „a record of an event or process“ (McCulloch 2011: 249) und kann je nach Forschungsinteresse unterschiedliche Realisierungen aufweisen. Dokumente können von Daten derart unterschieden werden, dass erstere jegliche Art von schriftlichen oder gegenständlichen Belegen umfassen, die nicht speziell für das Forschungsprojekt generiert wurden, wohingegen Daten erst durch die eingesetzten Erhebungsverfahren geschaffen werden. Während mit Heuristik der erste Schritt des Auffindens von Dokumenten beschrieben ist, verlangt die anschließende Korpuserstellung begründete Entscheidungen dazu, welche der gefundenen Dokumente ausgewählt und analysiert werden sollen. Im Folgenden werden 1. für fremdsprachdidaktische Forschung relevante Dokumenttypen vorgestellt, 2. die Schritte bei Heuristik und Korpuserstellung erläutert und 3. konkrete Verfahrensweisen, Schwierigkeiten bei der Sammlung verschiedener Dokumente und der Umgang damit dargestellt. 1 Welche Dokumente kommen in Frage? Terminologie
Grundsätzlich werden in Abgrenzung zu 5.3.1 unter Dokumenten Texte, Materialien und Medien verstanden, die nicht im Kontext aktueller wissenschaftlicher Arbeit als wissenschaftliche (Sekundär-)Literatur entstanden sind, sondern ursprünglich einem anderen Zweck dienen.1 Während die Bezeichnung Dokument vor allem in der sozialwissenschaftlichen Forschung Verwendung findet, wird in der Geschichtswissenschaft eher von Quellen gesprochen; diese Begrifflichkeit differenziert nach gegenwärtiger bzw. vergangener Entstehungszeit (Glaser 2010: 366 – 367). Allerdings ist insbesondere für historische Forschungsarbeiten diese Kategorisierung nicht eindeutig: So können beispielsweise Zeitschriftenaufsätze oder Rezensionen in ihrer Entstehungszeit Dokumente gewesen sein, während sie jetzt als Quellen zur Rekonstruktion vergangener Geschehnisse oder Zeitabschnitte herangezogen werden. Weiterhin können Primär- und Sekundärdokumente unterschieden werden: Während erstere von Zeitzeugen oder direkt Beteiligten produziert werden, verwenden letztere Primärdokumente, um ein Ereignis oder eine Epoche zu rekonstruieren und zu beschreiben. Auch hier gibt es fließende Übergänge zwischen diesen beiden Polen: Ein Zeitgenosse kann mit 1 Somit werden vor allem diejenigen Texte ausgeschlossen, die bei jeder Forschungsarbeit gefunden werden müssen, um den Stand der Forschung zu referieren. Dennoch ist das heuristische Verfahren jeweils ganz ähnlich beschaffen (vgl. Kapitel 6.3).
5.2.1 Dokumentensammlung
125
zeitlichem Abstand, z. B. in seiner Autobiographie, Gegebenheiten darstellen; ein derartiger Rückblick kann deutlich anders aussehen als ein zeitgenössischer Bericht (McCulloch 2011: 249). Relevante Arten von Dokumenten
Für die fremdsprachendidaktische Forschung äußerst relevant ist die Einteilung nach den Urhebern der Dokumente sowie nach dem Vertriebsweg bzw. der Zugänglichkeit der Dokumente (vgl. Scott 1990: 14 – 18). Ausgehend von der Zugehörigkeit zu verschiedenen Kommunikationsbereichen können hauptsächlich offizielle, halboffizielle, öffentliche und private Dokumente unterschieden werden.
• Offizielle Dokumente werden von staatlichen Institutionen veröffentlicht und in erster Linie auch rezipiert. Dazu gehören z. B. Gesetze, Lehrpläne, Stundentafeln, Verordnungen und Verträge. Sie zeigen, wie der Staat als Akteur Organisation und Ablauf von (Fremdsprachen-)Unterricht konzeptionell vorgibt. Diese Dokumente erlauben nur in begrenztem Maß Rückschlüsse auf die Unterrichtswirklichkeit und sind vielmehr als Absichtserklärungen auf der Makroebene der Schul- und Unterrichtsorganisation zu sehen (Fend 2006: 167; Kolb 2013: 38 – 40). • Halboffizielle Dokumente entstehen in der Kommunikation zwischen Institutionen und Privatpersonen. Wenn auch die Zuordnung nicht immer eindeutig ist, so können dazu Schulprogrammschriften, Stoffverteilungspläne, schulinterne Curricula, Unterrichtsentwürfe, Jahresberichte, Klassenbücher, Schülerzeitungen, Zeugnisse, Tests usw. gezählt werden (s. Kapitel 5.2.7). Während einige dieser Dokumenttypen eher innerhalb der Institution Schule rezipiert werden, haben andere auch außerhalb ein Publikum, z. B. Eltern. Sie spiegeln amtliche Positionen wider, sind aber gleichzeitig als Dokumente der Mesoebene der schulischen Institutionen oder als Dokumente der Mikroebene des Unterrichts auch näher an der Unterrichtsrealität (Fend 2006: 167). • Zu den privaten Dokumenten, die von unterschiedlichen Beteiligten stammen können, zählen beispielsweise Tagebücher von Lernenden und Lehrenden, Interviews, Briefe oder (Auto-)Biographien von Bildungspolitikern, Fremdsprachendidaktikern oder Sprachenlernenden. Am Übergang zwischen halboffiziellen und privaten Dokumenten befinden sich Lernertexte (z. B. ausgefüllte Arbeitsblätter, Klassenarbeiten, Aufsätze oder Portfolios) (s. Kapitel 5.2.7). Diese und viele weitere Dokumente geben kleine, subjektiv gefärbte Ausschnitte aus verschiedenen Bereichen wieder und müssen daher, was Zuverlässigkeit und Korrektheit betrifft, vorsichtig rezipiert und interpretiert werden (s. Kapitel. 5.3.1). • Als öffentlich können Dokumente bezeichnet werden, wenn sie in irgendeiner Form veröffentlicht sind, so dass sie bei Interesse relativ leicht zugänglich sind. Dazu sind verschiedene Dokumente und Quellen zu zählen wie Rezensionen, Zeitschriften- und Zeitungsartikel, Konferenzberichte, Statistiken, kommerzielle Selbstlernmaterialien, Lehrwerke und zugehörige Medien, Plakate, Anzeigen, Graffiti oder auch literarische Texte. Was die Zugänglichkeit betrifft, so können schriftliche Dokumente beispielsweise frei im Buchhandel erhältlich sein oder in Bibliotheken bereitgestellt werden, sie können in Archiven vorhanden sein, oder sie können nur intern einem begrenzten Adressatenkreis (z. B. als Ar-
126
5. Forschungsverfahren
beitspapier oder als private Nachricht) verfügbar sein (vgl. Scott 1990: 14 – 18). Schriftliche Dokumente aus allen o. g. Kategorien, die nicht öffentlich zugänglich sind, sondern innerhalb eines bestimmten Rezipientenkreises zirkulieren, werden als graue Literatur bezeichnet (Bortz/Döring 2006: 360). Da sie meist schwierig aufzufinden sind, werden sie oft vernachlässigt; sie bieten jedoch viele Gelegenheiten, neue Erkenntnisse zu bestimmten Diskursen zu gewinnen, etablierte Sichtweisen zu ergänzen und möglicherweise gar zu revidieren. Im Internet werden solche Texte zwar gelegentlich auf privaten Webseiten oder in Foren veröffentlicht; dadurch sind sie aber nicht automatisch leichter zu finden. Ein weiterer wichtiger Anhaltspunkt, um zu analysierende Dokumente auszuwählen, ist das Medium. Neben gedruckten Texten sollten auch andere mediale Realisierungsformen beachtet werden. Lohnend kann beispielsweise die Analyse von (audio-)visuellen Dokumenten wie Bildern, Fotografien, Cartoons, (Spiel-)Filmen, CDs oder Overheadfolien sein, wobei diese visuellen bzw. audiovisuellen Dokumente sowohl die Perspektive der Lehr- und Unterrichtsmaterialien als auch die der Lernerprodukte verkörpern können. Für fachhistorische Untersuchungen sind etwa Lehrbuchillustrationen, frühe Formen von Unterrichtsmedien oder verwendete Realien des Ziellandes aufschlussreich. Auch an multimediale und elektronische Quellen und Software (Blogs, Webseiten, Chat-Daten, Emails, Lernmaterialien auf CD-Rom etc.) ist zu denken. Für einige methodische Ansätze sind bestimmte reale Gegenstände konstitutiv, etwa die cuisenaire rods und fidel charts für den Silent Way. Selbstverständlich können Realien und Objekte wie Gebäude, Klassenzimmerausstattungen, Sprachlabore, technische Hilfsmittel (Hardware), Wandtafeln usw. in eine Untersuchung einbezogen werden; diese Arten von Dokumenten werden auch Relikte genannt (Johnson/Christensen 2012: 416). Natürlich ist es durchaus möglich, verschiedene Dokumententypen für eine einzelne Studie zu sammeln und auszuwerten. Dabei werden zuweilen halboffizielle oder private Dokumente, die im Unterrichtsbetrieb ohnehin anfallen (etwa Lernertexte) kombiniert mit gezielt erhobenen Daten für den Forschungszweck. So werden beispielsweise in der Referenzarbeit von Schmidt (2007, s. Kapitel 7) Anfangs- und Abschlussfragebögen, Video- und Audioaufnahmen aus dem Unterricht, Feldnotizen, Lernertexte, Interviews und Lerntagebücher verwendet (Schmidt 2007: 186 – 203). Ähnlich sieht es bei Bellingrodt (2011) aus, die Fragebögen, Interviews und verschiedene Dokumente aus den Portfolios der Lernenden einbezieht. Wenn unterschiedliche Dokumentarten für eine gemeinsame Fragestellung herangezogen werden, muss im Rahmen der Triangulation eine Verknüpfung der verschiedenen Perspektiven erfolgen (siehe dazu Kapitel 4.4). 2 Wie laufen Heuristik und Korpuserstellung ab?
Bevor mit der Sammlung jeglicher Art von Dokumenten begonnen werden kann, müssen das Forschungsinteresse, der Forschungszweck oder die Ausgangshypothese genau bestimmt werden. Dabei haben folgende Fragen Leitfunktion:
• Was ist der Forschungsgegenstand? • Welche Forschungsfragen sollen beantwortet werden?
5.2.1 Dokumentensammlung
127
Es ist wichtig, diese Aspekte sorgfältig zu bestimmen, damit die nachfolgende Suche und Auswahl der Dokumente eingegrenzt werden können und nicht zu wenig oder zu viele Dokumente eingeschlossen werden (vgl. Keller 2011: 80 – 87). Vielfach finden sich in der gesichteten Forschungsliteratur zum Forschungsfeld bereits Hinweise auf aufschlussreiche Arten von Dokumenten. In einem zweiten Schritt sind folgende Überlegungen anzustellen:
• Anhand welcher Dokumente kann den Forschungsfragen nachgegangen werden? • Welche örtliche und zeitliche Eingrenzung der Dokumentenauswahl ist sinnvoll? Diese Vorgehensweise zeigt sich sehr gut in der Referenzarbeit von Doff (2002, s. Kapitel 7), in der eine Konzentration auf Preußen und auf das späte 19. Jahrhundert erfolgt. Genauso geht Kolb (2013) vor, wenn sie verschiedene europäische Länder und den Zeitraum von 1975 bis 2011 auswählt. Derartige lokale und temporale Beschränkungen können von den Forschungsfragen abhängen, aber auch ganz pragmatisch durch die Verfügbarkeit von Dokumenten bedingt sein. Letzerer Aspekt zeigt sich oft erst, wenn Heuristik und Korpuserstellung bereits begonnen haben. Allerdings kann es auch notwendig sein, den betrachteten Zeitraum auszuweiten, wenn relevante Dokumente auch noch später veröffentlicht wurden oder das Forschungsthema nur im Vergleich mit früheren oder späteren Entwicklungen zufriedenstellend bearbeitet werden kann. Dies ist z. B. gerade bei Lehrplänen der Fall, die häufig Fortschreibungen früherer Versionen sind (Kolb 2013). Nach diesen beiden vorbereitenden Schritten beginnt die eigentliche Heuristik, bei der zu klären ist, wo und wie sich die Dokumente ausfindig machen lassen. Ausgeschlossen bleiben soll hier die selbstständige Gewinnung von Daten durch Beobachtung oder Befragung (s. Kapitel 5.2.3 und 5.2.4). Bei der Suche und Auswahl von bereits existierenden Dokumenten sind verschiedene Verfahren denkbar, die sich gegenseitig ergänzen können:
• Systematische Suche oder Suche nach dem Schneeballprinzip (vgl. Roos/Leutwyler 2011: 25 – 46)
• Vollständige Erfassung aller möglichen Dokumente oder Auswahl einer Stichprobe Sowohl das Schneeballverfahren als auch die systematische Suche werden in der Referenzarbeit von Doff (2002) und bei Kolb (2013) angewendet. Bei ersterem Verfahren werden neuere Sekundärliteratur oder Quellensammlungen zum gewählten Thema gesucht und anhand deren Bibliographien weitere Dokumente ausfindig gemacht (Doff 2002: 16; Kolb 2013: 140 – 142, 237 – 241, 306 – 309). Dieser Vorgang wird so oft wiederholt, bis genügend Dokumente vorliegen, wobei sich meist zeigt, dass gewisse Dokumente und Quellen als Standard in unterschiedlicher Literatur immer wieder genannt werden (Roos/Leutwyler 2011: 30). Bei letzterer Vorgehensweise werden beispielsweise Bibliographien und komplette Zeitschriftenjahrgänge nach relevantem Material durchgesehen (Doff 2002: 16) oder Datenbanken und Bibliothekskataloge anhand von Stichwörtern oder Autorennamen durchsucht (Kolb 2013: 142, 239, 308). Zu Beginn der Suche sollte darauf geachtet werden, so breit wie möglich vorzugehen, um nicht zu früh potentiell interessante und ergiebige Dokumente auszuschließen. Dabei hängen Forschungsinteresse und Sammlung von Materialien eng zusammen: Einerseits werden Dokumente, die sich beim ersten Durchsehen als zur Fragestellung passend erweisen, einbe-
128
5. Forschungsverfahren
zogen; andererseits können die Forschungsfragen durch aufgefundene Dokumente erweitert oder verändert werden. Dies wiederum hat Einfluss auf die weitere Recherche. Es bestehen somit Parallelen zum theoretical sampling (s. Kapitel 5.3.3): Dieses Verfahren der Grounded Theory bedeutet, dass der Auswahlplan nicht vorher festgelegt wird, sondern auf Basis der Vorkenntnisse und der im Forschungsprozess entstandenen Hypothesen und Theorien schrittweise entwickelt wird (vgl. Glaser/Strauss 2010: 61 – 65; s. Kapitel 5.3.3). Sammlung und Analyse der Dokumente laufen zirkulär ab. Wichtig ist in jedem Fall, dass die Rechercheprinzipien offengelegt werden, damit so Suche und Auswahl der Dokumente intersubjektiv nachvollzogen werden können. Die Frage, wann die Dokumentensammlung abgeschlossen werden kann, stellt sich für jede Art von Forschungsarbeit etwas anders. Beispielsweise bestimmt Freitag-Hild ein Korpus literarischer Texte für die Erprobung in Unterrichtsvorhaben, das auf deren Thematik und ihrer fremdsprachendidaktischen Eignung basiert (2010: 4 – 9), oder Summer (2011: 83 – 87) begründet ihre Analyse der Grammatikdarstellung in ausgewählten Lehrwerken mit Bezug auf Schulform, Niveaustufe und Thema. In historischen, hermeneutischen, diskursanalytischen, aber auch anderen Ansätzen wird man jedoch häufig weiterrecherchieren, bis eine Sättigung erreicht ist. Dies bedeutet, dass keine weiteren Dokumente mehr gefunden werden können, die neue Erkenntnisse liefern (s. Glaser/Strauss 2010: 76 – 78). Das Material für den entsprechenden Aspekt der Forschungsfrage kann dann als vollständig angesehen und, falls nötig, die Suche für einen anderen Gesichtspunkt fortgesetzt werden. Aus der Gesamtheit der gefundenen Dokumente ist das Korpus zu erstellen, mit dem weitergearbeitet wird. Begrifflich lassen sich so imaginäres Korpus (Menge aller jemals existierenden Dokumente zu einem Thema), virtuelles Korpus (Menge der noch erhaltenen Dokumente) und konkretes Korpus (Menge der tatsächlich analysierten Dokumente) unterscheiden (s. Landwehr 2008: 102 – 103). Kriterien für die Auswahl von Dokumenten sind ihre Repräsentativität, ihre genügend große Anzahl und ihre thematische und zeitliche Breite (s. Landwehr 2008: 103). In manchen Untersuchungen kann es wichtig sein, die Gesamtheit aller auffindbaren Dokumente einzubeziehen (s. Kolb 2013 für die Analyse aller Lehrplanversionen im Untersuchungszeitraum); in anderen Fällen ist die Auswahl einer Stichprobe für die Fallanalyse einer bestimmten Frage möglicherweise sinnvoller: So konzentriert sich Doff (2008) auf die durch eine Umfrage unter Experten bestimmten Standardwerke bzw. auf durch Zitationsanalyse ausgewählte Zeitschriftenartikel (Doff 2008: 72 – 84). Dokumente, die näher analysiert werden sollen, können entweder dem Prinzip der maximalen Kontrastierung – also nach größtmöglicher Unterschiedlichkeit – oder dem Prinzip der minimalen Kontrastierung folgend – nach einer möglichst starken Ähnlichkeit – ausgewählt und angeordnet werden (s. Keller 2011: 92). 3 Welche Probleme und Hilfsmittel existieren?
Bevor jedoch die nähere Analyse des Korpus erfolgen kann (vgl. z. B. die methodische Beschreibung von Quellenkritik und -analyse in Kapitel 5.3.1), müssen die gefundenen Dokumente genau erfasst werden. Für gedruckte Dokumente sind Entstehungsdatum und -ort, Umfang, Autoren und Zusammenfassungen der Kernaussagen zu notieren. Auch andere Arten von Dokumenten müssen in einer informativen und konsistenten Weise erfasst wer-
5.2.1 Dokumentensammlung
129
den. Die Erstellung einiger dieser Angaben, aber auch weitere Elemente des Prozesses der Dokumentensammlung können Probleme bereiten. So können die Autoren unbekannt sein oder bewusst anonym gehalten werden; dies ist beispielsweise bei Lehrplänen häufig der Fall. Besonders bei älteren Dokumenten kann die Datierung schwierig sein. Sollte eine Klärung von Autorschaft und Datum nicht möglich sein, so ist dies ebenfalls zu vermerken. Auch können die Dokumente unvollständig sein oder Unklarheiten enthalten. Hier kann nur versucht werden, durch Vergleich mit anderen Quellen und Dokumenten die fehlenden Informationen zu erschließen. Entscheidend dafür, wie aufwendig die Dokumentensammlung ist, ist jedoch hauptsächlich die Frage, um welche Art von Dokumenten es sich handelt. Soll unveröffentlichtes Material aus der Gegenwart verwendet werden, so kann es hilfreich sein, sich direkt an Autoren und andere Akteure zu wenden und um Manuskripte und die Erlaubnis, diese zu verwenden, zu bitten (vgl. Kolb 2013: 254, 307). Bei historischen Dokumenten sind Archive die Hauptanlaufstelle, während neuere Dokumente sich häufig über Datenbanken, Bibliotheks- und Buchhandelskataloge oder das Internet recherchieren lassen. Teilweise gibt es für historische Forschung auch Quellen- und Dokumentensammlungen, auf die man sich bei der Recherche stützen kann (vgl. Doff 2002: 16 – 17). Beispiele hierfür sind Kössler (1987) für Schulprogrammschriften, Schröder (1975) für Lehrwerke und Unterrichtsmaterialien bis 1900 sowie Christ/Rang (1985) und Christ/Müllner (1985) für Lehrpläne. Lehrwerke werden durch das Georg-Eckert-Institut für internationale Schulbuchforschung zugänglich gemacht (http:// www.gei.de). Zur Suche von Monographien bietet sich nach den jeweiligen Hochschulbibliotheken die Metasuche über den Karlsruher Virtuellen Katalog (KVK) an, mit der weltweit nach Medien gesucht werden kann (http://www.ubka.uni-karlsruhe.de/kvk.html). Für Zeitschriften ist die Elektronische Zeitschriftenbibliothek der Universität Regensburg (EZB, http://rzblx1. uni-regensburg.de/ezeit/) nützlich. Gerade für die deutschsprachige Pädagogik und Didaktik lassen sich die FIS Literaturdatenbanken (http://www.fachportal-paedagogik.de/start.html) sowie besondere Fachdatenbanken, die über die Hochschulbibliotheken ausfindig gemacht werden können, verwenden. Über das Informationszentrum für Fremdsprachenforschung in Marburg können Bibliographien aus der dortigen Literaturdatenbank angefordert werden (http://www.uni-marburg.de/ifs). In gedruckter Form liegt die ebenfalls in Marburg verantwortete Bibliographie Moderner Fremdsprachenunterricht vor, die seit 1970 fremdsprachendidaktische Veröffentlichungen und auch graue Literatur bibliographiert. Über die Deutsche Nationalbibliographie können außer Printmedien auch audiovisuelle Medien, elektronische Medien, Karten und Online-Ressourcen recherchiert werden (http://dnb.dnb.de). Weitere Hilfen zur Literaturrecherche im Internet und in Bibliotheken finden sich bei Franke/Klein/ Schüller-Zwierlein (2010). Die Suche nach Dokumenten jeder Art erfordert Findigkeit, Geduld und Gründlichkeit. Diese wichtige Phase im Forschungsprozess sollte nicht unterschätzt werden, da im kumulativen Prozess des Suchens, Findens, Einordnens und Aussortierens sich auch die Forschungsfragen weiter klären und man mit dem zu analysierenden Material zunehmend vertraut wird.
130
5. Forschungsverfahren
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Bellingrodt, Lena Christine (2011). ePortfolios im Fremdsprachenunterricht. Empirische Studien zur Förderung autonomen Lernens. Frankfurt/M.: Peter Lang. Bortz, Jürgen/Döring, Nicola (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. Heidelberg: Springer. Christ, Herbert/Müllner, Klaus (1985). Richtlinien für den Unterricht in den neueren Fremdsprachen in den Schulen der BRD 1945 – 1984. Eine systematische Bibliographie. Tübingen: Narr. Christ, Herbert/Rang, Hans-Joachim (1985). Fremdsprachenunterricht unter staatlicher Verwaltung. 7 Bände. Tübingen: Narr. *Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. München: LangenscheidtLongman. [Referenzarbeit, s. Kapitel 7] *Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. Konzeptuelle Genese einer Wissenschaft im Dialog von Theorie und Praxis. München: Langenscheidt. Fend, Helmut (2006). Neue Theorie der Schule. Einführung in das Verstehen von Bildungssystemen. Wiesbaden: VS Verlag für Sozialwissenschaften. Franke, Fabian/Klein, Annette/Schüller-Zwierlein, André (2010). Schlüsselkompetenzen. Literatur recherchieren in Bibliotheken und Internet. Stuttgart: Metzler. *Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT. Glaser, Barney G./Strauss, Anselm L. (2010). Grounded Theory. Strategien qualitativer Forschung. Bern: Huber. Glaser, Edith (2010). Dokumentenanalyse und Quellenkritik. In: Friebertshäuser, Barbara/Langer, Antje/ Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3., vollständig überarbeitete Auflage. Weinheim: Juventus. 365 – 375. Johnson, Burke/Christensen, Larry (2012). Educational Research. Quantitative, Qualitative, and Mixed Approaches. 4. Auflage. London: Sage. Keller, Reiner (2011). Diskursforschung. Eine Einführung für Sozialwissenschaftlerinnen. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. *Kolb, Elisabeth (2013). Kultur im Englischunterricht. Deutschland, Frankreich und Schweden im Vergleich (1975 – 2011). Heidelberg: Winter. Kössler, Franz (1987). Verzeichnis von Programm-Abhandlungen deutscher, österreichischer und schweizerischer Schulen der Jahre 1825 – 1918. München: Saur. Landwehr, Achim (2008). Historische Diskursanalyse. Frankfurt/M.: Campus. McCulloch, Gary (2011). Historical and Documentary Research in Education. In: Cohen, Louis/Manion, Lawrence/Morrison, Keith (Hg.). Research Methods in Education. 7. Auflage. London: Routledge. 248 – 255. Roos, Markus/Leutwyler, Bruno (2011). Wissenschaftliches Arbeiten im Lehramtsstudium. Bern: Huber. *Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Schröder, Konrad (1975). Lehrwerke für den Englischunterricht im deutschsprachigen Raum. 1665 – 1900. Einführung und Versuch einer Bibliographie. Darmstadt: Wiss. Buchgesellschaft. Scott, John (1990). A Matter of Record. Documentary Sources in Social Research. Cambridge: Polity Press.
5.2.1 Dokumentensammlung
131
5.2.1 Dokumentensammlung Forschungsgegenstand Forschungsfrage(n) Eingrenzung zeitlich, örtlich, bildungspolitisch, etc.
Dokumente offiziell, halboffiziell, privat, öffentlich frei bzw. nicht frei zugänglich unterschiedliche Kommunikationsbereiche Art der Urheberschaft
Suche systematisch oder Schneeballsuche
Untersuchungskorpus
imaginäres Korpus virtuelles Korpus konkretes Korpus repräsentativ genügend breit genau erfasst
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
132
5. Forschungsverfahren
*Summer, Theresa (2011). An Evaluation of Methodological Options for Grammar Instruction in EFL Textbooks. Are Methods Dead? Heidelberg: Winter. »» Webseiten Deutsche Nationalbibliographie: http://dnb.dnb.de Elektronische Zeitschriftenbibliothek: http://rzblx1.uni-regensburg.de/ezeit/ FIS Literaturdatenbanken: http://www.fachportal-paedagogik.de/start.html Georg-Eckert-Institut für internationale Schulbuchforschung: http://www.gei.de Informationszentrum für Fremdsprachenforschung: http://www.uni-marburg.de/ifs Karlsruher Virtueller Katalog: http://www.ubka.uni-karlsruhe.de/kvk.html »» Zur Vertiefung empfohlen McCulloch, Gary (2004). Documentary Research in Education, History and the Social Sciences. London: Routledge Falmer. In dieser Monographie wird die Bedeutung von Dokumenten für geistes- und sozialwissenschaftliche Forschung dargelegt. Recherche- und Analysemethoden werden erklärt und an Beispielen erläutert, wobei ein breites Spektrum an Dokumenten abgedeckt wird. Prior, Lindsay (2011). Using Documents and Records in Social Research. 4 Bände. Los Angeles: Sage. In dieser vierbändigen Sammlung von Beiträgen werden alle Aspekte des Forschungsprozessses (Planung, Dokumentensammlung, Interpretation und Synthese der Ergebnisse) anhand von Beispielen aus den Sozialwissenschaften dargestellt. Die vier Bände legen jeweils einen Schwerpunkt auf Dokumenttypen, Dokumente als soziale Konstrukte, Verwendung von Dokumenten in der Praxis, Vernetzung zwischen verschiedenen Dokumenten.
5.2.2 Textzusammenstellung (für theoretische Arbeiten) Barbara Schmenk
Theoretische Arbeiten in der Fremdsprachenforschung können ganz unterschiedlicher Natur sein und umfassen sowohl Arbeiten zur Theorie- und Modellbildung als auch solche, die sich mit spezifischen Fragestellungen der Fremdsprachenforschung beschäftigen. Für theoretische Arbeiten gilt dabei allgemein, dass die VerfasserInnen sich mit einem Textkorpus auseinandersetzen müssen, dessen Erstellung ein recht aufwändiger und langwieriger Prozess sein kann. Das Erkenntnisinteresse theoretischer Arbeiten liegt immer auch darin, spezifische Ausschnitte der Forschungslandschaft genauer zu erfassen und zu durchdringen. Diejenigen Texte, auf die sich solche Arbeiten stützen, umfassen normalerweise neben Studien aus dem entsprechenden Bereich der Fremdsprachenforschung auch Arbeiten aus anderen – affinen –
5.2.2 Textzusammenstellung (für theoretische Arbeiten)
133
Fachbereichen, in denen thematisch und erkenntnistheoretisch relevante bzw. vergleichbare Forschungsprojekte durchgeführt werden (z. B. der jeweiligen Fachwissenschaften, der Allgemeinen Pädagogik, der Psychologie, der Lehr- und Lernforschung sowie anderer Fachdidaktiken). Damit sind theoretische Arbeiten häufig zugleich interdisziplinär angelegt, da es hier oft darum geht, die Perspektive der Fremdsprachenforschung gezielt zu erweitern, zu schärfen und in größere theoretische Zusammenhänge zu stellen. Die Lektüre theoretischer Schriften (z. B. aus den Kulturwissenschaften oder der Philosophie) zu bestimmten Themen und Fragestellungen ist damit häufig eine wichtige Voraussetzung bzw. Hilfe sowohl für die Entwicklung des theoretischen Bezugsrahmens als auch für die Auswahl und ggf. Klassifikation von Texten aus der Fremdsprachenforschung sowie anderer relevanter Fachbereiche. Im Folgenden wird zunächst genauer aufgefächert, was unter „Text“ zu verstehen ist und welche Arten von Texten für theoretische Arbeiten unterschieden werden können. Der anschließende Teil widmet sich der Auswahl und Zusammenstellung von Texten. Im letzten Teil werden konkrete Tipps, Ressourcen und Datenbanken vorgestellt, die zur Textfindung und -zusammenstellung hilfreich sein können. 1 Welche Texte können für theoretische Arbeiten verwendet werden?
Anders als im Fall von Dokumenten oder Quellen (vgl. Kapitel 5.2.1) handelt es sich bei „Texten“ um eine medial engere Kategorie, da hier hauptsächlich schriftliche und zumeist wissenschaftliche Publikationen gemeint sind. Selbstverständlich bedeutet das nicht, dass man zur Darstellung eines bestimmten Forschungsgebiets ausschließlich auf wissenschaftliche Texte zurückgreifen muss – schließlich gibt es zahlreiche weitere Dokumente, die für bestimmte Frage- und Themenstellungen relevant sind und die auch entsprechend zu berücksichtigen sind (z. B. Videomaterial, Zeitungsartikel, ggf. auch Werbematerialien, Lehrwerke und Lernmaterialien etc.). Im Folgenden wird der Schwerpunkt jedoch auf wissenschaftlichen Texten liegen, da man auch hier zwischen verschiedenen Arten von Texten unterscheiden muss, die es zusammen zu stellen gilt, wenn es um die Erstellung einer theoretischen Arbeit geht. Prinzipiell ist dabei zwischen primären Texten (auf der Basis empirischer Arbeiten) und sekundären Texten (Zusammenfassungen und Überblicksdarstellungen) zu unterscheiden. Empirische Studien aus der Fremdsprachenforschung (Aufsätze und Monographien)
Empirische Studien bzw. ihre Publikation in Aufsätzen und Büchern stellen Primärtexte dar, wenn es um die Erfassung des status quo eines spezifischen Forschungsthemas innerhalb der Fremdsprachenforschung geht. Welcher Art die jeweiligen empirischen Studien sind, nämlich ob eher quantitativ-nomologisch oder qualitativ-interpretatorisch, ist dabei zunächst irrelevant. Jede Publikation empirischer Daten zu einem bestimmten Thema vermag auf je spezifische Weise Licht auf bestimmte Aspekte zu werfen, die in den gewählten Gegenstandsbereich fallen (vgl. auch Grotjahn 1999). Empirische Studien aus anderen Fachbereichen (Aufsätze und Monographien)
Da der Gegenstandsbereich der Fremdsprachenforschung sich häufig überlappt mit anderen Fachbereichen, ist es notwendig, auch weitere empirische Arbeiten zu berücksichtigen, die
134
5. Forschungsverfahren
den gewählten Gegenstandsbereich zu erhellen vermögen (z. B. Arbeiten aus anderen Fachdidaktiken, der Psychologie, Soziologie, Pädagogik). Diese stellen zwar in Bezug auf ihre unmittelbare empirische Evidenz ebenfalls Primärtexte dar, sind jedoch meist von denen der Fremdsprachenforschung zu unterscheiden, insofern sie sich nicht unmittelbar dem Lernen und Lehren von neuen Sprachen widmen. Sie können deshalb als affine primäre Texte verstanden werden. Man trifft hier mitunter auf andere forschungsgeschichtliche und wissenschaftssoziologische Gegebenheiten, die das Lesen solcher Publikationen mitunter erschweren bzw. die eine eingehende Beschäftigung mit den jeweiligen fachspezifischen Voraussetzungen erfordern, damit man den entsprechenden Beitrag in seinem Entstehungskontext nachvollziehen und einordnen kann. Viele Arbeiten in der Psychologie etwa basieren auf Daten, die in experimentellen Forschungsdesigns gewonnen wurden und die nicht ohne weiteres auf den Gegenstandsbereich Fremdsprachenlernen und -lehren übertragen werden können. Eine Beschäftigung mit experimentellen Designs, Datengewinnung und Interpretation ist dabei oft unabdingbar (z. B. Bierhoff/Petermann 2014). Bei der Verwendung affiner primärer Texte aus anderen Fachbereichen ist immer auch Vorsicht und Augenmaß geraten, im Idealfall auch Austausch mit Forschenden der betreffenden Disziplinen, wenn man im Rahmen einer Textsichtung für ein Projekt in der Fremdsprachenforschung auf dergleichen Forschungsergebnisse stößt. Wer eine Arbeit verfasst, die sich auf Modelle und Studien anderer Fächer bezieht, ist wahrscheinlich gut beraten, direkten Kontakt mit FachvertreterInnen zu suchen (z. B. durch den Besuch von Vorträgen auf Konferenzen, Seminarbesuche, schriftlicher Kontakt). Überblicksdarstellungen in der Fremdsprachenforschung und in affinen Fachbereichen
Von Darstellungen empirischer Studien sind solche zu unterscheiden, die sich zwar auf empirische Arbeiten beziehen, diese jedoch in einem Überblick zusammenfassen mit dem Ziel, den Forschungsstand in einem bestimmten Gegenstandsbereich darzustellen. Das Spektrum der Texte reicht von der kompakten Darstellung in Handbüchern und Lexika (wie Burwitz-Melzer et al. 2016; Surkamp 2010) bis hin zu differenzierten Forschungsüberblicken in Monographien (z. B. Ellis 2008). Dabei wird häufig auch auf einige der oben als „affine primäre Texte“ bezeichneten Publikationen Bezug genommen, so dass diese Gruppe von Texten bereits eine interdisziplinäre Tendenz aufweist. Sie stellen insofern sekundäre Texte dar und können sowohl ihren Schwerpunkt im Bereich der Fremdsprachenforschung als auch in anderen Fachbereichen haben. Von besonderer Bedeutung für diese sekundären Texte (und deshalb für Forschende immer bei der Lektüre und Arbeit mit ihnen zu bedenken) ist, dass hier eine zusätzliche interpretatorische Dimension zu berücksichtigen ist, da die jeweiligen Autorinnen und Autoren ihrerseits primäre Texte zusammenfassen, gruppieren, auswerten und in einem Zusammenhang darstellen. Zu bedenken ist außerdem, dass zahlreiche primäre Texte auch Anteile aufweisen, die in die Gruppe der sekundären Texte fallen können. Dies verhilft einerseits zu einer strukturierten Darstellung und vermittelt einen konzisen Überblick über einen bestimmten Forschungsbereich aus einem bestimmten Zeitraum, die man als LeserIn sicherlich zu schätzen weiß. Andererseits handelt es sich bei der Strukturierung aber natürlich um eine Form der Interpretation, die ggf. für die eigene Arbeit überdacht werden muss. Forschungsüberblicke finden sich nicht nur in Handbüchern, Lexika oder sonstigen übergreifenden Darstellungen, sondern auch in jeder Veröffentlichung empirischer Befunde; und
5.2.2 Textzusammenstellung (für theoretische Arbeiten)
135
häufig finden wir hier eindeutige interpretatorische Tendenzen, die die jeweiligen Verfasserinnen und Verfasser aufgrund der eigenen Sichtweisen und Forschungsinteressen entsprechend zusammengestellt und dargelegt haben. Solche Forschungsüberblicke in primären Texten erfordern deshalb dieselbe Lesehaltung wie sekundäre Texte, insofern hier zwischen primären Textanteilen (Darstellung und Auswertung eigener empirischer Forschung) einerseits und sekundären Teilen (der Interpretation anderer primärer Texte durch die jeweiligen Verfasserinnen und Verfasser) andererseits unterschieden werden muss (s. Kapitel 6.3). Theoretische Arbeiten
Zu unterscheiden von primären und sekundären Texten sind solche, die sich eher beiläufig und z.T. auch nicht systematisch auf empirische Forschung beziehen, sondern die den Anspruch erheben, theoretische Fragestellungen und Zusammenhänge zu erkunden und zu entwickeln, indem sie beispielsweise Diskurse bündeln, kritisch hinterfragen und neu perspektivieren. Theoretische Arbeiten in der Fremdsprachenforschung basieren zudem ihrerseits meist auch auf theoretischen Schriften aus anderen Fachbereichen. So wurde z. B. bei der Arbeiten von Hallet (2002) und Hu (2003) auf kulturwissenschaftliche Schriften (z. B. Bhabha 1994), in der Arbeit von Schmenk (2002) auf Titel aus dem Bereich der Gender Studies zurück gegriffen (z. B. Butler 2000), für die Arbeiten von Küster (2003), Breidbach (2007) und Schmenk (2008) wurden bildungstheoretische Schriften herangezogen (z. B. Humboldt 1995; Meyer-Drawe 1990). 2 Auswahl und Zusammenstellung von Texten
Theoretische Arbeiten erfordern eine breite Rezeption von primären und sekundären Texten sowie eingehende Lektüren theoretischer Arbeiten, um sowohl den Gegenstandsbereich zugleich möglichst weiträumig und intensiv zu „erlesen“, als auch um den Blickwinkel auf bestimmte Themen und Fragestellungen zu erweitern und theoretisch zu fundieren. Theoretische Forschungsprojekte in der Fremdsprachenforschung nehmen i. d. R. ihren Anfang in Studien zu einem bestimmten Gegenstandsbereich in der Erforschung des Lehrens und Lernens von Sprachen. Bei dem Thema „Didaktik des bilingualen Unterrichts“ (Breidbach 2007) sind das entsprechend Studien aus dem Bereich CLIL oder dem bilingualen Lernen und Lehren, bei gender (Schmenk 2002) Studien zur Rolle und Bedeutung des Geschlechts beim Fremdsprachenlernen und -lehren, bei „pluraler Bildung“ (Küster 2003) Studien zum interkulturellen Lernen sowie zum fremdsprachlichen Literaturunterricht. Da es inzwischen eine kaum noch überblickbare Fülle wissenschaftlicher Publikationen zu allen erdenklichen Themen und Problemstellungen der Fremdsprachenforschung gibt, ist eine Vorauswahl unumgänglich und stellt eine entscheidende Weichenstellung dar. Das erste Kriterium ist hier normalerweise die Sprache bzw. Herkunft der jeweiligen Publikationen. Aus welchen Sprach- und Kulturräumen kann und will man Forschungsergebnisse für die eigene Arbeit nutzen? Hier gilt es abzuwägen zwischen der Tatsache, dass die deutschsprachige Bildungs- und Sprachenlandschaft zwar in gewisser Weise singulär ist (vor allem aufgrund der spezifischen Bildungssysteme und Institutionen), dass jedoch zahlreiche vergleichbare Forschungs- und Anwendungsbereiche in anderen europäischen Regionen wie auch außerhalb des europäischen Raums vorliegen. Dennoch kann man nicht alles lesen, was thematisch
136
5. Forschungsverfahren
in den eigenen Interessensbereich zu fallen scheint (zeitliche wie auch sprachliche Grenzen besitzt nun einmal jede/r). Ein gangbarer (wenn auch nicht gänzlich befriedigender) Weg ist es, eine möglichst umfangreiche Sammlung deutschsprachiger Publikationen zusammenzustellen und dann die englischsprachige Literatur gezielt zu sichten (s. u.). Da mittlerweile auch im deutschen Sprachraum zunehmend englischsprachige Texte rezipiert und veröffentlicht werden, scheint eine Sichtung und Sammlung von primären und sekundären Texten, die auf Englisch verfasst wurden, unumgänglich. Hinzu kommt, dass auch Forschungsarbeiten anderer Herkunft oft auf Englisch publiziert werden (z. B. aus den skandinavischen Ländern), so dass man mit den Wissenschaftssprachen Deutsch und Englisch durchaus viele verschiedene Herkunftsorte von Forschungsergebnissen berücksichtigen kann. Daneben ist nicht nur bei Arbeiten im Bereich der romanischen Sprachen eine Sichtung von Publikationen in französischer und/oder spanischer Sprache sinnvoll. In der Sprachenwahl der Texte liegt einerseits immer ein limitierendes Moment, das man letztlich nicht aufheben kann, zum anderen ermöglicht sie u. U. ein größere Differenziertheit und Breite der Diskussion. Eine zweite Entscheidung betrifft dann die Auswahl derjenigen Arbeiten, die man für das eigene Forschungsprojekt tatsächlich berücksichtigen möchte. Aufgrund der oben erwähnten Publikationsmenge in vielen Bereichen der Fremdsprachenforschung gilt es hier, mindestens drei Kriterien systematisch zu berücksichtigen. Qualitative Merkmale der Auswahl: Variation von Forschungsdesigns und -ergebnissen
Um einen spezifischen Forschungsdiskurs überblicken und erfassen zu können, also die Voraussetzungen für die Abfassung einer theoretischen Arbeit zu schaffen, sollten bei der Textzusammenstellung möglichst verschiedenartige primäre Texte ausgewählt werden. Das gilt sowohl für die Forschungsmethodologie und das Design der Studien (qualitative wie auch quantitative Designs, Daten von unterschiedlichen Populationen und ggf. aus unterschiedlichen Lern- und Lehrkontexten und Regionen) als auch für die Ergebnisse (um die Bandbreite der Forschungsresultate zu erfassen). Bei Schmenk (2002) wurden Studien aus dem englisch- und deutschsprachigen Raum berücksichtigt, die sich mit dem Geschlecht von Fremdsprachenlernenden und -lehrenden beschäftigen. Hier war zu beobachten, dass bereits diese erste Sichtung zeigte, dass verbreitete und in sekundären Texten übereinstimmend attestierte „Wahrheiten“ über das Geschlecht nicht haltbar sind. Die Fülle der unterschiedlichen und bisweilen inkonsistenten Resultate empirischer Forschungsarbeiten zum Geschlecht wird in sekundären Texten zugunsten konsistenter Aussagen etwa über das bessere Lernergeschlecht nicht kenntlich gemacht bzw. nicht erwähnt. Quantitative Entscheidungen zur Textzusammenstellung: Wie viele Texte sind nötig, wie viele hinreichend?
Hat man nach dem ersten Kriterium eine Liste von Texten zusammengestellt, gilt es nach dem zweiten Kriterium zu entscheiden, mit wie vielen Texten man sich für das jeweilige Arbeitsvorhaben tatsächlich genauer beschäftigen sollte bzw. kann. Für den bzw. die Forschende ist es schon nach einer ersten Sichtung nach Kriterium 1 der qualitativen Variation möglich, Tendenzen der Forschung zu erkennen und einen Überblick über die Forschungslage zu geben. Damit lässt sich ein spezifischer Forschungsdiskurs zumindest oberflächlich beschreiben
5.2.2 Textzusammenstellung (für theoretische Arbeiten)
137
(im Falle von Schmenk [2002] ist das z. B. der Überblick über die Forschungsergebnisse von Untersuchungen des Lernerfolgs der Geschlechter: Sind weibliche oder männliche Lernende „besser“ oder erfolgreicher?). Um einen Forschungsdiskurs genauer zu durchdringen, bedarf es jedoch einer weit intensiveren Beschäftigung mit einzelnen primären (auch sekundären) Texten. Hier geht es nun um das Kriterium der Quantität: Wie viele Arbeiten kann man tatsächlich im Detail untersuchen? Diese Frage lässt sich letztlich nur im Einzelfall beantworten, jedoch ist zumindest zu bedenken, dass man für bestimmte Argumentationsmuster jeweils verschiedene Texte untersuchen muss, damit man Gemeinsamkeiten und Unterschiede sowie die Muster selbst exakter bestimmen kann, die in Forschungsarbeiten erkennbar sind. Schmenk (2002) unterscheidet verschiedene Faktoren, die im Zusammenhang mit dem Lernergeschlecht untersucht und mit diesem korreliert worden sind, wie etwa Motivation und Lernstile. Für jeden dieser Faktoren wurden verschiedene Einzelstudien herangezogen, um anhand von deren Ergebnissen sowie den Argumentationen ihrer VerfasserInnen nachzuzeichnen, welche Rolle bzw. welcher Effekt jeweils dem Geschlecht der Lernenden attestiert wird und inwiefern es mit den jeweils untersuchten Faktoren korreliert bzw. in welchen argumentativen Zusammenhang die VerfasserInnen das Geschlecht stellen, wenn sie davon ausgehen, dass es mit anderen Faktoren korreliert. Da es in diesem Fall eine deutliche Tendenz gab, Argumentationen nach demselben Muster aufzubauen, wurden nur wenige Arbeiten knapp skizziert. Generell ist eine Beschränkung auf wenige Texte bei eingehenderen Untersuchungen von Texten dann möglich, wenn sich eine Tendenz zu gleichförmigen Argumentationsfiguren abzeichnet. Im Fall von gender war das die Neigung, bestimmte Einflussfaktoren als binär zu konzipieren (z. B. holistische vs. analytische kognitive Stile oder integrative vs. instrumentelle Motivation) und diese dann unmittelbar mit einem Geschlecht zu assoziieren (männlich-weiblich), was zu einerseits stark polarisierten geschlechtsspezifischen Lerner- und Lernbildern führt, sich andererseits jedoch in Bezug auf die zugrunde liegende Lerntheorie als problematisch erweist (da z. B. Motivation eher als Kontinuum zu verstehen ist und zudem nicht als statisches Merkmal von Lernenden angesehen werden kann; vgl. Schmenk 2002: 48 – 61). Qualitative Entscheidungen zur Textzusammenstellung: Welche Texte warum?
Das letztlich entscheidende Kriterium zur Textauswahl ist bedingt durch den ausgewählten theoretischen Rahmen der Arbeit. Da Fremdsprachenforschende in der Regel nicht bereits über umfangreiche Kenntnisse etwa philosophischer Debatten verfügen, ist neben der Lektüre und Arbeit mit primären und sekundären Texten auch eine vertiefte Lektüre theoretischer Arbeiten notwendig. Selbst wenn man von Beginn an eine theoretische Frage- oder Problemstellung im Kopf hat, die man gern im Rahmen der Fremdsprachenforschung genauer verfolgen oder anwenden möchte, wird man im Laufe der Lektüre von primären und sekundären Texten meist feststellen, dass weitere Aspekte zu bedenken, die theoretischen Hintergründe zu differenzieren und ggf. auch zu modifizieren sind. Diese theoretischen Überlegungen sind schließlich ausschlaggebend sowohl für die Untersuchung von primären und sekundären Texten als auch für weitere Überlegungen, Vorschläge und Kritik im Rahmen des spezifischen Forschungsdiskurses der Fremdsprachenforschung. Theoretische Arbeiten weisen deshalb immer auch den Charakter von Diskursanalysen auf, wenn es um die möglichst präzise Er-
138
5. Forschungsverfahren
fassung eines spezifischen Forschungsgegenstands geht. Dies stellt die Voraussetzung dar für das Entwickeln eigener Theorien und Modelle wie auch für andere theoretische Studien zu Aspekten des Fremdsprachenlehrens und -lernens. So entwickelt Breidbach (2007) anhand seiner differenzierten Untersuchung von Überlegungen zur Begründung und Praxis des bilingualen Unterrichts sowie von Bildungsdiskursen unter postmodernen Bedingungen eine reflexive Didaktik für den bilingualen Sachfachunterricht, die sowohl fachwissenschaftliche als auch allgemeinpädagogische und bildungstheoretische Dimensionen berücksichtigt. Schmenk (2002) verhilft die Orientierung an den Gender Studies u. a. zu einer Klassifikation von Geschlechtsbegriffen in der Fremdsprachenforschung (sex versus gender, gender als Substantiv vs. gender als Verb), die für die Auswahl von primären Texten zur eingehenden Analyse herangezogen wird (vgl. Referenzarbeit Schmenk 2002). Die größte Herausforderung besteht für VerfasserInnen von theoretischen Arbeiten sicherlich darin, sich Einblick in solche Theorien zu verschaffen, die nicht aus der Fremdsprachenforschung stammen. Um in der Lage zu sein, Kerntexte zu identifizieren, zentrale Diskussionspunkte zu kennen und sich selbst auch kritisch damit auseinander setzen zu können, ist häufig ein Selbststudium in entsprechenden Fachbereichen und deren Theoriebildung unvermeidlich, ebenso wie sehr viel Lesen und Wiederlesen sowie Kommunizieren mit FachvertreterInnen. Im Laufe der Lektüre kommt man dann an den Punkt, an dem man Kerntitel kennt und wiedererkennt, weil auf diese immer wieder in verschiedenen Arbeiten verwiesen wird. (Für die Heuristik und Korpuserstellung vgl. außerdem die Hinweise in Kapitel 5.1.2). 3 Ressourcen und Datenbanken
Deutschsprachige Publikationen der Fremdsprachenforschung sind inzwischen in verschiedenen Apparaten erfasst und deshalb vergleichsweise gut zugänglich (vgl. 5.2.1). Für den Bereich der englischsprachigen Forschungslandschaft ist die Suche von Texten aufgrund der hohen Anzahl von Publikationen sowie der unterschiedlichen Orte und Kontinente der Publikationen schwieriger. Die folgenden Datenbanken können dabei sehr hilfreich sein (vgl. auch Angaben zu Datenbanken Kap. 5.2.1):
• Linguistics and Language Behavior Abstracts (LLBA), abrufbar über viele Bibliotheksserver. Datenbasis mit verschiedenen Suchfunktionen für Zeitschriften. Die Einträge erfassen zahlreiche englischsprachige Publikationen aus den Bereichen Sprache und Linguistik. • RIC (Educational Resources Information Center), kostenloser Zugriff über http://eric. ed.gov/. Datenbasis mit zahlreichen Suchfunktionen für Zeitschriften und andere Pulikationen (Sammelbände, Monographien etc.) mit den Themenschwerpunkten Erziehung und Bildung. • MLA International Bibliography, abrufbar über viele Bibliotheksserver. Datenbasis mit zahlreichen Suchfunktionen für Zeitschriften. Die Einträge erfassen zahlreiche englischsprachige Publikationen aus den Bereichen Literatur, Film, Linguistik, angewandte Linguistik und Didaktik. • IFS (Informationszentrum Fremdsprachenforschung), kostenloser Zugriff über http://www. uni-marburg.de/ifs.
5.2.2 Textzusammenstellung (für theoretische Arbeiten)
139
5.2.2 Textzusammenstellung für theoretische Arbeiten
Forschungslandschaft wissenschaftliche Publikationen (Texte), Dokumente, Videos, Lehrmaterialien etc. theoretisches Erkenntnisinteresse Erfassen und Durchdringen eines Themas bzw. einer Fragestellung der Fremdsprachendidaktik Interdisziplinarität erweiterte Perspektiven durch Ansätze aus Bezugswissenschaften (z.B. Philosophie, Pädagogik, Kulturwissenschaften, Psychologie) bibliographische Recherche primäre (empirische) Texte sekundäre (zusammenfassende) Texte theoretische Texte
LLBA, RIC, MLA, IFS etc.
Begrenzungskriterien theoretischer Rahmen, Sprach(en), Gegenstandsbereich, Vielfalt der dargestellten Methoden und Ergebnisse Auswahlentscheidung inhaltliche Tendenzen erkennbare Argumentationsmuster
Textzusammenstellung © 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
140
5. Forschungsverfahren
Neben diesen Datenbasen gibt es auch die Möglichkeit, Bibliographien über folgende Ressourcen zusammenzustellen:
• USA: Library of Congress (http://www.loc.gov), ca. 14 Millionen Einträge, nicht nur in englischer Sprache
• Kanada: Canadian National Catalogue (Amicus) (http://amicus.collectionscanada.ca/aaweb/aalogine.htm) • Australien: National Library of Australia, (http://catalogue.nla.gov.au/) • Großbritannien: British Library Public Catalogue (http://catalogue.bl.uk/primo_library/ libweb/action/search.do?dscnt=1&dstmp=1 394 914 136 152&vid=BLVU1&fromLogin= true) ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen versehen. Burwitz-Melzer, Eva/Mehlhorn, Grit/Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.) (2016). Handbuch Fremdsprachenunterricht, 6. Auflage. Tübingen: Francke. Bierhoff, Hans-Werner/Petermann, Franz (2014). Forschungsmethoden der Psychologie. Göttingen: Hogrefe. Bhabha, Homi (1994). The Location of Culture. New York: Routledge. *Breidbach, Stephan (2007). Bildung, Kultur, Wissenschaft. Reflexive Didaktik für den bilingualen Sachfachunterricht. Münster: Waxmann. Butler, Judith (2000). Gender Trouble. Feminism and the Subversion of Identity. 3. Aufl. 2007. New York: Routledge. Ellis, Rod (2008). The Study of Second Language Acquisition. Oxford: Oxford University Press. Grotjahn, Rüdiger (1999). Thesen zur empirischen Forschungsmethodologie. In: Zeitschrift für Fremdsprachenforschung 10 [H. 1], 133 – 158. *Hallet, Wolfgang (2002). Fremdsprachenunterricht als Spiel der Texte und Kulturen. Intertextualität als Paradigma einer kulturwissenschaftlichen Didaktik. Trier: WVT. *Hu, Adelheid (2003). Schulischer Fremdsprachenunterrichts und migrationsbedingte Mehrsprachigkeit. Tübingen: Narr. Humboldt, Wilhelm von (1995). Schriften zur Sprache. Hrsg. V. Michael Böhler. Stuttgart: Reclam. *Küster, Lutz (2003). Plurale Bildung im Fremdsprachenunterricht. Interkulturelle und ästhetische Aspekte von Bildung an Beispielen romanistischer Fachdidaktik. Frankfurt/M.: Lang. Meyer-Drawe, Käte (1990). Illusionen von Autonomie. Diesseits von Ohmacht und Allmacht des Ich. München: Kirchheim. *Schmenk, Barbara (2002). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Stauffenburg. [Referenzarbeit, s. Kapitel 7] *Schmenk, Barbara (2008). Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs. Tübingen: Narr. Surkamp, Carola (2010). Metzler Lexikon Fremdsprachendidaktik. Stuttgart: Metzler.
5.2.3 Beobachtung
141
»» Zur Vertiefung empfohlen Gee, James Paul/Handford, Michael (Hg.) (2012). The Routledge Handbook of Discourse Analysis. London: Routledge. In diesem Band werden Formen und Aufgaben von Diskursanalysen dargestellt. Zahlreiche Beispiele und verschiedene Formen von Diskursanalysen werden detailliert erläutert. Für theoretische Arbeiten bietet der Band eine Reihe von methodischen Ideen zum Umgang mit Texten mit dem Zweck, Diskurse zu analysieren. Jorgensen, Marianne & Phillips. Louise J. (2002). Discourse Analysis as Theory and Method. London: Sage. In diesem Band geben die Verfasserinnen einen Überblick über Theorien und Methoden von Diskursanalysen, die sich hauptsächlich auf neuere poststrukturalistische Theorien stützen. Wer eine theoretische Arbeit verfassen will, die sich zur Aufgabe macht, Forschungsdiskurse in ihrer Entstehung zu begreifen sowie Tendenzen in bestimmten Diskursen darzustellen, findet in diesem Band wertvolle Tipps und Hintergründe für den Umgang mit Texten.
5.2.3 Beobachtung Karen Schramm/Götz Schwab 1 Begriffsklärung
Im Gegensatz zu Befragungen (s. Kapitel 5.2.4), welche insbesondere zur Erforschung innerer Aspekte wie Einstellungen, Meinungen und Gefühle geeignet sind, richten sich Beobachtungen auf äußerlich wahrnehmbares Verhalten. Beobachtet werden können beispielsweise die fremdsprachliche Interaktion oder Produktion mit ihren verbalen Handlungen, also den sprachlichen Äußerungen, mit ihren nonverbalen Handlungen wie beispielsweise Zeigen, Nicken usw. und mit ihren begleitenden aktionalen Handlungen wie beispielsweise dem Umgang mit Gegenständen. Nicht direkt beobachtbar sind dagegen diesen Prozessen zugrundeliegende Kognitionen und Emotionen sowie auch die fremdsprachliche Rezeption. Da Ansichten, wie sie in Befragungen kundgetan werden, und tatsächliches Verhalten, wie es beobachtet werden kann, in einigen Fällen divergieren, ist in einigen Untersuchungen die Kombination von Befragungen und Beobachtungen von besonderem Interesse. Im Forschungsprogramm Subjektive Theorien (s. Kapitel 4.2) ist beispielsweise nach einer kommunikativen Validierung von Interviewdaten auch eine zweite Phase der explanativen Validierung durch Beobachtung der handelnden Subjekte vorgesehen (Scheele/Groeben 1998: 24 – 29). Beobachtungen basieren zu einem gewissen Anteil immer auch auf dem Vorwissen der Beobachtenden. Im Gegensatz zu anderen Erhebungsmethoden ist für die Beobachtung charakteristisch, dass sich dabei Erhebungs- und Interpretationsprozesse stark mischen, denn Beobachtung ist per se durch Selektion, Abstraktion und Klassifikation charakterisiert. Wichtig erscheint es deshalb, die verschiedenen Herangehensweisen an Beobachtungen aus einer emischen von solchen aus einer etischen Forschungsperspektive zu unterscheiden (s. Kapitel 2; Watson-Gegeo 1988: 579 – 582, Markee/Kasper 2004: 493 – 495).
142
5. Forschungsverfahren
Dient die Beobachtung einer Rekonstruktion der Innenperspektive der Akteur_innen, also einer emischen Zielsetzung, dann sind die Vertrautheit mit den beobachteten Forschungspartner_innen sowie ein umfassendes Kontextwissen zentral für die Datenerhebung. Aus der emischen Perspektive, die insbesondere für die Ethnographie konstitutiv ist (s. dazu genauer Abschnitt 3), geht es beim Beobachten um ein Fremdverstehen, um ein Sich-Hineinversetzen in die Kultur der Forschungspartner_innen. So laufen Forscher_innen aufgrund der Bedeutung des Vorwissens für die Informationsaufnahme Gefahr ethnozentrischer bzw. „zu weit gehende[r] Interpretationen […], wenn der Beobachter dem Beobachteten sein eigenes Sinnverständnis unterlegt“ (Lamnek 2010: 501) – genau dies gilt es jedoch aus emischer Perspektive zu vermeiden. Eine etisch motivierte Beobachtung ist dagegen nicht am Fremdverstehen interessiert, sondern setzt ein bestimmtes theoretisches Verständnis des zu beobachtenden Untersuchungsgegenstands bereits voraus und wendet es konsequent auf ihn an. Zur Qualitätssicherung legen Beobachtungsstudien aus etischer Perspektive deshalb in der Regel Wert darauf, mithilfe von Beobachtungsleitfäden, von Beobachtungstraining mit entsprechendem Feedback und von Reliabilitätsüberprüfungen einen hohen Grad an intersubjektiver Übereinstimmung zu erreichen bzw. zu dokumentieren. Somit läuft diese Herangehensweise an Beobachtungen wiederum Gefahr, andere Sinnstrukturen als die theoretisch bereits modellierten nicht zu erfassen – und insbesondere andere Sinnstrukturen als die der Beobachteten anzuwenden, sodass die Forschungsergebnisse aus deren Sicht nicht valide sein könnten. Unter dem Begriff Beobachtung werden insgesamt so unterschiedliche Formen der Datenerhebung wie die teilnehmende Beobachtung ethnographischer Feldforscher_innen (Abschnitt 3), die Unterrichtsbeobachtung auf der Grundlage von Beobachtungsbögen (Abschnitt 4) und die Audio- und Videographie von Unterrichts- oder Lernprozessen (Abschnitt 5) zusammengefasst. Bevor diese im Folgenden einzeln vorgestellt werden, sollen in Abschnitt 2 einige übergreifende Aspekte zur Unterscheidung verschiedener Arten von Beobachtung thematisiert werden. 2 Arten der Beobachtung
Man unterscheidet zunächst zwischen der ungesteuerten (auch: unstrukturierten, unsystematischen) Beobachtung und der gesteuerten (auch: strukturierten, systematischen Beobachtung auf der Grundlage von im Vorfeld festgelegten Beobachtungsschwerpunkten (s. Lamnek 2010: 509 – 510, Ricart Brede 2014: 138 – 139), wobei es sich nicht um eine Dichotomie, sondern vielmehr um eine graduelle Unterscheidung handelt. Die strukturierte Beobachtung basiert nach Lamnek (2010: 509) auf „einem relativ differenzierten System vorab festgelegter Kategorien“, die unstrukturierte Beobachtung dagegen auf „mehr oder weniger allgemeine[n] Richtlinien, d. h. bestenfalls grobe[n] Hauptkategorien als Rahmen der Beobachtung“ (ebd.). Bezogen auf Fremdsprachenunterricht können beide Formen mit oder ohne Vorbereitung auf die jeweilige Unterrichtsstunde (z. B. Rezeption der lehrerseitigen Unterrichtsplanung oder gemeinsame Planung der Stunde seitens Lehrperson und Forschenden) erfolgen (Ziebell/ Schmidjell 2012: 37 – 40). Eine weitere terminologische Unterscheidung ist die zwischen teilnehmender und nichtteilnehmender Beobachtung:
5.2.3 Beobachtung
143
Der Unterschied zwischen teilnehmender und nicht-teilnehmender Beobachtung besteht darin, dass bei der teilnehmenden Beobachtung der Beobachter selbst Element des zu beobachtenden sozialen Feldes wird, wohingegen bei der nicht teilnehmenden Beobachtung der Beobachter gleichsam von außen her das ihn interessierende Verhalten beobachtet. (Lamnek 2010: 511)
Die nicht-teilnehmende Beobachtung in der Referenzarbeit von Schwab (2009) fand beispielsweise durch eine Kamera im vorderen Teil des Klassenzimmers in der Nähe des Fensters statt. In der Forschungsliteratur werden in der Regel vier verschiedene Ausprägungen auf einem Kontinuum des Partizipationsgrads von complete participant über participant-as-observer, observer-as-participant und complete observer unterschieden (vgl. Tab. 1), die im Folgenden in enger Anlehnung an Johnson/Christensen (2012: 209) erläutert werden. complete participant
Der/ die Forscher_in wird Mitglied der untersuchten Gruppe und teilt den Gruppenmitgliedern nicht mit, dass sie untersucht werden.
participant-as-observer
Der/die Forscher_in verbringt als Insider_in ausgedehnte Zeit mit der Gruppe und teilt den Gruppenmitgliedern mit, dass sie untersucht werden.
observer-as-participant
Der/die Forscher_in verbringt begrenzte Zeit mit der Beoachtung von Gruppenmitgliedern und teilt ihnen mit, dass sie untersucht werden.
complete observer
Der/die Forscher_in beobachtet die Gruppenmitglieder als Außenseiter_in und teilt den Beobachteten dies nicht mit.
Tabelle 1: Rollen bei der Feldforschung (zusammengestellt und übersetzt aus Johnson/Christensen 2012: 209)
Die Rolle als complete participant läuft auf eine verdeckte Beobachtung hinaus und erscheint deshalb aus forschungsethischen Gründen nicht akzeptabel, da datenschutzrechtliche Aspekte grundsätzlich eine offene Beobachtung erforderlich machen (zu Fragen der Offenlegung des Untersuchungsinteresses und zu Fällen von Täuschung über das Untersuchungsinteresse, s. Kapitel 4.6). Eine Beobachterrolle als participant-as-observer nimmt dagegen in Kauf, dass die Gruppenmitglieder von der Beobachtung wissen und sich deshalb unter Umständen weniger natürlich verhalten, vertraut aber darauf, dass sich mit zunehmender Gewöhnung an den oder die Beobachter_in und mit wachsendem Vertrauen die Natürlichkeit ihres Verhaltens wieder einstellt. Ein observer-as-participant dagegen verbringt deutlich weniger Zeit mit den Gruppenmitgliedern und ist deshalb in geringerem Maße durch Identifikation und in stärkerem Maße durch Distanz charakterisiert. Schließlich wird ein complete observer die Gruppe vollkommen von außen und in verdeckter Weise beobachten, um das Beobachterparadoxon bzw. die Reaktivität der Erhebungsmethode zu umgehen – aufgrund datenschutzrechtlicher Vorgaben handelt es sich um einen abstrahierten Pol des Kontinuums, der in dieser Form praktisch nicht vorkommen sollte. Weiterhin wird mit dem Begriffspaar online/offline unterschieden, ob die Beobachtung im Moment des Geschehens selbst erfolgt (online) oder auf Basis von Audio- und Videoaufzeichnungen im Anschluss an das Geschehen (offline), wobei in letzterem Fall ein iteratives
144
5. Forschungsverfahren
Beobachten möglich ist. Oftmals werden aber auch beide Verfahren miteinander verbunden, indem z. B. bei Filmaufnahmen nebenher Notizen erstellt werden (z. B. Schwab 2009). Typischerweise sind Beobachtungen im authentischen Feld angesiedelt. Seltener, weil auch deutlich kostenaufwändiger ist die Unterrichtsbeobachtung in einer Laborsituation: Hier stehen technisch entsprechend ausgerüstete Laborklassenzimmer zur Verfügung, in der zahlreiche Kameras aus unterschiedlichen Perspektiven den Unterricht dokumentieren, beispielsweise können in der Decke installierte Kameras von oben die Schreibprozesse der Schüler_innen dokumentieren. Für die Beobachtung von einzelnen Personen, beispielsweise Lernenden im Lernprozess oder Lehrpersonen bei der Unterrichtsplanung, ist dagegen der Verzicht auf Feldbedingungen einfacher zu realisieren, so dass in diesen Fällen zwischen den Vorteilen der Natürlichkeit des Feldes und Ungestörtheit des Labors abzuwägen ist. Schließlich werden auch die Fremd- und die Selbstbeobachtung unterschieden, wobei die Fremdbeobachtung im Folgenden im Zentrum des Kapitels steht, während die Selbstbeobachtung vor allem mit der Aktionsforschung (s. Kapitel 4.2) verbunden ist und der Introspektion nahesteht (s. Kapitel 5.2.5). 3 Teilnehmende Beobachtung in der Ethnographie
Die teilnehmende Beobachtung ist zentrales Erhebungsverfahren der Ethnographie, welche sich jedoch auch anderer im Feld zugänglicher Daten wie beispielsweise Dokumente, alltagskultureller Materialien, Gespräche, Interviews, Gruppendiskussionen, Audio-/Videoaufnahmen oder Fotos bedient (s. van Lier 1990, Atkinson/Hammersley 1994, Friebertshäuser/ Panagiotopoulou 2013: 309 – 312). Mittels einer länger andauernden Teilnahme, für die Dörnyei (2007: 131) einen Zeitraum von mindestens sechs bis zwölf Monaten angibt, suchen Ethnograph_innen die Lebenswelt bzw. die Innenperspektive einer (sozio-) kulturellen Gruppe zu erforschen: Im Zentrum der ethnographischen Neugierde steht […] die Frage, wie die jeweiligen Wirklichkeiten praktisch ‚erzeugt‘ werden; es geht ihr also um die situativ eingesetzten Mittel zur Konstitution sozialer Phänomene aus der teilnehmenden Perspektive. Ein derartiges Erkenntnisinteresse ist nicht identisch mit dem alltäglichen Blick der Teilnehmer. Während diese üblicherweise daran interessiert sind, ihre handlungspraktischen Probleme zu lösen, konzentriert sich der ethnographische Blick auf jene Aspekte der Wirklichkeit, die diese gleichsam als selbstverständlich voraussetzen, nämlich die Praktiken zu ihrer ‚Erzeugung‘, und fragt, wie es die Teilnehmer schaffen, sich selbst und anderen gegenüber soziale Fakten zu schaffen. (Lüders 2013: 390)
Bei der teilnehmenden Beobachtung nehmen Ethnograph_innen am Alltag der Forschungspartner_innen teil, indem sie im Feld eine dort akzeptierte Rolle übernehmen, und sie wachsen auf diese Weise gewissermaßen in die ‚fremde‘ Gruppe hinein. Dabei ergibt sich ein für die teilnehmende Beobachtung charakteristisches Spannungsfeld von (für das Verstehen notwendiger) Identifikation auf der einen Seite und (für das Berichten notwendiger) Distanz auf der anderen Seite (s. einführend Lamnek 2010: 574 – 581). Mit Blick auf die ethnographische Erforschung der vermeintlich vertrauten Schulwirklichkeit betont Breidenstein (2012:40; Hervorhebung im Original), dass sie „so zu beobachten [ist], als sei sie fremd, um neu nach grundlegenden Merkmalen und Funktionsweisen dieser Praxis fragen zu können“ und auch die „Skurrilität und Absonderlichkeit solcher Praktiken“ (ebd.) in den Blick zu bekommen.
5.2.3 Beobachtung
145
Essentiell ist für die teilnehmende Beobachtung in der Ethnographie das Anfertigen von stichwortartigen Feldnotizen und von darauf aufbauenden Beobachtungsberichten, in denen die Feldforscher_innen ihre Eindrücke „nachträglich sinnhaft verdichten, in Zusammenhänge einordnen und textförmig in nachvollziehbare Protokolle gießen“ (Lüders 2013: 396). Zu beachten ist, dass sich in solchen Beobachtungsprotokollen Beschreibungen und Interpretationen mischen (Friebertshäuser/Panagiotopoulou 2013: 313) und dass die vertiefte Reflexion durch die Verschriftlichung der Beobachtungen auch auf die Feldkontakte zurückwirkt (Legewie 1995: 192). Ein Forschungstagebuch dient vielen Ethnograph_innen darüber hinaus für die Dokumentation und Selbstreflexion. Die sprachdidaktisch motivierte Studie von Heath (1983) stellt ein frühes und prototypisches Beispiel einer solchen ethnographischen Vorgehensweise dar.2 Auf der Grundlage einer langjährigen teilnehmenden Beobachtung am Alltagsleben von zwei Arbeitergemeinden in den Südstaaten der USA, die sie als Trackton and Roadville bezeichnet, charakterisiert die Forscherin die oralen und literalen Sprachpraktiken der jeweiligen Bewohner_innen. Feldnotizen, Forschertagebuch und Audioaufnahmen dienen ihr beispielsweise dazu, die kulturell divergierenden Vorstellungen von einer gelungenen mündlichen Erzählung in beiden Gemeinden herauszuarbeiten. Mit mehreren solchen aufschlussreichen Detailanalysen zeichnet sie ein umfassendes Bild der kulturell bedingten Unterschiede in den sprachlichen Praktiken beider Gemeinden. Auf dieser Grundlage untersucht sie, auf welche Herausforderungen Kinder aus beiden Arbeitergemeinden mit ihren unterschiedlichen sprachlichen Repertoires stoßen, wenn sie die Schule mit ihren mittelstandsorientierten bildungssprachlichen Anforderungen besuchen. Ihren Ansatz, die Lehrpersonen für einen solchen ethnographischen Blick zu sensibilisieren, charakterisiert Heath folgendermaßen: In Part I of the book, the reader moves with me, the ethnographer, as unobtrusively as possible in the worlds of Trackton and Roadville children. In Part II of the book, my role as ethnographer is intrusive, as I work with teachers to enable them to become participant observers in their own domains and to use the knowledge from the ethnographies of Trackton and Roadville to inform their motivations, practices, and programs of teaching. (Heath 1983: 13)
Als aktuelles Beispiel für eine zweitsprachendidaktisch motivierte ethnographische Beobachtung lässt sich die Dissertation von Waggershauser (2015) zu literalen Praktiken von russischsprachigen Zweitschriftlernenden anführen. Die Forscherin begleitet fünf Teilnehmende für die Dauer ihres Integrationskurses mit Alphabetisierung in ihrem Alltag außerhalb des Kurses und erstellt ein umfangreiches Korpus von literalen Artefakten wie beispielsweise Gesprächsstützen, Kochrezepten oder Wegskizzen. Auf diese Weise kann sie Einblicke in den sozialen Umgang mit Schrift der Kursteilnehmenden erarbeiten, die wertvolle Grundlagen für eine funktional ausgerichtete Schreibdidaktik in Alphabetisierungskursen bieten.
2 Für einen Überblick über deutschsprachige Ethnographie in der Erziehungswissenschaft, s. Friebertshäuser/Panagiotopoulou (2013: 304).
146
5. Forschungsverfahren
4 Einsatz von Beobachtungsbögen
Der Einsatz von Beobachtungsbögen zur Erforschung von Fremdsprachenunterricht hat eine lange Tradition. Ein frühes Kategoriensystem zur Beobachtung von Unterricht (im allgemeinen) ist das FIAC3 von Flanders, der bereits 1960 das Potential einer systematischen Beobachtung der Beiträge von Lehrenden und Lernenden bzw. ihrer Redeanteilen für die Lehrerbildung erkannte; eine fremdsprachenspezifische Adaption erfolgte durch Moskovitz (1971) mit dem FLINT4-Beobachtungssystem. Auch das COLT5 von Fröhlich/Spada/Allen (1985) zur Beobachtung kommunikativen Fremdsprachenunterrichts ist als frühes und besonders verbreitetes Instrument aus der Vielzahl von Beobachtungsinstrumenten hervorzuheben. Bei explorativ-interpretativen Arbeiten und in der Aus- und Weiterbildung von Lehrpersonen6 mittels Hospitationen ist der Einsatz offener Beobachtungsbögen verbreitet. Diesen Fall illustriert das Beispiel in Abbildung 1: Die Fragen auf dem Beobachtungsbogen zum freien Sprechen fordern dazu auf, eine große Bandbreite an Phänomenen zu beobachten. Sie erfordern an vielen Stellen hohe Interpretationsleistungen und sie sehen offene Antworten vor. Hinführung/Einstieg
• Wie geschieht die Hinführung zum Thema? • Wie wird die Sprachhandlungssituation, in der frei gesprochen werden soll, eingeführt? Inhaltliche und sprachliche Vorbereitung
• Wie werden die TN inhaltlich und sprachlich auf das freie Sprechen vorbereitet? • Wie erarbeitet die KL inhaltliche und sprachliche Hilfen für das freie Sprechen? Arbeitsform
• Welche Arbeitsformen werden eingesetzt, in denen freies Sprechen möglich wird (z. B. Simulation, Rollenspiele, Diskussionen usw.?) Korrekturverhalten
• Lässt die KL die TN frei sprechen, ohne sie zu unterbrechen und zu korrigieren? • Wann und wie wird korrigiert? Erweiterung der Sprechfertigkeit
• Entwickeln die TN spürbar die Bereitschaft und Fähigkeit, das neu Gelernte in der simulierten Sprachhandlungssitatuion angemessen einzusetzen?
• Woran ist dies zu beobachten? • Verwenden die TN die neu erworbene Lexik und die neuen Stukturen im freien Sprechen? 3 4 5 6
Das Akronym FIAC steht für Flanders System of Interaction Categories. Das Akronym FLINT steht für Foreign Language Interaction. Das Akronym COLT steht für Communicative Orientation of Language Teaching. Nicht als Forschungsmethode, sondern als Untersuchungsgegenstand und als Impuls für entsprechende Gruppendiskussionen wählt Hochstetter (2011) Beobachtungsbögen. In ihrem mehrstufigen Projekt hat sie Videoaufzeichnungen des Einsatzes neu entwickelter Bewertungsbögen zur Sprechleistung den beteiligten Lehrkräften zur nachträglichen vergleichenden Bewertung gezeigt.
5.2.3 Beobachtung
147
Lernziel(e)
• Welches Lernziel/Welche Lernziele werden im Rahmen dieser Unterrichtseinheit mit Blick auf das freie Sprechen erreicht?
• Woran ist das zu beobachten? Sprachlernstrategien
• Gibt es Anregungen, Aufgaben, Unterstützung für autonomes Weiterlernen und die Anwendung außerhalb des Unterrichts?
• Welche?
Abbildung 1: Fragen auf einem Beobachtungsbogen zum freien Sprechen (zusammengestellt aus Ziebell/ Schmidjell 2012: 58)
Quantitativ ausgerichtete Forschungsarbeiten arbeiten dagegen bei Beobachtungen – sei es auf der Grundlage von im Feld bzw. Klassenzimmer auszufüllenden Beobachtungsbögen, auf der Grundlage von Videos oder auf der Grundlage von Transkriptionen – entweder mit Kodierungen oder mit Beurteilungen: Kodierende Beobachtungsverfahren zielen darauf ab, das Auftreten und ggf. die Dauer bestimmter Ereignisse oder Verhaltensweisen zu erfassen und festzuhalten. Die erzeugten Daten geben Aufschluss über die Häufigkeit, Verteilung oder zeitlichen Anteile bestimmter Verhaltens- oder Interaktionsmerkmale. Demgegenüber geht es bei Schätzverfahren (oft auch englisch als „Ratings“ bezeichnet) um eine Einschätzung oder Beurteilung des Beobachtungsgegenstandes, indem anhand von Schätzskalen die Ausprägung bestimmter Merkmale (z. B. bestimmter Qualitätsdimensionen) eingestuft wird. (Pauli 2012: 47; vgl. einführend auch Appel/Rauin 2015).
Darüber hinaus sind bei quantitativ orientierten Beobachtungen Zeitstichproben (timesampling) und Ereignisstichproben (event-sampling) zu unterscheiden (s. auch Kapitel 4.3). Eine Kodierung nach dem Prinzip des time-sampling bedeutet, dass das Videomaterial in
Abbildung 2: Beoachtungsbogen zur Klassenzimmerorganisation (Strube 2014: 98)
148
5. Forschungsverfahren
bestimmten Intervallen, beispielsweise in Abständen von 30 Sekunden oder von 3 Minuten, kodiert wird (s. z.B. das oben genannte klassische FLINT-Beobachtungssystem von Moskovitz 1971). Die Zahl der Schülermeldungen ließe sich z. B. in solchen Intervallen erfassen. Als Ereigniskodierung werden dagegen Fälle bezeichnet, in denen Kodierer_innen bestimmte Phänomene – zumeist auf der Grundlage abstrakter Beschreibungen solcher Phänomene und konkreter Ankerbeispiele sowie auch extensiven Kodiertrainings – erkennen und entsprechend vermerken. Das Auftreten von Gruppenarbeit wäre ein Beispiel für eine Ereigniskodierung, wobei hier die zeitliche Dauer des Ereignisses durchaus miterfasst werden kann (zur Entwicklung eines Beobachtungssystems s. Ricard Brede et al. 2010, Pauli 2012: 50 – 58). Eine weitere Unterscheidung betrifft das Inferenzniveau. Niedrig-inferente Analyse entscheidungen erfordern vergleichsweise wenig Schlussfolgerungen auf seiten des/der Beobachter_in. Die oben beispielhaft erwähnten Schülermeldungen und Sozialformen sind Beispiele für niedrige Inferenzniveaus. Ein hohes Inferenzniveau liegt dann vor, wenn die Analysenentscheidungen anspruchsvollere Interpretationen erfordern, wie beispielsweise bei der Bestimmung der Fehlerart oder des korrektiven Feedbacks (s. Beispiel unten in Abbildung 3). Die Abbildungen 2 und 3 aus einer Untersuchung von Strube (2014) zum Erwerb mündlicher Kompetenzen in Niederländischkursen durch Teilnehmer_innen mit wenig Schulerfahrung zeigen Beispielbögen für Ereigniskodierungen. Der Beobachtungsbogen in Abbildung 2 ist auf größere pädagogische Aspekte wie inhaltlicher Fokus, Sozialformen und Materialien bezogen. Auch wenn dieser Bogen von der Forscherin auf der Grundlage von Transkripten ausgefüllt wurde, so zeigt er doch den Fall vergleichsweise niedrig-inferenter Ereigniskodierungen, die auch zeitgleich mit dem Unterrichtsgeschehen, also direkt im Klassenzimmer erfasst werden könnten. Das zweite Beispiel in Abbildung 3 zu korrektivem Feedback illustriert dagegen den Fall einer geradezu mikroskopischen Ereigniskodierung, die vergleichsweise hoch-inferent und nur mit entsprechendem Zeitaufwand und auf der Grundlage von Transkripten durchführbar ist.
Abbildung 3: Beobachtungsbogen zu korrektivem Feedback im Klassenzimmer (Strube 2014: 104)
5.2.3 Beobachtung
149
Die beiden Beobachtungsbögen stellen nur eine Auswahl von Erhebungsinstrumenten der Dissertation von Strube (2014) dar, in der sie auf der Grundlage von Transkripten von 33 Stunden Unterricht umfassende, detailreiche Analysen der Unterrichtskommunikation vornimmt, parallel dazu lernersprachliche Entwicklungen im lexikalischen und morphosyntaktischen Bereich beschreibt und aus der Verbindung beider Analysen Hypothesen zur Lernförderlichkeit bestimmter Klassenzimmer-Charakteristika aufstellt. 5 Erhebung von Audio- und Videodaten
Die Erhebung von Audio- und Videodaten erlaubt die wiederholte Beobachtung zu beliebig vielen Zeitpunkten und bietet damit enormes Potential für Analysen von Unterricht und Lernprozessen. Aufgrund von Fragen des Feldzugangs, datenschutzrechtlicher und ethischer Aspekte müssen solche Aufnahmen langfristig und detailliert vorbereitet werden (s. dazu genauer Schramm 2014). In technischer Hinsicht sind bei der Vorbereitung audiographischer Aufnahmen insbesondere unterschiedliche Arten von Mikrofonen zu prüfen, die für Aufnahmen von Plenumsunterricht vs. Partner- und Gruppenarbeit geeignet sind; denkbar ist allerdings auch der Einsatz von einfacheren Aufnahmegeräten im Alltag (z. B. Smartphones), wie die zweitsprachendidaktisch motivierten Studien von Levine (2008) oder Pietzuch (2015) illustrieren, bei denen die Forschungspartner_innen Sprachaufnahmen in ihrem Alltagsleben machten. Dass auch allein auf der Grundlage von Audioaufnahmen bahnbrechende Forschungsergebnisse zu erzielen sind, zeigen die die bis heute grundlegende Untersuchung von Sinclair/ Coulthard (1975) zu typischen Interaktionsmustern im lehrerzentrierten Unterricht und die als klassisch zu bezeichnende Arbeit von Wong-Fillmore (1979) zu Strategien von Kindern beim L2-Erwerb Englisch. Bei Videoaufnahmen ist zu klären, mit wie vielen Kameras (und entsprechend Mikrofonen) gearbeitet werden soll und wie diese unter Berücksichtigung der Lichtverhältnisse und insbesondere des Untersuchungsgegenstands positioniert werden sollen. In der Regel wird vom Fenster weg und mithilfe eines Stativs, ggf. mit Kameraschwenks, gefilmt, doch für geübte Kameraleute kommt auch der Einsatz beweglicher Kameras in Frage. Insbesondere bei größeren Forschungsprojekten findet oft ein Kameraskript Einsatz, das im Vorfeld der Untersuchung Details zu diesbezüglichen Entscheidungen festlegt und somit die Einheitlichkeit der Aufnahmen in einem Projekt absichert (s. bspw. Ricart Brede 2011: Anhang). Wird bei den Aufnahmen mit mehreren Kameras gearbeitet, ist bei der Aufbereitung und Analyse die Synchronisierung in Split-Screen-Formaten von Interesse. Bei der Erforschung eines fremdsprachlichen Kurses für Sprecher_innen von Gebärdensprache ist es beispielsweise unerlässlich, mit zwei synchronisierten Videoaufnahmen zu arbeiten, um die Interaktion von frontaler Lehrperson und Lernergruppe dokumentieren zu können. Die Referenzarbeit von Schmidt (2007: 190 – 192) illustriert den Fall, dass Partnerarbeiten am Computer videographiert wurden. Dazu wurde per Zufallssampling regelmäßig jeweils ein Paar bei der Bearbeitung von Softwareübungen videographiert. Ergänzend wurde mittels einer Bildschirmaufzeichnungssoftware (Camtasia) dokumentiert, wie die Schüler_innen die Übungen am Bildschirm bearbeiteten. Zudem wurde auch der größere Unterrichtskontext videographisch und mittels Feldnotizen dokumentiert.
150
5. Forschungsverfahren
Für die Aufbereitung und Analyse von Videodaten stehen inzwischen zahlreiche Softwarepakete zur Verfügung, welche teils auch mehrere Audio- und Videospuren gleichzeitig darstellen können (z. B. Transana). Einige Beispiele sind:
• Anvil (http://www.anvil-software.org), • Interact (s. http://www.mangold-international.com/de/software/interact), • Observer (http://www.noldus.com/human-behavior-research/products/the-observer-xt), • Transana (http://www.transana.org) und • Videograph (http://www.dervideograph.de). Die videogestützte Erforschung von Fremdsprachenunterricht hat ungefähr seit der Jahr tausendwende einen regelrechten Boom erlebt (s. Überblick in Schramm/Aguado 2010), sodass sich inzwischen verschiedene Ansätze herausgebildet haben. Schramm (2016) unterscheidet diesbezüglich drei Typen videogestützter Forschung zu fremdsprachendidaktischen Fragen: Erstens untersuchen in pragmalinguistischer Tradition stehende Videointeraktionsanalysen in deskriptiver Absicht den (Fremdsprachen-)Unterrichtsdiskurs (s. beispielsweise die Referenzarbeit von Schwab 2009, Méron-Minuth 2009; s. auch Kapitel 5.3.6). Im Unterschied dazu zieht die methodentriangulatorische Videographie ausgehend von Videoaufnahmen auch weitere Daten (wie beispielsweise videobasiertes Lautes Erinnern, Interviews oder Fragebögen) heran, um in Anlehnung an ethnographische Vorgehensweisen die Innenperspektive der Akteur_innen zu rekonstruieren (z. B. Feick 2016). Drittens ist die quantifizierende, modellbildende videobasierte Unterrichtsforschung, die u. a. durch die TIMSS-Studien und verwandte Fachdidaktiken (z. B. Riegel/Macha 2013) inspiriert wurde, an kausalen Zusammenhängen zwischen Aspekten der Unterrichtsqualität und den Lernergebnissen interessiert (z. B. Helmke et al. 2008). 6 Fazit
Für die Beforschung und Untersuchung von fremdsprachendidaktischen Untersuchungsfeldern, insbesondere zur Erforschung der fremdsprachlichen Klassenzimmerinteraktion, stellt die Beobachtung ein zentrales Erhebungsinstrumentarium dar. Bei teilnehmenden Beobachtungen im Feld, bei der nicht-teilnehmenden Beobachtung mittels mehr oder wenig strukturierter Beobachtungsbögen und bei audio- und videographischen Aufzeichnungen ist gleichermaßen bereits im Vorfeld genau zu bedenken, wie und in welcher Form die Beobachtung vorgenommen werden kann und soll. Dies bedeutet auch darüber nachzudenken, welche Auswirkungen der Beobachtungsprozess auf die eigentliche Forschungsintention hat. Entscheidend ist dabei u. a., wie invasiv der oder die Forschende ist und wie gegenstandsangemessen das Vorgehen ist. Aus ethischer Sicht scheint es von zentraler Relevanz, die Vorgehensweise klar und deutlich mit den Forschungssubjekten abzusprechen und allen Beteiligten gegenüber offen darzulegen (z. B. auch den Schulbehörden oder Eltern). Wichtig ist darüber hinaus, die Beobachtungsmodalitäten beim Publizieren der Ergebnisse deutlich und umfassend darzustellen.
151 5.2.3 Beobachtung
Erhebung
5.2.3 Beobachtung emische Forschungsperspektive
unstrukturiert
Feldnotiz
Forschungstagebuch
ethnographisches Beobachtungsprotokoll
quantifizierende Kodierung / Schätzung
participant-as-observer
complete observer
strukturiert
offener Beobachtungsbogen
nicht-teilnehmend
oberserver-as-participant
complete participant
teilnehmend
Gefahr ethnozentrischer Interpretationen (oder fehlender Distanz) im Feld
im Labor
etische Forschungsperspektive
Gefahr der Ausblendung nicht-modellierter Sinnstrukturen © 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Auswertung
152
5. Forschungsverfahren
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin/Schramm, Karen/Vollmer, H. Johannes (Hg.) (2010). Fremdsprachliches Handeln beobachten, messen und evaluieren. Neue methodische Ansätze der Kompetenzforschung und Videographie. Frankfurt a. M.: Lang. Appel, Johannes/Rauin, Udo (2015). Methoden videogestützter Beobachtungsverfahren in der Lehrund Lernforschung. In: Daniela Elsner/Britta Viebrock (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt a. M.: Lang, 59 – 79. Atkinson, Paul/Hammersley, Martin (1994). Ethnography and participant observation. In: Denzin, Norman K./Lincoln, Yvanna S. (Hg.). Handbook of Qualitative Research. London: Sage, 248 – 261. Breidenstein, Georg (2012). Ethnographisches Beobachten. In: De Boer, Heike/Reh, Sabine (Hg.), 27 – 44. De Boer, Heike/Reh, Sabine (Hg.) (2012). Beobachtung in der Schule. Beobachtung lernen. Wiesbaden: Springer VS. Dörnyei, Zoltán (2007). Research Methods in Applied Linguistics. Oxford: Oxford University Press. *Feick, Diana (2016). Autonomie in der Lernendengruppe. Entscheidungsdiskurs und Mitbestimmung in einem DaF-Handyvideoprojekt. Tübingen: Narr. *Flanders, Net A. (1960). Interaction Analysis in the Classroom: A Manual for Observers. Ann Arbor, MI: University of Michigan Press. Friebertshäuser, Barbara/Panagiotopoulou, Argyro (2013). Ethnographische Feldforschung. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 4. durchgesehene Auflage. Weinheim: Beltz Juventa, 301 – 322. *Fröhlich, Maria/Spada, Nina/Allen, Patrick (1985). Differences in the communicative orientation of L2 classrooms. In: TESOL Quarterly 19, 27 – 57. *Heath, Shirley Brice (1983). Ways with Words. Language, Life, and Work in Communities and Classrooms. Cambridge: Cambridge University Press. *Helmke, Tuyet/Helmke, Andreas/Schrader, Friedrich-Wilhelm/Wagner, Wolfgang/Nold, Günter/Schröder, Konrad (2008). Die Video-Studie des Englischunterrichts. In: DESI-Konsortium (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz, 345 – 363. Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Johnson, Burke/Christensen, Larry (2012). Educational Research. Quantitative, Qualitative, and Mixed Approaches. 4. Auflage. Thousand Oaks, CA: Sage. Lamnek, Siegfried (2010). Qualitative Sozialforschung. 5. überarbeitete Auflage. Weinheim: Beltz. Legewie, Heiner (1995). Feldforschung und teilnehmende Beobachtung. In: Flick, Uwe/v. Kardorff, Ernst/Keupp, Heiner/v. Rosenstiel, Lutz/Wolff, Stephan (Hg.). Handbuch Qualitative Sozialforschung. Grundlagen, Konzepte, Methoden und Anwendungen. 3. neu ausgestattete Auflage. Weinheim: Psychologie Verlags Union, 189 – 192. *Levine, Glenn (2008). Exploring intercultural communicative competence through L2 learners’ intercultural moments. In: Schulz, Renate/Tschirner, Erwin (Hg). Communicating Across Borders: Developing Intercultural Competence in German as a Foreign Language. München: iudicium, 191 – 216. Lüders, Christian (2013). Beobachten im Feld und Ethnographie. In: Flick, Uwe/Kardorff, Ernst von/ Steinke, Ines (Hg.). Qualitative Forschung. Ein Handbuch. 10. Auflage. Reinbek b. Hamburg: Rowohlt, 384 – 401.
5.2.3 Beobachtung
153
Markee, Numa/Kasper, Gabriele (2004). Classroom talks: An introduction. In: The Modern Language Journal 88, 491 – 500. *Méron-Minuth, Sylvie (2009). Kommunikationsstrategien von Grundschülern im Französischunterricht. Tübingen: Narr. Moskowitz, Gertrude (1971). Interaction analysis – a new modern language for supervisors. In: Foreign Language Annals 5, 211 – 221. Pauli, Christine (2012). Kodierende Beobachtung. In: De Boer, Heike/Reh, Sabine (Hg.), 45 – 63. *Pietzuch, Anja (2015). Hochqualifizierte in Integrationskursen – eine fallstudienorientierte Analyse zu Zweitspracherwerb, Identität und Partizipation. München: iudicium. *Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen. Freiburg i.B.: Klett Fillibach. Ricart Brede, Julia (2014). Beobachtung. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/ Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh (UTB), 137 – 146. Ricart Brede, Julia/Knapp, Werner/Gasteiger-Klicpera, Barbara/Kucharz, Diemut (2010). Die Entwicklung von Beobachtungssystemen in der videobasierten Forschung am Beispiel von Qualitätsanalysen vorschulischer Sprachfördereinheiten. In: Aguado, Karin/Schramm, Karen/Vollmer, Helmut J. (Hg.), 257 – 275. *Riegel, Ulrich/Macha, Klaas (Hg.) (2013). Videobasierte Kompetenzforschung in den Fachdidaktiken. Münster: Waxmann. Scheele, Birgit/Groeben, Norbert (1998). Das Forschungsprogramm Subjektive Theorien. Theoretische und methodologische Grundzüge in ihrer Relevanz für den Fremdsprachenunterricht. In: Fremdsprachen lehren und lernen 27, 12 – 32. *Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Schramm, Karen (2014). Besondere Forschungsansätze: Videobasierte Unterrichtsforschung. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 243 – 254. Schramm, Karen (2016). Unterrichtsforschung und Videographie. In: Burwitz-Melzer, Eva/Mehlhorn, Grit /Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.). Handbuch Fremdsprachenunterricht. 6. vollständig neu bearbeitete Auflage. Tübingen: A. Francke, 587 – 592. Schramm, Karen/Aguado, Karin (2010). Videographie in den Fremdsprachendidaktiken – Ein Überblick, in: Aguado, Karin/Schramm, Karen/Vollmer, Helmut J. (Hg.). Fremdsprachliches Handeln beobachten, messen und evaluieren. Neue methodische Ansätze der Kompetenzforschung und Videographie. Frankfurt a. M.: Lang, 185 – 214. *Schwab, Götz (2009). Fremdsprachenunterricht und Konversationsanalyse. Landau: Verlag empirische Pädagogik. [Referenzarbeit, Kapitel 7] *Sinclair, John McH./Coulthard, Richard M. (1975). Towards an Analysis of Discourse. The English Used by Teachers and Pupils. Oxford: Oxford University Press. *Strube, Susanna (2014). Grappling with the Oral Skills. The Learning and Teaching of the Low-Literate Adult Second Language Learner. Utrecht: Landelijke Onderzoekschool Taalwetenschap. van Lier, Leo (1990). Ethnography: Bandaid, Bandwagon, or Contraband? In: Brumfit, Christopher/Mitchell, Rosamond (Hg.). Research in the Language Classroom. London: Modern English Publications, 33 – 53. *Waggershauser, Elena (2015). Schreiben als soziale Praxis. Eine ethnographische Untersuchung erwachsener russischsprachiger Zweitschriftlernender. Tübingen: Stauffenburg.
154
5. Forschungsverfahren
Watson-Gegeo, Karen Ann (1988). Ethnography in ESL: Defining the essentials. In: TESOL Quarterly 22, 575 – 592. *Wong-Fillmore, Lily (1979). Individual differences in second language acquisition. In: Fillmore, Charles/Kempler, Daniel/Wang, William S.-Y. (Hg.). Individual Differences in Language Ability and Language Behavior. New York: Academic Press, 203 – 228. Ziebell, Barbara/Schmidjell, Annegret (2012). Unterrichtsbeobachtung und kollegiale Beratung. Berlin: Langenscheidt.
»» Zur Vertiefung empfohlen Aguado, Karin/Schramm, Karen/Vollmer, H. Johannes (Hg.) (2010). Fremdsprachliches Handeln beobachten, messen und evaluieren. Neue methodische Ansätze der Kompetenzforschung und Videographie. Frankfurt a. M.: Peter Lang. Dieser Sammelband präsentiert fünf Beiträge zur Videographie in der Fremdsprachendidaktik. Hier finden sich sowohl ein Überblick über den Forschungsstand als auch spezialisierte Beiträge zu Fragen der Erhebung, der Transkription und der Entwicklung von Beobachtungssystemen. Lamnek, Siegfried (2010). Qualitative Sozialforschung. 5. überarbeitete Auflage. Weinheim: Beltz [Kapitel 11: Teilnehmende Beobachtung, 498 – 581]. In diesem Handbuch qualitativer Sozialforschung wird das Thema teilnehmende Beobachtung anhand zahlreicher Beispiele aus der Soziologie ausführlich behandelt. Zur ersten Orientierung über Begrifflichkeiten finden auch fremdsprachendidaktisch interessierte Leser_innen hier eine systematische Terminologie-Einführung mit anschaulichen Übersichten. Wajnryb, Ruth (1992). Classroom Observation Tasks: A Resource Book for Language Teachers and Trainers. Cambridge: Cambridge University Press. In diesem Arbeitsbuch erhalten Lehrkräfte und noch unerfahrene Forschende eine verständliche Anleitung, wie Unterrichtsprozesse beobachtet und analysiert werden können, um daraus konkrete Schlüsse für die eigene Praxis zu ziehen. Anhand zahlreicher Aufgaben werden gezielt Beobachtungskompetenzen erlernt, ohne dass man sich auf bestimmte theoretische Interpretationsansätze und Forschungsmethoden festlegen muss. Watson-Gegeo, Karen Ann (1988). Ethnography in ESL: Defining the essentials. TESOL Quarterly 22, 575 – 592. Dieser Artikel arbeitet die wichtigsten Charakteristika ethnographischer Forschung heraus und fragt nach dem Potenzial ethnographischer Forschung für das Fach English as a Second Language. Die prägnante Darstellung der theoretischen Hintergründe und der Etappen des ethnographischen Forschungsprozesses lassen diesen Artikel als einführende Lektüre besonders geeignet erscheinen. Ziebell, Barbara/Schmiedjell, Annegret (2012). Unterrichtsbeobachtung und kollegiale Beratung. Berlin: Langenscheidt. Diese für den Bereich Deutsch als Fremdsprache konzipierte Fernstudieneinheit führt u. a. in Techniken der Unterrichtsbeobachtung, in die Beobachtung ausgewählter Aspekte im Unterrichtshandeln und in die Beobachtung von Lehrerverhalten ein. Dazu bietet es neben verständlichen Einführungstexten auch zahlreiche Beobachtungsbögen und Aufgaben mit Lösungsvorschlägen sowie auch Videobeispiele an.
5.2.4 Befragung
155
5.2.4 Befragung Claudia Riemer 1 Begriffsklärung und Ausgangslage
In der empirischen Fremdsprachenforschung werden mündliche und schriftliche Befragungsmethoden zur Datenerhebung sehr häufig eingesetzt, auch in der überwiegenden Zahl der für diesen Band als Referenzen fungierenden empirischen Forschungsarbeiten. Vielfach wird an vorhandenen forschungsmethodischen und -methodologischen Diskussionen aus den Sozialwissenschaften, der Erziehungswissenschaft und Psychologie angeknüpft, zunehmend stehen auch fachinterne Ausführungen zur Verfügung (vgl. exemplarisch Daase/Hinrichs/Settinieri 2014 für Befragung allgemein; Dörnyei 2010, Zydatiß 2012 für die schriftliche Befragung; Trautmann 2012 für qualitative Interviews). Die Gründe für diese große Beliebtheit sind vielfältig: Mit Blick auf das allgemeine Erkenntnisinteresse der Erforschung des Lehrens und/ oder Lernens von Fremd- und Zweitsprachen, bietet es sich häufig an, hierfür gerade die Protagonisten – die Lehrenden und Lernenden – selbst mit ihrer Binnensicht zu Wort kommen zu lassen. Es hat aber auch damit zu tun, dass viele Untersuchungsgegenstände (wie etwa Erfahrungen, Einstellungen, Motivationen oder Haltungen von Lehrenden und Lernenden) nicht aus der Außenperspektive beobachtbar sind und dann eine Operationalisierung in Form von Selbstauskünften befragter Personen sinnvoll ist. Es spielt aber sicher auch eine Rolle, dass Befragungsmethoden an alltäglichen kommunikativen Erfahrungen des Fragens und Antwortens anknüpfen und daher insbesondere Forschungsnovizen hier weniger methodische Zugangshürden antizipieren; einen Fragebogen zu entwickeln oder ein Interview durchzuführen erscheint zunächst eine leicht(er) zu bewältigende Aufgabe zu sein. Wie bei anderen Datenerhebungsmethoden auch, spielt die Qualität des Erhebungsinstruments die entscheidende Rolle für die Qualität von Befragungsdaten. Befragungsdaten sind allerdings das Ergebnis von Selbstauskünften (engl. self reports) und daher mit der generellen Problematik verbunden, dass ihre Zuverlässigkeit eingeschränkt ist. Dies hängt u. a. von der Bereitschaft und Fähigkeit der Befragten zu wahrheitsgemäßen und relevanten Aussagen ab; auch Erinnerungsfehler, sozial erwünschte Antworten, Gefälligkeitsaussagen und Einflüsse persönlicher Antworttendenzen (engl. response set), wie z. B. die Akquieszenz (Ja-Sage-Tendenz), sind nie auszuschließen. Möglichst unverfälschte Daten durch Befragung zu erheben, muss daher durch die jeweiligen Verfahren so weit es nur geht sichergestellt werden. Ein Beispiel für gute Reflexion der Effekte sozialer Erwünschtheit bei Fragebogenbefragungen sowie deren Berücksichtigung bei der Fragebogenkonstruktion findet sich in der Studie von Özkul (2011: 94 – 95), die Berufswahlmotive von Lehramtsstudierenden untersucht. Zu unterscheiden sind schriftliche (Fragebogen) und mündliche Formen (Interview) der Befragung sowie der Grad ihrer Standardisierung. Fragebögen werden gewöhnlich dann eingesetzt, wenn größere Probandengruppen erfasst werden sollen und/oder die Anonymität schon in der Befragungssituation gewahrt bleiben soll. In der Regel sind Fragebögen stark standardisiert. Die Erhebung der Fragebogendaten selbst sowie deren Aufbereitung und Auswertung ist relativ unaufwändig – was allerdings auf die Erstellung eines geeigneten Fra-
156
5. Forschungsverfahren
gebogens nicht zutrifft. Interviews haben den Vorteil, dass für viele Befragten der mündliche Modus einfacher ist und Befragte sich intensiver mit den Fragen auseinandersetzen; ihre Anonymität kann allerdings frühestens während der Datenaufbereitung (Transkription) hergestellt werden. Interviews werden als Einzelinterviews oder als Gruppeninterviews bzw. Gruppendiskussionen durchgeführt, was im Vergleich zu schriftlichen Befragungen einen erheblich größeren Zeitaufwand für die Datenerhebung (und auch für die darauf folgende Transkription und Datenanalyse) erforderlich macht und daher in der Regel den Umfang der Probandengruppen einschränkt. Beide Formen sind im Rahmen qualitativer und quantitativer Forschungsansätze einsetzbar, wobei sich der jeweils erforderliche bzw. erwünschte Grad der Standardisierung unterscheidet. Die Standardisierung von Befragungen umfasst verschiedene Aspekte: die Geschlossenheit der Fragen, die Festlegung der Fragenreihenfolge sowie die Gestaltung der Befragungssituation. Standardisierte Befragungen (auch als „strukturierte“ Befragung bezeichnet) sind typisch für einen zugrundegelegten quantitativen, hypothesentestenden Forschungsansatz und sehen v. a. geschlossene Fragen in festgelegter Reihenfolge sowie eine exakte Kontrolle der Datenerhebungssituation vor (gleiche Bedingungen für alle Probanden, gleiches Verhalten der Interviewer, u. a. gleiche Befragungshilfen sowie Verzicht auf Nachfragen sowie individualisierte Erläuterungen). Offene bzw. semi-offene Befragungen verfolgen einen qualitativen, hypothesengenerierenden Forschungsansatz und sind nur minimal oder gar nicht standardisiert. Sie sehen v. a. offene Fragen und keine festgelegte Fragereihenfolge vor (diese ergibt sich aus dem Gesprächsverlauf und wird v. a. durch den Befragten bestimmt); die Rahmenbedingungen für die Datenerhebungssituation werden in der Regel nicht kontrolliert (Eingehen auf Wünsche der Befragten z. B. in Bezug auf Ort und Zeit, Nachfragen und Erläuterungen des Interviewers möglich). Bei Befragungen können unterschiedliche Arten von Fragen gestellt werden (vgl. Porst 2014: 53 – 69). Offene Fragen, die häufig W-Fragen sind (z. B. „Warum lernen Sie Deutsch als Fremdsprache?“), sind von den Befragten mit eigenen Worten zu beantworten, was die Tiefgründigkeit und Vielseitigkeit der Antworten erhöht – aber auch vom Grad der Verbalisierungsfähigkeit und Bereitschaft des Befragten zu relevanten Antworten abhängt. Bei geschlossenen Fragen (z. B. „Wie stark interessieren Sie sich für Deutsch als Fremdsprache?“) müssen die Befragten aus einer begrenzten Zahl vorgegebener Antworten auswählen (z. B. „sehr stark, stark, wenig, überhaupt nicht“); auch Mehrfachauswahloptionen (multiple choice) sind möglich (z. B. „Welche Sprachen haben Sie in der Schule gelernt? Antwortoptionen: Englisch, Französisch, Spanisch, Latein, Türkisch“). Halboffene Fragen erlauben neben der Auswahl aus vorgegebenen Antworten eine weitere freie Antwort (s. letztes Beispiel, weitere Antwortoption: „sonstige“). Geschlossene Fragen haben den Vorteil, dass sie schnell auszuwerten, auf einer Nominal-, Ordinal- oder Intervallskala zu quantifizieren sind (vgl. dazu näher Kapitel 5. 3. 10) und die Daten miteinander vergleichbar sind. Sie unterliegen allerdings immer dem Risiko, dass sich Befragte nicht in den Fragen wiederfinden und daher beliebig antworten, teilweise Antworten auslassen oder im schlimmsten Fall den Fragebogen abbrechen – was entweder „fehlende Werte“ für die statistische Auswertung bedeutet bzw. die Güte der Befragung insgesamt verringert. Allein aus diesem Grund bieten sich halboffene und offene Fragen als Ergänzung zu geschlossenen Fragen an.
5.2.4 Befragung
157
Der standardisierte Fragebogen mit vorrangig geschlossenen Fragen mit Antwortoptionen stellt die klassische Form der Befragung im Rahmen eines quantitativen Forschungsansatzes dar, während das offene bzw. semi-offene Interview ein gängiges Instrument qualitativer Forschung ist. Offene Fragen in schriftlichen Befragungen sind in der Regel nicht geeignet, die Ziele qualitativer Forschung hinreichend abzubilden. Häufig werden in der Fremdsprachenforschung sowohl standardisierte Fragebögen als auch qualitative Einzelinterviews (z. B. bei Biebricher 2008 im Rahmen einer quasi-experimentell angelegten Interventionsstudie zum extensiven Lesen; s. Kapitel 7) bzw. unterschiedliche Interviewverfahren (z. B. Gruppendiskussion und Einzelinterview in der Studie von Tassinari 2010, die Lehrkräfte und Experten zum autonomen Lernen befragt; s. Kapitel 7) im Rahmen von mixed-methods-Designs eingesetzt. Fragebögen können außerdem vor Einzelinterviews zur Abfrage von reinen Faktenfragen und demographischen Angaben eingesetzt werden – sie können so zur Entlastung der Gesprächssituation (und zur Umfangreduktion bei der Datenaufbereitung) beitragen. Ein Beispiel dazu findet man bei Ehrenreich 2004 (s. Kapitel 7), die mittels eines Kurzfragebogens wichtige kontextuelle und biographische Rahmenbedingungen abfragt, bevor sie Untersuchungsteilnehmer dann mittels Interview zu einem Assistant-Teacher-Auslandsaufenthalt befragt. Auf das Forschungsthema zugeschnittene Fragebogenerhebungen können das kontrastive Sampling für eine qualitative mündliche Befragung unterstützen (zum Sampling vgl. auch Kapitel 4.3). Aber auch mit anderen Erhebungsverfahren werden Befragungsverfahren kombiniert, um unterschiedliche Perspektiven zu gewinnen (z. B. Kombination von strukturierter Unterrichtsbeobachtung mit Befragungen von Lehrenden zu ihren Überzeugungen qua qualitativem, leitfadengestützten Interview und Gruppendiskussion bei Hochstetter 2011; s. Kapitel 7) oder ergänzende Informationen zu erhalten (z. B. Ergänzung der zentralen Methode der Unterrichtsbeobachtung/ Videographie durch strukturierte Fragebögen, retrospektives Interview, Lerntagebuch und Gruppendiskussion bei Schmidt 2007; s. Kapitel 7). Solche mehr-methodischen Designs verfolgen Triangulationsansätze, die mit besonderen Herausforderungen bei der Datenanalyse sowie dem Ergebnisabgleich konfrontiert sind (vgl. dazu Kapitel 4.4). 2 Fragebogen
Der Einsatz von Fragebögen ist mit einer Reihe von Vorteilen verbunden: Befragungen können mittels Fragebögen sehr exakt vorstrukturiert werden; Fragen können klar festgelegt werden und präzise formuliert werden. Fragebögen sind relativ leicht und räumlich wie zeitlich flexibel einsetzbar; große Mengen an Daten können mit überschaubarem Aufwand erhoben werden. Sie können auf Papier ausgeteilt werden und nach kurzer Zeit wieder eingesammelt werden. Alternativ können sie auf postalischem oder elektronischem Wege versandt und erhoben werden; darüber hinaus kann bei elektronisch unterstützten Befragungen mittels Einsatz von Fragebogensoftware sichergestellt werden, dass alle Fragen beantwortet werden. Die Anonymität der Befragten kann bewahrt werden. Die gewonnenen Daten sind vergleichbar und – abhängig vom Grad ihrer Standardisierung – leicht quantifizierbar und quantitativen Analyseverfahren zuzuführen. Aber: Wenn Fragebögen zu schnell erstellt und eingesetzt werden, geht dies meistens zu Lasten der Datenqualität, was die Güte von Fragebogenstudien erheblich einschränken kann. So fordert u. a. Dörnyei (2010: XIII) für die Fremdsprachenfor-
158
5. Forschungsverfahren
schung, dass der Einsatz von Fragebögen besser forschungsmethodisch und -methodologisch reflektiert und vorbereitet werden muss, als dies in vielen Studien der Fall ist. Skalentypen
Fragen können als geschlossene oder offene Fragen gestellt werden. In standardisierten Fragebögen überwiegen die geschlossenen Fragen, für die Antwortoptionen in Form unterschiedlicher Skalen vorgegeben sind (zu ausführlichen Erläuterungen zum Skalenniveau, vgl. auch Porst 2014: 71 – 97). Offene Fragen haben oft den Charakter eines Annex und werden häufig von den Untersuchungsteilnehmern gar nicht beantwortet – oder spielen bei der Datenanalyse keine wichtige Rolle. Oft enthalten Fragebögen gar keine Fragen, auf die die Befragten mittels vorgegebener oder (seltener) freier Antworten reagieren sollen. Häufig zu finden sind Rating-Skalen, insbesondere so genannte Likert-Skalen, die positiv oder negativ formulierte Statements vorBeispiel 1: Item aus dem Fragebogen zur Messung der fremdsprachenspezifischen Angst von Horwitz/Horwitz/Cope (1986: 129) 1. I never feel quite sure of myself when I am speaking in my foreign language class. Strongly agree – Agree – Neither agree nor disagree – Disagree – Strongly disagree Beispiel 2: Item aus dem Fragebogen zur Messung der integrativen und instrumentellen Orientierung zum Fremdsprachenlernen von Gardner (1985: 179) 1. Studying French can be important for me only because I’ll need it for my future career.
Strongly Disagree
Moderately Disagree
Slightly Disagree
Neutral
Slightly Agree
Moderately Agree
Strongly Agree
Beispiel 3: Item zur Messung von Einstellungen zu Computer-Sprachlernprogrammen von Schmidt (2007: Online-Anhang 3, Abschlussfragebogen Schülerinnen)
Wörterbuch Englisch-Deutsch
sehr hilfreich
eher hilfreich
wenig hilf- nicht hilfreich reich
□
□
□
□
Beispiel 4: Item zur Messung der Häufigkeit der Computerbenutzung von Schmidt (2007: Online-Anhang 2, Anfangsfragebogen für Lehrende)
Wie oft surfen Sie im Internet?
sehr oft
oft
manchmal selten
(Mehr als dreimal pro Woche)
(Ein bis zwei Mal pro Woche)
(Ein bis zwei Mal pro Monat)
(Höchstens einmal pro Monat)
□
□
□
□
Abbildung 1: Skalentypen im Fragebogen
nie
□
5.2.4 Befragung
159
halten, die den Befragten zur (Selbst-)Einschätzung auf einer vorgegebenen, anzukreuzenden Ratingskala vorgelegt werden (vgl. Porst ebda, Dörnyei 2010: 26 – 33). Mittels solcher Items werden z. B. Einstellungen, Haltungen und Erfahrungen operationalisiert. Empfohlen werden fünf bis neun Skalenpunkte, wobei zu berücksichtigen ist, dass bei einer hohen Anzahl mit pseudodifferenzierten Antworten zu rechnen ist. Die Anzahl der skalierten Ankreuzmöglichkeiten kann gerade oder ungerade sein; beides ist in der Forschung üblich. Zu bedenken ist aber stets, dass eine ungerade Anzahl Unschärfen bei der Datenerhebung (und späteren Datenauswertung) ergeben kann, weil Untersuchungsteilnehmer die Mittelposition einer Skala unterschiedlich interpretieren. Wenn sie die Mittelposition ankreuzen, kann dies bedeuten, dass sie keine Meinung dazu haben – aber evtl. auch, dass sie die Frage uninteressant finden; evtl. sind sie aber wirklich neutral. Alternativ könnte bei einer ungeraden Anzahl eine zusätzliche Antwortkategorie, wie die Option „weiß nicht“/„nicht zutreffend“ vorgegeben werden. Eine gerade Anzahl wiederum zwingt die Befragten, sich für eine Seite zu entscheiden, auch wenn sie vielleicht unentschieden sind. Die Punkte auf den Ratingskalen werden mittels geeigneter Begriffe sprachlich festgelegt (vgl. Bsp. 1 für eine 5stufige Skala, Bsp. 2 für eine 7stufige Skala in anderer Zustimmungsrichtung, Bsp. 3 für eine 4stufige Skala, die die Befragten zu einer Antwortrichtung zwingt); alternativ können auch Piktogramme, wie z. B. Smileys für Skalenpunktmarkierungen verwendet werden (z. B. für den Einsatz von Likert-Skalen bei Kindern; vgl. Dörnyei 2010: 28 – 29). Schwieriger ist die Benennung der Skalenpunkte bei Häufigkeitsangaben, da Angaben wie „selten“ oder „häufig“ unterschiedlich interpretiert werden können (vgl. Beispiel 4 für eine häufig anzutreffende Lösung). Als Alternative bieten sich ausschließlich endpunktbenannte Skalen an, da so die Gleichabständigkeit der Zwischenstufen besser erreicht wird, insbesondere wenn die Benennung vieler Zwischenstufen nicht uneindeutig möglich ist. Der Grad der Gleichabständigkeit der Skalen ist eine wesentliche Voraussetzung für die Art der Quantifizierung der mit solchen Items gewonnenen Daten. In der Regel sind Likert-Skalen nicht äquidistant; daher sind damit gewonnene Daten im strengen Sinn keine intervallskalierten Daten, sondern ordinale bzw. rangskalierte Daten, die nicht allen statistischen Verfahren zugänglich sind (vgl. Kapitel 5. 3. 10). Erstellung eines Fragebogens
Eine schriftliche Befragung ist nur so gut wie ihr Fragebogen – und ein Fragebogen ist nur so gut wie seine Items. Im Vergleich zu den Vorteilen einer Fragebogenbefragung in Bezug auf den Zeitaufwand der Erhebung und Auswertung ist nicht zu unterschätzen, welcher Aufwand bei der Erstellung eines Fragebogens zu leisten ist. Entscheidende Schritte sind die Formulierung sowie Zusammenstellung der Items. Gerade bei Untersuchungsgegenständen, für die es noch keine geprüften Verfahren gibt, und bei abstrakten Konstrukten, wie z. B. Einstellungen, Meinungen oder anderen Persönlichkeitsvariablen, sind Multi-Items gegenüber Einfach-Items vorzuziehen, d. h. mehrere, gewöhnlich vier bis zehn Items werden in Annäherung an das zu erfassende Konstrukt formuliert (zur Verwendung von Multi-Items, vgl. Dörnyei 2007: 103 – 104, Dörnyei 2010: 23 – 26). Es gibt keine harten Regeln für die Itemformulierung – und vorhandene Empfehlungen bleiben in gewisser Weise immer abstrakt. Aus der Vielzahl von Methodeneinführungen (vgl.
160
5. Forschungsverfahren
Daase/Hinrichs/Settinieri 2014: 105, Dörnyei 2007: 108 – 109, Dörnyei 2010: 40 – 46, Meyer 2013: 91, Porst 2014: 20 – 31, 98 – 118) können jedoch einige Faustregeln abgeleitet werden, da sie insbesondere Forschungsnovizen vor vermeidbaren Fehlern bewahren können; alle Regeln sind besonders sorgsam zu beachten, wenn die Sprache des Fragebogens nicht die L1 der Befragten ist. Faustregeln für die Formulierung von Fragebogenitems • Items sind kurz und in einfacher, verständlicher Sprache zu formulieren (in der Regel weniger als 20 Worte), die von allen Beteiligten in gleicher Weise verstanden werden. • Uneindeutige Wörter (wie z. B. „gut“, „einfach“, „manchmal“, „oft“, „viel(e)“), unklare Wörter (z. B. „jung“, „Nachbarschaft“) oder mehrdeutige Wörter (wie z. B. „modern“, „Heimat“, „Stress“) sollen vermieden werden – denn jeder Befragte kann etwas anderes darunter verstehen. • Unklare Begriffe sind – so sie nicht vermieden werden können – zu definieren. • Allgemeine Fragen sind zugunsten konkreter Fragen zurückzustellen. • Suggestivfragen jeder Art und hypothetische Fragen sind zu vermeiden. • Doppelte Verneinungen sind zu vermeiden, denn sie führen zu Missverständnissen. • Jedes Item darf nur einen Aspekt behandeln. • Items dürfen die Befragten nicht überfordern – sie sollen aber auch nicht trivial sein. • Items sollen nicht auf Informationen zielen, über die die Befragten möglicherweise nicht verfügen. • Der räumlich-zeitliche Bezug von Items soll immer klar und eindeutig sein. • Zustimmende und ablehnende Antwortmöglichkeiten sollen balanciert sein; Items sollen so formuliert sein, dass sich abwechselnd positive und negative Antworten für den Befragten ergeben. • Antwortoptionen sollen hinreichend erschöpfend und überschneidungsfrei sein. • Und noch eine wichtige Regel: Bei der Formulierung von Items sollte man im Blick behalten, dass sie die Übersetzung in andere Sprachen nicht unnötig erschwert (z. B. Vermeidung indirekter Sprache und metaphorisierter Ausdrücke). Abbildung 2: Faustregeln für die Erstellung von Fragebogenitems
Zur Festlegung der Items gehört neben der Formulierung der Fragen oder Statements auch die der Auswahl der Skalentypen (s. o.) bzw. Antwortoptionen. Bei Faktenfragen (z. B. nach demographischen Variablen wie Alter, Bildungslaufbahn, Geschlecht) sind geeignete Antwortoptionen festzulegen, z. B. im Multiple-Choice-Format. Statements müssen entsprechende Rating-Skalen zugeordnet werden, wobei begründete Entscheidungen getroffen werden müssen, was die Anzahl der Zwischenstufen betrifft und ob diese gerade oder ungerade sein soll. Auch sollte bedacht werden, dass es bei Mehrfachantworten die häufige Tendenz gibt, dass Befragte die ersten (primacy-effect) oder letzten Antwortkategorien (recency-effect) vermehrt ankreuzen (dieser Effekt verstärkt sich bei standardisierten mündlichen Befragungen). Bei der Anordnung der Fragen ist zu beachten, dass sie der Aufmerksamkeitsspanne des Befragten entspricht. Zum Einstieg in den Fragebogen sollten möglichst inhaltliche und
5.2.4 Befragung
161
themenbezogene, motivierende Items vorgesehen werden, die von den Untersuchungsteilnehmern leicht beantwortet werden können und sie persönlich betreffen. Auf diese Weise soll eine Bindung des Befragten erreicht werden (vgl. auch die „Regeln für die Einstiegsfrage“ bei Porst 2014: 139 – 146). Die zentralen Items für die Fragestellung sollen in den ersten zwei Dritteln des Fragebogens gestellt werden. Generell gilt hierfür die Empfehlung, dass Items logisch in Themenblöcken geordnet werden sollen; Multi-Items sowie Items zu sehr nah verwandten Konstrukten sollten jedoch randomisiert werden (z. B. bei testähnlichen Messungen von Persönlichkeitseigenschaften), um Gedächtniseffekte zu vermeiden. Es empfiehlt sich darüber hinaus, unaufwendige Fragen eher an das Ende des Fragebogens zu stellen (z. B. demographische Fragen und leicht abrufbare Faktenfragen). Heikle Fragen, die möglicherweise Befürchtungen von Befragten in Bezug auf Sanktionen wecken könnten oder tabuisierte Themenbereiche betreffen (das kann z. B. auch eine Frage nach dem Einkommen sein) sollten in das hintere Drittel des Fragebogens gerückt werden, um ihren vorzeitigen Ausstieg unwahrscheinlicher zu machen. Nicht unterschätzt werden sollten mögliche Ausstrahlungseffekte von Fragen auf die Folgefragen. Am Ende des Fragebogens sollte den Befragten gedankt werden und die Möglichkeit zu inhaltlichen Ergänzungen und methodischen Anmerkungen gegeben werden; ggfs. sollte angeboten werden, unter Achtung datenschutzrechtlicher Regelungen, Informationen über die Ergebnisse der Studie zu erhalten oder sich für Folgebefragungen (auch mündlicher Art) zur Verfügung zu stellen. Weitere Parameter für einen guten Fragebogen sind mit der Gestaltung des Fragebogens verbunden: Länge (als Faustregel gilt eine optimale Länge von nicht über vier Druckseiten für den Frageteil und eine Gesamtbearbeitungszeit von unter 30 Minuten (vgl. Dörnyei 2010: 13), gutes und professionell wirkendes Layout mit einem optisch ansprechenden und das Thema erläuternden Deckblatt, genaue Erläuterungen zum Ausfüllen des Fragebogens (z. B. Hinweise, wie die Skalen anzukreuzen sind, dass es keine richtigen oder falschen Antworten gibt, dass Ehrlichkeit wichtig ist) – und v. a.: nicht zu viel Text in lesbarer Schriftgröße pro Seite (es soll Spaß machen, den Fragebogen auszufüllen!). Viele genaue Hinweise und Beispiele dazu sind in den Einführungen von Dörnyei (2010) und Porst (2014) zu finden. Bei nicht direkter, auch elektronischer Administration darf ein einladendes Anschreiben mit der Bitte um Teilnahme und Zusicherung der Wahrung der datenschutzrechtlichen und forschungsethischen Regelungen sowie Regelungen guter wissenschaftlicher Praxis (vgl. dazu Kapitel 4.6) nicht fehlen. Wird der Fragebogen durch den Forscher selbst verteilt, spielt darüber hinaus das persönliche Auftreten eine wichtige Rolle. Qualitative schriftliche Befragung
Schriftliche Befragungsverfahren werden in der qualitativen Fremdsprachenforschung nur recht selten verwendet. Sie bieten sich aber dann an, wenn subjektive Erfahrungen in größerer Breite erhoben werden sollen und/oder Sonderformen von Introspektion schriftlich erfolgen können. Ein bekanntes Beispiel stellt das Tagebuch, häufig in der Form eines Sprachlerntagebuchs, dar (vgl. Bailey/Ochsner 1983), das im Rahmen bekannter Einzelfallstudien zur Erforschung von Emotionen und Lernerkognitionen zur Anwendung kam (vgl. exemplarisch Bailey 1983, Schmidt/Frota 1986). Sprachlerntagebücher scheinen insbesondere dann ergiebige Datenquellen zu sein, wenn sie von erfahrenen Lernenden bzw. Fremdsprachen-
162
5. Forschungsverfahren
forschern geschrieben werden (die Autoren in den oben genannten Studien waren auch die Tagebuchschreiber!). Ein anderes Beispiel ist das Instrument der mittels eines relativ offenen Frageimpulses erhobenen schriftlichen Sprachlernbiographie, die in der deutschen Sprachlehrforschung zur Untersuchung von Lernervariablen eingesetzt wird (vgl. exemplarisch Edmondson 1997, Riemer 2011). 3 Interview
Zu unterscheiden sind quantitative von qualitativen Interviews. Quantitative, strukturierte Interviews spielen in der deutschen wie internationalen Fremdsprachenforschung keine große Rolle. Sie sind eine Sonderform der standardisierten Befragung, für die die oben genannten Regeln und Grundlagen der Fragebogenbefragung gelten; Frageformulierungen und Antwortoptionen sind vorgegeben. Die Durchführung eines strukturierten Interviews ist eine mündliche Administration eines vorgegebenen Fragebogens; allerdings mit dem Vorteil, dass die direkte (oder telefonische) mündliche Befragung das Risiko vermindert, dass Items ausgelassen oder viel zu flüchtig durchgegangen werden. Aus Gründen der notwendigen Gleichbehandlung geschieht dies allerdings um den Preis einer recht künstlichen Gesprächssituation, bei der keine Spielräume für Frageanpassungen, Nachfragen oder auf den jeweiligen Untersuchungsteilnehmer bezogene Erläuterungen bestehen. Qualitative Interviews
Qualitative Interviews sind zentrale Datenerhebungsmethoden in qualitativen Forschungsansätzen, da sie dem Ziel der Erhebung möglichst reichhaltiger und tiefgründiger Daten gut entsprechen. Die Untersuchungsteilnehmer sollen in möglichst natürlich gehaltenen Gesprächen zur ausführlichen Darlegung ihrer Erfahrungen, Meinungen, Überzeugungen und auch ihres Wissens angeregt werden. Widersprüchlichkeit, Vagheit und auch Nicht-Wissen können in den Antworten zum Ausdruck gebracht werden. Während geschlossene Befragungen darauf setzen (müssen), von den Untersuchungsteilnehmern auf vorgegebene Items möglichst lückenlos ehrliche Einschätzungen zu bekommen, wollen qualitative Interviews die Befragten dazu bringen, selbst Auskünfte darüber zu geben, was und warum etwas für sie relevant ist. Die Tiefe und Breite der Antworten soll nicht eingeschränkt werden. Für qualitative Interviews gilt das Prinzip der Offenheit; den Untersuchungsteilnehmern wird Raum für Elaborationen, Klarstellungen und Erklärungen und damit die Option zu tiefgründigeren und glaubwürdigeren Auskünften gegeben. Nicht ausgeschlossen werden kann dabei allerdings, dass für den Untersuchungsgegenstand irrelevante oder nur oberflächliche Informationen gewonnen werden. Dieses Risiko zu minimieren, stellt ein wesentliches Ziel der Interviewgestaltung seitens des Interviewers dar. Daten, die aus qualitativen Befragungen resultieren, sind nur eingeschränkt vergleichbar, da die Offenheit der Fragestellung unterschiedliche Schwerpunktsetzungen und auch unterschiedliche Breite und Tiefe der Berichte erlaubt. In den empirischen Disziplinen in den Sozialwissenschaften wurde eine Reihe unterschiedlicher Interviewformate entwickelt, die auf einem Kontinuum semi-offener bis maximal offener Verfahren angesiedelt werden können. So gibt es Interviewformen, die nur sehr wenige Steuerungselemente haben (z. B. narratives Interview, Gruppendiskussion), andere (wie z. B.
5.2.4 Befragung
163
das leitfadengestützte Interview oder das Experteninterview) strukturieren die Erhebungssituation etwas stärker vor – aber in keiner Weise so umfangreich, wie dies bei strukturierten Interviews der Fall ist. Die Steuerung der Gesprächssituation erfolgt während des Gesprächs und ist weniger von einem Instrument wie dem Leitfaden, sondern stark von den Strategien des Interviewers zur (zurückhaltenden) Lenkung des Gesprächs abhängig. Es werden viele unterschiedliche Interviewvarianten unterschieden (vgl. z. B. Friebertshäuser/Langer 2010, Helfferich 2011: 35 – 46, Kvale 2007: 67 – 77), von denen im Folgenden die gängigsten etwas genauer erläutert werden. Das Leitfadeninterview
Das Leitfadeninterview ist eine häufig anzutreffende, semi-offene Form des qualitativen Interviews. Die wesentlichen Aspekte des Untersuchungsgegenstands und der Forschungsfrage(n) werden vorab in Stichworten und (offenen) Fragen festgehalten. Durch die Entscheidung für diese etwas stärker vorstrukturierte mündliche Befragung kann gewährleistet werden, dass die interessierenden Aspekte des Untersuchungsgegenstands zur Sprache kommen – sie werden durch entsprechende Impulsfragen des Interviewers eingebracht. Dabei muss allerdings in Kauf genommen werden, dass die erhobenen Daten etwas stärkeren Elizitierungscharakter haben, was mit der reinen Lehre der qualitativen Forschungsmethodologie nicht völlig im Einklang steht. Die Leitfragen sollen aus diesem Grund so offen gehalten sein, dass die Untersuchungsteilnehmer ausreichend Möglichkeit haben, eigene Sinnzusammenhänge zu elaborieren bzw. eigene Schwerpunkte zu setzen. Der Leitfaden sollte daher nicht zu umfangreich sein und eher als Orientierung und weniger als ein strikter Ablaufplan gehandhabt werden (zum Dilemma der „Leitfadenbürokratie“ vgl. die frühen Ausführungen von Hopf 1978). Fragenreihenfolge und exakte Formulierungen werden nicht vorgegeben, sondern sollen sich möglichst harmonisch in den Gesprächsfluss, der v. a. durch den Untersuchungsteilnehmer bestimmt wird, einfügen. Die Befragten sollen zu möglichst ausführlichen Antworten ermutigt werden; auch sollte ihnen der Raum für offene Erzählungen gegeben werden. Nachfragen sind ein wichtiges Instrument der Gesprächslenkung (s. u.). Wie offen ein Leitfadeninterview tatsächlich ist, hängt von der Gestaltung durch den Interviewer ab bzw. von seiner Fähigkeit, den Befragten in ein Gespräch zu verwickeln, das diesen zu tiefgründigen Aussagen ermuntert. Dabei ist stets zu beachten, dass Fragen per se Aufforderungscharakter an die Interviewten haben und der Fragestil eine motivierte Teilnahme des Interviewten fördern soll. Es ist eine Kunst, die ‚richtigen‘ Fragen zum richtigen Zeitpunkt zu stellen. Fehler dabei sind unvermeidbar (was jeder Forschende spätestens bei der Transkription und Auswertung der Interviews feststellen wird); es kommt aber darauf an, mit Fragen in der Gesprächssituation bewusst und kontrolliert umgehen zu können. Faustregeln für Leitfäden sowie Fragen in offenen und semi-offenen Interviews (vgl. Dörnyei 2007: 136 – 138, Helfferich 2011: 102 – 114, Kvale 2007: 60 – 65) Leitfäden • sollen nicht zu lang sein, d. h. es sollen nicht zu viele Fragen vorgesehen werden; • sollen formal so gestaltet sein, dass sich Interviewer während des Interviews leicht darin zurechtfinden: Fragen sollen auf keinen Fall vorgelesen werden;
164
5. Forschungsverfahren
• sollen thematische Sprünge vermeiden; • können vorformulierte Fragen, Aufrechterhaltungsfragen und Nachfragen enthalten, auf die der Interviewer im Bedarfsfall zurückgreifen kann;
• im Leitfaden vorgesehene Einzelfragen sollen immer zugunsten spontan gelieferter Erzählungen zurückgestellt werden;
• müssen zu Beginn des Interviews um Erlaubnis für die Aufzeichnung des Gesprächs bitten; • sollten die Möglichkeit einer selbstreflexiven Abschlussäußerung des Untersuchungsteilnehmers eröffnen (z. B. „Möchten Sie noch etwas sagen, wonach ich nicht gefragt habe?“).
Fragen • sind stets verständlich, widerspruchsfrei und möglichst kurz zu halten (keine Fremdwörter oder Fachausdrücke). Diese Regel ist doppelt zu beachten, wenn die Sprache des Interviews nicht die L1 der Befragten ist; • sollen nicht nur mit ja oder nein zu beantworten sein; • sollen nicht als geschlossene Fragen gestellt werden; • sollen nicht zu viele Aspekte auf einmal ansprechen; • Insbesondere Nachfragen sollen möglichst nicht mit „warum“, „wieso“, „weshalb“ beginnen, da sie als indirekte Kritik verstanden werden können oder zu vorschnellen Ursache-WirkungsZusammenhängen einladen; • Insbesondere erzählgenerierende Fragen sind daraufhin zu prüfen, ob sie Präsuppositionen, also Vorannahmen, enthalten; • Aufrechterhaltungsfragen sollen keine neuen inhaltlichen Impulse liefern, sondern zu weiteren Elaborationen führen (z. B. „Können Sie das etwas genauer erzählen?“, „Wie war diese Situation für Sie?“) oder die Erzählung voranbringen (z. B. „Wie ist es dann weitergegangen?“); • Steuerungsfragen können das Gespräch wieder zum Thema zurückführen, indem z. B. ein bereits gefallenen Stichwort aufgegriffen oder ein vorher fallengelassenes Thema wieder eingebracht wird; • Nachfragen sorgen für die Tiefgründigkeit und Reichhaltigkeit der Daten, indem z. B. um Erläuterungen und Beispiele gebeten wird (z. B. „Ich bin unsicher, ob ich das richtig verstanden habe; können Sie das bitte noch einmal erklären?“, „Können Sie bitte ein Beispiel geben?“), Zusammenhänge hergestellt werden (z. B. „Wie kommen Sie jetzt auf diesen Punkt?“) sowie die Genauigkeit oder Vollständigkeit überprüft wird (z. B. „Ich versuche mal zusammenzufassen, was Sie bisher gesagt haben …“; „Sie haben also aus folgenden Gründen damals mit dem Lernen der deutschen Sprache begonnen …?“); • Themen, die vom Interviewten nicht selbstständig angesprochen werden, sollten behutsam eingebracht werden; • Besondere Vorsicht ist bei Tabu-Fragen angezeigt. Abbildung 3: Faustregeln für die Erstellung von Fragebögen
In den Sozialwissenschaften werden weitere Interviewvarianten unterschieden, die in der Regel ebenfalls Leitfäden vorsehen und daher den semi-offenen Verfahren zuzuordnen sind. Ihre Unterschiede liegen weniger in ihrer methodischen Ausrichtung, die je nach Begründungs-
5.2.4 Befragung
165
zusammenhang auch flexibel gehandhabt werden kann, sondern eher in ihrer Zielsetzung (z. B. Untersuchung von spezifischen Problemlagen) und Berücksichtigung hervorgehobener Teilnehmergruppen (z. B. Experten). Auch in der Fremdsprachenforschung finden einige dieser Varianten zunehmend Verwendung. Das problemzentrierte Interview
Das problemzentrierte Interview (vgl. die ausführlichen und praxisorientierten Ausführungen bei Witzel 2000) konzentriert sich auf eine thematisch festgelegte „gesellschaftlich relevante Problemstellung“, deren „objektive Rahmenbedingungen“ vorab zur Kenntnis genommen werden (ebda: 2). Es beginnt mit einer erzählgenerierenden, offen gehaltenen und vorformulierten Einstiegsfrage an den Untersuchungsteilnehmer, ist dann im weiteren Verlauf aber dialogisch geprägt. Der Interviewer fragt detailliert und problembezogen nach, er sondiert, bilanziert und bringt weitere Themen ein, die vorab in einem Leitfaden fixiert werden. Um die Vergleichbarkeit der Interviews zu erhöhen, können gegen Ende des Gesprächs Fragen gestellt werden, die zentrale Aspekte des Themas betreffen, aber im Gesprächsverlauf nicht angesprochen wurden. Bereits vor Beginn des Interviews werden relevante demographische Variablen mit einem Kurzfragebogen eingeholt. Das fokussierte Interview
Als Variante kann das in den Sozialwissenschaften bereits länger zum Einsatz kommende fokussierte Interview (vgl. Merton/Kendall 1993) gelten, das sich thematisch auf ausgewählte Aspekte einer gemeinsamen Erfahrung der Untersuchungsteilnehmer bezieht, deren subjektive Sichtweisen und Reaktionen erhoben werden sollen. Fokussiert wird die nicht konstruierte, erlebte spezifische Erfahrung der Untersuchungsteilnehmer in Bezug auf den gewählten Gegenstand. Die Aufforderung, sich an ein bestimmtes Ereignis zu erinnern, bzw. ein Gesprächsstimulus eröffnet das Interview. Dies kann beispielsweise – auf den Fremdsprachenunterricht bezogen – eingesetzte Lehr-Lern-Materialien betreffen, welche vorab zur Konstruktion eines Gesprächsleitfadens einer Inhaltsanalyse unterzogen wurden. Der weitere Gesprächsverlauf wird nicht durch den Interviewer strikt gesteuert, der Leitfaden dient lediglich als Orientierungsrahmen. Von diesen an Leitfäden orientierten Interviewformen sind offenere Formen zu unterscheiden: das narrative Interview und die Gruppendiskussion. Das narrative Interview
Das narrative Interview setzt im Unterschied zu den leitfadengestützten Interviews nicht darauf, dass Themensetzungen und Impulse durch den Interviewer in das Gespräch eingebracht werden (können). In Idealform stellt es den Typ eines maximal offenen Interviews dar, der den Zielen und forschungsmethodologischen Erwägungen qualitativer Forschung am besten entspricht. Es stellt eine stärker monologisch geprägte, erzählgenerierende Interviewform dar, die in ihrem Hauptteil daraus besteht, dass auf der Grundlage einer vorformulierten Erzähl aufforderung durch den Interviewer der Befragte eine längere selbstgestaltete und selbstreflexive Stegreiferzählung produziert, die durch inhärente Gestalterschließungs-, Konden-
166
5. Forschungsverfahren
sierungs- und Detaillierungszwänge idealerweise konzise und reichhaltig ausfällt. Im zweiten Teil des Interviews, in dem Nachfragen zur Haupterzählung gestellt werden, sowie im dritten Teil, dem Bilanzierungsteil, bringt sich der Interviewer stärker ein (vgl. die praxisorientierten Ausführungen zum narrativen Interview bei Lucius-Hoene/Deppermann 2004). Das narrative Interview kommt insbesondere seit der Konjunktur soziokultureller Ansätze in der Fremdsprachenforschung häufiger zur Anwendung (vgl. exemplarisch Ohm 2004). Da narrative Interviews (insbesondere für die Stegreiferzählung) an die Untersuchungsteilnehmer hohe Verbalisierungs- und Reflexionsanforderungen stellen, die in vielen Fällen nicht vorausgesetzt werden können (z. B. aufgrund von Alter, Sprachkompetenz, Bildungshintergrund), werden in der Praxis häufig unterschiedliche Mischformen von Leitfadeninterview und narrativem Interview eingesetzt. Diese sehen dann z. B. längere Erzählphasen der Befragten vor. Wie eine dem Erkenntnisinteresse folgende sinnvolle Mischform aus erzählgenerierendem Interview und leitfadengestütztem, fokussiertem und problemzentriertem Interview aussehen kann, verdeutlicht die Studie von Ehrenreich (2004, insb. 150 – 156; s. Kapitel 7), die Erfahrungen längerer Auslandsaufenthalte angehender Englischlehrender untersucht. Die Gruppendiskussion
Die Gruppendiskussion (seltener als Gruppeninterview bezeichnet; engl. focus group interview) stellt eine Sonderform der qualitativen mündlichen Befragung dar (vgl. Barbour 2007, Daase/Hinrichs/Settinieri 2014: 115 – 119, Dörnyei 2007: 144 – 146), in der Gruppen (empfohlen werden mindestens sechs, maximal acht bis zwölf Personen) gemeinsam eine bis zwei Stunden über ein festgelegtes Thema diskutieren. Damit die Gesprächssituation nicht von gruppendynamischen Prozessen sowie stillschweigender Übereinkunft dominiert wird, sollten die Untersuchungsteilnehmer nicht Teil einer Realgruppe sein; das Gesprächsthema sollte sie aber als gruppenspezifisches Problem betreffen. Der Interviewer hat die Funktion eines Gesprächseröffners und Moderators, nach einer offen gestellten Einstiegsfrage sollte er sich stark zurückhalten und nur noch Zuhörersignale geben; Steuerung und Vorstrukturierung spielen insgesamt eine marginale Rolle. Gruppendiskussionen erlauben im Idealfall ökologisch valide und reichhaltige Daten; sie sind als Verfahren relativ unaufwändig, was aber nicht auf den Aufwand der zeitlichen Organisation, Datenaufbereitung und -analyse zutrifft. Dörnyei (2007: 145) empfiehlt die Erhebung von mindestens vier bis fünf Gruppendiskussionen, um einen ausreichend großen Datenkorpus zu erhalten. Alternativ kommen Gruppendiskussionen als ergänzende Methode auch im Rahmen von mixed-methods-designs zum Einsatz (vgl. Barbour 2007). Ein Beispiel hierfür stellt die Studie von Hochstetter (2011; s. Kapitel 7) zur diagnostischen Kompetenz von Englischgrundschullehrenden dar, bei der ergänzend zu Leitfadeninterviews sog. Gruppengespräche zur Gewinnung von individualisierten Aussagen von Lehrkräften zum reflexiven Abschluss einer längeren Untersuchungsphase durchgeführt werden. Tassinari (2010; s. Kapitel 7) setzt u. a. Gruppendiskussionen mit Experten (hier: Lehrkräften) ein, um kollektive Orientierungen zur Validierung eines entwickelten Modells autonomen Fremdsprachenlernens einschließlich seiner Deskriptoren zu erheben.
5.2.4 Befragung
167
Retrospektive Interviews
Eine Sonderform der mündlichen Befragung stellen retrospektive Interviews dar, mit denen Befragte im Nachgang zu einer Situation oder Handlung (z. B. Befragung von Lehrkräften zu Korrekturen im Fremdsprachenunterricht) aufgefordert werden, sich laut zu erinnern und dabei Erläuterungen und Interpretationen zu liefern. Solche Verfahren können von einer medialen Untersützung stark profitieren (im Idealfall mittels videographierten Auszügen oder zumindest Audioaufnahmen oder Gesprächstranskripten). Dabei erhobene Daten unterliegen wie alle introspektiven Daten methodologischen Einschränkungen, insbesondere was die Gedächtnisleistung und Verbalisierungsfähigkeit der Befragten betrifft. Retrospektive Interviews sind zu unterscheiden von Erhebungen, bei denen simultan zu mentalen oder interaktiven Handlungen Gedanken und Emotionen von Untersuchungsteilnehmern durch Lautes Denken an die Oberfläche gebracht werden sollen (vgl. hierzu Kapitel 5.2.5). Das Experteninterview
‚Quer‘ zu den aufgeführten Formen von Interviews liegt die in letzter Zeit verstärkt verwendete Form des Experteninterviews. In diesem Rahmen (vgl. Bogner/Littig/Menz 2014, Meuser/Nagel 2009, Meyer 2013: 37 – 57) werden Untersuchungsteilnehmer befragt, die für den gewählten Untersuchungsgegenstand als besonders kompetent gelten und soziale Repräsentanten des entsprechenden Handlungsfelds mit Gestaltungs- und Entscheidungsfunktionen sind. Ziel ist die Erhebung von Expertenwissen (Fakten-, Prozess- und Deutungswissen). Es wird u. a. zur Untersuchung organisationsstruktureller Themen (z. B. Lehrerbefragung zu Aspekten der Schulentwicklung) eingesetzt. Der Interviewer führt einen themenfokussierten Dialog und orientiert sich dabei in der Regel stark an einem Leitfaden; aber auch offenere Erzählimpulse durch den Interviewer sind möglich. Experteninterviews können als Einzelinterviews oder auch im Rahmen von Gruppendiskussionen durchgeführt werden. Zugangsprobleme bei der Rekrutierung von Untersuchungsteilnehmern sowie Steuerung und Status- bzw. Rollenklärung im Rahmen der Interviewdurchführung stellen besondere Herausforderungen dar. Interviewerverhalten
Wie bereits deutlich wurde, kommt dem Interviewer in Bezug auf die Vorbereitung und Gestaltung des Interviews eine besondere Verantwortung zu. Ein Interview unterliegt nicht den Kommunikationsregeln eines Alltagsgesprächs (vgl. Helfferich 2011: 46 – 48), bei dem die Beteiligten unterschiedliche Rollen abwechselnd übernehmen; es sollte aber gleichzeitig möglichst „natürlich“ sein – dies sind Anforderungen, die immer in einem gewissen Widerspruch bleiben. Die notwendigen Kompetenzen bringen unerfahrene Interviewer in der Regel nicht mit, sie müssen durch Training und v. a. Probe-Interviews eingeübt werden; auch die Beobachtung der Interviewführung erfahrener Forscher kann dies unterstützen. Schwerpunkte dabei sollten die Gestaltung der Intervieweröffnung sein (z. B. Was sind geeignete Eingangsfragen?), die Aufrechterhaltung des Gesprächsflusses inkl. der Fähigkeit, unter Zeitdruck passende Formulierungen zu finden (z. B. für Nachfragen und Vertiefungsfragen) sowie die Beendigung des Interviews (z. B. Sicherstellung, dass alles Wichtige aus Sicht der
168
5. Forschungsverfahren
Untersuchungsteilnehmer und auch in Bezug auf das Erkenntnisinteresse gesagt wurde). Eine besondere Herausforderung stellt das sogenannte „aktive Zuhören“ dar. Dies setzt eine Gesprächshaltung voraus, bei der der Interviewer eigene Mitteilungen, Bewertungen und Deutungen bei sich behält und sich völlig auf den Interviewpartner konzentriert, dem die Zeit und Ruhe für die Elaboration seiner persönlichen Sichtweisen gewährt und durchgängig Interesse daran signalisiert wird. Das Einbringen von Zuhörersignalen und Paraphrasen, das Ertragen auch längerer Pausen, und dann erst das Nachfragen sind hierfür förderlich (vgl. Helfferich 2011: 90 – 95). Insbesondere in leitfadengestützten Interviews ist darauf zu achten, dass nicht unbewusst durch das ‚interne Abhaken‘ des Leitfadens ein geschäftsmäßiger Stil entsteht (z. B. „Gut, danke. Ich habe da noch eine weitere Frage …“). 4 Stolpersteine
Es gilt der Grundsatz: Jede Befragung beinhaltet Befragungsfehler, die teilweise unvermeidlich sind, teilweise erst bei der Datenanalyse sichtbar werden. Aus solchen Fehlern kann man selbst (und auch die scientific community) für Folgeuntersuchungen lernen, sie sollten nicht verschwiegen und bei der Datenanalyse durchgängig reflektiert werden. Da es sich bei Befragungsdaten um Selbstauskünfte handelt, kann nie ganz ausgeschlossen werden, dass die Güte der Daten durch Selbstdarstellungseffekte (Wer gibt schon gern vermeintlich Negatives über sich preis?), schlichtes Nicht-Wissen, Über- oder Unterforderung, Unkonzentration, mangelnde Ausdrucksmöglichkeiten u. v. a. m. eingeschränkt ist. Typische Schwachstellen bei schriftlichen Befragungen
Trotz aller Sorgfalt bei der Erstellung ist die Pilotierung von Fragebögen notwendig. Wird darauf verzichtet, ist dies als forschungsmethodischer Mangel festzuhalten. Schwerpunkt der Überprüfung sollten die typischerweise auftretenden methodischen Schwächen wie die folgenden sein: Frageformulierungen, Positionseffekte (z. B. Ausstrahlungseffekte von sensiblen Fragen auf andere Fragen, bei Auswahlantworten werden häufig die erstaufgeführten Elemente gehäuft angekreuzt), Neigung von Untersuchungsteilnehmern, eher positiv, neutral oder negativ zu bewerten (engl. response set) – aber auch das Einsammeln von Rückmeldungen zum Layout und Länge sowie zur Administration des Fragebogens. Zum Stolperstein kann auch das Sampling der Untersuchungsteilnehmer werden (vgl. Kapitel 4.3). Wenn v. a. auf freiwillige Teilnahme durch Selbstselektion gesetzt wird (z. B. Meldung auf Aushänge und breite Versendung von Anfragen), kann dies Rücklaufverzerrungen bedeuten und das Ergebnis der Untersuchung insgesamt verfälschen, wenn nicht nachgewiesen werden kann, dass die zustande gekommene Stichprobe hinreichend repräsentativ ist. Auch wenn geringe Rücklaufquoten in den Sozialwissenschaften als normal gelten, so sollten doch – allein aus Gründen der Minimierung von Rücklaufverzerrungen gerade bei überschaubaren Teilnehmergruppen (z. B. Lernende oder Lehrende bestimmter Schulen) – keine Mühen gescheut werden, durch persönlichen Einsatz möglichst viele Teilnehmer zu bewegen, an der Befragung teilzunehmen. Nicht ausreichend große Stichproben werden auch dann zum Problem, wenn quantitative Datenanalysen (hier: Statistik) geplant sind: Eine Mindestgrenze von 50 auswertbaren Fragebögen bzw. bei multivariaten Verfahren von 100 Fragebögen wird als Faustregel angesehen (vgl. Dörnyei 2010: 62 – 63). Dass auch bei postalischer Versendung von
169 5.2.4 Befragung
5.2.4 Befragung
Fragebogen
individuell ↪ Leitfaden: ja / nein ↪ problemzentriert / fokussiert / narrativ
Interview
Gruppendiskussion (focus group interview)
Kontrolle der Erhebungssituation: hoch ─ gering ↪ Erhebung und Erhebungsinstrumente: standardisiert ─ nicht standardisiert ↪ Grad der Standardisierung der Fragen und Items: geschlossen ─ semi-offen ─ offen
größere Personengruppen schriftlich und mündlich anonym
mehrere Personen begrenzte Zeit ein Thema
Experteninterview themenfokussierter Dialog mit Repräsentantinnen des Handlungsfeldes
Prinzipien guter Interviewführung
!
+
reichhaltige, tiefgründige Daten, ausführliche Darlegung von Meinungen, Erfahrungen etc.
+
Strukturiertheit der Befragung, Festlegung der Fragen, präzise Formulierungen, Flexibilität im Einsatz Items ↪ Formulierung ↪ Reihenfolge der Fragen ↪ Antwortoptionen
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
170
5. Forschungsverfahren
Fragebögen gute Rücklaufquoten erreicht werden können, zeigt die Studie von Özkul (2011) zur Untersuchung der Berufswahlmotive von Anglistik-Lehramtstudierenden: Bei über 2500 verschickten (teilstandardisierten) Fragebögen konnten über 1700 Untersuchungsteilnehmer gewonnen werden; allerdings können Rücklaufverzerrungen aufgrund der unausgewogenen Beteiligung der Studierenden unterschiedlicher Bundesländer (Niedersachsen und Bayern sind überrepräsentiert) nicht ausgeschlossen werden. Typische Schwachstellen bei mündlichen Befragungen
Bereits oben wurde ausgeführt, wie wichtig das Training des Interviewerverhaltens und das Führen von Probeinterviews sind. Trotz bester Vorbereitung wird die Rolle des Interviewers in der konkreten Interviewsituation aber immer ambig bleiben und permanent ad hoc-Entscheidungen verlagen, die retrospektiv betrachtet als Fehler erscheinen. Interviewer sollen eine gute Gesprächsatmosphäre herstellen und – je nach spezifischem Format – mehr oder weniger ausgeprägt Zurückhaltung wahren, aber auch steuernd eingreifen sowie „auf Augenhöhe“ mit den Befragten kommunizieren. Nichtsdestotrotz bleibt die Situation asymmetrisch und die Rollenbeziehung zwischen Interviewer und Befragtem komplex; persönliche Merkmale des Interviewers (Alter, Geschlecht, Sprache, akademischer und kultureller Hintergrund, unbewusst repräsentierter Habitus qua Auftreten und Kleidung) verstärken dies. Auch solche Aspekte müssen bei der Interpretation der Daten reflektiert werden. Ein Aspekt semi-offener Interviews sollte im Vorfeld eines Interviews gesondert beachtet werden: Oft sind Leitfäden viel zu lang – auch der Leitfaden muss sorgfältig erstellt und pilotiert werden. Eine gute Möglichkeit, wie Leitfäden sinnvoll erstellt werden können, liefert Helfferich (2011: 161 – 169) mit dem von ihr vorgeschlagenen SPSS-Prinzip (Sammeln – Prüfen – Sortieren – Subsumieren). Die von ihr vorgeschlagene Form des Leitfadens listet nicht einfach gruppierte Leitfragen auf, sondern weist inhaltlich bedeutsame Bezugspunkte aus und hält Vorformulierungen von allgemeinen Leitfragen, konkreten Fragen für Nachfragephasen sowie Aufrechterhaltungs- und Steuerungsfragen bereit, auf die während des Interviews zurückgegriffen werden kann. Und damit es gar nicht zum Stolperstein wird, sollte der Umgang mit technischen Geräten zum Datenmitschnitt gut geübt werden; es sollten immer Geräte-Alternativen vorgehalten werden, damit technische Störungen nicht zum Datenverlust führen. Nach der Aufnahme sollten sofort Sicherheitskopien angefertigt werden. Bei der Auswahl von Geräten ist zu erwägen, wie sehr sie aufgrund ihrer Größe störend wirken können. Weitere wichtige Parameter sind die Qualität der Ton- oder Videoaufnahme sowie die Dateiformate (So ist es günstig, wenn Daten in Form von wav-Dateien aufgenommen werden, die bei vielen Transkriptionssoftwares ohne Umformatieren und damit verbundenem Qualitätsverlust sofort eingesetzt werden können). Bei der Analyse qualitativer Interviewdaten (vgl. Kapitel 5.3.3 – 5.3.8) ist zu beachten, dass Tiefe und Reichhaltigkeit der Daten nicht durch (vorschnelle) Kategorisierung und Deduktion verloren gehen (vgl. Riemer 2007) – dies würde die Mühe der Datenerhebung konterkarieren!
5.2.4 Befragung
171
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Bailey, Kathleen M. (1983). Competitiveness and Anxiety in Adult Second Language Learning: looking at and through the diary studies. In: Seliger, Herbert W./Long, Michael H. (Hg.). Classroom Oriented Research in Second Language Acquisition. Rowley: Newbury House, 67 – 103. Bailey, Kathleen M./Ochsner, Robert (1983). A methodological review of the diary studies: windmill tilting or social science? In: Bailey, Kathleen M./Long, Michael H./Peck, Sabrina (Hg). Second Language Acquisition Studies. Rowley, MA: Newbury House, 188 – 198. Barbour, Rosaline (2007). Doing Focus Groups. Los Angeles: Sage. *Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Bogner, Alexander/Littig, Beate/Menz, Wolfgang (2014). Interviews mit Experten. Eine praxisorientierte Einführung. Wiesbaden: Springer VS. Daase, Andrea/Hinrichs, Beatrix/Settinieri, Julia (2014). Befragung. In: Settinieri, Julia/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 103 – 122. Doff, Sabine (Hg.) (2012). Fremdsprachenunterricht empirisch erforschen: Grundlagen – Methoden – Anwendung. Tübingen: Narr. Dörnyei, Zoltán (2007). Research Methods in Applied Linguistics. Oxford: University. Dörnyei, Zoltán (with contributions from Tatsuya Taguchi) (2010). Questionnaires in Second Language Research. Construction, Administration, and Processing. Second edition. New York: Routledge. *Edmondson, Willis J. (1997). Sprachlernbewußtheit und Motivation beim Fremdsprachenlernen. In: Fremdsprachen Lehren und Lernen 26, 88 – 110. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Das assistant-Jahr als ausbildungsbiographische Phase. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Friebertshäuser, Barbara/Langer, Antje (2010). Interviewformen und Interviewpraxis. In: Friebertshäuser, Barbara /Langner, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. vollständig überarbearbeitete Auflage. Weinheim: Juventa, 379 – 396. *Gardner, Robert C. (1985): Social Psychology and Second Language Learning. The Role of Attitudes and Motivation. London: Arnold. Helfferich, Cornelia (2011). Die Qualität qualitativer Daten. Manual für die Durchführung qualitativer Interviews. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. *Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Hopf, Christel (1978). Die Pseudo-Exploration. Überlegungen zur Technik qualitativer Interviews in der Sozialforschung. In: Zeitschrift für Soziologie 7, 97 – 115. *Horwitz, Elaine K./Horwitz, Michael B./Cope, Joann (1986). Foreign language classroom anxiety. In: Modern Language Journal 70, 125 – 132. Kvale, Steinar (2007). Doing Interviews. Los Angeles: Sage. Lucius-Hoene, Gabriele/Deppermann, Arnulf (2004). Rekonstruktion narrativer Identität. Ein Arbeitsbuch zur Analyse narrativer Interviews. 2. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. Merton, Robert K./Kendall, Patricia L. (1993). Das fokussierte Interview. In: Hopf, Christel/Weingarten, Elmar (Hg.). Qualitative Sozialforschung. 3. Auflage. Stuttgart: Klett-Cotta, 171 – 204. Meuser, Michael/Nagel, Ulrike (2009). Das Experteninterview – konzeptionelle Grundlagen und methodische Anlage. In: Pickel, Susanne/Pickel, Gert/Lauth, Hans-Joachim/Jahn, Detlef (Hg.). Methoden der
172
5. Forschungsverfahren
vergleichenden Politik- und Sozialwissenschaft. Neue Entwicklungen und Anwendungen. Wiesbaden: VS Verlag für Sozialwissenschaften, 465 – 479. Meyer, Horst O. (2013). Interview und schriftliche Befragung. München: Oldenbourg. Ohm, Udo (2004). Zum Zweitspracherwerb von wirklichen Menschen im richtigen Leben. In: Deutsch als Zweitsprache 4, 47 – 64. *Özkul, Senem (2011). Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in Anglistik/ Amerikanistik. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Porst, Rolf (2014). Fragebogen. Ein Arbeitsbuch. 4. erweiterte Auflage. Wiesbaden: Springer VS. Riemer, Claudia (2007). Entwicklungen in der qualitativen Fremdsprachenforschung: Quantifizierung als Chance oder Problem?. In: Vollmer, Helmut J. (Hg.). Synergieeffekte in der Fremdsprachenforschung. Empirische Zugänge, Probleme, Ergebnisse. Frankfurt/M.: Lang, 31 – 42. *Riemer, Claudia (2011). Warum Deutsch (noch) gelernt wird – Motivationsforschung und Deutsch als Fremdsprache. In: Barkowski, Hans/Demmig, Silvia/Funk, Hermann/Würz, Ulrike (Hg.). Deutsch bewegt. Entwicklungen in der Auslandsgermanistik und Deutsch als Fremd- und Zweitsprache. Baltmannsweiler: Schneider-Verlag Hohengehren, 327 – 340. *Schmidt, Richard W./Frota, Sylvia Nagem (1986). Developing basic conversational ability in a second language: a case study of an adult learner of Portuguese. In: Day, Richard R. (Hg.). Talking to Learn: Conversation in Second Language Acquisition. Rowley, MA: Newbury House, 237 – 326. *Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. (Anhang der Studie online, passwortgeschützt) [Referenzarbeit, Kapitel 7] *Tassinari, Giovanna (2010). Autonomes Fremdsprachenlernen. Komponenten, Kompetenzen, Strategien. Frankfurt/M.: Lang. [Referenzarbeit, Kapitel 7] Trautmann, Matthias (2012). Führen und Auswerten qualitativer Interviews – Grundlagenbeitrag. In: Doff, Sabine (Hg.) (2012), 218 – 231. Witzel, Andreas (2000). Das problemzentrierte Interview. In: Forum Qualitative Sozialforschung/Forum Qualitative Social Research 1(1), Art. 22,. [http://nbn-resolving.de/urn:nbn:de:0114-fqs0 001 228] (5. 3. 2015). Zydatiß, Wolfgang (2012). Fragebogenkonstruktion im Kontext des schulischen Fremdsprachenlernens – Grundlagenbeitrag. In: Doff, Sabine (Hg.), 115 – 135.
»» Zur Vertiefung empfohlen Bogner, Alexander/Littig, Beate/Menz, Wolfgang (2014). Interviews mit Experten. Eine praxisorientierte Einführung. Wiesbaden: Springer VS. Die Monographie liefert viele grundlegende Hinweise und Tipps zur Durchführung sogenannter Experteninterviews. Sie weist auf Unschärfen sowie Varianten dieser Interviewform in der Sozialforschung hin und behandelt Zugangsfragen, die Vorbereitung und Durchführung der Erhebung sowie Fragen der Auswertung. Anders als in vielen Methodenhandreichungen in den Sozialwissenschaften beschäftigt sie sich auch mit Herausforderungen von Interviews in der Fremdsprache. Daase, Andrea/Hinrichs, Beatrix/Settinieri, Julia (2014). Befragung. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 103 – 122. Der Artikel in einer auf Deutsch als Fremd- und Zweitsprache fokussierten forschungsmethodischen Einführung behandelt die Grundlagen von empirischen Befragungsverfahren mit Schwerpunkt auf
5.2.5 Introspektion
173
Fragebogen, Interview und Gruppendiskussion. Er richtet sich an Leser mit wenigen Vorkenntnissen und bietet Aufgaben und dazugehörige Lösungsvorschläge. Dörnyei, Zoltán (with contributions from Tatsuya Taguchi) (2010). Questionnaires in second language research. Construction, administration, and processing. Second edition. New York: Routledge. Mit dieser Monographie liegt eine gut lesbare und fachspezifische Einführung in die forschungsmethodischen und -methodologischen Grundlagen von Fragebogenstudien vor. Schwerpunkte liegen auf Fragen der Konstruktion von Fragebögen sowie ihrem Einsatz, aber auch auf der Auswertung von Fragebogendaten. Viele hilfreiche Tipps und Beispiele werden gegeben. Helfferich, Cornelia (2011). Die Qualität qualitativer Daten. Manual für die Durchführung qualitativer Interviews. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. Die Monographie liefert gutes Handwerkszeug für alle, die vor der Herausforderung stehen, ein qualitatives Interview durchzuführen. Anders als in vielen eher forschungsmethodologisch orientierten Einführungen stehen hier Fragen der praktischen Interviewdurchführung (u. a. Vorbereitung und Organisation des Interviews, Gestaltung der Gesprächssituation, Strategien des Interviewers) im Vordergrund, wofür viele nützliche Hinweise und Reflexionsanlässe gegeben werden. Das Manual liefert auch Material für die Durchführung von Workshps zum Interviewer-Training. McDonough, Jo/McDonough, Steven (1997). Research methods for English language teachers. London: Arnold (daraus insbesondere: Chapter 11 „Asking Questions“, 171 – 188). In diesem Kapitel einer insgesamt für Forschungsnovizen empfehlenswerten Einführung werden wesentliche Grundlagen und Einsatzgebiete für Fragebögen und Interviews in der Fremdsprachendidaktik erläutert. Porst, Rolf (2014). Fragebogen. Ein Arbeitsbuch. 4. erweiterte Auflage. Wiesbaden: Springer VS. Die ausführliche und mit vielen Beispielen versehene Einführung in die Fragebogenkonstruktion bietet sich hervorragend als Ergänzung zur stärker fachspezifischen Einführung von Dörnyei (2010) an. Viele Hinweise betreffen auch das strukturierte Interview bzw. sind auf dieses übertragbar.
5.2.5 Introspektion Lena Heine/Karen Schramm 1 Begriffsklärung
Der Begriff Introspektion wird in der Fremdsprachenforschung für die Bezeichnung von Datenerhebungsverfahren verwendet, bei denen Forschungspartner_innen durch lautes Aussprechen Einblicke in ihre Gedanken und Emotionen gewähren, die der Beobachtung normalerweise unzugänglich sind. Nach einem weiten Begriffsverständnis zählen hierzu alle Formen von Interviews und Tagebuchdaten, die ohne gezielten Bezug auf eine konkrete Handlung erhoben werden (vgl. Ericsson/Simon 1993: 49 – 62, Heine 2005, Knorr 2013: 32 für Terminologiediskussionen); in der Fremdsprachenforschung herrscht jedoch ein engeres Verständnis vor, so dass hier solche Verfahren als introspektiv bezeichnet werden, bei denen gezielt Daten bezüglich einer bestimmten (mentalen oder interaktionalen) Tätigkeit erhoben werden (z. B. Strategien beim Übersetzen, fremdsprachliche Schreibprozesse, Vorgehen beim
174
5. Forschungsverfahren
Lösen von Grammatikaufgaben, mündliche Kommunikations- und Kompensationsstrategien etc.). So kommt es, dass die Fremdsprachenforschung insbesondere Lautes Denken und retrospektive Verfahren wie stimulated recall und Lautes Erinnern unter introspektive Verfahren subsumiert. Bei diesen Verfahren werden während bzw. direkt im Anschluss an eine zu untersuchende Tätigkeit Daten erhoben (Heine 2013: 14, vgl. auch Dörnyei 2007: 147).7 Lautes Denken kann dabei in Anlehnung an Knorr/Schramm (2012: 185) definiert werden als „die aus dem Arbeits- oder Kurzzeitgedächtnis erfolgende simultane, ungefilterte Verbalisierung einer Person von Gedanken während einer (mentalen, interaktionalen oder aktionalen) Handlung“. Durch das unreflektierte laute Aussprechen von solchen Gedanken, die den Forschungspartner_innen beim Ausführen einer Tätigkeit durch den Kopf gehen, wird möglichst ohne Beeinflussung der betreffenden Tätigkeit versucht, Einblick in die mentalen Abläufe zu erhalten. Eng verwandt damit ist das Laute Erinnern, bei dem die Verbalisierung allerdings nicht simultan, sondern erst im Anschluss an die zu untersuchende Tätigkeit erfolgt; damit liegt kein unmittelbarer Zugang zu den Gedanken während der Tätigkeit mehr vor, da Erinnerungen aus dem Langzeitgedächtnis abgerufen werden, welche mit generellen Einstellungen, Selbstbild etc. verknüpft sind. Um dennoch so viele Gedanken aus der Erhebungssituation wie möglich zu reaktivieren, wird Lautes Erinnern häufig auf der Grundlage eines Videoimpulses bezüglich der zu untersuchenden Handlung (videobasiertes Lautes Erinnern) verwendet. Es kann grundsätzlich aber auch auf der Grundlage anderer Impulse (wie audiographischer oder visueller Daten sowie Tastaturprotokollen) oder aber auch ohne jeglichen Impuls erfolgen. Einen zweiten Typ retrospektiver Datenerhebung stellen neben dem Lauten Erinnern Befragungen dar, die im Anschluss an eine konkrete Handlung auf die entsprechenden mentalen Aktivitäten der Forschungspartner_innen abzielen. Die genannten drei introspektiven Verfahren – Lautes Denken, Lautes Erinnern und retrospektive Befragungen – sollen im Folgenden genauer beleuchtet werden. 2 Lautes Denken
Das Laute Denken basiert auf der Annahme, dass die Aktivierung von Gedächtnisinhalten in vielen Fällen unmittelbar mit einer verbalen Form assoziiert ist, die laut ausgesprochen werden kann (s. Abb. 1). Bringt man Forschungspartner_innen dazu, Inhalte des Arbeitsgedächtnisses während des Ausführens einer bestimmten Tätigkeit zu verbalisieren, so greift man auf die innere Sprache (inner speech) zu, die – anders als die private Sprache (private speech) im Wygotskianischen Sinne – nicht selbstadressiert ist, so dass idealiter durch das laute Aussprechen auch keine Reflexion des eigenen Vorgehens angestoßen wird. Durch diese spontanen Äußerungen entsteht ein Verbalprotokoll, das typischerweise aus fragmentarischen und syntaktisch unverbundenen verbalen Daten besteht. Aus ihm kann rekonstruiert werden, worauf die Versuchsperson zu verschiedenen Zeitpunkten jeweils ihre Aufmerksamkeit gerichtet hat. 7 In Einzelfällen wird der Begriff Introspektion nicht als Oberbegriff, sondern mit Bezug auf das simultane Vorgehen als Pendant zum Begriff Retrospektion benutzt (vgl. Heine 2005).
5.2.5 Introspektion
175
Abbildung 1: Lautes Denken als lautes Aussprechen von verbalen Assoziationen von Gedanken (nach Ericsson/Simon 1987: 33)
Dies bedeutet u. a., dass auf der Grundlage Lauten Denkens nur solche Gedankengänge analytisch rekonstruiert werden können, die im Arbeitsgedächtnis verarbeitet wurden; automatisierte Prozesse sind dagegen nicht zugänglich. Für Datenerhebungen ist es daher von zentraler Wichtigkeit nur solche Aufgaben und Erhebungsstimuli einzusetzen, durch die auch tatsächlich mental zugängliche und potentiell mit einer verbalen Form verbundene Abläufe angeregt werden. So eignen sich beispielsweise stark motorisch geprägte Anforderungen eher weniger, weil hier für eine Verbalisierung erst in einem künstlich hervorgerufenen Suchprozess Worte gefunden werden müssten, die normalerweise nicht mitaktiviert würden. Besser eignen sich Anforderungen, bei denen eine verbale Ebene automatisch aktiv wird, wie etwa das Verfassen von Texten oder das Betrachten von Abbildungen. Beim Lauten Denken ist daneben auch davon auszugehen, dass grundsätzlich viel weniger verbalisiert werden kann als gedacht wird, u. a. weil mehrere Prozesse parallel ablaufen. Die Möglichkeiten der quantitativen Auszählung von Phänomenen in Lautdenkdaten werden durch diesen Aspekt relativiert. Ein Risiko für die Validität von Daten Lauten Denkens besteht weiterhin darin, dass Forschungspartner_innen bewusst oder unbewusst Informationen kommunizieren, die durch die Erhebungssituation generiert worden sind, etwa indem sie angenommenen Erwartungen seitens des Forschenden zu entsprechen versuchen (Rossa 2012 spricht in diesem Zusammenhang von „Konfabulation“) und damit ihre Gedanken gegenüber einer stillen Bearbeitung verändern. Die Referenzarbeit von Arras (2007) illustriert die zentralen Komponenten einer Datenerhebung durch Lautes Denken: den sorgfältig formulierten Impuls zum Lauten Aussprechen, das Training darin, die Rückmeldung der/des Forschenden zu der Trainingsphase und das zurückhaltende Eingreifen während des Lauten Denkens (s. dazu genauer Heine/Schramm 2007). Arras (2007: 499) dokumentiert auch die von ihr verwendeten Instruktionen zum Verfahren des Lauten Denkens. Aufgrund der Tatsache, dass sie das Laute Denken audiographisch dokumentiert, bittet sie ihre Forschungspartner_innen, ebenfalls zu verbalisieren, welches Material (z. B. Lernertext oder Bewertungsrichtlinien) sie jeweils fokussieren; so vermischen sich in diesem Fall Lautdenkdaten mit Kommentierungen durch die Forschungspartner_innen. Da Forschende in der Regel bemüht sind, solche Konfundierungen zu vermeiden, wäre im Fall von videographischen Dokumentationen eine Aufforderung zum
176
5. Forschungsverfahren
Zeigen auf fokussierte Textstellen vorteilhafter als die Aufforderung zur verbalen Kommentierung. In der Regel wird in der forschungsmethodischen Diskussion zusätzlich vor dem Training auch die Darbietung eines (Video-)Beispiels oder ein Modellieren des Lauten Denkens seitens des/der Forschenden empfohlen (s. Heine/Schramm 2007: 178, Bowles 2010: 117). Weiterhin ist bei fremdsprachendidaktischen Studien mit Lernenden – anders als bei Arras Testbewertenden – die Wahl der Verbalisierungssprache(n) genau zu reflektieren, denn da Studien in der Fremdsprachenforschung in der Regel mit mehrsprachigen Individuen arbeiten, stehen auch immer mindestens zwei Sprachen für eine Verbalisierung zur Verfügung, die sich jedoch im Beherrschungs- und Automatisierungsgrad und der Art der Verknüpfung mit konzeptuellen Inhalten unterscheiden können (vgl. Heine 2014). U.a. ist davon auszugehen, dass Mehrsprachige auch gedanklich zwischen ihren Sprachen wechseln. Wird nun eine Sprache für die Verbalisierung vorgegeben, kann dies zu Suchprozessen beim lauten Aussprechen und damit zu Veränderungen der ablaufenden Gedanken führen. In Arras’ (2007: 188) Studie erwiesen sich alle vier Probandinnen als „sehr geeignet für das Laut-Denk-Verfahren“. Dies ist jedoch nicht generell für alle Forschungspartner_innen zu erwarten, da verschiedene Menschen ihre Gedanken offenbar unterschiedlich stark mit verbalen Formen verknüpfen. So zeigen die Ergebnisse in Heine (2010), dass dieselbe LautdenkAnforderung für manche Individuen sehr natürlich, für andere dagegen schwer sein kann und dass Lautes Denken von einer hohen Dynamik geprägt ist, was den Grad der Reaktivität der Methode anbelangt – streckenweise weitgehend automatisiert verbalisierende Personen, die völlig versunken in die Aufgabe sind und sich nicht auf das laute Aussprechen konzentrieren, können zu anderen Zeitpunkten durchaus wieder mehr Aufmerksamkeit auf die Tatsache lenken, dass sie sich in einer Erhebungssituation befinden, und dann wieder verstärkt metakognitive und an die/den Forscher_in adressierte Äußerungen einfließen lassen, die sie bei einer stillen Bearbeitung der Anforderung nicht hätten denken müssen. Es lassen sich damit kaum grundsätzliche Pauschalaussagen vom Typ „Lautes Denken ist keine reaktive Methode“ (wie etwa Bowles 2010 es versucht) oder „Probandin X ist ein verbaler Typ und verbalisiert immer automatisiert“ machen. Dies deutet darauf hin, dass die mittels dieser Methode erhobenen Daten stets genau betrachtet und in der jeweiligen Auftretenssituation kritisch eingeschätzt werden müssen. 3 (Videobasiertes) Lautes Erinnern
Beim Lauten Erinnern verbalisieren Forschungspartner_innen nicht simultan, sondern werden im Anschluss an die zu untersuchende Tätigkeit gebeten, sich in die jeweilige Situation zurückzuversetzen und sich an ihre Gedanken dabei zu erinnern. Hier erfolgt die Verbalisierung der Kognitionen damit nicht direkt aus dem Arbeitsgedächtnis, sondern diese müssen zuvor aus dem Langzeitgedächtnis aktiviert werden. Dieser Prozess kann während der Ausführung einer durch Lautes Erinnern immer wieder unterbrochenen Handlung erfolgen (bspw. beim Lesen das Stoppen nach jedem dritten Absatz, on-line retrospection) oder nach Beendigung der Handlung (bspw. nach der Lektüre eines gesamten Textes, off-line retrospection). In der Regel wird mit Blick auf die Gefahr einer abnehmenden Erinnerungsfähigkeit empfohlen, das Laute Erinnern möglichst noch am selben Tag der zu untersuchenden Handlung, spätestens aber innerhalb von 24 Stunden durchzuführen.
5.2.5 Introspektion
177
Wie auch beim Lauten Denken wird beim Lauten Erinnern in der Regel eine Demonstration, möglicherweise auch ein Training, sowie eine Reflexion bezüglich der Verbalisierungssprache(n) und eine standardisierte Instruktion empfohlen (vgl. Knorr/Schramm 2012: 192 – 195). Werden Prozessdaten wie Audio- und Videoaufnahmen oder Tastaturprotokolle als Stimulus für die Erinnerung verwendet (vgl. Gass/Mackey 2000), können die Forschungspartner_innen entweder selbst die gesamte Prozessdokumentation an für sie relevanten Stellen zur Verbalisation ihrer Erinnerungen stoppen oder es kann eine Auswahl an Stellen zum Lauten Erinnern herausgegriffen werden, wobei entweder die Versuchspersonen selbst oder der/die Forscher_in eine Auswahl treffen. Eine Auswahl bietet sich besonders für langwierige Handlungen an, stellt alle Beteiligten aber vor zeitliche Herausforderungen, da die Retrospektion wie oben erwähnt möglichst bald nach Abschluss der zu untersuchenden Kognitionen durchgeführt werden sollte. Abzuwägen sind dabei auch die Möglichkeiten einer forscherseitigen, gezielten Auswahl mit Blick auf das Untersuchungsinteresse auf der einen Seite und die Auswahl seitens der Forschungspartner_innen bzw. deren Eigentümerschaft (ownership) der Daten auf der anderen Seite. Letztere ist aus ethischen Gründen zu empfehlen, wenn die Forschungspartner_innen Wert auf die selbstbestimmte Auswahl legen. Sie führt darüber hinaus erfahrungsgemäß aber auch zu reichhaltigeren Daten, da die Betroffenen wissen, an welchen Stellen besonders intensive mentale Vorgänge stattfanden. Ein Beispiel für den Einsatz videostimulierten Lauten Erinnerns in einer DaF-Studie zu Handy-Videoprojekten ist unter methodischer Perspektive in Feick (2012) aufbereitet. Obwohl das Laute Erinnern auf die Wiedergabe der Kognitionen zum vergangenen Zeitpunkt der Handlung (there and then responses) zielt, mischen sich in der Praxis durchaus aber nachträgliche Reflexionen (here and now responses) mit den erinnerten Gedanken, was analytisch zu identifizieren und zu berücksichtigen ist (vgl. Knorr/Schramm 2012). Andere Untersuchungen richten ihr Augenmerk gerade auf die Reflexionen, die sich im Rückblick ergeben, so beispielsweise Raith (2011) bei der Untersuchung von Lehrkompetenzen von Englischreferendaren. Er nutzt Tagebücher der angehenden Lehrkräfte, um deren Reflexionen bezüglich bestimmter Unterrichtsereignisse zu erfassen, und wertet diese – wie auch die Interviews mit den Betroffenen – inhaltsanalytisch im Sinne einer Datentriangulation zu Validierungszwecken aus. Derartige Studien zur reflection-on-action im Gegensatz zu der durch Lautes Erinnern angezielten (aus dem Langzeitgedächtnis reaktivierten) reflectionin-action fallen zwar unter einen weiten, nicht aber den hier gewählten engen Begriff von Introspektion. 4 Retrospektive Befragung
Unter dem (engen) Begriff der Introspektion wird neben dem Lauten Denken und dem Lauten Erinnern auch die retrospektive Befragung von Forschungspartner_innen im Hinblick auf ihre Kognitionen in Bezug auf eine spezifische Handlung subsumiert.8 Die Referenzarbeit von Arras (2007) illustriert eine solche retrospektive Befragung, die in Triangulation mit 8 Befragungen, die sich nicht auf eine spezifische Handlung (die in der Regel nicht länger als 24 Stunden zurückliegt), sondern allgemein auf Erfahrungen mit einer bestimmten Art von Handlung beziehen (s. als Beispiel die Referenzarbeit bzw. Interviewstudie von Ehrenreich 2004), sind diesem engen Begriffsverständnis nicht zuzurechnen (vgl. auch Kapitel 5.2.4 zur Befragung).
178
5. Forschungsverfahren
den oben erwähnten Laut-Denk-Daten vorgenommen wurde. Die Autorin charakterisiert die Interviews, die sie jeweils einen Tag nach dem Lauten Denken durchführte, als problemzentrierte semistrukturierte Interviews von 90 – 140 Minuten mit dem Ziel, zum einen „zu besonders relevanten oder unklar gebliebenen Stellen des Laut-Denken-Protokolls weitere bzw. erhellende Informationen zu erhalten“ und zum anderen „anhand [der] Notizen aus den Laut-Denken-Sitzungen Fragen zu Besonderheiten zu stellen, um auch in dieser Hinsicht weitere Informationen oder Verifikation von Hypothesen zu erhalten“ (Arras 2007: 189 – 190). Auch Eckerth (2002) setzt retrospektive Interviews ein, mit denen interaktive Aufgabenbearbeitungsdaten trianguliert werden. Bei dem von ihm verwendeten Mehr-Methoden-Ansatz mussten über Nacht Transkripte der Prozessdaten erstellt werden, da diese als Stimulus für die retrospektiven Befragungen dienten. Eine andere Form der retrospektiven Befragung setzte Haudeck (2008) ein, die bei einer Untersuchung von Wortschatzstrategien von Englischlernern der Klassenstufen 5 und 8 innovative Audio-Tagebücher zum Einsatz bringt. Die elf offenen Fragen in ihrem Leitfaden des Audio-Tagebuchs (Haudeck 2008: 116) beziehen sich größtenteils konkret auf gerade erfolgte Vokabellernprozesse, wie beispielsweise die folgenden: „Wähle aus den Wörtern, die du heute gelernt hast, zwei aus und beschreibe, wie du versucht hast, sie dir einzuprägen.“ oder „Welche konntest du dir nur schwer merken? Was hast du dann gemacht?“. Auf dieser Grundlage konnte Haudeck (2008) ergiebige retrospektive Daten erheben und analysieren. 5 Potenzial introspektiver Daten
Die drei thematisierten introspektiven Datenerhebungsverfahren des Lauten Denkens, des Lauten Erinnerns und der retrospektiven Befragung sind in zahlreichen fremdsprachendidaktischen Studien zu kognitiven Prozessen mit einem hohen Grad an forschungsmethodischer Reflexion eingesetzt worden und haben substanzielle Ergebnisse erbracht, so dass pauschale, letztlich behavioristisch geprägte Bedenken gegenüber der Introspektion lange schon als unangemessen gelten können (zur Reaktivität der Methode s. bspw. Leow/Morgan-Short 2004 oder Bowles 2010). Introspektion hat sich für ein breites Spektrum an Forschungsfragen insbesondere als Teil von Mehrmethodendesigns als sinnvoll erwiesen, insbesondere wenn vielschichtige Zusammenhänge in komplexen Situationen untersucht werden sollen. Dennoch ist auch von pauschalen Positivurteilen bezüglich der Validität introspektiver Verfahren Abstand zu nehmen; vielmehr zeichnet sich ab, dass die durch Introspektion erhobenen reichhaltigen Datensätze im Detail zu analysieren sind und stets auch von einer streckenweisen Beeinflussung der Forschungspartner_innen durch die Datenerhebung auszugehen ist (vgl. Heine 2013). Diese kann wohl – selbst bei sorgfältig durchgeführter Erhebung – kaum vermieden werden und muss stattdessen bei der Analyse der Datensätze soweit wie möglich identifiziert und diskutiert werden. Notwendig hierfür ist ein grundlegendes Verständnis unterliegender kognitiver Prozesse und des Zusammenhangs zwischen Denken und Sprechen. Aktuelle forschungsmethodische Beiträge zur Introspektion wenden sich zunehmend der Frage zu, inwieweit die kognitionstheoretischen Postulate bezüglich der introspektiven Datenerhebungsverfahren aus einem soziokulturellen Paradigma oder der Perspektive der embodied cognition neu zu überdenken sind (z. B. Sasaki 2008, Feick 2013, Heine 2013, Knorr
179 5.2.5 Introspektion
5.2.5 Introspektion Lautes Erinnern stimulated recall
retrospektive Befragung
Ziel: Einblicke in normalerweise unzugängliche Gedanken und Emotionen Lautes Denken
Beantwortung von Interviewfragen zur Handlung (reflectionon-action), nach der Handlungssituation
OfflineRetrospektion
Verbalisierung von reflection-in-action aus dem Langzeitgedächtnis, nach der Handlung oder die Handlungssituation unterbrechend Online-/ OfflineRetrospektion
Verbalisierung von innerer Sprache aus dem Arbeitsgedächtnis, simultan zur Handlungssituation
inner speech
Introspektion im engeren Sinne Introspektion im weiteren Sinne
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
! Wahl der Impulse, Training der Methode, Wahl der Verbalisierungssprache, individuelle Unterschiede
Interviews
180
5. Forschungsverfahren
2013, Schnell 2013). Daneben wird auch verstärkt die theoretische Basis der Introspektion in Hinblick darauf ausgearbeitet, dass für den Bereich der Fremdsprachenforschung mehrsprachige und dynamische Modelle des mentalen Lexikons notwendig sind, um die verbalen Daten adäquat erheben und interpretieren zu können (vgl. Heine 2013, Heine 2014). ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.) (2013). Introspektive Verfahren und qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt a. M.: Lang. *Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen n der Fremdsprache am Beispiel der Prüfung Test Deutsch als Fremdsprache (TestDaF). Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Bowles, Melissa (2010). The Think-Aloud Controversy in Second Language Research. New York: Routledge. Dörnyei, Zoltán (2007). Research Methods in Applied Linguistics. Oxford: University Press. *Eckerth, Johannes (2002). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr. Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. [Referenzarbeit, s. Kapitel 7] Ericsson, K. Anders/Simon, Herbert A. (1987). Verbal reports on thinking. In: Færch, Claus/Kasper, Gabriele (Hg.). Introspection in Second Language Research. Clevedon: Multilingual Matters, 24 – 53. Ericsson, K. Anders/Simon, Herbert A. (1993). Protocol Analysis. Verbals Reports as Data. Revised edition. Cambridge, MA: MIT Press. *Feick, Diana (2012). Videobasiertes Lautes Erinnern als Instrument zur Untersuchung fremdsprachlicher Gruppenaushandlungsprozesse. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 202 – 212. *Feick, Diana (2013). „Sehen Sie sich Ines an.“ Zur sozialen Situiertheit des Videobasierten Lauten Erinnerns. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 54 – 73. Gass, Susan M./Mackey, Alison (2000). Stimulated Recall Methodology in Second Language Research. Mahwah, NJ: Lawrence Erlbaum Associates. *Haudeck, Helga (2008). Fremdsprachliche Wortschatzarbeit außerhalb des Klassenzimmers. Eine qualitative Studie zu Lernstrategien und Lerntechniken in den Klassenstufen 5 und 8. Tübingen: Narr. Heine, Lena (2005). Lautes Denken als Forschungsinstrument in der Fremdsprachenforschung. In: Zeitschrift für Fremdsprachenforschung 16/2, 163 – 185. *Heine, Lena (2010). Problem Solving in a Foreign Language. Berlin: Mouton de Gruyter. Heine, Lena (2013). Introspektive Verfahren in der Fremdsprachenforschung: State-of-the-Art und Desiderata. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 13 – 30. Heine, Lena (2014). Introspektion. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/GültekinKarakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Ferdinand Schöningh, 123 – 135. Heine, Lena/Schramm, Karen (2007). Lautes Denken in der Fremdsprachenforschung: Eine Handreichung für die empirische Praxis. In: Vollmer, Helmut Johannes (Hg.). Synergieeffekte in der Fremdsprachenforschung. Frankfurt a. M.: Lang, 167 – 206.
5.2.5 Introspektion
181
Knorr, Petra (2013). Zur Differenzierung retrospektiver verbaler Daten: Protokolle Lauten Erinnerns erheben, verstehen und analysieren. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 31 – 53. Knorr, Petra/Schramm, Karen (2012). Datenerhebung durch Lautes Denken und Lautes Erinnern in der fremdsprachendidaktischen Empirie. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 184 – 201. Leow, Ronald P./Morgan-Short, Kara (2004). To think aloud or not to think aloud: The issue of reactivity in SLA research methodology. In: Studies in Second Language Acquisition 26(1), 35 – 57. *May, Lyn (2011). Interaction in a Paired Speaking Test: The Rater’s Perspective. Frankfurt am Main: Lang. *Raith, Thomas (2011). Kompetenzen für aufgabenorientiertes Fremdsprachenunterrichten. Tübingen: Narr. *Rossa, Henning (2012). Mentale Prozesse beim Hörverstehen in der Fremdsprache. Eine Studie zur Validität der Messung sprachlicher Kompetenzen. Frankfurt am Main: Lang. Sasaki, Tomomi (2008). Concurrent think-aloud protocol as a socially situated construct. In: International Review of Applied Linguistics in Language Teaching 46(4), 349 – 374. Schnell, Anna Katharina (2013). Lautes Denken im Licht der Embodied Cognition: neue Grenzen, neue Möglichkeiten in der Schreibprozessforschung? In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 92 – 115.
»» Zur Vertiefung empfohlen Bowles, Melissa (2010): The Think-Aloud Controversy in Second Language Research. New York: Routledge. In dieser Monographie wird ein Überblick zum Stand der Forschung zum Lauten Denken in der (englischsprachigen) Fremdsprachenforschung gegeben, wobei vor allem auf Fragen der Validität der Methode fokussiert wird. Heine, Lena/Schramm, Karen (2007). Lautes Denken in der Fremdsprachenforschung: Eine Handreichung für die empirische Praxis. In: Vollmer, Helmut Johannes (Hg.). Synergieeffekte in der Fremdsprachenforschung. Frankfurt a. M.: Lang, 167 – 206. Dieser Beitrag bietet einen Überblick über Fragen und Herausforderungen, die sich bei einer LautDenk-Studie im Vorfeld der Datenerhebung und während des Lautens Denkens ergeben. Weiterhin erfolgen detaillierte Überlegungen zur Transkription und einige Hinweise zur Auswertung von LautDenk-Daten. Knorr, Petra/Schramm, Karen (2012). Datenerhebung durch Lautes Denken und Lautes Erinnern in der fremdsprachendidaktischen Empirie. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 184 – 201. In diesem forschungsmethodischen Artikel werden zwei der hier thematisierten introspektiven Erhebungsverfahren, das Laute Denken und das Laute Erinnern, ausführlich dargestellt. Nach einer kurzen Begriffsklärung behandeln die Autorinnen Aspekte wie Instruktion, Demonstration, Training, Impulsdarbietung, Datenaufzeichnung, Verbalisierungssprache und Transkription ausführlich und reflektieren abschließend kurz die Grenzen beider Erhebungsverfahren.
182
5. Forschungsverfahren
5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung Verena Mezger/Christin Schellhardt/Yazgül Şimşek 1 Zur Unterscheidung von Erheben und Erfassen
Basis für die Analyse von Lernersprache (s. dazu Kapitel 5.3.7) ist immer die komplexe sprachliche Einheit, der Text. Dieser kann im Zusammenhang der nachfolgenden Ausführungen sowohl medial mündlich als auch schriftlich verfasst und/ oder dokumentiert worden sein. Somit beziehen wir uns hier auf eine sehr weite Definition des Begriffes „Text“, wie z. B. Linke/ Nussbaumer/Portmann (1991: 245): „Ein Text ist eine komplex strukturierte, thematisch wie konzeptuell zusammenhängende sprachliche Einheit, mit der ein Sprecher eine sprachliche Handlung mit erkennbarem kommunikativem Sinn vollzieht“. Im Folgenden werden die verschiedenen Möglichkeiten thematisiert, Texte von Lernenden zu erhalten, zu dokumentieren und für die Analyse vorzubereiten. Dabei unterscheiden wir grundsätzlich zwischen Erhebung und Erfassung von Lernersprache: Charakteristisch für die Erhebung ist die Tatsache, dass Forscher gezielt eine Situation schaffen, in der Lernende Sprache produzieren müssen, z. B. in einem Experiment oder in einem Sprachtest im Rahmen eines Forschungsprojekts wie z. B. DESI (siehe DESI-Konsortium 2008, Klieme/Beck 2007). Dabei ist die Produktion von Sprachdaten i. d. R. stark kontrolliert und gesteuert. Zur Erhebung gehören auch Techniken wie das sogenannte stimulated recall bzw. das stimulusbasierte Laute Erinnern, wobei authentische Aufnahmen des Unterrichts den Lernenden vorgespielt und zur Reflexion über ihre Sprachfähigkeiten und Lernprozesse genutzt werden (vgl. Kapitel 5.2.5). Erhebung wird von uns somit synonym mit dem in der Linguistik üblichen Begriff der Elizitierung verwendet. Ein Beispiel für die Erhebung von Lernerdaten liefert Eckerth (2003) in seiner Studie zu aufgabenbasierten Interaktionen. Den Kern seines Datenmaterials bilden forscherseitig initiierte Aufnahmen von Lerner-Lerner-Interaktionen während der gemeinsamen Lösung einer Aufgabe. Tests, die vor und nach der interaktiven Aufgabenlösung individuell mit den Lernenden durchgeführt wurden, und retrospektive Interviews ergänzen das Korpus. Im Gegensatz dazu bezeichnet die Erfassung von Lernersprache, dass der Forscher auf Produkte zugreift, die im Unterricht ohnehin entstehen, z. B. Klassenarbeiten oder Schülerpräsentationen (vgl. auch Kapitel 5.2.7). Ein Beispiel für die Erfassung von Lernersprache stellt die Arbeit von Méron-Minuth (2009) dar. Sie ist longitudinal angelegt und beobachtet die Schülerinnen und Schüler einer Klasse, die Französisch als erste Fremdsprache lernen. Der Unterricht wird in regelmäßigen Abständen über den Zeitraum von vier Jahren in Form von Videoaufnahmen dokumentiert. Diese Videoaufnahmen geben den Unterrichtsverlauf in seiner natürlichen Form wieder und die Forscherin bleibt in der Rolle der Beobachterin. Um die erfassten Daten zu ergänzen, werden aber auch zusätzlich Forscher- und Lehrerprotokolle erhoben. Die Studie von Dauster (2007) zum Frühen Fremdsprachenlernen Französisch kombiniert beide Verfahren: Sie greift zum einen auf einen Datensatz von 90 erfassten Unterrichtsstun-
5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung
183
den, zum anderen auf 23 für die Studie erhobenen mündliche Kurztests (sog. Père-Noël-Erhebungen) zurück. Grenzfälle zwischen Erheben und Erfassen ergeben sich dann, wenn Forscher Lehrkräfte darum bitten, in ihrem regulären Unterricht bestimmte lernersprachliche Produkte erstellen zu lassen oder, wie z. B. Bechtel (2003), den eigenen (Hochschul-) Unterricht auf die Erhebung bestimmter Daten hin ausrichten. Bei allen (Misch-) Formen von Erheben und Erfassen sind ethische Fragen, insb. die informierte Einwilligung der Lernenden, zu berücksichtigen (s. Kapitel 4.6). 2 Verfahren des Erhebens und Erfassens
Bei Erheben und Erfassen ist von grundsätzlicher Relevanz, ob es sich um schriftliche oder mündliche Daten handelt. Die Erfassung mündlicher Daten in Form von Ton- oder Videoaufnahmen ermöglicht, vom Forscher ungesteuert, eine Dokumentation natürlicher Unterrichtssituationen. Sie beinhaltet aber generell das Problem, dass der entsprechende Probandenkreis durch die Anwesenheit fremder Personen und technischer Geräte in seinem Handeln dahingehend beeinflusst werden kann, dass er sich beobachtet fühlt und sich möglicherweise entsprechend anders verhält (zum Phänomen des sogenannten Beobachterparadoxons vgl. Bergmann 2001, s. auch Kapitel 5.2.3). Formen der Erhebung, wie beispielsweise die videographische Dokumentation mündlicher Präsentationen, Diskussionen oder Rollenspiele, sind mündliche Diskursarten, die sowohl von der Lehrperson natürlich eingesetzt und vom Forscher beobachtet und erfasst werden können, als auch vom Untersuchenden selbst innerhalb einer Lernergruppe gesteuert einsetzbar sind. Der Fokus auf bestimmte Diskursarten ist häufig eng mit dem Forscherinteresse an bestimmten sprachlichen Strukturen verbunden, die in dieser Diskursart vermehrt zu erwarten sind. So wie bei der Gewinnung mündlicher Sprachdaten sollte auch bei der Erhebung bzw. Erfassung von schriftlichen Texten unbedingt beachtet werden, welche Textsorten sich für das Untersuchungsziel eignen und inwieweit das Wissen über Textmuster und Genres in die Forschungsfrage integriert werden soll. Dementsprechend wird für die erfolgreiche Erhebung einer bestimmten Textsorte eine Methode mit einer präzisen Aufgabenstellung gewählt, die für den Schreiber möglichst einen der Textsorte angemessenen Kontext aufbaut. So müsste z. B. bei einer E-Mail dem Probanden vorgegeben werden, an wen er schreiben soll (z. B. einen Freund oder den Vertreter einer Institution). Erst dann wird er in der Lage sein, adäquate sprachliche Mittel aus seinem Repertoire auszuwählen. Weiterhin ist bei der Erhebung von Texten in einer Fremdsprache ebenfalls der mögliche Einfluss kulturell bedingter kommunikativer Praktiken aus der Erstsprache zu bedenken und bei der Konzeption der Aufgabenstellung und der Analyse zu beachten.9 Ein weiterer Aspekt, der bei der Erhebung und Erfassung von Texten – unabhängig von der Textsorte – zu beachten wäre, ist die Frage danach, ob und wie Arbeitsprozesse bei der Entstehung von Texten festgehalten werden können. Die Erhebung oder Erfassung kann z. B. durch 9 Dies gilt auch für die Erhebung mündlicher Daten. Routinen der Gesprächsorganisation – sequenzielle Organisation von Bewertungen (vgl. Günthner 1993 u. 2001, Casper-Hehne 2008), Komplimente, Begrüßungen und ähnliche Routinen – sind potentielle Schablonen, die aus der Herkunftskultur übernommen werden können.
184
5. Forschungsverfahren
ein Portfolio mit allen Textentwürfen und -überarbeitungen oder durch Videoaufnahmen des Schreibprozesses ergänzt werden. Den Probanden sind dann entsprechende Anweisungen zu erteilen (wie etwa „Bitte nichts ausradieren, sondern durchstreichen.“). Insbesondere bei der Entstehung von Texten am PC oder beim Umgang mit Lernsoftware können für den Forscher sowohl non-verbale als auch verbale Kanäle relevant sein, so dass Videoaufnahmen nötig werden, die sowohl die Interaktionen der Lernenden als auch das Geschehen auf dem Bildschirm erfassen; vgl. dazu die Hinweise in der Referenzarbeit von Schart (2003) und in der Untersuchung von Schmitt (2007). Im Folgenden sollen einige Aufgaben, die in der neueren Forschung eingesetzt wurden, beispielhaft besprochen werden. Dies soll verdeutlichen, dass ein Szenario erforderlich ist, um Probanden einen möglichst natürlichen kommunikativen Kontext nahezulegen. So ist es möglich, auch in Bezug auf die sprachlichen Repertoires der Probanden möglichst aussagekräftige Daten zu erhalten. Bei den einzelnen Instrumenten der Datenerhebung sind zunächst die jeweiligen Aufgabenstellungen und die dafür jeweils geeigneten Stimuli relevant, wobei unter Stimulus der Anlass zu verstehen ist, den man dem Probanden gibt, damit er diesem Input entsprechend eine Handlung ausführen kann. Setzt man beispielsweise eine Bildergeschichte als Stimulus ein, kann die Aufgabe entweder lauten, dass der Proband die einzelnen Bilder in allen Einzelheiten wiedergeben soll (Reproduktion des Stimulus) oder dass er eine Geschichte erzählen soll (Aufbau eines Szenarios mit Hilfe des Stimulus). Innerhalb eines eher freieren Rahmens wie im zweiten Fall können die entstehenden Texte erhebliche Unterschiede in der Textstruktur und in den Inhalten aufweisen, was eine Auswertung und Analyse unter Umständen erschweren kann. Andererseits führt die größere Freiheit bei der Umsetzung der Aufgabe dazu, dass die Aufgaben von Probanden als natürlichen kommunikativen Zwecken ähnlicher wahrgenommen und die Lösungen entsprechend den eigenen Kompetenzen und Interessen produziert werden. Die Textsorten, die im Rahmen solch variabler Szenarien erhoben werden können, gehen auch über Erzählungen und Bildbeschreibungen hinaus; Berman und Verhoeven (2002) erheben beispielsweise auch expositorische Texte: Im sogenannten Spencer Project wird Schülerinnen und Schülern ein vierminütiger Stummfilm als Stimulus gezeigt, der unterschiedliche negative Schulereignisse (Mobbing, Spicken u. Ä.) szenisch darstellt. Anschließend sollen die Schüler die zweiteilige Frage beantworten, ob sie auch schon einmal Derartiges erlebt haben (Erhebung eines narrativen Textes) und was sie denn von derartigen Verhaltensweisen und Vorkommnissen halten (Erhebung eines expositorischen Textes). Innerhalb eines ähnlich freien Rahmens erheben Cantone und Haberzettl (2009) einen argumentativen Text, indem sie Probanden bitten, ihre Meinung zum Thema „Handyverbot in der Schule“ schriftlich zu formulieren. Je nachdem, wie das Szenario ausgestaltet wird, lassen sich unterschiedliche Textsorten erheben, an denen jeweils unterschiedliche sprachliche Merkmale untersucht werden können (weitere Beispiele für ein Erhebungsinstrument mit ähnlich freier Aufgabenstellung vgl. Knapp 1997 und Petersen 2012). Vergleichbare Szenarien lassen sich auch zunächst als mündliche Rollenspiele einführen, an die sich dann die Schreibaufgabe anschließt (vgl. Mayr/Mezger/Paul 2010). Macht man zusätzlich Audio- oder Videoaufnahmen solcher Rollenspiele, sind auch Analysen möglich, die die dialogischen Lösungen der Lernenden zu den schriftlichen Sprachprodukten in Beziehung
5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung
185
setzen. Dabei muss allerdings bedacht werden, dass komplexe Szenarien nicht in jeder Lerngruppe gleichermaßen gut umsetzbar sind, da Probanden Schwierigkeiten haben können, sich in Situationen hineinzuversetzen, mit denen sie in ihrem Alltag nicht vertraut sind. In solchen Fällen sind Ausweichlösungen zu finden, wie beispielsweise eine Inszenierung, in der man die Situation von Dritten spielen lässt (vgl. das Forschungsprojekt OLDER10). Hinweise zur Durchführung
Bei der Gewinnung von Daten, besonders im Schulkontext, sind einige rechtliche und organisatorische Hinweise zu beachten, die für das Gelingen des Projektes von entscheidender Bedeutung sein können. Hat der Forschende sich für eine Forschungsfrage und einen dazugehörigen Erhebungskontext entschieden, sollte zunächst ein detaillierter Ablaufplan erstellt werden. Besonders bei der Arbeit in Schulen ist zu beachten, dass dazu oftmals Genehmigungen bei Schulbehörden oder anderen dafür zuständigen Einrichtungen einzuholen sind. Diese sollten mit genügend Vorlaufzeit beantragt werden. Bei minderjährigen Probanden ist zudem eine Einverständniserklärung der Eltern vonnöten, genauso wie von allen Teilnehmenden die Genehmigung, die erhaltenen Daten für wissenschaftliche Zwecke verwenden und veröffentlichen zu dürfen. Führt man die Erhebung/Erfassung nicht selbst oder nicht alleine durch, ist darauf zu achten, die Mitarbeitenden entsprechend zu schulen. Gerade, wenn den Probanden eine Aufgabe gestellt wird, sollten die Formulierungen und das Szenario möglichst immer gleich sein (also auch schriftlich ausformuliert), um später eine maximale Vergleichbarkeit der Daten zu gewährleisten. Zudem sollte die Durchführung, falls möglich, vorher getestet und geübt werden. Eine solche Pilotierung verschafft dem Forschenden die Möglichkeit, Instrumente und Anweisungen auf ihre Funktionalität zu überprüfen und eventuell fehlende oder unklare Informationen zu überarbeiten. Grundsätzlich sollten alle Arbeitsmaterialien ausreichend vorhanden und technische Geräte auf ihre Funktionstüchtigkeit getestet werden. Es ist wichtig, sich auch auf den Fall vorzubereiten, dass die Geräte ausfallen könnten. Nach der Erhebung/Erfassung muss sichergestellt werden, dass die Daten schnell und in unterschiedlichen Formaten gesichert werden. Rechtzeitig sollte über Form und Art der Anonymisierung der gewonnenen Daten nachgedacht werden; diese ist auch bei der Lagerung der Originaldaten zu beachten. 3 Aufbereitung der gewonnenen Daten Datenbanken und Transkriptionssoftware
Bevor man beginnt, die gewonnenen Daten zu analysieren, müssen sie zunächst gesichert und verarbeitet werden. Gegenüber Kopien bietet sich das Scannen zur Datensicherung schriftlicher Texte besonders an, da sie somit digitalisiert sind und unter Umständen in den späteren Analyseprozess eingebunden werden können. Für eine detaillierte Analyse kann es jedoch auch notwendig sein, die Lernertexte in der vorgelegten Form möglichst originalgetreu 10 Forschungsprojekt OLDER = Orale und literale Diskursfähigkeiten – Erwerbsmechanismen und Ressourcen, unter der Leitung von Uta M. Quasthoff (2002ff); Projektbeschreibung unter http://home.edo.uni- dortmund.de/~older/Kurzbeschreibung.html (02. 09. 2015).
186
5. Forschungsverfahren
abzutippen. Bei Audio- und Videoaufnahmen gestaltet sich die Datensicherung schwieriger. Hier ist zunächst zu empfehlen, die Dateien auf mehreren Datenträgern (z. B. externe Festplatte, Server) zu sichern und diese dann weiter zu verarbeiten. Bei größeren Datenmengen empfiehlt sich der Gebrauch von Datenbanken. Dies gilt insbesondere für die meist umfangreichen Meta-Datensätze, wie z. B. Angaben zu Alter, Sprachlerndauer und Erhebungskontext. Mit Hilfe der heutzutage einfach zu erstellenden Datenbanken kann man die Daten nach präzise auf das Forschungprojekt abgestimmten Kriterien durchsuchen. Ein solches Datenbanksystem stellt die kommerzielle Datenbanksoftware FileMaker dar, die Waggershauser (erscheint) in ihrer ethnographischen Untersuchtung russischer Zweitsprachenlernender bespielsweise dazu nutzt, im Alltag von Integrationskursteilnehmenden erfasste literale Artefakte zusammen mit ihren entsprechenden Beobachtungsnotizen digital aufzubereiten. Durch umfassende einfache und kombinierte Suchabfragen und Gestaltungsmöglichkeiten können umfangreiche Informationen ausgewertet werden. Das Programm erlaubt den In- und Export von Daten in gängigen Datenformaten und ist somit flexibel. Die sehr aufwändige Arbeit des Transkribierens (siehe Kapitel 5.3.6 sowie auch Mempel/ Mehlhorn 2014) kann durch die Nutzung von Transkriptionssoftware erleichtert werden, die zu großen Teilen auch frei zugänglich ist. Allen gemeinsam ist die Einbindung eines Audiooder Videopanels und eines Texteditors in einer Benutzeroberfläche. Die verschiedenen Programme unterscheiden sich unter anderem hinsichtlich der bearbeitbaren Datenformate, der Kompatibilität mit anderen Programmen, den Ausgabeformaten und der Möglichkeit der Einbindung in Analyseprogramme (vgl. Moritz 2011: 28). Im Folgenden sollen einige in der fremdsprachendidaktischen Forschung eingesetzte Transkriptionsprogramme vorgestellt werden. Darüber hinaus bietet das Gesprächsanalytische Informationssystem GAIS Informationen und Hinweise von der Aufnahme der eigenen Daten bis hin zur Korpuserstellung.11 Das Transkriptionsprogramm F4 bzw. F5 unterstützt das Transkribieren von Audio- oder Videodateien. Das Audiopanel ermöglicht die einfache Handhabung des Datenmaterials durch eine variable Abspielgeschwindigkeit und frei wählbare Rückspulintervalle. Das Einfügen von Zeitmarken ermöglicht den schnellen Rückbezug zum Datenmaterial. Dieses Programm ist inbesondere für grobe Transkiptionen geeignet. Bei FOLKER handelt es sich um eine Transkriptionssoftware, welche von Thomas Schmidt für das Projekt „Forschungs- und Lehrkorpus gesprochenes Deutsch“ des Instituts für deutsche Sprache Mannheim (IDS) entwickelt wurde. Es stellt eine Benutzeroberfläche zur Transkription ausschließlich auditiver Daten nach der Transkriptionskonvention GAT212 dar. Dabei hat der Nutzer die Wahl zwischen der für GAT typischen Segmentschreibung oder der Partiturnotation. Die Implementierung eines Audioplayers sowie die Darstellung des Sprachsignals durch ein Oszillogramm ermöglichen eine präzise Auswahl von Zeitmarken und zu transkribierender Segmente. Die weitere Bearbeitung des Datenmaterials durch linguistische Annotationen ist allerdings nicht vorgesehen (vgl. Schmidt/Schütte 2011: 5). Andere Programme stellen sogenannte Mehrzweckeditoren dar, die nicht nur eine Oberfläche zur Transkription anbieten, sondern gleichzeitig die technischen Rahmenbedingungen 11 Siehe http://prowiki.ids-mannheim.de/bin/view/GAIS/ (01. 09. 2015). 12 Für Informationen zu GAT2 siehe Kapitel 5.3.6 und Selting/Auer 2009.
5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung
187
zu weiteren Analysen bereitstellen. Im Folgenden werden die am weitesten verbreiteten Mehrzweckeditoren vorgestellt. ELAN ist das Transkriptions- und Annotationsprogramm des Max-Planck-Instituts für Psycholinguistik der Universität Nijmegen und wurde speziell zur Verarbeitung und Analyse multimodaler Daten entwickelt (vgl. Tacchetti 2013: iv). Die Transkription wird gemäß der HIAT-Konventionen durchgeführt (vgl. Moritz 2011: 29, Rehbein et al. 2004 sowie Kapitel 5.3.6). ELAN stellt über die reine Transkriptionsoberfläche hinaus eine Struktur zur linguistischen Analyse bereit, mittels derer beliebig viele Spuren für Annotationen angelegt werden können, die voneinander abhängig sein oder auf einander bezogen werden können (vgl. Tacchetti 2013: 16). Das CHILDES-System wurde im Rahmen des CHILDES-Projektes unter Leitung von Brian MacWhinney entwickelt. Dabei handelt es sich um ein dreiteiliges System, welches zur Transkription, Analyse und Korpusverwaltung Werkzeuge zur Verfügung stellt. Für die Erstellung der Transkripte und Annotation des Sprachmaterials wird die Transkriptionskonvention CHAT genutzt. Die in CHAT erstellten Transkripte können mittels des CLAN-Analyse Werkzeugs in die Datenbank aufgenommen werden (vgl. MacWhinney 2000: 9). EXMARaLDA ist ebenfalls ein System verschiedener Werkzeuge zur Transkription und Annotation gesprochener Sprache sowie der Korpuserstellung und -abfrage. Es besteht aus dem Partitur Editor, der mit dem implementierten Audioplayer sowie dem integrierten Oszillogramm die Transkription des Datenmaterials sowohl nach den verschiedenen gängigen Transkriptionskonventionen sowie beliebig viele Annotationen ermöglicht. Der Corpus Manager (COMA) unterstützt die Erstellung von Korpora aus EXMARaLDA-Transkripten und die Anreicherung der Sprachdaten mit den unterschiedlichsten Metadaten. COMA ermöglicht aber auch die Erstellung von Korpora, die aus mit FOLKER, ELAN oder CHAT hergestellten Transkriptionen bestehen (vgl. Schmidt 2010: 9 – 10). Mittels des Suchwerkzeugs EXAKT lassen sich Korpora nach sprachlichen Phänomenen in den transkribierten und annotierten Spuren durchsuchen (vgl. Schmidt 2010). Zur Aufbereitung von Videomaterial ist das Programm Transana besonders geeignet. Dafür hält die an der Universität Wisconsin-Madison entwickelte Analysesoftware ausführliche Bearbeitungs- und Verwaltungsmöglichkeiten bereit. Audiofiles und Videos können in für die Analyse relevante Clips geschnitten werden und anschließend je nach Bedarf passend zusammengestellt werden. Die Option einer Team-Version ermöglicht eine direkte und einfache Zusammenarbeit von Projektgruppen. Während die genannte Transkriptionssoftware in der Regel für linguistische Fragestellungen genutzt werden, bietet sich für das thematische Kodieren von inhaltlichen Aspekten der Lernersprache das Programm MAXQDA an. In den neueren Versionen kann man die Videotranskripte durch Zeitmarken mit den Videofilmen verknüpfen. Korpuserstellung und -verwaltung
Sind die gewünschten Daten elizitiert und verarbeitet worden, kann man sie zu einem Korpus zusammenstellen. Bei einem Korpus handelt es sich prinzipiell um eine „[e]ndliche Menge von konkreten sprachlichen Äußerungen, die als empirische Grundlage für sprachwiss[enschaftliche] Untersuchungen dienen.“ (Bußmann 2008: 378). Dabei bilden Größe, Inhalt, Be-
188
5. Forschungsverfahren
ständigkeit und Repräsentativität die wichtigsten Kriterien zum Aufbau eines eigenen Korpus (vgl. Scherer 2006: 5 – 10). Wie das eigene Korpus konkret beschaffen ist, hängt vor allem von der eigenen Fragestellung ab (vgl. Bußmann 2008: 378, Scherer 2006: 56). Unter Berücksichtigung der Parameter, die man im Rahmen der Untersuchung miteinander vergleichen möchte, kann die Bildung von sogenannten Subkorpora nützlich sein. Dabei handelt es sich um Teile des Gesamtkorpus, die anhand ausgewählter Metadaten extrahiert wurden. Möchte man beispielsweise die Lernprogression von Lernenden des Englischen im Rahmen des Fremdsprachenunterrichts untersuchen und liegen Daten von Lernenden vor, die unterschiedlich lange Unterricht in dieser Sprache erhalten haben, dann könnte die Dauer des Fremdsprachenunterrichts ein wesentliches Kriterium zur Bildung von Subkorpora sein. Grundsätzlich sollte kritisch überlegt werden, ob sich der Aufwand der Einrichtung von Teilkorpora für die Beantwortung der Forschungsfrage lohnt (vgl. Scherer 2006: 57). Prinzipiell kann ein Korpus sowohl in digitaler als auch in analoger Form erstellt und ausgewertet werden (diskutiert in Scherer 2006: 57). Der Nutzen, den ein computerverarbeitetes Korpus bietet, muss gegen den Aufwand der Digitalisierung abgewogen werden. Für eine computergestützte Verarbeitung der Korpusdaten spricht grundsätzlich die Möglichkeit der mehrfachen Speicherung und damit der Sicherung der Daten und Analysen. Darüber hinaus bietet ein gut zugängliches Korpus durch unkomplizierte Suchabfragen die Möglichkeit Forschungsfragen zu variieren oder zu erweitern (s. dazu genauer Kapitel 5.3.8). Unabhängig von der Digitalisierung von Korpora können die enthaltenen Daten in Primär-, Sekundär- und Tertiärdaten unterschieden werden (vgl. Draxler 2008: 13). Primärdaten sind sprachliche Rohdaten. Dabei kann es sich um Ton- oder Videoaufnahmen gesprochener Sprache oder um Scans handschriftlich verfasster Texte handeln. Sekundärdaten hingegen sind alle Verarbeitungsstufen dieser sprachlichen Rohdaten. Damit sind die Transkriptionen mündlicher oder schriftlicher Texte gemeint sowie alle Arten von linguistischen Annotationen. Bei Tertiärdaten handelt es sich um alle Metadaten bezüglich der einzelnen Texte des Korpus, wie Entstehungskontext, intendierte Textsorte, Entstehungszeit, Sprache usw. sowie bzgl. der Textproduzenten, wie Alter, Geschlecht, Lernerbiographie usw. Mithilfe von Metadaten können die im Korpus vorhandenen Sprachdaten dokumentiert und damit für andere Nutzer nachvollziehbar gemacht werden. Zum anderen können Metadaten für die Zusammenstellung von Subkorpora nach einzelnen Kriterien herangezogen werden (vgl. Lemnitzer/ Zinsmeister 2010: 48). Primärdaten sind grundsätzlich unveränderlich, während Sekundärdaten immer wieder verändert und überarbeitet werden können. So können Transkriptionen schrittweise erweitert bzw. spezifiziert werden oder es können immer neue Annotationsebenen hinzugefügt werden (vgl. Draxler 2008: 13). Im Folgenden wird am Beispiel von EXMARaLDA gezeigt, wie ein digitales Korpus erstellt werden kann. Mithilfe des EXMARaLDA Corpus-Managers (Coma) können EXMARaLDATranskripte mit Metadaten versehen werden und zu Korpora zusammengestellt werden. Anhand dieser Metadaten können die Daten in Coma durchsucht werden und zu Teilkorpora zusammengestellt werden13.
13 Ausführliche Anleitungen zum zur Arbeit mit dem Corpus-Manager Coma und zum Erstellen von Korpora sind online verfügbar.
5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung
189
Abbildung 1: Datenansicht im Corpus Manager (Quelle: Online-Hilfe für Coma)
Zum Erstellen eines Korpus aus EXMARaLDA-Transkripten stellt das Tool einen Assistenten bereit, der in sechs Schritten durch die Korpuserstellung führt. Zunächst gilt es den Speicherort der zu erstellenden Coma-Datei auszuwählen und damit gleichzeitig den Ordner zu bestimmen, in dem sich die korpusrelevanten Transkripte befinden. Anschließend werden die Dateien ausgewählt, die für das zu erstellende Korpus relevant sind und die in einem weiteren Schritt segmentiert werden sollen. Daraufhin können Metadaten, die bereits in den Transkripten enthalten sind, für die Korpusdatei ausgewählt oder bewusst davon ausgeschlossen werden. Ebenso kann auch mit den an der Kommunikation beteiligten Personen verfahren werden. Die erzeugte Datei kann anschließend in Coma geöffnet werden. Im Reiter „Daten“ können Metadaten zu Gesprächsereignissen, Sprechern, Transkripten und Aufnahmen eingegeben und selektiert werden. Auf der linken Seite werden alle im Korpus befindlichen Kommunikationen dargestellt. Auf der rechten Seite werden alle in den Korpusdaten beteiligten Personen aufgeführt. Durch Auswahl einzelner können Metadaten zu Kommunikationen oder Personen angelegt werden. Abbildung 1 zeigt in der Mitte die für die Kommunikation „Rudi Völler: Wutausbruch“ eingetragenen Metadaten, die an dieser Stelle auch bearbeitet werden können. Ferner sind hier auch Verknüpfungen zwischen Kommunikationen und Personen möglich. Durch die Nutzung von Filtern kann die Anzeige der Korpusdateien eingeschränkt werden. Hat man das Korpus entsprechend eines oder mehrerer Parameter gefiltert, können über das Einkaufswagen-Symbol die ausgewählten Datensätze in den Korpus-Korb abgelegt werden, wo diese dann als Teilkorpora gespeichert werden können. Wie auch die Entscheidung für eine Methode zur Datengewinnung hängt die Auswahl und Art der Zusammensetzung eines Lernerkorpus von der Fragestellung ab, die an die
... sichern und aufbereiten.
anonymisieren - Siglen ✓ transkribieren - Konventionen ✓ annotieren - Kriterien ✓
z.B. IDS
erstellen verwalten auswerten analysieren ggf. bereitstellen
Tertiärdaten Zusatzinformationen und Metadaten
digital analog
Korpus
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
! Einverständniserklärung(en), Datenschutzvereinbarung, Vorlaufzeit, Schulung, Pilotierung
schriftlich: Textprodukte, Portfolios Aufgabenstimulus
mündlich: Audio/Videoaufnahmen Beobachtungsparadoxon
Erhebung (auch: Elizitierung) gezielter digitalisieren - Ablagesystem ✓ dokumentieren - Datenbank ✓ Sprachproduktion in stark kontrollierter nutzbar machen - Korpus ✓ Situation → Experiment, Test, stimulated recall Primärdaten Audio, Video, Scans, Kopien Erfassung sprachlicher Produkte Sekundärdaten der Unterrichtsrealität Transkript, Annotation → Klassenarbeiten, Vorträge
Daten gewinnen, ...
5.2.6 Erheben und Erfassen von Lernersprache incl. Korpuserstellung
190 5. Forschungsverfahren
5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung
191
Daten des Korpus gestellt wird (vgl. Lüdeling 2008: 121). Faktoren, wie der Sprachstand der Lernenden, ihre L1, die Aufgabenstellung oder Umstände und Entstehungskontext der Daten können als Parameter zur Korpuszusammenstellung herangezogen werden (vgl. Lüdeling 2008: 122, Granger 2002: 9). Diese Kriterien sollten in den Metadaten dokumentiert sein, um die Erstellung des Korpus transparent und damit für jeden nachvollziehbar zu machen und gleichzeitig die Bildung von Teilkorpora nach anderen Parametern zu ermöglichen. Hilfreich dabei ist eine ausreichend intensive Dokumentation der Metadaten der Textproduzenten, zum Beispiel mittels Fragebogen. Für die Erstellung von Metadaten gibt es verschiedene Standards, die die Bildung von Teilkorpora oder auch den Austausch von Korpora vereinfachen (siehe dazu Lemnitzer/Zinsmeister 2010: 48ff). Bezüglich der Durchführung der an die Korpuserstellung anschließenden Datenanalyse gibt es neben inhaltlichen auch zahlreiche technische Aspekte zu berücksichtigen (Näheres dazu in Kapitel 5.3.7 und 5.3.8). Wünschenswert für die weitere Entwicklung der fremdsprachendidaktischen Forschung ist die Bereitstellung solch aufwändig erarbeiteter Korpora, damit auch andere Forschende diese für weitere Untersuchungen und andere Fragestellungen nutzen können; beispielsweise wurden von Ricart Brede (2011) nach der Publikation einer videobasierten Studie umfangreiche Transkripte bereitgestellt. ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Bechtel, Mark (2003). Interkulturelles Lernen beim Sprachenlernen im Tandem. Eine diskursanalytische Untersuchung. Tübingen: Narr. Bergmann, Jörg R. (2001). Das Konzept der Konversationsanalyse. In: Brinker, Klaus/Antos, Gerd/ Heinemann, Wolfgang/Sager, Svend F. (Hg.). Text- und Gesprächslinguistik: Ein internationales Handbuch zeitgenössischer Forschung. 2. Halbband. Berlin: de Gruyter, 919 – 927. *Berman, Ruth A./Verhoeven, Ludo (Hg.) (2002). Cross-linguistic perspectives on the development of text-production abilities in speech and writing. In: Written Language and Literacy (Special Issue) 5.1 / 5.2. Bußmann, Hadumod (2008). Lexikon der Sprachwissenschaft. Stuttgart: Alfred Kröner. *Cantone, Katja Francesca/Haberzettl, Stefanie (2009). „Ich bin dagegen warum sollte man den kein Handy mit nehmen“ – zur Bewertung argumentativer Texte bei Schülern mit Deutsch als Zweitsprache. In: Schramm, Karen/Schroeder, Christoph (Hg.). Empirische Zugänge zu Spracherwerb und Sprachförderung in Deutsch als Zweitsprache. Münster: Waxmann, 43 – 66. *Casper-Hehne, Hiltraud (2008). Russisch-deutsche Interaktion in der Schule: Empirische Untersuchungen zu Linguistik und Didaktik interkultureller Unterrichtskommunikation. In: Zielsprache Deutsch H. 3, 2 – 26. *Dauster, Judith (2007): Frühes Fremdsprachenlernen Französisch. Möglichkeiten und Grenzen der Analyse von Lerneräußerungen und Lehr-Lern-Interaktion. Stuttgart: ibidem. DESI-Konsortium (Hg.) (2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz. Draxler, Christoph (2008). Korpusbasierte Sprachverarbeitung. Eine Einführung. Tübingen: Narr. *Eckerth, Johannes (2003). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr.
192
5. Forschungsverfahren
Granger, Sylviane. (2002). A Bird’s-eye view of learner corpus research. In: Grange, Sylviane/Hung, Joseph/Petch-Tyson, Stephanie. (Hg.). Computer Learner Corpora, Second Language Acquisition and Foreign language Teaching. Amsterdam: Benjamnis, 3 – 33. *Günthner, Susanne (1993). Diskursstrategien in der Interkulturellen Kommunikation. Analysen deutsch-chinesischer Gespräche. Tübingen: Niemeyer. Günthner, Susanne (2001). Kulturelle Unterschiede in der Aktualisierung kommunikativer Gattungen. In: Informationen Deutsch als Fremdsprache 28, 15 – 32. Klieme, Eckhard/Beck, Bärbel (Hg.) (2007). Sprachliche Kompetenzen. Konzepte und Messung. DESIStudie (Deutsch Englisch Schülerleistungen International). Weinheim: Beltz. *Knapp, Werner (1997). Schriftliches Erzählen in der Zweitsprache. Tübingen: Niemeyer. Lemnitzer, Lutz/Zinsmeister, Heike (2010). Korpuslinguistik. Eine Einführung. Tübingen: Narr. Linke, Angelika/Nussbaumer, Markus/Portmann, Paul R. (1991). Studienbuch Linguistik. Tübingen: Niemeyer. Lüdeling, Anke (2008). Mehrdeutigkeiten und Kategorisierung: Probleme bei der Annotation von Lernerkorpora. In: Walter, Maik/Grommes, Patrick (Hg.). Fortgeschrittene Lernervarietäten. Korpuslinguistik und Zweitspracherwerbsforschung. Tübingen: Niemeyer, 119 – 140. MacWhinney, Brian (2000). The CHILDES Project: Tools for Analyzing Talk. 3. Auflage. NJ: Lawrence Erlbaum Associates. *Mayr, Katharina/Mezger, Verena/Paul, Kerstin (2010). Spracharbeit statt Strafarbeit. Zum Ausbau von Sprachkompetenz mit Kiezdeutsch im Unterricht. In: IDV-Magazin 82, 159 – 187. Mempel, Caterina/Mehlhorn, Grit (2014). Datenaufbereitung. Transkription und Annotation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Einführung in empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 147 – 166. *Méron-Minuth, Sylvie (2009). Kommunikationsstrategien von Grundschülern im Französischunterricht. Eine Untersuchung zu den ersten vier Lernjahren. Giessener Beiträge zur Fremdsprachendidaktik. Tübingen: Narr. Moritz, Christine (2011). Die Feldpartitur. Multikodale Transkription von Videodaten in der Qualitativen Sozialforschung. Wiesbaden: VS Verlag. *Petersen, Inger (2012). Entwicklung schriftlicher Argumentationskompetenz bei Oberstufenschüler/ innen und Studierenden mit Deutsch als Erst- und Zweitsprache. Vortrag beim Symposium „Mehrsprachig in Wissenschaft und Gesellschaft“ Bielefeld, 07. 02. 2012 [Online: http://www.uni-bielefeld. de/Universitaet/Studium/Studienbegleitende%20Angebote/Punktum/060_wir_ueber_uns/tagungen/ tagung_2012/PPP/praesentation_petersen.pdf] (11. 09. 2015). *Quasthoff, Uta M. (Projektleitung) (2002ff): Forschungsprojekt OLDER = „Orale und literale Diskursfähigkeiten – Erwerbsmechanismen und Ressourcen“. Projektbeschreibung [Online: http://home.edo. uni-dortmund.de/~older/Kurzbeschreibung.html] (11. 09. 2015). Rehbein, Jochen/Schmidt, Thomas/Meyer, Bernd/Watzke, Franziska/Herkenrath, Annette (2004). Handbuch für das computergestützte Transkribieren nach HIAT. [Online http://www.exmaralda.org/files/ azm_56.pdf] (11. 09. 2015). *Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen. Inauguraldissertation an der Pädagogischen Hochschule Weingarten. Freiburg i. Br.: Fillibach *Schart, Michael (2003): Projektunterricht – subjektiv betrachtet. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Scherer, Carmen (2006). Korpuslinguistik. Kurze Einführung in die Germanistische Linguistik. Heidelberg: Universitätsverlag Winter. *Schmitt, Reinhold (Hg.) (2007): Koordination. Analysen zur multimodalen Interaktion. Tübingen: Narr.
5.2.7 Erfassen von unterrichtsbezogenen Produkten
193
Schmidt, Thomas (2010). EXMARaLDA EXAKT. Manual Version 1.0. [Online: http://s3.amazonaws. com/zanran_storage/www1.uni-hamburg.de/ContentPages/109 154 423.pdf] (11. 09. 2015). Schmidt, Thomas/Schütte, Wilfried (2011). FOLKER. Transkriptionseditor für das „Forschungs- und Lehrkorpus gesprochenes Deutsch“ (FOLK). Transkriptionshandbuch. [Online: http://agd.ids-mann heim.de/download/FOLKER-Transkriptionshandbuch.pdf] (11. 09. 2015). Selting, Margret/Auer, Peter (2009). Gesprächsanalytisches Transkriptionssystem 2 (GAT2). In: Gesprächsforschung 10, 353 – 402 [Online: www.gespraechsforschung-ozs.de ] (11. 09. 2015). Tacchetti, Maddalena (2013). User Guide for ELAN Linguistic Annotator. [Online: http://www.mpi.nl/ corpus/manuals/manual-elan_ug.pdf] (18. 10. 2013). *Waggershauser, Elena (2015). Schreiben als soziale Praxis. Eine ethnographische Untersuchung erwachsener russischsprachiger Zweitschriftlernender. Tübingen: Stauffenburg. »» Zur Vertiefung empfohlen Mempel, Caterina/Mehlhorn, Grit (2014). Datenaufbereitung: Transkription und Annotation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.): Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh. Dieses Kapitel bietet FremdsprachendidaktikerInnen einen hervorragenden ersten Überblick über die Theorieabhängigkeit von Transkriptionskonventionen und die entsprechende Software. Neben der Transkription verbaler Daten werden auch die phonetische Transkription und die Transkription nonverbaler Kommunikation sowie die Aufbereitung von Transkripten für Vorträge thematisiert.
5.2.7 Erfassen von unterrichtsbezogenen Produkten Daniela Caspari
Die verschiedenen Erhebungsverfahren dienen i. d. R. dazu, Texte und Dokumente zu gewinnen, mit denen eine zuvor definierte Forschungsfrage bearbeitet werden soll. In diesem Kapitel wird für das umgekehrte Vorgehen plädiert, nämlich von Texten bzw. Dokumenten auszu gehen, die nicht extra erhoben werden müssen, sondern bereits vorhanden sind. Gemeint sind damit halboffizielle und private Dokumente, die tagtäglich in Lehr-/Lernsituationen bzw. in ihrem direkten Umfeld (z. B. Fachkonferenz, Fachseminarleitertreffen) entstehen. Während in Kapitel 4.1 zwischen (wissenschaftlichen) Texten und (anderen) Dokumenten unterschieden wird, werden die beiden Begriffe im Folgenden synonym verwendet. Bezeichnet werden damit die vor, während und nach dem Unterricht tagtäglich in großer Zahl entstehenden sog. unterrichtsbezogenen Produkte, z. B. Unterrichtsplanungen, Tafelbilder, Hospitationsnotizen, Blog-Einträge, Kurz-Präsentationen, Gedichte, Plakate, Podcasts, Portfolios, Rollenspiele usw. Alle diese, von Lerner_innen, Lehrer_innen, Referendar_innen, Eltern und anderen Akteur_innen in den unterschiedlichen institutionellen Lehr-/Lernkontexten verfassten Texte können als Dokumente gesammelt und unter den verschiedensten Fragestellungen in der fremdsprachendidaktischen Forschung untersucht werden. Bislang ist jedoch außerhalb der
194
5. Forschungsverfahren
historischen Forschung (s. Kapitel 5.2.1 Dokumentensammlung), die sich zwangsläufig auf überlieferte Dokumente stützen muss, nur punktuell, z. B. im Rahmen der Fehlerforschung oder bei der Erforschung kreativer Verfahren, darüber nachgedacht worden, welches Potenzial für die Erforschung des Fremdsprachenunterrichts in ihnen steckt. Da diese Dokumente bereits existieren, besteht das Ziel dieses Kapitels nicht darin, bestimmte Erhebungsverfahren zu beschreiben, sondern es will dafür werben, dass die genannten unterrichtsbezogenen Produkte in ihrem Wert für die Forschung erkannt und dementsprechend genutzt werden. Dabei wird man zumeist von einer Forschungsfrage aus entsprechende Dokumente gezielt sammeln; es ist allerdings – anders als sonst im Forschungsprozess üblich – auch möglich, dass man erst über die Dokumente verfügt und anschließend eine dazu passende Forschungsfrage entwickelt oder ein Forschungsinteresse auf die vorhandenen Produkte hin konkretisiert. 1 Eingrenzung und Abgrenzung unterrichtsbezogener Produkte
Unter unterrichtsbezogenen Produkten werden im Folgenden die unterschiedlichsten Formen schriftlicher, mündlicher, graphischer und multimodaler Texte verstanden, die in unterrichtlichen Arrangements oder in direktem Zusammenhang mit ihnen entstehen. Die erfassten Texte können die von Lerner_innen, Lehrpersonen, Ausbilder_innen oder anderen direkt am Lehr-/Lernprozess beteiligten Akteur_innen erstellt werden. Sie können in Vorbereitung auf den Unterricht (z. B. vorbereitende Hausaufgaben oder Stundenplanungen), während des Unterrichts im Klassenzimmer oder an außerschulischen Lernorten (z. B. kreative Texte, Standbilder, Interviews, Chateinträge) oder nach dem Unterricht (z. B. Lehrertagebücher, nachbereitende Hausaufgaben) entstehen. Zu unterrichtsbezogenen Produkten zählen ebenfalls Texte, die als intendiertes Ergebnis von unterrichtlichen Lernprozessen erhoben werden (z. B. Klassenarbeiten oder Abiturprüfungen incl. der Kommentare und Beurteilungen). Ebenfalls dazu zählen Texte, die von (angehenden) Lehrkräften oder Ausbilder_innen in Zusammenhang mit der Vor- und Nachbereitung von Unterricht bzw. in der Diskussion über das Fach und seinen Unterricht entstehen (z. B. Alternativaufgaben, Beurteilungsraster). Die folgenden Übersichten sollen – ohne Anspruch auf Vollständigkeit – die Fülle und die Vielfalt dieser unterrichtsbezogenen Lerner_innen- und Lehrer_innentexte verdeutlichen. Die vorgenommene Einteilung der Lerner_innentexte sortiert nach Medium (mündlich – schriftlich) und Textsorte bzw. Genre des Produktes, an zwei Stellen auch nach der didaktischen Funktion. Die Lehrer_innentexte unterscheiden nach Entstehungsort und nach der Funktion. Innerhalb der Rubriken wurde – wenn möglich – nach steigender Komplexität angeordnet. Neben der Verwendung unterschiedlicher Kategorien besteht eine Unschärfe darin, dass viele Textsorten nicht eindeutig definiert sind und dass Mehrfachzuordnungen möglich sind. Für die Zielsetzung, (forschenden) Lehrkräften und Forscher_innen die Vielfalt und Fülle der vorliegenden bzw. möglichen Produkte bewusst zu machen, erscheint dieser Systematisierungsvorschlag jedoch ausreichend.
5.2.7 Erfassen von unterrichtsbezogenen Produkten
195
Beispiele für Lerner_innentexte
mündlich – monologisch – Beschreibungen (Bilder, Personen, Wege) – Erzählungen – Märchen – Witze – Statements – Berichte – Argumentationen – Reden mündlich – dia- bzw. multilogisch – Gespräche, z. B. während Partner- und Gruppenarbeit, im Tandem – Diskussionen (auch: Einzelbeiträge) – Interviews, Umfragen – Rollenspiele – Debatten – mdl. Sprachmittlung mündlich – theatral – Standbilder – Spielszenen – Sketche – Rezitationen mündlich – medial unterstützt – Referate, Präsentationen
schriftlich – graphisch gestaltet – Bilder (mit/ohne Text) – Fotos, Collagen (mit/ohne Text) – Plakate, Wandzeitungen – Handouts, Handzettel, Flugblätter, Flyer schriftlich – Schreiben über Texte – Zusammenfassungen – Analysen, Interpretationen, Charakteristiken etc. – Kommentare – Rezensionen schriftlich – das Lernen dokumentieren – ausgefüllte Übungs- und Aufgabenblätter, z. B. zu Wortschatz, Grammatik, Sprachmittlung (auch aus Prüfungen) – Portfolios (EPS, themen- oder aufgabenbezogene Portfolios) – Lerner_innentagebuch, Logbuch – von Lerner_innen selbst erstellte Tests und Aufgaben schriftlich – literarische bzw. literarisierende Texte – Geschichten (unterschiedliche Genres, mit/ ohne sprachliche oder inhaltliche Vorgaben) – Filmskripte/Treatments – Gedichte – Lieder – Tagebucheinträge – Essays
196
5. Forschungsverfahren
Beispiele für Lerner_innentexte
schriftlich – kleine Formen – Notizen – Listen, Tabellen – Statistiken (auch: Fehlerstatistik) – Mindmaps, Cluster – Wörterbilder, Wörternetze – Grammatikregeln – Beispielsätze – Slogans – SMS – Rätsel (z. B. Kreuzworträtsel)
schriftlich – multimodal – Comics, Bildergeschichten – Bildergeschichte, Fotoromane – Buchumschläge (z. B. Klappentext) multimedial – multimodal – Videos, Video-Clips – Podcasts – Chat- oder Blogeinträge – Wikis – Webseiten
schriftlich – Sach- und Gebrauchstexte – Aufschriften, Beschriftungen – Formulare, Fragebögen – E-Mails, Briefe, Postkarten (untersch. Adressaten, untersch. Funktionen) – Blog-Einträge – Einladungen – Kochrezepte – Lebenslauf – Beschreibungen (Bilder, Personen) – Artikel, z. B. Zeitungsartikel – Leserbriefe Tabelle 1: Unterrichtsbezogene Lerner_innentexte
Selbstverständlich können die allermeisten dieser Textsorten ebenfalls gezielt erhoben werden, z. B. um den Sprachstand von Lerner_innen (vgl. Kapitel 5.2.6) oder den Erfolg bestimmter Unterrichtsverfahren zu erfassen. Auch für Studien im Rahmen der Lehrerforschung werden viele der hier genannten Dokumente erhoben, um z. B. bestimmte Einstellungen oder Entwicklungen von Lehrkräften zu verfolgen. In diesen Fällen wurde zuvor ein Forschungsprojekt mit Fragestellung und Design entwickelt, der Impuls für die Erhebung geht von den Forscher_innen aus und die Erhebungssituation und die zu erhebenden Produkte werden zielgerichtet auf das Forschungsinteresse bzw. die Forschungsfrage hin ausrichtet. Diese Texte entstehen somit in einer gezielt gestalteten Situation, auch wenn diese Situation im natürlichen Kontext (Regelunterricht, reguläre Prüfungen, Fortbildungsveranstaltung etc.) geschaffen wird. Bei einer Erfassung (zum Unterschied zwischen Erhebung und Erfassung s. auch Kapitel 5.2.6), um die es in diesem Kapitel geht, werden die Produkte dagegen ohne vorgängige Forscher_innenabsicht erstellt und erst im Nachhinein für Forschungszwecke genutzt (Natürlichkeit des Feldes). Dies könnte z. B. in der Form geschehen, dass ein/e Lehrer_in die im Laufe des Berufslebens oder in der Zeit der Begleitung einer Lerngruppe gesammelten ‚schönsten Schülerarbeiten‘ selbst auswertet bzw. zur Verfügung stellt. Oder in der Form, dass ein/eine Teilnehmer_in einer Fortbildungsreihe am Ende seine Kolleg_innen darum bittet, ihm die im Verlauf der Fortbildung entstandenen Unterrichtsmaterialien (anonym) zur Auswertung
5.2.7 Erfassen von unterrichtsbezogenen Produkten
197
Beispiele für Lehrer_innentexte
Texte und Materialien im bzw. für den Unterricht – Arbeitsaufträge – Lernaufgaben, Prüfungsaufgaben, Tests (auch mit Lerner_innen gemeinsam erstellt) – Tafelbilder, Folien, PP- bzw. Prezi-Präsentationen – Arbeitsblätter – Unterrichtsplanungen (auch ins Internet gestellt) Reaktion auf Lerner_innenprodukte – schriftl. Feedback, Reaktionen auf Fehler – schriftl. Kommentierungen von Lerner_innentexten – Beurteilungsraster
Aus-/ Weiterbildung, Reflexion – Protokolle von Besprechungen, Konferenzen oder Fort-/Weiterbildungen (z. B. über Lehrmaterialien, Unterrichtskonzeptionen, Bewertungskriterien) – Beiträge in Blogs oder Foren – Tagebücher – schriftl. Kommentierungen von fremdem Unterricht (z. B. bei Hospitationen, Prüfungen) – Portfolio (z. B. in Ausbildung, Weiterbildung) – Fachseminarplanungen – Prüfungsleistungen (z. B. Praktikumsberichte, Masterarbeiten, Prüfungsarbeiten in der 2. Phase) Info-Materialien – Schulcurricula – Schulhomepage (z. B. Darstellung des Faches) – Flyer (z. B. Infos für Fremdsprachenwahl)
Tabelle 2: Unterrichtsbezogene Lehrer_innentexte
zu geben. Eine andere Möglichkeit könnte darin bestehen, dass die für einen Wettbewerb eingereichten Schülerarbeiten dazu anregen, sie unter anderen als den Wettbewerbskriterien systematisch auszuwerten. Diesen Beispielen ist gemein, dass das Material jeweils ohne Forschungsabsicht entstanden ist. Natürlich gibt es auch Mischformen zwischen Erhebung und Erfassung in dem Sinne, dass die Erhebung von in einer natürlichen Situation entstehenden Produkten zuvor geplant wird. Dies ist bspw. dann der Fall, wenn Lehrkräfte (z. B. im Rahmen eines Aktionsforschungsprojektes) in ihrem Unterricht bestimmte Lernerprodukte erstellen lassen oder wenn Forscher_innen alleine oder in Zusammenarbeit mit Lehrer_innen Unterrichtsarrangements erstellen, in denen bestimmte Textsorten entstehen. Der zentrale Unterschied zu klassischen Erhebungssituationen besteht hier in der ‚Natürlichkeit‘ der Situation: Die gewünschten Texte könnten in der entsprechenden (Unterrichts-) Situation genauso gut auch unabhängig von einer Forschungsabsicht entstehen. Der zentrale Unterschied zur klassischen Erfassung besteht darin, dass die Entstehung der Produkte von der Forscher_in oder im Einvernehmen mit ihm/ihr intendiert ist. Obwohl in zahlreichen Forschungsarbeiten unterrichtsbezogene Produkte herangezogen werden, meist als eine von mehreren Datenformen, wurden sie unter forschungsmethodischer Hinsicht bislang lediglich in der historischen Forschung betrachtet (vgl. die entsprechenden Überlegungen in Kapitel 5.2.1). In aktuellen forschungsmethodischen Handbüchern werden sie dagegen bislang so gut wie nicht beachtet: Lediglich in der Aktionsforschung (s.
198
5. Forschungsverfahren
Kapitel 4.2, z. B. Burns 2010) und im Zusammenhang mit Triangulationsverfahren in der ethnographischen Forschung (z. B. Nunan/Bailey 2009: 213) werden solche unterschiedlichen, im Kontext des Unterrichts entstehenden Produkte überhaupt als potenzielle Forschungsdaten aufgelistet. Angesichts dieser Situation erscheint es sinnvoll, sich zunächst mit den Produkten selbst zu beschäftigen. 2 Möglichkeiten der Systematisierung
Aus den Tabellen 3 und 4 wird ersichtlich, dass es nicht einfach ist, eine einheitliche Klassifizierung unterrichtsbezogener Produkte vorzunehmen, weil sie anhand einer Reihe von Dimensionen näher beschrieben und systematisiert werden können: Autorenschaft
Wer produziert die Texte, Lerner_innen, Lehrer_innen, andere Akteur_innen?
Textsorten/ Genres
Welche Textsorten bzw. Genres werden erfasst?
Umfang
Wie umfangreich sind die Texte? (Länge, Dauer)
Medium
In welchem Medium liegen die Texte vor: mündlich, schriftlich, graphisch, multimodal?
Entstehungskontext
Ist der Entstehungskontext bekannt? Welche Details sind bekannt oder können nachträglich rekonstruiert werden (z. B. genaue Aufgabenstellung, beteiligte Personen, zur Verfügung gestellt Zeit, Hilfsmittel)
Zeitpunkt
Wann wurden die erfassten Produkte erstellt?
Ort
Fand die Textproduktion innerhalb des Unterrichts oder an außerunterrichtlichen bzw. außerschulischen Lernorten statt?
Art
Handelt es sich um einen offiziellen, halboffiziellen oder privaten Text? (vgl. Kapitel 5.2.1)
Anlass
Wurde die Textproduktion von den Verfasser_innen verlangt bzw. erwartet (z. B. gemeinsame Aufgabenentwicklung), wurde sie angeregt (z. B. Wettbewerbsbeitrag) oder entstand sie aus Eigenmotivation der Verfasser_innnen (z. B. Tagebuch)?
Erfassungskontext
Wurden die Produkte gezielt gesucht und oder lagen sie bereits vor? Von wem wurden sie zusammengestellt? Nach welchen Kriterien?
Natürlichkeit vs. Planung
Werden bzw. wurden die Produkte unabhängig von der Absicht, sie als Forschungsdaten zu verwenden, erstellt? Oder wird bzw. wurde der Unterricht bzw. die Situation unter Berücksichtigung des Forschungsinteresses gestaltet?
Ziele
Welche Ziele werden bzw. wurden mit den Texten in Bezug auf die Lehr-/ Lernsituation verfolgt und welche Ziele in Bezug auf die Forschungssituation?
Realisierung
Wer führt den Unterricht bzw. die Situation durch: Der bzw. die üblichen Akteur_innen (z. B. die Lehrkraft mit ihrer gewöhnlichen Lerngruppe) oder die Forscher_innen?
Tabelle 3: Dimensionen unterrichtsbezogener Produkte
5.2.7 Erfassen von unterrichtsbezogenen Produkten
199
Für die Analyse und Interpretation der Texte ist nicht nur die Kenntnis dieser Kontextdaten von Bedeutung, sondern ebenfalls, wie stark die Lerner_innen und Lehrkräfte inhaltlich, sprachlich und durch die jeweiligen Textsortenkonventionen festgelegt sind. Selbstverständlich hängt der Grad der Steuerung im Einzelfall von der konkreten Situation und der expliziten oder impliziten Zielsetzung bzw. Aufgabenstellung ab. So gibt es z. B. bei den Rollenspielen durch die Art der Vorgaben ein Kontinuum von inhaltlich und sprachlich sehr eng geführten bis zu sehr freien Formen. Trotzdem ist es sinnvoll, hier grundsätzlich zwischen stärker vorgegebenen und eher freien Textsorten sowie zwischen sprachlich eher imitativen bzw. reproduktiven sowie sprachlich produktiven bzw. kreativen Formen zu unterscheiden. Bei der folgenden Einteilung wird eine sehr weite Definition von Textsorte im Sinne von Regeln für die Produktion und für das Produkt in einer bestimmten Lehr-/Lernsituation zu Grunde gelegt. eher freie mündliche Textsorten
z. B. Unterrichtsgespräche (im Plenum, in Kleingruppen), Tandemgespräche, Rollenspiele ohne/mit wenigen Vorgaben, Rollengespräche, Gespräche beim gemeinsamen Lösen einer Aufgabe, Features
stärker vorgegebene mündliche Textsorten
z. B. Lehrwerks-Dialoge mit engen Vorgaben, Debatten, Sprachmittlungsaufgaben, Bildgeschichten
eher freie schriftliche Textsorten
z. B. Lerntagebücher mit offenen Impulsen, E-Mails, kreative Texte ohne formale Vorgaben, Essays, Portfolios
stärker vorgegebene schriftliche Textsorten
z. B. Einsetz- und Umformungsübungen, Inhaltsangaben, Charakteristiken, Erörterungen, Briefe, Gedichte, commentaire de texte, Sprachmittlungsaufgaben, Bildgeschichten
eher freie multimodale Textsorten
z. B. medial gestützte Präsentationen, Video-Clips, Kurzfilme, Fotoromane
stärker vorgegebene multimodale Textsorten
z. B. Nachrichten
Tabelle 4: Beispiele für eher freie und eher vorgegebene Textsorten
Selbstverständlich können je nach Forschungsfrage für die Auswahl und Systematisierung vorliegender Texte weitere Kriterien relevant sein, z. B. Themen und Inhalte, Funktion der Texte in der ursprüngliche Situation, Original-Fassung oder korrigierte bzw. überarbeitete Version, Endprodukt oder Produkt innerhalb eines (Überarbeitungs-)Prozesses (z. B. Portfolio). Gerade wenn die Produkte nicht nach vorher festgelegten Kriterien erstellt worden sind, ist es wichtig, sie vor der bzw. für die Analyse und Interpretation möglichst genau zu beschreiben.
200
5. Forschungsverfahren
3 Forschungsinteresse
Der große Gewinn der Arbeit mit unterrichtsbezogenen Texten liegt darin, dass diese nicht gezielt für Forschungszwecke verfasst wurden, sondern in natürlichen Kontexten entstanden sind. Das heißt, dass es keine durch Design und Instrumente sonst notwendigerweise einhergehenden Beeinflussungen, Begrenzungen und Artefakte gibt, sondern dass sie das Resultat authentischer Lehr-/Lern- bzw. Aus- und Weiterbildungssituationen in der Gegenwart oder der Vergangenheit sind. Aus diesem Grund können sie einen direkten und unverfälschten Einblick in die Realität der unterschiedlichsten fremdsprachenbezogenen Lehr- und Lernkontexte geben. Die Beschäftigung mit unter realen Praxisbedingungen entstandenen Produkten ist sowohl deswegen interessant, weil sie in einem umfassenden Sinn authentisch sind. Sie ist auch deswegen aufschlussreich, weil das Wissen über die Wirklichkeit des Fremdsprachenunterrichts und anderer fremdsprachenbezogener Lehr-/Lernsituationen noch immer sehr begrenzt ist. Bislang gibt es noch immer viel zu wenige empirische Studien, die nicht oder nur wenig arrangierten Fremdsprachenunterricht oder gar alltägliche Aus- und Fortbildungssituationen untersuchen. Im günstigsten Fall spiegeln unterrichtsbezogene Produkte eine große Bandbreite an unterschiedlichen Realisierungsformen einer Situation oder eines Themas, z. B. die unterschiedlichen Formate und Aufgabenstellungen, die Lehrer_innen für Klassenarbeiten in einer fünften Englischklasse wählen, oder die unterschiedlichen Formen, mit denen Schulen für Russisch, Chinesisch oder andere seltener gelernte Fremdsprachen werben. Wählt man nicht gerade Wettbewerbsbeiträge oder Produkte, die beim Elternabend oder beim Tag der Offenen Tür präsentiert werden, dürfte die Qualität der Produkte von sehr unterschiedlicher Qualität sein. Systematisch erfasst, liefern sie sowohl best practice- als auch worst practiceBeispiele. Auf jeden Fall aber gewähren sie Einblicke in professionelle Lern-, Lehr- und Aushandlungsprozesse, wie sie wirklich stattfinden. Im Unterschied zu den in Kapitel 5.2.6 beschriebenen Lerner_innenprodukten, die mit dem Ziel erhoben werden, sprachliche Lernstände bzw. sprachliche Fortschritte von Lerner_innen festzustellen, ermöglichen die erfassten Produkte, Einblick in komplexe Situationen, Prozesse und Ergebnisse des Unterrichts zu gewinnen. Gerade für die so genannten schwer messbaren Kompetenzen (vgl. Hu/Leupold 2008) und für Zielsetzungen, die über den Spracherwerb im engen Sinne herausgehen, wie z. B. die Anwendung von Strategien oder die Bereitschaft, sprachliche Risiken einzugehen, dürften unterrichtsbezogene Produkte über ein großes Forschungspotenzial verfügen. Sie ermöglichen sowohl, Lernprodukte in einzelnen Dimensionen (z. B. Inhalt, Textsortenadäquanz, sprachliche Leistung, Kreativität) als auch in ihrer Komplexität zu erfassen. Untersucht man Portfolios oder Gruppenhefter, die die unterschiedlichen Etappen einer Texterstellung enthalten, so können z. B. inhalts-und sprachbezogene Entscheidungen beim gemeinsamen Lösen einer Aufgabe nachgezeichnet oder die Genese bestimmter Lernergebnisse nachverfolgt werden. Und bei der Untersuchung von Lesetagebüchern z. B. kann nicht nur nachverfolgt werden, ob und wie Lerner_innen diese Aufgabe bewältigen, sondern auch, welche Aspekte sie im Einzelnen notieren. Die Untersuchung unterrichtsbezogener Lerner_innenprodukte ermöglicht ebenfalls Lerner_innen- (und Lehrer_innen-) Interessen zu identifizieren und Einblicke in die Organisation von Lernprozessen zu gewinnen. Nicht zuletzt erlaubt sie, Wissensstände über die unterschiedlichsten, im Unterricht ver-
5.2.7 Erfassen von unterrichtsbezogenen Produkten
201
handelten oder in den Unterricht eingebrachten Themen zu erheben. Dies wurde bislang lediglich für den bilingualen Sachfachunterricht erforscht, ist aber nicht zuletzt aufgrund der heftigen Kritik am vermeintlichen Verlust von Inhalten im kompetenzorientierten Unterricht von großem Interesse. Falls Lehrkräfte diese Produkte erforschen, kann eine Analyse und Auswertung der Texte ihrer Lerner_innen nach anderen als bewertungsrelevanten Kriterien zu neuen Einsichten führen, sind sie es doch i. d. R. gewohnt, sie lediglich unter dem Gesichtspunkt der Korrektur und Notengebung zu betrachten. Viele der hier genannten Aspekte von Lerner_innentexten werden bei der üblichen Korrektur nicht beachtet, obwohl sie möglicherweise ein neues Bild von den Leistungen und Potenzialen der Lerner_innen zeichnen. Das Gleiche gilt für Lehrer_innentexte. Zwar ermöglicht die Lehrerforschung bereits vielfältige Einblicke in die unterschiedlichsten Aspekte des Lehrer_innen-Seins aus der Sicht der Beteiligten. Jedoch ist es nicht dasselbe, ob die Entstehung von mündlichen oder schriftlichen Lehrer_innentexten zu Forschungszwecken geplant und damit auch die Forschungsabsicht bekannt ist, oder ob Lehrkräfte in ihren beruflichen Alltagssituationen Texte erstellen, die erst im Nachhinein zu Forschungszwecken verwendet werden. Denn erfahrungsgemäß ist es fast unmöglich, den Faktor der (von den Lehrkräften vermuteten) professionellen oder sozialen Erwünschtheit auszuschalten, wenn sie im Voraus um ihr Einverständnis gefragt werden. Werden sie jedoch erst im Nachhinein um Erlaubnis gebeten, die entstandenen Texte (z. B. Unterrichtsplanungen oder die Kommentierung von schriftlichen Lerner_innentexten) zu Forschungszwecken nutzen zu dürfen, kann es sein, dass sie Bedenken haben, weil diese Texte unter Alltagsbedingungen längst nicht immer so gestaltet worden sind, wie es dem Anspruch der Lehrpersonen an sich selbst entspricht. Um diesen Bedenken Rechnung zu tragen, könnte neben der Einhaltung der üblichen forschungsethischen Standards (s. Kapitel 4.6) die Möglichkeit, die Erlaubnis im Nachhinein zurückziehen zu können, die Bereitschaft erhöhen. 4 Forschungsmethodische Überlegungen
Auch wenn m.W. bislang noch keine Forschungsarbeiten vorliegen, die ausschließlich auf der Grundlage von erfassten Texten entstanden sind, so geben Lerner_innen- und Lehrer_innentexte, die in (weitgehend) authentischen Lehr-/Lernsituationen entstanden sind, Hinweise auf das Potenzial für die fremdsprachendidaktische Forschung sowie auf forschungsmethodische Herausforderungen. Als Beispiel sei die Dissertation von Peuschel (2012) aus dem universitären Fremdsprachenunterricht genannt, die insgesamt vier radiodaf-Projekte mit insgesamt 47 Teilnehmer_innen als Beobachterin begleitete. Diese Projekte richten sich an studentische DaF-Lerner_innen, die weitgehend selbstbestimmt einzelne Radiobeiträge bzw. ganze Sendungen erstellen und aufnehmen, die anschließend in einem Freien Radio ausgestrahlt werden. Die Forschungsarbeit verfolgt das Ziel, Erkenntnisse zum sprachlichen Lernen in einem solchen Projekt mit Beobachtungen zur Realisierung von gesellschaftlicher Teilhabe der Lerner_innen während ihres Lernprozesses zu verbinden. Die Basis bilden insgesamt 87 Tonaufnahmen (Beiträge der Sendungen und Probeaufnahmen) und 95 schriftliche Texte (schriftliche Vorlagen für die gesprochenen Radiobeiträge, Notizen, Stichpunkte und Vorversionen dieser Vorlagen sowie Übersetzungen bzw. Übersetzungsversuche von einzelnen Texten). Dazu kommen Beobach-
202
5. Forschungsverfahren
tungsprotokolle sowie aus zwei der vier Projekte Interviews und Lerner_innentagebücher. Im Mittelpunkt der Auswertungen stehen jedoch die mündlichen und schriftlichen Lerner_innenprodukte, die „einen Zwischenstatus zwischen natürlichen und elizitierten Daten“ haben (Peuschel 2012: 67, unter Verweis auf Larsen-Freeman/Long 1994: 26 ff.). Die Verfasserin betont dabei die Natürlichkeit und Authentizität der Produkte, da diese auch ohne ihre Studie entstanden seien (Peuschel 2012: 68). An dieser Forschungsarbeit kann man gut die Herausforderungen der Arbeit mit einem solchen Textkorpus erkennen. Zum einen stellen sich Fragen der Sicherung und Aufbereitung der Daten (im Folgenden Peuschel 2012: 72 – 83, vgl. auch Kapitel 5.2.6). Dazu zählen das Sampling, die Transkription der gesprochenen Texte, die Digitalisierung von handschriftlichen Lerner_innenprodukten (hierzu hat die Verfasserin ein eigenes Transliterationssystem entwickelt, das Korrekturen, Ergänzungen, Auslöschungen etc. abbildet) sowie die Erstellung einer Datenbank. Zum anderen stellen sich Fragen der Auswertung und der Ergebnisdarstellung. Die Verfasserin wählt das ethnografische Verfahren der dichten Beschreibung (Geertz 1995), mit dem die erfassten Produkte in drei Schritten rekonstruiert und analysiert werden. Dabei wird ähnlich wie beim hermeneutischen Zirkel (vgl. Kapitel 5.3.2) beständig zwischen übergreifenden Strukturen und Details der Dokumente hin- und hergewechselt. Besondere Sorgfalt verlangt bei diesem Projekt der Umgang mit den verschiedenen Versionen der Lerner_innenprodukte, damit die sprachlichen Entwicklungsverläufe nachvollzogen werden können, ohne sie ausschließlich an der zielsprachigen Norm zu messen. Insgesamt zeigt die Studie von Peuschel (2012), dass die sorgfältige Analyse von Lerner_innenprodukten detaillierte Einblicke in individuelle und kollaborative Prozesse der Texterstellung, in Entwicklungsverläufe bei der Textproduktion sowie in die Zusammenhänge zwischen sprachlicher Tätigkeit und Teilhabeoptionen erlaubt. An dem Beispiel wird deutlich, dass es je nach Fragestellung und Art der erfassten Produkte angemessene Verfahren der Aufbereitung, Analyse und Interpretation zu finden gilt. Anregungen für die Zusammenstellung und Aufbereitung lassen sich in diesem Handbuch vor allem in den Kapiteln 5.2.1 (Dokumentensammlung), 5.2.2 (Textzusammenstellung) sowie 5.2.6 (Erheben und Erfassen von Lernersprache und Korpuserstellung) finden. Anregungen für die Auswahl und die Analyse bzw. Interpretation finden sich vor allem in den Kapiteln 4.3 (Sampling), 5.3.2 (Hermeneutische Verfahren), 5.3.3 (Grounded Theory und Dokumentarische Methode), 5.3.4 (Inhaltsanalyse) sowie 5.3.5 (Typenbildung). Für den Umgang mit den erfassten Dokumenten gelten prinzipiell die gleichen Regeln wie für jede andere Forschung, d. h. auch die üblichen Gütekriterien (vgl. Kapitel 2) und forschungsethischen Prinzipien (vgl. Kapitel 4.6). Allerdings ergeben sich aus der Tatsache, dass es sich um Produkte handelt, die zunächst ohne Forschungsabsicht entstanden sind, spezielle Fragen. Zum Beispiel stellt sich die Frage, wie man mit Produkten umgeht, zu denen man nachträglich keine Erlaubnis der Verfasser_innen mehr einholen kann, denn es muss auf jeden Fall ausgeschlossen werden, dass die Verwendung ihnen auf irgendeine Weise schaden könnte. Es stellt sich ebenfalls die Frage, welche Kontextdaten notwendig sind, um die Produkte der Forschungsfrage entsprechend angemessen einordnen und interpretieren zu können, und wie man damit umgeht, wenn dies im Nachhinein nicht bzw. nicht vollständig möglich ist. Außerdem stellt sich die Frage, wie man die Art und die Anzahl der Dokumente erhält, die für die Bearbeitung der Forschungsfrage notwendig sind.
5.2.7 Erfassen von unterrichtsbezogenen Produkten
203
Daher erscheint es einfacher, wie in dem dargestellten Beispiel als Forscher_in in den entsprechenden Situationen anwesend zu sein. Jedoch wirft dies nicht nur die (theoretische) Frage auf, ob es sich dann noch um erfasste Produkte oder nicht doch um Erhebungssituationen im natürlichen Kontext handelt. Sondern es stellt sich vor allem die (praktische) Frage, ob man dann noch von unbeeinflussten, authentischen Dokumenten sprechen kann. Denn unbestreitbar verändert die Anwesenheit der Forscher_in die Situation und damit auch die Produkte, wobei dies im Fall der Lehrer_innenprodukte deutlich stärker der Fall sein dürfte als bei Lerner_innenprodukten. Eine andere Möglichkeit bestünde darin, als Forscher_in Einfluss auf die Entstehung der Produkte zu nehmen, z. B. indem man den Unterricht oder die Lehrkräftefortbildung, in der diese Produkte entstehen, mit plant. Aber auch hierbei steigt die Gefahr einer gewollten oder ungewollten Beeinflussung dieser Produkte. Daher sollten die möglichen Nachteile unvollständiger Kontextdaten oder zu weniger bzw. ungeeigneter Produkte sorgfältig gegen eine mögliche Einflussnahme auf die Produkte abgewogen werden. Aber selbst im Fall einer solchen Steuerung bzw. Beeinflussung durch die Forscher_in ist im Vergleich zu einer klassischen Erhebungssituation weiterhin der Vorteil einer deutlichen höheren Authentizität gegeben, weil die Produkte in den allen Beteiligten vertrauten, üblichen Situationen entstehen. Andere Fragen stellen sich, wenn die unterrichtsbezogenen Produkte vorliegen, bevor eine Forschungsfrage entwickelt worden ist. In dieser Situation ähnelt das Vorgehen der Forscher_in dem Vorgehen in historischen und ethnographischen Forschungsansätzen. Es gilt, zunächst die Produkte sorgfältig und umfassend zu sichten, um zu erkennen, welches Potenzial in ihnen erkennbar ist und was an ihnen besonders interessant für die fremdsprachendidaktische Forschung ist. Nach einer vorläufigen Formulierung der Forschungsfrage ist ein zirkuläres Vorgehen zu empfehlen, d. h. sich erneut in die Produkte zu vertiefen, um ihr Potenzial für die Beantwortung der Forschungsfrage zu überprüfen. Anschließend gilt es, die für die Beantwortung der Forschungsfrage angemessenen und für die Produkte gleichermaßen geeigneten Verfahren zu bestimmen, mit denen die erfassten Produkte gesichert, ausgewertet und interpretiert werden können, sowie diese vor ihrer Anwendung zu erproben. Weitere Fragen stellen sich, wenn die erfassten Produkte nur einen Teil der in einem Forschungsprojekt verwendeten Daten und Texte darstellen, wie z. B. in der Studie von KimesLink (2013) zum Umgang mit literarischen Texten im Englischunterricht der gymnasialen Oberstufe. Anhand von vier Fallstudien untersucht sie, wie die Rezeption von und Interaktion mit literarischen Gegenständen stattfindet und welche Ergebnisse dabei erzielt werden. Ein Hauptaugenmerk gilt der Wirkung der Aufgaben und unterrichtlichen Verfahren, mit denen Lehrkräfte die Textarbeit steuern (vgl. Kimes-Link 2013: 10 – 11). Um die sechs bis 19 Unterrichtsstunden umfassenden Einheiten in ihrer Komplexität rekonstruieren zu können, setzt sie eine Vielzahl von Erhebungsmethoden ein, durch die gleichzeitig eine Daten- und Perspektiventriangulation ermöglicht wird: Ton- und Videoaufzeichnungen des Unterrichts, Feldnotizen der Forscherin, ausgewählte schriftliche Arbeiten von Schüler_innen (Hausaufgaben, Arbeitsblätter, während des Unterrichts verfasste Texte, Klassenarbeiten), fotografierte Tafelbilder sowie retrospektive Interviews mit den Lehrkräften und Schüler_innen (Kimes-Link 2013: 98 – 105). Die Tafelbilder stellen sich „im Sinne eines breiten Datensatzes“ (Kimes-Link 2013: 103) als gute Ergänzung zu den Videoaufnehmen heraus, den schriftlichen Schüler_in-
204
5. Forschungsverfahren
nenprodukten kommt die Funktion zu, „weiteren Aufschluss über die Verstehensprozesse der Lernenden“ zu liefern (Kimes-Link 2013: 104). In der rekonstruktiven Analyse der Unterrichtseinheiten erhalten die Schüler_innentexte denn auch eine große Rolle: In allen vier Unterrichtsreihen werden jeweils mehrere unterschiedliche schriftliche Schülerarbeiten analysiert und in den retrospektiven Interviews werden die Schüler_innen zu ihnen befragt. Auch inhaltlich liefern sie einen bedeutenden Beitrag zur Beantwortung der Forschungsfrage, denn anhand der Analyse kann im Detail aufgezeigt werden, welche Funktion der jeweiligen Aufgabe bzw. dem jeweiligen Verfahren für den Prozess der literarischen Auseinandersetzung zukommt und welche Analyse- und Interpretationsleistungen die Schüler_innen jeweils erbringen. In Kombination mit der Analyse des Unterrichtsdiskurses kann Kimes-Link nachzeichnen, was die Lehrkraft davon aufgreift bzw. was davon nicht für den weiteren Lehr-/ Lernprozess verfügbar gemacht wird. So ermöglichen die Analyse und Interpretation der Lerner_innentexte es, die Eignung bestimmter methodischer Verfahren für das literarische Verstehen der Schüler_innen festzustellen (vgl. Kimes-Link 2013: 352 – 366). Durch die Analyse des Unterrichtsdiskurses über die Schülerarbeiten wird darüber hinaus deutlich, wie das Potenzial dieser Texte besser genutzt werden könnte (vgl. Kimes-Link 2013: 366 – 368). An der Studie von Kimes-Link (2013) wird neben dem forschungsmethodischen Potenzial einer solchen Fülle von erfassten und erhobenen Texten und Dokumenten zugleich die große Herausforderung im Umgang mit ihnen deutlich: Es muss jeweils sehr genau überlegt und transparent gemacht werden, welche Texte und Dokumente im Einzelnen ausgewählt werden, wie die unterschiedlichen Textsorten ausgewertet und interpretiert werden, wie sie aufeinander bezogen werden und welchen Textsorten dabei welche Funktion bzw. welcher Stellenwert zukommt. Dies verlangt neben einer breiten forschungsmethodischen Kenntnis und der Fähigkeit, die jeweiligen Analysen und Interpretationen jeweils funktional in die Gesamtauswertung einfließen zu lassen, nicht zuletzt einen enormen Dokumentationsaufwand, damit die Leser_innen die einzelnen Forschungsentscheidungen auch tatsächlich im Detail nachvollziehen können. Eine große Vielzahl unterschiedlicher Daten, Texte und Produkte kann tatsächlich zu „einem ganzheitlicheren Verständnis der Komplexität der beobachteten Lehr- und Lernsituationen und ihrer Bedingungsfaktoren“ führen, wie Freitag-Hild (2010: 158) in ihrer ähnlich angelegten Studie zum interkulturellen Lernen mit Migrationsliteratur im Englischunterricht bilanziert. Jedoch besteht bei einer so großen Menge an Texten und Dokumenten grundsätzlich die Gefahr, dass das Erkenntnispotenzial der einzelnen Quellen nicht ausgenutzt wird oder dass forschungsethisch nicht unproblematische „Datenfriedhöfe“ (s. Kapitel 3.3) entstehen. So konnte Kimes-Link „[a]ufgrund der Datenfülle“ (2013: 111) nur vier von sieben der so aufwändig dokumentierten Unterrichtsreihen in ihrer Studie darstellen. Dies zeigt, dass gerade bei einer Kombination von „erhobenen“ und „erfassten“ Texten und Dokumenten im Vorfeld sorgfältige forschungsmethodische und -ökologische Überlegungen anzustellen sind. ›› Literatur Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practitioners. New York: Routledge.
5.2.8 Testen
205
Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT. Geertz, Clifford (1995). Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme. 4. Auflage. Frankfurt/M.: Suhrkamp. Hu, Adelheid /Leupold, Eynar (2008). Schwer messbare Kompetenzen. In: Tesch, Bernd/Leupold, Eynar/ Köller, Olaf (Hg.) (2008). Bildungsstandards Französisch: konkret. Sekundarstufe I: Grundlagen, Aufgabenbeispiele und Unterrichtsanregungen. Berlin: Cornelsen Scriptor: 64 – 74. Kimes-Link, Ann (2013). Aufgaben, Methoden und Verstehensprozesse im englischen Literaturunterricht der gymnasialen Oberstufe. Eine qualitativ-empirische Studie. Tübingen: Narr. Nunan, David/Bailey, Kathleen M. (2009). Exploring Second Language Classroom Research. A Comprehensive Guide. Boston, MA: Heinle. Peuschel, Kristina (2012). Sprachliche Tätigkeit und Fremdsprachenlernprojekte. Fremdsprachliches Handeln und gesellschaftliche Teilhabe in „radiodaf“-Projekten. Baltmannsweiler: Schneider Verlag Hohengehren.
5.2.8 Testen Claudia Harsch 1 Begriffsklärungen
Tests werden in der Fremdsprachenforschung zur Erhebung, Messung und Beurteilung fremdsprachlicher Lernerleistungen eingesetzt. Sie gehören dem rationalistischen Paradigma an (s. Kapitel 2 und 3.3 in diesem Band; auch Cohen/Manion/Morrison 2011) und werden oft in Experimentaldesigns, in Prä-Posttestdesigns (s. etwa die Studie von Biebricher 2008, unten) oder Interventionsstudien verwendet (s. etwa die Studie von Marx 2005, unten). Tests können in der Fremdsprachenforschung einer Reihe von Zwecken dienen, etwa der punktuellen Kompetenzmessung, der Individualdiagnose, der Auswahl, der längsschnittlichen Untersuchung von Kompetenzentwicklung, dem Bildungsmonitoring, der Evaluation von Lehrmethoden und Lernerfolg, der Erforschung von Effekten bestimmter Interventionen oder der Untersuchung von Einflüssen und Zusammenhängen bestimmter Faktoren in Lehr- und Lernkontexten. Der Untersuchungszweck bestimmt, ob Tests als Kompetenztests, Lernerfolgskontrollen, Diagnosetests oder Einstufungstests entwickelt und eingesetzt werden. Für eine detaillierte Ausführung zu Formen und Funktionen von Sprachtests darf auf Grotjahn (2010) verwiesen werden. Je nach Einsatzbereich, sei es eine landesweite Untersuchung oder das eigene fremdsprachliche Klasszimmer, werden large-scale von small-scale Tests unterschieden. Oft werden in kleineren Untersuchungen, etwa innerhalb einer Lernergruppe, informelle Tests eingesetzt, wohingegen in groβangelegten Studien, bei denen es darum geht, generalisierbare Ergebnisse zu erhalten, formale Tests zum Einsatz kommen. Diese werden auch als standardisierte Tests bezeichnet, die einer Reihe von Qualitätsanforderungen genügen müssen (s. unten); standardisierte Tests werden im Unterschied etwa zu selbst erstellten Vokabel- oder Grammatiktests auf der Basis eines theoretischen Konstrukts entwickelt. Je nachdem, welche Berechtigungen und Folgen ein Test nach sich zieht, spricht man von high-stakes vs. low-stakes Tests. An
206
5. Forschungsverfahren
high-stakes Tests, ebenso wie an standardisierte Tests, werden in der Regel hohe formale, inhaltliche und ethische Anforderungen gestellt.14 Die verschiedenen Testarten verlangen unterschiedliche Konstrukte und Inhalte: Während eine Lernerfolgskontrolle auf die Bereiche und Inhalte ausgerichtet ist, die in einem bestimmten Zeitraum in einem bestimmten Kontext gelehrt wurden, ist ein Kompetenztest nicht curricular orientiert, unabhängig von einem spezifischen Lehr-/ Lernkontext und erfasst handlungsbezogene Sprachkompetenzen. Diagnosetests wiederum müssen in der Lage sein, detaillierte Aspekte so zu erfassen, dass Rückschlüsse auf Stärken und Schwächen der Lernenden gezogen werden können; hier ist eine relativ große Anzahl an Testaufgaben (Items) nötig, um zu verlässlichen Ergebnissen zu kommen. Ein Einstufungstest hingegen hat zum Ziel, mit relativ geringem Aufwand die Probanden zu bestimmen, die zu einem bestimmten Programm zugelassen werden; hier sind Tests denkbar, die mit Indikatoren arbeiten (z. B. CTests oder Vokabeltests), die sich als gute Prädiktoren für eine Klassifizierung von Lernenden erwiesen haben, die aber nicht ausgelegt sind, Handlungskompetenzen zu erfassen. Neben diesen grundsätzlichen Einteilungen in verschiedene Testarten gibt es weitere Begrifflichkeiten, die hier kurz erläutert werden sollen. Tests können formativ oder summativ eingesetzt werden, wobei formatives Testen den lernfördernden und entwickelnden Aspekt in den Vordergund rückt, während summative Tests auf das fokussieren, was Lernende zu einem bestimmten Zeitpunkt beherrschen. Die Ausrichtung eines Tests auf eine bestimmte Bezugsgruppe oder auf inhaltlich-qualitative Kriterien bestimmt, ob ein Test als norm- oder kriterienorientiert klassifiziert wird; dies wiederum wird beeinflusst vom Einsatzzweck: Ein Test zur Lernerfolgskontrolle etwa kann normorientiert eingesetzt werden, wenn es darum geht, die 10 % Leistungsstärksten einer Lernergruppe zu identifizieren; ist der Lernerfolg hingegen durch das Erreichen eines bestimmten Standards oder Kriteriums bestimmt, so ist der Test kriterienorientiert. All diese Klassifizierungen schlieβen sich nicht gegenseitig aus, vielmehr sind sie auf einem Kontinuum angeordnet und Überschneidungen sind denkbar (z. B. Harsch 2012). Die folgende Tabelle gibt einen Überblick über die hier genannten Begriffe: Testzwecke (Auswahl)
• punktuelle Kompetenzmessung • Individualdiagnose • längsschnittliche Untersuchung von Kompetenzentwicklung • Bildungsmonitoring • Evaluation von Lehrmethoden • Erforschung von Interventionseffekten • Untersuchung von Einflüssen und Zusammenhängen bestimmer Faktoren in Lehr- und Lernkontexten
Einsatz
• large-scale – landesweite Untersuchungen wie etwa DESI oder der Ländervergleich
• small-scale – etwa das eigene Klassenzimmer 14 Hier darf auf die Qualitätsstandards der internationalen Testgesellschaften verwiesen werden, vgl. etwa Association of Language Testers in Europe (ALTE 2001), European Association of Language Testing and Assessment (EALTA 2006), oder International Language Testing Association (ILTA 2007).
5.2.8 Testen
207
large-scale – formale, standardisierte Tests
– operationalisieren ein theoretisches Konstrukt – müssen Gütekriterien genügen – formal erprobt (pilotiert) – generalisierbare Ergebnisse bei repräsentativer Stichprobe small-scale – kleine Stichprobe, oft das eigene Klasszimmer
– keine generalisierbaren Ergebnisse Auswirkungen
• high-stakes Tests ziehen Berechtigungen nach sich • low-stakes Tests haben i. d. R. keine an sie gebundenen Berechtigungen
Testarten
• Kompetenztest
erfasst handlungsbezogene Sprachkompetenzen, unabhängig von Curricula und spezifischen Lehr-/Lernkontexten
• Lernerfolgskontrolle
ist ausgerichtet auf die Bereiche und Inhalte, die in einem bestimmten Zeitraum in einem bestimmten Kontext gelehrt wurden
• Diagnosetest
erfasst durch groβe Anzahl von Aufgaben detaillierte Aspekte, ermöglicht Rückschlüsse auf Stärken und Schwächen der Lernenden
• Einstufungstest
bestimmt mit geringem Aufwand Zulassung zu einem bestimmten Programm, oft mittels Indikatoren
formativ / summativ
• formative Beurteilung: lernfördernd und entwickelnd • summative Tests: Fokus auf Können zu einem bestimmten Zeitpunkt
norm- / kriterienorientiert
• normorientiert: Ausrichtung eines Tests auf eine bestimmte Bezugsgruppe
• kriterienorientiert: Ausrichtung auf inhaltlich-qualitative Kriterien
Tabelle 1: Übersicht Begrifflichkeit zum Testen
Eine Besonderheit von Tests sei hier erwähnt: In der Fremdsprachenforschung kommt Tests eine duale Rolle zu. Sie können als Forschungsinstrument zur Datenerhebung und Leistungsmessung dienen. Sie können aber auch zum Gegenstand der (interdisziplinären) Forschung werden, wenn es darum geht, neu entwickelte Instrumente auf ihre Güte hin zu überprüfen und sie zu validieren (Testanalyse und ‑validierung, z. B. Bachman/Palmer 2010, Lienert/ Raatz 1998), oder Auswirkungen von Tests zu untersuchen (prädiktive, systemische Validität, z. B. Weir 2005; Washback-Studien, vgl. etwa Green 2007, Wall 2005). 2 Gütekriterien
Da in beiden Einsatzbereichen die Güte der Testinstrumente eine zentrale Rolle spielt, sollen hier die wichtigsten Qualitätskriterien aufgelistet werden (Bachman 2004, Bachman/Kunnan 2005, Douglas 2010, Grotjahn 2007). Die bekanntesten Kriterien umfassen Reliabilität und Validität. Reliabilität bezieht sich auf die Messkonsistenz oder Zuverlässigkeit der Messung und wird in der Regel statistisch geprüft, etwa durch den Index Cronbachs Alpha. Relia-
208
5. Forschungsverfahren
bilität umfasst auch Aspekte der Bewerterkonsistenz, welche ebenfalls statistisch ermittelt wird (s. etwa die Studien von Harsch/Martin 2012, 2013). Objektivität bezieht sich auf die Unabhängigkeit der Beurteilung vom Beurteiler oder dem Beurteilungsinstrument, und ist eine Voraussetzung für Reliabilität, ebenso wie Reliabilität als Voraussetzung der Validität betrachtet wird. Validität bezieht sich auf die Frage, ob ein Test das misst, was er zu messen vorgibt, ob er also die Kompetenzen und Fähigkeiten erfasst, auf die hin er ausgelegt wurde. Validität wird zunehmend von einer qualitativen Warte aus diskutiert und untersucht (z. B. Kane 2001, Messick 1989, Weir 2005 oder die Validierungsstudie von Rossa 2012, die unten vorgestellt wird). Die Validierung eines Tests zieht sich idealiter durch den gesamten Testentwicklungsprozess und den eigentlichen Testeinsatz, um in jeder Phase empirische Belege sammeln zu können (s. unten). Manche Forscher beziehen auch die Auswirkungen von Tests in die Validitätsforschung mit ein. Die Konsequenzen und Auswirkungen von Tests auf die Kontexte, in denen sie zum Einsatz kommen, werden im Bereich der so genannten consequential validity (Weir 2005) oder auch systemischen Validität untersucht. Dem Kriterium der Praktikabilität kommt insofern Bedeutung zu, als dass Testentwicklung ein ressourcenintensives Vorhaben ist, so dass begrenzte Ressourcen Auswirkungen auf die Testgüte haben können. Praktikabilität spielt aber auch beim Einsatz von Tests eine Rolle, denn die Durchführung der Tests muss praktikabel und die Beantwortung der Testaufgaben machbar sein. Vermehrt werden auch ethische Aspekte als Qualitätskriterium diskutiert (vgl. etwa den ILTA Code of Ethics 2007 oder McNamara/Roever 2006); Testethik umfasst Aspekte der Testentwicklung ebenso wie die des Testeinsatzes und des Nutzens von Testergebnissen. Hier sollten, wie bei allen anderen Forschungsinstrumenten zur Datengewinnung, die geltenden Standards der Forschungsethik zur Anwendung kommen (s. Kapitel 4.6). 3 Testentwicklung und -analyse
Im Folgenden werden zentrale Schritte der Testentwicklung und -analyse näher beleuchtet, da sie eine unmittelbare Auswirkung auf die Güte der Testinstrumente haben. Auch wenn in der fremdsprachlichen Forschung oft bestehende und bereits validierte Tests als Forschungsinstrumente eingesetzt werden, ist dennoch Grundlagenwissen im Bereich der Testentwicklung und -analyse nötig, um das geeignete Instrument auszuwählen15. Testentwicklung und Testanalyse gehören einem iterativen, zyklischen Prozess an, der im Idealfall mit der Bedarfsanalyse beginnt; hier werden Einsatzzweck, Zielgruppe und zu testende Bereiche (Konstrukte) bestimmt, ehe das eigentliche Testentwicklungsprojekt geplant werden kann. Sind Fragen der Praktikabilität und der Zuständigkeiten in der Testentwicklung geklärt, muss der Test in so genannten Spezifikationen zunächst charakterisiert und beschrieben werden. Insbesondere der Definition des zugrunde liegenden Konstrukts kommt besondere Bedeutung zu, ist dies doch die Grundlage der weiteren Testentwicklung und Validierung. Auf Basis der Spezifikationen können das Konstrukt operationalisiert und Testaufgaben konstruiert werden. Diese müssen in einem weiteren Schritt pilotiert werden; die statistische und qualitative Analyse (s. unten) der Pilotdaten liefert erste Hinweise zur Güte und sollte idealiter zur Revision derjenigen Testaufgaben führen, die den Gütekriterien nicht genügen. In dieser Phase können qualitative Experteneinschätzungen zur Inhalts- und 15 Vgl. auch die Checkliste zur Auswahl bestehender Testinstrumente in Harsch 2012: 161 – 162.
5.2.8 Testen
209
Konstruktvalidierung der Testaufgaben eingesetzt werden, ebenso wie Verfahren der Introspektion (s. Kapitel 5.2.5), um mentale Prozesse der Testprobanden zu untersuchen und so zur kognitiven Validierung beizutragen. Revidierte Aufgaben sollten neu pilotiert und reanalysiert werden. Genügen die Tests den Gütekriterien, können sie zum Einsatz kommen (s. unten). Die Daten der eigentlichen Testdurchführung müssen wiederum einer statistischen und qualitativen Analyse standhalten, um zu verlässlichen Ergebnisrückmeldungen zu kommen. Nun können sich Validierungsstudien anschlieβen, etwa um kriterienbezogene Validität im direkten Vergleich zu bereits validierten Testinstrumenten zu untersuchen, oder um Impact- und Washback-Effekte zu erforschen. Tests, die regelmäßig zum Einsatz kommen, sollten fortlaufend auf ihre Güte und ihre Effekte hin evaluiert und ggf. revidiert werden. Testanalysen umschließen i. d. R. qualitative und quantitative Aspekte (z. B. Bachman 2004, Bortz/Döring 2002, Lienert/Raatz 1998). Statistische Itemanalysen können mittels der klassischen Testtheorie oder mittels der Item-Response-Theory (IRT) ausgeführt werden, wobei nur letztere relativierbare Aussagen in Bezug auf die Schwierigkeiten der Testaufgaben zulassen. Klassische Analysen hingegen beziehen sich immer nur auf die Probandengruppe, die den Test auch tatsächlich abgelegt hat. Regelmäßig werden Testaufgaben klassisch auf ihre Reliabilität, ihre Lösungshäufigkeiten und ihre Diskriminanz untersucht, ebenso wie auf die Funktionalität ihrer Distraktoren und auf etwaigen Bias, die Begünstigung oder Benachteiligung bestimmter Gruppen. IRT-Analysen untersuchen diese Aspekte ebenfalls, doch sie haben den Vorteil, dass sie Probandenfähigkeiten und Aufgabenschwierigkeiten auf derselben Skala abbilden; allerdings benötigt man für sie hinreichend große Stichproben (s. auch Kapitel 5. 3. 11). Testaufgaben, die produktive Fertigkeiten erfassen, verlangen zusätzlich die Konstruktion von Bewertungskriterien und die Untersuchung der Bewerterreliabilitäten. Bei der Konstruktion der Bewertungskriterien und -raster können theoretische Modelle oder empirische Lernerleistungen als Basis genutzt werden (Fulcher 1996); die Bewertungsraster müssen erprobt und validiert werden (vgl. die Validierungsstudie von Harsch/Martin 2012). Bei der Untersuchung der Bewerterreliabilität können IRT-Analysen (Multifacetten-Modelle, Eckes 2011) wertvolle Hilfe leisten, da sie Bewerterstrenge, Aufgabenschwierigkeiten und Probandenfähigkeiten berücksichtigen (z. B. die Studie von Harsch/Rupp 2011). Dazu können qualitative Studien zum Bewerterverhalten treten, um die Güte und Validität der Auswertung zu evaluieren (z. B. Lumley 2005 oder Arras 2007). 4 Einsatz von Tests als Untersuchungsinstrument
Im Folgenden wird anhand von Forschungsarbeiten dargestellt, wozu Tests als Untersuchungsinstrumente in der Fremdsprachenforschung eingesetzt werden können. Dabei werde ich auf zwei Bereiche eingehen, den der Interventionsstudien und den Bereich der standardisierten Leistungsmessungen. Die Referenzarbeit von Biebricher (2008) und die Arbeit von Rumlich (2012) illustrieren Interventionsstudien mit (quasi-) experimentalen Prä-/Posttest-Designs. In diesem Untersuchungsdesign helfen Tests, Effekte von Interventionen festzustellen. Dabei werden Tests vor und nach der Intervention eingesetzt, um Leistungsunterschiede zu messen. Hier ist zu beachten, dass vergleichbare Tests zum Einsatz kommen müssen, um Effekte der Intervention,
210
5. Forschungsverfahren
und nicht etwa Einflüsse der unterschiedlichen Tests zu messen. Dabei kann es helfen, standardisierte und bereits kalibrierte Testinstrumente zu wählen, deren Schwierigkeiten bekannt sind und die ein vergleichbares Konstrukt messen. Bei Biebricher (2008) etwa kommen erprobte und validierte standardisierte Testaufgaben aus dem Cambridge Proficiency EnglishTest PET zur Prä- und Posttestung zum Einsatz, um die Auswirkungen extensiven Lesens auf die Lese- und Sprachkompetenz von Realschülern zu untersuchen; diese werden während der Intervention durch nicht-standardisierte Leseproben begleitet. In einem ähnlichen quasi-experimentellen Design untersucht Rumlich (2012) die Auswirkung bilingualen Unterrichts in einer Longitudinalstudie. Zu drei Messzeitpunkten setzt er erprobte Tests ein, unter anderem die C-Tests aus der KESS-Studie und zwei Schreibaufgaben aus VERA6. Die Referenzarbeit von Marx (2005) illustriert ein Studiendesign, das zwei balancierte Gruppen vergleicht (nur die Experimentalgruppe erhält eine Intervention). Hierbei liegt der Fokus lediglich auf dem Vergleich des Lernstands zwischen den beiden Gruppen, und nicht wie oben auf dem Lernzuwachs, sodass eine Prä-/Posttestung entfallen kann. Da in beiden Gruppen dieselben informellen Lernerfolgstests parallel eingesetzt werden, sind die Ergebnisse direkt vergleichbar. Kommen selbst entwickelte Tests zum Einsatz, ist deren Gütebestimmung wichtig (s. oben). Es gilt dabei, die oben erwähnten Schritte der Testentwicklung zu beachten, um von einem theoriegeleiteten Konstrukt zu einem validen und reliablen Messinstrument zu kommen. Biebricher (2008) dokumentiert eine gelungene C-Test-Entwicklung, ausgelegt auf ihre Studienzwecke und die Zielgruppe hin. Bei allen Testeinsätzen muss beachtet werden, dass diese in der Zielgruppe zunächst pilotiert werden sollten, selbst wenn standardisierte und kalibrierte Tests ausgewählt wurden, wie dies zum Beispiel von Biebricher (2008) oder Rumlich (2012) berichtet wird. Kommen selbst entwickelte Tests zum Einsatz, ist die Pilotierung umso wichtiger, will man doch sicherstellen, dass die Tests das intendierte Konstrukt valide messen und dass die Testversionen der Prä- und Posttestung vergleichbare Ansprüche stellen. Biebricher (2008) etwa schaltet ihrer Hauptuntersuchung eine Pilotphase und eine Vorstudie vor, um die Testinstrumente in ihrer Zielgruppe auf ihre Reliabilität und Eignung zu prüfen. Bei Prä-/Posttest-Designs sollte bedacht werden, dass nicht derselbe Test zu beiden Messzeitpunkten eingesetzt wird, um nicht Interventionseffekte mit dem Lernzuwachs zu konfundieren, der alleine durch das wiederholte Ablegen desselben Tests erzielt wird. Dazu kann es hilfreich sein, zwei vergleichbare Testversionen, etwa auf Basis der Pilotierung, zu erstellen, und diese zu beiden Zeitpunkten in einem gekreuzten Design einzusetzen: In beiden Gruppen (Experimental- und Kontrollgruppe) kommen zu jedem Messzeitpunkt beide Versionen zum Einsatz, doch jeder Schüler bearbeitet je eine andere Version zu den beiden Zeitpunkten. Wenn beide Versionen so genannte Ankeritems enthalten (Testaufgaben, die in beiden Versionen vorkommen), können die Testergebnisse verlinkt werden. Bei genügend großer Stichprobe leisten IRT-Analysen (s. oben) wertvolle Hilfe. Um Veränderungen im Leistungszuwachs zu verschiedenenen Messzeitpunkten und in verschiedenen Gruppen zu untersuchen, werden i. d. R. statistische Signifikanztests und Varianzanalysen (ANOVA) durchgeführt. Nicht nur Tests, auch die Zusammensetzung und Auswahl der Untersuchungsgruppen kann die Forschungsergebnisse beeinflussen. Um SchülerInnen in vergleichbar leistungsstarke Untersuchunggruppen (in Experimentaldesigns Experimental- und Kontrollgruppen
5.2.8 Testen
211
genannt) einzuteilen, können Einstufungstests hiflreiche Dienste leisten. Hier nutzt etwa Biebricher (2008) die erwähnten selbst entwickelten C-Tests zur Gruppeneinteilung. Aber auch wenn es darum geht, Probanden auszuwählen, die sich in ihrer Leistungsstärke unterscheiden, können C-Tests zum Einsatz kommen, wie Rossa (2012) exemplifiziert: Er nutzt die in der DESI-Studie erprobten C-Test, um leistungsstarke und leistungsschwache SchülerInnen auszuwählen, deren Hörverstehensprozesse er dann duch Lautes Denken untersucht und vergleicht. Die Testinstrumente in Interventionsstudien werden in der Regel flankiert durch weitere, auch qualitative Instrumente, um die Testdaten anzureichern und quantitative Befunde erklären zu können. Marx (2005) etwa nutzt retrospektive Befragungen (s. Kapitel 5.2.4); Biebricher (2008) setzt neben Fragebögen Beobachtungen (s. Kapitel 5.2.3), Leitfadeninterviews und impulsgestützte Stellungnahmen sowie nicht-standardisierte Leseproben ein. Der Forschungsbereich der standardisierten Leistungsuntersuchungen soll hier durch die large-scale Schulleistungsstudie Deutsch-Englisch Schülerleistungen International (DESI; DESI-Konsortium 2008) und den KMK-Ländervergleich (Köller/Knigge/Tesch 2010) illustriert werden. Bei DESI wurden Sprachkompetenztests in einem Längsschnittdesign summativ zum Systemmonitoring für den Sprachunterricht eingesetzt, begleitet durch Fragebögen und Unterrichtsvideografie: „Als bundesweit repräsentative Untersuchung und durch ihre breitgefächerte Anlage ermöglicht die Studie differenzierte Aussagen über Lehr-Lernprozesse und den Erwerb sprachlicher Kompetenzen, die für Unterrichtspraxis, Lehrerbildung und Bildungspolitik gleichermaßen wichtig sind.“ (Klieme 2008: 1). Hierzu wurden die Kompetenztests und Fragebogeninstrumente auf Basis von Curriculumanalysen und theoretischen Konstrukten entwickelt, pilotiert und validiert, ehe sie zum Einsatz kamen (Beck/Klieme 2007). Die repräsentative Stichprobe erlaubt Rückschlüsse auf die Gesamtheit der Schülerinnen und Schüler in der neunten Jahrgangsstufe. Diese Generalisierbarkeit ist auch für den KMK-Ländervergleich gegeben, der dem Bildungsmonitoring dient. Den Rahmen des Bildungsmonitoring bilden die 2003 bzw. 2004 verabschiedeten Bildungsstandards der KMK, die die „Gleichwertigkeit der schulischen Ausbildung und die Schulabschlüsse in den Ländern“ (Köller/Knigge/Tesch 2010: 9) sicherstellen sollen. Folgerichtig wurden die Bildungsstandards in kompetenzorientierte Testaufgaben operationalisiert, die am IQB Berlin pilotiert, validiert und normiert wurden (s. hierzu auch die Ausführungen unten in Abschnitt 6). Der Ländervergleich überprüft nun, inwieweit die Bildungsstandards in den Ländern auch erreicht werden. Dabei ist zu beachten, dass solche großangelegten Schulleistungsstudien nicht den Anspruch erheben, Aussagen bezogen auf individuelle Lernende oder deren individuelle Lernfortschritte zu treffen. Es geht vielmehr um generalisierbare Rückschlüsse auf die Gesamtheit der Lernenden im Schulsytem. Testeinsatz und Durchführung
Die folgenden Ausführungen wenden sich wieder den small-scale Studien zu, denn FremdsprachenforscherInnen werden Tests meist in Studien einsetzen, die vergleichsweise klein angelegt sind; große Schulleistungsstudien werden i. d. R. durch Testinstitute durchgeführt. Ist das Forschungsdesign geplant, die Konstrukte bestimmt, und die Testinstrumente und Bewertungsschemata entwickelt, erprobt und auf ihre Güte hin analysiert, können sie einge-
212
5. Forschungsverfahren
setzt werden. Alternativ können existente Tests zum Einsatz kommen, wenn sie auf ihre Passung für ein bestimmtes Forschungsvorhaben geprüft sind und Nutzungsrechte eingeholt werden konnten. Vor jedem Einsatz eines existenten Testinstruments ist zu prüfen, ob der Einsatzbereich, in dem ein bestimmter Test verwendet werden soll, auch mit den Zwecken, Bereichen und Zielgruppen vereinbar ist, für die der Test ursprünglich validiert wurde. Andernfalls riskiert man, nicht-valide Daten zu erheben. Sind Konstrukte, Kontexte, Zwecke und Ziele vereinbar, muss eine geeignete Stichprobe gefunden und Genehmigungen zur Datenerhebung eingeholt werden. Gerade bei Untersuchungen an Schulen müssen gesetzliche Regelungen (etwa Elterngenehmigungen) beachtet werden, die je nach Bundesland variieren. Der Testeinsatz selbst, soll er unter standardisierten Bedingungen ablaufen, erfordert eventuell die Schulung von Testleitern und das Erstellen von Testleiterskripten, die helfen den Ablauf am Testtag zu regeln. Werden Hörverstehens- oder Hör-/Sehverstehenstests eingesetzt, müssen geeignete Abspielgeräte bereitgestellt werden. Die Durchführung mündlicher Tests sollte durch geschulte Personen durchgeführt werden; die Lernerleistungen sollten idealiter für spätere Analysen aufgezeichnet werden. Ist dies nicht möglich, müssen sie simultan während der Erhebung bewertet werden; dies könnte jedoch die Transparenz und Nachvollziehbarkeit der Bewertung beeinflussen. Die Bewertung produktiver Leistungen erfordert ein Bewertertraining. Hier haben sich so genannte Benchmark-Texte bewährt, Lernerleistungen also, die ein bestimmtes Kriterium und Niveau illustrieren. Sie können beispielsweise aus den Pilotierungen gewonnen werden. Generell muss die Auswertung der Tests geplant und organisiert werden, ebenso wie die Dateneingabe, Bereinigung und Aufbereitung, bevor die Daten analysiert werden können. Es empfiehlt sich, den teilnehmenden Probanden (Lernenden wie Lehrenden) (ggf. vorläufige) Ergebnisse zeitnah rückzumelden. Hierfür sollten die Ergebnisse in einer für die Teilnehmer nützlichen Weise aufbereitet werden. Für Rückmeldung und weitere Auswertungen muss entschieden werden, wie die Daten ausgewertet und aufbereitet werden sollen. Dies hängt wiederum vom Zweck der Untersuchung und den Forschungsfragen ab, ebenso wie von der Gröβe der Stichprobe. Bei groβen Stichproben werden Testdaten i. d. R. IRT-skaliert (s. oben). Die resultierende Kompetenzskala kann ggf. in Kompetenzniveaus eingeteilt werden über so genannte Standard-Setting Verfahren (s. z.B. Cizek/Bunch 2007 für einen Überblick über verschiedene Methoden). Oft werden Fremdsprachentests dabei an den Gemeinsamen europäischen Referenzrahmen (Europarat 2001) angebunden; das Manual for Relating Examinations to the CEFR (Council of Europe 2009) gibt Hilfestellung bei der Durchführung. Ein Beispiel für solch eine Anbindungsstudie findet sich in Harsch/Pant/Köller (2010). 5 Testinstrumente als Untersuchungsgegenstand
Wie oben angedeutet, kommt Tests in der Fremdsprachenforschung eine duale Bedeutung zu – sie werden oft vor ihrem eigentlichen Einsatz zum Gegenstand der Forschung. Dieser Bereich soll hier knapp anhand von Validierungsstudien, begleitender Forschung in der Testentwicklung und Impact-/Washback-Studien dargestellt werden. Den Bereich der Validierungsstudien soll die Arbeit von Rossa (2012) illustrieren. Er untersucht die Konstruktvalidität der Hörverstehenstestaufgaben aus der DESI-Studie. Mittels
5.2.8 Testen
213
5.2.8 Testentwicklung
zur Erhebung, Messung und Beurteilung fremdsprachlicher Lernleistungen und Lernstände Bedarfsanalyse
Validierung als begleitender Prozess von Bedarfsanalyse bis Testevaluation
Planung
Spezifikation Konstruktdefinition
Operationalisierung: Konstruktion der Items/tasks und Bewertungskriterien Pilotierung Analyse Revision
Testeinsatz Testauswertung
Testevaluation
Zwecke
Gütekriterien
Kompetenztests, Diagnosetests, Lernerfolgskontrollen, Einstufungstests etc.
Reliabilität, Validität, Objektivität, Praktikabilität, Testethik
Grafik nach: Council of Europe (2011) Manual for Language Test Development and Examining, fig. 15, S. 47 http://www.coe.int/t/dg4/linguistic/ManualLanguageTest-Alte2011_EN.pdf)
214
5. Forschungsverfahren
introspektiver Verfahren (s. Kapitel 5.2.5) elizitiert er mentale Prozesse von Testprobanden, wobei er kompetente und weniger kompetente Lerner vergleicht; die Gruppenzuteilung erfolgt mittels der DESI C-Tests. Die Referenzarbeit von Arras (2007) kann ebenfalls dem Bereich der Validierungsstudien zugeordnet werden. Sie erforscht Beurteilerstrategien und Prozesse bei der Bewertung schriftlicher Leistungen im TestDaF. In ihrer Studie werden introspektive Erhebungsverfahren eingesetzt, um Beurteilungsvalidität zu untersuchen. Die begleitende Forschung in der Testentwicklung wird am Beispiel der Studien von Harsch/Rupp (2011) und Harsch/Martin (2012, 2013) illustriert, die die Testentwicklung zur Evaluation der Bildungsstandards am IQB Berlin, insbesondere die Entwicklung der Schreibaufgaben und die Validierung der Bewertungsskalen, begleitete. Der Bereich der Impact-/Washback-Studien gewinnt zunehmende Bedeutung, um die Auswirkungen von Tests in ihren bildungs- und sozialpolitischen Kontexten zu untersuchen. Eine Übersicht über solche Studien findet sich in Taylor/Weir (2009). Green (2007) und Wall (2005) beispielsweise untersuchen die Auswirkungen von high-stakes Tests auf Fremdsprachenunterricht in verschiedenen Kontexten. 6 Potenzial des Einsatzes von Testinstrumenten
Testinstrumente sind in zahlreichen Studien erfolgreich eingesetzt worden, um empirische Daten zur Leistungsmessung zu gewinnen. Selbstredend erfordern Testentwicklung und Testeinsatz ein ausreichendes Maß an Sachwissen und Expertise, um verantwortungsvoll mit Tests und ihren Auswirkungen umzugehen, sei es in der Forschung, im Klassenzimmer oder in der Bildungspolitik. Dieser Bereich der assessment literacy erfährt zunehmend Aufmerksamkeit, scheint es doch gerade hier großen Bedarf unter allen an der Beurteilung Beteiligten zu geben (z. B. Fulcher 2012). Zur Förderung der assessment literacy bieten Standardwerke zu Testen und Beurteilung einen ersten Einstieg (etwa Bachman/Palmer 2010, Dlaska/Krekeler 2009, Douglas 2010, Fulcher 2010); die Internetseite von Glenn Fulcher (http://languagetesting.info) bietet aktuelle Informationen zu Beurteilen und Testen. Darüber hinaus bieten Gesellschaften wie ALTE (www.alte.org), EALTA (www.ealta.eu.org) oder ILTA (www.ilta.org) regelmäßig Fortbildungsangebote in Form von Sommerschulen und Workshops an. Standardisierte Testverfahren haben gegenüber anderen Formen der Leistungserhebung den Vorteil, vergleichbare und verlässliche Daten zu erheben, die bei geeigneter Stichprobengröße und -zusammensetzung Aussagen auf Populationen und Vergleiche über Bezugsgruppen hinweg ermöglichen. In Interventionsstudien sind reliable und valide Testdaten eine der Voraussetzungen, um Effekte von Interventionen zu evaluieren. Tests erlauben auch die Untersuchung des Einflusses bestimmter Faktoren auf die Kompetenzentwicklung, sowie die Erforschung der Struktur von Kompetenzen, etwa über Regressionsanalysen und Strukturgleichungsmodelle (vgl. Kapitel 5. 3. 11). Diese empirisch basierten Studien sind in der deutschen Fremdsprachenforschung, wie überhaupt in der deutschen Bildungspolitik, ein relatives Novum und werden teils kritisch rezipiert. Bei aller berechtigten Kritik (etwa gegen extensives Testen, das alleine nicht zur Verbesserung des Unterrichts führt) muss jedoch das Potential guter Tests als Forschungs- und Evaluationsinstrument erkannt werden: Zur Erhebung reliabler valider empirischer Daten zu bestimmten Messzeitpunkten sind Tests unerlässlich; zudem ermöglichen standardisierte Tests Vergleichbarkeit und Gerechtigkeit
5.2.8 Testen
215
dadurch, dass derselbe kalibrierte und validierte Maßstab an alle Testteilnehmer angelegt wird. Werden Tests um qualitative Instrumente und Zugänge ergänzt, wie dies häufig in der Interventions- und testbegleitenden Forschung geschieht, so erlauben solche mixed-methods Forschungsdesigns (s. Kapitel 3.3; Creswell/Plano Clark 2007) eine umfassendere Sicht auf die Forschungsfragen, als dies mit rein quantitativen oder rein qualitativen Designs möglich wäre. ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung Test Deutsch als Fremdsprache (TestDaF). Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Association of Language Testers in Europe (2001). ALTE principles of good practice for ALTE examinations. [Online: http://alte.columnsdesign.com/setting_standards/code_of_practice.] (16. 02. 2015) Bachman, Lyle F. (2004). Statistical analyses for language assessment. Cambridge: Cambridge University Press. Bachman, Lyle F./Kunnan, Anthony J. (2005). Statistical analyses for language assessment. Workbook and CD. Cambridge: Cambridge University Press. Bachman, Lyle F./Palmer, Adrian S. (2010). Language assessment in practice. Oxford: Oxford University Press. Beck, Bärbel/Klieme, Eckhard (Hg.) (2007). Sprachliche Kompetenzen. Konzepte und Messungen DESIStudie. Weinheim: Beltz. *Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Bortz, Jürgen/Döring, Nicola (2002). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 3. überarbeitete Auflage. Berlin: Springer. Cizek, Gregory J./Bunch, Michael B. (2007). Standard-setting. A guide to establishing and evaluating performance standards on tests. Thousand Oaks: Sage. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage. London: Routledge. Council of Europe (2009). Relating language examinations to the Common European Framework of Reference for Languages (CEF). A Manual. Straßburg: Language Policy Division. Creswell, John W./Plano Clark, Vicky L. (2007). Designing and Conducting Mixed Methods Research. Thousand Oaks: Sage. *DESI-Konsortium (Hg.) (2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz. Dlaska, Andrea/Krekeler, Christoph (2009). Sprachtests. Leistungsbeurteilungen im Fremdpsrachenunterricht evaluieren und verbessern. Hohengehren: Schneider. Douglas, Dan (2010). Understanding Language Testing. London: Hodder Education. Eckes, Thomas (2011). Introduction to Many-Facet Rasch Measurement. Analyzing and Evaluating Rater-Mediated Assessments. Frankfurt a. M.: Lang. Europarat (2001). Gemeinsamer Europäischer Referenzrahmen für Sprachen: Lernen, Lehren, Beurteilen. Berlin: Langenscheidt.
216
5. Forschungsverfahren
European Association for Language Testing and Assessment (2006). Guidelines for Good Practice in Language Testing and Assessment. [Online: http://www.ealta.eu.org/guidelines.htm.] (16. 02. 2015) Fulcher, Glenn (1996). Does thick description lead to smart tests? A data-based approach to rating scale construction. In: Language Testing 13, 208 – 238. Fulcher, Glenn (2010). Practical Language Testing. London: Hodder Education. Fulcher, Glenn (2012). Assessment Literacy for the Language Classroom. In: Language Assessment Quarterly 9, 113 – 132. *Green, Anthony (2007). Washback to learning outcomes: a comparative study of IELTS preparation and university pre-sessional language courses. In: Assessment in Education: Principles, Policy & Practice 14, 75 – 97. Grotjahn, Rüdiger (2007). Qualitätsentwicklung und -sicherung: Gütekriterien von Tests und Testaufgaben. In: Der Fremdsprachliche Unterricht Französisch 88, 44 – 46. Grotjahn, Rüdiger (2010). Sprachtests: Formen und Funktionen. In: Hallet, Wolfgang/Königs, Frank G. (Hg.). Handbuch Fremdsprachendidaktik. Seelze-Velber: Kallmeyer, 211 – 215. Harsch, Claudia (2012). Der Einsatz von Sprachtests in der Fremdsprachenforschung: Tests als Untersuchungsgegenstand und Forschungsinstrument. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 150 – 183. *Harsch, Claudia/Martin, Guido (2012). Adapting CEF-descriptors for rating purposes: Validation by a combined rater training and scale revision approach. In: Assessing Writing 17, 228 – 250. *Harsch, Claudia/Martin, Guido (2013). Using descriptors as the basis for analytic rating – improving level-specific writing assessment. In: Assessment in Education: Principles, Policy & Practice 20, 281 – 307. *Harsch, Claudia/Pant, Hans Anand/Köller, Olaf (Hg.) (2010). Calibrating Standards-based Assessment Tasks for English as a First Foreign Language. Standard-setting Procedures in Germany. Münster: Waxmann. *Harsch, Claudia/Rupp, André A. (2011). Designing and scaling level-specific writing tasks in alignment with the CEFR: a test-centered approach. In: Language Assessment Quarterly 8, 1 – 33. International Language Testing Association (2007). ILTA guidelines for practice. [Online: http://www. iltaonline.com/index.php?option=com_content&view=article&id=182:ilta-code-of-ethics-and-guide lines-for-practice-as-pdf-files&catid=3] (09. 03. 2015). Kane, Michael (2001). Current Concerns in Validity Theory. In: Journal of Educational Measurement 38, 319 – 342. *Klieme, Eckhard (2008). Systemmonitoring für den Sprachunterricht. In: DESI-Konsortium (Hg.) (2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz, 1 – 10. *Köller, Olaf/Knigge, Michael/Tesch, Bernd (Hg.). (2010). Sprachliche Kompetenzen im Ländervergleich. Münster: Waxmann. Lienert, Gustav/Raatz, Ulrich (1998). Testaufbau und Testanalyse. 6. Auflage. Weinheim: Beltz. Lumley, Tom (2005). Assessing second language writing: the rater’s perspective. Frankfurt: Lang. *Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines Sensibilisierungsunterrichts im „DaF-nE“. Baltmannsweiler: Schneider Hohengehren. [Referenzarbeit, s. Kapitel 7] McNamara, Tim/Roever, Carsten (2006). Language testing: The social dimension. London: Blackwell. Messick, Samuel A. (1989). Validity. In: R. L. Linn (Hg.). Educational Measurement. 3. Auflage. Washington DC: The American Council on Education and the National Council on Measurement in Education, 13 – 103. *Rossa, Henning (2012). Mentale Prozesse beim Hörverstehen in der Fremdsprache. Eine Studie zur Validität der Messung sprachlicher Kompetenzen. Frankfurt a. M.: Lang.
5.2.8 Testen
217
*Rumlich, Dominik (2012). Die Studie ‚Development of North Rhine-Westphalian CLIL students‘. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 169 – 178. *Taylor, Lynda/Weir, Cyril J. (Hg.) (2009). Language Testing Matters: Investigating the wider social and educational impact of assessment – Proceedings of the ALTE Cambridge Conference, April 2008. Cambridge: Cambridge ESOL and Cambridge University Press. *Wall, Dianne (2005). The Impact of High-Stakes Examinations on Classroom Teaching: A Case Study Using Insights from Testing and Innovation Theory. Cambridge: Cambridge ESOL and Cambridge University Press. Weir, Cyril (2005). Language Testing and Validation. Oxford: Palgrave. »» Zur Vertiefung empfohlen Bachman, Lyle F. (2004). Statistical analyses for language assessment. Cambridge: Cambridge University Press. Bachman, Lyle F./Kunnan, Anthony J. (2005). Statistical analyses for language assessment. Workbook and CD. Cambridge: Cambridge University Press. Diese beiden Bände geben eine sehr gute Einführung in die statistische Testanalyse. Das workbook (mit CD) ergänzt die Monographie um praktische Beispiele und Übungen an realen Datensätzen. Bachman, Lyle F./Palmer, Adrian S. (2010). Language assessment in practice. Oxford: Oxford University Press. Diese Monographie ist eines der Standardwerke in der Testliteratur; sie diskutiert alle wesentlichen Aspekte des Designs, der Entwicklung und des Nutzens von Sprachtestes und Sprachbeurteilung. Insbesondere die Ausführungen zum Assessment Use Argument sind bemerkenswert, da sie die Testnutzung und den Einsatz von Beurteilung in den Mittelpunkt rücken. Dlaska, Andrea/Krekeler, Christoph (2009). Sprachtests. Leistungsbeurteilungen im Fremdsprachenunterricht evaluieren und verbessern. Hohengehren: Schneider. Dieses Buch wendet sich speziell an Lehrkräfte und Studierende, die für das Klassenzimmer Sprachtests entwickeln, verbessern und evaluieren möchten. Ausgerichtet auf die Unterrichtssituation werden Qualitätskriterien vorgestellt und anhand von Beispielen erläutert. Douglas, Dan (2010). Understanding Language Testing. London: Hodder Education. Dieser Band bietet eine kurze und leicht verständliche Einführung in die Natur, Entwicklung, Analyse und den Einsatz von Sprachtests. Harsch, Claudia (2012). Der Einsatz von Sprachtests in der Fremdsprachenforschung: Tests als Untersuchungsgegenstand und Forschungsinstrument. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 150 – 183. In diesem forschungsmethodischen Artikel werden Sprachtests in ihrer dualen Funktion als Forschungsinstrument und Untersuchungsgegenstand der Testforschung und -evaluation ausführlich dargestellt. Ausgehend von Qualitäts- und Gütekriterien diskutiert die Autorin Aspekte der Testanalyse, der weiterführenden Forschung zur Validierung, zur Bildung von Kompetenzniveaus und zur Evaluation der Auswirkungen von Tests. Der Beitrag bietet u. a. eine Checkliste, die die Analyse und Auswahl angemessener Tests für die eigene Forschung erleichtern soll. Darüber hinaus werden die grundsätzlichen Schritte des Testeinsatzes in Forschungsprojekten praxisorientiert beschrieben.
218
5. Forschungsverfahren
Kunnan, Anthony J. (Hg.) (2013). The Companion to Language Assessment. Oxford: WileyBlackwell. Dieses vier Bände umfassende Werk gibt einen aktuellen Überblick über das Gebiet der Sprachbeurteilung und -bewertung. Das Referenzwerk deckt 140 Aspekte der Beurteilung in einer Vielzahl von Kontexten ab. Es wendet sich an Forschende, Praktiker und Lehrkräfte auf dem Gebiet des fremdsprachlichen Lehrens und Beurteilens.
Aufbereitung und Analyse von Dokumenten,
5.3
Texten und Daten Karen Schramm
Nicht erst dann, wenn wichtige Etappen des Forschungsprozesses wie die Gewinnung von Dokumenten, Texten oder Daten geschafft sind, stellt sich für den erfolgreichen Abschluss eines fremdsprachendidaktischen Forschungsprojekts die Frage nach einer zielführenden Aufbereitung und Analyse der Daten: Sie sollte bereits bei der Design-Erstellung Berücksichtigung finden. Das Methodenspektrum ist diesbezüglich ähnlich breit gefächert wie auch in Bezug auf die Gewinnung von Dokumenten, Texten und Daten (Kapitel 5.2). Es reicht von der Analyse historischer Quellen und von interpretativen Vorgehensweisen in Bezug auf deren Inhalte, Bedeutungen, Muster und Beziehungen (z. B. hermeneutische Verfahren, Grounded Theory, Dokumentarische Methode und Inhaltsanalyse) über Möglichkeiten der Typenbildung zu interpretativen Vorgehensweisen in Bezug auf linguistische Aspekte (z. B. diskursanalytische Auswertungsmethoden, Analysen von Lernersprache und Korpusanalysen) bis zu statistischen Verfahren (z. B. deskriptive und inferentielle Statistik oder exploratorische und konfirmatorische Faktorenanalyse). Aufbereitung
Die zuvor notwendige Aufbereitung ist dabei keinesfalls als mechanisches Vorgehen zu verstehen, sondern bereits als interpretativer Teil des Auswertungsprozesses. Sie sollte deshalb in diesem Sinne reflektiert und begründet werden. Beispielsweise stellt sich bei der Aufbereitung mündlicher Daten in Form von Transkripten die Frage nach einer zielführenden Genauigkeit: Sollten bei Interviews beispielsweise Phänomene der Mündlichkeit wie dialektale Färbung, Reparaturen oder sprachliche Fehler originalgetreu transkribiert oder sollte lieber eine geglättete Version erstellt werden? Erfordert die Transkription einer videografierten Unterrichtssequenz beispielsweise die genaue Dokumentation der Intonation, wie sie im Deutschen bei den Interjektionen (wie dem zustimmenden oder ablehnenden „hmhm“) bedeutungsunterscheidend ist, und welche nonverbalen und aktionalen Handlungen sollen bei der Transkription Berücksichtigung finden? Diese Beispiele zeigen, dass Transkriptionen kein simples, medial schriftliches Abbild mündlicher Daten sind, sondern dass diesbezüglich vor dem Hintergrund des Analyseziels und -verfahrens zahlreiche Entscheidungen begründet zu
5.3 Aufbereitung und Analyse von Dokumenten, Texten und Daten
219
treffen sind. Genauere Ausführungen zu der Vielzahl an Transkriptionsprogrammen wurden bereits in Kapitel 5.2.6 behandelt; im Zusammenhang mit diskursanalytischen Auswertungsmethoden wird in Kapitel 5.3.6 auch die Frage nach Transkriptionssystemen gestellt, die in unterschiedlichen theoretischen Schulen entwickelt wurden – und damit noch einmal den interpretativen Charakter einer Datenaufbereitung illustrieren. Dieser trifft, wenn auch in geringerem Maße, ebenfalls auf die Aufbereitung von quantitativen Daten sowie von Dokumenten und Texten zu. Allgemeine Fragen der Datenaufbereitung betreffen u. a. die digitalen Möglichkeiten der Speicherung und Abfrage in projektspezifischen oder sogar öffentlich zugänglichen Datenbanken. Hier sind z. B. die Bereitstellung von Transkript-Korpora oder die Digitalisierung von historischen Quellen von Interesse. Als Beispiele für spezifische Aspekte der Datenaufbereitung sind für die Fremdsprachendidaktik u. a. Übersetzungen und Transliterationen relevant. Bei der Arbeit mit Übersetzungen ist beispielsweise zu überdenken, ob sich eine aufbereitende Übersetzung nicht eher nachteilig auf die Analyse – beispielsweise das Erkennen latenter Sinnstrukturen – auswirkt. Digitale Transliterationen handschriftlicher Produkte erweisen sich ebenfalls als non-triviales Unterfangen, wenn Bearbeitungsspuren, nicht eindeutig erkennbare Buchstaben von Schreibanfänger_innen, graphische Elemente o. ä. eine dem Untersuchungsgegenstand angemessene Aufbereitung erfahren sollen. Forschungen, die nicht-lateinische Alphabetschriften (wie die kyrillische oder griechische) oder nicht-alphabetische Schriften (wie chinesische Schriftzeichen) involvieren, können ebenfalls zielführende Aufbereitungen zu Zwecken der Analyse oder der Präsentation erfordern. Analyse
Bei der Analyse bedienen sich historische und theoretische Forschungen (Kapitel 3.1 und 3.2) grundsätzlich interpretativer Verfahren; in Bezug auf empirische Studien (Kapitel 3.3) lassen sich dagegen bei der Datenanalyse interpretative und statistische Vorgehensweisen unterscheiden. Die Analyse historischer Quellen (Kapitel 5.3.1) orientiert sich an aus der Geschichtswissenschaft übernommenen Verfahren wie der historischen Diskursanalyse oder der Quellenkritik, während für hermeneutische Verfahren (Kapitel 5.3.2) in Orientierung an philosophische und philologische Traditionen die Auslegung von Texten ausschlaggebend ist. Diese Analyseverfahren sind verwandt mit interpretativen Verfahren zur Analyse empirischer Daten wie der Grounded Theory und der Dokumentarischen Methode (Kapitel 5.3.3) oder der Inhaltsanalyse (Kapitel 5.3.4), welche von der Fremdsprachendidaktik vorrangig aus den Sozial- und Verhaltenswissenschaften übernommen bzw. für eigene Zwecke adaptiert wurden. Sie stellen beispielsweise Überlegungen zu Kodiervorgängen oder zu Zusammenfassungen ins Zentrum; dabei ist eine gängige Unterscheidung die zwischen datenexpandierenden und datenreduzierenden Verfahren. Auch Überlegungen zu Typenbildung (Kapitel 5.3.5) sind vorrangig von diesen Bezugswissenschaften inspiriert. Allerdings handelt es sich hierbei im Gegensatz zu den gerade genannten Verfahren um ein Vorgehen, das auf bereits ausgewertete Daten angewendet wird, um auf einer höheren Ebene ‚Ordnung zu schaffen‘.
220
5. Forschungsverfahren
Auch von der wichtigen Bezugsdisziplin der Linguistik sind zahlreiche in der Fremdsprachendidaktik eingesetzte Analyseverfahren stark beeinflusst. Der Pragmalinguistik entlehnt sind diskursanalytische Verfahren wie die Interaktionsanalyse und die Funktionale Pragmatik (Kapitel 5.3.6), die u. a. zum Gesprächsverhalten von Lehrpersonen (z. B. mündliches Korrekturverhalten, Fragetypen) oder zu Interaktionen in Partner- und Gruppenarbeiten Aussagen treffen können. Die Analyse von Lernersprache orientiert sich eng an phonetischen, grammatikalischen, lexikalischen und text-/diskurslinguistischen Bezugsarbeiten und ist insbesondere durch die Tradition der Zweitspracherwerbsforschung geprägt (Kapitel 5.3.7). Und auch korpuslinguistische Studien mit fremdsprachendidaktischer Intention sind klar mit Blick auf die wichtige Bezugsdisziplin der Sprachwissenschaft zu verorten (Kapitel 5.3.8). Neben dieser Vielfalt interpretativer Auswertungsverfahren stehen die statistischen Vorgehensweisen, die in der Fremdsprachendidaktik bislang eine vergleichsweise geringe Beachtung erfahren haben (Kapitel 5.3.9). Wichtige Impulse hierzu erhält die Fremdsprachendidaktik insbesondere aus den Sozial- und Bildungswissenschaften, der Psychologie und der empirischen Bildungsforschung. Das Kapitel 5. 3. 10 stellt die entsprechenden Grundlagen deskriptiver und inferentieller Statistik dar, während das Kapitel 5. 3. 11 komplexere statistische Verfahren wie die explorative und konfirmatorische Faktorenanalyse erläutert. Die in der fremdsprachendidaktischen Forschung eingesetzten Analyseverfahren sind also äußerst breit gefächert – und die Orientierung über diese Vielfalt stellt nicht nur für Noviz_innen eine Herausforderung dar. Der konkrete Einsatz eines solchen Verfahrens erfordert einen gewissen Grad an methodischer Spezialisierung; hierbei kann die Beratung durch Mentor_innen und Peers äußerst wertvolle Unterstützung bieten.
5.3.1 Analyse historischer Quellen Dorottya Ruisz/Elisabeth Kolb/Friederike Klippel
Für die historische Arbeit kommen alle für die Fremdsprachendidaktik relevanten schriftlichen, bildlichen oder gegenständlichen Dokumente in Frage wie z. B. Fachzeitschriften, Lehrpläne, Schulbücher oder Fotografien. Die Sammlung dieser Quellen geschieht im zyklischen heuristischen Prozess des Suchens und Findens; dabei werden Forschungsfrage(n) und Quellenbasis sukzessive präzisiert (siehe Kapitel 5.2.1 und 5.2.2). Wenn ein zu analysierendes Quellenkorpus vorliegt, das neue Erkenntnisse zu den Forschungsfragen verspricht, folgen gemäß der klassischen historischen Methode die Schritte der Kritik und der Interpretation der Quellen, also die intensive Arbeit an den Texten selbst. Im Folgenden wird dieses Vorgehen in vier Abschnitten geschildert: 1. Quellenkritik, die sich mit der Qualität und Zuverlässigkeit der Quellen auseinandersetzt, 2. Diskurs und Diskursanalyse, die Rekonstruktion von Prozessen der sozialen Kommunikation, 3. Kontext, in den die Quellen eingebettet sind, 4. Interpretation, die Auslegung und Erklärung der Quellen.
5.3.1 Analyse historischer Quellen
221
1 Quellenkritik
Generell unterscheidet man eine äußere und eine innere Quellenkritik (vgl. Rüsen 2008: 123 ff.). Die äußere Quellenkritik betrifft die Umstände der Quellenentstehung und Quellenüberlieferung; sie prüft die Echtheit und Vollständigkeit der Quellen. In diesem Zusammenhang ist wichtig, in welchem Publikationsorgan (bei gedruckten Quellen) ein Text erschienen ist und wer der Verfasser ist. Zudem wird man sich genau ansehen, um welche Art von Quelle es sich handelt: offizielle Dokumente, wissenschaftliche oder journalistische Texte, (auto)biographische Texte oder persönliche Dokumente (z. B. Tagebuch, Korrespondenz), Lehrmaterialien und Lehrerhandreichungen, Rezensionen, Schülerarbeiten, etc., da die Zuverlässigkeit je nach Quellenart sehr variieren kann. Die innere Quellenkritik bezieht sich auf Kriterien wie Zeitnähe, Ergiebigkeit und Aussagekraft im Hinblick auf die Forschungsfragen. Für das Kriterium der Zeitnähe ist zu berücksichtigen, dass bestimmte Quellengattungen, wie etwa Lehrpläne, eine lange Entstehungszeit besitzen und daher auch durchaus selbst dann Relevanz besitzen können, wenn sie außerhalb des eigentlichen Untersuchungszeitraums veröffentlicht wurden. Deswegen kann es notwendig sein, den eigentlichen Untersuchungszeitraum für diesen Bereich zu erweitern (so bei Ruisz 2014: Abschnitt 1.3). Das Kriterium der Ergiebigkeit ist relevant, da oft nicht alle existierenden bildungsgeschichtlichen Quellen des Untersuchungszeitraumes gesichtet werden können und daher eine sinnvolle Auswahl getroffen werden muss. Für die Referenzarbeit von Doff (2002; siehe Kapitel 7) bedeutet dies zum Beispiel, dass in erster Linie nur die Fachzeitschriften studiert wurden, „die insbesondere für die Entwicklung des höheren Mädchenschulwesens von Bedeutung gewesen sind“ (Doff 2002: 16). Dort fand die Forscherin die für ihre Forschung relevanten Quellen. Das Kriterium der Aussagekraft ist mehr oder weniger erfüllt, je nachdem, in welchem Ausmaß eine einzelne Quelle zu Antworten im Hinblick auf die Forschungsfragen führt. Zur inneren Quellenkritik gehört auch, dass die dem Geschriebenen zugrundeliegenden Ideologien zu beachten sind. Beispielsweise ist bei Zeitschriften zu bedenken, dass sie oftmals bestimmte sprachen- oder bildungspolitische Positionen vertraten, wie etwa im späten 19. Jahrhundert im Falle der beiden Zeitschriften Die Neueren Sprachen (pro Neusprachenreform) und Zeitschrift für französischen und englischen Unterricht (contra Neusprachenreform), so dass man diese Ausrichtungen bei der Quellenkritik im Auge behalten muss. Des Weiteren wird quellenkritisch vorgegangen, wenn das in den Quellen Geäußerte mit bereits vorhandenen Erkenntnissen zum Untersuchungszeitraum und mit anderen Informationsquellen verglichen wird, um die Zuverlässigkeit eines Verfassers zu beurteilen oder seine Motive zur Darstellung aus einer bestimmten Perspektive aufzudecken. Außerdem können allein auf der Basis derartiger Vergleiche Angaben dazu gemacht werden, ob die Behauptungen und Argumentation des jeweiligen Autors für die Zeit und den gegebenen Kontext repräsentativ oder eher eine Randerscheinung sind. Insofern wird deutlich, dass die Quellen nicht für sich selbst sprechen, sondern im Kontext der Zeit und auf dem Hintergrund des bereits vorhandenen historischen Wissens analysiert werden müssen.
222
5. Forschungsverfahren
2 Diskurs und Diskursanalyse
Bei der Diskursanalyse oder -forschung handelt es sich um eine Forschungsmethode, zu der eine Reihe von Ansätzen gezählt werden: So gibt es unter anderem linguistische, geschichtswissenschaftliche und wissenssoziologische Ausrichtungen der Diskursforschung; häufig wird auf Foucault und seine Aussagen zu historischen Wissensordnungen und Machtstrukturen verwiesen (vgl. zu den Ansätzen der Diskursanalyse Keller 2011: 13 – 64; zu praktischen Anwendungen Keller et al. 2010). In der Diskursanalyse werden die sozialen Kommunikationsprozesse der Teilnehmer nachvollzogen. Da es in der historischen Forschung um die Rekonstruktion vergangener kommunikativer Wirklichkeit geht, ist die Diskursanalyse eine passende Ergänzung zur klassischen historischen Methode (Haslinger 2006, Landwehr 2008) und wurde deswegen in einer Reihe von Arbeiten zur Geschichte der Fremdsprachendidaktik angewendet (z. B. in Ostermeier 2012; Kolb 2013; Ruisz 2014). Grundlage der Diskursanalyse ist der Diskursbegriff. Ein Diskurs wird durch wiederholte, gesellschaftlich legitimierte oder institutionalisierte Aussagen zu einem Themenkomplex gebildet. In der praktischen Forschungsarbeit lässt sich am besten mit dem teilweise inflationär gebrauchten Diskursbegriff arbeiten, wenn explizit auf dessen Bedeutungskomponenten hingewiesen wird (Keller 2011: 34, 68). Mit Diskurs kann zunächst die Gesamtheit der Aussagen gemeint sein, die den Untersuchungsgegenstand betreffen. Dieser gesellschaftliche Gesamtdiskurs spielt sich zum Beispiel in Politik, Alltag und den Medien – auf den Diskursebenen – ab. Auf diesen Ebenen werden jeweils von einzelnen Gruppen der Gesellschaft Spezialdiskurse geführt. Die Spezialdiskurse wiederum bestehen aus einzelnen Texten, Textstellen und Wörtern, den so genannten Diskursfragmenten.16 Diskursfragmente mit dem gleichen Thema werden jeweils einem Diskursstrang zugeordnet (Jäger 2009: 117; zum Themenbegriff s. Höhne 2010: 428 – 429). Die Diskursteilnehmer sind individuelle oder kollektive Akteure, die sowohl produktiv als auch rezeptiv am Kontext mitwirken (van Dijk 1988: 2). Dabei können sie unterschiedliche Meinungen vertreten, die durch die Bevorzugung bestimmter Unterthemen und unterschiedlicher Argumentationen erkennbar werden (Haslinger 2006: 40-41). Ausführlich wird in der Arbeit von Kolb dargelegt, welche Akteure (nämlich individuelle Fremdsprachendidaktiker und meist anonyme Vertreter der Bildungsverwaltung) und welche Themen (die kulturellen Sachthemen des Englischunterrichts) in der Diskursanalyse untersucht werden (Kolb 2013: 37 – 45). Damit sind die Diskursebenen klar benannt. Ausgehend von dem Thema des Gesamtdiskurses werden in dem Quellenmaterial verschiedene Diskursstränge ausfindig gemacht, voneinander unterschieden und nach ihren Aussagen analysiert. Besonders aufschlussreich zur Aufzeichnung geschichtlicher Entwicklungen sind sowohl Kontinuitäten als auch Brüche in der Argumentation. Diese lassen sich besonders gut auswerten, wenn ein längerer Zeitraum untersucht wird. Bei Kolb (2013) wird dieselbe Textsorte (Lehrpläne) von 1975 bis 2011 untersucht: So zeigen beispielsweise Formulierungen, die mehr oder weniger identisch zu verschiedenen Zeiten auftauchen, die traditionelle Fortschreibung dieser Dokumente an; die Veränderung der Reihenfolge der Lehrplaninhalte deutet auf einen Bruch hin (vgl. Kolb 16 Dabei wird unter ‚Wort‘ die sprachliche Konvention verstanden, „die zur Bezeichnung eines Sachverhalts oder Gegenstands benutzt wird“ (Jordan 2009: 123 – 124). Es geht also um die Bezeichnung eines Konzepts oder einer Idee hinter dem ‚Wort‘.
5.3.1 Analyse historischer Quellen
223
2013: 191 – 193). Auch Doff arbeitet Brüche in der Entwicklung des Mädchenschulwesens zum Beispiel in Bezug auf die Anforderungen an die Lehrkräfte heraus (vgl. Doff 2002: Kapitel 4). 3 Kontext
Für die Diskursanalyse ist nicht nur die Untersuchung von Texten, Textstellen und Wörtern relevant, sondern darüber hinaus der weitere Zusammenhang, in welchem diese entstanden sind. Wenn beispielsweise Doffs Dissertation mit der Erörterung der ideengeschichtlichen Grundlagen für Weiblichkeit und Bildung im 19. Jahrhundert beginnt (Doff 2002: 25 – 58) oder Lehbergers Studie zum Englischunterricht im Nationalsozialismus zunächst die Einbindung der gesamten Lehrerschaft in das Herrschaftssystem behandelt (Lehberger 1986: 13 – 22), dann geschieht dies in der Absicht, den sozialen, geistigen oder politischen Kontext zu charakterisieren. Ohne diesen wären die darauf folgenden Ausführungen zur eigentlichen Frage nach dem Fremdsprachenunterricht unvollständig und würden möglichweise falsch verstanden werden. Die Relevanz der Verknüpfung zwischen einem gerade zu untersuchenden Text und weiteren Quellentexten zur Rekonstruktion des Kontexts sei an einem konkreten Beispiel verdeutlicht. Aus der Tatsache, dass in einer neuphilologischen Zeitschrift der Nachkriegszeit für einen Fremdsprachenunterricht plädiert wird, der den Vorstellungen der amerikanischen Besatzer zur Demokratisierung des deutschen Schulwesens entspricht, könnte man auf eine Neuausrichtung des Faches nach 1945 schließen. Erst das Heranziehen weiterer Quellen verrät zum Teil Gegenteiliges (so in Ruisz 2014: Abschnitt 4.1.2). Zum einen müssen also biographischer Hintergrund und andere Publikationen der jeweiligen Autoren betrachtet werden, so dass deren Motive und Absichten sowie ihre Stellung in ihrer Berufsgruppe oder innerhalb der Gesellschaft erschlossen werden können. Zum anderen ist die eingehende Kenntnis weiterer zeitgenössischer Texte zu ähnlichen Themen die Voraussetzung dafür, dass die Bedeutung und Reichweite eines einzelnen Schriftstücks ausgemacht werden kann. Obwohl die Intertextualität eine tragende Rolle spielt, muss einschränkend angefügt werden, dass eine Distanzierung von der Gegenwart und ein Eintauchen in den historischen Kontext nicht perfekt gelingen kann, da sowohl die Forschungsfragen als auch das individuelle Vorwissen der Forscher und der Forschungsstand fest in der aktuellen Gegenwart verankert sind. Daher verweist Kolb in ihrer Dissertation auf die Subjektivität qualitativer Textauslegung, die durch das Offenlegen der Vorannahmen und der Methoden der Textinterpretation kontrolliert werden sollte (Kolb 2013: 29 – 30). Es ist für die historische Forschung wichtig, die relative Fremdheit von Konzepten und Ideen der Vergangenheit zu beachten (Rittelmeyer 2006: 3). Nach Skinners Arbeiten im Rahmen der Cambridge School wird diese Fremdheit als „essential variety“ bezeichnet (Skinner 1969: 52). Historisches ist eben fremd, und es ist nicht legitim, eine „essential sameness“ anzunehmen (ebd.: 52). Für die Forschungspraxis bedeutet dies, dass der historisch-soziale Kontext, in dem ein Diskursfragment entstanden ist, gründlich zu erforschen ist; somit ist ein Quellentext stets im jeweiligen historischen Zusammenhang intertextuell zu studieren (Overhoff 2004: 325, 328). Nach Skinners Terminologie wird dieser historische Kontext als „ideological context“ oder einfach als „ideology“ bezeichnet (Skinner 1966: 287, 313, 317; Overhoff 2004: 326).
224
5. Forschungsverfahren
Ein weiterer Ansatz, in dem ebenfalls das Augenmerk auf die Eigenheiten der Entstehungszeit der analysierten Diskursfragmente gelenkt wird und in dem der Fokus auf dem Ideologiebegriff liegt, ist die Critical Discourse Analysis, kurz CDA (vgl. dazu van Leeuwen 2009, O’Halloran 2010; zur Adaption der CDA für eine fremdsprachendidaktische Arbeit siehe Ruisz 2014). Dieser Ansatz kommt aus der Linguistik, wird jedoch inzwischen in verschiedenen Disziplinen verwendet (für die Geschichtswissenschaft etwa Wodak et al. 1990; für die Erziehungswissenschaft Rogers 2011). Die CDA beruht auf der Grundannahme, dass sich die Machtstrukturen der Gesellschaft in der Sprache abbilden (O’Halloran 2010: 121) und somit auch in den Äußerungen Einzelner kein Spielraum für Ideologiefreiheit besteht (Kress 1985: 30; Fowler 1991: 92). Eine gründliche Quellenanalyse lässt somit auf die Ansichten und Absichten des Verfassers schließen. In diesem Zusammenhang gehört die Herausarbeitung der Bedeutung der von den Textverfassern verwendeten Begriffe zur Untersuchung des Kontexts (Klafki 1971: 141 – 142, Rittelmeyer 2006: 46). Die in den Quellentexten verwendeten Begriffe sollten aus ihrer Zeit heraus verstanden werden; die heutige Begriffsbedeutung darf nicht auf sie projiziert werden (dazu Klippel 1994: 28 – 30). Dies fängt schon bei Bezeichnungen an, die vermeintlich völlig eindeutig sind, wie etwa ‚Lesen‘. Doch sind in den Sprachlehren des 18. Jahrhunderts gerade die Abschnitte zur Aussprache mit „Vom Lesen“ überschrieben (etwa bei König 1755). Auch haben etwa Schulformen im Verlauf der letzten Jahrhunderte immer wieder Bezeichnungen getragen, etwa ‚Realschule‘ oder ‚Handelsschule‘, hinter denen sich andere Schulkonzepte verbergen, als wir sie heute für diese Bezeichnungen kennen. Zum Teil ergeben sich sogar abhängig von der jeweiligen Situation und dem jeweiligen Diskursteilnehmer unterschiedliche Bedeutungen. Deswegen muss zum Beispiel geprüft werden, ob die amerikanischen Besatzer unter ‚politischer Bildung‘ im Fremdsprachenunterricht das Gleiche verstanden wie die einheimischen Bildungspolitiker (Ruisz 2015). Das kontextuelle Vorgehen führt des Weiteren auch dazu, dass erkannt werden kann, was in einer Quelle nicht erwähnt wird. Die Nicht-Erwähnung mag zum einen darin begründet sein, dass bestimmte Konzepte oder Verfahren in einer Zeit als so selbstverständlich gelten, dass sie nicht erwähnt werden müssen. Zum anderen lässt sich aus dem Nicht-Gesagten auch schlussfolgern, welche Aussagen öffentlich nicht akzeptabel waren oder mit Absicht gemieden wurden. In dieser Weise kann die Erschließung des Kontexts zu den Werten und Grundannahmen einer Zeit sowie zu den Motiven und Absichten der am Diskurs teilnehmenden Akteure führen, die stets von bestimmten Interessen geleitet sind, wie Klafki schreibt: Man trifft auf pädagogische Sachverhalte nicht wie auf ein neutrales Material, pädagogische Sachverhalte sind vielmehr immer von der [Kursivsatz im Original] Art, daß Menschen sie aus irgendeinem Interesse, mit irgendeiner Zielsetzung hervorbringen oder hervorgebracht haben oder daß Menschen zu ihnen aus bestimmten Interessen heraus, mit bestimmten Zielsetzungen und Vorstellungen Stellung nehmen. (Klafki 1971: 127)
4 Interpretation – zwischen Hermeneutik und Analytik
Die vorliegenden Quellen werden also im Kontext gedeutet oder interpretiert. Neben der Beachtung des Kontexts sind textimmanente Verfahren der Interpretation zentral. Historisches
5.3.1 Analyse historischer Quellen
225
Wissen entsteht nicht nur, indem Zusammenhänge zwischen Texten hergestellt, sondern auch indem die einzelnen Texte im Hinblick auf die Forschungsfragen gedeutet werden. Dabei sind subjektive Deutungsmuster zu vermeiden; vielmehr ist darauf zu achten, dass die Interpretation der Quellen intersubjektiv nachvollziehbar ist. Als übergeordnete Forschungsstrategie bieten sich hermeneutische Verfahren an. Bei der Hermeneutik, der Auslegung von Texten, geht es um das Verstehen der Quellen (Lengwiler 2011: 58; s. auch Kapitel 5.3.2). Bezogen auf die Interpretation bedeutet dies, dass Sinnzusammenhänge und Argumentationslinien im erhobenen Quellenmaterial herauszuarbeiten sind (Rüsen 2008: 119, 131). Wenn es sich um eine große Anzahl von Texten handelt, sind diese zunächst zusammenzufassen und zu verdichten, damit diese der Forschung leichter zugänglich werden. Zum Beispiel werden zum Kernthema der Arbeit von Doff (2002) die Funde leicht lesbar dargestellt (v. a. in Kapitel 5), so dass sich weitere Forschungsarbeiten anschließen lassen. Im Zuge eines hermeneutischen Verstehensprozesses sind die Quellentexte also vor allem aus sich selbst heraus zu verstehen. In dieser Weise beschreibt der Historiker Koselleck das ‚Vetorecht der Quellen‘: Streng genommen kann uns eine Quelle nie sagen, was wir [Historiker] sagen sollen. Wohl aber hindert sie uns, Aussagen zu machen, die wir nicht machen dürfen. Die Quellen haben ein Vetorecht. Sie verbieten uns, Deutungen zu wagen oder zuzulassen, die aufgrund eines Quellenbefundes schlichtweg als falsch oder als nicht zulässig durchschaut werden können. (Koselleck 1979: 206)
Trotz dieses ‚Vetorechts‘ verleitet reines ‚Verstehen‘ dazu, sich intuitiv in die Quellen hineinzuversetzen (Lengwiler 2011: 59 – 62). Deswegen muss die Interpretation geordnet ablaufen, wobei die Unterscheidung zwischen Makro- und Mikroanalyse hilfreich ist (Landwehr 2008: 113 – 124). Beim makroanalytischen Vorgehen werden der Inhalt und die Struktur des vorliegenden Textes erarbeitet. Mikroanalytisch wird hingegen vorgegangen, wenn Argumentation, Rhetorik und Stil untersucht werden. Wie in vielen diskursanalytischen Arbeiten werden auch in Kolbs Dissertation (Kolb 2013) beide Analyseverfahren kombiniert: Auch wenn der Schwerpunkt auf der Herausarbeitung der inhaltlichen Aussagen zu kulturellen Sachinhalten des Englischunterrichts in Lehrplänen und fremdsprachendidaktischen Veröffentlichungen liegt, wird an ergiebigen Stellen auch die rhetorische und stilistische Gestaltung im Detail untersucht. So dienen beispielsweise häufig verwendete Metaphern dazu, die diskursiven Positionen in der Anspielung auf positive oder negative Konnotationen in andere Diskursstränge einzubinden und umso eindrücklicher vorzubringen (Kolb 2013: 283 – 286). Dabei sind im Prozess des ‚hermeneutischen Zirkels‘ (Gadamer 61990 [1960]: 270 – 312) auch immer wieder die Forschungsfragen zu überprüfen und eventuell anzupassen. In der historischen Forschung zur Fremdsprachendidaktik gilt die Hermeneutik als übergeordnete Forschungsstrategie (so in Doff 2002; Doff 2008; Kolb 2013; Ostermeier 2012; Ruisz 2014). Der Grund hierfür ist offensichtlich: Historische Forschung hat zumeist die Quellen im Blick, die zunächst ‚verstanden‘ werden müssen. Im Allgemeinen ist derzeit in der Geschichtswissenschaft der Trend zu beobachten, dass man sich hermeneutischen Verfahren zuwendet (vgl. Lengwiler 2011: 85, 87). In diesem Zusammenhang spielt der so genannte linguistic turn eine Rolle, durch den ein gesteigertes Interesse an Texten entstanden ist, in welchem
226
5. Forschungsverfahren
das Subjekt sprachlich zum Ausdruck bringt, wie es seine Umgebung wahrnimmt (Lengwiler 2011: 87; Jordan 2009: 189). Dass dieser hermeneutische Ansatz jedoch die Forschungsstrategie der ‚Analytik‘ nicht ausschließt, ist eindeutig. Bei der Analyse von Diskursen konzentriert man sich auf die sprachlichen Äußerungen historischer Personen und Institutionen, die in einem jeweiligen Kontext eingebunden sind (Lengwiler 2011: 87 – 90; Jordan 2013: 192-193) – das ist der Punkt, an dem es dann neben dem ‚Verstehen‘ doch ergänzend auf die ‚Erklärungen‘ der Wissenschaft ankommt; nur so kann die Qualität der historischen Untersuchung gesichert werden. Die Analytik orientiert sich nicht nur an den Quellentexten, also der Empirie, sondern auch am theoretischen Erkenntnisinteresse (Rüsen 2008: 145; Lengwiler 2011: 94 – 95, 272). Es sind die Kausalitäten zwischen den geschichtlichen Ereignissen und Handlungen der Diskursteilnehmer zu erklären. Forschungsarbeiten, die sich rein auf das ‚Verstehen‘ der Quellen beschränken, lassen neue Erklärungen für die gelieferten Quellendeutungen vermissen. Wenn zum Beispiel erkannt wird, dass die amtlichen Verlautbarungen der US-amerikanischen Besatzungsmacht für den Englischunterricht im Bayern der Nachkriegszeit nur wenig ergiebig sind, ist dies ein Befund, der weiterer Erklärungen bedarf; der Leser möchte erfahren, warum es sich so verhielt (s. Ruisz 2014: Abschnitt 3.2.3). Für die Analyse von Quellen bieten sich also sowohl hermeneutische als auch ergänzende analytische Verfahren an. Übergeordnet bleibt dabei stets die klassische historische Methode mit den Schritten der Heuristik, Kritik und Interpretation. In diesem methodischen Gerüst ist die begründete Auswahl unterschiedlicher Analyse- und Interpretationstechniken angebracht, um zu einem möglichst umfassenden Verständnis der Quellen und ihres Kontextes zu gelangen. Diese Mühe lohnt sich, zumal in der Geschichte des Fremdsprachenunterrichts noch etliche Forschungslücken zu schließen sind. »» Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für Mädchen im 19. Jahrhundert. München: Langenscheidt-Longman. [Referenzarbeit, s. Kapitel 7] *Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. Konzeptuelle Genese einer Wissenschaft im Dialog von Theorie und Praxis. München: Langenscheidt. Fowler, Roger (1991). Critical Linguistics. In: Malmkjær, Kirsten (Hg.). The Linguistics Encyclopedia. London: Routledge, 89 – 93. Gadamer, Hans Georg (61990 [1960]). Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik. Tübingen: Mohr. Haslinger, Peter (2006) Diskurs Sprache, Zeit, Identität. Plädoyer für eine erweiterte Diskursgeschichte. In: Eder, Franz X. (hg.) Historische Diskursanalysen. Genealogie, Theorie, Anwendungen Wiesbaden: VS Verlag für Sozialwissenschaften, 27–50. Höhne, Thomas (2010). Die thematische Diskursanalyse – dargestellt am Beispiel von Schulbüchern. In: Keller et al., 423 – 453. Jäger, Siegfried (2009). Kritische Diskursanalyse. 5. Auflage. Münster: Unrast.
227 5.3.1 Analyse historischer Quellen
Anwendung historische Fremdsprachenforschung
5.3.1 Quellenanalyse Heuristik
Kritik
Historische Methode historische Frage und Gegenwartsbezug
innere Kritik: Zeitnähe, Aussagekraft, Zuverlässigkeit
äußere Kritik: Echtheit, Vollständigkeit, Autorschaft
Erstellung eines Textkorpus Auswahl für die Feinanalyse
Verfahren
Interpretation
Auslegung und Erklärung der Quellen
Aufdecken von Zusammenhängen
hermeneutische und analytische Verfahren Analyse des historischen Kontexts Diskursanalyse: Rekonstruktion von Prozessen der sozialen Kommunikation im Diskurs Makro- und Mikroanalysen
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
228
5. Forschungsverfahren
Jordan, Stefan (2009). Theorien und Methoden der Geschichtswissenschaft. 2. Auflage 2013. Paderborn: Schöningh. Keller, Reiner (2011). Diskursforschung. Eine Einführung für SozialwissenschaftlerInnen. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. Keller, Reiner/Hirseland, Andreas/Schneider, Werner/Viehöver, Willy (Hg.) (2010). Handbuch Sozialwissenschaftliche Diskursanalyse. Forschungspraxis. Bd. 2. 4. Auflage. Opladen: VS Verlag für Sozialwissenschaften. Klafki, Wolfgang (1971). Hermeneutische Verfahren in der Erziehungswissenschaft. In: Ders. (Hg.). Funk-Kolleg Erziehungswissenschaft. Bd. 3. Frankfurt/M.: S. Fischer, 126 – 153. *Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher und Unterrichtsmethoden. Münster: Nodus. *Kolb, Elisabeth (2013). Kultur im Englischunterricht: Deutschland, Frankreich und Schweden im Vergleich (1975 – 2011). Heidelberg: Carl Winter. König, Johann (1755). Der getreue englische Wegweiser. 6. Auflage. Leipzig: Jacobi. Koselleck, Reinhart (1979). Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt/ M.: Suhrkamp. Kress, Gunther R. (1985). Ideological structures in discourse. In: van Dijk, Teun Adrianus (Hg.). Handbook of discourse analysis. Discourse analysis in society. Bd. 4. London: Academic Press, 27 – 42. Landwehr, Achim (2008). Historische Diskursanalyse. Frankfurt am Main: Campus-Verlag. *Lehberger, Reiner (1986). Englischunterricht im Nationalsozialismus. Tübingen: Stauffenburg. Lengwiler, Martin (2011). Praxisbuch Geschichte. Einführung in die historischen Methoden. Zürich: Orell Füssli. O’Halloran, Kieran (2010). Critical discourse analysis. In: Malmkjær, Kirsten (Hg.). The Routledge Linguistics Encyclopedia. 3. Auflage. London: Routledge, 121 – 126. *Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859 – 1931). Ein historischer Diskurs. Stuttgart: ibidem-Verlag. Overhoff, Jürgen (2004). Quentin Skinners neue Ideengeschichte und ihre Bedeutung für die historische Bildungsforschung. In: Jahrbuch für historische Bildungsforschung 10, 321 – 336. Rittelmeyer, Christian (2006). Einführung in die pädagogische Hermeneutik. Darmstadt: Wissenschaftliche Buchgesellschaft. Rogers, Rebecca (Hg.) (2011). An introduction to critical discourse analysis in education. New York: Routledge. *Ruisz, Dorottya (2014). Umerziehung durch Englischunterricht? US-amerikanische Reeducation-Politik, neuphilologische Orientierungsdebatte und bildungspolitische Umsetzung im nachkriegszeitlichen Bayern (1945 – 1955). Münster: Waxmann. *Ruisz, Dorottya (2015). Social education as reeducation: The implementation of US-American policies in the English language classrooms of Bavaria (1945 – 1951). In: Paul, Heike/Gerund, Katharina (Hg.). Die amerikanische Reeducation-Politik nach 1945: Interdisziplinäre Perspektiven auf „America’s Germany“. Bielefeld: transcript, 161 – 184. Rüsen, Jörn (2008). Historische Orientierung. Über die Arbeit des Geschichtsbewußtseins, sich in der Zeit zurechtzufinden. 2. Auflage. Schwalbach/Ts: Wochenschau Verlag. Skinner, Quentin (1966). The ideological context of Hobbes’s political thought. In: The Historical Journal 9, 286 – 317. Skinner, Quentin (1969). Meaning and understanding in the history of ideas. In: History and Theory 8 (1), 3 – 53. van Dijk, Teun Adrianus (1988). News analysis. Case studies of international and national news in the press. Hillsdale, NJ: Erlbaum.
5.3.2 Hermeneutische Verfahren
229
van Leeuwen, Theo (2009). Critical discourse analysis. In: Mey, Jacob (Hg.). Concise encyclopedia of pragmatics. 2. Auflage. Amsterdam: Elsevier, 166 – 169. Wodak, Ruth/Nowak, Peter/Pelikan, Johanna/Gruber, Helmut/de Cillia, Rudolf/Mitten, Richard (1990). „Wir sind alle unschuldige Täter!“ Diskurshistorische Studien zum Nachkriegsantisemitismus. Frankfurt/M.: Suhrkamp.
»» Zur Vertiefung empfohlen Lengwiler, Martin (2011). Praxisbuch Geschichte. Einführung in die historischen Methoden. Zürich: Orell Füssli. Dieser Band bietet einen Einstieg in die Methoden der Geschichtswissenschaft. Die zentralen theoretischen Forschungsansätze werden leserfreundlich vorgestellt und die Arbeitstechniken des Historikers praxisnah beschrieben. Landwehr, Achim (2009). Historische Diskursanalyse. 2. Auflage. Frankfurt am Main: CampusVerlag. In dieser Monographie argumentiert der Autor, dass sich die Diskursanalyse als Methodik für die historische Forschung eignet, und stellt dar, wie diese forschungsmethodische Vorgehensweise für historische Arbeiten angewendet werden kann. Rüsen, Jörn (2008). Historische Orientierung. Über die Arbeit des Geschichtsbewußtseins, sich in der Zeit zurechtzufinden. 2. Auflage. Schwalbach/Ts: Wochenschau Verlag. In dem Kapitel „Historische Methode“ (S. 116 – 149) wird der Leser in die Grundlagen historischen Arbeitens eingeführt. Die Regulative der Forschung ‚Heuristik‘, ‚Kritik‘ und ‚Interpretation‘ sowie die Forschungsstrategien der ‚Hermeneutik‘ und ‚Analytik‘ werden klar beschrieben. Overhoff, Jürgen (2004). Quentin Skinners neue Ideengeschichte und ihre Bedeutung für die historische Bildungsforschung. In: Jahrbuch für historische Bildungsforschung 10, 321 – 336. In diesem Aufsatz erläutert der Verfasser Quentin Skinners außerordentlichen Beitrag zur neuen Ideengeschichte. Anhand von Beispielen wird die Bedeutung des historischen und diskursiven Kontexts aufgezeigt und erklärt, wie ideengeschichtlich geforscht werden kann.
5.3.2 Hermeneutische Verfahren Laurenz Volkmann 1 Hermeneutik als Kunst des Verstehens
Die Hermeneutik ist ursprünglich als Kunst der Auslegung von religiösen Texten und Übersetzungstexten sowie philosophischen und literarischen Werken zu verstehen. Als Entschlüsselungskunst bezieht sie sich auf Texte, deren Bedeutung nicht unmittelbar evident erscheint und deren Tiefenschichten es aufzudecken gilt. Seit der Antike erweiterten sich die Herangehensweisen hermeneutischer Ansätze: zunächst über die Kirchenväter (Augustin), die Philosophen der Aufklärung (Friedrich Schlegel, Johann Gottfried Herder, Friedrich Schleiermacher) bis zu den Haupttheoretikern der Hermeneutik Wilhelm Dilthey, Martin Heidegger und vor allem
230
5. Forschungsverfahren
Hans-Georg Gadamer – im Verbund mit phänomenologischen Richtungen (Edmund Husserl, Clemens Brentano). Die Lehre von der Deutung und Interpretation tradierter religiöser, juristischer, philosophischer und literarischer Schriften versteht sich heute als die Anbahnung von Verstehens- und Auslegungsprozessen, welche vor allem auf die Sinnerkundung menschlicher Existenz und Handlungen allgemein ausgerichtet sind (zur Einführung vgl. Ahrens 2004, Hunfeld 1990, Rittelmeyer 2010). Somit bezieht sich die Hermeneutik nicht mehr allein und im Sinne der im 19. Jahrhundert etablierten philologischen Interpretations- und Analyseverfahren auf kanonisierte, bedeutungsvolle Kunstformen und gesellschaftliche Überlieferungen. Hermeneutische Verfahren charakterisiert vor allem das Bemühen, manifest-latente Sinngehalte aufzuspüren. Entsprechend gleichen diese Herangehensweisen einer detektivischen Spurensuche, dem Entschlüsseln eines Rätsels (Klein 2010: 263). Prägend für die geisteswissenschaftliche Forschung im 20. Jahrhundert waren die Arbeiten des Heidelberger Philosophen Hans-Georg Gadamer (1900 – 2002), der mit seinem Hauptwerk Wahrheit und Methode (1960/1965) ein eigenes Forschungs- und Methodenideal entwickelte. Gadamer propagierte das geisteswissenschaftliche Paradigma der „Interpretations-Kunst“ und erklärte die Hermeneutik als „ein Können, das besondere Feinheit des Geistes verlangt“ (Gadamer 1965: 290). In der Tradition Gadamers gelangt das hermeneutische Paradigma zum Tragen, wenn Forscher/innen Lebenswelten und Kulturpraxen in einem dialektischen Wechselspiel zwischen Beobachter/Interpreten und „Text“ (Medien, Personen, Praxen) erkunden, wenn es sich dabei um Prozesse der Ko-konstruktion von Bedeutung handelt, in denen die subjektive Perspektive hinterfragt wird. Diese breit angelegte Definition verdeutlicht, dass das hermeneutische Interaktionsparadigma auch in der Erforschung des Fremdsprachenunterrichts, des Fremdsprachenlernens und bei Fragen interkultureller Sinnbildung grundsätzliche Bedeutung aufweist: Denn die jeweils bei Prozessen der Bedeutungsaushandlung Beteiligten – wie Betrachter, Lernende, Lehrende, „Texte“ (wie Medien, Literatur, kulturelle Artefakte usw.) – sind stets als historisch situierte Elemente eines eingehender zu erkundenden, jeweils nur partiell zu beschreibenden Prozesses der Verstehensentfaltung zu verstehen. Ein derartiger Prozess der Bedeutungsaufklärung kann eben keinesfalls eine allgemeine, transkulturelle, sich intersubjektiv stets gleich formierende Gültigkeit beanspruchen. Als Wissenschaftstradition ging die Hermeneutik unmittelbar ein in ein fremdsprachendidaktisches Bildungsverständnis, welches – philologisch orientiert – auf die Vermittlung kanonischer Werke setzte und eine ästhetisch-literarische Bildung akzentuierte. Vor allem die Literatur- und Kulturdidaktik greift hermeneutische Ansätze der Rezeptionsästhetik auf (Bredella 2010: 18 – 30), indem sie sich von einem rein textimmanent ausgerichteten oder gar autorenzentrierten Verständnis von Textinterpretation und -analyse gelöst hat und Texterschließung primär als dialogische, offene Interaktion zwischen Rezipient/in und „Text“ versteht (im Sinne eines erweiterten, semiotisch zu bezeichnenden Textbegriffs bezieht sich die hermeneutische Herangehensweise zunehmend auch auf kulturelle Texte, Kulturen oder kulturell Andere). Es entwickelte sich zugleich der für deutschsprachige Länder bedeutsame Forschungsstrang der Auseinandersetzung mit dem Fremdverstehen – also einer philosophisch akzentuierten Auseinandersetzung mit dem Thema interkulturelles Lernen unter besonderer Berücksichtigung des Zugangs zum Fremden durch Literatur und/oder Medien. Dabei tritt in hermeneutischer Tradition der Bildungswert literarisch-ästhetischer Herangehensweisen hervor.
5.3.2 Hermeneutische Verfahren
231
Hermeneutische Zugriffe sind nicht nur für kultur- und literaturdidaktische Forschungen von großer Relevanz, sondern auch für qualitativ-empirische Untersuchungen (vgl. etwa im Überblick bei Bortz/Döring 2006). Bei der Aufbereitung, Darstellung und Analyse empirisch gewonnener Daten kommen Grundmuster der Hermeneutik (siehe unten) zur Anwendung, vor allem wenn es um kritische Herangehensweisen unter Berücksichtigung von Subjektivität, Voreingenommenheit und Interessenshintergrund empirischer Forschungsprojekte geht (vgl. Kapitel 5.3.3, 5.3.4, 5.3.5). 2 Hermeneutische Deutungsmethoden / Vorgehensweisen
Die hermeneutische Methodik wird in der Regel äußerst komplex definiert, beispielsweise wenn gefordert wird, dass das „Forschungsmaterial in einem zirkulären, irritationsgeleiteten, deutungsoffenen und mehrperspektivischen Erkenntnisgang über verschiedene Sinnschichten entschlüsselt wird“ (Klein 2010: 263). Zudem sind je nach Forschungsinteresse, Forschungsmaterial und der Frage der Berücksichtigung anderer Faktoren wie historisch-kultureller Kontexte eine Vielzahl von Herangehensweisen zu unterscheiden, wie dies bei Rittelmeyer geschieht, der im Wesentlichen sechs Interpretationsmethoden vorstellt (2010: 237 – 247). Diese sollen im Folgenden in starker Adaption kurz erläutert und mit Beispielen fremdsprachendidaktischer Fragestellungen illustriert werden: Die strukturale Interpretation: Gemeint ist damit die textimmanente Analyse und Interpretation eines in sich abgeschlossenen „Textes“, in seiner Gesamtheit wie in Einzelteilen (dies entspricht der traditionellen philologischen, analytischen, textimmanenten Interpretation). Diese stark literaturwissenschaftlich geprägten Analyseverfahren können auch in fachdidaktischen Publikationen zum Tragen kommen – beispielhaft beim Hinterfragen von Textintentionen, beim Aufdecken von persuasiven Argumentationsfiguren und dem Herausarbeiten des Interessegeleitetseins der in der eigenen Studie verarbeiteten Sekundärliteratur. Dazu gehört auch die Reflexion über die narrativen Erklärungsmuster der eigenen Studie. Analytische Verfahren als textimmanente Interpretation einzelne Texte der Fremdkultur spielen in der fremdsprachlichen Didaktikforschung allerdings eher eine untergeordnete Rolle. Die komparative Interpretation: Hierbei werden Texte mit anderen Texten zum gleichen Thema oder aus dem gleichen oder anderen Textgenre verglichen, um Besonderheiten wie Gemeinsamkeiten prägnant herauszuarbeiten. Zum Tragen kommen komparatistische Ansätze vor allem bei „Metastudien“ (vgl. Schmenk 2009), also Forschungsüberblicken mit Hinsicht auf eine bestimmte Fragestellung; gleichfalls wären sie bei Vergleichen von Interviewaussagen oder anderen Datenmengen zu berücksichtigen (s. Kapitel 5.4.3.). Die experimentelle Interpretation: Sie akzentuiert die spekulative, erprobende, alternative Deutungsmuster durchspielende Herangehensweise an Texte. Erhofft wird eine neue, ungeahnte Perspektive auf bestimmte Fragestellungen oder Interpretationsansätze. Experimentelle Elemente werden wirksam, wenn ungewöhnliche, bisher nicht beachtete oder gedanklich nicht gewagte Fragestellungen an Datenmaterialen herangetragen werden – auch im Sinne eines „Gegen-den-Strich-Lesens“ oder der Übernahme einer Advocatus-diaboliPosition, um erstarrte Denkmuster aufzubrechen oder aufzudecken (vgl. etwa die Studie von Delanoy (2002a), in welcher der Forscher seinen eigenen Unterricht selbstkritisch reflektiert und gerade Elemente des Konflikts oder studentischen „Widerstehens“ (vgl. Delanoy 2002a:
232
5. Forschungsverfahren
9) hervorhebt, um innovative Erkenntnisse über unterrichtliche Verstehensprozesse zu erlangen). Die psychologisch-mimetische Interpretation: Hier geraten vor allem affektive, auf (tiefen-) psychologische Vorprägungen des Beobachters/Lesers ausgerichtete Reaktionen auf den Text in den Vordergrund. Diese Herangehensweise folgt rezeptionsästhetischen Fragestellungen: „Was stellt dieser Text mit mir an?“ „Wie passt er in mein Vorverständnis bzw. auf welche Weise stellt er mein Vorverständnis in Frage?“ In Forschungskontexten bedeutet dies die Fähigkeit, sich von Forschungsthemen bzw. -gegenständen auch „überraschen“ und selbst in Frage stellen zu lassen. Auch hier weist die Studie von Delanoy (2002a) paradigmatische Züge auf, zielt sie doch im hermeneutischen Sinn ab auf eine sukzessive „Distanzierung von eigenen ‚Vorurteilen‘ und ein Betreten eines qualitativ anderen Erfahrungsraums“ (Delanoy 2002a: 59): Wenn die Reaktionen der Studierenden auf bestimmte Texte gegenüber der vorgefassten Interpretation des Forschers differieren, wird dies weniger als defizitäre Deutung abgewertet denn als erhellender Respons, welcher ein dialogisches Bedeutungsaushandeln in Gang setzt. Die kontextuelle Interpretation: Hierbei ist der zu interpretierende Text in seiner Einbettung in andere Kontexte zu verstehen, als Teil eines soziokulturellen Diskurses, der weit über Texte, Gegenstände usw. hinausgeht und vor allem Wertvorstellungen, Ideologien und Normen beinhaltet, die der jeweils zu deutende Text verhandelt. Deutlich wird die Bedeutung kontextueller Interpretationen beispielsweise in Studien zur Rezeption fremdkultureller Texte – in ihrer Studie zur Fremdwahrnehmung amerikanischer Indianerkulturen (indigenous people) kann Grimm (2009) etwa aufzeigen, wie stark negativ bestimmte tradierte Hetero stereotype die Auseinandersetzung mit Indianerkulturen im deutschsprachigen Kulturraum vorgeformt haben. Die kulturanalytische Interpretation: Diese Deutungsrichtung bewegt sich in Richtung der kritischen Aufdeckung und „Entlarvung“ der soziohistorischen Konstellationen, in welchen der jeweilige Text situiert ist, und erkundet beispielhaft die Frage, wie ein Text sich hierzu affirmativ, oppositionell oder subversiv verhält. Die kulturanalytische Interpretation kann durchaus in eine emanzipatorische, auf bildungspolitische Veränderung drängende Richtung deuten, wie in den oben angesprochenen Studien auf unterschiedliche Weise akzentuiert wird. Die Grunddeutungsmethode ist dabei die des hermeneutischen Zirkels, der paradigmatisch bei der Interpretation von historischen Quellen zur Anwendung kommt: Das sich spiralförmig bewegende Deuten eines Textes unternimmt zunächst den Versuch, ein Grundverständnis, eine allgemeine Einordnung des Textes zu etablieren. Ausgehend davon werden die einzelnen Elemente des Textes analysiert und die daraus gewonnenen Einsichten gelangen anschließend wieder mit dem Gesamttext in einen sinnerhellenden Verständniszusammenhang. Im sequenziellen Wechselspiel des wiederholten Berücksichtigens von Teilen und Ganzem entsteht dabei sukzessive ein tieferes, durchdringendes Verständnis des Textes in seiner Gesamtheit wie in seinen Teilen (vgl. auch Bortz/Döring 2006: 303, Garz 2010: 356; speziell Baacke 1993). Das Verfahren des hermeneutischen Zirkels birgt jedoch auch die Gefahr des Zirkelschlusses mit sich selbst in sich – wenn die Interpretation zur self-fulfilling prophecy gerät: Der/die Forschende glaubt im Gegenstand etwas zu erkennen, welches sich im Auge des Betrachters dann in den Einzelteilen des Gegenstandes spiegelt; die am Gegenstand erkannten Eigenschaften werden dann auch in anderen Gegenständen erkannt und zunehmend
5.3.2 Hermeneutische Verfahren
233
als Bestätigung der Eingangswahrnehmung gedeutet. Das durch Vorwissen bzw. Vorurteile geprägte Wissen wird lediglich bestätigt. Es stellt sich hierbei die Grundsatzproblematik jeglicher Forschungstätigkeit, nämlich wie mit dem eigenen Vorwissen umzugehen ist: Wie ist es selbstreflexiv zu thematisieren und zu beachten? Wie affiziert die eigene Beobachtungsperspektive den Forschungsvorgang? Wie in der fremdsprachendidaktischen Forschung mit den Gefahren des hermeneutischen Trugschlusses auf unterschiedliche Weise umgegangen wird, sei anhand zweier prägnanter Beispiele illustriert: In ihrer Überblicksstudie zur Rolle der Konstruktion von binärer Geschlechteropposition in fachdidaktischen Publikationen der letzten Jahrzehnte kann Barbara Schmenk (2009) nachweisen, wie die oben beschriebene Forschungsfigur der self-fulfilling prophecy fremdsprachendidaktische Studien geformt hat, da diese den Unterschied zwischen der sozial konstruierten Kategorie gender und der biologisch vorgegebenen Kategorie sex unbeachtet ließen. [K]ritikwürdig ist hier nicht nur, dass gender nicht als sozial konstruiert verstanden wird, sondern etwas Grundlegenderes: Es sind nicht Verhalten, Eigenschaften oder soziale Praktiken der Probanden, deren soziale Konstituiertheit Forscher nicht genügend berücksichtigen, sondern es sind die Geschlechtsbilder der Forschenden, die einen bestimmten hegemonialen Geschlechterdiskurs immer wieder reproduzieren, indem sie von diesem hervorgebrachte ‚Wahrheiten‘ in ihren Arbeiten fortwährend bestätigt sehen. (Schmenk 2009: 230 [Hervorhebung im Original])
Das Ausbrechen aus dem Circulus vitiosus der eigenen Vorannahmen oder Vorurteile erscheint entsprechend als eine wesentliche Prämisse für fremdsprachendidaktische Forschung, wie sich dies am Beispiel Gender, aber auch mit Bezug auf Ethnie, Alter, Motivation, Begabung usw. erläutern ließe (vgl. auch Ertelt-Vieth 1999). Während Schmenk derartige, die Forschungsergebnisse auf verfälschende Weise präfigurierenden Denkmuster aufdeckt, geht Werner Delanoy den genau entgegengesetzten Weg, indem er fremdsprachliche Unterrichtssituationen (hier ein selbst gehaltenes literatur- und kulturdidaktisches Seminar) vor allem daraufhin untersucht, inwieweit die Perspektive der Lehrperson bzw. des partizipierenden Unterrichtsforschers von Vorannahmen bestimmt ist. Er begreift seine Auseinandersetzung mit der Praxis als explorative Studie, bei der gerade jene Momente kritisch-selbstreflexiv ausgeleuchtet werden, in denen die eigenen theoretischen Konzepte mit der praktischen Erfahrung, vor allem dem Respons der Lernenden, in den Konflikt geraten und ein intensives Nachdenken erforderlich machen. Mit Gadamer erkennt Delanoy (2002a: 40) gerade das „Enttäuschtwerden“, die Diskrepanz zwischen Erwartung und Erfahrung, als den Impuls, der „neue Einsichten möglich sowie für neue Lernprozesse offen macht“. Dadurch ergibt sich ein Klären der eigenen Forscherperspektive, welche ein theoretisch-konzeptuelles „retheorising and reformulating auf der Grundlage einer reflektierten Betrachtung“ (ibid.: 55) von eigenem, aber auch von fremdem Unterricht anstrebt. Da Fragen des menschlichen Verstehens zum Schlüsselproblem wissenschaftlichen Forschens und Erkenntnisgewinns gehören, gelangen hermeneutische Verfahren – oftmals ohne als solche identifiziert zu werden – in allen Wissenschaftsdisziplinen zum Tragen (zur Bedeutung für erziehungs- und bildungswissenschaftliche Fragestellungen vgl. die Überblicke bei Bortz/Döring 2006, Garz 2010, Klein 2010, Rittelmeyer 2010). Prinzipielle Gemeinsamkeiten finden sich gerade zu den für empirische Verfahrensweisen bedeutsamen Bezugswissenschaf-
234
5. Forschungsverfahren
ten der anthropologischen und ethnologischen Forschung (s. Kapitel 5.3.1, 5.3.3). Wie diese (etwa bei Vertretern der Chicagoer Schule und des symbolischen Interaktionalismus) betont die Hermeneutik, dass Sinn jeweils in der Interaktion situativ ausgehandelt wird, dass alle Daten bereits Auslegungen darstellen und dass jede Präsentation komplexer Wirklichkeiten gleichzeitig und unvermeidbar eine Deutung von Handlungen, Äußerungen und Dokumenten ist. Hermeneutische Verfahrensweisen gleichen dabei dem Geertz’schen Paradigma der dichten Beschreibung einer „Vielfalt komplexer, oft übereinander gelagerter oder ineinander verwobener Vorstellungsstrukturen, die fremdartig und zugleich ungeordnet und verborgen sind“ (Geertz 1983: 15). Sie gilt es, mit größtmöglicher Sorgfalt und Präzision – gleichsam in archäologischer Feinarbeit – aufzudecken und zu deuten. Die oben genannten kontextorientierten und kritischen Herangehensweisen der Hermeneutik zeigen zudem eine evidente Nähe zu – und verbinden sich zugleich deutlich mit – kritischen Formen der Diskursanalyse (Foucault 1972, Fairclough 1992), kulturwissenschaftlichen Ansätzen der race, class and gender studies und der kritischen Stereotypenforschung. 3 Das hermeneutische Schlüsselthema: Verstehen des Anderen
Die Hermeneutik hat vor allem mit ihrer bei Gadamer paradigmatisch diskutierten Schlüsselproblematik des Verstehens des Anderen ihre Bedeutung für die Fremdsprachendidaktik erhalten. Denn das Andere, welches bei Gadamer zunächst der andere literarische Text oder die andere Person war und in der Alteritätsforschung in vielfachen Manifestationen (Gender, Ethnie usw.) untersucht wird, wurde in der Fremdsprachendidaktik als das fremdsprachlich und kulturell Andere fokussiert – vom Text über das Individuum bis zu Gemeinschaften. Zentral geraten hier Prozesse des Fremdverstehens in den Vordergrund, von den eher kulturwissenschaftlich ausgerichteten Vertretern der Alteritätsforschung und Xenologie (der „Lehre“ vom Fremden, vgl. im Überblick Wierlacher/Albrecht 2008) über die Grundproblematiken interkulturellen und transkulturellen Lernens und der dabei zu vermittelnden Kompetenzen (vgl. Bredella et al. 2000) bis zu philosophisch-erkenntnistheoretischen wie erkenntnispraktischen Fragestellungen der fremdsprachendidaktischen Forschung im Bereich des Fremdverstehens primär durch (literarische) Texte (vgl. Bredella 2010, Bredella et al. 2000, Bredella/ Delanoy 1996; Nünning/Bredella/Legutke 2002). Zentral für die Diskussion im Bereich des Fremdverstehens ist Gadamers Denkfigur der Horizontverschmelzung, zu der es beim hermeneutischen Verstehensprozess mit Bezug auf den (textuellen) Anderen geht: Im Verstehen geschieht eine „Verschmelzung der Horizonte“ (Gadamer 1965: 359; vgl. die Diskussion bei Hellwig 2005). Neuere hermeneutische Ansätze verstehen diese Horizontverschmelzung weniger als harmonisches Erlangen einer erweiterten Verstehensebene, sondern vielmehr als offenen, nur begrenzt lenkbaren, vorhersehbaren und beendbaren Langzeitprozess der Interaktion (v. a. Delanoy 2002a). Dieser Prozess des Erfahrens und Verstehens ist potenziell dann besonders fruchtbar und gewinnbringend, wenn es zu einem „Enttäuscht-Werden“ bisheriger Erfahrungen kommt. Erst in der Irritation eröffnet sich die Möglichkeit neuer Einsichten – bisweilen nicht vorhersehbare Lernprozesse werden ausgelöst und erweitern sukzessive bisherige Verstehens- und Handlungshorizonte. Werner Delanoy beschreibt den hermeneutischen Ansatz in der Tradition Gadamers als zentriert auf das „Kennenlernen neuer Positionen“; dies führt zu „neuen Sichtweisen, Hinterfragen
5.3.2 Hermeneutische Verfahren
235
der eigenen Horizonte, der eigenen Verstehensvoraussetzungen“; die Konfrontation mit dem Anderen birgt die Chance in sich, „die eigene Verstehens- und Handlungsmöglichkeit (selbst) kritisch zu erweitern“ (alle Zitate bei Delanoy 2002a: 15). Lothar Bredella hat in diesem Zusammenhang einflussreich auf das Wechselspiel von Außen- und Innenperspektive beim Prozess des Fremdverstehens aufmerksam gemacht: Der Erkenntnis- und Bildungsprozess, der letztlich Rückkoppelungen auf die Veränderung des eigenen Vorverständnisses hat, stellt sich damit als komplexe Wechselbeziehung von Perspektivenübernahme, Perspektivenwechsel und Perspektivenkoordination dar (Bredella 2010: xxiv). Bredella und andere verweisen dabei auf die Gefahren einer Reduktion des Fremden auf vertraute Verstehensschemata, gelangen jedoch zu der Einsicht, dass Kulturen nicht allein aus sich selbst heraus verstehbar sind, sondern auch von außen, aus der Distanz, wenn hermeneutische Prinzipien – Bewusstmachung habitualisierter Vorstellungen, Dialog, Prozessartigkeit, Interaktion, Offenheit – berücksichtigt werden. 4 Die privilegierte Rolle der Literatur beim Fremdverstehen
Bei Gadamer (wie auch in den Forschungsarbeiten von Lothar Bredella, Karlheinz Hellwig, Hans Hunfeld und Ansgar Nünning) erhält die Literatur einen privilegierten Status im Kontext des Verstehens. Werke herausragender Qualität, so eine hermeneutische Grundannahme und zugleich ein ethischer Anspruch, regen besonders zu verlangsamten, reflektierenden Wahrnehmungsprozessen an. Ihre semiotische Dichte sowie ihre künstlerisch kreierten Unbestimmtheiten produzieren eine intrikate Appellstruktur, welche Lesende und auch Lernende dazu auffordert, Bedeutung zu interferieren – die Rezeption fremdsprachiger oder fremdkultureller Texte stelle beim Prozess der Horizontverschmelzung bzw. bei der sukzessiven Horizontaushandlung einen „gesteigerte[n] Fall hermeneutischer Schwierigkeit, d. h. von Fremdheit und Überwindung derselben“ (Gadamer 1965: 365) dar. Das Potenzial der literarischen Kunst, die enigmatische, irritierende Ambivalenz ihres Verweisens durch Leer- und Unbestimmtheitsstellen wird in der von Gadamer beeinflussten Rezeptionsästhetik (v. a. bei Iser 1976) besonders hervorgehoben. Die Literaturdidaktik hat seit den 1970er und 1980er Jahren die von der Rezeptionsästhetik ausgehenden Impulse einer Bedeutungsverlagerung vom Text auf den individuellen Leser hin verstärkt aufgegriffen (vgl. Hellwig 2005). Die Appelle zur Verstehenserweiterung, die von literarischen Texten ausgehen, lassen die individuelle Reaktion der Lernenden in den Mittelpunkt treten und hinterfragen die Vorstellung von sich objektiv gerierenden, universalen Deutungsarten oder Musterinterpretationen zu Gunsten eines subjektiven und erfahrungsorientierten Literaturverständnisses. Hermeneutisch orientierte Didaktiker/innen halten die Literatur als besonders geeignet, um Einblicke in fremdkulturelle Lebenswelten zu erlangen. Die Identifikation von Schülern/ innen mit den Protagonisten/innen von Ich-Erzählungen oder das kurze schauspielerische Schlüpfen in die Rolle der kulturell differenten Dramenfigur erlauben so das Probehandeln in fiktiven Welten, eine intensive Teilhabe an der textuellen Fremdheit. Neue Sichtweisen eröffnen sich in der Konfrontation mit fremden Perspektiven, welches wiederum interkulturell wertvolle Prozesse der Empathie, Toleranz und Achtsamkeit gegenüber dem Anderen anbahne.
236
5. Forschungsverfahren
Das emphatische Wertschätzen fremdkultureller Literaturwelten sollte in Forschungskontexten durchaus von gewissen Caveats begleitet werden, aus denen sich wichtige Forschungsfragen ergeben (vgl. Donnerstag 1995: 328): (1) Die Fähigkeit und Bereitschaft, an alternativen Welten imaginativ teilzuhaben, ist stark abhängig vom eigenen Weltwissen und erfordert beim Lesen durchaus eine höhere Bereitschaft, auf die Offenheit, Suggestivität und Komplexität der textuell geschaffenen Welt einzugehen. Visuell-auditive Präsentationen erscheinen in der Regel einfacher zugänglich und entlasten den Rezeptionsprozess. Eine wichtige Forschungsfrage wäre entsprechend, wie unterschiedlich medial encodierte Texte bei Lernenden jeweils unterschiedliches Vorwissen oder verschiedene Decodierungsstrategien ansprechen und wie derartige „Genrekompetenzen“ und literacies zu fördern wären. (2) Literarische Texte fordern zur verlangsamten, entschleunigten Verarbeitung auf, zu einer intensiveren Verarbeitung der Textoberfläche. Dies erscheint Lernenden, die visuell-auditive Stimuli gewohnt sind, nicht nur als Anreiz, sondern auch als Problem beim Schaffen von Sinnkohärenz. Es wäre hier beispielweise zu untersuchen, welche gattungspezifischen Textstrategien die Rezeption besonders erschweren bzw. affektive Rezeptionsblockaden entstehen lassen (und wie didaktisch darauf zu reagieren wäre). (3) Dazu kommen bei fremdsprachlichen Texten besonders erschwerte Formen der Sprachverarbeitungsprozesse gegenüber muttersprachlich automatisierten Strategien. Lexis, Idiomatik, konnotative Bedeutungen wie kulturelle Anspielungen können Anreize zur Entschlüsselung liefern, aber ebenso als unüberwindliche Verstehensbarrieren wirken. Die affektive Wirkfunktion bestimmter Textsorten (Jugendliteratur, Fantasy usw.) wäre hier gerade mit Bezug auf die jeweilige sprachliche wie kulturelle Komplexität hin eingehender zu untersuchen, gerade bei der in der Literaturdidaktik stark geführten Diskussion um den „Schulkanon“ im Bereich Roman, Drama, aber auch Film (vgl. Bredella 2010, Legutke et al. 2002). 5 Forschungsbeispiele
Als beispielhaft für die heuristische Ausrichtung einer Vielzahl literatur- und kulturdidaktischer Arbeiten, welche Vorschläge für die Erweiterung des fremdsprachlichen „Schulkanons“ bieten, kann die Studie von Nancy Grimm (2009) gelten. Auf Basis der in Fachpublikationen geführten Debatte zur Erweiterung des literarischen Kanons im Englischunterricht der Oberstufe (Stichwort „geheimer Kanon“), einer umfangreichen Lehrwerkanalyse und stichpunktartigen Schülerbefragungen verdeutlicht Grimm die Notwendigkeit, tradierte, auf erheblichen Vorurteilen fußende Einschätzungen ethnischer Minderheiten in den USA, hier vor allem der indigenen Bevölkerung, durch didaktisch aufbereitete Vorschläge zu „alternativen“ Texten auszubalancieren. Während diese Arbeit stärker noch in der philologischtextinterpretierenden Tradition verankert ist, fokussiert die Studie von Britta Freitag-Hild (2010), bei ähnlicher Intention (nämlich alternative, stärker an Minderheitenautoren und -themen orientierte Texte vorzuschlagen), vor allem die gegenwärtige literaturdidaktische Diskussion um inter- und transkulturelles Lernen; dabei geraten die Komplexe des Fremdverstehens und der Perspektivenübernahme – in der Diskussion von Fallbeispielen und beim Auswerten entsprechender Unterrichtseinheiten – vor allem im Zusammenhang mit dem Erstellen konkret umzusetzender Aufgabendesigns bzw. Lernaufgaben in den Vordergrund. Interessant ist diese Studie, weil sie unmittelbar auf den eher theoretisch akzentuierten For-
5.3.2 Hermeneutische Verfahren
237
schungen zum Fremdverstehen durch Literatur (Bredella 2010, Nünning 2000) aufbaut. Die dort ausgeführten Lernziele der Perspektivenübernahme, Perspektivenkoordination und Empathiefähigkeit mit Hilfe der Literatur, insbesondere der „Minoritätenliteratur“, werden von der Forscherin in konkrete Aufgabentypologien umgesetzt, deren Wirksamkeit wiederum in einer empirischen Studie überprüft wird. Die Fragentaxonomie erstreckt sich dabei von eher Einfühlungsvermögen in der pre-reading phase fördernden Hypothesenbildungen zum zu lesenden Text über Aufgaben zur Selbstwahrnehmung bis zu produktiven Übungen im Bereich der Perspektivenübernahme und negotiation of perspectives. Freitag-Hild kann somit nachweisen, dass die Kernthese des hermeneutischen Fremdverstehens-Ansatzes, wie sie bei Bredella theoretisch entwickelt wurde, vor allem im Rahmen kreativ-produktiver Herangehensweisen umsetzbar ist und dass sie im Rahmen üblicher empirischer Verfahren untersuchbar erscheint (Analyse von Lernerprodukten, teilnehmende Beobachtung, Datentriangulation usw.). Als weitere exemplarische Studie sei die Dissertation von Birgit Schädlich (2009) genannt, die sich auf das literarische Lernen konzentriert, hier im Kontext literaturwissenschaftlicher Seminare an der Universität. Die qualitativ-empirische Interviewstudie untersucht am Beispiel des Fachs Französisch die Zusammenhänge zwischen Lehrerausbildung im akademischen Kontext und Anforderungen des Berufsfeldbezugs, indem sie Lehramtsabsolvent/innen nach dem Status quo ihrer Ausbildung fragt und die dabei konstatierte „Rückständigkeit“ des Wissenschaftsbetriebs mit Berufsfeldinteressen, bildungspolitischen Vorgaben und aktuellen Paradigmen in Forschung und Lehre kontrastiert. Sie kann deutliche Defizite universitärer Ausbildung herausarbeiten und eine stärker an „Handlungswissen“ orientierte Ausbildung vorschlagen (zu verbessern seien Aspekte wie mangelnder forschender Habitus, geringer Berufsfeldbezug, Rückgriff auf traditionelle Kulturbegriffe). Als wesentliche weitere Referenzpublikation sei der Aufsatz von Burwitz-Melzer (2001) genannt, welcher Einblicke in die Forschungsmethodik der Verfasserin bietet. Er beschreibt die wissenschaftstheoretischen Grundlagen einer diskursanalytisch, interaktionsanalytisch und hermeneutisch orientierten Fallstudie zur Arbeit mit fiktionalen Texten im Englischunterricht der Sekundarstufe I. Insbesondere Fragestellungen der Datentriangulation sowie zu möglichen Untersuchungsfeldern werden hier präzise und für ähnliche Studien applizierbar aufgefächert. Neben diesen eher literaturdidaktisch ausgerichteten Arbeiten sei nochmals auf die Referenzarbeit von Barbara Schmenk (2009) verwiesen, eine „Metastudie“, welche sowohl die Theoriediskussion wie auch empirische Forschungsarbeiten zum geschlechtsspezifischen Fremdsprachenlernen kritisch sichtet und dabei auf Grundlage der neueren Gender-Forschung aufzeigen kann, wie die Prämissen eines dominanten Geschlechterdiskurses die Fachdidaktikforschung nicht allein affizieren, sondern sogar Forschungsergebnisse präfigurieren. 6 Hermeneutische Ansätze und ihre Implikationen
Hermeneutische Ansätze betonen die Notwendigkeit qualitativer Verfahren und setzen in der Regel auf qualitativ perspektivierte Triangulation, auch bei der Auswertung quantitativer Daten. Hermeneutische Verfahren können jedoch auch, wie beispielsweise bei Schmenk (2009) eindrucksvoll bezeugt, ein Korrektivum für die in quantitativen Engführungen erstellten
Das Potential literarischer Texte Einblicke geben Identifikationen anbieten Rollenwechsel ermöglichen fiktive Welten eröffnen
struktural komparativ experimentell psychologisch-mimetisch kontextuell kulturanalytisch
textuelle Interpretationsmethoden
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Gefahr von Zirkelschlüssen
Grundverständnis, allgemeine Einordnung
Analyse von Einzelelementen
verändertes Grundverständnis
neue Einzelelemente
der/die/das Andere verstehen
Zirkularität („der hermeneutische Zirkel“), Irritation, Offenheit der Deutungen, Multiperspektivität, dichtes Beschreiben
Grundmuster hermeneutischer Erkennstnisgewinnung
Prozesse der Verstehensentfaltung erkunden / Textdeutungen
5.3.2 Hermeneutische Verfahren
238 5. Forschungsverfahren
5.3.2 Hermeneutische Verfahren
239
Forschungsaussagen darstellen, indem sie die derartigen Forschungen zugrunde liegenden, soziokulturell bedingten Vorannahmen infrage stellen und gegebenenfalls dekonstruieren. Sie können gerade im Bereich des interkulturellen Lernens dazu auffordern, eigenes stereotypes Denken sowie generell das Denken in binären Hierarchiemustern zu hinterfragen. Wie die ethnographische Herangehensweise fordert die Hermeneutik dazu auf, Selbstreflexivität und dialogische Interaktionsmuster walten zu lassen, den Einfluss des Beobachters auf das Beobachtete zu beachten, ebenso wie die Veränderung des Forschungsfeldes im Verlauf der intensivierten Interaktion mit dem Feld. Forschungsthemen, Aufgaben und Desiderate der Forschung sind in Publikationen von Delanoy (2002b), Nünning/Bredella/Legutke (2002) und Burwitz-Melzer (2001) sehr eingehend dargelegt. Grundsätzlich betont Werner Delanoy den Theorie-Praxis-Dialog als Zentralaufgabe der Literatur- und Kulturdidaktik. Er verweist auf die starke Theorielastigkeit der Forschung zur Literatur- und Kulturdidaktik, welche oftmals heuristisch ausgerichtete Prinzipien für den Unterricht entwickelt und dazu tendiert, der Praxis bzw. Lehrerschaft rückständige Herangehensweisen vorzuwerfen (fossilisierter Kanon, Lehrerzentriertheit, Favorisieren von Musterinterpretationen, Abneigung gegenüber stärkerer Schülerzentrierung beim Umgang mit Literatur usw.). Diese Einstellung verbindet sich bisweilen mit einer Abneigung gegenüber der Empirie, wie sie sich in Positionen manifestiert, welche literarisch-ästhetische Bildung als unvereinbar mit empirisch zu messenden Kompetenzrastern verstehen. Zentrales Untersuchungsfeld der Hermeneutik bleibt der (Verstehens-)Prozess bei der Interaktion zwischen Text und Leser im Fremdsprachenunterricht und die Frage nach Zusammenhängen, Bedingungen und Konsequenzen von Leseakten. Selbstverständlich müssen dabei Aspekte aus pädagogischen, psychosozialen, literatur- und kulturdidaktischen Komplexen mit berücksichtigt werden. Hier gilt es, Rückkoppelungseffekte zwischen Empirie und Praxis auszulösen: für Empfehlungen zur Auswahl und zum Einsatz von Literatur und Texten überhaupt, für die Gestaltung von Unterrichtsmaterialien und Tasks, zur Vorbereitung, Planung und Durchführung von Unterricht, und auch zur (Weiter-)Qualifizierung von Lehrkräften (vgl. eingehender die Vorschläge zu Forschungsfeldern bei Burwitz-Melzer 2001: 140 – 45, Delanoy 2002a: 166, Delanoy 2002b: 86 – 88; zum Methodenrepertoire Burwitz-Melzer 2001: 145, Klein 2010: 271). Zusammengefasst kann aus der Perspektive der hermeneutischen Forschung eine Reihe von handlungsleitenden kritischen Fragestellungen bei der Aufbereitung, Darstellung und Analyse von Daten zum Tragen kommen: – Beachte ich als ForscherIn meine subjektive Perspektive, mein Interessegeleitetsein, meine Verankerung in bestimmten historischen, sozialen, bildungs- und forschungspolitischen Diskursmustern? Wie „hinterfrage“ ich meine eigene Position und meine methodischen Verfahren und wie lege ich diese selbstreflexiv und für meine LeserInnen nachvollziehbar offen? – Beachte ich dabei, auch in der Darstellung, welche Stimmen und Positionen ich ausblende bzw. nicht beachte? Bedenke ich die Gründe für diese Akte von Exklusion? Lasse ich andere, meinen Ansatz möglicherweise radikal in Frage stellende Positionen in meine Reflexionen oder meine Argumentationsstruktur einfließen, indem ich z. B. Advocatusdiaboli-Perspektiven durchdenke?
240
5. Forschungsverfahren
– Beachte ich immer wieder die Gefahr des hermeneutischen Trugschlusses, der darin besteht, dass unhinterfragt akzeptierte Vorannahmen oder vorläufig erstellte Hypothesen meine weitere Auseinandersetzung mit den Daten vorprägen und meine Vor-Urteile letztlich nur bekräftigen? Betrachte ich mein „Gesamtnarrativ“ durchaus auch einmal im Überblick kritisch, mit dem Ziel, unterschwellig wirkende Vorannahmen zu revidieren und zu differenzierten Ergebnissen zu kommen, bei denen eventuell auch ungelöste Probleme und vorläufige Ergebnisse weiter existieren? – Richte ich bei historisch ausgerichteten Arbeiten meinen Blick auch auf die historisch-sozialen Kontexte der Entstehungsgeschichte von Texten und versuche diese aus sich heraus zu verstehen (vgl. Kapitel 5.3.1 zur Analyse historischer Quellen)? Bin ich mir bewusst, dass meine Perspektive entscheidend von gegenwärtigen Erkenntnissen über die Vergangenheit geprägt ist? – Beachte ich bei der Untersuchung von Verstehensprozessen im Fremdsprachenunterricht den individuell sehr unterschiedlich ausprägten Erfahrungs- und Wissenshorizont der Lernenden, z. B. bei affektiven Komponenten, dem interkulturellen Moment sowie bei der Passung von Themen, Inhalten, Texten, Methoden, Kompetenzen und Lernzielen? Es gilt nach wie vor die Feststellung von Eva Burwitz-Melzer, die besonderen Forschungsbedarf im Bereich der Frage nach dem Stellenwert interkultureller Inhalte erkennt, „wobei allerdings auf Grund des Mangels an empirischer Forschung bis heute ungeklärt ist, was eigentlich im Unterricht bei der Behandlung solcher Themen und Inhalte passiert, welche Lernziele genau ins Auge gefasst werden können und sollen, und wie diese methodisch sinnvoll umzusetzen sind bzw. in den bereits bestehenden kommunikativ ausgerichteten Fremdsprachenunterricht zu integrieren sind“ (Burwitz-Melzer 2001: 139). ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Ahrens, Rüdiger (2004). Hermeneutik. In: Nünning, Ansgar (Hg.). Metzler Lexikon Literatur- und Kulturtheorie. Ansätze – Personen – Grundbegriffe. 3. Auflage. Stuttgart: Metzler, 252 – 255. Baacke, Dieter (1993). Ausschnitt und Ganzes. In: Baacke, Dieter/Schulze, Theodor (Hg.). Aus Geschichten lernen. Zur Einübung pädagogischen Verstehens. München: Juventa, 87 – 125. Bortz, Jürgen/Döring, Nicola (2006). Historische Entwicklung des qualitativen Ansatzes. In: Bortz, Jürgen/Döring, Nicola (Hg.). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4. Auflage. Heidelberg: Springer, 302 – 308. Bredella, Lothar (2010). Das Verstehen des Anderen. Kulturwissenschaftliche und literaturdidaktische Studien. Tübingen: Narr. Bredella, Lothar (1997). Minderheitenliteratur und interkulturelles Lernen. In: Der fremdsprachliche Unterricht Englisch 31/ H. 27, 26 – 31. Bredella, Lothar/Delanoy, Werner (Hg.) (1996). Challenges of Literary Texts in the Foreign Language Classroom. Tübingen: Narr.
5.3.2 Hermeneutische Verfahren
241
Bredella, Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar (Hg.) (2000). Wie ist Fremdverstehen lehr- und lernbar? Vorträge aus dem Graduiertenkolleg „Didaktik des Fremdverstehens“. Tübingen: Narr. * Burwitz-Melzer, Eva (2001). A lesson is a lesson is a lesson? – Forschungsmethodik für den Englischunterricht mit fiktionalen Texten und interkulturellen Lerninhalten. In: Müller-Hartmann, Andreas/ Schocker-v. Ditfurth, Marita (Hg.). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 137 – 162. * Delanoy, Werner (2002a). Fremdsprachlicher Literaturunterricht. Theorie und Praxis als Dialog. Tübingen: Narr. Delanoy, Werner (2002b). Literaturdidaktik und fremdsprachlicher Literaturunterricht: Theorie und Praxis als Dialog. In: Legutke et. al, 55 – 98. Donnerstag, Jürgen (1995). Lesestrategien und Lesetechniken. In: Ahrens, Rüdiger/ Bald, Wolf-Dietrich/ Hüllen, Werner (Hg.). Handbuch Englisch als Fremdsprache. Berlin: Schmidt, 327 – 329. * Ertelt-Vieth, Astrid (1999). Eigen- und Gegenbilder in interkultureller Kommunikation: Ein Fallbeispiel zur prozessorientierten Symbolanalyse. In: Zeitschrift für Fremdsprachenforschung 10/1, 97 – 131. Fairclough, Norman (1992). Discourse and Social Change. Cambridge: Polity. * Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. British Fictions of Migration im Fremdsprachenunterricht. Trier: WVT. Foucault, Michel (1972). L’ordre du discours. Paris: Gallimard [1998. Die Ordnung des Diskurses. Frankfurt: Fischer]. Gadamer, Hans-Georg (1960/1965). Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik. 3. Auflage. Tübingen: Mohr. Garz, Detlef (2010): Objektive Hermeneutik. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. Auflage. Weinheim & München: Juventa, 249 – 262. Geertz, Clifford (1983). Dichte Beschreibung: Beiträge zum Verstehen kultureller Systeme. Frankfurt am Main: Suhrkamp. * Grau, Maike (2001). Forschungsfeld Begegnung: Zum Entstehungsprozess einer qualitativen Fallstudie. In: Müller-Hartmann, Andreas/Schocker-v. Ditfurth, Marita (Hg.). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 62 – 83. * Grimm, Nancy (2009). Beyond the ‚Imaginary Indian‘. Zur Aushandlung von Stereotypen, kultureller Identität und Perspektiven in/mit indigener Gegenwartsliteratur. Heidelberg: Winter. Hellwig, Karlheinz (2005). Bildung durch Literatur. Individuelles Sinnverstehen fremdsprachiger Texte. Eine literaturdidaktische Tour d’Horizon. Frankfurt am Main: Lang. Hunfeld, Hans (1990). Literatur als Sprachlehre. Ansätze eines hermeneutisch orientierten Fremdsprachenunterrichts. Berlin: Langenscheidt. Iser, Wolfgang (1976). Der Akt des Lesens. Theorie ästhetischer Wirkung. München: Fink. Jauß, Hans-Robert (1994). Wege des Verstehens. München: Fink. Klein, Regina (2010). Tiefenhermeneutische Analyse. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. Auflage. Weinheim & München: Juventa, 263 – 280. Legutke, Michael K./Richter, Annette/Ulrich, Stefan (Hg.) (2002). Arbeitsfelder der Literaturdidaktik. Bilanz und Perspektiven. Lothar Bredella zum 65. Geburtstag. Tübingen: Narr. Nünning, Ansgar (2000). Intermisunderstanding. Prolegomena zu einer literaturdidaktischen Theorie des Fremdverstehens. In: Bredella, Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar (Hg.), 84 – 132.
242
5. Forschungsverfahren
Nünning, Ansgar/ Bredella, Lothar/Legutke, Michael K. (2002). Ansgar Nünning im Gespräch mit Lothar Bredella mit einer Einführung von Michael K. Legutke. In: Legutke et al., 99 – 125. Rittelmeyer, Christian (2010). Methoden hermeneutischer Forschung. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. Auflage. Weinheim, München: Juventa, 235 – 248. *Schädlich, Birgit (2009). Literatur Lesen Lernen. Literaturwissenschaftliche Seminare aus der Perspektive von Lehrenden und Studierenden. Eine qualitativ-empirische Studie. Tübingen: Narr. *Schmenk, Barbara (2009): Geschlechterspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. 2. Auflage. Tübingen: Stauffenburg. Volkmann, Laurenz (2000). Interkulturelle Kompetenz als neues Paradigma der Literaturdidaktik? Überlegungen mit Beispielen der postkolonialen Literatur und Minoritätenliteratur. In: Bredella, Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar (Hg.). Wie ist Fremdverstehen lehrund lernbar? Vorträge aus dem Graduiertenkolleg „Didaktik des Fremdverstehens“. Tübingen: Narr, 164 – 190. Wierlacher, Alois/Albrecht, Corinna (2008). Kulturwissenschaftliche Xenologie. In: Nünning, Ansgar/ Nünning, Vera (Hg.). Einführung in die Kulturwissenschaften. Stuttgart: Metzler, 280 – 306. »» Zur Vertiefung empfohlen Berensmeyer, Ingo (2010). Methoden hermeneutischer und neohermeneutischer Ansätze. In: Nünning, Vera/Nünning, Ansgar (Hg.). Methoden der literatur- und kulturwissenschaftlichen Textanalyse. Ansätze, Grundlagen. Modellanalysen. Stuttgart: Metzler, 29 – 50. Der Beitrag mit literatur- und kulturwissenschaftlichem Fokus liefert eine knappe Einführung in die zugrunde liegende Theorie der Methode, stellt die Methode vor und liefert eine Musterinterpretation zu Shakespeares Sonett 73. Eine abschließende Kritik ordnet die Methode in die neuere Theoriediskussion ein. Bredella, Lothar (2010). Das Verstehen des Anderen. Kulturwissenschaftliche und literaturdidaktische Studien. Tübingen: Narr. Diese Publikation stellt eine Zusammenfassung verschiedener, überarbeiteter Publikationen Bredellas dar und bietet eine gute Einführung in das Denken des für hermeneutische Positionen in der Fremdsprachendidaktik so bedeutungsvollen Forschers. Es finden sich hier sowohl essenzielle Überlegungen zu Grundzügen der Didaktik des Fremdverstehens als auch zahlreiche Diskussionen literarischer Fallbeispiele. Delanoy, Werner (2002). Literaturdidaktik und fremdsprachlicher Literaturunterricht: Theorie und Praxis als Dialog. In: Legutke et al. (Hg.), 55 – 98. Für eine hermeneutische Fremdsprachendidaktik, die den Prinzipien der Selbstreflexion und der dialogischen, offenen Interaktion verpflichtet ist, stellt dieser auf den Gedanken Gadamers und auch Bredellas aufbauende Aufsatz einen wichtigen Beitrag dar. Er nennt zahlreiche Forschungsprinzipien und mögliche Forschungsgebiete. Nünning, Ansgar/Bredella, Lothar/Legutke, Michael K. (2002). Ansgar Nünning im Gespräch mit Lothar Bredella mit einer Einführung von Michael K. Legutke. In: Legutke et al. (Hg.), 99 – 125. Dieser höchst anregende Beitrag vermittelt einen ersten Einblick in die Didaktik des Fremdverstehens mit Hilfe literarischer Texte und liefert Perspektiven für künftige Forschungsfragen und Forschungsdesigns. Zu einem ersten Überblick sei diese Diskussion zwischen einem didaktisch stark
5.3.3 Grounded Theory und Dokumentarische Methode
243
interessierten Literaturwissenschaftler und einem literaturwissenschaftlich höchst gebildeten Literaturdidaktiker sehr empfohlen.
5.3.3 Grounded Theory und Dokumentarische Methode Karin Aguado
Ziel des vorliegenden Beitrags ist die Darstellung und Diskussion ausgewählter methodischmethodologischer Verfahren, die ursprünglich zur Untersuchung von Fragestellungen der qualitativen Sozialforschung entwickelt worden sind, sich in jüngster Vergangenheit jedoch auch bei empirisch arbeitenden Fremdsprachendidaktiker/innen zunehmend großer Beliebtheit erfreuen. Es handelt sind zum einen um die Grounded Theory-Methode bzw. -Methodologie (im Folgenden mit GTM abgekürzt)17 und zum anderen um die Dokumentarische Methode (im Folgenden mit DM abgekürzt) sowie um allgemein-rekonstruktive Verfahren. Gemeinsam ist allen Verfahren zunächst einmal ihre Verwurzelung in der Ethnomethodologie – einer Forschungsrichtung innerhalb der Soziologie, die die Methoden, Verfahren und Techniken untersucht, mit denen die Angehörigen einer sozialen Gemeinschaft ihre alltäglichen Aktivitäten und Handlungen organisieren und steuern. Nach Bergmann (1988: 3) dient die ethnomethodologische Vorgehensweise dazu „zu rekonstruieren, wie wir die Wirklichkeit (…) in unserem tagtäglichen Handeln und im sozialen Umgang miteinander als eine faktische, geordnete, vertraute, verlässliche Wirklichkeit hervorbringen.“ Zu den zentralen Merkmalen ethnographischer Ansätze zählen Ganzheitlichkeit, interpretativer Zugang und Reflexivität im Hinblick auf den Forschungsprozess – allesamt Charakteristika, die auch für die hier vorgestellten Verfahren kennzeichnend sind. Grundsätzlich gilt in der qualitativen Forschung der Grundsatz, dass die Forschungsmethode vom Gegenstand bestimmt wird bzw. ihm anzupassen ist. Die zentrale Gemeinsamkeit der im Folgenden behandelten Verfahren besteht mithin darin, Prozesse, Ereignisse, Situationen und Handlungen aus einer emischen Perspektive zu beschreiben und zu verstehen, d. h. sie aus der Innensicht der untersuchten Akteure zu rekonstruieren, und zwar mittels der beiden empirischen Basismethoden Beobachtung und Befragung. Gleichzeitig gehen Vertreter dieser Verfahren von der Prämisse aus, dass es keine subjekt- bzw. standortunabhängige Forschung gibt. Daraus folgt zwecks Erfüllung des Gütekriteriums der Transparenz bzw. der Nachvollziehbarkeit, dass diese Subjektivität in Bezug auf sämtliche Phasen des Forschungsprozesses zu dokumentieren und zu reflektieren ist. Anhand ausgewählter Referenzarbeiten soll gezeigt werden, wie die konkrete Anwendung der verschiedenen Verfahren in der fremdsprachenlehr-/-lernbezogenen Forschungspraxis im 17 Im vorliegenden Text wird kein Versuch unternommen, die Bezeichnung des hier behandelten Verfahrens der GT ins Deutsche zu übersetzen. Es wird sogar davon abgeraten, es zu tun, weil dies unweigerlich zu unangemessenen Verkürzungen dieser komplexen Forschungsstrategie führen würde. In der Vergangenheit unternommene Vorstöße führten zu Bezeichnungen wie „gegenstandsbegründete“, „gegenstandsbasierte“, „gegenstandsbezogene“ oder auch „datengestützte“ Theoriebildung, wobei keine von ihnen den Kern des Verfahrens trifft bzw. alle grundsätzlich zu kurz greifen. Aus diesem Grund wird für die Beibehaltung der englischsprachigen Originalbezeichnung Grounded Theory plädiert.
244
5. Forschungsverfahren
Idealfall aussehen kann. Schon an dieser Stelle sei vorweggenommen, dass in der qualitativen Forschung heute kaum ein methodisches Verfahren in Reinform angewendet wird, sondern häufig durch spezifische Anpassungen sowie durch Kombinationen mit anderen Verfahren gekennzeichnet ist. 1 Grounded Theory: Entstehung, Ziele, Spezifika18
Im Zusammenhang mit der Frage, ob es sich bei der Grounded Theory (GT) um eine Forschungsmethode, um eine Forschungsmethodologie oder um eine Forschungsstrategie handelt, ist zunächst einmal sowohl inhaltlich als auch terminologisch zwischen Prozess bzw. Weg (= Grounded Theory-Methode bzw. -Methodologie) und Produkt bzw. Ziel (= Grounded Theory) zu unterscheiden. Da der Fokus des vorliegenden Handbuchs im Bereich der Verfahren der empirischen Fremdsprachenforschung liegt und es sich bei im Folgenden dargestellten Verfahren nicht um eine einheitliche Methode handelt, sondern stattdessen verschiedene Varianten bzw. Entwicklungen koexistieren, werde ich im weiteren Verlauf dieses Beitrags nicht von Methode, sondern von Methodologie (GTM) sprechen. Mit ihrer Monographie The Discovery of Grounded Theory. Strategies for Qualitative Research haben die beiden Soziologen Barney G. Glaser und Anselm L. Strauss im Jahr 1967 das Konzept des von ihnen gemeinsam entwickelten Verfahrens für eine datengeleitete Theoriegenerierung veröffentlicht. Ihr Ziel war es, nicht nur generell eine Lanze für eine qualitative empirische Herangehensweise an wissenschaftliche Fragestellungen zu brechen und eine Alternative zu den bis dato bevorzugt angewendeten quantitativ-deduktiven Vorgehensweisen zu entwerfen. Sie wollten darüber hinaus eine Ergänzung zu rein deskriptiven qualitativen Ansätzen anbieten. Gründe dafür waren die aus ihrer Sicht überfällige Hinterfragung sogenannter Grand Theories, im Rahmen derer sie selbst sozialisiert worden waren wie z. B. der Symbolische Interaktionismus oder der Kritische Rationalismus, und die Ermutigung des wissenschaftlichen Nachwuchses, sich von diesen mächtigen Theorien zu emanzipieren und in der eigenen empirischen Arbeit neue Wege einzuschlagen. Das zentrale innovative Merkmal der in der Sekundärliteratur (z. B. von Mey/Mruck 2011: 12) als programmatisch bezeichneten Veröffentlichung von Glaser/Strauss ist zusammengefasst die Eröffnung der Möglichkeit, systematisch erhobene Daten nicht nur zu beschreiben und anhand vorgegebener Kategorien zu analysieren, sondern sie selbst zur Konzept- und Theoriebildung zu nutzen. Es scheint, als habe die qualitativ arbeitende scientific community auf eine solche Herangehensweise gewartet, denn die GTM wurde mit Begeisterung aufgenommen und hat sich in den vergangenen vier Jahrzehnten fest in der qualitativen Forschung etabliert, wobei festzuhalten ist, dass sie in mehreren Varianten oder Interpretationen ko-existiert. So gibt es sowohl im internationalen Vergleich als auch hinsichtlich der verschiedenen wissenschaftlichen Disziplinen, die sich ihrer bedienen, z.T. unterschiedliche Entwicklungen und Schwerpunktsetzungen, auf die weiter unten noch einzugehen sein wird. 18 Da es im Rahmen des vorliegenden Beitrags nicht möglich ist, die gesamte Entwicklung, die allmählich sich entwickelnde Kontroverse zwischen Barney G. Glaser und Anselm L. Strauss sowie die Weiterentwicklungen der GTM durch die zweite Generation nachzuzeichnen, sei an dieser Stelle auf den kontinuierlich aktualisierten Grounded Theory Reader hingewiesen, dessen aktuelle Ausgabe von Mey/Mruck im Jahr 2011 herausgegeben worden ist.
5.3.3 Grounded Theory und Dokumentarische Methode
245
Im Unterschied zu anderen Forschungsstrategien handelt es sich bei der GTM um ein komplexes, ganzheitliches Verfahren, das sowohl zur Gewinnung als auch zur Analyse und zur Interpretation von Daten dient. Es integriert also die genannten drei Forschungsphasen bzw. -ebenen miteinander, die klassische Trennung entfällt: D.h. man wartet mit der Aufbereitung, Analyse und Interpretation nicht, bis alle Daten erhoben sind, sondern beginnt unmittelbar nach der ersten Datenerhebung mit der Auswertung, deren Ergebnisse dann das weitere Vorgehen bestimmen, wie z. B. die Auswahl der als nächstes zu erhebenden Daten. Diese Vorgehensweise ist konstitutiv für die GTM und bringt für Forschende den großen Vorteil mit sich, schon gleich zu Beginn des Forschungsprozesses sehr nah an den Daten zu arbeiten, d. h. sich mit ihnen vertraut zu machen sowie erste Kodierungen und Kategorisierungen vorzunehmen. So verringert sich auch das Risiko, sogenannte Datenfriedhöfe zu produzieren, da im weiteren Forschungsprozess idealiter nur solche Daten erhoben werden, von denen begründet angenommen wird, dass sie für die jeweilige Arbeit – also für das eigene Erkenntnisinteresse, die Beantwortung der Forschungsfrage(n) und das Erreichen des übergeordneten Forschungsziels – relevant und nützlich sind. Von der theoretischen Sensibilität über das theoretische Sampling bis zur theoretischen Sättigung
Zu Beginn ihrer gemeinsamen Arbeit forderten Glaser und Strauss von Forschenden, die mit dem GTM-Ansatz arbeiten wollten, den völligen Verzicht auf jegliche Lektüre einschlägiger Literatur und daraus möglicherweise resultierenden theoretischen Begriffsbildungen. Stattdessen hielten sie das Vorhandensein einer theoretischen Sensibilität für notwendig und hinreichend. Sie meinten damit die Fähigkeit, im Datenmaterial theoretisch relevante Kategorien sowie zwischen ihnen bestehende Beziehungen entdecken zu können.19 Während Glaser bis heute an dieser Position festhält, hat Strauss (in seinen Publikationen zusammen mit Corbin) im Laufe der Zeit seine Einstellung zur Einbeziehung vorhandener Forschungsliteratur geändert bzw. aktualisiert. Glaser zufolge sollte im Vorfeld einer empirischen Arbeit nicht einmal ein Forschungsbericht angefertigt werden, weil die Kenntnis und Einbeziehung von Literatur zu einer Kontamination der zu bildenden Kategorien führen könnte und so das eigentliche Ziel der GTM – nämlich eine Theorie aus den Daten emergieren zu lassen – verfehlt würde. Zu dieser Emergenz könne es aber nur dann kommen, wenn Forschende die Daten unvoreingenommen und ohne störendes Vorwissen betrachten. Daher sollten erst bei Vorliegen der zentralen Kategorien der zu bildenden GT überhaupt andere Informationsquellen konsultiert werden. Wenngleich Glasers Position theoretisch prinzipiell nachvollziehbar ist, ist sie gleichzeitig nicht nur unrealistisch und ineffizient, sondern aus heutiger Sicht auch unwissenschaftlich und somit inakzeptabel. Die Rezeption und Verarbeitung vorhandener Fachliteratur spielt für jeden Forschungsprozess eine zentrale Rolle – und sie schützt vor unangenehmen Überraschungen oder vermeintlichen Neuentdeckungen. Ferner ist unbestritten, dass empirische Beobachtungen nicht nur von fachlichem Vorwissen, sondern auch von subjektiven Erfahrungen und Erwartungen beeinflusst werden, und so gehört es inzwischen zum 19 Es handelt sich hierbei um eine sehr abstrakte und nicht näher spezifizierte Eigenschaft oder Kompetenz, bei der sich nicht nur viele Forschungsanfänger/innen fragen, ob und wie man sie erwerben kann oder ob es sich eher um ein Persönlichkeitsmerkmal handelt, über das man entweder verfügt oder nicht.
246
5. Forschungsverfahren
wissenschaftlichen Standard, Vorwissen jeglicher Art entsprechend zu dokumentieren und hinsichtlich seines Stellenwerts zu evaluieren (für ein typisches Beispiel vgl. Ehrenreich 2004, Abschnitt BI.1.3, in dem die Forscherin explizit ihr ausbildungs- und berufsbiographisch geprägtes Vorwissen benennt und hinsichtlich seiner Rolle für die empirische Untersuchung reflektiert. So beschreibt sie die aus ihrer vorhandenen Vertrautheit mit dem Forschungsfeld resultierenden Auswirkungen auf das Verhältnis zu den Befragten sowie auf die Kommunikationsstruktur und die Gesprächsinhalte). Das zuvor bereits angedeutete methodische Vorgehen der GTM bei der Datengewinnung wird als Theoretical Sampling bezeichnet. Damit ist die im Rahmen der Theorieentwicklung kontinuierlich erfolgende Erhebung weiterer Daten gemeint, deren Funktion die Gewinnung eines möglichst breiten Variationsspektrums ist. Die methodisch-methodologische Begründung für das theoretische Sampling ist die im Rahmen der qualitativen Forschung gegebene Problematik der Bestimmung einer Grundgesamtheit und die daraus resultierende Unmöglichkeit der Ziehung einer repräsentativen Stichprobe. Stattdessen wird eine sukzessive Differenzierung und Verfeinerung der bereits gewonnenen, grundsätzlich als vorläufig zu betrachtenden Erkenntnisse angestrebt. Die weiteren Daten werden nach der größten Relevanz für den untersuchten Gegenstand ausgewählt, wobei generell eine maximale Heterogenität und ein möglichst großer Kontrast zwischen ihnen anzuvisieren sind. Im Unterschied zu allen strikt sequentiell angelegten hypothesentestenden oder hypothesengenerierenden Verfahren geht die GTM also zyklisch20 vor, d. h. die Erhebung weiterer Daten, ihre unmittelbare Kodierung und Analyse sowie der kontinuierliche Vergleich mit bereits kodierten und analysierten Daten zum Zweck der Bildung theoretischer Konzepte werden so lange betrieben, bis der Forscher/die Forscherin an einem Punkt angelangt ist, den Glaser und Strauss theoretische Sättigung nennen: Wenn sich also herausstellt, dass die Erhebung und Analyse von weiteren Daten keinen neuen Erkenntnisgewinn mehr bringen, die Kategorien bereits maximal dicht und ihre Beziehungen untereinander identifiziert und benannt sind, gilt die bis dahin aufgestellte Theorie als vorläufig gesättigt. Hinsichtlich der Güte dieser Theorie sei hier die Position von Mey/Mruck zitiert: „Nicht die Zahl der Fälle, sondern die Systematik ihres Einbezugs und der Vergleiche macht die Qualität einer GT aus“ (Mey/Mruck 2011: 29). Gleichzeitig muss an dieser Stelle eingeräumt werden, dass es ein sehr hoch gestecktes Ziel ist, im Rahmen einer einzelnen Studie Sättigung erreichen zu wollen. In diesem Zusammenhang interessant und sehr sinnvoll erscheint mir daher der Vorschlag von Dey (1999), hier von Hinlänglichkeit (sufficiency) anstatt von Sättigung (saturation) zu sprechen. Die skizzierte Iterativität ist für eine begründete und valide Theoriegenerierung also unverzichtbar, wobei mittels GTM in der Regel die Formulierung von Theorien mittlerer Reichweite (vgl. dazu Merton 1949) anstrebt wird. Dabei ist festzuhalten, dass die meisten auf diese Weise gewonnenen Theorien immer nur Teil-Theorien, Entwürfe oder Skizzen sind, denn: „The published word is not the final one, but only a pause in the never-ending process of generating theory“ (Glaser/Strauss 1967: 40).
20 Vielfach wird in deutschsprachigen Publikationen hier die meiner Ansicht nach unangemessene Bezeichnung ‚zirkulär‘ verwendet. Dieser Terminus impliziert jedoch nicht die gewünschte dynamische Entwicklung und verfehlt damit den Kerngedanken der GTM.
5.3.3 Grounded Theory und Dokumentarische Methode
247
Offenes, axiales und selektives Kodieren
Um Kategorien entwickeln zu können, müssen die vorhandenen Daten zunächst kodiert werden. Dazu stehen in der GTM drei chronologisch aufeinander folgende Kodierverfahren zur Verfügung:21 Das erste Verfahren – das offene Kodieren – umfasst das detaillierte Zeile für Zeile-Lesen der Daten, und zwar zwecks Beantwortung der allgemeinen Frage: Worum geht es hier? Hier ist ein maximal freier Umgang mit den Daten das Ziel, d. h. es sollen sämtliche Ideen und Assoziationen sowie deren Erläuterung notiert und mit groben, vorläufigen Kodes versehen werden. Bei der Benennung wird zwischen soziologischen Konstrukten auf der einen Seite und natürlichen Kodes (auch in-vivo-Kodes genannt, weil sie dem Material direkt entnommen sind) auf der anderen Seite unterschieden. In dem sich nun anschließendem Verfahren – dem axialen Kodieren – geht es um die systematische Bildung, Differenzierung und Verfeinerung der gewonnenen von Kategorien und deren zunehmende Abstraktion. Dazu werden die zuvor ermittelten Kodes anhand des von Strauss (1987) und Strauss/Corbin (1990) entwickelten Kodierparadigmas systematisch auf Bedingungen, Verbindungen und Konsequenzen überprüft. D.h. beim axialen Kodieren stehen die Kategorien im Zentrum und werden systematisch hinsichtlich ihrer Relationen zu anderen Kategorien beleuchtet und verdichtet. Im letzten Schritt – dem selektiven Kodieren – geht es um die Ermittlung der Kernkategorie als Grundlage für die angestrebte Theoriebildung. Die mittels des axialen Kodierens gewonnenen Kategorien werden zwecks Bestimmung von Oberkategorien abermals systematisch klassifiziert, d. h. die praktische Vorgehensweise ist prinzipiell identisch mit dem zweiten Kodierschritt, das Resultat weist allerdings einen zunehmend höheren Abstraktionsgrad auf (vgl. Strauss/Corbin 1990: 117). Für die sich nun anschließende Formulierung der zu generierenden Theorie werden sämtliche interpretativen Schritte miteinander integriert. Abschließend ist die gewonnene Theorie einer Überprüfung an Daten zu unterziehen. Im Hinblick auf die Qualität der Theoriebildung betont Muckel (2011) zum ersten die Wichtigkeit des wiederholten genauen Lesens der erhobenen Daten sowie deren permanenter Vergleich. Zum zweiten stellt sie hinsichtlich der Kategorienbildung folgendes fest: Außerdem werden die entwickelten Kategorien umso besser (dichter, prägnanter, integrativer), je mehr es den Forschenden gelingt, u. a. zwischen zwei Einstellungen/Haltungen den Daten gegenüber zu wechseln [Hervorhebung im Original]: Zum einen sollte versucht werden, eigenen Interpretations- und Lesartenideen nachzugehen und sie in verschiedenen Datenausschnitten zu belegen. Zum anderen sollte man immer wieder eine Gegenbewegung dazu antreten und sozusagen fragen, ob etwas auch anders sein könnte, als es gerade erscheint. Diese beiden Haltungen einzunehmen – also Belege und Widersprüche in den Daten [Hervorhebung im Original] zu suchen – schleift Kategorien, indem sie gleichzeitig präzisiert und pluralisiert werden, und das macht sie gut. (Muckel 2011: 351).
Aus seiner Perspektive sicherlich folgerichtig, aus aktueller methodologischer Warte betrachtet jedoch nicht haltbar ist Glasers Plädoyer dafür, den mittels der GTM gewonnenen Erkenntnissen auch ohne nochmalige Überprüfung zu trauen. Als Argument führt er die Verlässlichkeit der Methode des ständigen Vergleichens an. Strübing spricht hier kritisch von einem 21 Die folgenden Ausführungen beziehen sich auf die von Strauss (1987) bzw. Strauss/Corbin (1990) vorgeschlagene und allgemein etablierte Vorgehensweise.
248
5. Forschungsverfahren
„objektivistischen Methodenglauben“ (Strübing 2011: 272) auf Seiten Glasers, der davon ausgehe, dass eine richtige Methodenanwendung automatisch zu korrekten Ergebnissen führe. Glaser vs. Strauss – Varianten der GTM
Es besteht in der einschlägigen Forschungsszene Einigkeit darüber, dass es aktuell mindestens zwei Varianten der GTM gibt, und zwar zum einen die von Barney Glaser und seinen Schüler/ innen vertretene, größtenteils mit der Originalversion aus dem Jahr 1967 übereinstimmende Variante und zum anderen die von Anselm Strauss und seinen Schüler/innen entwickelte Variante, die sich z. T. deutlich von der ursprünglichen Version unterscheidet. Wie zuvor bereits angedeutet, gingen die beiden Begründer der GTM relativ bald nach ihrer bahnbrechenden Publikation in methodisch-methodologischer Hinsicht jeweils eigene Wege, die sich im Laufe der Zeit immer weiter voneinander entfernten. Der endgültige Bruch wurde durch die von Strauss/Corbin im Jahr 1990 veröffentlichte Monographie Basics of Qualitative Research ausgelöst, in Bezug auf die Glaser (1992) seinen ehemaligen Ko-Autoren Strauss der „Verfälschung“ des ursprünglich gemeinsam entwickelten methodisch-methodologischen Ansatzes beschuldigte. Zusammenfassend und auf den Punkt gebracht, könnte man es so formulieren: Während Glaser eine eher streng-puristische Position vertritt, an der ursprünglichen Version der seinerzeit entwickelten Strategie festhält und sich gegen jegliche Veränderung sperrt, vertreten Strauss und seine Schüler/innen eine eher pragmatische, nützlichkeitsbezogene Position mit Blick auf mögliche Weiterentwicklungen und Aktualisierungen des ursprünglichen Ansatzes.22 Es ist unbestritten, dass Glaser und Strauss im Hinblick auf ihre forschungsmethodologische Reflektiertheit eine nicht zu unterschätzende Pionierfunktion zukommt. Dass sie bereits in den 1960er Jahren so stark den Prozess des Forschens fokussierten, war innovativ und für die heutige qualitative Forschung von zentraler Bedeutung: So führten sie das für die GTM konstitutive Prinzip „Stop and memo!“ ein, durch das der Prozess der Datenkodierung regelmäßig und systematisch unterbrochen werden soll, um den eigenen Analyse- und Erkenntnisprozess durchgängig zu dokumentieren und zu reflektieren. Auch dass die beiden Forscher der datengeleiteten bottom up-Vorgehensweise gegenüber dem theoriegeleiteten top down-Verfahren Priorität einräumten, war wegweisend. Die aus meiner Sicht wichtigste Errungenschaft für die qualitative Forschung ist die Einführung des Prinzips „Analyse von Anfang an“ und somit das Aufbrechen der – vielfach heute noch üblichen – strikten Linearität des Forschungsprozesses.23
22 Strübing (2011) vertritt – im Unterschied zu Mey/Mruck 2009 – daher die Position, dass es sich bei den beiden divergierenden Konzeptionen der GTM wissenschafts- und erkenntnistheoretisch „um zwei grundverschiedene Verfahren qualitativer Sozialforschung handelt“ (Strübing 2011: 273). Entsprechend schlussfolgert er, „dass Forschende, die sich auf Grounded Theory berufen, nicht umhin können, sich für die eine oder die andere der beiden Varianten zu entscheiden.“ (Strübing 2011: 262). Hinzuzufügen ist hier, dass inzwischen Vertreter/innen der zweiten Generation aktiv und engagiert die Weiterentwicklung der GTM verfolgen, so z. B. Charmaz (2000) oder Clarke (2005), die an der Entwicklung postmoderner, konstruktivistischer Varianten der GTM arbeiten. 23 Ein gutes und sehr illustratives Beispiel stellt hier die Arbeit von Muckel (2011) dar.
5.3.3 Grounded Theory und Dokumentarische Methode
249
2 Dokumentarische Methode Entwicklung, Ziele, Merkmale
In der Wissenssoziologie wird angenommen, dass jede gesellschaftliche Gruppe in Abhängigkeit von ihren spezifischen sozialen, ökonomischen oder kulturellen Gegebenheiten im Rahmen eines gemeinsamen Erfahrungsraums eigene Denkstrukturen hervorbringt. Ziel der Dokumentarischen Methode (im Folgenden mit DM abgekürzt) ist die empirische Rekonstruktion solcher Strukturen, d. h. es handelt sich um ein Verfahren, mit dessen Hilfe Alltagshandlungen Bedeutung und Kohärenz zugeschrieben werden. Bonnet (2012: 293) bezeichnet die DM daher auch als „kontrolliertes Fremdverstehen“. Die Methode geht auf Karl Mannheim (1922) zurück, der zwischen konjunktivem und kommunikativem Wissen unterschied, wobei ersteres als atheoretisches und implizites Erfahrungswissen zu verstehen ist, das im Unterschied zum explizierbaren und reflexiv verfügbaren kommunikativen Wissen die alltägliche Handlungspraxis weitgehend unbemerkt anleitet. Mannheim hat insgesamt drei Typen des Sinns menschlicher Handlungen identifiziert, und zwar den objektiven Sinn, den Ausdruckssinn und den dokumentarischen Sinn. Beim objektiven Sinn geht um die gesellschaftliche Bedeutung, die eine Handlung aufgrund ihres Auftretens innerhalb einer sozialen Institution erhält. Der Ausdruckssinn bezeichnet den subjektiv gemeinten Sinn, also die mit einer kommunikativen Handlung ausgedrückte Absicht. Beim dokumentarischen Sinn geht es schließlich um das den Akteuren zumeist nicht bewusste Handlungswissen und die diesem Wissen zugrundeliegenden Ursachen. Die dokumentarische Analyse fokussiert also auf die Rekonstruktion des konjunktiven Erfahrungsraums: „Indem man sie [= maximal interaktiv oder metaphorisch dichte Textstellen, K. A.] als Sinnkonstruktionen interpretativ rekonstruiert (Oberflächenstruktur), ergeben sich gleichzeitig Verweise auf Haltungen, Wissensbestände, Gefühle oder Überzeugungen, durch die ihr Zustandekommen erklärt werden kann (Tiefenstruktur)“ (Bonnet 2012: 292). Gruppendiskussionen und Interviews als ideale Datenquellen für die DM
Das klassische, prototypische Setting für die DM sind Gruppendiskussionen und zwar deshalb, weil sich die durch einen konjunktiven Erfahrungsraum erworbenen gemeinsamen Orientierungen in solchen Interaktionen am besten materialisieren. Ralf Bohnsack hat in den 1980er Jahren ein Verfahren zur Auswertung von Gruppendiskussionen entwickelt, indem er die DM von Mannheim durch Methoden der Textinterpretation von Fritz Schütze (1983) und Oevermann et al. (1979) ergänzte. Bohnsack (1991) unterscheidet insgesamt vier Arbeitsschritte: 1. Formulierende Interpretation: Dabei werden die in den Interaktionen behandelten Themen chronologisch nachvollzogen und mittels der von den Akteuren selbst verwendeten Sprache paraphrasiert und als Fließtext wiedergegeben. 2. Reflektierende Interpretation: Hierbei geht es um den dokumentarischen Sinngehalt des Gesagten. Im Fokus stehen interaktional dichte Passagen, in denen konjunktive Erfahrungen aktualisiert werden. Neben der Analyse sprachlicher und diskursstruktureller Merkmale sind die Modi der Themenentfaltung von besonderer Bedeutung. So eröffnen narrative Passagen eher den Zugang zum atheoretischen, unbewussten Wissen der Akteure, während argumentative Passagen mehr Einblick in das theoretische, bewusste Wissen ermöglichen. 3. Zusammenfassende Fallbeschreibung: In die-
250
5. Forschungsverfahren
sem Schritt werden alle zuvor erarbeiteten Einzelinformationen zusammengefasst, wobei die chronologische Entfaltung des Diskurses (= Diskursdramaturgie) von besonderer Bedeutung ist. 4. Typenbildung (s. Kapitel 5.3.5): Im Anschluss an die Rekonstruktion und den Vergleich werden die Orientierungsrahmen der Einzelfälle ermittelt. Ziel ist die Identifizierung von Typen und somit die Erstellung von Typologien. Die Typenbildung ist dann erreicht, wenn es zu einer Sättigung der Kontraste gekommen ist, d. h. wenn keine neuen Merkmale mehr gewonnen werden. Alternativ zu Gruppendiskussionen können – um eine ähnliche interaktive Dichte zu erreichen sowie um das implizite Wissen der Beteiligten zu ermitteln – narrative oder episodische Interviews durchgeführt werden. Während narrative Interviews dazu dienen, „über Erzählungen das Geschehen im Erfahrungsraum selbst zugänglich zu machen“ (Bonnet 2012: 293), können episodische Interviews dazu genutzt werden, das eigentheoretische episodische und semantische Wissen der Akteure zu ermitteln und zu vergleichen. Episodische Interviews erscheinen ideal für die Anwendung der DM geeignet, denn sie bestehen sowohl aus offenen Erzählaufforderungen zwecks Ermittlung episodischen Wissens als auch aus präzisierenden, argumentativ orientierten Passagen, im Rahmen derer semantisches Wissen elizitiert werden kann und auch Nachfragen möglich sind. 3 G TM, DM und verwandte rekonstruktive Verfahren in der empirischen Fremdsprachenforschung
Illustrative Beispiele dafür, dass strikt-puristische Herangehensweisen à la Glaser in der aktuellen qualitativen Fremdsprachenforschung einen außerordentlich schweren Stand haben, sind die Referenzarbeiten von Ehrenreich (2004) und Schart (2003). Mehrmethodische, z.T. sogar paradigmenübergreifende Herangehensweisen sind inzwischen gängige Praxis – entscheidend ist dabei, dass sie nachvollziehbar begründet werden. Die Umsetzung der zentralen qualitativen Gütekriterien Offenheit, Flexibilität und Transparenz wird in beiden genannten Arbeiten aufs Vorbildlichste demonstriert. Zwar bleibt Ehrenreich in ihrer genauen Verortung im GTM-Paradigma insgesamt etwas vage – sie bezieht sich auf Glaser/Strauss (1967)24 – , aber sie diskutiert die sich im Rahmen der GTM bietenden Möglichkeiten ausführlich und weiß sie begründet zu nutzen. Ausgehend von der vorläufigen, eher gerichteten und verkürzten Fragestellung „In welcher Hinsicht/Ist das Fremdsprachenassistenten-Jahr ertragreich für angehende Fremdsprachenlehrer?“ (Ehrenreich 2004: 131) hat sie anhand der ersten Interviewdaten bzw. im Anschluss an die Pilotierung ihres Leitfadens und der Ergänzung der Impulsfragen ihre Forschungsfrage merklich ausdifferenziert25 und dabei insbesondere den subjektiven Bedeutungszuschreibungen der befragten Akteure einen 24 Vgl. dazu die oben zitierte Einschätzung von Strübing (2011). 25 Die Forschungsfragen lauten schließlich: „1) Wie stellt sich ein Auslandsaufenthalt als Fremdsprachenassistent in einem englischsprachigen Land aus der Perspektive der Beteiligten dar. Durch welche internen und externen Rahmenbedingungen wird dieser Aufenthalt strukturiert? 2a) Wie bewerten die Beteiligten Ertrag und Auswirkung ihres Auslandaufenthaltes als deutsche/r FremdsprachenassistentIn in einem englischsprachigen Land? 2b) Wie sind Ertrag und Auswirkung ihres Auslandaufenthaltes als deutsche/r FremdsprachenassistentIn in einem englischsprachigen Land im Licht der Lehrerbildung zu bewerten? 3) Welche Implikationen birgt die Gegenüberstellung dieser beiden Perspektiven im Blick auf die Ausbildungsinhalte und Struktur der Fremdsprachenlehrerbildung?“ (Ehrenreich 2004: 199).
5.3.3 Grounded Theory und Dokumentarische Methode
251
höheren Stellenwert zugeordnet: Der eigentliche Forschungsgegenstand konstituierte sich somit erst im Forschungsprozess (vgl. dazu auch Schädlich 2009: 147), und zwar empirisch begründet durch gleich zu Beginn durchgeführte Datenanalysen. Was das Sampling betrifft, so geht Ehrenreich kriteriengeleitet vor. Die Auswahlkriterien sind: Geschlecht, Herkunftsbundesland, Zielland, Ausbildungsphase zum Zeitpunkt der Interviews, subjektive Bewertung der Fremdsprachenassistenz, Aufenthaltsdauer. Darüber hinaus erfolgt die Auswahl ihrer 22 Interviewpartner – wie in den meisten qualitativen Studien – nach deren Bereitschaft und nicht nach der von der GTM favorisierten Methode des theoretischen Sampling. Hier wird deutlich, dass methodologisch durchaus plausible Überlegungen in der Forschungsrealität aus pragmatischen Gründen nicht ohne weiteres umgesetzt werden können und die Forschenden daher Alternativlösungen entwickeln müssen. In GTM-orientierten Forschungen werden Daten primär mittels teilstrukturierter, problemorientierter, narrativ-fokussierter Interviews mit variabel einzusetzenden Leitfäden gewonnen (Ehrenreich 2004, Schart 2003), die – wenn sie unterschiedliche Perspektiven erheben – in der Auswertung z.T. auch miteinander trianguliert werden (vgl. z. B. Schädlich 2009). Diese Interviews werden zumeist durch kontextualisierende schriftliche Befragungen zu biographischen Hintergrunddaten flankiert. Wie zuvor bereits angedeutet, geht auch Schart (2003), der in seiner qualitativen Interviewstudie das subjektive Verständnis untersucht, das Lehrende für Deutsch als Fremdsprache von Projektunterricht haben, mehrmethodisch vor, um verstehend die handlungsleitenden Überlegungen der befragten Personen nachzuvollziehen. In Studien, die mit der DM arbeiten, werden zwar ebenfalls Daten verbaler Handlungen der untersuchten Personen analysiert, diese werden aber in der Regel nicht eigens für Untersuchungszwecke produziert, sondern entstammen alltäglichen Interaktionen. So wurden in der rekonstruktiven Fallstudie von Tesch (2010) insgesamt fast 30 Stunden regulären Französischunterrichts in drei Gymnasialklassen der neunten und zehnten Jahrgangsstufe mit 21 bis 29 Schüler/innen hinsichtlich des Umgangs mit kompetenzorientierten Lernaufgaben beobachtet. Die anschließende detaillierte Beschreibung und Analyse ausgewählter Unterrichtsstunden ermöglichte Einsichten in die soziale Dimension fremdsprachenunterrichtlicher Interaktionen sowie Erkenntnisse über unterrichtsbezogene Rahmenorientierungen von Lehrenden und Lernenden und somit über ihr implizites handlungsleitendes Wissen. Im Anschluss an die vollständige Transkription und die inhaltlich zusammenfassende Beschreibung aller audiographierten Unterrichtsstunden26 wurden aus jeder Stunde eine oder mehrere typische Sequenzen ausgewählt, die eine „besondere metaphorische Dichte“ (Tesch 2010: 179) aufwiesen. Weitere Auswahlkriterien waren die dominante Interaktionsrichtung sowie dominante Interaktionsinhalte. Die Daten wurden mittels der beiden zentralen Analyseschritte „Formulierende Interpretation“ und „Reflektierende Interpretation“ bearbeitet. Zunächst wurden also der Diskursverlauf nachgezeichnet und die Äußerungen der Beteiligten zusammenfassend paraphrasiert, d. h. grob interpretiert. Damit war die Grundlage für den nächsten Analyseschritt – die reflektierende Interpretation – geschaffen, bei der es nun darum ging, die zuvor reformulierten Aussagen der Akteure „als Propositionen und als Ausdruck von Rahmungen zu erkennen, die mit anderen Propositionen verglichen […] und in Bezie26 Die ebenfalls erstellten Videographien wurden nicht transkribiert, sondern lediglich zum Zweck der Validierung verwendet. Die handschriftlich notierten Gespräche mit Lehrer/innen vor und nach den beobachteten Unterrichtsstunden wurden sporadisch in die Analyse einbezogen.
252
5. Forschungsverfahren
hung gesetzt werden können“ (Tesch 2010: 183). Dazu wurden die Daten diskursanalytisch im Hinblick auf explizite und implizite Verknüpfungen untersucht und mit ähnlichen Fällen verglichen, um „typische Handlungspraxen“ (ebd.) zu ermitteln. Auch in der DM spielt also die Technik des Vergleichens eine zentrale Rolle. Die methodisch an der GTM orientierte Arbeit von Ehrenreich illustriert die vielfältigen Möglichkeiten der Gewinnung von Auswertungskategorien: Sie erfolgt sowohl auf der Basis eigenen Vorwissens, durch die Auseinandersetzung mit der Forschungsliteratur und entlang des zuvor erstellten Interviewleitfadens als auch datenbasiert, d. h. durch die Auswertung der ersten Interviewdaten. Dabei wird dem von Strauss/Corbin (1990) aufgestellten ‚Kodierparadigma‘ aufgrund seiner Plausibilität, ihrer Strukturiertheit sowie ihrer direkten Anwendbarkeit gegenüber den eher allgemeinen, abstrakten ‚Kodierfamilien‘ von Glaser der Vorzug gegeben. Schädlich (2009: 160) geht in ihrer Interviewstudie zur Rekonstruktion der subjektiven Wahrnehmungen von Lehrveranstaltungen zur französischen Literaturwissenschaft durch Lehrende und Studierende so vor, dass sie zwar dem Prinzip des theoretischen Kodierens der GTM folgt, sich in der konkreten Auswertungsarbeit jedoch an Mayrings (1993) Vorgehen der strukturierten Inhaltsanalyse (s. Kapitel 5.3.4) orientiert und mit zuvor festgelegten Ordnungskriterien arbeitet. Somit haben wir auch hier ein Beispiel eines mehrmethodischen Designs, im Rahmen dessen die für das eigene Forschungsziel jeweils am besten erscheinenden Verfahren aus verschiedenen methodisch-methodologischen Ansätzen miteinander kombiniert werden. Wie zuvor bereits dargestellt, geht es auch bei der DM – ähnlich wie bei der GTM – darum, Prozesse der Konstruktion sozialer Realität bzw. sozialen Sinns zu rekonstruieren und somit intersubjektiv nachvollziehbar zu machen. Unterrichtliche bzw. unterrichtsbezogene Interaktionen sind komplexe Ereignisse, die mit der DM in idealer Weise untersuchbar ist, da sie die Aufdeckung impliziter Wissensbestände ermöglicht. Voraussetzung für die Anwendung der DM ist, dass die mit ihr betrachteten bzw. befragten Personen Angehörige des konjunktiven Erfahrungsraums sind, dessen Handlungswissen rekonstruiert werden soll. Bonnet (2009) und Tesch (2010) gehören zu den ersten Fremdsprachendidaktikern, die die DM zur Untersuchung unterrichtlicher Interaktionen und damit zur Rekonstruktion des größtenteils unbewussten handlungsleitenden Wissens der Akteure nutzten. Die besondere Leistung der DM liegt Tesch zufolge „in der genauen Beschreibung empirisch ermittelter impliziter Orientierungen und in der Bestimmung typischer Ausprägungen in den verschiedenen Schulformen und Klassenzusammensetzungen“ (Tesch 2010: 366). Kritisch anzumerken ist in Bezug auf die DM zum einen, dass sie – per definitionem – nur Daten von Personen zu analysieren gedacht ist, die über einen ähnlichen, d. h. konjunktiven Erfahrungsraum verfügen. Somit ist der Anwendungsbereich dieses methodischen Ansatzes grundsätzlich stark eingeschränkt. Hier wird deutlich, wie sehr der mögliche Erkenntnisgewinn von der jeweils gewählten Methode bestimmt wird. Zum anderen ist an der Vorgehensweise der DM der überraschend unreflektierte Umgang mit der Paraphrasierung von Originalaussagen der Forschungsteilnehmer/innen und der damit einhergehende Verlust an Nähe zu den Primärdaten zu kritisieren. So werden bei dem von der DM vorgesehenen ersten Analyseschritt nicht die Äußerungen der Forschungsteilnehmer/innen analysiert und interpretiert, sondern die von den Forschenden daraus abgeleiteten Paraphrasen. Insofern stellt sich
5.3.3 Grounded Theory und Dokumentarische Methode
253
5.3.3 Grounded Theory und Dokumentarische Methode
Rekonstruktion von Prozessen aus emischer Perspektive Theoriebildung aus Daten Grounded Theory-Methodologie
theoretisches Sampling theoretische Sättigung offenes, axiales, selektives Kodieren
ganzheitliche, interpretative, reflexive Prozesse
aus Daten entwickelte Theorie
theoretische Sensibilität
nalysen,Verglei ch, en, A K ung a t eb eg or erh i en
Heterogenitä male t , g axi röß ,m te ng
ng du bil en
t tras on rK
ktive spe er
Prozess Ereignis
aus emisc rung her die P Ko
ng / Befr htu a ac
Beo b
Analys eu nd
Diffe ren zie ru
we ite re Da t
ng gu
Erfahrungs- und Alltagswissen gesellschaftlicher Gruppen
↓
Gruppendiskussionen, Interviews
Rekonstruktion des konjunktiven Erfahrungsraumes und der darin enthaltenen Denkstrukturen durch → formulierende Interpretation → reflektierende Interpretation → zusammenfassende Fallbeschreibung → Typenbildung
Gütekriterien: Offenheit, Transparenz, intersubjektive Nachvollziehbarkeit © 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Typologie
Dokumentarische Methode
254
5. Forschungsverfahren
z. B. die Frage, inwiefern hier tatsächlich die Binnensicht der Proband/innen Gegenstand der Analyse ist. Allerdings ist zu berücksichtigen, dass grundsätzlich jegliche Verarbeitung von Primärdaten (so z. B. auch die Zusammenfassung in der qualitativen Inhaltsanalyse) immer zugleich eine Interpretation darstellt. Selbst der Transkriptionsprozess – also ein Verfahren der Datenaufbereitung – ist ein interpretativer Prozess, da er notwendigerweise selektiv ist, und jede Selektion eine gewisse Deutung beinhaltet bzw. voraussetzt. D.h. der hier formulierte methodisch-methodologische Einwand betrifft auch andere qualitative Analyseverfahren, ist also nicht spezifisch für die DM. Dennoch gilt es, sich dessen bei der Entscheidung für diese Methode bewusst zu sein und reflektiert damit umzugehen. Eine weitere mögliche Kritik bezieht sich auf die von der DM explizit angestrebte Typenbildung, die zwar in vielen Fällen ein gewünschtes Ziel empirischer Forschung (quantitativen und qualitativen Zuschnitts) sein kann, sich jedoch nicht für alle Gegenstände oder Erkenntnisinteressen als gleichermaßen wichtig oder sinnvoll erweist. So kann es insbesondere im Falle von noch wenig erforschten Fragestellungen vollkommen ausreichend sein, sich zunächst einmal auf die Deskription zu beschränken. Auch kann bei der qualitativen Untersuchung eines komplexen Einzelfalls die Aufdeckung von Mustern oder die Bildung von Typen ggf. überhaupt nicht erstrebenswert oder zielführend sein. Es ist also vom jeweiligen Erkenntnisinteresse abhängig, ob auf eine Typenbildung abgezielt wird oder nicht – die Methode sollte darüber nicht entscheiden. 4 Fazit
Zusammenfassend ist festzustellen, dass mittels der dargestellten qualitativen Ansätze hochrelevante lehr-lernbezogene Einsichten in die Wahrnehmungen, Erfahrungen und Interpretationen der ‚betroffenen‘ Akteure – also Lehrende, Studierende, Lernende – gewonnen werden können. So belegt die von Schart (2003) vorgenommene detaillierte Rekonstruktion subjektiver Wahrnehmungen von DaF-Lehrenden in Bezug auf die Sozialform Projektunterricht, wie wichtig reflexive und erfahrungsorientierte Modelle in der Aus- und Fortbildung von Lehrenden sind. Ähnliches gilt für die Interviewstudie von Ehrenreich (2004), die anschaulich zeigt, dass ausbildungsbezogene Auslandaufenthalte spezifische Lerngelegenheiten sind, die nicht nur vorbereitet und strukturiert, sondern auch reflektiert werden müssen, wenn sie denn ihren Zweck erreichen sollen. Rekonstruktive, die emische Perspektive einnehmende Verfahren ermöglichen also Einblicke in konzeptbildende und handlungsleitende Prozesse, deren Potential bisher nur in Ansätzen in der fremdsprachendidaktischen Forschung genutzt wurde. Abschließend würde ich Bonnet (2012: 286) zustimmen, wenn er feststellt, dass „qualitativ-rekonstruktive Ansätze […] einen unverzichtbaren Beitrag zur Theoriebildung in der Fremdsprachenforschung leisten“. Ob es – wie er weiter annimmt – jedoch zutrifft, dass sie mit quantitativ-hypothesenprüfenden Verfahren integriert werden können, um die Nachteile beider Ansätze zu überwinden, muss sich in der Forschungspraxis erst noch zeigen. ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert.
5.3.3 Grounded Theory und Dokumentarische Methode
255
Bergmann, Jörg R. (1988). Ethnomethodologie und Konversationsanalyse. Kurseinheit 1. Hagen: Fernuniversität Hagen. Bohnsack, Ralf (1991). Rekonstruktive Sozialforschung. Einführung in Methodologie und Praxis qualitativer Sozialforschung. Opladen: Leske + Budrich. Bonnet, Andreas (2009). Die Dokumentarische Methode in der Unterrichtsforschung. Ein integratives Forschungsinstrument für Strukturrekonstruktion und Kompetenzanalyse. n: Zeitschrift für Qualitative Forschung 10(2), 219 – 240 Charmaz, Kathy (2000). Grounded theory: Objectivist and constructivist methods. In: Denzin, Norman K./Lincoln, Yvonna S. (Hg.), Handbook of qualitative research (2. Aufl.). Thousand Oaks: Sage, 509 – 535. Clarke, Adele E. (2005). Situational analysis: Grounded theory after the postmodern turn. Thousand Oaks, CA: Sage. Dey, Ian (1999). Grounding Grounded Theory: Guidelines for Qualitative Inquiry. London: Academic Press. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. [Referenzarbeit, s. Kapitel 7] Glaser, Barney/Strauss, Anselm (1967). The discovery of grounded theory. Strategies qualitative research. Chicago: Aldine. Mannheim, Karl (1922). Die Strukturanalyse der Erkenntnistheorie. Berlin: Reuter & Reichard. Mayring, Philip (2010). Qualitative Inhaltsanalyse. Grundlagen und Techniken. 11., aktualisierte und überarbeitete Auflage. Weinheim und Basel: Beltz. Merton, Robert K. (1949). Social Theory and Social Structure. New York: Simons & Schuster. Mey, Günter/Mruck, Katja (2011). Grounded-Theory-Methodologie: Entwicklung, Stand, Perspektiven. In: Mey, Günter/Mruck, Katja (2011), 11 – 48. Mey, Günter/Mruck, Katja (Hg.) (2011). Grounded Theory Reader. Wiesbaden: VS Verlag für Sozialwissenschaften. Muckel, Petra (2011). Die Entwicklung von Kategorien mit der Methode der Grounded Theory. In: Mey, Günter/Mruck, Katja (Hg.), 333 – 352. Oevermann, Ulrich/Allert, Tilman/Konau, Elisabeth/Krambeck, Jürgen (1979). Die Methodologie einer „objektiven Hermeneutik“ und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In: Soeffner, Hans-Georg (Hg.), Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart: Metzler, 352 – 434. *Schädlich, Birgit (2009). Literatur Lesen Lernen. Literaturwissenschaftliche Seminare aus der Perspektive von Lehrenden und Studierenden. Eine qualitativ-empirische Studie. Tübingen: Narr. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider. [Referenzarbeit, s. Kapitel 7] Schütze, Fritz (1983). Biographieforschung und narratives Interview. In: Neue Praxis 13(3), 283 – 293. Strauss, Anselm (1987). Qualitative analysis for social scientists. Cambridge, UK: Cambridge University Press. Strauss, Anselm/Corbin, Juliet (1990). Basics of Qualitative Research. Newbury Park; London: Sage. Strübing, Jörg (2011). Zwei Varianten von Grounded Theory? Zu den methodologischen und methodischen Differenzen zwischen Barney Glaser und Anselm Strauss. In: Mey, Günter/Mruck, Katja (Hg.), 262 – 277. *Tesch, Bernd (2010). Kompetenzorientierte Lernaufgaben im Fremdsprachenunterricht. Konzeptionelle Grundlagen und eine rekonstruktive Fallstudie zur Unterrichtspraxis (Französisch). Frankfurt/Main: Lang.
256
5. Forschungsverfahren
»» Zur Vertiefung empfohlen Bonnet, Andreas (2012). Von der Rekonstruktion zur Integration: Wissenssoziologie und dokumentarische Methode in der Fremdsprachenforschung. Grundlagenbeitrag. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen. Grundlagen – Methoden – Anwendung. Tübingen: Narr, 286 – 305. In seinem Grundlagenbeitrag skizziert Bonnet das Anliegen, die zentralen Begriffe sowie die methodische Vorgehensweise der DM und ihre besondere Eignung für fremdsprachendidaktische Forschungen, in deren Mittelpunkt die Untersuchung unterrichts- und kompetenzrelevanter Phänomene steht. Mey, Günter/Mruck, Katja (Hg.) (2011). Grounded Theory Reader. Wiesbaden: VS Verlag für Sozialwissenschaften. In diesem Sammelband haben die beiden Herausgeber eine Reihe einschlägiger Aufsätze zusammengestellt, die den aktuellen Diskussionsstand zur GTM widerspiegeln. Dabei handelt es sich z. T. um Übersetzungen aus dem Englischen, z. T. um überarbeitete und aktualisierte Fassungen früherer Publikationen. Nohl, Arnd-Michael (2012). Interview und dokumentarische Methode. Anleitungen für die Forschungspraxis. 4., überarbeitete Auflage. Wiesbaden: Verlag für Sozialwissenschaften. In dieser Handreichung wird anschaulich dargestellt, wie mittels der Dokumentarischen Methode Interviews ausgewertet werden können, wobei besonderes Augenmerk auf die Anwendung der formulierenden und reflektierenden Interpretation gelegt wird. Truschkat, Inga/Kaiser, Manuela/Reinartz, Vera (2005). Forschen nach Rezept? Anregungen zum praktischen Umgang mit der Grounded Theory in Qualifikationsarbeiten. Forum Qualitative Sozialforschung 6 (2) Art. 22, Mai 2005. Die Autorinnen richten sich in ihrem praxisbezogenen Beitrag insbesondere an wenig erfahrene Forscher/innen, denen sie eine Reihe von wertvollen Hinweisen und Ratschlägen rund um den Sampling-Prozess liefern. Dabei illustrieren sie gut nachvollziehbar alle zentralen Begrifflichkeiten der GTM.
5.3.4 Inhaltsanalyse Eva Burwitz-Melzer/Ivo Steininger
Bei der Inhaltsanalyse handelt es sich um ein kodifiziertes und kodifizierendes Forschungsverfahren, das kommunikative Texte im weitesten Sinne systematisch untersucht und auswertet. Inhaltsanalysen können als quantitatives wie auch als qualitatives Verfahren eingesetzt werden. Wie bei kaum einer anderen Forschungsmethode lässt sich die allmähliche Ablösung des quantitativen Verfahrens durch das qualitative ab der Mitte des 20. Jahrhunderts in der Forschungsliteratur vornehmlich der USA und Deutschlands gut verfolgen. Heute wird vor allem die qualitative Inhaltsanalyse sehr häufig und in ganz unterschiedlichen Kontexten eingesetzt, aber es gibt zunehmend auch Arbeiten, die beide Analyseverfahren miteinander kombinieren. Für die Fremdsprachenforschung stellt vor allem die qualitative Inhaltsanalyse eine gewinnbringendes Forschungsmethode dar, wenn Kommunikationsmaterial
5.3.4 Inhaltsanalyse
257
(Texte, Hypertexte, Videosequenzen, bildliches oder musikalisches Material) theorie- und/ oder datengeleitet untersucht und ausgewertet werden soll. Im Folgenden werden beide Verfahren erklärt und in den Kontext der Fremdsprachenforschung gestellt. Zu zwei zentralen Methoden der qualitativen Inhaltsanalyse werden Beispiele aus aktuellen Studien der Fremdsprachenforschung vorgestellt. 1 Grundlagen der Inhaltsanalyse Grundlagen der quantitativen Inhaltsanalyse
Die Anfänge der Inhaltsanalyse sind in den Kommunikationswissenschaften auf den Beginn des 20. Jahrhunderts in den Kommunikationswissenschaften zu datieren (vgl. Mayring 2002: 114, Kuckartz 2012: 27 – 8). Vorrangig in den USA der 1920er Jahre entwickelt, zielte die quantitative Inhaltsanalyse auf die Untersuchung großer Datenmengen in Massenmedien (vgl. Krippendorff 2004). Die Erfindung des Radios und die Kriegsberichterstattung in den 1940er Jahren brachten inhaltsanalytische Studien hervor, die die politischen Aspekte dieser Forschungsmethode in den Mittelpunkt der Aufmerksamkeit rückten. Die Begrifflichkeit der Inhaltsanalyse entwickelte sich zusammen mit der zunehmenden Forschungstätigkeit: Begriffe wie content analysis, sampling unit, category oder inter-coder-reliability stammen aus dieser regen Publikationszeit (vgl. Kuckartz 2012: 28). Im Fokus des Interesses der damaligen Publikationen war die quantitative Auswertung27 sprachlichen Materials (vgl. Mayring 2000: 469):
• Häufigkeitsanalysen (bestimmte Textelemente werden gezählt). • Indikatorenanalysen (bestimmte Textelemente werden als Indikatoren für übergeordnete Konzepte ausgewertet).
• Valenz- und Intensitätsanalysen (im Vorfeld entwickelte Skalen werden genutzt, um Texte entsprechend einzuordnen).
• Kontingenzanalysen (kontextuelle Zusammenhänge von Textelementen werden untersucht). In den folgenden Jahrzehnten wuchs das Interesse an der quantifizierenden Inhaltsanalyse, die sich zunehmend auch statistischer Verfahren bediente, um sozial- und kommunikationswissenschaftliche Aspekte in unterschiedlichen Medien zu untersuchen. Dabei wurde ganz bewusst und programmatisch auf die Erforschung von Phänomenen an der Oberfläche der Texte gezielt, da dies als objektives Forschungsverfahren galt. Kuckartz zitiert hierzu Berelson: „Content analysis is a research technique for the objective, systematic and quantitative description of the manifest content of communication“ (Berelson 1952: 18 in Kuckartz 2012: 28). Allerdings beschwor diese sehr einseitige Ausrichtung der Forschungsmethode auch Kritik herauf: Kritisiert wurde an den rein quantitativen Analyseschritten, dass implizite und subtile Aspekte unterhalb der Textoberfläche und Aspekte der Interpretation zu kurz kämen, so dass beispielsweise der Kontext, Sinnstrukturen, besondere Einzelfälle oder aber Elemente, 27 Für einen Überblick zu Vorgehensweisen der quantitativen Auswertung der Inhaltsanalyse (auch als empirische Inhaltsanalyse bezeichnet) siehe Kromrey (2009: 300 – 325).
258
5. Forschungsverfahren
die an der Textoberfläche nicht auf den ersten Blick wahrnehmbar sind, übersehen würden (vgl. Mayring 2002: 114 und Kuckartz 2012: 35). Viele Forscher konzipierten deshalb die qualitative Inhaltsanalyse als eine Art „Erweiterung“ oder „Präzisierung“ (Kuckartz 2012: 35) des Verfahrens. Wenn Dörnyei die Unterschiede zwischen quantitativer und qualitativer Inhaltsanalyse herausarbeitet, beschreibt er genau diese zusätzliche Dimension: Another way for distinguishing quantitative and qualitative content analysis is by referring to the former as ‚manifest level analysis‘, because it is an objective and descriptive account of the surface meaning of the data, and the latter as ‚latent level analysis‘, because it concerns a second level, interpretive analysis of the underlying deeper meaning of the data. (Dörnyei 2007: 245 – 6) Grundlagen der qualitativen Inhaltsanalyse
An den Problemen der quantitativen Inhaltsanalyse setzt die qualitative Inhaltsanalyse an. Sie will sich nicht auf die oberflächlichen manifesten Textinhalte bei der Analyse beschränken, sondern bezieht auch Elemente der Interpretation mit ein (vgl. Kuckartz 2012: 28). Charakteristisch für die qualitative Inhaltsanalyse sind die Bildung von Kategorien, auf die in der Analyse fokussiert wird, sowie eine Kategorisierung des gesamten Datenmaterials. Dabei ist der „Zuordnungsprozess von Kategorien und Textstellen als Interpretationsakt“ zu verstehen, den man „durch inhaltsanalytische Regeln kontrollieren möchte“ (Mayring 2008: 10). Die konsequente und systematische Nutzung des jeweils aufgestellten Kategoriensystems stellt dabei ein Unterscheidungskriterium von freieren Formen der Textinterpretation (z. B. hermeneutischen Verfahren, s. Kapitel 5.3.2) dar. Für die heutige qualitative Inhaltsanalyse sind auch Faktoren wie die Anerkennung von Gütekriterien, wie z. B. die inter-coder-reliability von zentraler Bedeutung, falls in einem Forschungsprojekt mehrere Kodierende das Datenmaterial analysieren (vgl. Kuckartz 2012: 39). Ihrem Ursprung in den Kommunikationswissenschaften gemäß versteht die qualitative Inhaltsanalyse einen Text stets als eingebettet in ein Kommunikationsmodell. Nicht der Text für sich allein genommen ist dabei von Interesse, sondern vielmehr die aus dem Text heraus geschlossenen Zusammenhänge zur kommunikativen Absicht, in der Fragen nach dem Verhältnis zwischen Sender und Empfänger, Medium, Textmerkmale und Gestaltung, Wirkungsabsicht sowie Wirkung auf die Adressaten relevant sind (vgl. Mayring/Brunner 2010: 325). Dass es dabei oft auch um das Aufdecken versteckter Botschaften und nicht offen geäußerter Mitteilungen gehen kann, versteht sich von selbst. Gerade deshalb ist die qualitative Inhaltsanalyse für komplexe Untersuchungsfelder interessant, da mit ihrer Hilfe vielschichtige Datensammlungen wie z. B. Lehrer-/Lernertexte (bzw. unterrichtliche Produkte im weiteren Sinne, s. Kapitel 5.2.7) oder Transkriptionen von Audio- bzw. Videomaterial von Unterricht oder Interviewsequenzen sehr gut analysiert werden können. Forschungen im Bereich der Fremdsprachendidaktik verwenden häufig eine qualitative Inhaltsanalyse, da das Suchen nach Themen in schriftlichen oder mündlichen Lehrer- oder Schüleräußerungen oder in Interviews über Unterricht, sowie das Auffinden von Mustern, das Kategorisieren und Interpretieren dieser Funde helfen, viele Forschungsfragen zum Fremdsprachenunterricht gegenstandsangemessen zu analysieren und zu beantworten. Grundsätzlich lassen sich zwei Grundformen der qualitativen Inhaltsanalyse unterscheiden, die deduktive und die induktive Analyse (vgl. Mayring 2008 und Kuckartz 2012: 59 – 63),
5.3.4 Inhaltsanalyse
259
wobei die Differenzierung über den Zeitpunkt der Kategorienbildung und die Anbindung an die theoretischen Grundlagen bzw. die empirischen Daten erfolgt: Im deduktiv orientierten Ansatz wird das Datenmaterial entlang vorab systematisierter Kategorien geordnet und strukturiert, so dass theoretische Vorannahmen und Erklärungsmodelle an das Material herangetragen werden können. Im induktiv orientierten Ansatz dient erst das Datenmaterial selbst dazu, Kategorien zu bilden, die Struktur eines Erklärungsmodells aus den systematisierten Zusammenhängen abzuleiten und mit der Theorie vereinbar zu machen. Gerade der zweite Ansatz zeigt eine Nähe zu den Kodiervorgängen der Grounded Theory (siehe Kapitel 5.3.3), die ebenfalls darauf zielen, Erklärungsmodelle datengeleitet und datenbasiert zu generieren (vgl. Kuckartz 2012: 66 – 8). In zahlreichen Veröffentlichungen der letzten zehn Jahre finden sich deshalb Erläuterungen zur Kategorienbildung der qualitativen Inhaltsanalyse in Zusammenhang mit den Kodiervorgängen der Grounded Theory (vgl. Dörnyei 2007, Friedman 2012, Kuckartz 2012)28. Für den Kontext der fremdsprachendidaktischen Forschung sind – je nach Forschungsgegenstand – beide Vorgehensweisen denkbar und erfolgversprechend. Kuckartz verweist auch auf mögliche Mischformen der deduktiv-induktiven Kategorienbildung, die zunächst theoriegeleitet vorgehen, dann jedoch die Vorab-Kategorien am empirischen Material modifizieren und ergänzen (vgl. Kuckartz 2012: 69). 2 Vorgehensweisen der qualitativen Inhaltsanalyse Vor der Datenanalyse
Bevor wir auf das Analyseverfahren zu sprechen kommen, sind noch einige Bemerkungen zu Datensammlung und Transkription wichtig: Analyseverfahren der qualitativen Inhaltsanalyse sind an kein bestimmtes Verfahren der Datensammlung gebunden (vgl. Kuckartz 2012: 76), denn hier gelten die Grundregeln des gegenstandsangemessenen und für die Beobachteten transparenten Verfahrens der Sammlung. Alle Methoden der qualitativen Inhaltsanalyse arbeiten sprachbezogen, d. h. sie sind für unterschiedliche verbale Daten nutzbar, Unterrichtsdiskurse und Schülermaterialien können ebenso erfolgreich mit ihnen analysiert werden wie Filme, fiktionale Texte oder andere Kulturprodukte (vgl. Kuckartz 2012: 76). Die Aufbereitung der Daten folgt auf die Datensammlung im Forschungsfeld. Das verwendete Transkriptionssystem sollte auf die Forschungsfragen und das Erkenntnisinteresse abgestimmt sein. Gerade bei der Transkription von Videosequenzen können sensible Daten wie nonverbale Aspekte der Interaktion und Kommunikation nur durch ein entsprechend ausgerichtetes Transkriptionssystem in textuelle Elemente überführt werden (vgl. Kowal/ O’Connell 2000). Die qualitative Inhaltsanalyse
Im deutschsprachigen Raum hat sich die qualitative Inhaltsanalyse in der Sozialwissenschaft zu einem kodifizierten Forschungsstil entwickelt, als dessen prominenteste Vertreter Philipp Mayring (1983, 2000, 2002, 2008) und Udo Kuckartz (1999, 2012) zu nennen sind. Viele Forscherinnen und Forscher aus dem Bereich der Fremdsprachenforschung haben sich dieses 28 Eine Studie aus der Fremdsprachenforschung, die nach einem solchen Mischverfahren vorgeht und als Beispiel noch vorgestellt werden wird, stammt von Ehrenreich (2004).
260
5. Forschungsverfahren
Paradigma in einer seiner Varianten in den letzten zehn Jahren zu eigen gemacht, um ihre Unterrichts- oder Interviewdaten zu analysieren (vgl. Burwitz-Melzer 2003, Schart 2003, Ehrenreich 2004, Hochstetter 2011). Auch im internationalen, insbesondere im englischsprachigen Forschungsraum wird die qualitative Inhaltsanalyse im Kontext von second language classroom research häufig in verschiedenen Varianten angewandt (vgl. hierzu Dörnyei 2007, Nunan/Bailey 2009, Mackey/Gass 2012). Gemeinsam sind diesen fremdsprachendidaktischen Forschungsarbeiten in der Regel komplexe Fragestellungen, die sich auf einen komplexen unterrichtlichen Gegenstand beziehen und eine mehrstufige Datensammlung erfordern, die sehr unterschiedliche Datensätze wie Unterrichtsmaterialien, Lehrwerke, Videomitschnitte von Unterricht, Einzel- oder Gruppeninterviews etc. umfassen können. Hier kann die qualitative Inhaltsanalyse gegenstandsangemessen in der induktiven, der deduktiven Form oder in einer Mischform aus beidem helfen, einzelne Datensätze zu strukturieren und zu analysieren. Dabei steht nicht immer ein ‚Aufräumen‘ im Mittelpunkt des Forscherinteresses, sondern es geht vor allem darum, die im Datenmaterial enthaltenen Übereinstimmungen, Widersprüche, unterschiedlichen Perspektivierungen und Gewichtungen klar herauszuarbeiten. Deduktive Kategorienbildung
Ob eine theoriegeleitete, also deduktive qualitative Inhaltsanalyse durchgeführt wird, hängt in hohem Maße davon ab, wie gut das Forschungsgebiet bereits erschlossen ist. Ist der Gegenstandsbereich bereits gut vorstrukturiert, kann dies bei der Formulierung von Hypothesen helfen. Stehen Hypothesen fest, können Forschungsfragen und eine Vorabbildung von Kategorien noch vor der ersten Lektüre der Daten erfolgen, weil bereits feste theoretische Bezugspunkte vorliegen (vgl. Kuckartz 2012: 59 – 60). Kuckartz verweist auf das besondere Problem der Abgrenzung der Kategorien, die vorab gebildet werden; ihre Trennschärfe und Differenziertheit sorgen für die Reliabilität der Studie. Es empfiehlt sich deshalb gerade bei theoriegeleiteter Kategorienbildung die Reliabilität, also die Belastbarkeit und Trennschärfe der Kategorien, durch eine Übereinstimmung zwischen den Kodierenden zu überprüfen, falls in einer Gruppe geforscht wird. Forscher und Forscherinnen, die allein arbeiten, sollten an dieser Stelle entweder Kollegen und Kolleginnen zu Rate ziehen oder besonders sorgfältig vorgehen und mehrere Korrekturschleifen einplanen, um die Qualität zu sichern (vgl. Kuckartz 2012: 59 – 60). Stellt sich im Laufe der Datenlektüre und -analyse heraus, dass die Trennschärfe und Genauigkeit der Kategorien nicht in ausreichender Form gegeben ist, kann man durch eine Bildung neuer induktiv gewonnener Kategorien gegensteuern und die vorab gebildeten Kategorien sinnvoll ergänzen. Schrittfolgen der deduktiven Inhaltsanalyse
1. 2. 3. 4. 5. 6. 7.
Fragestellung formulieren und Material festlegen; Hypothesen formulieren; Kategorien theoriegeleitet strukturieren; Regeln für die Zuordnung/die Codierung formulieren; Material schrittweise durchgehen; Phänomene entlang der Kategorien überprüfen; Zwischendurch überprüfen, ob die Kategorien trennscharf und ausreichend sind;
5.3.4 Inhaltsanalyse
261
8. Ist dies der Fall, das Material vollständig codieren; 9. Ist dies nicht der Fall, neue induktive Kategorien formulieren; 10. Interpretation der Ergebnisse hinsichtlich Fragestellung und theoretischer Erkenntnis. (vgl. hierzu auch Mayring 2000 und Kuckartz 2012) Abbildung 1: Schrittfolgen der deduktiven Inhaltsanalyse
Induktiv ausgerichtete Kategorienbildung
Die Bildung von Kategorien am gesammelten Datenmaterial kann als vorrangiges Unterscheidungskriterium der induktiven Inhaltsanalyse gesehen werden. Man folgt dabei dem „Grundgedanken, dass die Verfahrensweisen der zusammenfassenden Inhaltsanalyse genutzt werden, um schrittweise Kategorien aus einem Material zu entwickeln“ (Mayring 2000: 472). Es wird zunächst das Ziel der Kategorienbildung auf der Basis der Forschungsfragen definiert. Wenn klar ist, was mit der Kategorienbildung erreicht werden soll, müssen der Grad der Differenziertheit und der Abstraktion der zu bildenden Kategorien festgelegt werden. Dies ist das Grundgerüst, das bereits vor der induktiven Kategorienbildung feststehen sollte. Dann wird mit der ersten Textstelle, die herangezogen werden soll, mit der Kategorienbildung begonnen, indem Zeile für Zeile direkt am Text ein Phänomen benannt wird, das mit Stift oder auch elektronisch markiert wird (vgl. Kuckartz 2012: 63). Dabei kann es sich bei der Markierung um einen bestimmten Begriff, einen kurzen Satz, ein Argument etc. handeln. So wird nach und nach das gesamte Material gesichtet und strukturiert. Fällt dasselbe Phänomen wieder auf, bekommt es dieselbe Kodemarkierung; handelt es sich um ein neues Phänomen, wird eine neue Kategorie eingeführt. Nachdem etwa 10 bis zu maximal 50 % des Datenmaterials untersucht wurde, gilt es, das Kategoriensystem zu überprüfen. Dabei kommt es
Abbildung 2: Phasenmodell der induktiven Inhaltsanalyse, aus Mayring (2000: 472).
262
5. Forschungsverfahren
darauf an, Kategorien hinsichtlich ihrer logischen Beziehung untereinander sowie hinsichtlich einer etwaigen Überschneidung und Dopplung zu kontrollieren (vgl. Kuckartz 2012: 63). Im Falle einer daraus resultierenden Veränderung des Kategoriensystems ergibt sich ein erneuter Durchgang des Anfangsmaterials. Ansonsten folgt der am Kategoriensystem ausgerichtete kodierende Durchgang des Gesamtmaterials.29 3 Zwei Beispiele für qualitative Inhaltsanalysen
Im Folgenden wird die Vorgehensweise der qualitativen Inhaltsanalyse an zwei Beispielarbeiten dargestellt, die für die Forschung im Bereich der Fremdsprachendidaktik als gegenstandsangemessen bezeichnet werden können. Es versteht sich von selbst, dass dies keine erschöpfende Darstellungen sein können, denn es gibt zum einen mehr Varianten (vgl. Mayring 2008, Kuckartz 2012), zum anderen wandeln Forscherinnen und Forscher in explorativen Studien die Varianten häufig gegenstandsangemessen und begründet ab. Um eine solche Form handelt es sich im ersten Beispiel, in dem die qualitative Inhaltsanalyse in Verbindung mit Grundzügen der Grounded Theory als Mischverfahren genutzt wird. Bei der ersten Varianten handelt es sich um die inhaltlich strukturierende Inhaltsanalyse, die sich auch in der Forschungsliteratur als ein zentrales Verfahren finden lässt (vgl. Mayring 2008, Kuckartz 2012, Schart 2003). Die beiden in diesem Kapitel vorgestellten Arbeitsbeispiele werden jeweils nur grob umrissen und in Hinsicht auf einen Forschungsaspekt bzw. ein Analyseverfahren untersucht, wobei die erste Studie dafür genutzt wird, die im vorangegangenen Abschnitt vorgestellten Phasen der qualitativen Inhaltsanalyse zu konkretisieren. Bei beiden Studien handelt es sich um sehr komplexe Arbeiten mit mehreren Forschungsfragen, die nach dem Prinzip der mixed methods bzw. qualitativ vorgehen. Sie können hier nur mit dem Fokus auf die jeweils gewählte qualitative Inhaltsanalyse dargestellt werden. Kategorisierendes und sequentiell vorgehendes Mischverfahren
Susanne Ehrenreich (2004) untersucht in ihrer Studie Auslandsaufenthalt und Fremdsprachenlehrerbildung den Ertrag des Fremdsprachenassistenten-Jahres für Fremdsprachenlehrende (vgl. ebd.: 19). Als Datensätze wurden dafür teilstrukturierte Leitfadeninterviews und Kurzfragebögen generiert (vgl. ebd.: 149 – 156). Die Untersuchungsgruppe setzt sich aus zweiundzwanzig Assistenten zusammen, die durch die Kurzfragebögen vorinformiert und ausgewählt wurden (vgl. ebd.: 159 – 162). Entsprechend des kategorisierenden Ansatzes wurden die Daten unter dem Aspekt der „fallübergreifenden Theoriebildung ausgewertet“ (ebd.: 170). Mit dem sequentiell orientierten Paradigma sollte innerhalb der Studie allerdings auch der „Rekonstruktion der Struktur des Einzelfalles“ zugearbeitet werden (ebd.). Im Auswertungsdesign, dem eine computergestützte Analyse der qualitativen Daten zu29 Sowohl für die deduktive als auch die induktive Inhaltsanalyse gilt, dass im Anschluss an die Kodierung des Gesamtmaterials quantitative Analysen durchgeführt werden können. Eine Quantifizierung qualitativer Daten (vgl. Dörnyei 2007: 269 – 70) wird durch die Nutzung sogenannter QDA (Qualitative Datenanalyse Software) ermöglicht, mit der Daten, Kategoriensysteme und Kodiervorgänge zu verwalten sind. Anhand der Datenbank können numerische Werte genutzt werden, um damit in Form von Häufigkeitsverteilungen, Korrelationen und Antikorrelationen statistisch zu arbeiten (vgl. ebd.). Für einen Überblick zum computergestützten Arbeiten mit qualitativen Daten siehe Kuckartz (1999, 2012: 132 – 164).
5.3.4 Inhaltsanalyse
263
Abbildung 3: Beispielausschnitt des Kategoriensystems aus Ehrenreich (2004: 176)
grunde liegt, wurden insgesamt fünf Teilschritte verfolgt (vgl. ebd.: 173): Auf eine (a) materialbezogene (induktive) Kategorienbildung erfolgte die (b) „Konstruktion und Erprobung des Kategoriensystems“ (ebd.), daran schlossen sich (c) Einzelfallanalysen, (d) „synoptische Themenanalyse“ (ebd.) und (d) kategorisierende Analysen mit dem Ziel der Theoriebildung an. Die Abbildung zeigt einen Ausschnitt aus dem Kategoriensystem der Studie, das mit der Software MAXQDA angelegt und verwaltet wurde. Das Programm bietet die Möglichkeit, die Zuweisungen von Kodes und Textpassagen in einer Datenbank zu archivieren und stellt damit auch Ansatzpunkte für quantitative Analysen, wie bspw. Häufigkeitsverteilungen und Korrelationen, bereit. Kategorien, wie sie hier zu sehen sind, wurden im ersten Schritt aus der Sichtung des Materials und in Bezug auf die theoretischen Grundlagen des Forschungsbereichs gebildet (siehe hierzu das Phasenmodell in Abb. 1). Im zweiten Schritt wurde das angelegte Kategoriensystem auf alle Datensätze bezogen, wobei sich die entwickelte Hierarchie bestätigte und lediglich „eine zusätzliche Hauptkategorie […] aus methodologischen Erwägung“ hinzugefügt wurde (ebd.: 175). Für die letzten Schritte dienten Kategorien dann dazu, die Einzelfälle auf das Erkenntnisinteresse zu beziehen und kontextuelle Zusammenhänge herauszuarbeiten, sowie die Perspektive auf Gemeinsamkeiten zu stärken, indem auf fallübergreifende Theorieelemente fokussiert wurde. Analysiert wurden diese, indem mittels des sogenannten text retrieval des Programms „Kombinationen von Kategorien bzw. die entsprechenden Textsegmente […] sowohl textimmanent als auch textübergreifend“ miteinander verglichen wurden (ebd.: 178). Mit diesen Schritten zeigt die Vorgehensweise der Studie starke Anlehnung an die Kodiervorgänge der Grounded Theory. Kodiervorgänge, die computergestützt mit MAXQDA vorgenommen werden, sind zunächst Zuweisungen bzw. Ordnungsprozesse. Im Programm wird eine Struktur von Kodes, die Kategorien repräsentieren, angelegt (siehe Abb. 2). Innerhalb dieser Struktur findet sich ein System von Kategorien und Sub-Kategorien (Subsumtion von Kategorien, siehe Abb. 1), ein sogenannter Kodebaum. In Abbildung 3 setzt sich dieser zum Beispiel aus der Kategorie Kulturvergleich mit den dazugehörigen Subkategorien Gemeinsamkeiten/ kult. Unterschiede zusammen, die wiederum differenziert werden in Themen/Konzepte und subj. Interpretation. Genutzt wird dieses Kategoriensystem, um die textuellen Daten zu kodieren. In einem weiteren Fenster des Programms findet sich bspw. der Interviewtext, der mittels der Kategorien kodiert werden kann (siehe Abb. 3). Im Programm werden zumeist Paragraphen mit Kodierungen versehen. Diese stellen dann sogenannte Kodings dar und können auch mehrere Para-
264
5. Forschungsverfahren
graphen verbinden. Konkret bedeutet dies, dass im Datenmaterial (hier der Interviewtext) ein Phänomen erkannt werden muss, dass auf eine der etablierten Kategorien bezogen werden kann. Das Phänomen in den Daten wird als kategorial relevant erkannt und ihm wird eine entsprechende Kodierung zugewiesen. Diese Zuweisung stellt einen Akt der Interpretation dar, denn der der Forschende entscheidet, welcher Kategorie das entsprechende Phänomen zugeordnet werden soll. Die Regeln, an die sich diese Zuordnung zu halten hat, werden in sogenannten Kodiermemos festgehalten. Dort wird definiert, unter welchen Umständen ein Phänomen einer Kategorie zugeordnet werden kann, sprich wann Daten zu Kodings einer Kategorie werden. Das Programm fungiert dabei lediglich als Datenbank, die es ermöglicht, Kodes (im Sinne von Kategorien und Subkategorien) entsprechenden Kodings zuzuweisen und diese auch über verschiedene Datensätze hinweg aufzurufen (text retrieval).
Abbildung 4: Beispielausschnitt einer Kodierung eines Interviewtextes (Ehrenreich 2004: 177)
Kodieren bedeutet, das Datenmaterial nach themengleichen Passagen zu durchsuchen. Phänomene, die in diesen Passagen enthalten sind, stellen Repräsentationen der Kategorien im Datenmaterial dar.30 Wie diese Kategorien im System zu strukturieren sind, wird dabei durch den Gegenstand bzw. die Fragestellung vorgegeben, dienen sie doch dazu, Muster auf dem beforschten Feld interpretativ zu (re)konstruieren. Kodings können dabei im Grad der Abstraktion variieren: kodierte Phänomene können explizit auf eine Kategorie verweisen, indem das Enthaltene eine Repräsentationsform der Kategorie darstellt, oder in ihnen ist implizit etwas enthalten, das auf einer entsprechend höheren Abstraktionsstufe auf die Kategorie verweist. Bei der Präsentation der Forschungsergebnisse sind diese Kodiervorgänge so nachzuzeichnen, dass sie intersubjektiv nachvollziehbar sind. Kodings müssen daher stets in den Kontext der zugehörigen Kategorien und Kodierregeln eingeordnet werden und der Forschende legt die zugrundeliegenden Interpretationsstufen dar. Schwerpunktsetzungen innerhalb des Kategoriensystems ergeben sich sowohl aus der theoretischen Relevanz der entsprechenden Kategorie für das beforschte Feld als auch aus deren Auftreten im empirischen Material.
30 Für eine ausführliche Darstellung der Wandlung von in den Daten enthaltenen Phänomenen zu Kodes und zu Theorielementen innerhalb der Kodiervorgänge der Grounded Theory siehe Steininger (2014: 107 – 120).
5.3.4 Inhaltsanalyse
265
Die inhaltlich strukturierende Inhaltsanalyse
Die inhaltlich strukturierende Inhaltsanalyse ist aus heutiger Sicht die wohl häufigste Form der qualitativen Inhaltsanalyse in der deutschen empirischen Fremdsprachenforschung. Sie zielt auf eine Strukturierung und Reduktion der gesammelten Daten ab, die deduktiv oder induktiv oder in einer Mischform aus beiden Verfahren kategorisiert werden können. Häufig werden die Kategorien in einem mehrstufigen Verfahren erstellt, das zunächst grobe Hauptkategorien zum Beispiel nach den Themen eines Interviewleitfadens aufstellt, die dann in mehreren Arbeitsschritten am Datenmaterial verfeinert und ausdifferenziert werden (vgl. Kuckartz 2012: 77). So kann eine Themenmatrix erstellt werden, die als Grundlage für weitere Strukturierungen dient. Als Themen können Einzelaspekte einer Fragestellung dienen, aber auch methodische Aspekte, Aspekte einer Evaluation etc. Die letzte Kodierphase unterzieht dann das gesamte Datenmaterial dem endgültig ausdifferenzierten Kategoriensystem. Ist dieser Schritt abgeschlossen, kann eine Fallmatrix erstellt werden, die Aufschluss über Differenzen und Übereinstimmungen zwischen den einzelnen Fällen der qualitativen Untersuchung gibt. Zusammen mit der Themenmatrix stellt die Fallmatrix eine Profilmatrix aller Daten dar, ist also eine Komprimierung und Reduktion der Daten auf die im Sinne der Forschungsfrage relevanten Erkenntnisse (vgl. Kuckartz 2012: 77). Die Profilmatrix ist wichtig für die Erstellung einer abschließenden Betrachtung der Untersuchung; man kann sie themenorientiert lesen, also alle Fälle miteinander vergleichen, oder fallorientiert analysieren, also einen Fall unter Berücksichtigung der Bandbreite der Themen betrachten. Ein Beispiel aus der aktuellen empirischen Fremdsprachenforschung soll hier zur Erläuterung dienen: In ihrer Studie Diagnostische Kompetenzen im Englischunterricht der Grundschule untersucht Johanna Hochstetter das Beobachtungsverhalten von Lehrkräften im Englischunterricht mehrerer Grundschulen und befragt sie anschließend auch zu ihren Einstellungen zu den benutzten Beobachtungsbögen (vgl. Hochstetter 2011). Für die zweite Forschungsfrage zu den Einstellungen wählt die Forscherin eine leitfadengestützte teilstrukturierte Interviewform, die durch ihre Schwerpunktsetzung bereits eine gewisse thematische Vergleichbarkeit aller Interviews herstellt (vgl. Hochstetter 2011: 88). Hochstetter (ebda.) spricht die besondere Eignung dieses Analyseverfahrens an, „weil die Inhaltsanalyse eine Auswertung an deduktiv und induktiv gewonnenen Kategorien zulässt. […] So kann gezielt nach Äußerungen im Text gesucht werden, die sich auf Einstellungen beziehen, es können aber zusätzlich induktiv weitere Kategorien aus dem Datenmaterial gewonnen und systematisch in die Analyse einbezogen werden. Der Fokus der Analyse liegt auf den Themen, die die Lehrkräfte ansprechen und nicht auf dem Verlauf der Interviews […]“ (ebda.). Die Studie, in der deduktiv, induktiv und mit MAXQDA unterstützt Kategorien erstellt wer den, gibt mit der Analyse der Interviews einen guten thematischen Überblick über die offen angesprochenen und im Gespräch jeweils auch latent vorhandenen Einstellungen der Lehrkräfte, die sich auf die aktuell beobachteten Stunden, aber auch auf ganz allgemeine, nicht direkt erfragte Überzeugungen beziehen. So tritt z. B. zutage, dass die Tendenz zu externalen Kausalattributionen von Schülermeinungen bei den meisten Lehrkräften sehr stark ist, die Haltung zu formativer, pädagogischer Leistungsüberprüfung aber in vielen Fällen negativ vorherrscht, weil sie als problematisch für die Lernenden angesehen wird (vgl. Hochstetter 2011: 212 – 214). Erst im Vergleich der Lehrkräfte untereinander werden die einzelnen thema-
266
5. Forschungsverfahren
tischen Aspekte in ihrer Ausdifferenziertheit fassbar. Die Studie zeigt, wie eine Themenmatrix zu einem komplexen fremdsprachendidaktischen Kontext erarbeitet und auch nach Bedarf erweitert werden kann und wie die einzelnen Fälle vor diesem Hintergrund mit Unterschieden und Übereinstimmungen wahrgenommen werden. 4 Fazit
Die qualitative Inhaltsanalyse kann als eigenständiges Verfahren gelten, das mit seiner Kodifizierung eine Abfolge von Analyseschritten bereithält, die als Rahmen für Forschungsansätze in der Fremdsprachendidaktik angesehen werden können. Bereits vor der empirischen Wende in den Fremdsprachendidaktiken im letzten Drittel des 20. Jahrhunderts stellten Lehrwerkanalysen einen wichtigen Teil der Forschung dar. Diese waren den später entwickelten qualitativen Inhaltsanalysen ähnlich und folgten zumeist dem deduktiven Ansatz auf der Basis vorab definierter Kategorien (vgl. Heuer/Müller 1973 und 1975; einen Überblick zur Erforschung von „Völkerbildern“ in Sprachlehrwerken geben Grothuesmann/Sauer 1991). Die inhaltliche und analytische Auseinandersetzung mit Texten ist somit Grundlage für eine Vielzahl von qualitativen Forschungsdesigns in der Fremdsprachendidaktik. Daher sind Aspekte wie die Arbeit mit Textsegmenten, Kodes und dazugehörigen Kategorien, die von diesen illustriert werden, auch in Mischformen in vielen Studien präsent. Für die Fremdsprachendidaktik bedeutet eine kategorisierende Analyse von Texten das Herausarbeiten von Bedeutungsstrukturen auf komplexen Feldern. Unabhängig von der Fragestellung des Forschers oder der Forscherin müssen Kodierungen so dargestellt werden, dass sie intersubjektiv nachvollziehbar sind; dadurch vergrößert sich zunächst die (erklärende) Textmenge, erst im zweiten Schritt kann mittels Kategorien Komplexität reduziert werden. ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Burwitz-Melzer, Eva (2003). Allmähliche Annäherungen: Fiktionale Texte im interkulturellen Fremdsprachenunterricht der Sekundarstufe I. Tübingen: Narr. Dörnyei, Zoltàn (2007). Research Methods in Applied Linguistics. Oxford: Oxford UP. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung: Das „assistant“Jahr als ausbildungsbiographische Phase. Berlin: Langenscheidt. Friedman, Debra A. (2012). How to collect and analyse qualitative data. In: Mackey, Alison/ Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition. A Practical Guide. West Sussex: Wiley-Blackwell, 180 – 200. Grothuesmann, Heinrich/Sauer, Helmut (1991). Völkerbilder in fremdsprachenunterrichtlichen Lehrwerken. Ein Literaturbericht. In: Zeitschrift für Fremdsprachenforschung 2, 66 – 92. Heuer, Helmut/Müller, Richard Matthias (Hg.) (1973). Lehrwerkkritik – ein Neuansatz. Dortmund: Lensing. Heuer, Helmut/Müller, Richard Matthias (Hg.) (1975). Lehrwerkkritik 2 – Landeskunde, Illustrationen, Grammatik. Dortmund: Lensing.
267 5.3.4 Inhaltsanalyse
5.3.4 Inhaltsanalyse
qualitativ
kodifizierte und kodifizierende Untersuchung von Texten quantitativ
interpretative Analyse der Texttiefenstruktur durch Überführung sprachlicher Phänomene in Kodes mittels Abstraktion Kategorie X
Kode 1, Kode 2, Kode 3
Kategorie Y
deduktiver Ansatz
Vergrößerung des Kategoriensystems durch Entwicklung aus den Daten
induktiver Ansatz
Kode 4, Kode 5, Kode 6
Kodierung der Daten auf der Basis von bestehenden Kategorien
Text
statistische Analyse von Elementen der Textoberfläche durch: Häufigkeitsanalyse Indikatorenanalyse Valenzanalyse Intensitätsanalyse Kontingenzanalyse
Einbettung der Elemente in Kommunikationsmodelle und Erarbeitung der Texttiefenstruktur mittels interpretativer Verfahren
interpretative Vertiefung
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Quantifizierung
268
5. Forschungsverfahren
*Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Kowal, Sabine/O’Connell Daniel C. (2000). Zur Transkription von Gesprächen. In: Flick, Uwe/von Kardorff, Ernst/Steinke, Ines (Hg.). Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, 437 – 447. Krippendorff, Klaus (2004). Content analysis. An introduction to its methodology. London: Sage Publications. Kromrey, Helmut (2009). Empirische Sozialforschung. 12. überarbeitete und ergänzte Auflage. Stuttgart: Lucius & Lucius. Kuckartz, Udo (1999). Computergestützte Analyse qualitativer Daten. Eine Einführung in Methoden und Arbeitstechniken. Wiesbaden, Opladen: Westdeutscher Verlag. Kuckartz, Udo (2012). Qualitative Inhaltsanalyse: Methoden, Praxis, Computerunterstützung. Weinheim: Beltz-Juventa. Mackey, Alison/Gass, Susan M. (2012) (Hg.). Research Methods in Second Language Acquisition. A Practical Guide. West Sussex: Wiley-Blackwell. Mayring, Philipp (1983). Qualitative Inhaltsanalyse. Grundlagen und Techniken. Weinheim: Beltz. Mayring, Philipp (2000). Qualitative Inhaltsanalyse. In: Flick, Uwe/von Kardorff, Ernst/Steinke, Ines (Hg.). Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, 468 – 475. Mayring, Philipp (2002). Einführung in die Qualitative Sozialforschung. Weinheim: Beltz. Mayring, Philipp (2008). Neuere Entwicklungen in der qualitativen Forschung und der Qualitativen Inhaltsanalyse. In: Mayring, Philipp/Gläser-Zikuda, Michaela (Hg.). Die Praxis der Qualitativen Inhaltsanalyse. Weinheim: Beltz, 7 – 19. Mayring, Philipp/Brunner, Eva (2010). Qualitative Inhaltsanalyse. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim: Juventa, 323 – 333. Nunan, David/Bailey, Kathleen (2009). Exploring Second Language Classroom Research: A Comprehensive Guide. Boston: Heinle. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet: Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdsprachenunterricht der Sekundarstufe I. Tübingen: Narr.
»» Zur Vertiefung empfohlen Aguado, Karin (2012). Die Qualitative Inhaltsanalyse in der empirischen Fremdsprachenforschung: Grenzen, Potentiale, Desiderate. In: Aguado, Kerstin/Heine, Lena/Schramm, Karen (Hg.). Introspektive Verfahren und Qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt: Peter Lang, 119 – 135. Bei diesem Text handelt es sich um eine knappe Einführung in das Thema Qualitative Inhaltsanalyse, die ihre zentralen Merkmale und ihr Potenzial gerade für den Fremdsprachenunterricht herausstellt. Es werden auch kritische Meinungen aus der Sekundärliteratur vorgestellt und diskutiert. Gut geeignet als Einstieg in dieses Forschungsthema. Gläser-Zikuda, Michaela (2012). Qualitative Inhaltsanalyse in der Bildungsforschung – Beispiele aus diversen Studien. In: Aguado, Kerstin/Heine, Lena/Schramm, Karen (Hg.). Introspektive
5.3.5 Typenbildung
269
Verfahren und Qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt: Peter Lang, 136 – 159. Dieser Artikel ist als kurzer Informationseinstieg in ein anspruchsvolles Forschungsthema durchaus geeignet. Die Autorin geht auch auf Mischformen aus qualitativer und quantitativer Inhaltsanalyse ein und liefert anschauliche Beispiele aus Studien im Kontext der Bildungsforschung. Neuendorf, Kimberly A. (2002). Content Analysis Guidebook. London: Sage Publications. Dieses Werk wird zur eingehenden Vertiefung empfohlen, denn es stellt umfassend und ausführlich verschiedene Kontexte und Verfahrensweisen der quantitativen und qualitativen Inhaltsanalyse vor. Die Autorin wendet sich an fortgeschrittene Studierende der Kommunkationswissenschaften, der Psychologie und Sozialwissenschaften, das Buch ist also nicht primär auf den Fremdsprachenunterricht ausgerichtet. Mit seiner gründlichen Einführung, kurzen historischen Darstellung und zahlreichen Arbeitsbeispielen kann es aber wertvolle Anregungen geben, wie man die Inhaltsanalyse in verschiedenen Berufs- und Lebenswelten zur Forschung nutzen kann.
5.3.5 Typenbildung Michael Schart 1 Begriffsklärung
Menschen ordnen die Erfahrungen, die sie mit und in ihrer Lebenswelt gewinnen, nach charakteristischen, wiederkehrenden Wahrnehmungs- und Verhaltensmustern (Schütz 1993). Diese „anthropologische Basistechnik“ (Kuckartz 2010: 554) macht sich auch die Wissenschaft zunutze, wenn sie soziale Phänomene mit Blick auf das Typische untersucht. Insbesondere im Umfeld der qualitativen Sozialforschung sind Verweise auf typische Handlungen, Denkmuster oder soziale Konstellationen weit verbreitet. Hierbei handelt es sich jedoch zumeist um Beschreibungen, die auf einer alltäglichen Deutung des Begriffes Typ beruhen. Bohnsack (2010: 48) bezeichnet sie daher auch als „Typenbildungen des Common Sense“. Ein wissenschaftliches Verständnis des Begriffes hingegen muss auf ein methodisch kontrolliertes Vorgehen rekurrieren. Mit einer solchen systematischen Bildung von Typen, die sich auf der Grundlage der Analyse von empirischen Daten vollzieht, beschäftigt sich dieses Kapitel. Sowohl in der quantitativen als auch in der qualitativen Sozialforschung gilt die Konstruktion von Typologien als ein effektives Verfahren, um umfangreiches Datenmaterial zu reduzieren, zu verdichten und schließlich in eine übersichtliche Ordnung zu bringen. Die Zielsetzung besteht darin, im untersuchten Gegenstandsbereich Strukturen und Zusammenhänge zu identifizieren und diese dann als unterschiedliche Typen zu interpretieren. In der quantitativen Forschung kommen in diesem Prozess explorative statistische Verfahren wie beispielsweise Clusteranalysen zum Einsatz, mit denen in den Daten typische Muster bzw. Korrelationen zwischen Merkmalsträgern oder Merkmalsausprägungen aufgedeckt werden können (vgl. Tippelt 2010: 119). Auch in der qualitativen Sozialforschung, die im Mittelpunkt der folgenden Betrachtung stehen wird, bezieht sich der Begriff der Typenbildung im Kern auf eine Methode der Daten-
270
5. Forschungsverfahren
analyse, mit der ein komplexes soziales Phänomen einer Deutung zugänglich gemacht werden soll (s. auch Kapitel 5.3.4). In einem konkreten Forschungsdesign können typenbildende Verfahren in unterschiedlichen Funktionen eingesetzt werden. „Der Anspruch reicht von der Beschreibung und deskriptiven Gliederung eines Untersuchungsfeldes bis hin zur Hypothesengenerierung bzw. Theorieentwicklung auf der Grundlage eher induktiver oder aber abduktiver Prozesse“ (Nentwig-Gesemann 2013: 300). Seit Max Weber zu Beginn des 20. Jahrhunderts seine Überlegungen zu einer verstehenden Soziologie mithilfe von idealtypischen Konstruktionen ausformulierte (z. B. Weber 1988 [1922]: 190 – 214), wurden gerade in der deutschsprachigen empirischen Sozialforschung eine ganze Reihe typenbildender Verfahren entwickelt (siehe z. B. Kuckartz 2012; Kelle/Kluge 2010; Nohl 2013). Diese grenzen sich zwar in Einzelaspekten deutlich voneinander ab, verfolgen jedoch die gemeinsame, grundlegende Strategie, das gesamte Datenmaterial in eine klassifikatorische Ordnung zu bringen, um dann vor dieser Folie das soziale Phänomen zu beschreiben und zu erklären. Im Prozess der Typenbildung werden einzelne Daten aus den untersuchten Fällen zu neuen Einheiten zusammengesetzt. Die so entstandenen Gruppen zeichnen sich dadurch aus, dass die in ihnen versammelten Elemente eine möglichst hohe Ähnlichkeit aufweisen (interne Homogenität), während verschiedene Gruppen untereinander durch möglichst deutliche Kontraste gekennzeichnet sind (externe Heterogenität) (Kelle/Kluge 2010: 85-86). Die interne Homogenität eines einzelnen Typus bzw. die externe Heterogenität zwischen den verschiedenen Typen in einer Typologie ergeben sich durch je spezifische Konstellationen von Merkmalen. Somit besteht ein wichtiger Schritt der Analyse bei der Typenbildung darin, relevante Merkmale zu benennen und zu begründen, anhand derer die zu gruppierenden Elemente verglichen und kontrastiert werden können. Mit Bildung von Typologien ist der Anspruch verbunden, die enge Bindung an das Singuläre der einzelnen Fälle zu überwinden und empirisch begründete, fallübergreifende Aussagen über einen Gegenstandsbereich zu treffen. Hieraus leitet sich eine besondere Stellung dieses Ansatzes innerhalb der qualitativen Sozialforschung ab, denn typenbildende Verfahren schlagen eine Brücke zwischen detaillierten Einzelfallanalysen, wie sie etwa in ethnografischen Ansätzen praktiziert werden, und Vorgehensweisen, die – beispielsweise im Sinne der Grounded Theory – auf die Formulierung von Theorien abzielen (vgl. Kuckartz 2010: 555). Der Begriff der Typenbildung lässt sich daher nicht auf eine Analysetechnik reduzieren, sondern er ist zugleich auch mit methodologischen und methodischen Implikationen verbunden, die den gesamten Forschungsprozess betreffen. Die folgenden Abschnitte werden diese Zusammenhänge eingehender thematisieren. Angesichts der Vielzahl von Ansätzen kann es in diesem Beitrag nicht darum gehen, einen detaillierten Leitfaden für den Ablauf der Typenbildung vorzustellen (siehe dazu z. B. Kelle/ Kluge 2010). Stattdessen sollen deren grundlegende Prinzipien aufgezeigt und einige zentrale Kontroversen nachgezeichnet werden. In der empirischen Fremdsprachenforschung spielen typenbildende Verfahren bislang eher eine untergeordnete Rolle. Gleichwohl können sie – und das soll im Folgenden an einigen Studien verdeutlicht werden – auch bei der Erforschung fremdsprachlicher Lehr- und Lernprozesse erkenntnisreiche Perspektiven eröffnen. So bietet sich ihr Einsatz bei qualitativen Untersuchungsdesigns immer dann an, wenn im Anschluss an Beschreibungen von Einzel-
5.3.5 Typenbildung
271
fällen die Datenanalyse zu generalisierenden Aussagen über das erforschte Phänomen zusammengeführt geführt werden soll (wie z. B. über das didaktische Konzept „Projektunterricht“ in Schart 2003). Die Studien von Haudeck (2008) und Roche (2006) demonstrieren, wie die Typenbildung genutzt werden kann, um verschiedene Verhaltensweisen in Gruppen von Lernenden (z. B. Lernstrategien, Lerntechniken oder Lernstile,) zu identifizieren und zu beschreiben. Und Roters (2012) Studie zur Reflexionskompetenz von Studierenden in der Lehrerausbildung zeigt, dass sich aus Typisierungen Hinweise für die konkrete Gestaltung von Bildungsprogrammen ableiten lassen. 2 Merkmalsräume als Grundlage der Typenbildung
Typologien beruhen immer auf der Konstruktion eines Merkmalsraums, wie ihn die Abbildungen 1 und 2 schematisch darstellen. Dieser muss zwar nicht zwingend in dieser Form einer Kreuztabelle veranschaulicht werden, aber solche Visualisierungen erleichtern es Forschenden zum einen, den Auswertungsprozess zu strukturieren – vor allem wenn der betreffende Merkmalsraum mehr als zwei Dimensionen umfasst. Zum anderen stellen sie eine sinnvolle Möglichkeit dar, die Grundlagen und Ergebnisse einer Typenbildung anschaulich zu präsentieren. Bei den Abbildungen 1 und 2 wird dieser Merkmalsraum von nur zwei Dimensionen gebildet, d. h. die beiden Merkmale (auch: Kategorien oder Variablen) Form und Färbung lassen jeweils nur zwei Merkmalsausprägungen (auch: Subkategorien) zu, anhand derer die einzelnen Elemente der Systematik zugeordnet werden können. Dieses Prinzip wird sowohl bei quantitativen als auch bei qualitativen Analyseprozessen angewendet. Die Vier-Felder-Matrix von Abbildung 1 zeigt eine Typologie, bei der sich alle gebildeten Typen trennscharf voneinander unterscheiden lassen. Zugleich weisen diese Typen auch intern keine Varianzen auf. Solche Typologien sind bei sozialen Phänomenen nur dann zu erwarten, wenn man relativ eindeutige Kategorien wählt (z. B. Geschlecht, Muttersprache
Abbildung 1: Zweidimensionaler Merkmalsraum, Typologie mit merkmalshomogenen Typen
Abbildung 2: Zweidimensionaler Merkmalsraum, Typologie mit merkmalsheterogenen Typen
272
5. Forschungsverfahren
u. ä.) oder den Vergleich auf quantifizierbare Variablen reduziert (z. B. erreichte Punktzahl in einem Test, Anzahl besuchter Unterrichtsstunden u. ä.). Auf diese Weise entstehen merkmalshomogene (auch: monothetische) Typen, wie sie sich in Abbildung 1 finden.31 Dagegen münden typenbildende Verfahren, die auf das Erfassen komplexerer Strukturen und Zusammenhänge abzielen, eher in merkmalsheterogenen (auch: polythetischen) Typen, wie sie in Abbildung 2 dargestellt werden. Hier sind – im Unterschied zu den vier merkmalshomogenen Typen aus Abbildung 1 – die einzelnen Elemente innerhalb einer Gruppe keineswegs identisch. Sie werden vielmehr aufgrund deutlicher Ähnlichkeiten zum gleichen Typ gezählt. Tritt dabei der Fall ein, dass einzelne Elemente der idealen Ausprägung der verglichenen Merkmale sehr nahe kommen, können diese als Optimalfall (oder auch Prototypen) ihrer jeweiligen Gruppe gelten. Sie repräsentieren dann ihren Typ, ohne jedoch mit ihm identisch zu sein (vgl. Nentwig-Gesemann 2013: 301; Kelle/Kluge 2010: 105). Durch den Vergleich der Abbildungen 1 und 2 lässt sich erkennen, dass die Zusammenfassung von Elementen zu Typen anhand von unterschiedlichen Merkmalsausprägungen in der qualitativen Forschung keine Aufgabe darstellt, die ausschließlich formalisiert erfolgen kann. Notwendig ist vielmehr die eingehende Interpretationsleistung der Forschenden. Ein sehr anschauliches Beispiel dafür bietet die Arbeit von Roche (2006), in der beschrieben wird, wie der Analyseprozess mehrere Interpretationsschleifen von der Typologie zu den Daten (in diesem Fall Einträge in Lernerjournalen) und wieder zurück durchläuft. Auf dem Weg von den Einzelfällen zu einer Typologie müssen eine Reihe von methodischen und methodologischen Entscheidungen getroffen werden, die im Folgenden anhand von drei zentralen Fragen der Typenbildung umrissen werden. 3 Zentrale Fragen der Typenbildung Woher kommen die Vergleichsdimensionen?
Im vorangegangen Abschnitt wurde betont, dass die Definition eines Merkmalsraums die Grundlage für den Vergleich darstellt. Damit ist jedoch noch nicht die für den Forschungsprozess maßgebliche Frage beantwortet, woher die Merkmale oder Kategorien stammen, anhand derer Daten verglichen werden können. Die verschiedenen Varianten typenbildender Verfahren finden darauf sehr unterschiedliche Antworten. So werden in einigen Ansätzen die Merkmale bereits vor dem Beginn des Vergleichs definiert, indem man sie beispielsweise direkt aus einer Theorie oder der Forschungsfrage ableitet (siehe z. B. die „typenbildende Inhaltsanalyse“ bei Kuckartz 2012: 115 – 131; s. Kapitel 5.3.4). Dabei bleibt zunächst unbeachtet, ob sich die einzelnen Merkmalskombinationen anhand konkreter Fälle auch tatsächlich empirisch nachweisen lassen. Diese Herangehensweise kann dazu führen, dass so genannte künstliche Typologien entstehen, in denen einzelne Felder des Merkmalsraums im Verlauf des Typisierungsprozesses unbesetzt bleiben. Aber auch dieses Ergebnis stellt natürlich 31 Eine andere Möglichkeit, solche „reinen Typen“ hervorzubringen, geht auf Max Webers Konstruktion von Idealtypen zurück. Bei deren Bildung werden einzelne Merkmalsausprägungen gedanklich überhöht, andere dagegen ausgeblendet, so dass man „theoretische Konstruktionen unter illustrativer Benutzung des Empirischen“ erhält (Weber 1988 [1922]: 205). Im Unterschied zu den in den Abbildungen 1 und 2 dargestellten Realtypen besteht bei solchen Idealtypen nur noch bedingt ein Zusammenhang mit empirischen Daten bzw. realen Fällen.
5.3.5 Typenbildung
273
einen Erkenntnisgewinn über das beforschte Phänomen dar. Denn Felder, die nicht gefüllt werden können, stehen dann für einen Typ, der zwar logisch plausibel erscheint, sich aber in den Daten nicht nachweisen lässt (vgl. Lofland et al. 2006: 148). So stößt beispielsweise Roche (2006) bei seinem Versuch, eine zunächst auf der Basis theoretischer Überlegungen zu Lernstilen konstruierte Typologie mit konkreten Lernerdaten zu füllen, mehrfach auf diese Schwierigkeit. Bei einer anderen Herangehensweise an die Typenbildung wird die Vorabauswahl von Vergleichsdimensionen dagegen grundsätzlich abgelehnt. Ausgangspunkt für die Konstruktion eines Merkmalsraums bilden in diesem Fall zunächst immer nur die Daten selbst, weshalb man auf diesem Weg zu sogenannten natürlichen Typologien kommt. Ein Beispiel dafür stellt die dokumentarische Methode dar, deren Vertreterinnen und Vertreter ihr Vorgehen auch als praxeologische Typenbildung bezeichnen, weil es sich an „der impliziten Logik der erforschten Praxis“ (Nohl 2013: 38) orientiert. Es wird eine „abduktive Erkenntishaltung“ (Nentwig-Gesemann 2013: 307) angestrebt, um Hypothesen über das Untersuchungsfeld allein aus dem empirischen Material heraus mit Hilfe abduktiver Schlüsse zu gewinnen. Die Entscheidung über die Vergleichsdimensionen des Merkmalsraums ist also mit grundsätzlichen methodologischen Überlegungen verknüpft. Es geht zum einen um die Frage, inwieweit Forschende ihr Vorwissen (in Form von Theoriewissen, eigenen Erfahrungen mit dem zu erforschenden Phänomen etc.) im Forschungsprozess ausblenden oder sich von diesem distanzieren können. Zum anderen wird diskutiert, ob die Generierung von neuartigen Typologien im Sinne eines explorativen Vorgehens überhaupt möglich sei, wenn man die Vergleichsdimensionen bereits vorab festlege und damit die einzelnen Elemente theoriegeleitet zu Typen anordne (siehe z. B. die Kritik bei Bohnsack 2010: 487 an einem theoriegeleiteten Vorgehen). Eine vermittelnde Position nehmen Kelle/Kluge (2010: 18 – 27) ein. Sie bezeichnen die Annahme, dass Kategorien und Konzepte gleichsam aus dem Datenmaterial emergieren könnten, als „induktivistisches Selbstmissverständnis“ der qualitativen Methodenlehre. Der kreative und spielerische Umgang mit den Daten, wie er für induktive oder abduktive Vorgehensweisen typisch ist, sei für das Generieren von Typologien zwar notwendig, aber zugleich auch riskant und vage. Wissenschaftliches Wissen, so die Argumentation bei Kelle/ Kluge, entstehe immer aus der Kombination von bereits Bekanntem und Neuem. Sie sprechen sich daher für eine beständige Integration von empirischen und theoretischen Arbeitsschritten aus, wobei das Vorwissen der Forschenden einfließen sollte. Entscheidend sei dabei, dass sich Forschende auf abstrakte Konzepte bzw. empirisch gehaltlose Kategorien32 beschränkten. Nur diese könnten als „theoretische Heuristiken“ bei der Typenbildung dienen, weil sie den Blick auf das Neue in den Daten nicht verstellten (Kelle/Kluge 2010: 63). Während also die Kategorien in diesem vermittelnden Ansatz theoriegeleitet formuliert werden, entstehen die Subkategorien des Merkmalsraums in der Auseinandersetzung mit dem Datenmaterial. 32 Kelle/Kluge (2010: 63) nennen als Beispiel das Konzept „Rollenerwartung“, das noch keine konkreten Aussagen darüber enthalte, wie sich die Rollenerwartungen in einem zu untersuchenden Feld gestalten. Die Wahrnehmung der Forschenden bei der Analyse werde somit zwar gelenkt, aber der empirische Gehalt entstehe erst durch die intensive Beschäftigung mit den Daten.
274
5. Forschungsverfahren
Dieses Vorgehen lässt sich beispielshaft an der Studie von Haudeck (2008) nachvollziehen. Am Beginn ihrer Untersuchung zu Lernstrategien und Lerntechniken beim Vokabellernen formuliert Haudeck aufgrund theoretischer Prämissen Oberkategorien, anhand derer sie die Lernerdaten (Einträge in Lerntagebüchern) zunächst grob systematisiert. Die eigentliche Typologie nimmt indes erst durch die induktiv aus dem Datenmaterial gewonnenen Kategorien ihre Gestalt an. Und auch bei Haudeck finden sich die oben erwähnten Rücküberprüfungen zwischen Kategorien und Texten, um die Zuordnung abzusichern. Roters (2012) orientiert sich in ihrer vergleichenden Studie zur Reflexionsfähigkeit von angehenden Fremdsprachenlehrerinnen und -lehrern in Deutschland und den USA ebenfalls an dem von Kelle/Kluge (2010) beschriebenen Modell. Sie entwickelt einen Merkmalsraum für die Typisierung von studentischen Reflexionen, indem sie zunächst Daten aus den beiden Ländern getrennt analysiert. Dabei fließen theoretisches Vorwissen ebenso ein wie Dokumentenanalysen und Experteninterviews. Durch die Gegenüberstellung der länderspezifischen Analyse kommt Roters zu einer sechsstufige Typologie, anhand der sie verschiedene Reflexionsniveaus von Novizen charakterisieren und hochschuldidaktische Empfehlungen für ein reflexives Professionalisierungskonzept in der Lehrerbildung formulieren kann. Zusammenfasend lässt sich sagen, dass eine Antwort auf die Eingangsfrage dieses Abschnitts, die keine Variante der Typenbildung ausgrenzt, unspezifisch ausfallen muss: Die einzelnen Vergleichsdimensionen des Merkmalsraums können offensichtlich auf dem Vorwissen der Forschenden beruhen oder ebenso erst im Prozess der Datenauswertung entstehen. Sie lassen sich von der Forschungsfrage ableiten oder können vom Forschungsinstrument – etwa den Fragen eines Interviewleitfadens – beeinflusst sein. Welches Vorgehen bevorzugt wird, hängt letztlich vom untersuchten Gegenstand und den Forschungsfragen ab. Für die wissenschaftliche Qualität einer Typologie indes ist ausschlaggebend, ob die Konstruktion des Merkmalsraums eingehend reflektiert, nachvollziehbar dargestellt und begründet wird. Was wird typisiert?
Am Beginn einer Typenbildung sollte nicht nur Gewissheit darüber bestehen, wie man zu den Kategorien gelangt, anhand derer die empirischen Daten verglichen werden. Ebenso wichtig ist es, eine Vorstellung davon zu besitzen, worauf sich dieser Vergleich konkret beziehen soll. Traditionell wird von einer Parallelität zwischen Fällen und typisierten Elementen ausgegangen. Die Individuen werden bei der Datenerhebung (etwa durch Interviews, Beobachtung u. ä.) als einzelne Fälle behandelt und dann auch in dieser Form typisiert. Sowohl Haudeck (2008) als auch Roche (2006) wählen in ihren Studien diesen Weg. Lernstrategien, Lerntechniken oder Lernstile bleiben somit eng mit den Lernenden verknüpft, auf deren Daten die Bildung der Typologie beruht. Ebenso ist dies der Fall bei Roters (2012), die ihre Typisierung von Reflexionsniveaus auf einzelne Studierende bezieht. Für viele Forschungsinteressen erscheint es aber weitaus sinnvoller zu sein, eine größere Gruppe von Individuen als Einzelfall zu betrachten, etwa wenn die Lernatmosphäre in unterschiedlichen Klassen untersucht werden soll und deshalb u. a. Gruppendiskussionen als Forschungsinstrument zum Einsatz kommen. Die Typenbildung kann auch derart konzipiert werden, dass sie sich auf Ereignisse und Situationen konzentriert oder unterschiedliche Denk-
5.3.5 Typenbildung
275
figuren und Handlungsmuster innerhalb eines sozialen Kontextes ins Zentrum der Analyse rückt. In all diesen Beispielen können zwar Daten von einzelnen Personen die Datengrundlage schaffen, doch im Verlauf des Analyseprozesses ergibt sich eine immer größere Distanz zwischen den ursprünglichen Einzelfällen und den typisierten Elementen. Ein Beispiel für diesen Ansatz liefert die Studie von Schart (2003), die sich subjektiven Unterrichtstheorien von DaF-Lehrenden widmet. Auch in dieser Arbeit werden nicht die befragten Individuen selbst typisiert, sondern die Argumentationslinien, denen die Lehrenden folgen, wenn sie ihre Sicht des Projektunterrichts beschreiben. Ebenso lässt sich in diesem Zusammenhang die Studie von Ertelt-Vieth (2005) anführen. Die Autorin bezieht sich zwar nicht explizit auf die Typenbildung, ihr Prozess der Datenanalyse weist jedoch deutliche Ähnlichkeiten mit dem hier beschriebenen Vorgehen auf. Bei ihrer Untersuchung von deutschrussischem Schüleraustausch richtet Ertelt-Vieth ihr Augenmerk auf Elemente, die das gegenseitige Verständnis erschweren (sogenannte Lakunen) und typisiert diese nach einer Reihe von Kriterien. Sie kommt dadurch zu verschiedenen Typen von Lakunen, die nicht mehr fest mit den untersuchten Einzelfällen verknüpft sind. Bei einer solchen weiten Definition der zu typisierenden Elemente, ist es unvermeidlich, dass die Daten einzelner Fälle verschiedenen Typen zugeordnet werden. Man erhält multidimensionale Typologien. Deren Überschneidungen sind jedoch nur dann bedenklich, wenn sich am Ende ein Großteil der Fälle in vielen Typen wiederfindet. Dann stellt sich zwangsläufig die Frage nach dem Sinn der Typisierung (vgl. Richards 2009: 182). Ein großer Vorteil der Trennung von Einzelfall und typisierten Elementen liegt darin, dass sich neue Möglichkeiten der Datenanalyse ergeben. Es lassen sich beispielsweise systematisch und empirisch begründet Modellfälle oder Modelltypen entwickeln, die eine neue Perspektive auf das betreffende soziale Phänomen erschließen. So verdeutlicht Schart (2003: 212) die extremen Gegensätze zwischen den typischen Argumentationslinien in seiner Studie, indem er auf der Grundlage seiner Daten einen fiktiven Dialog zwischen zwei hypothetischen Lehrenden konstruiert (siehe dazu auch Kuckartz 2012: 130). Auch wenn in einem konkreten Forschungsprojekt das Verhältnis zwischen den Einzelfällen und den Elementen der Typisierung sehr unterschiedlich gehandhabt werden kann, ist für alle Ansätze der Typenbildung in der qualitativen Sozialforschung jedoch charakteristisch, dass ein genaues Verständnis der Einzelfälle als zwingend erforderlich betrachtet wird. Hierin unterscheidet sich die Typenbildung von Analyseverfahren wie etwa der Grounded Theory, bei der einzelne Fälle im Verlauf des Forschungsprozesses nur eine untergeordnete Rolle spielen (vgl. Nohl 2013: 29f). Bleiben die einzelnen Fälle als Ausgangspunkt der Typenbildung unverstanden, so geben Lofland et al. (2006: 149) zu bedenken, könne das gesamte Verfahren leicht in einer sterilen Übung enden. Die Typenbildung darf also nicht als ein Ersatz für die Interpretation der Einzelfälle missverstanden werden. Sie kann nur funktionieren, wenn sich Forschende zugleich auch um ein tiefes Verständnis der einzelnen Fälle bemühen. Ein letzter Aspekt, der mit Blick auf das Verhältnis von Fall und Typus erwähnt werden muss, betrifft die Verteilung der Fälle bzw. Elemente in einer Typologie. Kommt es zu einer Typologie, in der viele typisierte Elemente mehrfach vertreten sind, muss deren Erklärungskraft bezweifelt werden. Auch die entgegengesetzte Tendenz erscheint problematisch, denn können viele Elemente gar nicht erst typisiert werden, sind die Vergleichsdimensionen dem empirischen Material nicht angemessen gewählt (vgl. Lofland et al. 2006: 149).
276
5. Forschungsverfahren
Wann beginnt und wann endet die Typenbildung im Forschungsprozess?
Die bis hierhin geschilderten Prinzipien und Kontroversen vermitteln eine Vorstellung davon, weshalb die Typenbildung mehr darstellt als eine reine Technik der Datenanalyse. Die Entscheidung für dieses Verfahren kann sich – je nach gewähltem Ansatz – auf den gesamten Forschungsprozess auswirken. Daher fällt es auch sehr schwer, eine befriedigende Antwort auf die Frage zu finden, die diesem Abschnitt voransteht. Tendenziell erscheint es für quantitative Untersuchungen eher unproblematisch zu sein, den Beginn der Typenbildung erst relativ spät im Forschungsprozess einsetzen zu lassen. So können auch bereits erhobene und analysierte Daten nachträglich einem explorativen Verfahren wie der Clusteranalyse unterzogen werden, um sie nach typischen Mustern zu befragen. Für die qualitative Forschung hingegen ist ein solches Vorgehen eher selten realisierbar. Hier beginnt die Typenbildung, wie Kelle/Kluge (2010) überzeugend darstellen, bereits bei der Auswahl der Einzelfälle (s. Kapitel 4.3 Sampling), deren Zusammensetzung das Ergebnis der Typisierung entscheidend beeinflusst. Selbst wenn man sich auf den zentralen Bereich der Typenbildung konzentriert, also nur den Vergleich und die Gruppierung der Daten sowie die Formulierung der Typen betrachtet, findet man keine klare Antwort darauf, an welchem Punkt die Typenbildung einsetzen sollte. Kuckartz (2012) beispielsweise betont, dass die eingehende Analyse der Einzelfälle eine grundlegende Voraussetzung dafür darstelle, um mit dem Vergleich beginnen zu können. Dem steht, wie bereits weiter oben erwähnt, die Dokumentarische Methode mit ihrer Strategie entgegen, die Rekonstruktion der Einzelfälle und deren Vergleich parallel zu vollziehen. Diese Praxis beruht auf der Idee, dass die Besonderheiten der Einzelfälle gerade durch die kontinuierliche, gegenseitige Kontrastierung hervortreten. Zugleich ist mit dieser Herangehensweise die Hoffnung verbunden, der Befangenheit, in der sich die Forschenden durch ihr Vorwissen und ihre Erwartungen befinden, die Wirkungskraft zu nehmen. Der Vergleich als eine „durchgängige Analysehaltung“ (Nohl 2013: 15) erfüllt somit nicht nur eine erkenntnisgenerierende, sondern auch eine erkenntniskontrollierende Funktion. Die konkrete Ausgestaltung des Vergleichs bei der Typenbildung ergibt sich jedoch nicht nur aus solchen methodologischen Überlegungen. Eine nicht zu unterschätzende Rolle spielen auch die technischen Arbeitsmittel, die Forschenden zur Verfügung stehen. Seit den 1990er Jahren wachsen mit zunehmend umfangreicheren und leistungsfähigeren Computerprogrammen auch die Möglichkeiten der Datenanalyse. Diese Entwicklung verlieh gerade der Typenbildung eine besondere Dynamik, denn hierdurch ergaben sich die notwendigen Mittel und Wege, diese „wirklich transparent, methodisch kontrolliert und intersubjektiv nachvollziehbar“ (Kuckartz 2012: 153) zu gestalten. Ein relativ frühes Einsetzen von Quervergleichen zwischen den Einzelfällen stellt daher aus technischer Sicht inzwischen kein Problem mehr dar, weil QDA-Software ein kontinuierliches Springen von den kodierten Elementen zu den Kontexten erlaubt, denen sie entstammen. Bleibt schließlich die Frage, wann genau die Typenbildung ihren Abschluss findet. Einig sind sich die verschiedenen Ansätze darin, dass es mit Blick auf die wissenschaftliche Qualität einer Studie nicht ausreicht, diese in der Beschreibung eine Typologie enden zu lassen. Die Darstellung von empirischen Regelmäßigkeiten bei einem sozialen Phänomen markiert zwar einen wichtigen Zwischenschritt, ihr muss jedoch zwingend die Erklärung dieser Zusammenhänge folgen. Denn der gesamte Prozess beruht letztlich auf dem Anspruch, über das
5.3.5 Typenbildung
277
5.3.5 Typenbildung
Beschreibung und Gliederung eines Untersuchungsfeldes, Hypothesengenerierung bzw. Theorieentwicklung
Daten / Fälle Leitfrage: Welche Zusammenhänge und Muster lassen sich beschreiben? Vergleichsdimensionen festlegen Merkmalsraum konstruieren Einzelfälle und Daten zuordnen Quelle der Vergleichsdimension Gegenstand des Vergleichs Verhältnis zur Einzelfallanalyse Ergebnisse/Endpunkt der Typenbildung Typologie Daten in klassifikatorischer Ordnung Typ 1
Typ 2
Typ 3
Typ 4
interne Homogenität und externe Heterogenität der gebildeten Typen © 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
278
5. Forschungsverfahren
Typische zu einer Generalisierung zu gelangen und mit den Typologien zur Theorieentwicklung beizutragen. Das kann auf sehr unterschiedliche Art und Weise erfolgen. Im Umfeld der Dokumentarischen Methode beispielsweise wird ein zweistufiges Verfahren gewählt, um die Erkenntnisse über den untersuchten Kontext zu verallgemeinern. Der sinngenetischen, eng an den Daten orientierten Typenbildung folgt eine soziogenetische Typenbildung, bei der als Vergleichsdimensionen soziologische und soziodemografische Kategorien wie Milieu oder Geschlecht hinzugezogen werden (vgl. Nentwig-Gesemann 2013). Dass ein solcher Blickwinkel auf die Daten auch in der Fremdsprachenforschung zu interessanten Einsichten führen kann, lässt sich beispielsweise an der Studie von Schart (2003) verfolgen. Deren Analyse verdeutlicht, wie das didaktische Denken von Lehrenden im Bereich Deutsch als Fremdsprache von den unterschiedlichen Studienabschlüssen der Befragten geprägt ist. Ein anderes mögliches Vorgehen stellt Kuckartz (2012) dar. Er plädiert dafür, die auf qualitativer Datenanalyse beruhende Typologie in ein quantifizierendes Verfahren zu überführen. Welchen Weg Forschende auch wählen: Als Ergebnis der Typenbildung sollten sie verdeutlichen, weshalb es sinnvoll erscheint, das betreffende soziale Phänomen gerade in dieser Weise zu interpretieren. Sie müssen sich und auch den Rezipienten ihrer Studie Klarheit darüber verschaffen, was eigentlich das Neuartige an ihren Typen darstellt und in wie fern die konstruierte Typologie als heuristisches Instrument auch in anderen sozialen Kontexten Anwendung finden kann (vgl. Kuckartz 2010: 565; Richards 2009: 182). ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Bohnsack, Ralf (2010). Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. 8., durchges. Aufl. Opladen: Budrich. Bohnsack, Ralf/Nentwig-Gesemann, Iris/Nohl, Arndt-Michael (2013) (Hg.). Die dokumentarische Methode und ihre Forschungspraxis. 3., aktualisierte Aufl. Wiesbaden: Springer VS. *Ertelt-Vieth, Astrid (2005). Interkulturelle Kommunikation und kultureller Wandel: eine empirische Studie zum russisch-deutschen Schüleraustausch. Tübingen: Narr. *Haudeck, Helga (2008). Fremdsprachliche Wortschatzarbeit außerhalb des Klassenzimmers. Eine qualitative Studie zu Lernstrategien und Lerntechniken in den Klassenstufen 5 und 8. Tübingen: Narr. Kelle, Udo/Kluge, Susann (2010). Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. 2., überarbeitete Aufl. Wiesbaden: Springer VS. Kuckartz, Udo (2010). Typenbildung. In: Mey, Günter/Mruck, Katja (Hg.). Handbuch qualitative Forschung in der Psychologie. Wiesbaden: VS Verlag, 553 – 568. Kuckartz, Udo (2012). Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Weinheim: Beltz Juventa. Lofland, John/Snow, David/Anderson, Leon/Lofland, Lyn H. (2006). Analysing Social Settings. A Guide to Qualitative Observation and Analysis. 4th edition. Belmont: Wadsworth. Nentwig-Gesemann, Iris (2013). Die Typenbildung in der dokumentarischen Methode. In: Bohnsack, Ralf/Nentwig-Gesemann, Iris/Nohl, Arndt-Michael (Hg.). Die dokumentarische Methode und ihre Forschungspraxis. 3., aktualisierte Aufl. Wiesbaden: Springer VS, 297 – 322.
5.3.5 Typenbildung
279
Nohl, Arnd-Michael (2013). Relationale Typenbildung und Mehrebenenvergleich. Neue Wege der Dokumentarischen Methode. Wiesbaden: Springer VS. Richards, Lyn (2009). Handling qualitative data. A practical guide. 2nd ed. London: SAGE. *Roche, Thomas (2006). Investigating Learning Style in the Foreign Language Classroom. Berlin: Langenscheidt. *Roters, Bianca (2012). Professionalisierung durch Reflexion in der Lehrerbildung: Eine empirische Studie an einer deutschen und einer US-amerikanischen Universität. Münster: Waxmann. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Hohengehren: Schneider. [Referenzarbeit, s. Kapitel 7] Schütz, Alfred (1993). Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende Soziologie. 6. Aufl. Frankfurt/M.: Suhrkamp. Tippelt, Rudolf (2010). Idealtypen konstruieren und Realtypen verstehen – Merkmale der Typenbildung. In: Ecarius, Jutta/Schäffer, Burkhard (Hg.). Typenbildung und Theoriegenerierung. Methoden und Methodologien qualitativer Bildungs- und Biographieforschung. Opladen: Budrich, 115 – 126. Weber, Max/Winckelmann, Johannes (1988 [1922]). Gesammelte Aufsätze zur Wissenschaftslehre. 7. Aufl. Tübingen: Mohr. »» Zur Vertiefung empfohlen Bohnsack, Ralf/Nentwig-Gesemann, Iris/Nohl, Arndt-Michael (2013) (Hg.). Die dokumentarische Methode und ihre Forschungspraxis. 3., aktualisierte Aufl. Wiesbaden: Springer VS. Im Umfeld der dokumentarischen Methode wurde die Typenbildung zu einem methodologisch umfassend begründeten und methodisch elaborierten Verfahren weiterentwickelt. Der Band dokumentiert den Stand der Diskussion und gibt Beispiele für die Umsetzungen in die Forschungspraxis. Kelle, Udo/Kluge, Susann (2010). Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. 2., überarbeitete Aufl. Wiesbaden: Springer VS. Die Arbeit zählt inzwischen zur Standardliteratur zum Thema. Mit ihrem Stufenmodell einer empirisch begründeten Typenbildung versuchen die Autoren, die verschiedenen Methoden und Modelle von Typenbildung in der qualitativen Sozialforschung in einen gemeinsamen methodologischen Rahmen zu stellen und damit Forschenden ein hilfreiches Werkzeug an die Hand zu geben. Kuckartz, Udo (2012). Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Weinheim: Beltz Juventa. In dieser Arbeit wird die typenbildende qualitative Inhaltsanalyse als eine von drei Basismethoden für die inhaltsanalytische Auswertung qualitativer Daten vorgestellt. Die Darstellung zeichnet sich dadurch aus, dass enge Bezüge zur Forschungspraxis hergestellt werden, wobei der Analyse mit Hilfe von QDA-Software besondere Aufmerksamkeit gilt.
280
5. Forschungsverfahren
5.3.6 Diskursanalytische Auswertungsmethoden Götz Schwab/Karen Schramm 1 Begriffsklärung
Unter dem Begriff der Diskursanalyse werden verschiedene pragmalinguistisch fundierte Verfahren zur Auswertung sozialer Interaktionen gefasst. Nach van Lier (1996: 4) kann die Bedeutung solcher Interaktionen im Fremdsprachenunterricht nicht einfach als selbstverständlich vorausgesetzt werden, „but the interaction itself must be meticulously described and understood.“ Der Begriff Interaktion umfasst die beiden Aspekte inter (lat. zwischen) und actio (lat. Handlung, Tätigkeit) und wird von Henrici folgendermaßen definiert: Unter Interaktion sollen im Folgenden sprachliche und nichtsprachliche Handlungen verstanden werden, die zwischen mindestens zwei Gesprächspartnern stattfinden und mindestens einen Beitrag (’turn’) der jeweiligen Partner umfassen, der inhaltlich an den jeweils anderen gerichtet ist. (Henrici 1995: 25; Hervorhebung im Original)
Goffman (z. B. 1981) hat für solche Interaktionen den zentralen Begriff der Begegnung (encounter) geprägt und impliziert damit, was House (1991: 405) als „wechselseitige Beeinflussung von Individuen oder Gruppen“ bezeichnet. Demnach hat die Forschung zu Interaktion grundlegend das Gegenüber im Blick – unabhängig von der Frage, ob als direkter Adressat oder nur als passiver Zuhörender. Es sind alle Partizipientinnen und Partizipienten im Analyseprozess zu berücksichtigen, was gerade für die Unterrichtsforschung bedeutsam ist, da die Kommunikation in der Regel in größeren Gruppen, beispielsweise Schulklassen, stattfindet (Schwab 2011). Eine einseitige Reduktion auf bestimmte Teilnehmende (z. B. nur die Lehrperson) ist nach diesem Verständnis nicht angemessen, sondern verzerrt den Blick auf den Interaktionsprozess als Ganzes. Auch wenn der Fokus auf bestimmte Teilnehmende der Interaktion gelegt wird (z. B. Schülerinnen und Schüler mit Migrationshintergrund oder Erzieherinnen und Erzieher in der ersten Phase ihrer Ausbildung), so muss doch immer das Gesamtgefüge in den Analyseprozess eingeschlossen werden (vgl. bspw. Hoshii/Schumacher 2010 zur Konstellation bei der fremdsprachendidaktisch motivierten Videokonferenz). In der Unterrichtsforschung haben neben der Funktionalen Pragmatik insbesondere die Interaktionsanalyse und die ihr zuzuordnende Gesprächsanalyse größere Bedeutung gewonnen. Die Gesprächsanalyse geht auf die Konversationsanalyse zurück, versteht sich aber als weitergefasster Ansatz, welcher z. B. „durch Prozeduren der interaktionalen Soziolinguistik, der discursive psychology und der grounded theory“ (Deppermann 2001: 10; Hervorhebung im Original) ergänzt wird und weniger eng gefasst ist als die traditionelle (ethnomethodologische) Konversationsanalyse (Deppermann 2001; vgl. hierzu auch Henne/Rehbock 2001). Beide diskursanalytischen Forschungstraditionen, sowohl (a) die Interaktionsanalyse als auch (b) die Funktionale Pragmatik, untersuchen Interaktionsabläufe in allen Bereichen des öffentlichen (z. B. Podiumsdiskussion, Fernsehinterview) und privaten Lebens (z. B. Familiendebatte, Arztbesuch), werden aber im Folgenden begrenzt auf institutionelle Lernorte wie Kindergarten, Schule oder Hochschule behandelt. Gemeinsam ist ihnen der Fokus auf die Handlungsebene, insbesondere die Qualität und Ausgestaltung der sprachlichen Äußerun-
5.3.6 Diskursanalytische Auswertungsmethoden
281
gen: Beide Methoden eignen sich für ein tiefergehendes Verständnis der Sprachhandlungen, die z. B. Lernende und Lehrende in der Klassenzimmer-Interaktion ausführen, wenngleich die Ansätze methodologisch aus unterschiedlichen theoretischen Traditionen stammen und differente Herangehensweisen aufweisen. Während die Interaktionsanalyse stark durch die soziologische Forschung und Ethnomethodologie beeinflusst wurde (Deppermann 2001), ist die Funktionale Pragmatik deutlich linguistischer geprägt. (a) Interaktionsanalyse impliziert ein umfassenderes Verständnis von Gesprächen als dies z. B. bei der Konversationsanalyse suggeriert wird, da neben verbalen und non-verbalen Aspekten auch die Rolle des Visuell-Räumlichen von Sprachhandlungen verdeutlicht wird (Deppermann/Schütte/Ernst o. J.). In der englischsprachigen Literatur wird allerdings eher der Begriff discourse analysis als übergeordneter Begriff verwendet (z. B. Nunan 1993 oder Schiffrin/Tannen/Hamilton 2003), unter welchem neben interaktionsanalytischen teilweise auch konversationsanalytische Ansätze firmieren (z. B. Schiffrin 1994). Innerhalb der Diskursanalyse unterscheiden Ellis/Barkhuizen (2005) überdies zwischen interactional analysis und interaction analysis. Während interactional analysis dem deutschen Begriff Interaktionsanalyse entspricht, ist mit Letzerem ein im Vorfeld festgelegtes Beobachtungsraster gemeint, wie z. B. das von Flanders (1978) entwickelte FIAC (Flanders’ Interaction Analysis Categories) oder das Beobachtungsprotokoll von Brophy/ Good (1976) zur Lehrer-Schüler-Interaktion (s. Kapitel 5.2.3 zur Beobachtung). Ein etwas anderes, aber nichtsdestotrotz einflussreiches Modell von discourse analysis haben die britischen Linguisten John Sinclair und Malcolm Coulthard in ihrem Buch Towards an Analysis of Discourse (1975) entwickelt. Basierend auf einem sprechakttheoretischen Verständnis von (Unterrichts-)Interaktion stellen sie ein Analysemodell zur Beschreibung sprachlicher Handlungen vor, in dessen Mittelpunkt der sogenannte IRF-exchange (initiation-response-feedback33), zu Deutsch pädagogischer Austausch (z. B. Schwab 2009), steht. Diese dreischrittige Sequenz bildet das kommunikative Rückgrat des lehrerzentrierten Plenumunterrichts – in der Regel operationalisiert durch (1) Lehrerfrage, (2) Schülerantwort und (3) Feedback zur Schülerantwort (vgl. hierzu auch Becker-Mrotzek/Vogt 2001: 15 – 24). (b) Die Funktionale Pragmatik bezieht dagegen bei der analytischen Modellierung von Unterrichtsinteraktionen im Gegensatz zur Interaktions- und Konversationsanalyse die mentale Dimension der Interaktantinnen und Interaktanten explizit mit ein. In sogenannten Handlungsmustern wird das Zusammenspiel sprecher- und hörerseitiger mentaler Operationen und Entscheidungen mit interaktionalen Handlungsschritten (Pragmemen) in einem zweckgerichteten Ensemble rekonstruiert (s. einführend Becker-Mrotzek/Vogt 2001, Weber/Becker-Mrotzek 2012). So wird beispielsweise der oben beschriebene interaktionsanalytische IRF-pattern unter Einbezug von lehrpersonseitigen Einschätzungen und schülerseitigem Wissensabruf als Handlungsmuster „Aufgabe stellen – Aufgabe lösen“ in nicht nur drei Schritten, sondern als Zusammenspiel von 19 Pragmemen zum Zwecke des akzelerierten Wissenserwerbs modelliert (Ehlich/Rehbein 1986). Ein weiterer wichtiger 33 Manche Autorinnen und Autoren sprechen anstelle von feedback auch von evaluation und damit einem IRE exchange bzw. IRE structure (vgl. Walsh 2006: 46).
282
5. Forschungsverfahren
Unterschied zur Interaktions- und Konversationsanalyse besteht in der Annahme, dass Handlungsmuster gesellschaftlich ausgearbeitet und vermittelt sind. 2 Merkmale von Interaktionsanalyse und Funktionaler Pragmatik
Grundlegend für diskursanalytische Ansätze ist die Annahme, dass sprachliches Handeln und Lernprozesse gleichermaßen in sozialen Interaktionen sichtbar werden. Diese Grundannahme impliziert auch ein Verständnis von Lernen, welches den Erwerbsprozess nicht allein auf mentale Vorgänge des Einzelnen begrenzt, sondern vielmehr als interaktives Unterfangen beschreibt, bei dem alle Beteiligten eine Rolle spielen und somit den Prozess beeinflussen. Das sozio-kulturelle Verständnis von Kognition als mediated mind (Vygotsky 1978) unterstreicht diesen Gedanken des sozialen Charakters von Lernen. Auch der Erwerb einer Sprache muss im Kontext von interaktionalen Handlungenprozessen betrachtet werden, d. h. Prozessen, bei denen Menschen sich Sprache in der Begegnung mit anderen aneignen. Die Analyse von Interaktionen und Handlungsmustern im Fremdsprachenunterricht hat also demnach eine zweifache Orientierung. Zum einen werden die sprachlichen Handlungen en detail beschrieben und interpretiert; zum anderen wird versucht, das Lernen selbst in seiner interaktionalen Verortung zu beschreiben und hieraus Schlüsse für den Spracherwerb zu ziehen. Um dies zielführend umzusetzen, müssen bei der Analyse einige Prinzipien berücksichtigt werden, die im Folgenden aufgezeigt und erklärt werden (vgl. Ehlich/Rehbein 1986, Becker-Mrotzek/Vogt 2001, Deppermann 2001, Seedhouse 2004, Dalton-Puffer 2007, Schwab 2009, Weber/Becker-Mrotzek 2012). (a) Empirische Datengrundlage: Interaktionsanalyse und Funktionale Pragmatik basieren auf Daten, die in natürlichen Settings gewonnen werden. In der Regel sind dies Video- und/ oder Audiomitschnitte. Das schließt vorherige Absprachen (sogenannte Untersuchungsskripts) mit den Forschungssubjekten aus; vielmehr sollte das Unterrichtsgeschehen möglichst natürlich und unbeeinflusst von den Forschenden vonstatten gehen. Dabei geht man bei der Datenerhebung von einer nicht-teilnehmenden Beobachtung aus (s. Kapitel 5.2.3 zur Beobachtung), bei der die Forschenden nicht verdeckt, sondern für alle Akteure sichtbar mitschneiden. Mit observer’s paradox (Labov 1972) bezeichnet man das sich daraus ergebende Dilemma, dass Forschende bei Interaktionen anwesend sind, bei denen sich die Interaktantinnen und Interaktanten aber so verhalten sollen, als ob sie unbeobachtet wären. Häufig wird jedoch in Forschungsberichten konstatiert, dass sich der Zustand natürlichen Verhaltens recht schnell einstellt, gerade bei jüngeren Personen. (b) Emische Perspektive: Mit emischer Perspektive ist ein grundsätzliches Verständnis ethnographischer Arbeiten angesprochen, bei welchem das Handeln der Beteiligten aus deren Perspektive betrachtet wird (Seedhouse 2004). Nicht die Sichtweise der von außen beobachtenden Forscher (etische Perspektive) ist ausschlaggebend, sondern das Verständnis der Partizipientinnen und Partizipienten selbst. Ziel der Analyse muss sein, die ureigene Handlungslogik der Interaktantinnen und Interaktanten zu ergründen. Dies geht aus interaktionsanalytischer Perspektive nur, wenn man sich konsequent und permanent der Frage stellt „[W]hy that now?“ (Schegloff/Sacks 1973: 299), d. h., warum Akteure in einer konkreten Situation so und nicht anders handeln. Aus funktional-pragmatischer Per-
5.3.6 Diskursanalytische Auswertungsmethoden
283
spektive steht hingegen die Rekonstruktion der Handlungsziele der Beteiligten im Vordergrund, die sie in gesellschaftlich etablierten Handlungsmustern verfolgen. (c) Detail- und Materialtreue: Beide Ansätze implizieren, dass sämtliche Interpretationen und Deutungsvorschläge vom Material ausgehen, wobei die Konversationsanalyse sich hier deutlich von der Funktionalen Pragmatik unterscheidet und theoretische Überlegungen grundsätzlich hintan stellt. Nur was in den Daten sichtbar ist, sollte Berücksichtigung finden. A priori Annahmen, theoriegeleitet oder auf Alltagswissen beruhend, müssen zunächst außen vor bleiben. Dabei sollte eine Aufnahme immer Vorrang vor der Verschriftlichung (Transkription) haben. Allerdings sollte nie vergessen werden, dass auch ein Videomitschnitt immer nur einen Ausschnitt der Wirklichkeit darstellt. (d) Sequentialität von Interaktionen/Handlungsmuster: Die Interaktionsanalyse geht davon aus, dass Gespräche einer sequentiellen Ordnung folgen. Das bedeutet, Äußerungen bauen auf das unmittelbar zuvor Gesagte auf und werden in einem zeitlichen Kontinuum positioniert. In dieser Zeitlichtkeit ist auch der Analyseprozess zu sehen (‚Zeile für Zeile‘). Ein einzelner Redebeitrag (turn) steht also niemals unabhängig von anderen Äußerungen. Vielmehr hat jeder Beitrag einen bestimmenten Platz innerhalb einer Sequenz. Deppermann (2001) spricht daher auch von der Sequenzanalyse, d. h. der Untersuchung von sich fortschreibenden Sequenzen, die einer inhärenten Ordnung unterliegen. Sacks (1984: 22) hat dies mit „order at all points“ ausgedrückt. Gespräche gelten demnach auch dann noch als geordnet, wenn der subjektive Eindruck von einem vielstimmigen Durcheinander dominiert – was in einem Klassenzimmer ja immer wieder der Fall sein kann. Im Gegensatz dazu betont die Funktionale Pragmatik den zweckgebundenen Zusammenhalt verschiedener Pragmeme in einem Handlungsmuster. Die Sequentialität von Interaktionen wird auch bei der funktionalpragmatischen Analyse berücksichtigt; jedoch wird mit dem Konzept des Musterdurchlaufs die Linearität der Interaktion in eine zugrundliegende nicht-lineare Ordnung gebracht und zusätzlich auch der möglicherweise iterative Charakter von Handlungseinheiten (also die Möglichkeit mehrfacher Musterdurchläufe) erfasst. (e) Kontextualität: In enger Verbindung zur Sequentialität von Interaktionen steht der Begriff der Kontextualität, der nur für die Interaktionsanalyse zentral ist und in der Funktionalen Pragmatik nicht zu den grundlegenden Prinzipien gehört. Nach diesem Prinzip sind Sprachhandlungen immer aus ihrer unmittelbaren Situiertheit zu verstehen, d. h. im Kontext der sequentiellen Entfaltung einer Interaktion zu deuten (context-shaped). Dadurch sind sie gleichzeitig context-renewing: Jeder Beitrag, jede Äußerung schafft wiederum einen erweiterten, wenn nicht neuen Kontext (vgl. Seedhouse 2004). Partizipientinnen und Partizipienten realisieren das u. a. mithilfe linguistischer Mittel (z. B. deiktische Ausdrücke wie ‚er‘, ‚dieses‘ oder ‚dort‘), paralinguistischer Ressourcen (z. B. Intonation bei der Verabschiedung der Klasse) oder non-verbaler Handlungen (z. B. Proxemik oder Zeigen auf bestimmte Gegenstände oder Personen). Solche contextualization cues (Gumperz 1982) werden von den Interaktantinnen und Interaktanten permanent benutzt und gedeutet, um einem Gespräch den kontextuellen Rahmen zu geben, den man als Außenstehende(r) leicht als gegeben ansieht, ohne zu bemerken, wie er doch erst durch die Sprachhandlungen der Akteure zum Leben erweckt wird. Ein schönes Beispiel stellt die zielsprachliche Begrüßung am Anfang des Fremdsprachenunterrichts dar. Damit
284
5. Forschungsverfahren
wird der Kontext ‚zielsprachliche Interaktion‘ umgehend etabliert (context-shaped). Die zielsprachliche Erwiderung der Schülerinnen und Schüler manifestiert das und fungiert somit als context-renewing. (f) Offenheit gegenüber Methodentriangulation: Im Gegensatz zu einem rein konversationsanalytischen Verständnis attestieren wir den hier vorgestellten Ansätzen eine grundsätzliche Offenheit gegenüber anderen Methoden. „Methodenpurismus“ (Deppermann 2001: 15) wird besonders dann schwierig, wenn über die Gesprächsstruktur hinaus auch spracherwerbsspezifische Prozesse untersucht werden sollen. Als eine aktuelle Weiterentwicklung der hier vorgestellten (videobasierten) Interaktionsanalysen beschreibt Schramm (2016) die (triangulative) Videografie, die mittels weiterer (meist introspektiver und/oder befragender) Datenerhebungsmethoden den ethnographischen bzw. emischen Charakter der Untersuchung verstärkt. So untersucht Feick (2015) am Beispiel mexikanischer Lernender soziale Autonomie im DaF-Projektunterricht. Zusätzlich zu den Besprechungen der Projektgruppen erhebt sie Protokolle videobasierten Lauten Erinnerns der Gruppenteilnehmenden und kann auf diese Weise die Transkripte der Gruppengespräche um die individuellen (in der Gruppensituationen unausgesprochenen) Gedanken ergänzen, um auf dieser methodentriangulativen Basis eine fremdsprachendidaktisch motivierte diskursanalytische Untersuchung der Entscheidungsfindungen vorzunehmen. (g) Quantifizierbarkeit und Offenheit gegenüber videobasierter Unterrichtsforschung: Grundsätzlich lassen sich die interpretativ ausgewerteten Interaktionsdaten auch quantifizieren und damit für statistische Auswertungen nutzen. Beispielsweise verbindet Dauster (2007) bei der Untersuchung von Französischunterricht an Grundschulen qualitative Analysen von Unterrichtsmitschnitten mit einer Quantifizierung des erhobenen Datenmaterials, welches kodiert (z. B. nach Redeanteilen, Länge der Äußerungen) und statistisch ausgewertet wird. Ebenfalls vielversprechend erscheinen Designs zur Untersuchung von mehreren Variablen, bei denen (mindestens) eine Variable interaktionsanalytisch und andere Variablen mit anderen Verfahren ausgewertet werden, um Zusammenhänge zu untersuchen. So kombinieren beispielsweise Keßler/Schwab (2015) eine psycholinguistische Methode der individuellen Bestimmung mündlicher Sprachentwicklung (Processability Theory) mit interaktionaler Unterrichtsforschung (Conversation Analysis for Second Language Acquisition), um das Verhältnis zwischen Produkt und Prozess beim Fremdsprachenerwerb besser beschreiben zu können. Auch die Untersuchung von Eckerth (2003) illustriert einen solchen Mehrmethoden-Ansatz: Hier werden qualitative Verfahren der Unterrichtsbeobachtung (Audioaufnahmen von Lerner-Lerner-Interaktionen) und retrospektive Interviews mit quantitativen Daten (Sprachstandstests) in Verbindung gebracht. Prominentestes Beispiel für eine weitreichende videobasierte Unterrichtsforschung, die sich inferenzstatistischer Verfahren zur Modellbildung bedient, ist vermutlich die DESI-Videostudie (Helmke et al. 2008), in der Basiskodierungen von 105 transkribierten Englischstunden im Zusammenspiel mit zahlreichen anderen Variablen ausgewertet werden.
5.3.6 Diskursanalytische Auswertungsmethoden
285
3 Vorgehensweisen bei der Aufbereitung und Auswertung der Daten
Diskursanalytische Vorgehensweisen folgen keinem a priori genau festgelegten Verlaufsplan, sondern orientieren sich am Datenmaterial selbst. In solch einem Verfahren muss es stets darum gehen, was das Datum zeigt bzw. an interpretativen Deutungsmöglichkeiten bietet. Die eigentliche Theoriebildung ist diesem Prozess nachgestellt und verlangt daher eine zirkuläre Vorgehensweise (s. Kapitel 5.3.2), wobei Forschende immer wieder die einzelnen Schritte transparent machen und – wann immer möglich – im Sinne einer Forschendentriangulation mit Kolleginnen und Kollegen und diskutieren (s. Kapitel 4.4). Auch sollten die einzelnen Schritte nicht strikt voneinander getrennt werden. So ist es z. B. sinnvoll, zügig mit der Aufbereitung des Materials (Transkription) und ersten, zunächst vorläufigen Analysen zu beginnen. Dies ermöglicht bei weiteren Erhebungen einen fokussierten Blick auf bestimmte Phänomene, welche sich als besonders relevant herausgestellt haben (z. B. auffällige Proxemik, sprachliche Besonderheiten oder störendes Verhalten Einzelner). Sollten sich im Laufe der Analyse weitere Auffälligkeiten zeigen, so können diese in den Untersuchungsprozess miteinbezogen werden. Zur Verdeutlichung haben wir die wichtigsten Schritte in Abbildung 1 zusammengefasst und nachstehend erläutert. Nicht berücksichtigt haben wir dabei die ursprüngliche Entscheidung hinsichtlich des inhaltlichen Rahmens und der Zielsetzung eines Forschungsvorhabens. Hierbei wäre neben einer grundsätzlichen Entscheidung für die Methodologie insbesondere die Intention eines solchen Vorhabens zu berücksichtigen.
Abbildung 1: Diskursanalytische Arbeitsschritte
286
5. Forschungsverfahren
Datenaufbereitung
Audio- oder videografierte Gesprächsdaten (s. Kapitel 5.2.3) müssen für diskursanalytische Auswertungen grundsätzlich verschriftet, d. h. transkribiert werden.34 Eine Transkription basiert in der Regel auf einer Transkriptionskonvention, die sich an der Standardorthografie orientiert, aber auch non-verbale und parasprachliche Elemente einbeziehen kann. Inwieweit darüber hinaus eine phonetische Umschreibung nötig ist, hängt neben dem Datum selbst vor allem von der Zielsetzung des Vorhabens ab. Im deutschsprachigen Kontext finden die Transkriptionssysyteme GAT und HIAT besonders häufig Verwendung (vgl. Mempel/Mehlhorn 2014). Mit GAT bzw. GAT 2 (Gesprächsanalytisches Transkriptionssytem) (Selting et al. 2009) können ausgehend von einer sequentiellen Darstellung (Zeile für Zeile) mit unterschiedlicher Genauigkeit (Minimal-, Basis- oder Feintranskript) verbale und non-verbale Gesprächsdaten (also auch deren paralinguistische Merkmale, z. B. Prosodie) verschriftlicht werden, ohne dass ein besonderer Schriftsatz (z. B. IPA-Lautschrift) verwendet werden muss. Das grundlegende Inventar der zu verwendenden Zeichen und Regeln ist im Anhang dieses Beitrags beigefügt. Mittlerweile werden in gesprächsanalytischen Arbeiten immer häufiger auch sogenannte multimodale Analysen durchgeführt (z. B. Schmitt 2011). Hierbei finden neben den Transkripten auch (Stand-)Bilder (screenshots) aus den Videos Berücksichtigung. Das System der Halbinterpretativen Arbeitstranskription (HIAT) ist dagegen eher mit funktionalpragmatischen Untersuchungen verknüpft (Rehbein et al. 2004). Charakteristisch für HIAT ist u. a. die Partiturschreibweise, mit der die Simultaneität von verbalen, non-verbalen und aktionalen Handlungen detailgenau abgebildet wird. Das in Abbildung 2 abgedruckte Transkriptbeispiel zeigt fünf Partiturflächen, in denen 17 Segmente und der Beginn eines 18. Segments nummeriert sind. Bei den meisten Segmenten handelt es sich um Äußerungen, die in den Verbalspuren der Lehrerin mit dem Pseudonym LIAB und des Schülers mit dem Pseudonym AIASG abgebildet sind. In Partiturfläche 5 ist jedoch auch eine Spur für nonverbale Kommunikation (NVK) zu erkennen, in der das lehrerinnenseitige Gestikulieren einer ziehenden Bewegung und ein zweisekündiges Nicken notiert wurden. Betonungen wurden gemäß der HIAT-Konventionen mit einer Unterstreichung, Reparaturen mit „/“ und Abbrüche mit „…“ markiert. Bei „Hmhm“ (Segment 16 in Partiturfläche 5) wurde der fallendsteigende Intonationsverlauf angegeben, um den bestätigenden Charakter der Interjektion zu dokumentieren.
34 Hierfür gibt es mittlerweile eine Reihe an Computerprogrammen, die Forschende bei dieser Arbeit unterstützen (s. Kapitel 5.2.6). Diese Programme bieten überdies bereits Applikationen, welche bei der Analyse der Daten helfen.
5.3.6 Diskursanalytische Auswertungsmethoden
287
Abbildung 2: Ausschnitt aus dem Transkript „Wuschelbär“ (Schramm 2006)
Datenanalyse
An dieser Stelle kann keine ausführliche Darstellung aller möglichen Aspekte diskursanalytischer Transkriptauswertungen erfolgen. Hierfür empfehlen wir z. B. Ehlich/Rehbein (1986), Deppermann (2001), Becker-Mrotzek/Vogt (2001) oder Seedhouse (2004). Für die Interaktionsanalyse gilt jedoch grundlegend, dass „[d]ie detaillierte Sequenzanalyse […] das Herzstück der Gesprächsanalyse [ist]“ (Deppermann 2001: 53). Hier geschieht die wichtigste Arbeit, an deren Ende eine in sich stringente Interpretation des vorhandenen Datenmaterials steht. Für Neulinge der Interaktionsanalyse stellt sich immer wieder die Frage, wo überhaupt begonnen werden kann, nachdem man erste Erhebungen gemacht hat. Deppermann schreibt hierzu: Üblicherweise sucht man Passagen aus, die auffällige, neuartige etc. Phänomene enthalten, klare Fälle (‚clear cases‘) einer Gesprächspraktik zu sein scheinen oder offenbare Verdeutlichungsleistungen (‚displays‘) der Interaktionsteilnehmer beinhalten. (Deppermann 2001: 52; Hervorhebung im Original)
Solch ein phänomenologischer Zugang entwickelt sich am Material selbst (data-driven) und impliziert im Gegensatz zu einem theoriegeleiteten Vorgehen (theory-driven) den Vorrang der konkreten Praxis über die Theorie. Nachdem eine erste Sequenz beschrieben und analysiert wurde, werden weitere, vergleichbare Stellen gesucht und, basierend auf den ersten Erkenntnissen, untersucht. Im Laufe der weiteren Analyse ergibt sich eine Kollektion an Sequenzen, die auf ein bestimmtes Interaktionsmuster hinweist. Dies nennt man eine Gesprächspraktik. Im Kontext der schulischen Interaktion gehört der pädagogische Austausch respektive IRF-
288
5. Forschungsverfahren
exchange (initiation – response – feedback) (Sinclair/Coulthard 1975) sicherlich zur bekanntesten interaktionalen Praktik im schulischen Umfeld. Funktionalpragmatische Transkriptanalysen beginnen in Abhängigkeit von der Forschungsfrage häufig mit der Segmentierung der fortlaufenden Interaktion in über- und untergeordnete Handlungseinheiten, wobei sowohl inhaltliche Aspekte als auch sprachliche Gliederungssignale Berücksichtigung finden. Entscheidender Motor der Analyse ist die Frage nach dem Zweck sprachlicher Handlungen; unter dieser Perspektive werden die Illokutionen der einzelnen Äußerungen bestimmt und die involvierten mentalen Handlungsschritte rekonstruiert. Fremdsprachenunterrichtsspezifische Beispiele sind das verständnissichernde Handeln oder die didaktische Frage (display questions). Auch größere Formen wie Erzählungen im Morgenkreis der Grundschule sind Gegenstand der Analyse und können auf funktionalpragmatischer Basis beispielsweise präzise von Berichten oder Beschreibungen abgegrenzt und in Bezug auf ihren Zweck in zahlreiche Untertypen wie Leidens-, Sieges-, Klatsch- oder Angebergeschichten unterteilt werden. Auch die Frage, wie Institutionen das sprachliche Handeln beeinflussen oder überformen, wird thematisiert und beispielsweise das Erzählen in der Schule im Vergleich zum Erzählen vor Gericht, im Krankenhaus oder auf dem Sozialamt untersucht. Ein wichtiges Charakteristikum diskursanalytischer Interpretationen ist ihre Überprüfbarkeit an den entsprechenden Transkripten. Das Gütekriterium der intersubjektiven Nachvollziehbarkeit wird dadurch erfüllt, dass die Leserinnen und Leser am Material selbst die Interpretation nachvollziehen und bei Bedarf im Anhang der Forschungsarbeit den Transkriptausschnitt in seinem Kontext situiert nachlesen können. Theoriebildung
Ausgehend von der Datenanalyse kommt es zur Theoriebildung, die auf einer Zusammenführung der Interpretationen mit der einschlägigen Literatur beruht. Hierbei geht es vor allem um die Abstraktion und Verallgemeinerung der gewonnenen Erkenntnisse, welche wiederum auf den Transkriptdaten basieren. Da bei diskursanalytischen Untersuchungen im Vorfeld keine Hypothesen gebildet werden, muss es an dieser Stelle darum gehen, die Forschungsfragen zu beantworten und in einen größeren Forschungskontext zu stellen. Während gesprächsanalytische Arbeiten versuchen, sogenannte Gesprächspraktiken herauszuarbeiten (vgl. Deppermann 2001), gilt es bei der Funktionalen Pragmatik, Handlungsmuster zu eruieren. Hierbei geht es jeweils um übergeordnete (Sinn-)Strukturen, welche für bestimmte Gesprächsabläufe konstituierend sind. So untersuchte z. B. Méron-Minuth (2009: 11), „wie sich eine Gruppe von Grundschülerinnen und -schülern in einem immersiv angelegten Fremdsprachenunterricht kommunikationsstrategisch einbringt“ und ihre Anliegen mit ihren zielsprachlichen Mitteln realisiert. Basierend auf transkribierten Videoaufzeichnungen sowie Protokollen der beteiligten Lehrpersonen als auch Protokollen zu den videografierten Stunden analysierte sie das umfangreiche Korpus. In dieser Studie konnte eine detaillierte Typologie an Kommunikationsstrategien herausgearbeitet werden, die von Schülerinnen und Schülern im Verlauf ihrer ersten vier Jahre Fremdsprachenunterricht entwickelt und eingesetzt wurden.
5.3.6 Diskursanalytische Auswertungsmethoden
289
4 Beispielanalyse
Im Folgenden soll exemplarisch an der interaktionsanalytischen Referenzarbeit von Schwab (2009) gezeigt werden, wie eine Unterrichtsdiskursanalyse konkret aussehen kann. Nachdem der Feldzugang und damit die Möglichkeit der Datenerhebung mit Lehrperson, Schulleitung, Eltern und Schulbehörde abgeklärt worden war, konnten die ersten Video- und Audioaufnahmen gemacht werden. Die Transkription erfolgte parallel zu den Aufnahmen und ersten Analysen nach der Konvention GAT. Dabei wurden folgende Aspekte als zentral und unterrichtskonstituierend herausgearbeitet: (1) Lehrerinitiative, (2) Schülerinitiative (vgl. auch van Lier 2001). Insbesondere die Konstitution der sogenannten Schülerinitiative im lehrerzentrierten Unterrichtsgespräch erwies sich als auffällig, bedeutungsvoll und bis dahin wenig beforscht. Das Korpus wurde daraufhin gezielt auf dieses Phänomen hin untersucht und es wurden Ankerbeispiele herausgearbeitet respektive zu einer Kollektion verdichtet. In Abbildung 3 ist ein Beispiel aus der Kollektion abgebildet. Es soll exemplarisch analysiert und in den größeren Kontext der Arbeit eingebettet werden. Die hier als Schülerinitiative bezeichnete Gesprächspraktik ist in Zeile 7 sichtbar. Sequentiell positioniert die Schülerin ihren leise artikulierten Beitrag unmittelbar in die kurze Lücke, die sich nach der Lehrerfrage auftut, obschon sie nicht von ihr aufgerufen wurde (self selection). Inhaltlich könnte man die Äußerung als Antwort auf die Frage (ohne direkten Adressaten) kennzeichnen, da sie thematisch an die Frage anschließt und ihren Beitrag in die von der Lehrerin angebotene sequentielle Lücke setzt. Allerdings passiert hier etwas anderes. Die Reaktion der Lehrperson in Zeile 8 (‚mit leichtem Lächeln‘) zeigt die Besonderheit des Schülerbeitrags, mit der die Lehrerin scheinbar nicht gerechnet hat. Dementsprechend wird Rachels Beitrag auch nicht evaluiert, sondern generiert eine neue Sequenz, die kurzerhand eingeschoben wird. Aus einem gewöhnlichen pädagogischen Austausch bzw. IRF-exchange (Sinclair/Coulthard 1975) entwickelt sich ein sogenanntes Nachbarschaftspaar (adjacency pair) mit wechselseitigen Beiträgen (Zeile 7/8 – 9/10), wobei gerade die Schülerin die wichtige Position am Anfang der Sequenz und damit die Initiative übernimmt. Nachbarschaftspaare stellen nach interaktionsanalytischer Auffassung in nicht-institutionellen, alltäglichen Gesprächen die sequentielle Grundstruktur dar und bilden das strukturelle Grundgerüst für informelle Kommunikation. In solchen Situationen adäquat zu agieren ist ein bedeutsames Ziel kommunikativen Unterrichts. Das scheint hier ansatzweise der Fall zu sein, wobei – wiederum ein typisches Phänomen unterrichtlicher Interaktionswirklichkeit – die Lehrperson in Zeile 13 zum ursprünglichen Modus zurückkehrt und eine neue Frage stellt, nachdem von Rachel kein weiterer Beitrag folgt. Die Analyse weiterer solcher Beispiele verdeutlicht, wie diese Gesprächspraktik einer Schülerinitiative von den Partizipientinnen und Partizipienten in lehrpersonenzentrierte Gesprächsabläufe integriert wird. Lehrpersonen können kommunikative Räume zur Verfügung stellen und damit die interaktionale Kontrolle kurzfristig abgeben. Sie holen sich diese Kontrolle aber immer wieder zurück, um das Unterrichtsgeschehen in ihrem Sinne fortführen zu können (vgl. Zeile 13). Von Schülerseite wird dies im Regelfall akzeptiert. Im Rückgriff auf die einschlägige Literatur zeigt sich, dass diese Gesprächspraktik bisher nur in Ansätzen behandelt wurde (z. B. Garton 2012). Zumeist wird zwischen lehrerzen-
290
5. Forschungsverfahren
Abbildung 3: Exzerpt Schülerinitiative (Schwab 2009: 24) (Legende zu den verwendeten GAT2-Transkriptionskonventionen s. Anhang)
trierten Interaktionen, die allein auf dem pädagogischen Austausch basieren, und schülerzentrierten und damit eher gleichberechtigen Gesprächsformen unterschieden. Eine detaillierte Untersuchung von Unterrichtsgesprächen zeigt hingegen eine weitaus größere Komplexität und vermag überdies Impulse für einen bewussteren und kommunikativer gestalteten Unterricht geben (vgl. Schwab 2014). So wird deutlich, dass mithilfe der Interaktionsanalyse detaillierte Einsichten in unterrichtliche Interaktionsabläufe gewonnen werden können, die mit anderen Methoden kaum auszumachen wären. 5 Potenzial für die Fremd- und Zweitsprachendidaktik
Diskursanalytische Untersuchungen des Fremdsprachenunterrichts verlangen allen Beteiligen viel ab (s. Kapitel 4.6 zur Forschungsethik). Die Forschungspartnerinnen und Forschungspartner – insbesondere die beteiligten Lehrpersonen – müssen eine große Offenheit gegenüber dem Vorhaben mitbringen und auch über einen längeren Zeitraum behalten. Sie müssen bereit sein, sich einer akribischen Analyse ihres Gesprächsverhaltens zu unterziehen, was gerade im Fremdsprachenunterricht, wo auch auf Lehrendenseite Fehler nicht ausbleiben,
le I
n te ra ktio n i n d
e
Von der Deskription zur Interpretation eg
Theoriebildung
rB
ation in Gr unik up m pe m n o K
z ia
Analyse
Linguistik, funktionale Pragmatik Interaktion und mentale Dimension des sprachlichen Handelns in gesellschaftlich etablierten Handlungsmustern, z.B. „Aufgabe stellen Aufgabe lösen“
Forschungstraditionen
Analyse (nicht)sprachlicher Handlungen in sozialer Interaktion
5.3.6 Diskursanalytische Auswertungsmethoden
so
- Daten aus natürlichen Settings (Audio/Video, teilnehmende Beobachtung) - emische Perspektive - Detail- und Materialtreue - Sequentialität bzw. Handlungsmuster - Kontextualität - Offenheit gegenüber Methodentriangulation - Quantifizierbarkeit
eg
nun g m it a n d er en
─
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Prinzipien
Soziologie, Ethnomethodologie Konversations-/Gesprächsanalyse: verbale, non-verbale, visuell-räumliche Merkmale sprachlicher Interaktion
ls
na Lerne
291 5.3.6 Diskursanalytische Auswertungsmethoden
292
5. Forschungsverfahren
nicht selbstverständlich ist. Je nach Zielsetzung der Studie ist der eigentliche Gewinn der Untersuchung nicht unbedingt für Lehrpersonen einsichtig – es sei denn, man bezieht sie von vornherein in den Analyseprozess mit ein (z. B. Schwab 2014); das ist aber nicht immer möglich und/oder zielführend. Als diskursanalytische Forschungsdesiderate lassen sich vier zentrale Bereiche nennen. Erstens überwiegt die Zahl der Untersuchungen zum Plenumsunterricht bei weitem und es besteht ein großer Bedarf an der Untersuchung von lernerzentrierten Interaktionen (z. B. bei Partner- und Gruppenarbeit). Zweitens geht es um Möglichkeiten, interaktionale und psycholinguistische Ansätze zu verknüpfen, also den Versuch, Prozess und Produkt des Zweit- und Fremdspracherwerbs in institutionellen Lernumgebungen besser zu verzahnen (vgl. Keßler/Schwab 2015). Drittens sind im Hinblick auf die Verbindung von sprachlichem und fachlichem Lernen auch interdisziplinäre Verknüpfungen diskursanalytischer Verfahren mit anderen fachdidaktischen Vorgehensweisen von Interesse. So zeigen Schramm/Hardy/ Saalbach/Gadow (2013) und Gadow (2016) am Beispiel des wissenschaftlichen Begründens im Sachunterricht der Grundschule das Potenzial, aber auch die terminologischen Herausforderungen einer solchen Theorientriangulation auf. Viertens sind im Sinne einer videobasierten Unterrichtsforschung Möglichkeiten der Quantifizierung diskursanalytischer Interpretationen und der inferenzstatistischen Auswertung zu Zwecken der Modellbildung zu eruieren. Somit bieten diskursanalytische Auswertungsverfahren nicht nur die Möglichkeit einer fokussierten Perspektive auf unterrichtliche Interaktionsabläufe, sondern auch eine Vielzahl an Anknüpfungspunkten an andere Herangehensweisen und Traditionen innerhalb der Erforschung des Fremdsprachenunterrichts. ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Becker-Mrotzek, Michael/Vogt, Rüdiger (2001). Unterrichtskommunikation. Linguistische Analysemethoden und Forschungsergebnisse. Tübingen: Niemeyer. Brophy, Jere E./Good, Thomas L. (1976). Die Lehrer-Schüler-Interaktion. München: Urban & Schwarzenberg. *Dalton-Puffer, Christiane (2007). Discourse in Content and Language Integrated Learning (CLIL) Classrooms. Amsterdam: Benjamins. *Dauster, Judith (2007). Früher Fremdsprachenunterricht Französisch: Möglichkeiten und Grenzen der Analyse von Lerneräußerungen und Lehr-Lern-Interaktion. Stuttgart: Ibidem. Deppermann, Arnulf (2001). Gespräche analysieren – Eine Einführung in konversationsanalytische Methoden. 2. durchgesehene Auflage. Opladen: Leske und Budrich. Deppermann, Arnulf/Schütte, Wilfried/Ernst, Hannah (o. J.). Datenerhebung. GAIS – Gesprächsanalytisches Informationssystem [Online: http://prowiki.ids-mannheim.de/bin/view/GAIS/DatenErhebung] (16. 09. 2015). *Eckerth, Johannes (2003). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr. *Ehlich, Konrad/Rehbein, Jochen (1986). Muster und Institution: Untersuchungen zur schulischen Kommunikation. Tübingen: Narr. Ellis, Rod/Barkhuizen, Gary (2005). Analysing Learner Language. Oxford: Oxford University Press.
5.3.6 Diskursanalytische Auswertungsmethoden
293
Feick, Diana (2015). Autonomie der Lernendengruppe. Entscheidungsdiskurs und Mitbestimmung in einem DaF-Handyvideoprojekt. Tübingen: Narr. Flanders, Ned A. (1978). Analyzing Teaching Behavior. Reading, Mass. [u. a.]: Addison-Wesley. Gadow, Anne (2016). Bildungssprachliches Handeln von Kindern mit deutscher und anderer Familiensprache. Beschreiben und Erklären im naturwissenschaftlichen Sachunterricht in der Jahrgangsstufe 4. Berlin: ESV. Garton, Sue (2012). Speaking out of turn? Taking the initiative in teacher-fronted classroom interaction. In: Classroom Discourse 1, 29 – 45. Goffmann, Erving (1981). Forms of Talk. Oxford: Blackwell. Gumperz, John J. (Hg.) (1982). Language and Social Identity. Cambridge: Cambridge University Press. Helmke, Tuyet/Helmke, Andreas/Schrader, Friedrich-Wilhelm/Wagner, Wolfgang/Nold, Günter/Schröder, Konrad (2008). Die Video-Studie des Englischunterrichts. In: DESI-Konsortium (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz, 345 – 363. Henne, Helmut/Rehbock, Helmut (2001). Einführung in die Gesprächsanalyse. 4. durchgesehene und bibliographisch ergänzte Auflage. Berlin: Walter de Gruyter. Henrici, Gert (1995). Spracherwerb durch Interaktion? Eine Einführung in die fremdsprachenerwerbsspezifische Diskursanalyse. Baltmannsweiler: Schneider Verlag Hohengehren. *Hoshii, Makiko/Schumacher, Nicole (2010). Videokonferenz als interaktive Lernumgebung – am Beispiel eines Kooperationsprojekts zwischen japanischen Deutschlernenden und deutschen DaF-Studierenden. In: gfl-journal 2, 71 – 91. House, Juliane (1991). Interaktion. In: Bausch, Karl-Richard/Christ, Herbert/Hüllen, Werner/Krumm, Hans-Jürgen (Hg.). Handbuch Fremdsprachenunterricht. 2. unveränderte Auflage. Tübingen: Francke, 405 – 409. *Keßler, Jörg-U./Schwab, Götz (2015). CA meets PT: Language development at the crossroads. In: Baten, Kristof/Buyl, Aafke/Lochtman, Katja/Van Herreweghe, Mieke (Hg.). Theoretical and Methodological Developments in Processability Theory. Amsterdam: John Benjamins, 175 – 204. Labov, William (1972). Sociolinguistic Patterns. Philadelphia, PA: University of Pennsylvania Press. *Mehan, Hugh (1979). Learning Lessons: Social Organization in the Classroom. Cambridge, MA: Harvard University Press. Mempel, Caterina/Mehlhorn Grit (2014). Datenaufbereitung: Transkription und Annotation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 147 – 166. *Méron-Minuth, Sylvie (2009). Kommunikationsstrategien von Grundschülern im Französischunterricht. Eine Untersuchung zu den ersten vier Lernjahren. Tübingen: Narr. Nunan, David (1993). Introducing Discourse Analysis. Hammondsworth: Penguin English. Rehbein, Jochen/Schmidt, Thomas/Meyer, Bernd/Watzke, Franziska/Herkenrath, Annette (2004). Handbuch für das computergestützte Transkribieren nach HIAT. In: Arbeiten zur Mehrsprachigkeit, Folge B 56 [Online: http://www.exmaralda.org/files/azm_56.pdf] (23. 9. 2015). Sacks, Harvey (1984). Notes on methodology. In: Atkinson, J. Maxwell/Heritage, John (Hg.). Structures of Social Action. Studies in Conversation Analysis. Cambridge: Cambridge University Press, 21 – 27. Schegloff, Emanuel A./Sacks, Harvey (1973). Opening up Closings. In: Semiotica 4, 289 – 327. Schiffrin, Deborah (1994). Approaches to Discourse. Oxford: Blackwell. *Schiffrin, Deborah/Tannen, Deborah/Hamilton, Heidi E. (Hg.) (2003). The Handbook of Discourse Analysis. Malden, MA: Blackwell. Schmitt, Reinhold (Hg.) (2011). Unterricht ist Interaktion! Analysen zur De-facto-Didaktik. Mannheim: Institut für Deutsche Sprache.
294
5. Forschungsverfahren
Schramm, Karen (2006). Transkript Wuschelbär. [Online: http://spzwww.uni-muenster.de/griesha/dpc/ trs/Wuschelbaer.pdf] (22. 09. 2015). Schramm, Karen (2016). Unterrichtsforschung und Videografie. In: Burwitz-Melzer, Eva/Mehlhorn, Grit/Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.). Handbuch Fremdsprachenunterricht. 6., völlig überarbeitete und erweiterte Auflage. Tübingen: Francke, 587–592. *Schramm, Karen/Hardy, Ilonca/Saalbach, Henrik/Gadow, Anne (2013). Wissenschaftliches Begründen im Sachunterricht. In: Becker-Mrotzek, Michael/Schramm, Karen/Thürmann, Eike/Vollmer, Helmut Johannes (Hg.). Sprache im Fach. Sprachlichkeit und fachliches Lernen. Münster u. a.: Waxmann, 295 – 314. *Schwab, Götz (2009). Fremdsprachenunterricht und Konversationsanalyse. Landau: Verlag Empirische Pädagogik. [Referenzarbeit, Kapitel 7] *Schwab, Götz (2011). From dialogue to multilogue: a different view on participation in the English foreign language classroom. In: Classroom Discourse 1, 3 – 19. *Schwab, Götz (2014). LID – Lehrerprofessionalisierung im Diskurs. Eine Pilotstudie zur gesprächanalytischen Beratung von Englischlehrkräften in der Realschule. In: Pieper, Irene/Frei, Peter/Hauenschild, Katrin/Schmidt-Thieme, Barbara (Hg.). Was ist der Fall. Fallarbeit in Lehrerbildung und Bildungsforschung. Wiesbaden: VS Verlag, 89 – 105. *Seedhouse, Paul (2004). The Interactional Architecture of the Language Classroom: a Conversation Analysis Perspective. Oxford: Blackwell. Selting, Margret/Auer, Peter/Barth-Weingarten, Dagmar/Bergmann, Jörg/Bergmann, Pia/Birkner, Karin/ Couper-Kuhlen, Elizabeth/Deppermann, Arnulf/Gilles, Peter/Günthner, Susanne/Hartung, Martin/ Kern, Friederike/Mertzlufft, Christine/Meyer, Christian/Morek, Miriam/Oberzaucher, Frank/Peters, Jörg/Quasthoff, Uta/Schütte, Wilfried/Stukenbrock, Anja/Uhmann, Susanne (2009). Gesprächsanalytisches Transkriptionssystem 2 (GAT 2). In: Gesprächsforschung – Online-Zeitschrift zur verbalen Interaktion 10, 353 – 402 [Online: www.gespraechsforschung-ozs.de] (22. 09. 2015). Sinclair, John McH./Coulthard, Richard M. (1975). Towards an Analysis of Discourse. The English Used by Teachers and Pupils. Oxford: Oxford University Press. van Lier, Leo (1996). Interaction in the Language Curriculum: Awareness, Autonomy and Authenticity. London: Longman. van Lier, Leo (2001). Constraints and Resources in Classroom Talk: Issues of Equality and Symmetry. In: Candlin, Christopher N./Mercer, Neil (Hg.). English Language Teaching in its Social Context: a Reader. London: Routledge, 90 – 107. Vygotsky, Lev Semyonovich (1978). Mind in Society. Cambridge, MA: Harvard University Press. Weber, Peter/Becker-Mrotzek, Michael (2012). Funktional-pragmatische Diskursanalyse als Forschungs- und Interpretationsmethode [Online: http://www.fallarchiv.uni-kassel.de/wp- content/ uploads/2012/06/weber_mrotzek_diskurs_ ofas.pdf (8. 3. 2015). »» Zur Vertiefung empfohlen Becker-Mrotzek, Michael/Vogt, Rüdiger (2001). Unterrichtskommunikation. Linguistische Analysemethoden und Forschungsergebnisse. Tübingen: Niemeyer. Hier werden u. a. exemplarisch die Vorgehensweisen der Funktionalen Pragmatik (Ehlich/Rehbein 1986), Konversationsanalyse (Mehan 1979) und Diskursanalyse (Sinclair/Coulthard 1975) dargestellt. Anhand von Gruppendiskussionen oder des fragend-entwickelnden Unterrichts werden Beispielanalysen durchgeführt. Der Fokus liegt allerdings nicht auf dem Fremdsprachen-, sondern dem Deutschunterricht.
5.3.6 Diskursanalytische Auswertungsmethoden
295
Markee, Numa (2000). Conversation Analysis. Mahwah, NJ: Erlbaum. Anhand einiger Beispiele aus dem Zweitsprachunterricht (English as a Second Language) an amerikanischen Hochschulen zeigt der Autor, wie Conversation Analysis for Second Language Acquisition (CA-for-SLA) funktionieren kann. Dabei wird bewusst die Verbindung zwischen Interaktionsanalyse respektive Konversationsanalyse und Zweit-/ Fremdspracherwerb angegangen. Walsh, Steven (2006). Investigating Classroom Discourse. London: Routledge. Der Autor gibt einen Überblick über verschiedene Ansätze der Diskurs- und Konversationsanalyse und stellt einschlägige Studien kurz vor. Darauf basierend entwickelt er das Analyseinstrument SETT (Self Evaluation of Teacher Talk) und stellt es anhand zahlreicher Beispiele ausführlich vor. Weber, Peter/Becker-Mrotzek, Michael (2012). Funktional-pragmatische Diskursanalyse als Forschungs- und Interpretationsmethode [Online: http://www.fallarchiv.uni-kassel.de/wpcontent/uploads/2012/06/weber_mrotzek_diskurs_ ofas.pdf] (9. 8. 2015). Diese kurze, verständlich geschriebene Einführung in die funktional-pragmatische Diskursanalyse aus dem Online-Fallarchiv Schulpädagogik der Universität Kassel gibt einen umfassenden Überblick über die theoretischen Grundlagen, das methodische Vorgehen und die Kritik, die an der Funktionalen Pragmatik geübt wurde. Auch Fragen der Verbindung mit quantitativen Verfahren und der empirischen Bildungsforschung werden dabei angesprochen.
»» Anhang
Das gesprächsanalytische Transkriptionssystem (GAT 2) nach Selting et al. (2009) – Komprimierte Darstellung []
Überlappung und Simultansprechen
=
schneller, unmittelbarer Anschluss neuer Sprecherbeiträge oder Segmente (latching).
(.)
Mikropause
( – ), ( – - ), ( – - - )
kurze, mittlere, längere Pausen von ca. 0.25 – 0.75 Sek.; bis ca. 1 Sek.
(3.5)
genaue Zeit bei Pausen von mehr als 1 Sek. Dauer
und_ä h
Verschleifungen innerhalb von Einheiten
:, : :, : : :
Dehnung, Längung, je nach Dauer
/
Abbruch nach Glottalverschluss (Ergänzung G. S.)
°h/h°
einatmen bzw. ausatmen
a k Z E NT
Fokusakzent
a k ! Z E NT !
extra starker Akzent
296
5. Forschungsverfahren
?
hoch steigend
,
mittel steigend
-
gleich bleibend
;
mittel fallend
.
tief fallend
((hustet))
para-/außersprachliche Handlungen/Ereignisse
>
sprachbegleitende para- und außersprachliche Handlungen, Ereignisse und Interpretationen mit Reichweite
()
unverständliche Passage nach Länge
(solche)
vermuteter Wortlaut
( s o l c h e/w e l c h e )
mögliche Alternativen
[...]
bei Auslassung mehrerer Zeilen [Ergänzung der Autoren]
`SO
fallend
´SO
steigend
´` S O
steigend-fallend
↑
kleinere Tonhöhensprünge nach oben
↓
kleinere Tonhöhensprünge nach unten
↑↑
größere Tonhöhensprünge nach oben
↓↓
größere Tonhöhensprünge nach unten
→
Verweis auf im Text behandelte Transkriptzeile
< < t >>
tiefes Tonhöhenregister
< < h >>
hohes Tonhöhenregister
< < f >>
forte, laut
< < f f >>
fortissimo, sehr laut
< < p >>
piano, leise
5.3.7 Analyse von Lernersprache
< < p p >>
pianissimo, sehr leise
< < a l l >>
allegro, schnell
< < l e n >>
lento, langsam
< < c r e s c >>
crescendo, lauter werdend
< < d i m >>
diminuendo, leiser werdend
< < a c c >>
accelerando, schneller werdend
< < r a l l >>
rallentando, langsamer werdend
297
5.3.7 Analyse von Lernersprache Nicole Marx/Grit Mehlhorn 1 Begriffsklärung
Das Konzept der Lernersprache (interlanguage, Selinker zuerst 1969, veröffentlicht 1972) und die Idee, diese zu analysieren, haben zu einem grundlegenden Perspektivenwechsel in der Fremdsprachenforschung und -didaktik geführt. Das Lernersprachenkonzept entwickelte sich aus unterschiedlichen Forschungstraditionen, wobei v. a. die Kontrastive Analyse (vgl. Fries 1945, Lado 1957 und Weinreich 1953) und die Fehleranalyse (error analysis, u. a. Corder 1967) eine große Rolle spielten. Es wuchs aus dem Verständnis heraus, dass das erfolgreiche Lernen einer neuen Sprache nicht nur durch die Zielsprache an sich sowie den Fleiß des Lernenden beeinflusst wird, sondern auch durch andere Faktoren wie das System der Erstsprache. Da die Lernersprachenanalyse seit den ersten Auseinandersetzungen mit dem Thema eines der wichtigsten Standbeine der Fremdsprachenforschung ist, wird ihr in diesem Werk ein gesondertes Kapitel gewidmet. Lernersprache – im Deutschen auch bekannt als Interimsprache (Raabe 1974) – bezeichnet das individuelle sprachliche System, das Lernende beim Aneignen einer Zielsprache im Verlaufe ihres Sprachlernprozesses aufbauen und das ihren Äußerungen zugrundeliegt (u. a. Selinker 1972, 1992, Corder 1967, 1974, Nemser 1971). Lernersprachen sind somit nicht nur unvollständige Versionen einer langue (i.S. Saussures), sondern dynamische und hoch individuelle Systeme eines jeden Sprechenden. Sie enthalten zu nicht prognostizierbaren Anteilen neben Merkmalen der Zielsprache auch Eigenschaften der Erst- und weiterer Fremdsprachen (vgl. Selinker 1992: 164) sowie Merkmale, die keinem anderen, dem Lernenden bekannten Sprachsystem zugeschrieben werden können. Sie können sich immer weiter in Richtung zielsprachlicher Strukturen entwickeln. Lernersprache ist vor allem durch Dynamik und Individualität gekennzeichnet. Die Dynamik der Lernersprache zeigt sich im kontinuierlichen Prozess des Bildens und Testens von Hypothesen über die Zielsprache (vgl. u. a. Herdina/Jessner 2002, Zhao/Song/Cherrington 2013: 357). Zudem ist jede Lernersprache individuell und stellt ein System dar, das auf be-
298
5. Forschungsverfahren
stimmten – z. T. recht idiosynkratischen – Regeln basiert, die durchgehend überprüft und evtl. korrigiert, erweitert, verworfen oder verfestigt werden. Dies zeigt sich u. a. durch systematische Abweichungen von der Zielsprache (Fehler). Zur Individualität von Lernersprachen gehört auch ihre Instabilität auf Grund persönlicher und situationeller Faktoren. Wer müde, aufgeregt oder desinteressiert ist, wird i. d. R. seine sprachlichen Kompetenzen anders präsentieren als diese tatsächlich sind. Ziel der Lernersprachenanalyse ist es, die Performanz von Lernenden zu untersuchen, um Aufschlüsse über den jeweiligen individuellen Lernstand zu gewinnen und evtl. die Entwicklung der Sprachkompetenzen von Lernenden nachzeichnen zu können. Bei der Untersuchung der Lernersprache müssen v. a. die genannten Merkmale der Dynamik und Individualität beachtet werden. 2 Zu untersuchende Aspekte von Lernersprache
Das wissenschaftliche Interesse an Lernersprache konzentriert sich nicht nur auf Ausprägungen des jeweils untersuchten sprachlichen Systems bei einzelnen Lernenden, sondern auch auf kognitive Prozesse, die beim Lernen und bei der Verwendung einer Sprache eingesetzt werden. Obwohl solche Prozesse nicht einheitlich konzipiert werden, bietet das ursprüngliche Verständnis von Interlanguage einen sinnvollen Anfang für Lernersprachenanalysen. Mit der Analyse von Lernersprache nehmen die meisten Forschenden eine produktionsorientierte Sicht ein: Von Interesse ist das, was der Lernende in der Zielsprache selbst formuliert. Zunächst kann Lernersprache anhand der unterschiedlichen Sprachebenen wie Phonetik/ Phonologie, Orthographie, Morphologie, Syntax, Lexik, textdiskursive Merkmale und Pragmatik untersucht werden. Für die Spracherwerbsforschung ist v. a. das Zusammenwirken der verschiedenen Bereiche sprachlichen Wissens interessant. Aber auch kognitive Prozesse, die für die Entwicklung einer Lernersprache bedeutend sind, können erforscht werden. Selinker (1972: 216 – 217) zufolge sind fünf, sich zum Teil überschneidende kognitive Prozesse von Bedeutung:
• Transfer von der Erstsprache bzw. anderen bereits bekannten Sprachen auf die Zielsprache (sowohl „positiver“, also zu korrekten Äußerungen führender Transfer als auch „negativer“ Transfer oder „Interferenz“, die zu Fehlern in der Zielsprache führt), • Übungstransfer (z. B. durch das häufige Üben einer Struktur im Unterricht), • Fremdsprachenlernstrategien, • Fremdsprachenkommunikationsstrategien, • Übergeneralisierungen zielsprachlicher Einheiten. Hierbei handelt es sich um unterschiedliche Kategorien. Die beobachtbaren sprachlichen Phänomene können als Indizien für viele der o. g. kognitiven Prozesse herangezogen werden (ein Wort aus der L1, das in der L2 verwendet wird, dient z. B. als Indiz für Transfer). Dagegen kann eine Untersuchung der kognitiven Prozesse – hierfür werden eher introspektive Erhebungen, s. u., benötigt – Erklärungen für bestimmte sprachliche Phänomene in der Zielsprache liefern. Viele Untersuchungen zur Lernersprache gehen auf den Zusammenhang von (nur indirekt beobachtbaren) kognitiven Prozessen und (direkt beobachtbaren) sprachlichen Phänomenen ein, wenn sie z. B. die Entwicklung einer Verbalform untersuchen und dabei
5.3.7 Analyse von Lernersprache
299
mögliche Erklärungen für die unterschiedlichen Varianten finden. Als Erläuterung ein Beispiel eines Englisch lernenden Deutschen, der im Laufe eines Kurses unterschiedliche Varianten produziert: Produzierte Aussage
Sprachliche Ebene
Vermutlicher kognitiver Prozess
I *read a good book right now.
Morphologie
Lernstrategie (Vereinfachung); Transfer aus L1 (ich lese zurzeit ein gutes Buch)
I *am reading good books every day.
Übungstransfer (zu häufiges Üben der Verlaufsform)
[What do you like?] ?Good books.
Kommunikationsstrategie (Vermeidung unsicher beherrschter Formen)
Abbildung 1: Varianten einer Verbalform
Innerhalb einzelner sprachlicher Ebenen lassen sich weitere Aspekte von Lernersprache differenzieren, wie im Beispiel oben. Auch schrift- oder diskurslinguistische Phänomene rücken immer häufiger in den Fokus von lernersprachlichen Analysen. Hierzu gehören u. a. die Äußerungskomplexität, z. B. die Anzahl und Art produzierter erweiterter Nominalphrasen oder das Aufkommen von Nominalisierungen. Bei schriftlichen Textproduktionen können auch textdiskursive Merkmale wie Kohäsion und Kohärenz, Anaphorik und Textstruktur sowie schreibstrategische Aspekte wie die Nähe zu einer Textvorlage unter die Lupe genommen werden; bei mündlicher Sprachproduktion spielt z. B. die Flüssigkeit von Äußerungen in Form von typischen Performanz- und Hesitationsphänomenen wie Wiederholungen (z. B. von Pronomen), gefüllten und ungefüllten Pausen und Reduktionen eine wichtige Rolle. Lernersprache kann aus beschreibender oder beurteilender Perspektive untersucht werden (deskriptive vs. normative Analyse). V.a. bei der beurteilenden Analyse sind Vergleichsdaten von L1-Sprechenden sinnvoll, so dass neben Normentsprechungen (i. d. R. korrekten Äußerungen) auch Normabweichungen feststellbar sind. Bei bilingualen Sprechenden sollte ein Vergleich mit Gleichaltrigen der jeweiligen Erstsprache erfolgen. 3 Verfahren zur Analyse von Lernersprache
Bei der Analyse von Lernersprache ist zunächst vorrangig, wie Daten erhoben wurden (vgl. Kapitel 5.2.6). So muss nicht nur die Art der Daten festgestellt werden (z. B. mündliche vs. schriftliche Daten, kürzere Lückenübungen oder längere Texte), sondern auch wie sie erhoben wurden (z. B. einmalig oder mehrfach, mit gesteuerten oder ungesteuerten Elizitationsverfahren, einzeln oder im Dialog, handschriftlich oder elektronisch), was dabei fokussiert wurde (Produkt oder Prozess), und von wem die Daten stammen (z. B. von einer Person oder mehreren), um Analysefehler zu vermeiden. Nach der Datenerhebung, aber noch vor der eigentlichen Analyse erfolgt die Datenaufbereitung, bei der die Daten sorgfältig archiviert, systematisiert und entsprechenden Metadaten zugeordnet werden. Je nach erhobener Datenart erfolgt dies unterschiedlich. Nach
300
5. Forschungsverfahren
heutigem Standard werden mündliche Lerneräußerungen zumindest auditiv aufgezeichnet, oft sogar videographiert und im Anschluss mit Hilfe eines entsprechenden Notationssystems transkribiert; erst auf Basis dieser Transkription werden Daten analysiert. Solche Transkriptionen sollten möglichst mit einer geeigneten Software angefertigt werden, die später auch Annotationen zulässt (vgl. Mempel/Mehlhorn 2014 und Kapitel 5.3.6). Von Vorteil ist hierbei, dass in digitalisierten Korpora in der Regel beliebig viele Annotationsebenen eingefügt werden können (vgl. Kapitel 5.2.6). Auch schriftliche Daten werden meist aufbereitet, um die Analyse zu erleichtern; im einfachsten Fall handelt es sich um die Digitalisierung handschriftlich geschriebener Äußerungen in einem Textverarbeitungsprogramm. Die zu untersuchenden Äußerungselemente und Strukturen müssen als nächstes im Datenmaterial identifiziert und isoliert werden. Der Isolierungsprozess ist abhängig von der Art des Erhebungsinstruments, des produzierten Textes, der Transkription, dem Untersuchungsinteresse und dem theoretischen Ansatz des Forschungsprojekts (vgl. Ahrenholz 2014). Die Datenanalyse erfolgt entweder mit bereits vor der Datenerhebung festgelegten Kategorien, oder die Kategorien werden aus dem erhobenen Datenmaterial entwickelt (rationalistische vs. empirische Kategorienbildung). Die Kategorisierungen sollten möglichst konsistent durchgeführt und Zuordnungsentscheidungen bei der Ergebnispräsentation dokumentiert werden. Neben der Entscheidung für eine Herangehensweise wird zwischen unterschiedlichen theoretischen Ansätzen für die Lernersprachenanalyse unterschieden. Für den europäischen Kontext nennt Ahrenholz (2014: 171) drei besonders relevante Ansätze:
• strukturalistisch orientierte Analysen, die u. a. der Steuerung des Spracherwerbs durch universalgrammatische Prinzipien nachgehen (z. B. Clahsen/Meisel/Pienemann 1983),
• die Funktionale Pragmatik, die den Sprachgebrauch in Handlungsmustern einschl. der sozialen Einbettung der Sprachverwendung beschreibt (z. B. Ehlich/Rehbein 1979),
• den funktionalen konzeptorientierten Ansatz, bei dem die lernerseitige Sprachproduktion als Bezugspunkt zur Untersuchung der Realisierung semantischer Grundkonzepte wie Temporalität, Lokalität und Modalität dient (z. B. von Stutterheim 1997). Der theoretische Ansatz bestimmt den Fokus der Analyse, kann in einer Theorietriangulierung (vgl. Kapitel 4.4) aber mit anderen Ansätzen kombiniert werden, um unterschiedliche Perspektiven auf erhobene Daten zu ermöglichen (vgl. z. B. die Untersuchung von Zweitspracherwerbsphasen in Wegener 1995). In der Fremdsprachenforschung gibt es unterschiedliche Methoden zur Lernersprachenanalyse. Wir gehen im Folgenden insbesondere auf die Möglichkeiten der Fehleranalyse, kompetenzbezogener Analysen, Profilanalysen und Ratings ein. Der Tradition der Kontrastiven Analyse folgend wird nach wie vor das Zusammenwirken von Erstsprache, Lernersprache und Zielsprache v. a. anhand von Fehleranalysen untersucht. Hierbei werden häufig nur Ausgangs- und Zielsprache verglichen, obwohl auch drei oder mehrere Sprachen verglichen werden können (z. B. Kärchner-Ober 2009). Auch zur Erläuterung von Informationen zur Lernprogression, erreichten Lernniveaus, möglichen Fossilierungen, interindividuellen Unterschieden u.v.m. werden Fehleranalysen durchgeführt. Bei allen
5.3.7 Analyse von Lernersprache
301
Varianten ist der noch umstrittene Fehlerbegriff von zentraler Bedeutung; Fehler werden i. d. R. als nicht normgerechte Äußerungen definiert. Die typischen Schritte einer linguistischen Fehleranalyse sind Identifizierung, Klassifizierung und Erklärung der einzelnen Fehler. In der Unterrichtspraxis kommen Fehlerkorrektur und -bewertung hinzu; für die Unterrichtsvorbereitung ist die Fehlertherapie und -prophylaxe relevant (vgl. Kuhs 1987). Schon bei der Identifizierung von Fehlern müssen unterschiedliche Überlegungen vollzogen werden, z. B. ob zwischen eindeutigen Fehlern (z. B. ein nicht existentes oder in einem bestimmten Kontext nicht passendes Wort, eine falsche Endung, eine falsch betonte Silbe) und graduellen Abweichungen (z. B. ein in Bezug auf das Register nicht ganz passendes Wort, ein betonter Vokal im Deutschen oder Englischen, der weder als lang noch als kurz klassifiziert werden kann) differenziert werden sollte. Anders als in der Morphologie gibt es gerade im Bereich der Phonetik meist kein „Richtig“ oder „Falsch“; vielmehr befinden sich Segmentalia und Suprasegmentalia in der Lernersprache auf einem Kontinuum zwischen stark abweichender und zielsprachennaher Realisierung. Auf ein ähnliches Problem trifft man bei der Analyse von Texten, weswegen für diese sprachlichen Ebenen oft andere Analyseverfahren wie Ratings herangezogen werden. Nach der Identifizierung werden Fehler nach der Art der Abweichung klassifiziert. Hierfür bestehen bereits mehrere Fehlerkataloge (z. B. Kleppin 1997), so dass man im Normalfall keinen eigenen entwickeln muss. In einem dritten Schritt wird nach Fehlerursachen gesucht – z. B. ein oder mehrere der im Abschnitt 5.3.7.2 genannten kognitiven Prozesse. Hat man die Fehlerkategorien schon vor der Datenerhebung bestimmt, kann eine einfache Fehleranalyse in bestimmten sprachlichen Bereichen mit geringerem Aufwand z. B. als Rating durchgeführt werden. Allerdings soll hier vor einer Versimplifizierung des Prozesses gewarnt werden: Gerade die Bestimmung einer Fehlerursache ist ohne Kombination mit introspektiven Methoden äußerst schwierig, und sogar der erste Schritt, die Fehleridentifikation, kann zu Problemen führen, wenn es sich z. B. um dialektal unterschiedlich ausgeprägte Merkmale handelt. Problematisch ist zudem, dass Fehleranalysen wenig über Fremdsprachenlernprozesse verraten und keine Aussagen zu positivem Transfer geben können. Sprachliche Kreativität, Überproduktionen bestimmter Strukturen sowie Vereinfachungs- und Vermeidungsstrategien werden dabei ebenfalls kaum berücksichtigt. Im Gegensatz zu Fehleranalysen legen kompetenzbezogene Analysen den Schwerpunkt darauf, was Lernende in der Zielsprache bereits ausdrücken können. In der Fremdsprachendidaktik am bekanntesten hierfür sind wohl die Kann-Beschreibungen des Gemeinsamen europäischen Referenzrahmens (GeR) und Erweiterungen wie der FREPA (Candelier et al. 2012), die anhand von Kompetenzlisten versuchen zu ermitteln, in welchem Maße bestimmte Kompetenzen von einzelnen Lernenden bereits gemeistert werden. Für die frühkindliche Spracherwerbsforschung ist diese Art von Analyse das wohl wichtigste Analyseverfahren schlechthin (ein bekanntes Beispiel sind die Screenings der MacArthur Communicative Development Inventories, CDI, u. a. Fenson et al. 2007). Solche Analysen können von der Lehrkraft, vom Lernenden oder von anderen beteiligten Personen – beim Erstspracherwerb z. B. von einem Betreuer – ausgefüllt werden und sind in unterschiedlichem Maße differenziert (vgl. die Frage: „Versteht das Kind das Wort ‚Ameise‘?“ im CDI vs. „Kann das eigene Sprachverhalten mit dem der Sprecher anderer Sprachen vergleichen“ im FREPA). Insgesamt hat die Fremdsprachendidaktik in den letzten Jahren eine Wende von der Fehler- zur Kompetenzfo-
Korpora von Lernersprache ['lɛʁnɐʃpʁaːxə] „das individuelle sprachliche System, das Lernende beim Aneignen einer Zielsprache im Verlaufe ihres Sprachlernprozesses aufbauen und das ihren Äußerungen zugrundeliegt“
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Fehleranalysen Fehlerklassifikation und -erklärung
Ratings Experteneinschätzungen spezifischer Merkmale
Profilanalysen Lernstadien in Modellen
Kompetenzbezogene Analysen Einordnung auf skalierten Kompetenzbeschreibungen
Sprachebenen (Phonetik, Orthographie, Morphologie, Syntax etc.) und kognitive Prozesse (Transfer, Strategien, Übergeneralisierung etc.) in mündlichen oder schriftlichen lernersprachlichen Datenkorpora deskriptiv oder normativ untersuchen
Rekonstruktion von Erwerbsprozessen an sprachlichen Produkten
5.3.7 Analyse von Lernersprache
302 5. Forschungsverfahren
5.3.7 Analyse von Lernersprache
303
kussierung erfahren, was sich u. a. auch in den Bildungsstandards sowie in Lehrwerken für die Fremdsprachen widerspiegelt; eine ähnliche Entwicklung wäre für die wissenschaftliche Analyse lernersprachlicher Äußerungen wünschenswert. Kompetenzorientiert sind ebenfalls Profilanalysen, die sich dadurch auszeichnen, dass sie anhand bestimmter Kriterien natürliche Sprachaufnahmen analysieren. Oft setzen sie das Ziel, notwendige Förderbereiche herauszustellen. Sie beruhen auf einem stufenweisen Verständnis der Lernersprachenentwicklung und legen unterschiedliche – meist syntaxbasierte – Lernstadienmodelle zugrunde. Weil Profilanalysen spezifischen sprachlichen Elementen nachgehen, konzentrieren sie sich i. d. R. auf einen sprachlichen Bereich wie Grießhabers (2006, 2012) Profilanalyse für Kinder mit Deutsch als Zweitsprache, die syntaktische Strukturen in mündlichen und schriftlichen Produktionen einzelner Lernender kategorisiert, oder auf eine bestimmte Menge quantifizierbarer Elemente wie das Rapid Profile-Verfahren für Englisch als Fremdsprache (zuerst Pienemann/Johnston/Brindley 1988), das elizitierte mündliche Lerneräußerungen kodiert. Wenn hier z. B. im Rahmen eines Elizitationstasks auf die Frage „What is the man doing?“ geantwortet wird: „He read a book.“, können sowohl Aussagen zur Morphologie (inkorrekte Deklination), zum Aspekt, zur Syntax (korrekte Wortfolge) und zur Lexik getroffen werden. Profilanalysen haben den Vorteil, in einem standardisierten Verfahren unterschiedliche Lernende vergleichen zu können und somit in Situationen einsetzbar zu sein, in denen Aufschlüsse über individuellen Lernzuwachs im Kontext einer ähnlichen Situation benötigt werden. Für die Untersuchung kleiner (z. B. phonetischer) Merkmale und großer sprachlicher Einheiten (Texte) bieten sich Verfahren an, die Experteneinschätzungen heranziehen (Ratings). In diesen Verfahren werden mindestens zwei Experten (je nach Untersuchungsaspekt z. B. geschulte Erstprachler oder Schreibexperten) darum gebeten, spezifische Äußerungen, oft auf einer bestimmten Skala, nach ihrer Korrektheit, Verständlichkeit und/oder Angemessenheit einzuschätzen. Bei einer Analyse der phonetischen Ebene von Lernersprache können somit neben akustischen Analysen im digitalen Sprachsignal (z. B. mit dem OpenSource-Programm Praat, vgl. Richter 2008) auch eine perzeptive Bewertung durch trainierte Expertenhörer (oft Erstsprachler), die Abweichungen einschätzen (vgl. Baur/Nickel 2009), herangezogen werden. In Praat kann eine Rating-Skala hinzugefügt werden, um die akustischen Stimuli auch auditiv zu bewerten. Die Triangulierung beider Methoden kann eine Balance zwischen der inhärenten Subjektivität perzeptiver Bewertung und der Einseitigkeit von akustischen Analysen als einzigem Auswertungsinstrument schaffen (vgl. Mehlhorn 2012: 206). Sehr sinnvoll lassen sich Ratings auch in Hinblick auf textlinguistische Aspekte einsetzen, die sich nur schwierig in ein richtig/falsch-Schema einordnen lassen und eher schwer bestimmbare Merkmale wie Angemessenheit, Kohärenz und Kohäsion einbeziehen. Ob eine Ellipse oder eine pronominale Referenz im satzübergreifenden Zusammenhang kohäsionstiftend ist, kann mit den o. g. Verfahren kaum bestimmt werden; stattdessen müssen Experten in der jeweiligen Sprache die Angemessenheit einschätzen. In letzter Zeit finden u. a. wissenschaftssprachliche Aspekte eine besondere Betonung in der Erforschung der Lernersprache. Ratings finden auch in Prüfungen wie dem TestDaF Anwendung; hier wird der Testteil „Schriftlicher Ausdruck“ anhand diverser Kriterien wie „Sind die Sätze im Text miteinander verbunden, d. h. ist der Text kohärent?“ (http://www.testdaf.de/) durch den Prüfer bewertet.
304
5. Forschungsverfahren
Werden Lernerkorpora analysiert, liefern notierte Metadaten Deutungsmöglichkeiten zu Hintergründen und Ursachen für bestimmte Auffälligkeiten. Für die korpusbasierte Sprachbeschreibung können z. B. die Häufigkeit der Verwendung bestimmter Lemmata, Konstruktionen oder grammatischer Formen, die Textlänge und das Auftreten von Chunking (die Verwendung fester Wortgruppen, vgl. Aguado 2008) in Abhängigkeit von Faktoren wie Lerndauer, Alter, Sprachlernerfahrung, Mehrsprachigkeit, Kursart, Sprachumgebung usw. in Bezug auf das Sprachenlernen und Sprachverhalten im Alltag analysiert werden (vgl. Kapitel 5.3.8 Korpusanalyse). Lernerkorpora können mit verschiedenen Methoden ausgewertet werden. So sind z. B. Fehleranalysen und gesprächsanalytische Untersuchungen möglich. Neben qualitativen Beschreibungen von Lernersprachen bieten Korpusanalysen Möglichkeiten der quantitativen Untersuchung, z. B. durch den statistischen Vergleich von Lernerdaten mit erstsprachlichen Vergleichsdaten. So zeigt Nesselhauf (2005) in ihrer lernerkorpuslinguistischen Studie, in welchen Bereichen fortgeschrittene deutsche Lerner des Englischen im Kollokationsgebrauch noch deutlich von Erstsprachlern abweichen. 4 Erforschung von Lernersprache – Perspektiven
Um ein ganzheitliches Bild der Entwicklung von Lernersprache zu erhalten, ist es notwendig, über Fehleranalysen und eine Konzentration auf interlingualen Transfer hinauszugehen (Selinker 1992, passim). Auch die Prozesshaftigkeit der Lernersprachenentwicklung muss stärkere Beachtung finden; Apeltauer (2010: 840) zufolge wird gegenwärtig noch weitgehend die von Lernenden praktizierte Selbststeuerung, die für große individuelle Unterschiede bei der Lernersprachentwicklung mitverantwortlich sein könnte, vernachlässigt, wie z. B. das Elizitieren sprachlicher Daten für die Entwicklung der eigenen Lernersprache bei Gesprächspartnern. Ebenfalls unklar ist, in welchen Situationen und in welchem Ausmaß Transfer (positiver sowie negativer) auftritt und wann sowie von welchen Lernenden bestimmte kognitive Prozesse in den Lernprozess eingehen. Hierbei würden grundlegende sprachlernbiographische Daten (vorgelernte Sprachen, Umfang des erhaltenen Fremdprachenunterrichts, Qualität und Quantität des Zielsprachenkontakts u.v.m.) das Wissen über Lernersprache deutlich vergrößern. ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin (2008). Wie beeinflussbar ist die lernersprachliche Entwicklung? Theoretische Überlegungen, empirische Erkenntnisse, didaktische Implikationen. In: Fremdsprache Deutsch 38, 53 – 58. Ahrenholz, Bernt (2014). Lernersprachenanalyse. In: Settinieri, Julia et al. (Hg.), 167 – 181. Apeltauer, Ernst (2010). Lernersprache(n). In: Krumm, Hans, Jürgen/Fandrych, Christian/Hufeisen, Britta/Riemer, Claudia (Hg.). Deutsch als Fremd- und Zweitsprache. Ein internationales Handbuch. 1. Halbband. Berlin: de Gruyter, 833 – 842. *Baur, Rupprecht S./Nickel, Aneta (2009). „Man kann doch sowieso merken, dass wir nicht Deutsch bin“. Phonetische Analysen am ESA-Korpus. In: Ahrenholz, Bernt (Hg.) (2009). Empirische Befunde zu
5.3.7 Analyse von Lernersprache
305
DaZ-Erwerb und Sprachförderung. Beiträge aus dem 3. Workshop Kinder mit Migrationshintergrund. Freiburg i.Br.: Fillibach, 313 – 331. Candelier, Michelle/Camilleri-Grima, Antoinette/Castellotti, Véronique/de Pietro, Jean-Françoise/ Lőrincz, Ildikó/Meißner, Franz-Joseph/Noguerol, Arthur/Schröder-Sura, Anna (2012). FREPA. A framework of reference for pluralistic approaches to languages and cultures: competences and resources. Straßburg: Council of Europe Publishing. *Clahsen, Harald/Meisel, Jürgen M./Pienemann, Manfred (1983). Deutsch als Zweitsprache. Der Spracherwerb ausländischer Arbeiter. Tübingen: Narr. *Corder, Steven Pit (1967). The significance of learner’s errors. In: International Review of Applied Linguistics 5, 161 – 170. Corder, Steven Pit (1974). The elicitation of interlanguage. In: International Review of Applied Linguistics. Special issue of IRAL on the occasion of Bertil Malmberg’s 60th birthday, 45 – 58. Ehlich, Konrad/Rehbein, Jochen (1979). Sprachliche Handlungsmuster. In: Soeffner, Hans-Georg (Hg.). Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart: Metzler, 243 – 274. Fenson, Larry/Marchman, Virginia A./Thal, Donna J./Dale, Philip S./Reznick, J. Steven/Bates, Elizabeth (2007). MacArthur-Bates Communicative Development Inventories. User’s guide and technical manual. 2. Auflage. Baltimore: Paul H. Brookes Pub. Co. Fries, Charles Carpenter (1945). Teaching and Learning English as a Foreign Language. Ann Arbor: University of Michigan Press. *Grießhaber, Wilhelm (2006). Endbericht der wissenschaftlichen Begleitung, März 2006. Projekt „Deutsch und PC“. Münster: WWU Sprachenzentrum. Grießhaber, Wilhelm (2012). Die Profilanalyse. In: Ahrenholz, Bernt (Hg.). Einblicke in die Zweitspracherwerbsforschung und ihre methodischen Verfahren. Berlin: de Gruyter, 173 – 193. Herdina, Philip/Jessner, Ulrike (2002). A dynamic model of multilingualism. Perspectives of change in psycholinguistics. Clevedon: Multilingual Matters. *Kärchner-Ober, Renate (2009). The German language is completely different from the English language. Besonderheiten des Erwerbs von Deutsch als Tertiärsprache nach Englisch und einer Nicht-indogermanischen Erstsprache. Tübingen: Stauffenburg. [Referenzarbeit, s. Kap. 7] Kleppin, Karin (1997). Fehler und Fehlerkorrektur. Berlin: Langenscheidt. *Kuhs, Katharina (1987). Fehleranalyse am Schülertext. In: Apeltauer, Ernst (Hg.). Gesteuerter Zweitspracherwerb. Voraussetzungen und Konsequenzen für den Unterricht. München: Hueber, 173 – 205. Lado, Robert (1957). Linguistics across cultures. Applied linguistics for language teachers. Ann Arbor: University of Michigan Press. Mehlhorn, Grit (2012). Phonetik/Phonologie in der L3 – neuere Erkenntnisse aus der Psycholinguistik. In: Deutsch als Fremdsprache 49, 201 – 207. Mempel, Caterina/Mehlhorn, Grit (2014). Datenaufbereitung: Transkription und Annotation. In: Settinieri, Julia et al. (Hg.), 147 – 166. Nemser, William (1971). Approximative systems of foreign language learners. In: International Review of Applied Linguistics 9, 115 – 123. *Nesselhauf, Nadja (2005). Collocations in a learner corpus. Amsterdam: John Benjamins. *Pienemann, Manfred/Johnston, Malcolm/Brindley, Geoff (1988). Constructing an acquisition-based procedure for second languge assessment. In: Studies in Second Language Acquisition 10, 217 – 243. Raabe, Horst (1974). Interimsprache und kontrastive Analyse. In: Raabe, Horst (Hg.). Trends in kontrastiver Linguistik. Bd. 1. Tübingen: Narr, 1 – 50.
306
5. Forschungsverfahren
*Richter, Julia (2008). Phonetische Reduktion im Deutschen als L2. Eine empirische Querschnittsstudie. Baltmannsweiler: Schneider Verlag Hohengehren. Selinker, Larry (1972). Interlanguage. In: International Review of Applied Linguistics 10, 219 – 231. Selinker, Larry (1992). Rediscovering interlanguage. London: Longman. Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh *Stutterheim, Christiane von (1997). Einige Prinzipien des Textaufbaus. Empirische Untersuchungen zur Produktion mündlicher Texte. Tübingen: Niemeyer. *Wegener, Heide (1995). Das Genus im DaZ-Erwerb. Beobachtungen an Kindern aus Polen, Rußland und der Türkei. In: Handwerker, Brigitte (Hg.). Fremde Sprache Deutsch. Grammatische Beschreibung – Erwerbsverläufe – Lehrmethodik. Tübingen: Narr, 1 – 24. Weinrich, Uriel (1953). Languages in contact. Findings and problems. New York: Linguistic Circle of New York. Zhao, Yuqin/Song, Li/Cherrington, Ruth (2013). Interlanguage. In: Byram, Michael/Hu, Adelheid (Hg.). Routledge Encyclopedia of Language Teaching and Learning. London: Routledge, 357 – 359. »» Zur Vertiefung empfohlen Ahrenholz, Bernt (2014). Lernersprachenanalyse. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 167 – 181. Der Handbuchartikel skizziert Bereiche sprachlichen Wissens, erläutert Faktoren der lernersprachlichen Entwicklung, diskutiert Fragen der Datenerhebung und -interpretation. Die Analyse gesprochener Lernersprache wird am Beispiel einer mündlichen Erzählung zu der Bilderfolge Cat Story veranschaulicht. Konkrete Übungen zur Lernersprachenanalyse und Lösungsvorschläge erleichtern den Einstieg in diese Thematik. Selinker, Larry (1992). Rediscovering interlanguage. London: Longman. Die Monographie ist ein umfangreicher und gut lesbarer Überblick zur Entstehung und (Weiter-) Entwicklung des Konzepts Lernersprache und deren forschungsmethodischer Perspektiven. Sie geht auf die unterschiedlichen theoretischen Richtungen, die sich mit Lernersprache auseinandersetzen, sowie auf die daraus entstandenen Kontroversen, Erweiterungen und Verzahnungen mit neueren Forschungsergebnissen ein.
5.3.8 Korpusanalyse Cordula Meißner/Daisy Lange/Christian Fandrych 1 Begriffsklärung
Die empirische Auseinandersetzung mit Korpusdaten ist für die eher anwendungsorientierten Disziplinen der Fremdsprachenerwerbsforschung mittlerweile unerlässlich. Untersuchungen
5.3.8 Korpusanalyse
307
auf der Basis breiter Datenkollektionen können dabei in linguistischen, didaktischen, kulturwissenschaftlichen, soziologischen sowie weiteren verwandten Kontexten angesiedelt und mit je spezifischen Fragestellungen verbunden sein. In der Fremdsprachenerwerbsforschung werden Korpora einerseits zum Zweck linguistischer Beschreibungen herangezogen, insbesondere, um Regelmäßigkeiten und Gebrauchsmuster einer Sprache (auch kontrastierend) zu ermitteln oder auch Lernersprache selbst im Hinblick auf verschiedene Aspekte der Sprachverwendung und Kompetenzentwicklung zu analysieren. Andererseits kommen Korpora u. a. in der Lehrmaterial- und Curriculaentwicklung, der Testwissenschaft, der empirischen Unterrichtsforschung sowie als Unterrichtsmedium selbst zur Anwendung. Das folgende Kapitel stellt zentrale Begriffe und Methoden der Korpusanalyse vor und verweist auf entsprechende Analysewerkzeuge. Die Verwendung des Korpusbegriffs ist in den Kontexten linguistischer und didaktischer Forschung nicht immer sehr einheitlich. Man kann Sammlungen von Sprachressourcen bezüglich vielerlei Kriterien voneinander unterscheiden. Auswahl und Zuschnitt solcher Sprachdatensammlungen sollten in erster Linie in Hinblick auf die Erfordernisse des spezifischen Untersuchungsgegenstandes und der konkreten Forschungsfrage(n) erfolgen. Der hier zu Grunde gelegte Korpusbegriff orientiert sich an der in der Korpuslinguistik etablierten und allgemein akzeptierten Definition, welche Korpora als größere, zu einem bestimmten Zweck zusammengestellte Sammlungen authentischer schriftlicher Texte oder gesprochener Äußerungen versteht, die digitalisiert vorliegen und somit elektronisch durchsuchbar sind (Lüdeling/Walter 2010: 315). Unterschieden werden Korpustypen u. a. nach dem Verwendungszweck (Referenzkorpora, Spezialkorpora, Vergleichskorpora, Parallelkorpora, Lernerkorpora), dem Medium (Textkorpora, Korpora mündlicher Sprachdaten, multimodale Korpora) oder der Entstehungszeit ihrer Texte (Korpora der Gegenwartssprache vs. Korpora historischer Sprachstufen). Von besonderem Interesse für die Fremdsprachenerwerbsforschung und -didaktik sind Korpora, die geschriebene (z. B. das ICLE35) oder gesprochene Lerner- bzw. L2-Daten enthalten (z. B. das GeWiss-Korpus36), und die gelegentlich sogar die Kennzeichnung und Klassifizierung von Fehlern beinhalten (z. B. Falko37). In Verbindung mit kontrastiven Analysen können solche Korpora Aufschlüsse über Lernstadien, -schwierigkeiten oder Erwerbshierarchien geben (ausführlicher zu Lernerkorpora und ihrem Einsatz in der Fremdsprachenerwerbs- und didaktischen Forschung vgl. Granger 2008, Lüdeling 2007)38. Lemnitzer/Zinsmeister (2010: 102 – 123) sowie Scherer (2006: 16 – 31) bieten in ihren Einführungen zur Korpuslinguistik jeweils sowohl einen Überblick über verschiedene Korpustypen als auch eine Auflistung entsprechender, international zur Verfügung stehender Korpora. Bei der Beurteilung der Eignung eines Korpus für eine bestimmte Untersuchung sind zudem Kriterien wie Zugänglichkeit und Funktionalitäten, die integrierten Sprachen oder Varietäten, die Korpusgröße und -persistenz (statische oder dynamische Korpora), die 35 International Corpus of Learner English, http://www.uclouvain.be/en-cecl-icle.html (24. 3. 2014). 36 Gesprochene Wissenschaftssprache kontrastiv, https://gewiss.uni-leipzig.de/ (24. 3. 2014). 37 Fehlerannotiertes Lernerkorpus, https://www.linguistik.hu-berlin.de/institut/professuren/korpuslinguistik/forschung/falko (24. 3. 2014). 38 Unter http://www.uclouvain.be/en-cecl-lcbiblio.html (24. 3. 2014) ist eine umfangreiche Bibliographie zu Studien und methodischen Arbeiten im Zusammenhang mit Lernerkorpora (vorrangig im Bezug zum Englischen als Fremdsprache) abrufbar.
308
5. Forschungsverfahren
Ausgewogenheit bzw. Heterogenität der Korpusdaten zu beachten (vgl. Lemnitzer/Zinsmeister 2010: 102 – 107). Für die Auswertung von Korpusdaten gilt, dass alles such- und analysierbar ist, was kodiert ist (Lüdeling/Walter 2010: 316). Dies umfasst neben den Primärdaten wie den Originaltexten oder -kommunikationen (als Audio- oder Videosequenzen) auch Sekundär- und Metadaten. Für die Analyse gesprochener Sprache unentbehrlich sind Sekundärdaten in Form von Transkripten, d. h. Verschriftungen von Audio- oder Videoaufzeichnungen nach zuvor festgelegten Konventionen. Metadaten umfassen beschreibende Angaben zur Korpusentstehung, den Korpusinhalten sowie zu bestimmten Korpusmerkmalen. Sie ermöglichen Vergleiche im Hinblick auf bestimmte Charakteristika der Kommunikationen bzw. Texte und der Sprecher bzw. Autoren. Für spezifischere Analysezwecke können zusätzliche Beschreibungsebenen in Form von Annotationen notwendig sein. Annotationen sind vorab festgelegte oder induktiv durch die Analyse des Datenmaterials gewonnene Kategorien, mit denen dieses nachträglich ausgezeichnet wird. Sie ermöglichen es, die Daten nach den entsprechenden Kategorien zu systematisieren und quantitativ wie qualitativ zu untersuchen (vgl. Abschnitt Qualitative Methoden). 2 Methoden der Korpusanalyse
Im Kern beinhaltet das korpusanalytische Vorgehen das elektronisch gestützte, z. T. automatische Durchsuchen, Sortieren, Zählen, Vergleichen und Interpretieren (größerer Mengen) von sprachlichen Roh- bzw. transkribierten oder durch Annotation aufbereiteten Daten. Entsprechende Analyseschritte können sowohl im Rahmen eines induktiven als auch eines deduktiven Ansatzes Anwendung finden. Während theoriegeleitet (theory-driven) die Korpusdaten nach dem Raster vordefinierter Kategorien auswertet werden, gewinnt man beim datengeleiteten Vorgehen (corpus-driven) erst induktiv aus der Sichtung der Daten (vgl. Tognini-Bonelli 2001) die Analysekategorien. Für das korpusgesteuerte Vorgehen stellt das Korpus somit die Grundlage dar, von der ausgehend die Beschreibungseinheiten formuliert und Gebrauchsregelmäßigkeiten beschrieben werden (Steyer/Lauer 2007: 493). Eine solche Herangehensweise will vermeiden, nur die Daten zu erfassen, die mit zuvor festgelegten Kategorien vereinbar sind (Bubenhofer 2009: 101). Datengeleitet-induktives und deduktives Vorgehen können ergänzend ineinandergreifen: Aus Beschreibungskategorien, die datengeleitet ermittelt wurden, lassen sich Hypothesen ableiten, die wiederum an den Korpusdaten überprüft werden können (vgl. Steyer/Lauer 2007). Im Hinblick auf die fremdsprachendidaktische Forschung findet die Korpusanalyse als Methode Anwendung u. a. zur empirischen Absicherung curricularer Entscheidungen, indem etwa aus Korpora ermittelte Häufigkeiten sprachlicher Strukturen als Kriterium zur Auswahl von Lern- und Lehrinhalten herangezogen werden (Schlüter 2002; Tesch 2000). Darüber hinaus sind Korpora in der Sprachausbildung für stark ausdifferenzierte berufliche bzw. fachliche Bereiche von großer Bedeutung, da sie hier eine bedarfsgerechte Ermittlung curricularer Inhalte ermöglichen. Korpusanalytisches Vorgehen bildet darüber hinaus die Grundlage der korpusbasierten Lehrwerksanalyse (vgl. z. B. Niederhaus 2011) und findet Verwendung im Bereich der Spracherwerbsforschung, bspw. in kontrastiven Untersuchungen von Lerner- und Zielsprachen (vgl. Zeldes/Lüdeling/Hirschmann 2008, Granger/Paquot 2009).
5.3.8 Korpusanalyse
309
Die im Folgenden vorgenommene Unterteilung in quantifizierende Analysemethoden einerseits und qualitative, beschreibend-deutende Herangehensweisen andererseits dient der Übersichtlichkeit der Darstellung, findet sich jedoch in der Forschungspraxis nicht in derart strikter Form. Auch in scheinbar rein quantitative Untersuchungen fließen qualitative Verfahren und Entscheidungen ein. So geht einer quantifizierenden Analyse stets eine qualitative Kategorisierungsentscheidung im Bezug auf die gezählten Einheiten voraus (vgl. Lüdeling 2007). Das qualitative Sichten von Einzelbelegen ist zudem unverzichtbarer Bestandteil zur Validierung von quantitativen Analysen, welche zumeist auf der Formebene ansetzen (müssen) und semantisch begründete Ambiguitäten (Homonymie, Polysemie und kontextspezifische Bedeutungsvarianten) systematisch ausblenden. Vor diesem Hintergrund ist zu betonen, dass die in den folgenden Abschnitten Quantitative Methoden und Qualitative Methoden dargestellten Analyseschritte in der Praxis integrativ Anwendung finden bzw. entsprechend reflektiert werden sollten. Quantitative Methoden
Grundlage quantitativer korpusanalytischer Methoden ist das Zählen von Einheiten. In Korpora können verschiedene Größen gezählt werden, so etwa die laufenden Wörter, also alle einzelnen Wortformenvorkommen (token) oder alle unterschiedlichen Wörter unter Zusammenfassung gleicher Wortformen (types), daneben aber auch etwa häufige Wortkombinationen. Zu beachten ist hierbei, dass die Zählung rein formbasiert erfolgt und homonyme Formen zu fehlerhaften Ergebnissen führen. Eine Aufbereitung der Korpusdaten durch Wortartenannotation und Lemmatisierung ermöglicht es, neben den grammatisch desambiguierten Wortformen auch Lemmata zu zählen. Hierbei kann jedoch vor allem eine kombinierte Auswertung aufschlussreich sein, da sich relevante Unterschiede etwa in Lernerproduktionen auch auf spezifische Wortformen beziehen können (vgl. z. B. die Ergebnisse von Granger/Paquot 2009). Ein Vorgehen im Sinne einer quantitativen Korpusanalyse bedeutet, den Untersuchungsgegenstand in suchbarer und auszählbarer Form zu operationalisieren und dabei theoretische Konzepte in empirische Häufigkeiten zu übersetzen. Die Fragestellung wird dabei so formuliert, dass die Häufigkeit, welche im Korpus unter den in Frage stehenden Bedingungen ermittelt wird, die abhängige Variable darstellt (vgl. Stefanowitsch 2005). Ein Beispiel soll diesen Ansatz verdeutlichen: Zeldes/Lüdeling/Hirschmann (2008) untersuchen, welche Strukturen für den Erwerb des Deutschen als Fremdsprache als schwierig anzusehen sind, indem sie in vergleichbaren wortartenannotierten Erstsprachler- und Lernerkorpora die Vorkommenshäufigkeit aller Wortformentypes und Wortartentag-Abfolgen auszählen. Sie operationalisieren die Schwierigkeit im Erwerb einer Struktur über Abweichungen in der Gebrauchshäufigkeit bei Lernern und Erstsprachlern und interpretieren die in den Lernertexten signifikant mindergebrauchten Einheiten bzw. Strukturen als Bereiche von Erwerbsschwierigkeiten. Zur Durchführung quantitativer Korpusanalysen stehen zahlreiche Softwarewerkzeuge zur Verfügung (vgl. Wiechmann/Fuhs 2006 für einen Überblick). Ihre Anwendung erfolgt in der Regel lokal auf dem Computer des Forschers und setzt voraus, dass das zu untersuchende Korpus ebenfalls lokal zur Verfügung steht. Große öffentlich zugängliche Korpora wie etwa
310
5. Forschungsverfahren
Cosmas Corpus Search, Management and Analysis System/DGD Datenbank für Gesprochenes Deutsch, DWDS Das Digitale Wörterbuch der Deutschen Sprache (für das Deutsche) oder BNC British National Corpus, VOICE Vienna-Oxford International Corpus of English, (für das Englische) sind hingegen oft nur online verfügbar. Die Analysemöglichkeiten sind dann auf das beschränkt, was die Weboberfläche des Korpusbetreibers anbietet (dies umfasst oft vor allem unterschiedlich umfangreiche Konkordanzsuchen). Im Folgenden werden grundlegende Werkzeuge der quantitativen Korpusanalyse vorgestellt, mit denen sich Textsammlungen in ihrer Gesamtheit charakterisieren lassen (Wortlisten, Schlüsselwortanalysen, N-Gramme, Type-Token-Verhältnis), sowie solche, die auf die quantitative Analyse ausgewählter Einheiten abzielen (Quantitative Konkordanzsuche, Kookkurrenzanalyse). Methoden zur quantitativen Korpusbeschreibung
Wortlisten: Um eine Textsammlung quantitativ zu charakterisieren, bieten Wortlisten eine erste Zugriffsmöglichkeit, d. h. Listen aller im Korpus auftretenden Wortformen mit Angabe der Häufigkeit ihres Vorkommens. Sie können für den durch die Korpuszusammenstellung repräsentierten Sprachverwendungsbereich Aufschluss über frequente und weniger frequente Einheiten geben und so etwa bei der Bestimmung von Lernwortschätzen zu Rate gezogen werden. Entscheidend für die Bewertung von Wortlisten ist die der Zählung zugrunde gelegte Wort-Definition, in die u. a. Entscheidungen bzgl. der Art der Grenzmarkierung oder hinsichtlich der Beachtung der Großschreibung einfließen. Bspw. würde die Beachtung der Großschreibung in deutschen Sprachdaten dazu führen, dass Wortvorkommen an Satzanfängen anders behandelt werden als im Satz. Eine Wortdefinition, die Leerzeichen als Grenzsymbole zugrunde legt, würde z. B. bei englischen Daten mit Spatien innerhalb von Komposita dazu führen, dass die Kompositumsbestandteile jeweils separat gezählt werden. Es ist daher zu beachten, wie die Parameter der Wortdefinition in der Korpusanalysesoftware voreingestellt sind bzw. wie sie für die eigene Untersuchung gewählt werden. Unabhängig von der konkreten Korpuszusammensetzung werden in Wortlisten immer wenige hoch- und viele niedrigfrequente Einheiten erscheinen (vgl. Baroni 2009). Die häufigen Einheiten umfassen dabei i. d. R. Funktionswörter. Neben der frequenzbezogenen Sortierung bietet Korpusanalysesoftware für Wortlisten oft auch eine alphabetische sowie eine rückläufige Sortierungsoption an, welche es ermöglichen, gezielt bspw. verschiedene Wortbildungstypen zu untersuchen. Der über frequenzbasierte Wortlisten ermittelte häufigste Wortschatz wird etwa zur Bestimmung von Grund- und Aufbauwortschätzen herangezogen (vgl. Tschirner 2005). Keyword-Analyse: Neben den häufigsten Wörtern eines Korpus können diejenigen von Interesse sein, die es von vergleichsrelevanten anderen Textsammlungen unterscheiden. Solche Wörter lassen sich mittels Keyword-Analysen ermitteln. Die Schlüsselwörter (key words) eines Textes oder einer Textsammlung sind jene, die signifikant häufiger auftreten, als aufgrund ihrer Vorkommenshäufigkeit in einem Referenzkorpus zu erwarten wäre. Grundlage ist dabei der Vergleich der Wortliste des untersuchten Korpus mit der Wortliste eines Referenzkorpus: Bei der statistischen Ermittlung wird für jedes Wort des Spezialkorpus (z. B. akademische Lehrbuchtexte verschiedener Fächer) die Häufigkeit bestimmt und mittels Signifikanztest mit der Häufigkeit der Wörter in einem Referenzkorpus (z. B. einem gemein-
5.3.8 Korpusanalyse
311
sprachlichen Korpus) verglichen. Lassen sich signifikante Unterschiede feststellen, handelt es sich um Schlüsselwörter des Spezialkorpus, im Beispiel also um Einheiten, die typisch für akademische Lehrbuchtexte sind. Durch Schlüsselwortanalysen lässt sich der inhaltlich und stilistisch charakteristische Wortschatz eines Sprachverwendungsbereichs bestimmen. Zu beachten ist hierbei, dass die Aussagekraft einer Keyword-Analyse stark davon abhängt, wie geeignet und ausgewogen das verwendete Referenzkorpus ist. Schlüsselwortanalysen können bspw. bei der Ermittlung domänenspezifischer Wortschätze zur Anwendung kommen. So zieht Paquot (2007) keyness als ein grundlegendes Kriterium heran, um eine produktionsorientierte Wortliste des akademischen Englisch zu erstellen. Sie ermittelt hierzu die Schlüsselwörter eines Korpus akademischer Texte im Vergleich zu einem belletristischen Korpus, aus welchen sie dann nach Häufigkeits- und Verbreitungskriterien die Einheiten ihrer Wortschatzliste gewinnt. Häufige Wortfolgen: Neben den prominenten Einzelwörtern eines Korpus können seine häufigsten Type-Verbindungen oder N-Gramme (N steht für die Anzahl der Types) ermittelt werden. Biber/Conrad/Cortes (2004) charakterisieren mit Hilfe dieses Maßes kontrastiv den mündlichen und schriftlichen Sprachgebrauch in der akademischen Lehre. Type-Token-Verhältnis: Der Type-Token Quotient (engl. type-token ratio, kurz TTR) ist ein Maß zur Beschreibung der Wortschatzvarianz bzw. lexikalischen Vielfalt. Zu seiner Berechnung wird die Anzahl der Types eines Textes oder einer Textsammlung durch die Anzahl der Tokens geteilt. Je näher der Quotient bei 1 liegt, desto größer die lexikalische Vielfalt. Das Maß findet u. a. Anwendung zur Einschätzung des Schwierigkeitsgrades von Texten oder zur Beschreibung des Wortschatzreichtums von Lernertexten, anhand dessen die lexikalische Kompetenz der Schreibenden eingeschätzt werden kann. Zu beachten ist bei der Verwendung des TTR einerseits dessen starke Abhängigkeit von der Textlänge, zum anderen sein rein quantitativer Charakter, welcher die Art der gezählten Wörter unberücksichtigt lässt. Soll in einer Untersuchung etwas über die Sprachkompetenz eines Lerners ausgesagt werden, ist nicht nur die Anzahl verwendeter Types relevant, sondern etwa auch, ob es sich hierbei um Einheiten des Grundwortschatzes handelt oder um spezifischere, niedrigfrequentere Einheiten fortgeschrittener Sprachstände (vgl. Daller/van Hout/Treffers-Daller (2003) für eine diesbezügliche Diskussion des TTR). Methoden zur quantitativen Beschreibung ausgewählter Einheiten in Korpora
Quantitative Konkordanzsuche: Der einfachste Weg, die Häufigkeit einer untersuchten Einheit zu ermitteln, ist die Konkordanzsuche. Nach Eingabe des Suchbegriffs oder der komplexen Suchanfrage erhält man die Anzahl aller Treffer im Korpus und die zugehörigen Belege, die anschließend auf mögliche Fehltreffer geprüft werden sollten. Im Normalfall wird die Konkordanzsuche als Wortformensuche ausgeführt, d. h. bei flektierenden Wortarten sind ggf. alle einzelnen Wortformen einzugeben, die gefunden werden sollen. Die Suche nach Lemmata setzt ein diesbezüglich annotiertes Korpus voraus (z. B. bietet das DWDS eine solche lemmabezogene Abfrage an). Im Abschnitt Qualitative Methoden wird ausführlich auf die Arbeit mit Konkordanzsuchen eingegangen. Kookkurrenzanalyse: Die mit einer untersuchten Einheit typischerweise gemeinsam auftretenden Wörter lassen sich über statistische Zusammenhangsmaße in der Kookkurrenzanalyse
312
5. Forschungsverfahren
ermitteln. Zur Berechnung von Kookkurrenzen bzw. Kollokationen im empirisch-statistischen Sinn sind Entscheidungen hinsichtlich der Spanne zu treffen, in welcher die Kookkurrenzpartner vom Suchwort rechts oder links entfernt auftreten können (collocational span). Neben der Festlegung des Abstandes ist die Wahl des statistischen Zusammenhangsmaßes von Einfluss auf die ermittelten Kookkurrenzen. Während auf die Stärke der Kookkurrenz abzielende Maße wie Mutual Information (MI) niedrigfrequente Wörter mit beschränkter Kombinationsfähigkeit übergewichten, erhalten bei den auf die Sicherheit der Kookkurrenz abzielenden Signifikanzmaßen wie dem t-Wert höherfrequente Wörter mit vielen Belegen für die fragliche Kombination eine stärkere Gewichtung (MI gibt daher eher Auskunft über das lexikalisch/idiomatische Verhalten eines Wortes, der t-Wert eher über sein grammatisches, vgl. Hunston 2002: 74). Analog zu der beschriebenen Ermittlung von Assoziationen zwischen Worttypes lassen sich in entsprechend aufbereiteten Datensammlungen auch Kookkurenzen von einzelnen Wörtern bzw. Lexemen und grammatischen Strukturen errechnen, wie dies etwa unter dem Begriff der Collostructional Analysis verfolgt wird (vgl. Stefanowitsch/Gries 2009). Mittels statistischer Kookkurrenzanalysen können für Fremdsprachenlernende wichtige Einblicke in die Verwendungstypik sprachlicher Ausdrücke gewonnen werden. Über die korpuslinguistisch ermittelten Kookkurrenzpartner lässt sich so bspw. eine inhaltliche Differenzierung von Synonymen vornehmen oder die semantische Prosodie eines Ausdrucks, d. h. eine ihm aus wiederkehrenden Gebrauchsumgebungen zuwachsende konnotative Bedeutung, erfassen (vgl. Hunston 2002). Qualitative Methoden
Vorwiegend qualitativ ausgerichtete Korpusanalysen verfolgen das Ziel bestimmte in den Korpusdaten abgebildete (sprachliche) Phänomene zunächst zu ermitteln, sie zu klassifizieren, einzuordnen und zu interpretieren (Scherer 2006: 36). Konkret kann die qualitative Arbeit mit Korpusdaten dazu dienen, die Komplexität sprachlicher Phänomene zu erforschen, Regelmäßigkeiten und Muster im Sprachgebrauch zu erkennen, diese mit anderen Daten zu vergleichen, aber auch Kategorien zur Aufbereitung des Korpus aufzustellen und diese in weiterführenden (mitunter auch frequenzorientierten) Analysen anzuwenden. Anders als bei der Analyse von vom Kontext abstrahierten sprachlichen Einheiten in quantitativen Untersuchungen liegen qualitativen Auswertungen von Korpora meist umfangreichere Belegausschnitte zu Grunde. Der konkrete Verwendungskontext einer sprachlichen Einheit dient dem Forscher dazu, zu erkennen, wie in bestimmten Beispielen Bedeutungen generiert und welche Lesarten aktualisiert werden (Wynne 2008: 711). Die explorativ-interpretative Arbeit mit Korpusdaten bedient sich einer Anzahl an Methoden, die nicht ausschließlich korpuslinguistisch im engeren Sinn orientiert sein müssen. Im Folgenden sollen einige dieser Methoden benannt und im Hinblick auf verschiedene Anwendungsfelder diskutiert werden.
5.3.8 Korpusanalyse
313
Methoden qualitativer Korpusanalyse auf Grundlage von Volltexten
Volltexte können einerseits einer ersten Orientierung hinsichtlich des Untersuchungsgegenstandes dienen, im Rahmen derer Hypothesen generiert werden. Andererseits lassen sich an kompletten Texten eines bestimmten Genres oder bestimmter Varietäten, einer spezifischen Sprecher- oder Autorengruppe Charakteristika herausarbeiten, klassifizieren und/ oder mit denen anderer Texttypen oder Sprachnutzer vergleichen. Methoden der Text-, Diskurs- oder Konversationsanalyse können im Rahmen von Bedarfsanalysen, kontrastiven Untersuchungen (vgl. Schmied 2009), u. a. zu Lernersprache, oder im Hinblick auf die Erstellung von Curricula oder Lehrmaterialien zur Anwendung kommen. Abgesehen von Untersuchungen zu rein sprachlichen und textuellen Aspekten können je nach Art der Daten aber auch konkrete Inhalte der in den Korpora verfügbaren Texte von Relevanz sein, denen methodisch auf vielfältige Weise nachgegangen werden kann (vgl. hierzu Kapitel 5.3.3 – 5.3.6). Das Sichten vollständiger Texte und Kommunikationen ist häufig Ausgangspunkt für die explorative Erarbeitung von Kategorisierungen für spätere Analysestufen. Ein hermeneutisches Vorgehen bezüglich der manuellen Identifikation und Klassifizierung bestimmter in den Daten abgebildeter Phänomene sowie die rückwirkende und prüfende Anwendung dieser Klassen auf die Datensamples sollte in nachvollziehbaren induktiven und deduktiven Zyklen erfolgen und nach Möglichkeit durch weitere Forscherpersonen validiert werden (vgl. Lüdeling 2007: 38 – 39). Die aus den Auswertungsprozessen gewonnenen Kategorien lassen sich schließlich als Annotationen in das Datenkorpus einbinden und sind insbesondere für diejenigen Untersuchungsaspekte nötig, für die es entsprechende empirisch gewonnene Kategorien oder Standards nicht gibt. Für einzelne Beschreibungsebenen stehen bereits erprobte Tagsets zur Verfügung, an denen sich die manuelle Annotation orientieren kann und die für die jeweiligen Datensamples adaptiert werden können, so zum Beispiel das Stuttgart-Tübingen-TagSet (STTS) für die Wortartenannotation (POS-Tagging). Für die technische Integration induktiv erarbeiteter Annotationen können neben speziell in der Korpuslinguistik genutzten Werkzeugen wie @nnotate39 oder dem Annotation-Panel des EXMARaLDA-Partitureditors auch verschiedene QDA-Tools (Qualitative Data Analysis) verwendet werden, sofern die zur Verfügung stehenden Korpora das Herunterladen ganzer Texte zur Weiterverarbeitung zulassen. Verfügbare Tools zur (halb-)automatischen Annotation sind zum Beispiel der TreeTagger40 oder WebAnno41, das im Rahmen der CLARIN-Initiative42 aufgebaut wurde. Bei der Nutzung derartiger Tagger ist zu beachten, dass die automatisch annotierten Daten einer manuellen Qualitätsüberprüfung unterzogen werden sollten, da insbesondere im Hinblick auf Ambiguitäten bestimmter Wortformen unzuverlässige Kategorisierungen erfolgen können (vgl. hierzu auch die Hinweise von Lüdeling 2007: 32). Bei der Auswahl der Annotationssoftware sollte berücksichtigt werden, ob eine elektronische Weiterverarbeitung oder Verfügbarmachung für weitere Analyseschritte, ggf. mit zusätzlichen Such- oder Analysewerkzeugen, gewährleistet bleibt. 39 http://www.coli.uni-saarland.de/projects/sfb378/negra-corpus/annotate.html (24. 3. 2014). 40 http://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/ (24. 3. 2014). 41 https://code.google.com/p/webanno/ (24. 3. 2014). 42 https://www.clarin.eu/content/about (24. 3. 2014).
durchsuchen sortieren zählen vergleichen interpretieren
types und tokens
Volltextsuche Inhaltsanalyse Tag-Set-Suche Konkordanzsuche Schlüsselwortanalysen Type-Token-Verhältnis Kookkurrenzanalyse
induktiv (corpus driven) deduktiv (theory driven)
Muster des Sprachgebrauchs beschreiben Kompetenzentwicklung analysieren
Korpusanalysen
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Gegenwartssprache, historische Sprachstufen (nach Entstehungszeit)
schriftliche Textkorpora, mündliche Sprachdaten, multimodale Korpora (nach Medium)
Referenz-, Spezial-, Vergleichs-, Parallel-, Lernerkorpora (nach Verwendungszweck)
Korpustypen
z.B. ICLE, GeWiss, FALKO, COSMAS/DGD ...
größere, zweckgebunden zusammengestellte, digitalisierte Sammlungen authentischer schriftlicher und mündlicher Texte mit Metadaten und Annotationen
Korpus (ling.)
elektronisch gestützte Analyse größerer Mengen von Sprachdaten
5.3.8 Korpusanalyse
314 5. Forschungsverfahren
5.3.8 Korpusanalyse
315
Für die Fremdsprachenerwerbsforschung hat sich die Analyse und Beschreibung von Lernersprache und damit im Zusammenhang auch die Annotation von Fehlern als äußerst fruchtbar erwiesen (vgl. Granger 2008). Das Lernerkorpus Falko stellt fehlerannotierte Lernertexte für Analysen frei zur Verfügung (zu Prinzipien und Problemen im Zusammenhang mit Fehlerannotation vgl. Lüdeling 2007). Im Hinblick auf die Erforschung von Transfers und Interferenzen, von Fehlerursachen, der Lernprogression und zur Ermittlung von potenziellen Problemen für bestimmte Lernergruppen ist zudem der Vergleich zu Sprachstrukturen der jeweiligen Erstsprachen mittels entsprechender Parallelkorpora oder (multilingualer) Vergleichskorpora notwendig (vgl. auch Römer 2008: 117). Lernertexte und deren Analyse lassen sich darüber hinaus auch als Mittel der Sprachsensibilisierung und -förderung nutzen. So zeigt Mukherjee (2006), wie die Fehleranalyse englischsprachiger Lernertexte von deutschen Schülern zur motivierenden und konstruktiven Auseinandersetzung mit der Fremdsprache beitragen kann (vgl. dazu auch Römer 2008: 121). Methoden qualitativer Korpusanalyse auf Grundlage von Konkordanzsuchen
Konkordanzen sind im Rahmen qualitativ orientierter Korpusanalysen eine häufig genutzte Visualisierungsform, über die eine Analysegrundlage zusammengetragen und ggf. spezifiziert werden kann. Sie dienen beispielsweise der Untersuchung von Mustern und paradigmatischen Beziehungen, die sprachliche Einheiten im Sprachsystem eingehen können. Konkordanzwerkzeuge umfassen die Suchmöglichkeit nach Wörtern, Wortverbindungen und Annotationen. Die Ergebnisansicht erfolgt tabellarisch als Keyword-in-Context-Darstellung (KWIC-Konkordanz), d. h. Belege des Suchausdrucks werden mit einer definierten Anzahl der sie umgebenden Wörter angezeigt (vgl. Abb. 1). Online abruf- und analysierbare Korpora wie FOLK (über die DGD243), GeWiss, MICASE, das BNC u. a. bieten ein implementiertes Werkzeug für solche Konkordanzsuchen an. Für die Arbeit mit eigens erstellten oder unveröffentlichten Korpora stehen zahlreiche Tools zur Verfügung (vgl. Wiechmann/Fuhs 2006 und 2.1).
Abbildung 1: Konkordanzansicht zum Suchwort „vermitteln“ in den deutschsprachigen Korpora des GeWissKorpus
Darüber hinaus bieten Konkordanztools weitere Optionen zur Aufbereitung der Ergebnisse für eine eingehendere Analyse. Im Hinblick auf qualitativ bearbeitbare Forschungsfragen 43 http://dgd.ids-mannheim.de:8080/dgd/pragdb.dgd_extern.welcome (24. 3. 2014).
316
5. Forschungsverfahren
gehört hierzu die Erweiterung der Konkordanz um zusätzliche Angaben wie Metadaten oder Annotationen, die Möglichkeit des manuellen An- und Abwählens von Belegen, das Filtern der Ergebnisse nach bestimmten Kriterien, das Sortieren sowohl des Kontextes als auch anderer hinzugewählter Parameter, sowie das Exportieren der Belege, um die lokale Weiterverarbeitung mit Hilfe anderer Programme zu gewährleisten (detaillierter zu den einzelnen Operationen vgl. z. B. Wynne 2008). Diese Analyseoptionen erlauben es, relevante Belege in der Art auszuwählen, anzuordnen und zu reduzieren, wie es für das Forschungsinteresse erforderlich ist und so die Grundlage für die interpretative Auseinandersetzung mit den Datensamples zu schaffen. 3 Potenzial korpusanalytischen Vorgehens
Bisher ermöglichen die meist verwendeten Formen der Korpusaufbereitung und die gängigen korpusanalytischen Instrumente v. a. einen formorientierten Zugang zu Sprachdaten. Dadurch können zum einen Informationen zu bestimmten Arten von sprachbezogenen Daten (etwa Wortformen) sehr schnell und einfach abgerufen werden und in vielerlei Hinsicht für sprachdidaktische bzw. -forschungsbezogene Fragestellungen genutzt werden (bspw. allgemeine und domänenspezifische Wortschatzerhebung und Lexikographie, Fehleranalyse, Lernerwortschatz-Analyse, empirische Überprüfung von Vorkommen und Verwendung ausgewählter grammatisch-struktureller Phänomene). So können die genannten Phänomene (die Existenz geeigneter Korpora immer vorausgesetzt) auf einer sehr viel breiteren empirischen Basis untersucht und in ihrer didaktischen bzw. Spracherwerbsrelevanz eingeschätzt werden. Gleiches gilt für die Erstellung und Analyse von lernprozessbezogenen Korpora (wie etwa Korpora mit Unterrichtsvideographien). Andererseits besteht die Gefahr, dass Phänomene, die an der sprachlichen Oberfläche nicht (direkt) ablesbar sind (bspw. komplexe semantische und pragmatische Phänomene wie etwa bestimmte sprachliche Handlungen und Handlungsverkettungen; Ambiguitäten verschiedener Art; stark interpretationsbedürftige Phänomene) dabei aus dem Blick geraten können. Hier gilt es, in den verschiedenen Forschungsfeldern umfangreiche qualitative Analysekategorien auf- und auszubauen, zu diskutieren und letztlich mit entsprechenden Annotationsverfahren zu verbinden, so dass derartige Phänomene auch anhand größerer Korpora untersucht werden können. Ähnliches gilt für die Dimensio nen der Multimodalität (Gestik, Mimik, Proxemik) und Intonation in ihrem Zusammenspiel mit verbalem Handeln. Die Entwicklung entsprechender Analysekategorien und ihre kritische empirische Überprüfung und Weiterentwicklung ist nur möglich, wenn Korpora einer möglichst großen Öffentlichkeit zugänglich gemacht werden – im Idealfall online, wobei im Einzelfall datenschutzrechtliche Fragen zu berücksichtigen sind (etwa bei videographierten Daten). Daneben ist es aus didaktischer wie auch aus forschungsmethodischer Sicht wünschenswert, nicht nur bzw. nicht in erster Linie den quantitativen, sondern auch und vor allem den qualitativen Ausbau der Korpora voranzutreiben. Dies betrifft etwa den systematischen Ausbau von Korpora gesprochener Sprache; die Anlage von umfangreichen und konsistenten Korpus-Metadaten; die Annotation sowie den Ausbau der Bandbreite von relevanten sprachlichen Ereignissen, die in Korpora abgebildet werden. Daneben gilt es, Nutzungsbedürfnisse und Nutzungsverhalten von zentralen Nutzergruppen empirisch genauer zu erforschen (von Forschenden über Fremdsprachenlehrende bis hin zu den Lernenden) und auf dieser Grund-
5.3.8 Korpusanalyse
317
lage flexible und nutzergerechte Korpusanalyse-Funktionalitäten zu schaffen. Mit Sicherheit wird der weitere Ausbau von Korpora und die damit einhergehenden forschungsmethodischen Möglichkeiten, Wünsche und Probleme sowie die Bewertung der so erzielten Ergebnisse einen wichtigen Beitrag dazu leisten, dass forschungsmethodische Fragestellungen in der Fremdsprachendidaktik einen noch höheren Stellenwert einnehmen werden als dies bisher ohnehin schon der Fall war. ›› Literatur
Forschungsarbeiten, in denen die hier erörterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Biber, Douglas/Conrad, Susan/Cortes, Viviana (2004). If you look at …: Lexical Bundles in University Teaching and Textbooks. In: Applied Linguistics 25, 371 – 405.* Bubenhofer, Noah (2009). Sprachgebrauchsmuster. Korpuslinguistik als Methode der Diskurs- und Kulturanalyse. Berlin: de Gruyter. *Daller, Helmut/van Hout, Roeland/Treffers-Daller, Jeanine (2003). Lexical Richness in the Spontaneous Spech of Bilinguals. In: Applied Linguistics 24, 197 – 222. Granger, Sylviane (2008). Learner Corpora. In: Lüdeling, Anke/Kytö, Merja (Hg.), 259 – 275. *Granger, Sylviane/Paquot, Magali (2009). Lexical Verbs in Academic Discourse: A corpus-driven Study of Learner Use. In: Charles, Maggi/Pecorari, Diane/Hunston, Susan (Hg.). Academic Writing. At the Interface of Corpus and Discourse. London: Contiunuum, 193 – 214. Hunston, Susan (2002). Corpora in applied linguistics. Cambridge: University Press. Lemnitzer, Lothar/Zinsmeister, Heike (2010). Korpuslinguistik. Eine Einführung, 2. Aufl. (= Narr Studienbücher). Tübingen: Narr. Lüdeling, Anke/Kytö, Merja (Hg.) (2008). Corpus Linguistics. Handbücher zur Sprach- und Kommunikationswissenschaft (HSK) 29.1, Berlin: de Gruyter. Lüdeling, Anke/Kytö, Merja (Hg.) (2009). Corpus Linguistics. Handbücher zur Sprach- und Kommunikationswissenschaft (HSK) 29.2, Berlin: de Gruyter. Lüdeling, Anke/Walter, Maik (2010). Korpuslinguistik. In: Krumm, Hans-Jürgen/Fandrych, Christian/Hufeisen, Britta/Riemer, Claudia (Hg.). Deutsch als Fremd- und Zweitsprache. Handbücher zur Sprach- und Kommunikationswissenschaft (HSK) 35.1. Berlin: de Gruyter, 315 – 322. Mukherjee, Joybrato (2006). Corpus linguistics and language pedagogy: the state of the art – and beyond. In: Braun, Sabine/Kohn, Kurt/Mukherjee, Joybrato (Hg.). Corpus Technology and Language Pedagogy: New Resources, New Tools, New Methods. Frankfurt am Main: Lang, 5 – 24. *Niederhaus, Constanze (2011). Fachsprachlichkeit in Lehrbüchern. Korpuslinguistische Analysen von Fachtexten in der beruflichen Bildung. Münster: Waxmann. *Paquot, Magali (2007). Towards a productively-oriented Academic Word List. In: Walinski, Jacek/Kredens, Krzysztof/Gozdz-Roszkowski, Stanislaw (Hg.). Corpora and ICT in Language Studies. Frankfurt am Main: Lang, 127 – 140. Scherer, Carmen (2006). Korpuslinguistik. Heidelberg: Winter. *Schlüter, Norbert (2002): Present Perfect: Eine korpuslinguistische Analyse des englischen Perfekts mit Vermittlungsvorschlägen für den Sprachunterricht.Tübingen: Narr. (Reihe Language in Performance 25 (LiP)) Stefanowitsch, Anatol (2005). Quantitative Korpuslinguistik und sprachliche Wirklichkeit. In: SolteGresser, Christiane/Struve, Karen/Ueckmann, Natascha (Hg.). Von der Wirklichkeit zur Wissenschaft:
318
5. Forschungsverfahren
aktuelle Forschungsmethoden in den Sprach-, Literatur- und Kulturwissenschaften. Münster: LIT, 147 – 161. Steyer, Kathrin/Lauer, Meike (2007). „Corpus-Driven“: Linguistische Interpretation von Kookkurrenzbeziehungen. In: Eichinger, Ludwig/Kämper, Heidrun (Hg.). Sprach-Perspektiven. Germanistische Linguistik und das Institut für Deutsche Sprache. Tübingen: Narr, 493 – 509. *Tesch, Felcitas (2000): Das englische Präsens in der gesprochenen Sprache: Tempus – Kookkurrenz – Signalgrammatik. Augsburg: Wißner. Tognini-Bonelli, Elena (2001). Corpus Linguistics at Work. Amsterdam: Benjamins. *Tschirner, Erwin (2005). Korpora, Häufigkeitslisten, Wortschatzerwerb. In: Heine, Antje/Hennig, Mathilde/Tschirner, Erwin (Hg.). Deutsch als Fremdsprache – Konturen und Perspektiven eines Faches. München: Judicium, 133 – 149. Wynne, Martin (2008). Searching and concordancing. In: Lüdeling, Anke/Kytö, Merja (Hg.) (2008), 706 – 737. *Zeldes, Amir/Lüdeling, Anke/Hirschmann, Hagen (2008). What’s hard? Quantitative evidence for difficult constructions in German learner data. In: Arppe, Antti/Sinnemäki, Kaius/Nikanne, Urpo (Hg.). Proceedings of Quantitative Investigations in Theoretical Linguistics 3 (QITL-3), Helsinki, 74 – 77. [Online: http://www.ling.helsinki.fi/sky/tapahtumat/qitl/ QITL3_Proceedings.pdf] (10. 2. 2014)P »» Zur Vertiefung empfohlen Baroni, Marco (2009). Distributions in text. In: Lüdeling, Anke/Kytö, Merja (Hg.), 803 – 822. Der Handbuchartikel stellt grundlegende Eigenheiten von Häufigkeitsverteilungen in Texten bzw. Korpora dar. Er geht insbesondere auf das Zipfsche Gesetz ein, welches besagt, dass für beliebige natürlichsprachige Textsammlungen immer nur wenige Types mit hoher Tokenfrequenz und viele Types mit niedriger Tokenfrequenz zu erwarten sind. Auch praktische Auswirkungen für die Korpusanalyse, wie die resultierende unhintergehbare Belegknappheit im Bezug auf viele Einheiten, werden diskutiert. Lüdeling, Anke (2007). Das Zusammenspiel von qualitativen und quantitativen Methoden in der Korpuslinguistik. In: Kallmeyer, Werner/Zifonun, Gisela (Hg.). Sprachkorpora – Datenmenge und Erkenntnisfortschritt (IDS-Jahrbuch 2006). Berlin: de Gruyter, 28 – 48. Der Beitrag legt zunächst dar, inwiefern auch quantitative Korpusanalysen in jedem Fall auf vorausgehenden qualitativen Datenkategorisierungsentscheidungen beruhen und durch diese beeinflusst sind. Am Beispiel der Fehlerannotation von Lernerdaten wird dann ein Verfahren der Mehrebenenenannotation vorgestellt, welches es erlaubt verschiedene, auch konfligierende Interpretationen in von den Rohdaten getrennten Ebenen festzuhalten und transparent auswertbar zu machen. Römer, Ute (2008). Corpora and language teaching. In: Lüdeling, Anke/Kytö, Merja (Hg.), 112 – 131. Römer untersucht in ihrem Beitrag die Beziehungen zwischen Korpuslinguistik und der Sprachvermittlung und gibt im Zuge dessen einen gelungenen Überblick über wichtige pädagogische und methodisch-didaktische Anwendungsfelder von Korpora im Rahmen der Sprachlehre. Stefanowitsch, Anatol/Gries, Stefan Th. (2009). Corpora and grammar. In: Lüdeling, Anke/Kytö, Merja (Hg.), 933 – 952. Der Handbuchartikel stellt den korpuslinguistischen Ansatz der Collostruction-Analyse vor, welcher Muster gemeinsamen Auftretens von lexikalischen Elementen und grammatischen Strukturen erfas-
5.3.9 Statistische Verfahren – Einleitung
319
sen will. Das statistische Verfahren wird an Beispielen illustriert und im Kontext früherer kollokationsbasierter Ansätze eingeordnet. Schmied, Josef (2009). Contrastive corpus studies. In: Lüdeling, Anke/Kytö, Merja (Hg.), 1140 – 1159. Der Beitrag skizziert aktuelle Entwicklungen und Ansätze in der kontrastiven Korpusanalyse und zeigt ihr Potential für verschiedene linguistische Disziplinen auf. Schmied betont dabei den Wert multilingualer Korpora für Untersuchungen in diesem Feld, gibt aber auch einen Ausblick auf mögliche Anwendungsbereiche in weiteren Fächern. Wiechmann, Daniel/Fuhs, Stefan (2006). Concordancing software. In: Corpus Linguistics and Linguistic Theory 2, 107 – 127. Der Artikel diskutiert und evaluiert die Funktionalitäten von zehn (kostenpflichtigen und freien) Konkordanzwerkzeugen. Er geht u. a. auf Anforderungen für den Dateninput, die jeweils angebotenen Analyse- und Darstellungsoptionen sowie die Exportmöglichkeiten ein.
5.3.9 Statistische Verfahren – Einleitung Urška Grum/Wolfgang Zydatiß 1 Zur Faktorenkomplexion des fremdsprachlichen Unterrichts
Fremdsprachenunterricht, also das Lehren und Lernen einer Fremdsprache innerhalb einer Institution (in die auch Einwirkungen von außen hineinspielen), ist ein hoch komplexes, soziokulturell eingebettetes Handlungsfeld. Fremdsprachendidaktische Forschung muss sich m.a.W. der Faktorenkomplexion des fremdsprachlichen Unterrichts stellen; d. h. die sich wechselseitig beeinflussenden Variablen müssen (so weit wie möglich) berücksichtigt bzw. isoliert und damit kontrolliert oder überhaupt erst sichtbar gemacht werden. Ausgehend von einer klar formulierten Fragestellung bieten statistische Verfahren fremdsprachendidaktisch Forschenden systematische Prozeduren, mit denen in Hypothesenform ausgewiesene Forschungsfragen objektiv überprüft und zahlenmäßig erfasste Forschungsergebnisse beschrieben und interpretiert werden können. Statistische Verfahren sind somit ein unverzichtbares „kulturelles Werkzeug“ (Vygotsky), um:
• Informationen über einen Untersuchungsgegenstand systematisch zu sammeln und darzustellen,
• aus Ergebnissen begründete Schlussfolgerungen zu ziehen sowie • validierbare Verallgemeinerungen in Bezug auf das jeweilige Erkenntnisinteresse zu formulieren. Etablierte statistische Verfahren (als mathematisch fundierte standardisierte Prozeduren) haben den großen Vorteil, in der Diskursgemeinschaft empirisch-quantitativ Forschender anerkannt und nachvollziehbar zu sein. Damit ist nicht nur eine höhere Qualität und größere Reichweite der aus den Forschungsergebnissen gezogenen Konsequenzen zu erzielen, sondern auch die Wiederholbarkeit der Analysen (unter analogen oder variierten Bedingungen) möglich, um so unser Wissen über Lehr-Lernprozesse von Fremdsprachen unter institutionell-
320
5. Forschungsverfahren
unterrichtlichen Bedingungen kontinuierlich voranzubringen. Diese empirische Realität zu ‚befragen‘ (sprich, zu erforschen), muss Aufgabe einer angewandt-praxisorientierten Disziplin wie der Fremdsprachendidaktik sein, die sich (rational-reflexiver Prämissen folgend) letztendlich der Optimierung fremdsprachlicher Lernergebnisse verschreibt. Ein kompetenter Umgang mit statistischen Methoden ist für quantitativ Forschende daher unabdingbar. Kapitel 5. 3. 10 und 5. 3. 11 geben einen Überblick über ausgewählte statistische Verfahren und bieten so eine erste Orientierungshilfe. Zur Konkretisierung und Veranschaulichung werden hier zunächst Beispiele von Einsatzmöglichkeiten statistischer Verfahren in der fremdsprachendidaktischen Forschung gegeben. Erst in jüngster Zeit werden vermehrt statistische Forschungsmethoden in der Fremdsprachenforschung eingesetzt. Rein quantitative Vorgehensweisen stellen in den Qualifikationsarbeiten nach wie vor jedoch eine Minderheit dar; gelegentlich wird von ihnen als Ergänzung zu qualitativen Methoden Gebrauch gemacht, z. B. im Rahmen von Daten- oder Methodentriangulationen (mixed methods research) (s. Kapitel 3.3). Dieser Trend zur Multiperspektivität auf einen komplexen Forschungsgegenstand kann nur begrüßt werden. Aber auch hier gilt es, das Wissen um statistische Verfahren und die Qualität in der Anwendung auszubauen. In diesem Zuge ließe sich auch der Mythos zerschlagen, für quantitative Studien seien hohe Stichprobenzahlen nötig, die von einzelnen forschenden Personen nie erreicht werden können. Auch Studien mit kleinen Stichprobengrößen können zu aufschlussreichen, methodisch sauberen Ergebnissen führen (vgl. z. B. Bortz/Lienert 2008). Zudem kann bei der Studienplanung a priori der optimale Stichprobenumfang ermittelt werden (s. u.). Nachfolgend werden Qualifikations- und Forschungsarbeiten beschrieben, in denen in sehr unterschiedlichem Ausmaß quantitative Methoden zum Einsatz kommen. Da sich die Fremdsprachenforschung diesbezüglich noch in der Entwicklungsphase befindet, ist die jeweilige Anwendung und Interpretation statistischer Analysen von ganz unterschiedlicher Qualität. 2 Anwendungsbeispiele statistischer Verfahren
Bevor Daten statistisch ausgewertet werden können, müssen sie in eine statistisch auswertbare Zahlenform gebracht werden. Beispielsweise beschreibt Özkul (2011) in ihrer Studie sehr ausführlich, wie die Antworten einer Fragebogenerhebung zur Berufs- und Studienfachwahl von Englischlehrenden als Zahlen kodiert in die Statistiksoftware SPSS (Statistical Package for the Social Sciences) aufgenommen werden können. Auch Bellingrodt (2011) zeigt, wie Daten einer Fragebogenerhebung (hier zum Einsatz von ePortfolios im Fremdsprachenunterricht) für SPSS kodiert werden können. Eine kostenlose Alternative zu SPSS bietet die Open-SourceStatistiksoftware R (www.r-project.org). Beide Statistikprogramme übernehmen die Berechnung und grafische Darstellung deskriptiver statistischer Werte wie auch die Berechnungen und Analysen komplexerer statistischer Verfahren. Das gewählte statistische Verfahren leitet sich aus der Fragestellung an die Daten ab. Gewöhnlich wird zunächst die Verteilung der Daten beschrieben. Dazu eigenen sich grafische Darstellungen (z. B. Histogramm, Polygon, Streudiagramm, Boxplot) und deskriptiv-statistische Kennzahlen, wie Maße zentraler Tendenz (z. B. Modus, Median, arithmetisches Mittel) und Dispersionsmaße (z. B. Spannweite, Quartilsabstand, Varianz, Standardabweichung). Es ist essentiell zu ermitteln, wie die Daten verteilt sind, da dies einen Einfluss auf die Wahl
5.3.9 Statistische Verfahren – Einleitung
321
geeigneter statistischer Verfahren und deren Auswertung hat. Viele gängige statistische Analyseverfahren setzen normalverteilte Daten voraus, da ihr mathematisches Modell auf dieser Grundannahme beruht. Mathematische Details dazu lassen sich ausführlicher etwa in Bortz/ Schuster (2010), Field (2013) oder Rasch et al. (2010) nachlesen. Auf die mathematische Berechnung deskriptiver Kennwerte (arithmetisches Mittel, Varianz, Standardabweichung) geht Duscha (2007) in seiner Arbeit zum Einfluss von Schrift auf das Fremdsprachenlernen in der Grundschule näher ein, bevor er diese in inferenzstatistische Folgeanalysen einfließen lässt. Sollen die gewonnenen Daten nicht nur zusammenfassend beschrieben, sondern auf ihrer Basis auch allgemeingültige, über die Stichprobe hinausgehende Hypothesen überprüft werden, müssen inferenzstatistische Verfahren herangezogen werden. Beispielsweise wird in der Studie von Staschen-Dielmann (2012) zur narrativen Kompetenz im bilingualen Geschichtsunterricht u. a. folgende, ungerichtete Forschungshypothese untersucht: Die Stichprobe der Schülerinnen und Schüler aus der 10. Jahrgangsstufe unterscheidet sich hinsichtlich des Anteils akademischer Lexik in schriftlichen Aufgaben von der der 12. Jahrgangsstufe. Diese Hypothese lässt sich in eine Nullhypothese (H0: Es besteht kein systematischer Unterschied, die Befunde resultieren zufällig aus der Zusammensetzung der Stichprobe.) und eine gegenläufige Alternativhypothese (H1: Es besteht ein systematischer Unterschied, die Befunde resultieren nicht zufällig aus der Zusammensetzung der Stichprobe.) aufteilen. Mit Hilfe eines statistischen Tests lässt sich nun formal prüfen, ob die H0 unter Annahme eines geringen Restrisikofaktors, falsch zu liegen, zugunsten der H1 verworfen werden kann. Es liegen eine ungerichtete Hypothese, metrisch skalierte, normalverteilte Daten sowie zwei unabhängige Stichproben vor, so dass ein zweiseitiger t-Test für unabhängige Stichproben gerechnet werden kann (vgl. Kapitel 5. 3. 11). Aufgrund der Befunde (t(124) = -7.99***) kann die H0 abgelehnt und die H1, unter einem geringen Restrisiko von maximal 1 % bei der Ablehnung der H0 falsch zu liegen (p < .001), angenommen werden. T-Testverfahren sind in der Fremdsprachenforschung recht weit verbreitet, da oftmals in Hinblick auf die Wirksamkeit eines Unterschiedsmerkmals oder Treatments (z. B. Bilingualer Sachfachunterricht, Einsatz vom Schriftbild, Verwendung von ePortfolios) zwei unterschiedliche Schülergruppen (Experimental- vs. Kontrollgruppe) miteinander verglichen werden sollen. In anderen Fällen interessiert beispielsweise der Vergleich von zwei Gruppen, die mehrfach einem Treatment ausgesetzt wurden; dann kann ein t-Test für abhängige Stichproben herangezogen werden. Sollen mehr als zwei Gruppen verglichen werden, kann eine Varianzanalyse (Analysis of Variance = ANOVA) eingesetzt werden. Sollen mehr als zwei Gruppen in Bezug auf mehrere Einflussfaktoren gleichzeitig verglichen werden, ließe sich eine MANOVA (Multivariate ANOVA) durchführen (vgl. z. B. Bortz/Schuster 2010, Field 2013). Beispielsweise untersuchte Biebricher (2008) in ihrer Studie zu Effekten extensiven Lesens in der Fremdsprache u. a. anhand einer univariaten Varianzanalyse mit Messwiederholung, welche Unterschiede zwischen der Experimental- und Kontrollgruppe bezüglich der Ergebnisse eines C-Tests vor und nach dem Treatment (selbstgesteuertes, extensives englisches Lesen) erreicht werden. Es wird also geprüft, ob sich die Allgemeine englische Sprachkompetenz (gemessen an einem C-Test) in den beiden Gruppen durch den vermuteten Einfluss des Treatments unterscheidet. Auch Marx (2005) setzt eine univariate Varianzanalyse mit Messwiederholung ein, um Einflussfaktoren auf Hörverstehensleistungen im Deutschen als Tertiärsprache (Deutsch als Fremd-
322
5. Forschungsverfahren
sprache nach Englisch) in einer Experimental- und einer Kontrollgruppe zu analysieren, die beide mehrfach getestet wurden. Hingegen werden Unterschiedshypothesen zwischen den beiden Gruppen bezüglich eines Merkmals zu einem bestimmten Messzeitpunkt mit Hilfe eines Mann-Whitney-U-Tests untersucht. Dieser stellt das ordinale Pendant zum t-Test für unabhängige Stichproben dar (vgl. Kapitel 5. 3. 11). Richtet sich die Forschungsfrage nicht auf die Untersuchung von Unterschiedshypothesen, sondern auf die von Zusammenhängen zwischen Variablen, eignen sich korrelationsstatistische Verfahren zur Aufklärung. Beispielsweise war für Hochstetter (2011) in ihrer Studie zu diagnostischen Kompetenzen von Grundschullehrerinnen im Englischunterricht u. a. die Frage interessant, ob es einen statistischen Zusammenhang zwischen der Güte der Einschätzung von Schülerleistungen durch Lehrende und der Übereinstimmung der Einschätzungsurteile der Lehrkräfte untereinander gab. Da es sich um metrische Daten bei beiden Variablen handelte, wurde die Korrelation nach Pearson berechnet (r = – .80**, p = .002). So konnte folgender statistischer Zusammenhang festgestellt werden: Je besser die Leistung des Kindes, desto übereinstimmender die Einschätzungen der Lehrkräfte. In der Studie von Grum (2012) hingegen lagen die Daten der Variablen metrisch und ordinal skaliert vor, so dass alle Korrelationen über den Korrelationskoeffizienten Spearmans Rho berechnet wurden. In der fremdsprachendidaktischen Forschung sieht man sich oft mit der Faktorenkomplexion des fremdsprachlichen Unterrichts konfrontiert: Es sind viele mögliche Einflussfaktoren zu berücksichtigen, die Zusammenhänge verschiedener Variablen sind nicht erkennbar, viele Variablen nicht direkt messbar – man sieht sich einer Vielzahl konfundierender Variablen gegenüber. Um Licht in das Datendickicht zu werfen, kann sich eine exploratorische Faktorenanalyse (EFA) eignen. Dieses multivariate statistische Analyseverfahren bietet die Möglichkeit, eine große Anzahl von beobachteten Variablen auf eine kleinere, übergeordnete Anzahl nicht direkt beobachtbarer Variablen (Faktoren) zu reduzieren (vgl. Kap. 5. 3. 11). Grum (2012) machte sich die EFA in ihrer Studie zu mündlichen englischen Sprachkompetenzen zunutze. Hier wurde eine große Anzahl an Daten zur mündlichen englischen Sprachfähigkeit erhoben. Über eine EFA ließen sich die Variablen, die am höchsten untereinander korrelierten, zu übergeordneten Faktoren zusammenfassen. Diese Faktoren flossen anschließend in weiterführende Analysen ein. So wurde zum einen über die EFA sichtbar, dass für dialogische Sprachverwendungen zum Teil andere Sprachkompetenzen aktiviert werden als für monologische. Folgeanalysen auf Basis der berechneten Faktoren konnten zeigen, dass sich mündliche und schriftsprachliche Kompetenzen für fortgeschrittene Englischlernende deutlicher voneinan der unterscheiden als für weniger fortgeschrittene. In analoger Weise konnte Zydatiß (2007) über einen dreistündigen Sprachleistungs- und Sprachfähigkeitstest drei distinktive Faktoren identifizieren, die eine datenreduzierende, inhaltliche Interpretation der vielfältigen Skalen dieses Tests erlauben; und zwar die Kompetenzen des Leseverstehens und des textgebunde nen Schreibens sowie die Allgemeine Sprachfähigkeit (operationalisiert über die verschiedenen Exemplare eines C-Tests). Hinsichtlich einer Erhellung von Hintergrundinformationen bei der Evaluation des Schulversuchs zum Bilingualen Unterricht konnte andererseits mittels einer EFA gezeigt werden, dass sich Schülerinnen und Schüler in bilingualen Zügen z. B. hoch signifikant von Regelschülerinnen und -schülern unterscheiden, was die aktive Nutzung des Internets angeht (wobei die Frage offen bleiben muss, ob dies als Ursache oder Wirkung zu
5.3.9 Statistische Verfahren – Einleitung
323
interpretieren ist). Ohne den Einsatz statistischer Analyseverfahren wären diese empirischen Befunde nicht möglich gewesen. Zur Entscheidungsfindung darüber, welche Fragestellung mit welchem Auswertungsverfahren beantwortet werden kann bzw. welche statistischen Analysen mit welchen Daten durchgeführt werden können, sind Baumdiagramme, wie z. B. in Field (2013: 916) oder Porte (2010: 292 – 293) dargestellt, sehr hilfreich. Denn vor der Anwendung eines statistischen Verfahrens ist es unabdingbar, sich genau über dessen Voraussetzungen und die Reichweite der Ergebnisinterpretation zu informieren. Zudem kann zur Qualitätssteigerung einer empirischen Studie a priori mittels Power-Analyse der optimale Stichprobenumfang berechnet werden (vgl. Kapitel 5. 3. 11) oder z. B. Rasch u. a. 2010, Bortz/Lienert 2008). Kann auf die Stichprobengröße jedoch kein Einfluss genommen werden (was in der schulischen Fremdsprachenforschung durchaus der Fall sein kann), lassen sich a posteriori Effekt- und Teststärke (power) berechnen und so die Qualität eines gefundenen Effekts beurteilen und die Sinnhaftigkeit einer Folgestudie abschätzen. Zudem ermöglichen diese Parameter die Vergleichbarkeit verschiedener Studien, so wie es sich etwa Hattie (2009) zunutze gemacht hat. In Grum (2012) wurden für alle dort durchgeführten t-Tests deren Effekt- und Teststärke berechnet. 3 Abschließender Appell
Der Umgang mit statistischen Verfahren gilt (nicht zuletzt unter fremdsprachendidaktisch Forschenden) als schwierig bzw. mühsam. Er ist nicht selten angstbesetzt oder wird als irrelevant abgetan. Wer sich im Rahmen einer wissenschaftsfundierten wie berufsfeldbezogenen Lehrerbildung genuin für die Vermittlung und den Erwerb von Fremdsprachen unter schulisch-unterrichtlichen Bedingungen interessiert, wird an einer forschungsbasierten quantitativen Empirie – verbunden mit einem vergleichend-prüfenden und generalisieren Nachdenken – nicht vorbeikommen. Eine derartige Forschung sollte den zusätzlichen Anspruch haben, die eigenen Ergebnisse und Implikationen so zu modellieren, dass daraus curriculare Weichenstellungen erwachsen und unterrichtsmethodische Konsequenzen sichtbar werden. ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. In eckigen Klammern werden statistische Analyseverfahren genannt, die in der jeweiligen Studie verwendet oder diskutiert werden und über deskriptive Kennwerte hinausgehen. *Bellingrodt, Lena Christine (2011): ePortfolios im Fremdsprachenunterricht. Empirische Studien zur Förderung autonomen Lernens. Frankfurt/Main: Lang. [Cramer’s V] *Biebricher, Christine (2008): Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Cronbachs Alpha, Varianzanalyse, Korrelation (Pearson)] [Referenzarbeit, Kapitel 7] Bortz, Jürgen/Lienert Gustav R. (2008): Kurzgefasste Statistik für die klinische Forschung. Leitfaden für die verteilungsfreie Analyse kleiner Stichproben. 3. Auflage. Berlin: Springer. Bortz, Jürgen/Schuster, Christof (2010): Statistik für Human- und Sozialwissenschaftler. 7. Auflage. Berlin: Springer.
324
5. Forschungsverfahren
*Duscha, Michael (2007): Der Einfluss der Schrift auf das Fremdsprachenlernen in der Grundschule. Dargestellt am Beispiel des Englischunterrichts in Niedersachsen. Dissertation. Universität Braunschweig. http://www.digibib.tu-bs.de/?docid=00 021 088 (06. 02. 2015). [t-Test] Field, Andy P. (2013): Discovering Statistics Using IBM SPSS Statistics. 4. Auflage. London: Sage. *Grum, Urška (2012): Mündliche Sprachkompetenzen deutschsprachiger Lerner des Englischen. Entwicklung eines Kompetenzmodells zur Leistungsheterogenität. Frankfurt/M.: Lang. [t-Test, Rangkorrelation (Spearman), Effekt-, Teststärke, exploratorische Faktorenanalyse; diskutiert: Kolmogoroff-Smirnov-Anpassungstest (KSA-Test), Levene-Test, Mann-Whitney-U-Test, Chi-Quadrat-Test, Rangkorrelation (Kendall), Varianzanalyse] Hattie, John (2009). Visible Learning. A Synthesis of over 800 Meta-Analyses Relating to Achievement. Oxford: Routledge. *Hochstetter, Johanna (2011): Diagnostische Kompetenz im Englischunterricht der Grundschule. Tübingen: Narr. [Korrelation (Pearson)] [Referenzarbeit, Kapitel 7] *Marx, Nicole (2005): Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines Sensibilisierungsunterrichts in „DaFnE“. Baltmannsweiler: Schneider Verlag Hohengehren. [MannWhitney-U-Test, t-Test, Varianzanalyse] [Referenzarbeit, Kapitel 7] *Özkul, Senem (2011): Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in Anglistik/Amerikanistik. Berlin: Langenscheidt. [Chi-Quadrat-Test, t-Test, Korrelation (Pearson)] [Referenzarbeit, Kapitel 7] Porte, Graeme Keith (2010): Appraising Research in Second Language Learning: A practical approach to critical analysis of quantitative research. 2. Auflage. Amsterdam: Benjamins. Rasch, Björn/Hofmann, Wilhelm/Friese, Malte/Naumann, Ewald (2010): Quantitative Methoden 1. Einführung in die Statistik für Psychologen und Sozialwissenschaftler. 3. Auflage. Berlin: Springer. *Staschen-Dielmann, Susanne (2012): Narrative Kompetenz im bilingualen Geschichtsunterricht. Frankfurt/M.: Lang. [Chi-Quadrat-Test, t-Test, Korrelation (Pearson)] *Zydatiß, Wolfgang (2007): Deutsch-Englische Züge in Berlin (DEZIBEL). Frankfurt/M.: Lang. [ChiQuadrat-Test, t-Test, Varianzanalyse, Korrelation (Pearson), exploratorische Faktorenanalyse]
5.3.10 Deskriptiv- und Inferenzstatistik Julia Settinieri 1 Begriffsklärung
Der Begriff Statistik umfasst alle Rechenverfahren, die der Beschreibung und Analyse quantitativer Daten dienen. Die Spannbreite reicht dabei von sehr einfachen, problemlos im Kopf zu rechnenden Verfahren bis hin zu sehr komplexen, ausschließlich mit Statistik-Software zu bewältigenden. Dieses Kapitel erläutert statistische Grundüberlegungen und gibt einen Überblick über die unterschiedlichen Verfahrensgruppen und ihre Einsatzmöglichkeiten mit dem Ziel, eine Auswahl aus Grundverfahren treffen zu können. Abschließend werden Möglichkeiten und Grenzen statistischen Erkenntnisgewinns diskutiert, wobei ein besonderer Schwerpunkt auf in jüngerer Zeit verstärkt diskutierten effektstärkenbasierten methodischen Herangehensweisen liegt.
5.3.10 Deskriptiv- und Inferenzstatistik
325
2 Skalenniveaus44
Der erste Schritt im Rahmen quantitativer Datenanalyse besteht darin, alle für die Untersuchung relevanten Beobachtungen (z. B. eine Unterrichtsbeobachtung, einen schriftlichen Test oder auch das Sprachverhalten von Kindern im KiTa-Alltag) in Zahlen umzuwandeln (sofern sie nicht ohnehin schon in Zahlenform vorliegen). Bei der Kodierung müssen verschiedene Regeln beachtet werden, die im Folgenden erläutert werden. Zunächst gilt, dass die Konversion einer Beobachtung bzw. einer Messung in eine Zahl einerseits von Eigenschaften des Merkmals selbst, andererseits von der Abbildung dieser Eigenschaften durch das Messinstrument abhängt. So können Merkmale beispielsweise latent oder manifest, dichotom, kategorial, diskret oder stetig ausgeprägt sein (Eigenschaften des Merkmals). Gleichzeitig kann eine genuin stetige Variable wie das Lebensalter sowohl diskret in Jahren (z. B. 14, 34, 25 Jahre usw.) als auch kategorial (z. B. Kinder vs. Jugendliche vs. Erwachsene) als auch dichotom (z. B. unter 18 vs. über 18 Jahren) modelliert werden (Eigenschaften des Messinstruments). In Abhängigkeit davon, wie differenziert das Merkmal selbst ist und wie differenziert das Instrument es misst, können vier unterschiedliche Skalenniveaus zur Abbildung von Merkmalen unterschieden werden, die jeweils unterschiedliche Rechenverfahren zulassen. Kann über die unterschiedlichen Ausprägungen einer Variable lediglich ausgesagt werden, ob das Merkmal bei den Untersuchungsteilnehmern jeweils in gleicher oder unterschiedlicher Form vorhanden (oder auch nicht vorhanden) ist, so handelt es sich um ein Merkmal auf Nominalskalenniveau. Dies trifft auf Variablen wie das Geschlecht, Sprachen, die jemand spricht, oder auch den Aufenthaltsstatus zu. Nominalen Merkmalen wird im Zuge der Kodierung einfach eine beliebige Zahl zugeordnet, wobei lediglich darauf geachtet werden muss, dass jeder gegebenen Merkmalsausprägung genau eine und immer dieselbe Zahl zugeordnet wird. Möchte ich beispielsweise Untersuchungsteilnehmer danach klassifizieren, ob sie Deutsch jeweils als L1 oder nicht als L1 sprechen, so spielt es keine Rolle, ob ich die Nichtmuttersprachler mit 1 und die Muttersprachler mit 2 oder umgekehrt kodiere oder auch ganz andere Zahlen wähle; wichtig ist nur, dass allen Nichtmuttersprachlern respektive allen Muttersprachlern die gleiche Zahl zugeordnet wird und dass sich diese Zahlen zwischen beiden Gruppen wiederum voneinander unterscheiden. Auf dem nächsthöheren Skalenniveau, der Ordinalskala, ist es nun nicht nur möglich, etwas über die Gleich- oder Verschiedenheit von Merkmalsausprägungen zu sagen, sondern die unterschiedlichen Ausprägungen darüber hinaus auch in eine Rangfolge zu bringen. Die Anordnung spiegelt dabei die unterschiedliche Intensität der Merkmalsausprägung wider, so dass Zahlen in aufsteigender Folge zugeordnet werden können. Rankings oder Schulabschlüsse sind Beispiele für ordinalskalierte Variablen. So ist es beispielsweise möglich, die Aussage zu treffen, dass eine Person mit Abitur einen höheren Schulabschluss hat als eine mit Hauptschulabschluss, so dass eine Kodierung von Schulabschlüssen z. B. mit 0 = kein Abschluss, 1 = Hauptschulabschluss, 2 = Realschulabschluss, 3 = Abitur möglich wäre. Dabei könnten theoretisch auch beliebige andere Zahlen, wie z. B. 2, 5, 23 und 69 vergeben werden, solange diese den Abschlüssen, denen sie zugeordnet werden, entsprechend aufsteigen. 44 Die Ausführungen dieses Abschnitts folgen in enger Anlehnung Rasch et al. (2006: 1 – 28).
326
5. Forschungsverfahren
Variablen auf Intervallskalenniveau als dritte Variablengruppe zeichnen sich zusätzlich dadurch aus, dass zwischen den einzelnen Merkmalsstufen exakt gleich große Abstände bestehen (Kriterium der Gleichabständigkeit), bei Verhältnisskalen tritt noch ein sog. absoluter oder auch natürlicher Nullpunkt als Kriterium hinzu. Die Verhältnisskala vereint somit alle genannten möglichen Skalencharakteristika auf sich. Für statistische Zwecke können Intervall- und Verhältnisskala als metrische Skalen zusammengefasst werden. Metrische Variablenausprägungen werden durch Zahlen repräsentiert, die die charakteristische Gleichabständigkeit der Skalenschritte abbilden. Dies gilt z. B. für Variablen wie Alter, Umfang erhaltenen Sprachunterrichts, Aufenthaltsdauer im Zielland usw. Zu beachten ist, dass manche Merkmale aufgrund im Alltag bereits zugeordneter Zahlen metrisch skaliert erscheinen, obwohl sie tatsächlich lediglich die Anforderungen an eine ordinale Skala erfüllen. So sind Schulnoten beispielsweise ordinalskaliert, da sie das Merkmal der Gleichabständigkeit nicht erfüllen. Zwar kann man wohl in der Regel davon ausgehen, dass alle Zweierschüler eine bessere Leistung gezeigt haben als die Dreierschüler und diese wiederum als die Viererschüler, dass mithin eine ordinale Rangfolge gegeben ist. Man kann jedoch nicht sagen, dass alle Zweierschüler eine exakt gleich gute Leistung erbracht hätten oder dass die Abstände zwischen allen Zweien und Dreien genauso groß wären wie die zwischen allen Dreien und Vieren. Die Vergabe von Zahlen bei der Notengebung suggeriert hier also eine Genauigkeit der Leistungsmessung, die de facto gar nicht gegeben ist. Zusammenfassend erlauben Variablen unterschiedlicher Skalenniveaus die in Tabelle 1 in Übersicht dargestellten Aussagen und Rechenoperationen, wobei die höheren die niedrigeren jeweils mit einschließen: Skalentyp
mögliche Aussagen
Beispiele
mögliche Relationen
Nominalskala
gleich/ungleich
Geschlecht, L1, Aufenthaltsstatus
=, ≠
Ordinalskala
größer/kleiner
Ranking, Schulabschluss, Schulnote
=, ≠ >,
, < +, –
Verhältnisskala (Metrische Skala)
Gleichheit von Verhältnissen
Alter, Umfang erhaltenen Sprachunterrichts, Aufenthaltsdauer im Zielland
=, ≠ >, < +, – ×, ÷
Tabelle 1: Skalenniveaus
3 Deskriptiv- vs. Inferenzstatistik
Liegen schließlich alle Variablen in Zahlenform vor, kann mit der Analyse begonnen werden. Dabei kann Statistik entweder dazu dienen, die Vielzahl der einzelnen Messwerte zusammenzufassen, so dass sie als Ganzes interpretierbar werden, oder dazu, Aussagen darüber zu
5.3.10 Deskriptiv- und Inferenzstatistik
327
treffen, ob die Zahlenverhältnisse in einer einzelnen Studie, die durchgeführt wurde, mit einer gewissen Wahrscheinlichkeit auch als exemplarisch für vergleichbare Kontexte gelten können oder ob sie über die vorliegenden Daten hinaus nicht verallgemeinerbar sind. Der Begriff ‚Statistik‘ umfasst somit in unserem Verständnis alle quantitativen Analysetechniken, mit denen empirische Daten zusammenfassend beschrieben werden können (deskriptive Statistik) bzw. mit denen auf Grund empirischer Daten Aussagen über die Richtigkeit von Hypothesen formuliert werden können (Inferenzstatistik). (Bortz 2005: 15) Deskriptivstatistik
Die deskriptive Statistik versucht also, die häufig sehr unüberschaubare Zahlenmenge, die im Rahmen quantitativer Untersuchungen entsteht, mittels weniger Kennwerte zusammenzufassen. „Hier werden Eigenschaften der Merkmale in einer Stichprobe beschrieben. Eine bestimmte Gruppe wird zu einem bestimmten Zeitpunkt beschrieben und analysiert. Deskriptivstatistische Ergebnisse sagen ausschließlich etwas über die Objekte aus, die tatsächlich untersucht wurden.“ (Wirtz/Nachtigall 2006: 29). Bei der Beschreibung einer Stichprobe geht es einerseits um die Frage, welche Werte in Bezug auf eine bestimmte Variable sehr häufig vorkommen und typische Werte darstellen (→ Maße der zentralen Tendenz), andererseits darum, wie viele Abweichungen es von diesen typischen Werten gibt (→ Streuungsmaße). In Abhängigkeit vom Skalenniveau der Variable werden dabei unterschiedliche statistische Kennwerte verwendet (vgl. Tab. 3), wobei wiederum gilt, dass für höhere Skalen prinzipiell auch Kennwerte niedrigerer Skalen zur Stichprobenbeschreibung herangezogen werden können. Um die folgenden Ausführungen zu veranschaulichen, wird ein Rechenbeispiel eingesetzt. Rechenbeispiel45
Nehmen wir an, wir hätten mit 30 Lernern, die seit einigen Monaten in Deutschland leben und von Beginn ihres Aufenthalts an studienvorbereitende Deutschkurse desselben Kursanbieters besuchen, einen Sprachtest durchgeführt, in dem maximal 100 Punkte zu erreichen waren. Die Bestehensgrenze für den Test liegt bei 50 Punkten. Je 15 Lerner unterscheiden sich in einem für die Studie relevanten Merkmal, nehmen wir an der L1, von den anderen 15, was in Tabelle 2 durch A vs. B symbolisiert wird. Außerdem wurde die Kontaktdauer mit der getesteten Sprache (in Monaten) erfasst, die gleichzeitig auch die Unterrichtsdauer in Monaten darstellt. Untersucht werden sollen die folgenden Fragestellungen: – Schneiden Untersuchungsteilnehmer mit L1 A vs. B im Test gleich oder unterschiedlich gut ab? – Besteht ein Zusammenhang zwischen der Kontaktdauer mit der Zielsprache und den Testergebnissen? 45 Vgl. bzgl. Anwendungsbeispielen und Ergebnissatzformulierungen für einzelne Testverfahren z. B. auch Larson-Hall (2012) und Gültekin-Karakoç/Feldmeier (2014) sowie erstere auch zu geeigneten graphischen Darstellungsmöglichkeiten, letztere auch zu einführenden Erläuterungen zu den entsprechenden mathematischen Formeln und zur Vorgehensweise in SPSS.
328
5. Forschungsverfahren
TN
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
TW
52
45
90
44
24
39
58
66
50
64
80
83
76
61
85
KD
2
8
8
1
1
3
1
2
4
7
7
6
3
4
6
L1
A
A
A
B
A
B
B
A
A
B
B
A
B
B
A
TN
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
TW
52
83
86
60
28
65
86
81
83
76
66
55
95
47
95
KD
9
14
13
9
8
10
10
8
12
16
17
11
9
13
14
L1
B
B
B
A
B
A
A
B
A
B
A
B
B
A
A
Tabelle 2: Testwerte (TW) und Kontaktdauer mit der Zielsprache in Monaten (KD) sowie L1 von 30 Untersuhungsteilnehmern (TN, laufend durchnummeriert)46
Als Maß der zentralen Tendenz für nominalskalierte Variablen wird der Modus oder Modalwert verwendet, der schlicht angibt, welche Merkmalsausprägung in der Stichprobe am häufigsten vorkommt. Kommen mehr als ein Merkmal in gleicher Anzahl am häufigsten vor, kann es auch mehrere Modalwerte geben, wie im Rechenbeispiel z. B. die je zweimal vorkommenden Werte 2, 6, 8 und 10 für die Kontaktdauer in Monaten der Gruppe A. Der Median, der ab Ordinalskalenniveau herangezogen werden kann, referiert den mittleren Wert in einer aufsteigend angeordneten Werteverteilung. Er halbiert die Verteilung sozusagen. Im Falle einer geraden Anzahl von Messwerten wird der Median als arithmetisches Mittel der beiden in der Mitte der Verteilung liegenden Werten gebildet. Im vorliegenden Rechenbeispiel müssten die Kontaktdauerwerte für die Gruppe A folglich 1, 2, 2, 4, 6, 6, 8, ← 8 →, 9, 10, 10, 12, 13, 14, 17 angeordnet werden, was einen Median von 8 Monaten ergäbe. Der Mittelwert im Sinne des arithmetischen Mittels schließlich darf nur für metrische Daten berechnet werden und stellt den Durchschnittswert aller Messergebnisse (Summe aller Messwerte, geteilt durch die Anzahl der Messwerte) dar, für die durchschnittliche Kontaktdauer der Gruppe A also (1 + 2 + 2 + 4 + 6 + 6 + 8 + 8 + 9 + 10 + 10 + 12 + 13 + 14 + 17) : 15 = 8,13 Monate. Da nominale Daten im eigentlichen Sinne keinen Mittelwert haben (sondern lediglich häufiger und weniger häufig vorkommende Ausprägungen), können sie auch nicht um einen Mittelwert streuen. Streuungskennwerte können folglich nur für ordinale und metrische Variablen angegeben werden. Ab Ordinalskalenniveau gibt die Variationsbreite (auch range) an, in welchem Bereich die Werte liegen, indem sie die Differenz zwischen dem größten und dem kleinsten vorkommenden Wert angibt (z. B. 17 – 1 = 16). Auch der niedrigste und höchste Wert selbst (Minimum und Maximum, z. B. 1 und 17) können referiert werden. Ergänzend zeigt der Quartilsabstand an, wie stark die mittlere Hälfte der Messwerte streut, wobei wie folgt vorgegangen wird: Die durch den Median bereits mittig geteilten Hälften der Verteilung werden erneut jeweils mittig geteilt, d. h., die Verteilung wird insgesamt geviertelt (1, 2, 2 ← 46 Obwohl es sich nur um 30 Untersuchungsteilnehmer und drei Variablen handelt und obwohl der Test nicht in seinen Einzelaufgaben, sondern bereits in Form eines Summenwertes abgebildet ist, sind aus der Wertetabelle auf den ersten Blick kaum Tendenzen bzgl. der Fragestellungen zu erkennen, was den Nutzen deskriptiver Statistik unmittelbar einsichtig erscheinen lässt.
5.3.10 Deskriptiv- und Inferenzstatistik
329
4 → 6, 6, 8, ← 8 →, 9, 10, 10 ← 12 → 13, 14, 17). Die drei Werte, die die vier Viertel jeweils voneinander trennen, werden Quartile genannt. Das zweite Quartil ist ja der Median, und der Quartilsabstand wird nun gebildet, indem die Differenz zwischen dem dritten und ersten Quartil berechnet wird (z. B. 12 – 4 = 8). Median und Quartilsabstand zusammen vermitteln einen Eindruck von der Symmetrie der Verteilung, ob sie beispielsweise links- oder rechtssteil ist, ob sich ein Deckeneffekt abzeichnet o. Ä. Maße der zentralen Tendenz
Streuungsmaße
Nominalskala
Modus/Modalwert (Mo)
---
Ordinalskala
Median (Md)
Spannweite (R [= range]), Quartilsabstand (QA)
metrische Skala
Arithmetisches Mittel/Mittelwert (M, x̅)
Varianz (s2), Standardabweichung (s, SD [= standard deviation])
Tabelle 3: Maße der zentralen Tendenz und Streuungsmaße
Bei metrischen Daten schließlich wird die Streuung als Varianz angegeben, die sich aus der Summe der quadrierten Abweichungen aller einzelnen Messwerte vom Mittelwert, dividiert durch die Anzahl der Messwerte (z. B. [1 – 8,13]2 + [2 – 8,13]2 + [2 – 8,13]2 + [4 – 8,13]2 + [6 – 8,13]2 + [6 – 8,13]2 + [8 – 8,13]2 + [8 – 8,13]2 + [9 – 8,13]2 + [10 – 8,13]2 + [10 – 8,13]2 + [12 – 8,13]2 + [13 – 8,13]2 + [14 – 8,13]2 + [17 – 8,13]2 : 15 = 22,67) berechnet. Zieht man die Wurzel aus der Varianz, erhält man die Standardabweichung (z. B. 4,72), die den Vorteil hat, dass ihr Maß der Achsenskalierung entspricht und daher unmittelbar interpretiert werden kann (z. B. 4,72 Monate). Maße der zentralen Tendenz und Streuungsmaße sollten in empirischen Studien stets für jede einzelne Variable angegeben werden. In der Regel werden dabei Testwert in Punkten von 0 – 100
Kontaktdauer in Monaten
Gruppe A
Gruppe B
Gesamt
Gruppe A
Gruppe B
Modus
66, 83
76
83
2, 6, 8, 10
1, 3, 7, 8, 9 8
Median
66
64
65,5
8
8
8
Mittelwert
66,47
65,20
65,83
8,13
7,60
7,87
Spannweite
71
67
71
16
15
16
Minimum
24
28
24
1
1
1
Maximum
95
95
95
17
16
17
Quartilsabstand
35
29
31,5
8
8
7,5
Varianz
414,84
372,03
380,28
22,27
21,40
21,15
Standard abweichung
20,37
19,29
19,50
4,72
4,63
4,60
gesamt
Tabelle 4: Vollständige deskriptive Statistik für das Rechenbeispiel (in Publikationen zu referierende Werte durch Fettung hervorgehoben)
330
5. Forschungsverfahren
für jede Variable nur die höchstmöglichen Kennwerte der zentralen Tendenz und Streuung referiert (vgl. Tab. 4). Alternativ ist jedoch auch die Wahl eines niedrigeren Skalenniveaus möglich. Im vorliegenden Beispiel wäre es z. B. denkbar, angesichts der relativ kleinen Stichprobe und der Tatsache, dass bei einem nicht-normierten Test nicht ohne Weiteres von einer Gleichabständigkeit der Skalenwerte auszugehen ist, zumindest die Testwertvariable auf Ordinalniveau herunterzuskalieren. In ähnlicher Weise betrachtet auch die Referenzarbeit von Marx (2005: 216 – 217) Daten aus einem Hörverstehenstest lediglich als ordinalskaliert, da sie zwei Gruppen vergleicht, die nur aus 14 Personen bestehen. Darüber hinaus handelt es sich bei dem eingesetzten Hörverstehenstest um keinen normierten Test, so dass das Kriterium der Gleichabständigkeit nicht als gegeben gelten kann. Inferenzstatistik
Zumeist möchte quantitative Forschung aber nicht nur eine bestimmte, ausgewählte Gruppe beschreiben, sondern vielmehr aus den Daten auch verallgemeinernde Schlussfolgerungen ziehen. Diesem Zwecke dient die Inferenzstatistik (auch schließende Statistik). „Die erfassten Personen oder Objekte werden als repräsentative Teilmenge einer Gesamtheit (Population) aufgefasst. Signifikanztests […] ermöglichen es, mit einer gewissen Fehlerwahrscheinlichkeit von den Verhältnissen in der Stichprobe auf die Verhältnisse in der Population zu schließen.“ (Wirtz/Nachtigall 2006: 29). Die Begriffe Population und Stichprobe können dabei wie folgt definiert werden: Als Grundgesamtheit (Population) bezeichnen wir allgemein alle potenziell untersuchbaren Einheiten oder ‚Elemente‘, die ein gemeinsames Merkmal (oder eine gemeinsame Merkmalskombination) aufweisen. […] Eine Stichprobe stellt eine Teilmenge aller Untersuchungsobjekte dar, die die untersuchungsrelevanten Eigenschaften der Grundgesamtheit möglichst genau abbilden soll. Eine Stichprobe ist somit ein ‚Miniaturbild‘ der Grundgesamtheit. (Bortz 2005: 86; Hervorhebung im Original)
Auf welche Population eine Studie zielt, wird im Zuge der Formulierung einer genauen Forschungsfrage vom Forscher selbst festgelegt. Für die Sprachlehr- und -lernforschung interessante Populationen könnten z. B. alle Integrationskursteilnehmenden Deutschlands, alle Schülerinnen und Schüler, die im 1. Schuljahr mit Englisch als Fremdsprache beginnen und monolingual mit Deutsch als L1 aufgewachsen sind, oder auch alle Studierenden eines bestimmten Faches einer bestimmten Universität sein. Da eine Grundgesamtheit aus rein forschungspraktischen Gründen in den seltensten Fällen vollständig untersucht werden kann, muss eine begründete Auswahl an Untersuchungsteilnehmern getroffen werden. Entscheidendes Kriterium ist dabei, dass die Stichprobe in allen für die Fragestellung relevanten Merkmalen repräsentativ für die Population sein sollte. Das bedeutet beispielsweise, dass in eine Stichprobe prozentual ebenso viele Sprecher einer bestimmten L1, durchschnittlich ebenso gebildete Personen usw. eingehen sollten wie in der Grundgesamtheit, der sie entstammt, vorhanden sind. Probanden dürfen folglich keineswegs beliebig ausgewählt werden. Vielmehr spielt das Sampling eine zentrale Rolle für die Güte einer empirischen Untersuchung und sollte sehr genau reflektiert werden (s. Kapitel 4.3).47 Zusammenfassend kann festgehalten 47 Zu Methoden der Stichprobenziehung in quantitativen Studien vgl. z. B. Bortz (2005: 86 – 89), Bortz/Döring (2006: 393 – 487), Raithel (2008: 54 – 61) und Meindl (2011: 132 – 134).
5.3.10 Deskriptiv- und Inferenzstatistik
331
werden, dass Deskriptivstatistik einen tatsächlich vorliegenden Datensatz beschreibt, während Inferenzstatistik Sachverhalte in der Population lediglich mit einer gewissen Fehlerwahrscheinlichkeit aus der Stichprobe heraus schätzt (vgl. Popham/Sirotnik 1973: 40). Inferenzstatistik geht dabei grundsätzlich hypothesentestend vor, wobei rechnerisch betrachtet sog. Null- und Alternativhypothesen formuliert und gegeneinander getestet werden. „Die Alternativhypothese postuliert dabei einen bestimmten Effekt, den die Nullhypothese negiert.“ (Bortz/Döring 2006: 25). In Publikationen wird aber zumeist nur die Alternativhy pothese angeführt. Bezogen auf das vorliegende Rechenbeispiel könnten die Untersuchungshypothesen beispielsweise lauten: – Teilnehmer der L1-Gruppen A und B schneiden im Test unterschiedlich gut ab (ungerichtete Hypothese). Alternativ könnte beispielsweise auch angenommen werden: Teilnehmer der Gruppe A schneiden im Test besser als Teilnehmer der Gruppe B ab (gerichtete Hypothese48). – Kontaktdauer mit der Zielsprache und Testergebnisse korrelieren positiv miteinander. Wichtig ist, dass die Hypothesen mit Blick auf die Population aufgestellt werden. Ein signifikantes Ergebnis liegt vor, wenn ein Signifikanztest eine sehr geringe Irrtumswahrscheinlichkeit ermittelt. Dies bedeutet, dass sich das gefundene Stichprobenergebnis nicht gut mit der Annahme vereinbaren lässt, dass in der Population die Nullhypothese gilt. Man lehnt deshalb die Nullhypothese ab und akzeptiert die Alternativhypothese. (Bortz/Döring 2006: 26 – 27)
Welches statistische Verfahren jeweils zur Hypothesentestung eingesetzt werden kann, hängt von verschiedenen Faktoren ab. Zunächst ist zwischen einfachen (univariaten und bivariaten) und komplexen (multivariaten) Verfahren, d. h. Verfahren, die mehrere Variablen in Beziehung zueinander modellieren, zu unterscheiden. Im Rahmen einfacher statistischer Verfahren hängt die Wahl zunächst davon ab, wie die entsprechenden Variablen skaliert sind und ob eine Unterschieds- oder Zusammenhangshypothese getestet werden soll. Im Falle einer Unterschiedshypothese ist für die Auswahl zusätzlich entscheidend, ob Unterschiede zwischen zwei oder mehr als zwei Gruppen untersucht werden sollen und ob die Stichproben voneinander unabhängig oder miteinander verbunden sind. Diese Auswahlkriterien sollen im Folgenden genauer erläutert werden. Unterschiedshypothesen postulieren einen Unterschied bzgl. einer Variablen zwischen zwei oder mehreren Gruppen, z. B. ‚Teilnehmer der L1-Gruppen A und B schneiden im Test unterschiedlich gut ab‘. Zusammenhangshypothesen hingegen beziehen sich auf eine einzige Gruppe bzw. Stichprobe, für die ein Zusammenhang zwischen zwei Variablen vermutet wird, z. B. ‚Kontaktdauer mit der Zielsprache und Testergebnisse korrelieren positiv miteinander‘. Sie sind in Je-desto-Formulierungen transformierbar, z. B. ‚Je länger Kontakt mit der Zielsprache besteht, desto besser fallen die Testergebnisse aus‘. Sind die zwei Variablen metrisch skaliert (wie im vorliegenden Beispiel), wird Pearsons r (auch Produkt-Moment-Korrelation) 48 Ob eine Hypothese gerichtet oder ungerichtet formuliert wird, d. h., ob eine Annahme über die Richtung eines Unterschieds oder Zusammenhangs formuliert wird oder ob dies offen gelassen wird, hängt vom Stand der bereits vorhandenen Forschung zum Thema ab. Lässt sich aus Vorstudien eine Richtungsannahme ableiten, sollte eine gerichtete Hypothese formuliert werden (vgl. genauer z. B. Brown 1988: 109 – 111, Meindl 2011: 148 – 152, Kuckartz et al. 2013: 144 – 151).
332
zwei Stichproben
mehr als zwei Stichproben
5. Forschungsverfahren
nominal
ordinal
metrisch
unabhängige Stichproben
Chi-QuadratTest
Mann-WhitneyU-Test/Rangsummentest
t-Test für unabhängige Stichproben
abhängige Stichproben
McNemar-Test
Wilcoxon-Test
t-Test für abhängige Stichproben
unabhängige Stichproben
Chi-QuadratTest
Kruskal-WallisTest
Varianzanalyse/ ANOVA
abhängige Stichproben
Cochrans Q-Test
Friedman-Test
Varianzanalyse mit Messwiederholung
Tabelle 5: Überblick über Testverfahren zur Unterschiedstestung (vgl. auch ähnliche Übersichten z. B. in Brown 1988: 160 – 161, Larson-Hall 2010: 129 – 147, Meindl 2011: 245 – 248, Field 2013: 916, Gültekin-Karakoç/Feldmeier 2014: 207)
als Korrelationskoeffizient berechnet; sind beide oder eine von beiden Variablen lediglich ordinalskaliert, wird Spearmans Rho verwendet. Im Rechenbeispiel korrelieren Kontaktdauer und Testergebnisse beispielsweise mit r = .43, p = .02 miteinander.49 Für nominale Daten kann der Kontingenzkoeffizient C herangezogen werden (vgl. Bortz 2005: 234 – 235). Bei der Berechnung von Gruppenunterschieden ist weiter zu prüfen, ob die zu verglei chenden Stichproben voneinander unabhängig gezogen wurden, ob es sich z. B. um Männer vs. Frauen oder auch um Lerner mit L1 Kurdisch vs. Arabisch vs. Türkisch handelt oder ob die Stichproben in irgendeiner Art und Weise miteinander verbunden, d. h. voneinander abhängig sind. Verbundene Stichproben liegen z. B. vor, wenn Messwiederholungen durchgeführt werden, um zu prüfen, ob sich der Sprachstand derselben Lerner zwischen dem Zeitpunkt T1 und dem Zeitpunkt T2 signifikant verbessert hat. Ist dies der Fall, sind Verfahrensvarianten der Rechenwege für unabhängige Stichproben einzusetzen (vgl. Tab. 5 für eine Übersicht). Im vorliegenden Beispiel würde die Unterschiedshypothese beispielsweise mit einem tTest geprüft, da zwei unabhängige Stichproben (Lerner der Gruppen A und B) vorliegen, die bezüglich einer metrisch skalierten Variablen (dem Sprachtest) miteinander verglichen werden sollen. Der Unterschied zwischen beiden Gruppen ist nicht signifikant (t (28) = – .18, p = .86). Für alle Verfahren gelten spezifische Voraussetzungen, wie z. B. Normalverteilung oder Varianzhomogenität der Daten, die im Vorfeld der Testung zu prüfen sind (vgl. genauer z. B. Larson-Hall 2010: 250 – 251). Sind Voraussetzungen metrischer Verfahren verletzt, ist es im Rahmen einfacher statistischer Verfahren häufig sinnvoll, die korrespondierenden ordinalen Verfahren einzusetzen. Einen Einblick in komplexere statistische Verfahren bietet das Folgekapitel (vgl. für eine knappe Verfahrensübersicht auch Settinieri 2012: 266). 49 Zur Interpretation dieser und der folgenden statistischen Kennwerte vgl. die Erläuterungen in Abschnitt 4.
5.3.10 Deskriptiv- und Inferenzstatistik
333
4 Signifikanz, Effektstärke, Teststärke und Stichprobenumfang
Herkömmlich werden statistische Ergebnisse auf Grundlage eines p-Wertes (p für engl. probability) interpretiert, also der prozentualen Angabe einer Wahrscheinlichkeit. Und zwar gibt der Wert an, wie hoch die Wahrscheinlichkeit ist, ein vorgefundenes (oder noch deutlicher für die Alternativhypothese sprechendes) Ergebnis in einer Stichprobe vorzufinden, wenn in der Population die Nullhypothese gilt (vgl. genauer Faller 2004: 175). Ein p-Wert von 0.05 oder 5 % sagt aus, dass der Mittelwert unserer Stichprobe so weit vom Populationsmittelwert abweicht, dass er (oder ein extremerer Wert) per Zufall in 5 % aller Stichproben vorkommen würde, die aus dieser Population gezogen werden. Es hat sich nun im Laufe der Zeit eingebürgert, diese Wahrscheinlichkeit von 5 % für selten genug zu erachten, um den Schluss zu ziehen, dass unsere Stichprobe wohl nicht aus einer Population stammt, von der sie so weit abweicht, dass dies nur in 5 % der Fälle auch zufälligerweise zustande kommen kann. (Faller 2004: 175)
Letztendlich handelt es sich also um eine willkürliche, konventionelle Festlegung des Signifikanz-Niveaus. Eingebürgert haben sich ferner weitere Niveau-Abstufungen.50 Bedacht werden sollte allerdings, dass 5 % Fehlerquote auch bedeuten, dass durchschnittlich jede 20. Messung fälschlich signifikant wird. Dieser Umstand wird vor allem dann kritisch, wenn eine große Anzahl von Hypothesentestungen durchgeführt wird (vgl. Faller 2004: 175, Larson-Hall 2010: 252, Bühner/Ziegler 2009: 551 – 554). Außerdem bedeutet ein nicht sig nifikantes Ergebnis keinesfalls, dass die Nullhypothese deshalb zutreffend wäre; vielmehr bleibt die Frage, ob ein Effekt vorliegt, genau genommen offen (vgl. Bortz/Döring 2006: 26 – 27). Denn neben dem sog. Alpha-Fehler (auch Fehler 1. Art), der im Signifikanz-Niveau ausgedrückt wird, ist auch der Beta-Fehler (auch Fehler 2. Art) in Betracht zu ziehen. Während der Alpha-Fehler den Fall beschreibt, dass ein in der Stichprobe vorgefundener Effekt in der Population nicht vorhanden ist, bezieht sich der Beta-Fehler auf den umgekehrten Fall, dass in der Stichprobe kein Effekt gefunden wird, obwohl er in der Population existiert (vgl. Tab. 6). Obgleich sich die Forschung lange Zeit ausschließlich auf den Alpha-Fehler konzentriert hat, gibt es Forschungszusammenhänge, in denen ein Beta-Fehler durchaus problematischer als ein Alpha-Fehler sein kann. Denkt man z. B. an die Medizinforschung, so wäre es u. U. problematischer, die tatsächlich sehr hohe Wirksamkeit eines Medikaments im Kampf gegen eine gefährliche Krankheit nicht entdeckt zu haben als ein unwirksames, den Zustand eines Patienten aber auch nicht verschlimmerndes Medikament fälschlich für wirksam gehalten zu haben. Population
Stichprobenentscheidung
H0
H1
H0
✔
Beta-Fehler
H1
Alpha-Fehler
✔
Tabelle 6: Alpha- und Beta-Fehler
50 So findet sich in der Literatur häufig eine Differenzierung in p > 0.05 (nicht signifikant, n.s.), p ≤ 0.05* (signifikant), p ≤ 0.01** (sehr signifikant) und p ≤ 0.001*** (hoch signifikant).
334
5. Forschungsverfahren
Die (alleinige) Aussagekraft des p-Wertes wird nun allerdings zunehmend noch viel grundsätzlicher in Frage gestellt, wie Faller (2004: 175 – 176; vgl. auch Larson-Hall 2012: 248 – 249) zusammenfassend erläutert: Die Signifikanzprüfung hat mehrere erhebliche Nachteile: 1. Sie setzt ein willkürliches, dichotomes Kriterium; 2. ob dieses Kriterium erfüllt wird oder nicht, hängt aber sehr wesentlich von der Stichprobengröße ab; 3. sie gibt uns keine Information über die Größe und 4. über die […] Bedeutsamkeit eines Effekts […]. Im Gegenteil: Ein und derselbe Effekt kann in der einen Studie signifikant sein, in einer anderen, bis auf die Stichprobengröße identischen Studie hingegen nicht. […] Dass sich Wissenszuwachs entlang derartiger Ja-oder-Nein-Entscheidungen vollzieht, ist wenig plausibel; viel interessanter ist dagegen die Frage, wie groß ein Unterschied zwischen zwei Gruppen oder wie stark ein Zusammenhang zwischen zwei Merkmalen ist. Darüber enthält der p-Wert jedoch keinerlei Information. […] ‚Sehr signifikant‘ heißt nicht ‚sehr wichtig‘.
Die Abhängigkeit des Signifikanzwertes von der Stichprobengröße hängt damit zusammen, dass die Standardabweichung in sehr großen Stichproben verhältnismäßig klein ausfällt, so dass größere Abweichungen vom Mittelwert entsprechend seltener vorkommen (vgl. Faller 2004: 176). Dieser Zusammenhang hat zur Folge, dass bei sehr großen Stichproben auch sehr kleine Effekte signifikant werden, obwohl sie erkenntnistheoretisch unbedeutend sind, und bei sehr kleinen Stichproben größere, theoretisch bedeutsame Effekte nicht aufgedeckt werden können, obgleich sie vorhanden sind. Daher wird immer häufiger die zusätzliche Inbetrachtnahme von Effektstärkemaßen gefordert, welche weitere Interpretationshilfen bieten können (vgl. z. B. Rasch et al. 2006: 65 – 76, Albert/Marx 2010: 159 – 165, Larson-Hall 2010: 114 – 120). Die relative Effektstärke ist ein von der Stichprobengröße unabhängiges und damit grundsätzlich auch über unterschiedliche Studien vergleichbares Maß: „Effect size is a measure of how important the differences between groups are, or how strong the relationship between variables is.“ (Larson-Hall 2012: 248). A priori kann unter Berücksichtigung der gewünschten minimalen Effektstärke ein optimaler Stichprobenumfang für die Untersuchung berechnet werden. Während Stichprobengrößen herkömmlich entweder als anfallende Stichproben oder Daumenregeln, wie z. B. mindestens zehn Fälle pro Zelle bzw. pro Gruppe (vgl. z. B. Raithel 2008: 61 – 62) oder auch mindestens 30, um von einer Normalverteilung der Daten ausgehen zu können (vgl. z. B. Meindl 2011: 137), folgend gebildet wurden, ist es somit möglich, optimale Stichprobengrößen zu berechnen (z. B. Rasch et al. 2006: 103, Larson-Hall 2010: 104 – 111). Dies geschieht mittels Power-Analyse.51 Die Power oder Teststärke ist dabei definiert als die Wahrscheinlichkeit, mit der ein in einer Population vorhandener Effekt einer bestimmten Mindestgröße mit einer bestimmten Stichprobengröße N und einem festgelegten Alpha-Fehler auch tatsächlich entdeckt werden kann. Die Wahrscheinlichkeit, dass man bei zutreffender Alternativhypothese ein signifikantes Ergebnis erhält und dann auch die richtige Entscheidung trifft (also die Alternativhypothese auch annimmt), wird als Teststärke (power) des Signifikanztests bezeichnet. Sie wird mit dem griechischen Buch-
51 Vgl. genauer z. B. Rasch et al. (2006: 103), Atteslander (2010: 281 – 283), Larson-Hall (2010: 104 – 111); vgl. auch einschlägige Webseiten, wie z. B. G*Power 3 (http://www.psycho.uni-duesseldorf.de/abteilungen/aap/gpower3) (10. 07. 2015) oder den Statistics Calculators (http://danielsoper.com/statcalc3/default. aspx) (10. 07. 2015).
5.3.10 Deskriptiv- und Inferenzstatistik
335
staben ε (epsilon) gekennzeichnet und ist das Komplement zum Beta-Risiko, also ε = 1-β. (Meindl 2011: 153; Hervorhebung im Original)
Eine Power-Analyse zielt also auf die Frage, wie groß eine Stichprobe sein muss, damit ein bestimmter Effekt überhaupt entdeckt werden kann. Sinnvollerweise sollte die Teststärke mindestens .50, idealerweise aber .80 und mehr betragen (Larson-Hall 2010: 96 und 100 – 111). Die Durchführung einer Power-Analyse im Vorfeld einer empirischen Studie kann einerseits dazu beitragen, Studien mit zu kleiner Stichprobe und Teststärke gar nicht erst durchzuführen bzw. andererseits Studien von vornherein mit einem genau berechneten, zur Aufdeckung eines bestimmten Effekts notwendigen N planen zu können (Stichprobenplanung). A posteriori kann ein Blick auf die Effekt- und Teststärken im Falle signifikanter Ergebnisse die Vergleichbarkeit unterschiedlicher Studien ermöglichen, im Falle nicht signifikanter Ergebnisse aufzeigen, ob eine weitere Untersuchung auf Basis einer größeren Stichprobe interessant sein könnte. Als Effektstärkemaß für t-Tests wird häufig Cohens d (Cohen 1988; berechnet aus der Differenz beider Stichprobenmittelwerte, geteilt durch die gemeinsame Standardabweichung über alle Messwerte, vgl. z. B. Lind 2012: 7 – 8) herangezogen, wobei konventionell d = 0.2 als kleiner, 0.5 als mittlerer und 0.8 als großer Effekt gelten und der Wert weder nach oben noch nach unten begrenzt ist.52 Larson-Hall (2012: 252) verweist jedoch auf Oswald/Plonsky (2010: 99), die auf Grundlage der Sichtung von Metaanalysen (s. Kapitel 4.5) spezifisch für die Zweitsprachenerwerbsforschung tentativ d = 0.4, 0.7 und 1.0 als Richtwerte vorschlagen. Im vorliegenden Rechenbeispiel liegt die Effektstärke bei d = 0.06, ist also sehr gering. Ein Beispiel für die konsequente Berücksichtigung der Effektstärke im Rahmen eines quasiexperimentellen Vergleichs zwischen zwei unverbundenen Stichproben ist die Studie von Pietrzykowska (2011), die Effekte typographischer Hervorhebung linguistischer Strukturen auf den Erwerb indirekter Fragesätze untersucht. Obwohl mehrere Testergebnisse nicht signifikant sind, lassen sich durch den Einbezug von Effektstärken in die Diskussion der Ergebnisse relevante Schlussfolgerungen ziehen. Die Stärke des Zusammenhangs zwischen zwei metrisch skalierten Variablen wird hingegen in der Regel mit dem Produkt-Moment-Korrelationskoeffizienten r ausgedrückt, wobei r = 0.1 als kleiner, 0.3 als mittlerer und 0.5 als großer Effekt gelten (Cohen 1992: 156 – 157). Der Wert kann positiv oder negativ zwischen 0 und ±1 schwanken, wobei -1 einen maximalen negativen und +1 einen maximalen positiven Zusammenhang darstellt, während 0 für einen Nicht-Zusammenhang steht. Letztendlich hängt die Interpretation der Größe eines Effekts aber immer auch von der Fragestellung und von den Effektgrößen vergleichbarer Studien ab, so dass Richtwerte grundsätzlich zu relativieren sind. Wie weiter oben bereits erwähnt, liegt der Zusammenhang zwischen Kontaktdauer und Testergebnissen bei r = .43, was einen mittleren Effekt darstellt. Der Beitrag von Piske, MacKay und Flege (2001) zeigt exemplarisch, wie auf Basis korrelationaler Analysen der Einfluss unterschiedlicher Faktoren 52 „Effektgrößen für Unterschiede werden Abstandsmaße genannt, weil sie den Abstand der beiden Mittelwerte repräsentieren. […] Die Effektgröße d drückt einen Mittelwertsunterschied durch die Standardisierung folglich in Standardabweichungseinheiten aus. Ein d von 1 oder -1 entspricht also einer Standardabweichungseinheit und kann auch entsprechend interpretiert werden.“ (Schäfer 2011: 76, vgl. auch Larson-Hall 2012: 248). Für ANOVA-Analysen wird analog Eta-Quadrat herangezogen, das als prozentuale Varianzaufklärung interpretiert werden kann (Larson-Hall 2012: 249, 258).
336
5. Forschungsverfahren
auf den Spracherwerb (hier die Akzentuiertheit von L2-Aussprache) modelliert werden kann. Außerdem verdeutlicht die Studie, dass Korrelationen zwischen Variablen nicht als kausale Zusammenhänge missverstanden werden dürfen. Cohens d
Pearsons r
Klein
+/- 0,2
+/- 0,1
Mittel
+/- 0,5
+/- 0,3
Groß
+/- 0,8
+/- 0,5
Tabelle 7: Häufig verwendete Effektstärkenmaße (vgl. Ellis 2010: 13 – 14 für eine Gesamtübersicht)
Einschränkend ist allerdings anzumerken, dass der Wert der relativen Effektstärke von der Standardabweichung beeinflusst wird, die in unterschiedlichen Studien wiederum unterschiedlich groß sein kann, was bei der Interpretation von Metaanalysen bedacht werden muss (vgl. zu weiteren Einschränkungen auch Lind 2012: 8 – 11). Ebenfalls für die Einschätzung der praktischen Bedeutsamkeit der Ergebnisse einer quantitativen Studie herangezogen werden sollte die absolute Effektstärke, also beispielsweise der Mittelwertunterschied zwischen zwei Stichproben. Wie wir die Größe dieses Unterschieds einschätzen, hängt zunächst einmal damit zusammen, wie gut die verwendete Skala bereits erforscht ist, d. h., einerseits von unserem Wissen darüber, wie groß Effekte in vorherigen Studien auf dieser Skala waren, andererseits von unserem Wissen über lebensweltliche Konsequenzen von Unterschieden einer bestimmten Größenordnung. Lind (2012: 12 – 13) zieht als Beispiel einer sehr gut erforschten Skala Temperaturmessungen in Celsius heran. Die Temperaturskala ist uns Menschen seit langem gut vertraut. Wir wissen z. B. [sic] wie viel Energie notwendig ist, die Temperatur eines Liters Wasser von 20 Grad Celsius Raumtemperatur auf 100 Grad Kochtemperatur anzuheben. Wir wissen auch, welche Konsequenzen ein Anstieg der Körpertemperatur auf 40 Grad hat und wie wir unsere Bekleidung ändern müssen, wenn die Außentemperatur um ca. 5 Grad steigt oder fällt. (Lind 2012: 12 – 13)
In den Sozialwissenschaften hingegen variieren die Operationalisierungen und die verwendeten Skalen häufig stark und messen deutlich ungenauer, was die Interpretation von Messwertunterschieden erschwert. Darüber hinaus ist in der Regel nicht klar zu entscheiden, ab wann ein gemessener Effekt tatsächlich bedeutsam ist. Wie groß muss beispielsweise eine Verbesserung in den Mathematik-Ergebnissen des PISA-Tests sein, damit der Effekt sich a) bis zum Schulabschluss hält und b) tatsächlich zu besser qualifizierten Arbeitskräften führt? Zentral für die Einschätzung solcher Fragen ist in den Sozialwissenschaften stets der Vergleich. Wie groß ist der Effekt einer Intervention im Vergleich zu alternativen Interventionen bzw. zu einer Kontrollgruppe? Wie aufwändig ist es, ebenfalls im Vergleich zu alternativen Vorgehensweisen, diesen Effekt zu erzielen? Lohnt sich der Aufwand (Effizienz)? Und die zentrale und am schwierigsten zu beantwortende Frage lautet: Haben gemessene Effekte auch tatsächlich eine Auswirkung auf das Verhalten von Menschen (prognostische Validität; vgl. Lind 2012: 18 – 21)?
5.3.10 Deskriptiv- und Inferenzstatistik
337
Zusammenfassend sind also vier miteinander interagierende Wirkgrößen für die Planung und Interpretation einer quantitativen Studie relevant: Stichprobenumfang, Signifikanzni veau, Effektgröße und Teststärke (vgl. Abb. 1 und 2). Schließlich kann zusätzlich auch das Konfidenzintervall des Unterschieds zwischen Gruppen berechnet werden, um einen Eindruck davon zu vermitteln, innerhalb welcher Bandbreite der Effekt mit 95 %-iger Wahrscheinlichkeit liegt (Faller 2004: 178).
Abbildung 1: Zusammenhang von Alpha-Fehler, Beta-Fehler, Effektstärke und Teststärke (Bortz 2005: 123; ergänzt um Effekt und Teststärke)
In Publikationen referiert werden im Bereich der Inferenzstatistik neben dem p-Wert regulär die für die einzelnen Verfahren spezifischen Kennwerte, die häufig, aber nicht immer, auch namensgebend für das Verfahren sind, wie z. B. im Falle des Chi-Quadrat- oder des t-Tests. Darüber hinaus müssen in einigen Fällen auch Freiheitsgrade53 angegeben werden. Zusätzlich sollten Angaben zu Effekt- und Teststärke in die Interpretation eingehen.
Abbildung 2: Wechselseitige Beziehungen im Signifikanztest (nach Bortz/Döring 2006: 627)
53 Freiheitsgrade „[b]estimmen die Genauigkeit von Populationsschätzern und damit die Form von Verteilungen, die auf Schätzern basieren wie z. B. der t-Verteilung. Die Zahl der Freiheitsgrade gibt an, wie viele Werte theoretisch frei variieren können, wenn das Ergebnis bereits feststeht […]“ (Rasch et al. 2006: 53 – 55). Dabei hat jede einzelne Varianz n-1 Freiheitsgrade.
Interpretation der Rechenergebnisse
3
statistische Berechnungen
2
Umwandlung von Beobachtungen in Zahlen (Kodierung)
1
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Inferenzstatistik (schließend) - Feststellen der Signifikanz einer Beschreibung für die Population - häufig hypothesentestend (Null- vs. Alternativhypothese) - einfache (uni- bzw. bivariate) und komplexe (multivariate) Verfahren - verallgemeinernde Schlussfolgerungen
deskriptive Statistik (beschreibend) - zahlenmäßige Beschreibung von Eigenschaften einer Stichprobe - zusammenfassende Darstellung großer Datenmengen - Kennwerte: Maße der zentralen Tendenz und Streuungsmaße abhängig vom Skalenniveau
Daten (Messwerte) mit spezifischen Merkmalen - Eigenschaften eines Merkmals - Abbildung der Eigenschaften durch das Messinstrument - Skalenbildung: nominal, ordinal, metrisch
Verfahren zur Beschreibung und Analyse quantitativer Daten
5.3.10 Deskriptiv- und Inferenzstatistik
338 5. Forschungsverfahren
5.3.10 Deskriptiv- und Inferenzstatistik
339
5 Schlussfolgerungen
Zusammenfassend kann also festgehalten werden: „Ein signifikanter Effekt sollte eben nicht mit einem wichtigen Effekt verwechselt werden. Ob ein Effekt nämlich auch inhaltlich von Interesse ist, hängt von seiner Größe und der Fragestellung ab. Was aber erfahren wir über die Größe des Effektes, wenn wir einen Signifikanztest gemacht haben? Die Antwort ist: gar nichts.“ (Schäfer 2011: 71; Hervorhebung im Original). Für die Sprachlehr- und -lernforschung eröffnet die Abkehr von der ausschließlichen Fixierung auf den p-Wert interessante Perspektiven, und zwar sowohl bzgl. der Planung als auch der Auswertung quantitativer Studien. Einerseits können auch Studien mit (aus forschungspraktischen Gründen häufig nur erreichbaren) vergleichsweise kleinen Stichproben einen Erkenntnisgewinn mit sich bringen, wenn zusätzlich auf die Effektstärken geschaut wird und Replikationsstudien zu ähnlichen Ergebnissen kommen. Und in den Fällen, in denen auch große Stichproben gezogen werden können, ermöglicht eine Power-Analyse, genau zu bestimmen, wie viele Probanden benötigt werden, um einen Effekt einer bestimmten, theoretisch als relevant erachteten Stärke auch tatsächlich aufdecken zu können.54 ›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Albert, Ruth/Marx, Nicole (2010). Empirisches Arbeiten in Linguistik und Sprachlehrforschung. Anleitung zu quantitativen Studien von der Planungsphase bis zum Forschungsbericht. Tübingen: Narr. Atteslander, Peter (2010). Methoden der empirischen Sozialforschung. 13. neu bearbeitete und erweiterte Auflage. Berlin: Erich Schmidt. Bortz, Jürgen (2005). Statistik für Human- und Sozialwissenschaftler. 6. vollständig überarbeitete und aktualisierte Auflage. Heidelberg: Springer. Bortz, Jürgen/Döring, Nicola (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4. überarbeitete Auflage. Heidelberg: Springer. Brown, James Dean (1988). Understanding Research in Second Language Learning. A Teacher’s Guide to Statistics and Research Design. Cambridge: Cambridge University Press. Bühner, Markus/Ziegler, Matthias (2009). Statistik für Psychologen und Sozialwissenschaftler. München: Pearson. Cohen, Jacob (1988). Statistical Power Analysis for the Behavioral Sciences. 2. Auflage. Hillsdale, NJ: Lawrence Erlbaum. Cohen, Jacob (1992). A Power Primer. In: Psychological Bulletin 112, 155 – 159. Ellis, Paul D. (2010). The Essential Guide to Effect Sizes. Statistical Power, Meta-Analysis, and the Interpretation of Research Results. Cambridge: Cambridge University Press. Faller, Hermann (2004). Signifikanz, Effektstärke und Konfidenzintervall. Significance, Effect Size, and Confidence Interval. In: Rehabilitation 43, 174 – 178. Field, Andy (2013). Discovering Statistics Using IBM SPSS Statistics (and sex and drugs and rock ’n’ roll). 4. Auflage. Los Angeles, CA: Sage.
54 Thomas Eckes, Nazan Gültekin-Karakoç sowie dem Herausgeberteam danke ich herzlich für ihre hilfreichen Anmerkungen zu früheren Versionen dieses Aufsatzes.
340
5. Forschungsverfahren
Gültekin-Karakoç, Nazan/Feldmeier, Alexis (2014). Analyse quantitativer Daten. In: Settinieri, Julia/ Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Einführung in empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 183 – 211. Hatch, Evelyn/Lazaraton, Anne (1991). The Research Manual. Design and Statistics for Applied Linguistics. New York: Newbury House. Kuckartz, Udo/Rädiker, Stefan/Ebert, Thomas/Schehl, Julia (2013). Statistik. Eine verständliche Einführung. 2. überarbeitete Auflage. Wiesbaden: Springer VS. Larson-Hall, Jenifer (2010). A Guide to Doing Statistics in Second Language Research Using SPSS. New York: Routledge. Larson-Hall, Jenifer (2012). How to run statistical analyses. In: Mackey, Alison/Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition. Malden, MA: Wiley-Blackwell, 245 – 274. Lind, Georg (2012). Effektstärken: Statistische, praktische und theoretische Bedeutsamkeit empirischer Studien. [http://kops.uni-konstanz.de/bitstream/handle/123 456 789/21 776/Lind_217 760.pdf? sequence=2] (10. 07. 2015). *Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines Sensibilisierungsunterrichts in „DaFnE“. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Meindl, Claudia (2011). Methodik für Linguisten. Eine Einführung in Statistik und Versuchsplanung. Tübingen: Narr. Oswald, Frederick L./Plonsky, Luke (2010). Meta-analysis in second language research: Choices and challenges. In: Annual Review of Applied Linguistics 30, 85 – 110. *Pietrzykowska, Agnieszka (2011). The influence of visual input enhancement on the acquisition of English embedded questions. In: Pawlak, Mirosław (Hg.). Extending the Boundaries of Research on Second Language Learning and Teaching. Berlin: Springer, 3 – 13. *Piske, Torsten/MacKay, Ian R. A./Flege, James Emil (2001). Factors affecting degree of foreign accent in an L2. A review. In: Journal of Phonetics 29, 191 – 215. Popham, William James/Sirotnik, Kenneth A. (1973). Educational Statistics. Use and Interpretation. 2. Auflage. New York: Harper and Row. Raithel, Jürgen (2008). Quantitative Forschung. Ein Praxiskurs. 2. durchgesehene Auflage. Wiesbaden: VS. Rasch, Björn/Friese, Malte/Hofmann, Wilhelm/Naumann, Ewald (2006). Quantitative Methoden 1/2. 2. erweiterte Auflage. Heidelberg: Springer. Schäfer, Thomas (2011). Statistik II. Inferenzstatistik. Wiesbaden: VS. Settinieri, Julia (2012). Statistische Verfahren. Grundlagenbeitrag. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen. Grundlagen – Methoden – Anwendung. Tübingen: Narr, 249 – 270. Wirtz, Christof/Nachtigall, Markus (2006). Deskriptive Statistik. Statistische Methoden für Psychologen 1. 4. überarbeitete Auflage. Weinheim: Juventa.
»» Zur Vertiefung empfohlen Brown, James Dean (1988). Understanding Research in Second Language Learning. A Teacher’s Guide to Statistics and Research Design. Cambridge: Cambridge University Press. Diese fachspezifische Einführung von Brown (1988) ist ein absoluter Klassiker, der grundlegend in quantitative Forschungslogik einführt. Wiederholungs- und Anwendungsübungen am Ende jedes Kapitels ermöglichen, das Verständnis des Gelesenen selbständig zu überprüfen.
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
341
Rasch, Björn/Friese, Malte/Hofmann, Wilhelm/Naumann, Ewald (2006). Quantitative Methoden 1/2. 2. erweiterte Auflage. Heidelberg: Springer. Diese Einführung erläutert sehr kleinschrittig statistische Grundlagen, stellt allerdings ausschließlich Grundverfahren dar und spart multivariate Verfahren aus. Dafür sind Überlegungen zu Effekt- und Teststärke sowie zum Stichprobenumfang ausführlich berücksichtigt, ohne dabei zu mathematisch zu werden. Übungen und Aufgaben sowie ergänzende Online-Materialien bieten Gelegenheit, den Stoff zu vertiefen. Larson-Hall, Jenifer (2010). A Guide to Doing Statistics in Second Language Research Using SPSS. New York: Routledge. Eine der wenigen aktuellen fachspezifischen Einführung in statistische Analysen bietet Larson-Hall (2010). Besonders lesenswert ist Kapitel 4, das unter dem Titel „Changing the Way We Do Statistics“ auf neuere Überlegungen zu Effekt- und Teststärkeanalysen eingeht. Eine Kurzversion, die insbesondere auch Rechenwebseiten, Ergebnissatzformulierungen, Graphikoptionen und Beispielstudien bietet, ist Larson-Hall (2012; s. o.). Field, Andy (2013). Discovering Statistics Using IBM SPSS Statistics (and sex and drugs and rock ’n’ roll). 4. Auflage. Los Angeles, CA: Sage. Diese englischsprachige Einführung in Statistik mit SPSS ist einerseits unterhaltsam und auch für Einsteiger verständlich geschrieben, umfasst andererseits alle relevanten Grundlagen und Verfahren, so dass sich die Anschaffung auch längerfristig lohnt. Der Autor hat darüber hinaus zahlreiche weitere Statistik-Einführungen geschrieben, u. a. auch R-basierte. Backhaus, Klaus/Erichson, Bernd/Plinke, Wulff/Weiber, Rolf (2006). Multivariate Analyseverfahren. Eine anwendungsorientierte Anwendung. 11. Auflage. Berlin: Springer. Der Klassiker im Bereich der multivariaten Analyseverfahren ist Backhaus et al. (2006), der kapitelweise in die einschlägigen Verfahren einführt, so dass es problemlos möglich ist, auch nur zu einem ausgewählten Verfahren zu lesen. Allerdings ist auch diese Einführung wiederum nicht auf unser Fach bezogen. Eine fachspezifische, wenn auch etwas ältere Einführung bieten Hatch/Lazaraton (1991; s. o.).
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen Thomas Eckes 1 Einleitung
Faktorenanalysen bilden eine Klasse multivariater statistischer Analyseverfahren, die darauf abzielen, Zusammenhänge zwischen einer großen Zahl von beobachteten (manifesten) Variablen (z. B. Skalen, Aufgaben oder Items von Sprachtests) auf eine deutlich geringere Zahl von nicht direkt beobachtbaren Variablen (z. B. fremdsprachliche Kompetenzen, Formen der Sprachlernmotivation) zurückzuführen. Diese nicht direkt beobachtbaren Variablen werden als Faktoren, latente Variablen oder Dimensionen bezeichnet. Bei einer exploratorischen Faktorenanalyse (EFA) ist vor der Untersuchung weder die Zahl der Faktoren noch die Art ihrer Beziehung zu den beobachteten Variablen bekannt. Eine
342
5. Forschungsverfahren
EFA dient dazu, in den Daten möglicherweise vorhandene Strukturen aufzudecken. Diese Strukturen können zu Hypothesen darüber führen, wie die beobachteten Zusammenhänge zustande gekommen sind. Hierfür sind die Faktoren inhaltlich zu interpretieren, d. h., es sind die theoretisch bedeutsamen Variablen (Konstrukte) zu bestimmen, die den manifesten Variablen zugrunde liegen. Gibt es bereits Hypothesen oder Erklärungsansätze, so können diese mittels einer konfirmatorischen Faktorenanalyse (confirmatory factor analysis; CFA) überprüft werden. Eine CFA verlangt präzise Annahmen darüber, welche Faktoren mit welchen Variablen in Verbindung stehen; sie lässt sich damit der Formulierung und Analyse von Strukturgleichungsmodellen (structural equation modeling; SEM) subsumieren. EFA und CFA teilen die Grundannahme, dass beobachtete Zusammenhänge zwischen einer Vielzahl von Variablen auf einige wenige Faktoren zurückgehen. Unterschiede zwischen EFA und CFA liegen primär in den theoretischen Voraussetzungen und im Ziel der Analyse bzw. im Stand der Forschung (Brown 2006, Bandalos/Finney 2010, Fabrigar/Wegener 2012): In frühen Phasen eines Forschungsprozesses hilft eine EFA, beobachtete Zusammenhänge zwischen Variablen zu ordnen, die Anzahl von Faktoren zu bestimmen oder Messinstrumente (Skalen) zu entwickeln bzw. zu validieren; hierunter fällt auch die Analyse der dimensionalen Struktur von Sprachtests. In späteren Phasen, wenn schon erste empirisch gesicherte Erkenntnisse im fraglichen Gegenstandsbereich vorliegen, können im Rahmen einer CFA weiterführende Hypothesen über relevante Faktoren und ihre Beziehungen zu beobachteten Variablen formuliert und getestet werden. Eine CFA erlaubt auch den Vergleich konkurrierender Hypothesen oder Modelle. 2 Exploratorische Faktorenanalyse (EFA) Konzeption
Die Grundidee der EFA sei anhand eines fiktiven Beispiels erläutert. Um einen Test des Leseverstehens in Deutsch als Fremdsprache zu entwickeln, mögen die folgenden sieben Testverfahren oder Skalen vorliegen: (1) Ein Lesetext mit fünf Multiple-Choice-Aufgaben (Skala von 0 bis 5 Punkten); (2) ein Text mit drei offenen Fragen (0 bis 3 Punkte); (3) ein C-Test (vier Lückentexte mit je 20 Lücken; 0 bis 80 Punkte); (4) ein mündlich zu reproduzierender Text (0 bis 3 Punkte); (5) ein schriftlich zusammenzufassender Text (0 bis 3 Punkte); (6) ein Wortschatztest (0 bis 20 Punkte); (7) ein Grammatiktest (0 bis 20 Punkte). Hat eine Stichprobe von Deutschlernenden jedes dieser Testverfahren bearbeitet, lassen sich die paarweisen Zusammenhänge zwischen den Verfahren ermitteln, vorzugsweise durch Berechnung der Produkt-Moment-Korrelation (PMK). Die resultierenden 21 Korrelationen werden in einer Matrix angeordnet. Diese Korrelationsmatrix dient der EFA als Datenbasis. Die Fragen, die zu beantworten sind, könnten wie folgt lauten: Messen alle sieben Verfahren dieselbe zugrunde liegende Dimension, also die Kompetenz im Leseverstehen, oder messen sie verschiedene Dimensionen? Um welche Dimensionen handelt es sich? Sind alle Verfahren gleichermaßen geeignet zur Messung einer gegebenen Dimension? Antworten auf diese Fragen hätten auch Konsequenzen für die Testauswertung (z. B. Berechnung von Testwerten im Gesamttest oder in Subtests) sowie für die Interpretation und Verwendung der Testergebnisse (z. B. für Zwecke der Einstufung oder Zertifizierung).
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
343
Im Folgenden gehe ich davon aus, dass die manifesten Variablen in standardisierter Form vorliegen, d. h., die Werteverteilungen aller Variablen haben denselben arithmetischen Mittelwert (M = 0) und dieselbe Standardabweichung (SD = 1) bzw. Varianz (Var = 1; so genannte z-Standardisierung). Die Beziehung zwischen einer standardisierten Variablen z; und den Faktoren f1 bis fk wird in der Grundgleichung der EFA (common factor model) wie folgt aus gedrückt:
(1)
Die Gewichtungskoeffizienten ai1 bis aik geben an, wie gut die Variable zi durch die Faktoren f1 bis fk erklärt wird; diese Koeffizienten werden auch Faktorladungen genannt. Faktorladungen können als Korrelationen zwischen Variablen und Faktoren interpretiert werden. Die Faktoren f1 bis fk heißen gemeinsame Faktoren. Schließlich steht ui für die Residualvariable (uniqueness component; manchmal auch Fehlervariable genannt); die Residualvariable setzt sich zusammen aus (zufälligen) Messfehlern und (wahren) Anteilen, die auf Einflüsse eines oder mehrerer spezifischer Faktoren zurückgehen. Spezifische Faktoren sind Faktoren, die nur auf eine einzige Variable Einfluss nehmen. Im obigen Beispiel könnte dies z. B. bedeuten, dass die Leistung im Multiple-Choice-Test nicht nur von der Lesekompetenz, sondern auch von der strategischen Kompetenz beim Lösen von Multiple-Choice-Aufgaben abhängt. Abbildung 1 veranschaulicht das Modell der EFA am Beispiel eines einzigen Faktors. Eine grafische Darstellung dieser Art heißt auch Pfaddiagramm. Die Testverfahren bilden die manifesten Variablen; die Korrelationen zwischen den Testverfahren werden auf den Faktor Lesekompetenz zurückgeführt (die Pfeile zeigen die Richtung des Einflusses an). Die Residualvariablen sind mit u1 bis u7, die Faktorladungen mit a11 bis a71 bezeichnet.
Abbildung 1: Pfaddiagramm eines (fiktiven) EFA-Modells mit einem einzigen Faktor (Lesekompetenz) und sieben manifesten Variablen (Testverfahren)
344
5. Forschungsverfahren
Setzt man unkorrelierte (orthogonale) Faktoren voraus, lässt sich die Varianz einer Variablen zi, Var(zi) = 1, als Summe der quadrierten Faktorladungen und der Varianz der Residualkomponenten (Residualvarianz), Var(ui), darstellen:
(2)
Die Summe der Faktorladungsquadrate wird Kommunalität genannt. Bei der Kommunalität einer beobachteten Variablen handelt es sich um den Varianzanteil, der durch die Faktoren erklärt wird, oder anders ausgedrückt, um den Anteil der gemeinsamen Varianz an der Gesamtvarianz einer Variablen. Die Höhe der durch einen Faktor erklärten Varianz aller standardisierten Variablen wird Eigenwert des Faktors genannt. Je höher der Eigenwert eines Faktors, desto größer ist sein Einfluss auf die Variablen. Abbildung 2 veranschaulicht die Varianzzerlegung im Modell der EFA.
Abbildung 2: Aufteilung der Gesamtvarianz einer standardisierten Variablen gemäß EFA in die gemeinsame Varianz (Summe der Faktorladungsquadrate), die spezifische Varianz und die durch zufällige Messfehler bedingte Varianz
Die Reliabilität einer Variablen setzt sich aus der Kommunalität (Anteil gemeinsamer Varianz) und der Spezifität (Anteil spezifischer Varianz) zusammen. Vergleicht man die Kommunalität einer Variablen mit ihrer Reliabilität, lässt sich der mögliche Einfluss spezifischer Faktoren abschätzen. Liegt die Kommunalität etwa auf Höhe der Reliabilität, teilt die Variable einen Großteil ihrer Varianz mit den gemeinsamen Faktoren; spezifische Faktoren sind dann von geringer oder gar keiner Bedeutung. Fällt dagegen die Kommunalität deutlich niedriger aus als die Reliabilität, ist anzunehmen, dass die Residualvarianz in erheblichem Maße auf einen oder mehrere spezifische Faktoren und nicht bloß auf Messfehler zurückgeht. Hauptschritte einer EFA
Die Durchführung einer EFA gliedert sich in mehrere Schritte. Einige dieser Schritte erfordern Entscheidungen, die sich nicht oder nicht ausschließlich an objektiven Kriterien orientieren. Abbildung 3 gibt nach Art eines Flussdiagramms die Hauptschritte und ihre Abfolge wieder. Ausführliche Darstellungen geben z. B. Eid/Gollwitzer/Schmitt (2015), Hair et al. (2014) so-
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
345
wie Tabachnick/Fidell (2014). Hinweise zur praktischen Anwendung finden sich bei Henson/ Roberts (2006) sowie Osborne/Costello/Kellow (2008).
Abbildung 3: Hauptschritte einer exploratorischen Faktorenanalyse
Zunächst ist das Ziel der Analyse zu klären. Liegen bereits Hypothesen über Faktorstrukturen vor und sind diese empirisch zu prüfen, dann handelt es sich um eine konfirmatorische Fragestellung, die mit einer CFA (oder einem SEM-Ansatz) zu untersuchen wäre; andernfalls wäre eine EFA angezeigt. Prinzipiell können Zusammenhänge zwischen Variablen, Fällen oder anderen Analyseeinheiten betrachtet werden. Üblicherweise werden Korrelationen zwischen Variablen berechnet und analysiert (auch R-Technik genannt; vgl. Bortz/Schuster 2010). Werden dagegen Fälle (z. B. Testteilnehmer, Beurteiler oder Interviewer) mit Methoden der EFA untersucht,
346
5. Forschungsverfahren
spricht man von Q-Technik. Mittels Q-Technik haben z. B. Diederich/French/Carlton (1961) Beurteiler danach klassifiziert, wie sie die Qualität von Englischaufsätzen auf einer neunstufigen Skala bewerteten. Allerdings finden sich Anwendungen dieser Technik eher selten, auch weil Clusteranalysen für die Klassifikation von Objekten oder Personen in der Regel geeigneter sind (Eckes/Roßbach 1980, Bacher/Pöge/Wenzig 2010, Everitt et al. 2011). Vor der Durchführung einer EFA ist zu prüfen, ob die Daten bestimmte Voraussetzungen erfüllen. Ein Teil der Voraussetzungen betrifft das Design der Untersuchung, insbesondere den Stichprobenumfang (N), die Anzahl der manifesten Variablen und das Skalenniveau der Variablen. Wird der Umfang N zu klein gewählt, sind ungenaue oder instabile Ergebnisse (z. B. verzerrte Schätzungen der Faktorladungen) zu erwarten. In den meisten Fällen, insbesondere bei Kommunalitäten unter .60, ist ein N deutlich über 100 erforderlich. Hat man eine grobe Vorstellung von der Anzahl der gemeinsamen Faktoren, wären pro Faktor fünf oder mehr Variablen zu berücksichtigen (Hair et al. 2014). Die Variablen selber sollten zumindest annähernd als intervallskaliert betrachtet werden können. Ein anderer Teil von Voraussetzungen bezieht sich auf die Korrelationsmatrix als Datenbasis einer EFA. Üblicherweise werden lineare Zusammenhänge zwischen den Variablen angenommen (z. B. bei Berechnung der PMK). Daher sollten bivariate Streudiagramme (scatterplots) auf Abweichungen von der Linearität untersucht werden. Zudem sollten wenigstens einige Variablen substanziell miteinander korrelieren. Liegt z. B. keine Einzelkorrelation höher als .30, wäre eine EFA wenig sinnvoll (der Anteil gemeinsamer Varianz läge sehr niedrig). Ein statistischer Test hierzu ist der Bartlett-Test auf Sphärizität. Ein signifikantes Ergebnis des Tests spräche dafür, dass die Variablen in der Population tatsächlich korreliert sind; damit wäre eine Mindestvoraussetzung für die Durchführung einer EFA erfüllt. Die Faktorenextraktion, also die Bestimmung der Faktoren bzw. Faktorladungen, kann nach mehreren Methoden erfolgen. Häufig kommen die Hauptachsenanalyse (principal axis factoring; PAF) oder die Maximum-Likelihood-Methode (ML-Methode) zur Anwendung. Letztere ist zugleich die Standardmethode im Rahmen einer CFA; sie wird im Abschnitt zur CFA kurz besprochen. Die PAF ist mit der Hauptkomponentenanalyse (principal component analysis, PCA) verwandt. Aber anders als die PAF (bzw. das Modell der EFA) unterscheidet die PCA nicht zwischen gemeinsamer Varianz, spezifischer Varianz und Fehlervarianz einer beobachteten Variablen; Ziel ist es, die gesamte Varianz aufzuklären. Folglich fallen Unterschiede zwischen PAF- und PCA-Ergebnissen (unter sonst gleichen Bedingungen) umso größer aus, je höher die Anteile von spezifischer Varianz und Fehlervarianz sind. Die PCA ist eine Methode der statistischen Datenreduktion; sie dient dazu, eine Vielzahl von beobachteten Variablen unter möglichst geringem Informationsverlust zusammenzufassen, d. h. in Hauptkomponenten zu bündeln. Diese Hauptkomponenten bilden neue, unkorrelierte Variablen, die sich etwa als Prädiktoren in einer multiplen Regressionsanalyse verwenden lassen. Allerdings kommt die PCA häufig auch dann zum Einsatz, wenn eine Analyse nach dem EFA-Modell angezeigt wäre. Kritische Einschätzungen dieser weit verbreiteten Praxis geben z. B. Bandalos/BoehmKaufman (2009), Fabrigar/Wegener (2012) und Eid/Gollwitzer/Schmitt (2015). Im Fall einer PAF werden die gemeinsamen Faktoren aus einer reduzierten Korrelationsmatrix extrahiert. Diese Matrix ergibt sich aus der Ausgangsmatrix, indem die Einsen in der Hauptdiagonalen um den Anteil der Residualvarianz gemindert werden, d. h., in der Haupt-
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
347
diagonalen stehen die Kommunalitäten (bei einer PCA bleibt es dagegen bei den Einsen, weil die Gesamtvarianz der Variablen aufzuklären ist). Da aber die Kommunalitäten vor der Analyse noch unbekannt sind, müssen diese zunächst geschätzt werden (z. B. durch das Quadrat der multiplen Korrelation einer gegebenen Variablen mit allen anderen Variablen). Die Faktoren werden dann in einem iterativen Verfahren so extrahiert, dass sie (a) sukzessive ein Maximum an (gemeinsamer) Varianz der Variablen erklären und (b) voneinander unabhängig sind. Im nächsten Schritt ist die geeignete Anzahl von Faktoren zu bestimmen. Hierfür stehen wieder mehrere Methoden zur Verfügung. Den Standard bildet der Scree-Test – eine grafische Methode, bei der die Ordnungszahl der Faktoren auf der horizontalen Achse und die Höhe der Eigenwerte auf der vertikalen Achse abgetragen werden. Diejenigen Faktoren gelten als substanziell, deren Eigenwerte links von einem „Knick“ im Verlauf der Eigenwerte liegen. Daneben empfiehlt sich eine so genannte Parallelanalyse. Hierbei werden die Eigenwerte der empirischen Korrelationsmatrix mit den Eigenwerten von Matrizen gleicher Größe, die ausschließlich Zufallskorrelationen enthalten, verglichen. Für eine Interpretation in Frage kommen diejenigen Faktoren, deren Eigenwerte größer sind als die Eigenwerte, die aus einer Analyse der Zufallsdaten resultieren. Das häufig verwendete Kaiser-Kriterium, nach dem Faktoren mit Eigenwerten größer als 1 beizubehalten sind, kommt allenfalls im Rahmen einer PCA in Betracht; es hat sich zudem in Methodenstudien als wenig geeignet erwiesen (Bandalos/Boehm-Kaufman 2009, Lorenzo-Seva/Timmermann/Kiers 2011). Die Extraktion der Faktoren folgt statistischen Kriterien wie dem der sukzessiven Aufklärung maximaler Varianz. Das hat zur Folge, dass die meisten Variablen hoch auf dem ersten, varianzstärksten Faktor laden, mit deutlich niedrigeren Ladungen auf dem zweiten und allen weiteren Faktoren. Eine inhaltliche Interpretation der Faktoren wird dadurch erschwert. Um leichter interpretierbare Faktoren zu gewinnen, wird die Faktorlösung in aller Regel transformiert. Diese Transformation wird als Rotation bezeichnet. Auf den Anteil der gemeinsamen Varianz an der Gesamtvarianz der Variablen hat eine Rotation keinen Einfluss (die Varianz wird zwischen den Faktoren nur umverteilt). Ziel ist zumeist eine so genannte Einfachstruktur: Auf jedem Faktor sollten einige Variablen möglichst hoch und andere möglichst niedrig laden; außerdem sollten auf verschiedenen Faktoren verschiedene Variablen möglichst hoch laden. Als Minimum gelten Ladungen von ±0.30 bis ±0.40. Eine solide Basis für inhaltliche Interpretationen bieten Ladungen von ±0.70 oder höher; in diesem Fall erklärt ein Faktor wenigstens rund 50 % der Varianz einer Variablen (Hair et al. 2014). Es sind zwei Klassen von Rotationsmethoden zu unterscheiden. Bei einer orthogonalen Rotation (z. B. Varimax) bleiben die Faktoren unkorreliert, bei einer obliquen (schiefwinkligen) Rotation (z. B. Promax) können untereinander korrelierte Faktoren resultieren. Eine oblique Rotation kommt insbesondere dann in Betracht, wenn es gute empirische und/oder theoretische Gründe gibt, Korrelationen zwischen den Faktoren bzw. zwischen den Konstrukten, die sie repräsentieren, anzunehmen. Beispielsweise sind im Bereich des Sprachtestens Teilkompetenzen wie Leseverstehen und Hörverstehen als korreliert anzunehmen, sodass eine oblique Rotation der Faktoren angemessener wäre. Sollten die betrachteten Faktoren tatsächlich unkorreliert sein, würde eine oblique Rotation eine orthogonale Lösung liefern. Im Falle einer obliquen Rotation dürfen die Faktorladungen allerdings nicht mehr wie Korrelationen zwischen (manifesten) Variablen und Faktoren interpretiert werden. Vielmehr
348
5. Forschungsverfahren
ist zwischen Musterkoeffizienten und Strukturkoeffizienten zu unterscheiden. Ein Musterkoeffizient gibt die spezifische Beziehung zwischen einer Variablen und einem Faktor wieder; Einflüsse anderer Faktoren sind dabei herausgerechnet (statistisch kontrolliert). Ein Strukturkoeffizient gibt die einfache Korrelation zwischen einer Variablen und einem Faktor wieder; diese Korrelation schließt auch Einflüsse der anderen, korrelierten Faktoren ein. Sind die Faktoren nur schwach korreliert, nehmen Muster- und Strukturkoeffizienten ähnliche Werte an. Um die Faktorlösung und deren Interpretation empirisch abzusichern bzw. zu validieren, sind weitere Untersuchungen durchzuführen. Hierzu zählen die Variation der Extraktionsund Rotationsverfahren, die Überprüfung der Stabilität der Faktorlösung anhand von Daten einer unabhängigen Stichprobe von Teilnehmern und die Formulierung eines faktorenanalytischen Erklärungsmodells, das auf den Ergebnissen der EFA aufbaut und anhand einer CFA getestet wird. EFA-Anwendungen
Die hier skizzierten Anwendungen des EFA-Modells dienen lediglich der Illustration von Themen und Fragestellungen in fremdsprachendidaktischen Studien. Eine Besprechung einzelner Auswertungsschritte ist aus Platzgründen nicht möglich; auch sind in vielen Arbeiten die Analysen nicht detailliert genug beschrieben. Grotjahn (1987) ging der Frage nach, ob C-Tests als Lesetests verstanden werden können. Eine EFA der Korrelationen zwischen einem französischen C-Test und acht Untertests eines traditionellen Französischtests (u. a. zum Leseverstehen) lieferte einen einzigen Faktor. Auf diesem Faktor lud der C-Test mit .82 deutlich höher als die meisten Untertests und auch höher als der Untertest zum Leseverstehen (mit einer Ladung von .41) – ein Hinweis darauf, dass C-Tests nicht bloß Lesetests sind. Andere Studien zielten auf die Analyse der Lernstrategien und Interessen beim Leseverstehen in Englisch als Fremdsprache (Finkbeiner 2005), auf die Dimensionalität eines 207 Items umfassenden Englischtests (Zydatiß 2007), auf eine Betrachtung der Faktoren, die mündlicher Kompetenz in der Fremdsprache Englisch zugrunde liegen (Grum 2012), auf die Struktur curricularer Standards in der fremdsprachlichen Lehrerbildung (Schneider/ Bodensohn 2008) oder auf die Konstruktion von Skalen zur Messung von Fremdsprachverwendungsangst (foreign language anxiety), Sprachlernmotivation und sprachbezogenen Einstellungen (Grotjahn 2004, Gardner 2010). 3 Konfirmatorische Faktorenanalyse (CFA) Konzeption
Wie bereits ausgeführt ist die CFA ein hypothesentestendes, die EFA ein hypothesengenerierendes Verfahren. Das bedeutet u. a., dass bei einer EFA die Zahl der (gemeinsamen) Faktoren anhand der Daten empirisch ermittelt, bei einer CFA a priori festgelegt wird. Ebenso wird bei einer EFA die Zuordnung der manifesten Variablen zu Faktoren datengeleitet zumeist im Sinne der Einfachstruktur vorgenommen, bei einer CFA erfolgt die Zuordnung hypothesengeleitet. Die Datenbasis einer CFA bildet in der Regel nicht eine Korrelationsmatrix, sondern
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
349
eine Kovarianzmatrix; in dieser Matrix sind die Variablen nur zentriert (d. h. M = 0), nicht aber standardisiert. Das Pfaddiagramm in Abbildung 4 veranschaulicht ein einfaches CFA-Modell mit zwei latenten Faktoren, denen je zwei manifeste Variablen zugeordnet sind. Der erste Faktor steht für Sprachrezeption und die beiden zugehörigen Variablen sind separate Tests des Lese- und Hörverstehens; der zweite Faktor steht für Sprachproduktion mit zugeordneten Tests der schriftlichen bzw. mündlichen Produktion. Zudem wird postuliert, dass beide Faktoren miteinander korreliert sind (dargestellt durch den Doppelpfeil). Die Residual- bzw. Fehlerterme sind mit u1 bis u4, die Faktorladungen mit a11 und a21 (für Faktor 1, Rezeption) bzw. a32 und a42 (für Faktor 2, Produktion) bezeichnet. Ziel der Analyse ist es, die im Pfaddiagramm wiedergegebenen Hypothesen auf ihre Geltung hin zu prüfen.
Abbildung 4: Pfaddiagramm eines (fiktiven) CFA-Messmodells mit zwei korrelierten Faktoren (Rezeption, Produktion) und je zwei zugeordneten manifesten Variablen
Hauptschritte einer CFA
Die Abfolge der Hauptschritte einer CFA ist in Abbildung 5 wiedergegeben. Hier können diese zum Teil komplexen Schritte nur sehr knapp umrissen werden (vgl. für detaillierte Darstellungen Bühner 2011, Eid/Gollwitzer/Schmitt 2015, Hair et al. 2014). Zunächst ist die hypothetische Struktur in ein Messmodell zu übersetzen; d. h., es ist ein CFA-Modell zu spezifizieren, aus dem hervorgeht, welche Faktoren auf welche manifesten Variablen Einfluss nehmen; die Faktoren selber können frei miteinander korrelieren. Im allgemeineren SEM-Ansatz ist neben einem Messmodell ein Strukturmodell zu spezifizieren. Ein Strukturmodell definiert die Art der Beziehungen zwischen den Faktoren, also z. B., welche Faktoren auf bestimmte andere Faktoren direkt oder indirekt Einfluss nehmen (Kunnan 1998, Brown 2006, Ockey 2014). Damit ein CFA-Modell überprüft werden kann, ist zu gewährleisten, dass alle Parameter des Modells (z. B. Faktorladungen oder Faktorkorrelationen) anhand der gegebenen Daten eindeutig bestimmt werden können; d. h., das Modell muss statistisch identifizierbar sein. Die Modellidentifikation wird begünstigt, wenn pro Faktor mindestens drei manifeste Variablen (Indikatoren) erhoben werden (Hair et al. 2014). Die Schätzung der Modellparameter erfolgt meist mittels der Maximum-Likelihood-Methode. Diese Methode setzt neben einem hinreichend großen Stichprobenumfang (In’nami/ Koizumi 2013) voraus, dass die manifesten Variablen mindestens intervallskaliert und multi-
350
5. Forschungsverfahren
Abbildung 5: Hauptschritte einer konfirmatorischen Faktorenanalyse
variat normalverteilt sind. Das Prinzip der ML-Methode besteht darin, die vom Messmodell implizierte Kovarianzmatrix so zu schätzen, dass sie (a) die Modellvoraussetzungen erfüllt und (b) möglichst gut mit der empirischen Kovarianzmatrix übereinstimmt. Sind die Voraussetzungen für eine ML-Schätzung nicht erfüllt, können weniger anspruchsvolle Methoden zur Anwendung kommen (z. B. weighted least squares, WLS; Brown 2006, Eid/Gollwitzer/ Schmitt 2015). Die Güte der Übereinstimmung zwischen Daten und Modell, also die Anpassungsgüte oder der Modellfit, lässt sich anhand einer ganzen Reihe von statistischen Maßen bestimmen. Ein Beispiel ist der root mean square error of approximation (RMSEA). Der RMSEA gibt an, wie gering die Abweichung des zu prüfenden Modells vom wahren Modell ist. Bei RMSEAWerten kleiner als .08 spricht man von einer „akzeptablen“ Anpassung, Werte kleiner als .05 indizieren eine „gute“ Anpassung. Ist die Anpassung zufrieden stellend, wird das Modell beibehalten; ansonsten wird das Modell verworfen. In der Regel ist es ratsam, eine Entscheidung über die Annahme oder Ablehnung eines Modells auf mehrere verschiedene Maße zu stützen. Statt ein Modell zu verwerfen, könnte in Frage kommen, die Spezifikation des Modells hypothesengeleitet zu modifizieren (z. B. Korrelationen zwischen einzelnen Faktoren zuzulassen). So genannte Modifikationsindizes können hierfür wichtige Anhaltspunkte lie-
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
351
fern. Die Option der Modellmodifikation rückt den Prozess des Hypothesentestens allerdings mehr in die Nähe eines exploratorischen Vorgehens. CFA-Anwendungen
Auch hier seien Themen und Fragestellungen anhand von Untersuchungen illustriert. Das in Abbildung 4 gezeigte CFA-Modell untersuchten Eckes/Grotjahn (2006) unter Einbeziehung eines deutschen C-Tests. Der beste Modellfit ergab sich für ein Modell, in dem der C-Test dem Produktionsfaktor zugeordnet war. Da aber beide Faktoren, Produktion und Rezeption, hoch miteinander korrelierten und das Ein-Faktor-Modell ebenfalls eine zufrieden stellende Anpassung lieferte, konnten die Ergebnisse als Beleg dafür interpretiert werden, dass C-Tests allgemeine Sprachkompetenz messen. Shin (2005) verglich vier unterschiedlich komplexe Modelle der Struktur des Test of English as a Foreign Language (TOEFL) und betrachtete den relativen Modellfit in Abhängigkeit vom Fähigkeitsniveau der Sprecher. Die Struktur des TOEFL erwies sich als weitgehend invariant gegenüber den Niveauunterschieden (vgl. auch In’nami/Koizumi 2010, 2011). Porsch (2010) untersuchte die Dimensionalität von Schreibproduktionen in der Fremdsprache Englisch. Die Daten stützten ein CFA-Modell mit einem einzigen Faktor (Schreibkompetenz) und vier Kriterien bzw. manifesten Variablen (Inhalt, Organisation, Grammatik, Lexik). König et al. (2013) betrachteten die Struktur der Berufswahlmotivation angehender Lehrerinnen und Lehrer. Gute Anpassungswerte erzielte ein Modell mit 11 Faktoren. Im Ländervergleich dominierten vier motivationale Faktoren: der intrinsische Wert der Lehrertätigkeit, die selbst eingeschätzte Lehrbefähigung, der Wunsch, einen sozialen Beitrag zu leisten, und der Wunsch, mit Kindern und Jugendlichen zu arbeiten. Ein Beispiel für die Anwendung des SEM-Ansatzes findet sich bei Nold/Haudeck/Schnaitmann (1997). Die Autoren untersuchten die Einflüsse von Lernstrategien und anderen kognitiven, motivationalen und sozialen Faktoren auf die rezeptive und produktive Englischleistung in Realschulklassen des achten Schuljahres. Lernstrategien und motivationale Faktoren erwiesen sich dabei als einflussreich, während der soziale Faktor des Klassenklimas eher unbedeutend war. 4 Computerprogramme
Programme zur Durchführung exploratorischer Faktorenanalysen sind in allen gängigen kommerziellen Statistikpaketen verfügbar (z. B. in SPSS oder SAS). Dabei ist zu beachten, dass diese Statistikpakete häufig Voreinstellungen anbieten (z. B. eine PCA als Extraktionsmethode oder das Kaiser-Kriterium zur Bestimmung der Faktorenzahl), von denen in den meisten Fällen abzuraten ist. Daneben gibt es eine Reihe frei zugänglicher, leistungsstarker Programme, von denen CEFA (Browne et al. 2010), FACTOR (Lorenzo-Seva/Ferrando 2013) oder die im Programmpaket R (www.r-project.org) vorhandenen Routinen (z. B. Kubinger/ Rasch/Yanagida 2011) besonders empfehlenswert sind. Für konfirmatorische Faktorenanalysen stehen kommerzielle Spezialprogramme wie AMOS, EQS, LISREL oder Mplus zur Verfügung. Auch hier bietet R eine kostenlose Alternative.
Variable 4 Variable 6 Variable n
Variable 3
Variable 5
Variable 7
Zusammenhänge
Variable 2
Variable 1
beobachtbare Variablen
Faktor k
Faktor 2
© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG
Konfirmatorische Faktorenanalyse (CFA) Formulieren und Testen von Hypothesen, Vergleichen von Modellen
multivariate statistische Analysen
Faktor 1
nicht beobachtbare Variablen Faktorlösung (Personen x Faktoren)
Exploratorische Faktorenanalyse (EFA) Erkunden von Zusammenhängen, Strukturieren von Daten
Daten (Personen x Variablen)
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
352 5. Forschungsverfahren
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
353
›› Literatur
Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Bacher, Johann/Pöge, Andreas/Wenzig, Knut (2010). Clusteranalyse: Anwendungsorientierte Einführung in Klassifikationsverfahren. 3. Auflage. München: Oldenbourg. Bandalos, Deborah L./Boehm-Kaufman, Meggen R. (2009). Four common misconceptions in exploratory factor analysis. In: Lance, Charles E./Vandenberg, Robert J. (Hg.). Statistical and Methodological Myths and Urban Legends: Doctrine, Verity and Fable in the Organizational and Social Sciences. New York: Routledge, 61 – 87. Bandalos, Deborah L./Finney, Sara J. (2010). Factor analysis: Exploratory and confirmatory. In: Hancock, Gregory R./Mueller, Ralph O. (Hg.). The Reviewer’s Guide to Quantitative Methods in the Social Sciences. New York: Routledge, 93 – 114. Bortz, Jürgen/Schuster, Christof (2010). Statistik für Human- und Sozialwissenschaftler. 7. Auflage. Berlin: Springer. Brown, Timothy A. (2006). Confirmatory Factor Analysis for Applied Research. New York: Guilford. Browne, Michael W./Cudeck, Robert/Tateneni, Krishna/Mels, Gerhard (2010). CEFA: Comprehensive exploratory factor analysis, version 3.04 [Computersoftware und Manual]. [Online: http://faculty. psy.ohio-state.edu/browne] (15. 07. 2015) Bühner, Markus (2011). Einführung in die Test- und Fragebogenkonstruktion. 3. Auflage. München: Pearson Studium. *Diederich, Paul B./French, John W./Carlton, Sydell T. (1961). Factors in Judgments of Writing Ability (Research Bulletin No. RB-61 – 15). Princeton, NJ: Educational Testing Service. *Eckes, Thomas/Grotjahn, Rüdiger (2006). A closer look at the construct validity of C-tests. In: Language Testing 23, 290 – 325. Eckes, Thomas/Roßbach, Helmut (1980). Clusteranalysen. Stuttgart: Kohlhammer. Eid, Michael/Gollwitzer, Mario/Schmitt, Manfred (2015). Statistik und Forschungsmethoden. 4. Auflage. Weinheim: Beltz. Everitt, Brian S./Landau, Sabine/Leese, Morven/Stahl, Daniel (2011). Cluster Analysis. 5. Auflage. Chichester, UK: Wiley. Fabrigar, Leandre R./Wegener, Duane T. (2012). Exploratory Factor Analysis. New York: Oxford University Press. *Finkbeiner, Claudia (2005). Interessen und Strategien beim fremdsprachlichen Lesen: Wie Schülerinnen und Schüler englische Texte lesen und verstehen. Tübingen: Narr. *Gardner, Robert C. (2010). Motivation and Second Language Acquisition: The Socio-Educational Model. New York: Lang. *Grotjahn, Rüdiger (1987). Ist der C-Test ein Lesetest? In: Addison, Anthony/Vogel, Klaus (Hg.). Lehren und Lernen von Fremdsprachen im Studium. Bochum: AKS-Verlag, 230 – 248. *Grotjahn, Rüdiger (2004). „Test and attitude scales for the year abroad“ (TESTATT): Sprachlernmotivation und Einstellungen gegenüber Sprechern der eigenen und der fremden Sprache. In: Zeitschrift für Interkulturellen Fremdsprachenunterricht 9(2). [Online: http://zif.spz.tu-darmstadt.de/jg-09 – 2/ beitrag/Grotjahn2.htm] (15. 07. 2015) *Grum, Urška (2012). Mündliche Sprachkompetenzen deutschsprachiger Lerner des Englischen: Entwicklung eines Kompetenzmodells zur Leistungsheterogenität. Frankfurt/Main: Lang. Hair, Joseph F./Black, William C./Babin, Barry J./Anderson, Rolph E. (2014). Multivariate Data Analysis. 7. Auflage. Essex, UK: Pearson.
354
5. Forschungsverfahren
Henson, Robin K./Roberts, J. Kyle (2006). Use of exploratory factor analysis in published research: Common errors and some comment on improved practice. In: Educational and Psychological Measurement 66(3), 393 – 416. *In’nami, Yo/Koizumi, Rie (2010). Can structural equation models in second language testing and learning research be successfully replicated? In: International Journal of Testing 10, 262 – 273. *In’nami, Yo/Koizumi, Rie (2011). Structural equation modeling in language testing and learning research: A review. In: Language Assessment Quarterly 8, 250 – 276. In’nami, Yo/Koizumi, Rie (2013). Review of sample size for structural equation models in second language testing and learning research: A Monte Carlo approach. In: International Journal of Testing 13, 329 – 353. *König, Johannes/Rothland, Martin/Darge, Kerstin/Lünnemann, Melanie/Tachtsoglou, Sarantis (2013). Erfassung und Struktur berufswahlrelevanter Faktoren für die Lehrerausbildung und den Lehrerberuf in Deutschland, Österreich und der Schweiz. In: Zeitschrift für Erziehungswissenschaft 16, 553 – 577. Kubinger, Klaus D./Rasch, Dieter/Yanagida, Takuya (2011). Statistik in der Psychologie: Vom Einführungskurs bis zur Dissertation. Göttingen: Hogrefe. Kunnan, Antony J. (1998). An introduction to structural equation modelling for language assessment research. In: Language Testing 15, 295 – 332. Lorenzo-Seva, Urbano/Ferrando, Pere J. (2013). Manual of the program FACTOR, version 9.20 [Computersoftware und Manual]. [Online: http://psico.fcep.urv.es/utilitats/factor/index.html] (15. 07. 2015) Lorenzo-Seva, Urbano/Timmerman, Marieke E./Kiers, Henk A. L. (2011). The Hull method for selecting the number of common factors. In: Multivariate Behavioral Research 46, 340 – 364. *Nold, Günter/Haudeck, Helga/Schnaitmann, Gerhard W. (1997). Die Rolle von Lernstrategien im Fremdsprachenunterricht. In: Zeitschrift für Fremdsprachenforschung 8(1), 27 – 50. Ockey, Gary J. (2014). Exploratory factor analysis and structural equation modeling. In: Kunnan, Antony J. (Hg.). The Companion to Language Assessment (Bd. 3). Chichester, UK: Wiley, 1224 – 1244. Osborne, Jason W./Costello, Anna B./Kellow, J. Thomas (2008). Best practices in exploratory factor analysis. In: Osborne, Jason W. (Hg.). Best Practices in Quantitative Methods. Thousand Oaks, CA: Sage, 86 – 99. *Porsch, Raphaela (2010). Schreibkompetenzvermittlung im Englischunterricht in der Sekundarstufe I: Empirische Analysen zu Leistungen, Einstellungen, Unterrichtsmethoden und Zusammenhängen von Leistungen in der Mutter- und Fremdsprache. Münster: Waxmann. *Schneider, Christoph/Bodensohn, Rainer (2008). Curriculare Standards der fremdsprachlichen Lehrerbildung in der Praxis: Empirische Erkenntnisse. In: Beiträge zur Fremdsprachenvermittlung, Sonderheft 13, 215 – 236. *Shin, Sang-Keun (2005). Did they take the same test? Examinee language proficiency and the structure of language tests. In: Language Testing 22(1), 31 – 57. Tabachnick, Barbara G./Fidell, Linda S. (2014). Using Multivariate Statistics. 6. Auflage. Essex, UK: Pearson. *Zydatiß, Wolfgang (2007). Deutsch-Englische Züge in Berlin (DEZIBEL): Eine Evaluation des bilingualen Sachfachunterrichts an Gymnasien. Frankfurt/Main: Lang. »» Zur Vertiefung empfohlen Bühner, Markus (2011). Einführung in die Test- und Fragebogenkonstruktion. 3. Auflage. München: Pearson Studium.
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
355
Der Autor setzt sich in Kapitel 6 mit der EFA und in Kapitel 7 mit der CFA auseinander. In beiden Kapiteln werden die theoretischen und konzeptionellen Grundlagen detailliert und zugleich anschaulich dargestellt. Die praktische Durchführung einer EFA wird mittels SPSS, die Durchführung einer CFA mittels AMOS anhand von Beispielen gut nachvollziehbar erläutert. Eid, Michael/Gollwitzer, Mario/Schmitt, Manfred (2015). Statistik und Forschungsmethoden. 4. Auflage. Weinheim: Beltz. Die Autoren geben in ihrem über 1000 Seiten umfassenden Lehrbuch eine testtheoretisch fundierte Darstellung faktorenanalytischer Modelle und Methoden. Einen Schwerpunkt bilden die Anwendung von Maximum-Likelihood-Methoden der Parameterschätzung und die Überprüfung der Modellanpassung. Hair, Joseph F./Black, William C./Babin, Barry J./Anderson, Rolph E. (2014). Multivariate Data Analysis. 7. Auflage. Essex, UK: Pearson. Die Autoren behandeln in ihrem bewährten Lehrbuch ausführlich die einzelnen Schritte, die bei der Durchführung einer EFA bzw. CFA zu beachten sind. Der gewachsenen Bedeutung konfirmatorischer Ansätze tragen die Autoren durch drei separate Kapitel zu den Grundlagen von SEM, zur CFA und zur Modellprüfung Rechnung.
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen Friederike Klippel
Eine Forschungsarbeit in Angriff zu nehmen, ähnelt dem Aufbruch zu einem Abenteuer. Das trifft sowohl für die Person zu, die mit der Forschung beginnt, als auch für die, die sie ggf. dabei betreut. Abenteuerreisen sind mit einer guten Reiseleitung weniger riskant. Für Forschungsnoviz_innen ist daher eine solche Betreuung von großer Bedeutung. Angesichts der möglichen individuellen Unterschiede, die sich im jeweiligen Fall aufgrund der Arbeitsund Lebenssituationen, der Persönlichkeiten von Forscher_in und Betreuer_in, des Themas und des Forschungsansatzes ergeben, erscheint es schwierig, allgemeingültige Ratschläge und Empfehlungen zu formulieren. Wir verstehen dieses Kapitel daher nicht als ein abzuarbeitendes Programm, das feste Vorgaben für die einzelnen Etappen einer wissenschaftlichen Arbeit macht, sondern vielmehr als Hinweis auf Leitlinien, als Anregung zur Reflexion, als Angebot von Optionen, als Entscheidungshilfe oder Denkanstoß. Die Empfehlungen dieses Kapitels beruhen zum ersten auf unserer addierten Betreuungserfahrung, die weit über 50 abgeschlossene Promotionen und etwa zehn Habilitationen sowie mehrere hundert Abschlussarbeiten in den fremdsprachendidaktischen Fächern umfasst, zum zweiten auf bewährten Techniken wissenschaftlichen Arbeitens allgemein, wie wir sie selbst praktizieren, unseren Doktorand_innen empfehlen und sie in den einschlägigen, fachunspezifischen Handreichungen zu finden sind. Unsere Leitung von und Mitwirkung bei Graduiertenkollegs und Graduiertenschulen, Sommerschulen, Nachwuchstagungen, internationalen und regionalen Doktorandenseminaren und Forschungskollegs haben uns darüber hinaus Einblicke in sehr unterschiedliche Herausforderungen und Fragen zum Forschungsprozess in allen seinen Stadien verschafft. Wir meinen also, die FAQs (frequently asked questions) aus Sicht der Nachwuchswissenschaftler_innen und Betreuer_innen ganz gut zu kennen, und haben auf dieser Basis die Struktur und die Inhalte von Kapitel 6 geplant. Dennoch kann ein solches Kapitel sicherlich nicht für alle individuell existierenden Probleme oder Fragen Antworten bereithalten und auch das intensive Gespräch mit der/m jeweiligen Betreuer_in nicht ersetzen. Auch erfahrene Wissenschaftler_innen, die Promovend_innen und Habilitand_innen betreuen, können eventuell von einzelnen Ideen und Empfehlungen profitieren, die im Folgenden thematisiert werden. Forschen (und Forschende zu betreuen) bedeutet immer auch, dass man selbst viel lernt. Da kann es hilfreich sein, die eigene Reflexion festzuhalten und in Form eines Forschungs- oder Betreuungs-Tagebuchs zu dokumentieren, um sich so den eigenen Entwicklungsprozess bewusst zu machen und wertvolle Einsichten nicht zu vergessen.
358
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Jeder, der in einem Feld forscht, ist Teil einer community of practice. Eine solche Gemeinschaft definiert sich u. a. durch eine Reihe von allgemein akzeptierten Arbeitsweisen, Werten und Einstellungen. Für junge Wissenschaftler_innen ist es wichtig, sich in die community of practice zu integrieren. Das geschieht durch Teilnahme am Diskurs, etwa durch Lektüre der Fachliteratur, bei Konferenzen und anderen Veranstaltungen sowie durch die Präsentation der eigenen Forschung. Die folgenden Kapitel liefern praktische Hinweise und Reflexionshilfen für alle Phasen des Forschungsprozesses. Im Groben folgen die einzelnen Kapitel dem Ablauf eines Forschungsprojekts mit abschließender Veröffentlichung: So beginnt Kapitel 6.1 mit der Genese der Forschungsfrage, deren klare Festlegung für Forschungsnoviz_innen in der Regel nicht ganz einfach ist. Bei den meisten fremdsprachendidaktischen Forschungsvorhaben spielt das Verhältnis zwischen dem Praxisfeld des Unterrichts oder der Lehrerbildung, um nur zwei der häufig untersuchten Bereiche zu nennen, und der zugrundegelegten Theorie eine zentrale Rolle; dies ist Thema von Kapitel 6.2. In Kapitel 6.3 finden sich Hinweise und Erläuterungen zur Erstellung der Literaturüberblicke zum untersuchten Thema und zum gewählten Forschungsansatz. Die Gestaltung der eigenen Untersuchung bzw. die Konzeption des Designs ist eine besonders anspruchsvolle Herausforderung, die häufig in einem langwierigen Prozess von einer vagen Kernidee über mehrere Phasen der Präzisierung, der Ergänzung, der Umgestaltung und nicht selten auch des beherzten Zusammenschrumpfens hin zu einem komplexen – und gleichzeitig doch realisierbaren – Vorhaben bewältigt wird. Diesen kreativen Prozess, der von Forschungsnoviz_innen auch ein gewisses Maß an Frustrationstoleranz erfordert, beschreibt Kapitel 6.4. Kapitel 6.5 gibt im Anschluss sodann Hinweise dazu, wie auf der Grundlage eines solchen präzisierten Forschungsvorhabens Zeit- und Arbeitspläne erstellt werden können, und macht deutlich, dass sie im Zuge einer metakognitiven Kontrolle und Steuerung des Arbeitsprozesses immer wieder den aktuellen Gegebenheiten und Einsichten entsprechend umzustoßen bzw. weiterzuentwickeln sind. Sind Datenerhebung oder Dokumentensammlung abgeschlossen und die Ergebnisse erarbeitet, stellt sich die Herausforderung, den Ertrag der Forschungsarbeit so darzubieten, dass die zentralen Befunde deutlich herausgestellt, die offenen Fragen thematisiert und die gesammelten Erträge in den theoretischen Forschungszusammenhang eingeordnet werden (Kapitel 6.6). Anregungen für die Präsentation der eigenen Forschung in allen Phasen des Forschungsprojekts in mündlicher oder schriftlicher Form liefert Kapitel 6.7, das auch die unterschiedlichen Optionen der abschließenden Publikation erörtert. Das letzte Kapitel (6.8) befasst sich mit wichtigen Aspekten der Betreuung von wissenschaftlichen Arbeiten und will sowohl Betreuenden als auch Betreuten Hinweise geben, wie dieses Verhältnis für alle Beteiligten fruchtbar und konstruktiv gestaltet werden kann, damit das Abenteuer des Forschungsvorhabens gelingt.
6.1 Von der Idee zur Forschungsfrage
359
Von der Idee zur Forschungsfrage
6.1
Daniela Caspari
Themen von Forschungsarbeiten, die der wissenschaftlichen Qualifizierung dienen, also Dissertationen und Habilitationsschriften, können entweder im Rahmen eines größeren Projekts entstehen oder als Einzelstudie. Im ersten Fall sind Thema und Fragestellung in der Regel weitgehend vorgegeben; im zweiten Fall erwartet man, dass die betreffende Forscherin oder der Forscher Thema und Forschungsfrage selbst vorschlägt. In der Fremdsprachenforschung sind die meisten solcher Qualifikationsarbeiten bislang als Einzelstudien entstanden und sie spiegeln damit auch die Forschungsthemen der Nachwuchswissenschaftler und -wissenschaftlerinnen wider. Bis Thema, Forschungsfrage und Methode präzise bestimmt sind, kann es leicht mehrere Wochen oder auch Monate dauern. Aber diese Zeit und Mühe sind gut investiert, denn bei diesem Findungsprozess handelt sich keineswegs um eine lästige und unnütze Vorarbeit. Es ist vielmehr ein wichtiger Teil der Forschungsarbeit selbst, in dem nach und nach die entscheidenden Weichen für das Projekt gestellt und die Betreuerinnen und Betreuer eingebunden werden. Zumeist verläuft dieser herausfordernde Prozess zirkulär, denn die Aspekte „Thema“, „Forschungsfrage“ und „Design“ bzw. „Methode“ sind sehr eng miteinander verbunden und beeinflussen sich gegenseitig: Präzisierungen oder Veränderungen an einem der Aspekte erfordern zumeist auch Veränderungen an den beiden anderen.
6.1.1 Wie finde ich ein Thema? Ausgangspunkte für die Themenfindung können das eigene Studium oder die eigene Praxis sein (vgl. Schart 2001). So liefern Themen, über die man immer schon mehr wissen wollte, oder Praxiserfahrung, über die man schon längst einmal gründlicher nachdenken wollte, gute Startpunkte. Eine andere Möglichkeit besteht darin, mit der Themenwahl auf eine bestimmte berufliche Richtung (z. B. Aus- und Fortbildung, Lehrmaterialienentwicklung, Bildungsadministration) hinzuarbeiten und sich ein Themenfeld neu zu erschließen, in dem man zukünftig gerne tätig sein möchte. Man kann aber auch damit beginnen, sich einen Überblick über mögliche Forschungsgebiete und aktuelle Trends in der Fremdsprachendidaktik zu verschaffen. Um herauszufinden, zu welchen Themen gerade geforscht wird, eignen sich neben unregelmäßig erscheinenden Forschungsüberblicken (z. B. Behrent et al. 2011, Doff 2015, Gnutzmann/Königs/Küster 2011) und der auf Selbsteintrag beruhenden Chronologie der Dissertationen und Habilitationen im deutschsprachigen Raum (Sauer 2006, fortgeführt von Friederike Klippel unter http://www.dgff.de/de/qualifikationsarbeiten.html) eine Durchsicht aktueller Zeitschriften und Sammelbände. Auf diese Weise erfährt man indirekt ebenfalls, welche Themen gerade nicht im Zentrum des allgemeinen Interesses stehen, obwohl es sich möglicherweise um zentrale Fragen der Fremdsprachendidaktik bzw. des Fremdsprachenunterrichts handelt, die es lohnen, unter neuen Gesichtspunkten weiter erforscht zu werden. Möglicherweise kann auch eine Liste der Forschungsschwerpunkte und Abschlussarbeiten in
360
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
der Didaktik der jeweiligen Universität Anregungen geben, genau wie eine Empfehlung des potentiellen Betreuers bzw. der Betreuerin oder anderer Doktoranden und Doktorandinnen. Wichtig ist, dass einem das Thema persönlich so wichtig ist bzw. wird, dass man sich gut vorstellen kann, ihm mit Freude und forschender Leidenschaft mehrere Jahre seines Lebens zu widmen. Sobald erste Ideen gefunden sind, empfiehlt es sich, einen groben Überblick über das Forschungsgebiet zu gewinnen. So erfährt man, welche Fragen bereits intensiver diskutiert worden sind und wo es möglicherweise noch Forschungsbedarf gibt. Eine allererste Orientierung über die zentralen Aspekte, Strukturen und Fragen eines Forschungsgebietes und die an ihm arbeitenden Forscherinnen und Forscher bieten aktuelle Einführungen, Handbücher und Lexika. Auch Sammelbände und Themenhefte von Zeitschriften können eine gute Einführung darstellen. Für einen genaueren Überblick sind jedoch die Suche nach Forschungsüberblicken (state of the art-Beiträge in Fachzeitschriften, z. B. Language Teaching) und Rezensionen sowie Datenbankabfragen (z. B. Fachportal Pädagogik, Informationszentrum Fremdsprachenforschung (ifs), Bildungsserver) unerlässlich. Ist die entsprechende Literatur identifiziert, sollte man sich Zeit zum ‚Einlesen‘ lassen. Dabei ist es nicht nur wichtig, durch gezielte, thematisch vorstrukturierte Lektüre einen Überblick über das Thema mit seinen verschiedenen Teilbereichen, Aspekten und Ansatzpunkten zu gewinnen. Es ist ebenfalls sinnvoll, über das Thema hinaus Einblick in angrenzende Themen und Gebiete zu gewinnen, entweder um sich abzugrenzen oder um zusätzliche Anregungen zu erhalten. Dieses gezielt suchende und beiläufig findende Lesen dauert seine Zeit. Bereits in dieser vorbereitenden Lesephase kann mit dem Führen eines Forschungstagebuches begonnen werden. In manchen Ansätzen der qualitativen Sozialforschung, insbesondere in der ethnographischen Feldforschung (Friebertshäuser/Panagiotopoulou 2010) und in der Aktionsforschung (Altrichter/Posch 2007), ist das Führen eines Forschungstagebuches als systematisches Selbstreflexions- und Datensicherungsinstrument obligatorisch. Aber auch für jedes andere Forschungsprojekt ist das regelmäßige schriftliche Reflektieren über den eigenen Forschungsprozess von Vorteil: Es sichert wichtige Informationen und (auch spontane) Ideen, Überlegungen und Thesen, es erhöht die Selbstaufmerksamkeit, ermöglicht (beim Wiederlesen) eine De-Zentrierung, lässt die Genese von Gedanken, Standpunkten und Entscheidungen nachvollziehen und erlaubt eine Übersicht über das, was man bereits geschafft hat. Inhalte eines solchen Forschungstagebuches, das entweder als gebundenes Heft, als Ordner oder in elektronischer Form geführt werden kann, sind in regelmäßigen Abständen die Reflexion der Forschungsziele, der persönlichen Sicht auf den Forschungsgegenstand und den Forschungsprozess sowie die Dokumentation der einzelnen Forschungsschritte, einschließlich der dabei auftauchenden Probleme (z. B. auch als Vor- bzw. Nachbereitung von Gesprächen mit den Betreuerinnen und Betreuern oder im Forschungskolloquium, siehe auch Kapitel 6.7 und 6.8). Dazu kommen die ‚Funde‘ aus der alltäglichen Arbeit und aus Gesprächen, z. B. Hinweise auf Literatur, andere Quellen oder Personen, interessante Zitate (mit genauer Angabe der Fundstelle), Überlegungen zu Forschungsmethoden, neue Fragen und Interpretationen, aber auch die eigenen Emotionen. Hilfreich ist es, sich feste Zeiten für die Einträge zu reservieren, jeweils Datum, Ort und ggf. Situation zu notieren und das Tagebuch möglichst übersichtlich zu gestalten (Randspalte, Inhaltsverzeichnis, Seitenzahlen, Unterstreichungen, Symbole …). Je nach persönlichem Arbeitsstil können auch vorstrukturierte Blätter verwendet werden.
6.1 Von der Idee zur Forschungsfrage
361
Bei der Eingrenzung des Themas können bestimmte Techniken aus einschlägigen Ratgebern helfen (z. B. Beinke et al. 2011: 21 – 30, Boeglin 2012: 131 – 140, Esselborn-Krumbiegel 2014: 33 – 70, Kornmeier 2010: 48 – 53). Man kann z. B. überlegen, was man bereits aus anderen Zusammenhängen über den Themenbereich weiß, was einen an dem Thema fasziniert bzw. irritiert, möglichst viele Fragen zu einem Themenbereich stellen und mögliche Antworten antizipieren, W-Fragen an das Thema stellen oder versuchen, das Thema aus mehreren Perspektiven zu betrachten. Auch das Clustern von Assoziationen und ihre Strukturierung in Form von Mindmaps können dabei helfen, den Themenschwerpunkt zu identifizieren. Wenn man unsicher ist, ob man mit dem gefundenen Thema tatsächlich die kommenden Monate oder Jahre verbringen will, könnte es helfen, mit der gleichen Sorgfalt ein alternatives Thema zu suchen, sich der Diskussion zu beiden Themen in einem Doktorandenseminar zu stellen – und dann auf sein Bauchgefühl zu achten. Oftmals besteht die Sorge, dass ein Thema möglicherweise nicht neu bzw. nicht spektakulär genug sei oder nicht ausreichend neue Erkenntnisse verspreche. Oder auch, dass man in Konkurrenz zu anderen stehe, die zur gleichen Zeit am gleichen Thema arbeiten. Diese Sorge ist in aller Regel unbegründet, denn selbst sehr ähnliche Arbeiten, z. B. zwei empirische Arbeiten mit fast identischem Titel, werden sich bzgl. der Fragestellung, der zugrunde gelegten Theorien oder der Forschungsmethoden, in aller Regel deutlich unterscheiden. Dies entbindet einen aber natürlich nicht von der Pflicht, sich mit diesen Arbeiten intensiv auseinanderzusetzen. Gerade bei aktuellen Themen ist damit zu rechnen, dass man nicht der bzw. die Einzige ist, die sich gerade dafür interessiert. Und auch bei länger nicht bearbeiteten bzw. zeitlosen Themen gilt, dass sie niemals abgeschlossen sind. Denn jede wissenschaftliche Arbeit trägt einen neuen Aspekt, eine neue Sichtweise oder ein neues Ergebnis zum Gesamtmosaik des jeweiligen Themenbereiches bei.
6.1.2 Wie formuliere ich eine Forschungsfrage? Während der Suche und Eingrenzung des Themas konkretisiert sich das Erkenntnisinteresse: Zu welchem Thema möchte man arbeiten, was interessiert einen daran und warum interessiert es einen? Im nächsten Schritt gilt es zu bestimmen, was genau man herausfinden möchte, d. h. es gilt, die Forschungsfrage bzw. Hypothese zu formulieren. Das bedeutet, dass man ausgehend vom eigenen Erkenntnisinteresse unter Berücksichtigung des aktuellen Forschungsstandes und der geeigneten Forschungsmethodik (zum Zusammenhang siehe Abschnitt 3) eine solch präzise Fragestellung herausarbeitet, dass zum gewählten Thema tatsächlich neue Ergebnisse und Erkenntnisse gewonnen werden können. Die Forschungsfrage ist der Startpunkt des Forschungsprojektes und wird im Verlauf der Arbeit oftmals weiter ausdifferenziert oder präzisiert. Möglicherweise muss sie mit steigendem Wissensstand oder je nach auffindbaren Materialien bzw. aufgrund der Datenlage auch noch einmal verändert werden, damit sie tatsächlich im Rahmen eines zeitlich und ressourcenmäßig begrenzten Projektes erfolgreich bearbeitet werden kann. Während das zirkuläre ‚Einkreisen‘ der Forschungsfrage typisch für historische und hermeneutische Arbeiten und sogar ein fester Bestandteil vieler qualitativer Arbeiten ist, wird in quantitativen Arbeiten die eingangs formulierte Hypothese im Forschungsprozess selbst nicht mehr verändert.
362
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Die Formulierung der Forschungsfrage setzt eine theoretische Verortung in Bezug auf das gewählte Thema voraus und sie führt zu einer Beschränkung und Richtungsbestimmung: Was möchte ich mit meiner Arbeit herausfinden? Welches Problem möchte ich bearbeiten, welchen Widerspruch klären, welche Frage beantworten? Die Forschungsfrage definiert somit Ziel und Zweck der Arbeit. Dies kann in Form unterschiedlicher Fragen geschehen (vgl. z. B. Kornmeier 2010: 54 – 68), z. B. kann ein Gegenstandsbereich genauer beschrieben oder systematisiert werden, es können Interpretationen oder Erklärungen für einen Tatbestand gefunden werden oder es können neue Anwendungsfelder erschlossen werden. Gute Forschungsfragen, d. h. Forschungsfragen, die sich im Rahmen einer Forschungsarbeit systematisch und ausreichend tief beantworten lassen, sind i. d. R. sehr konkret, sie sind kurz und eindeutig, sie bestehen aus nur einer Frage (ggf. mit Nebenfragen) bzw. einer These oder einer pro-contra-Aussage, sie sind klar, einfach und genau formuliert. Dazu sind sie für den Schreibenden interessant, sie entsprechen dem Stand der Wissenschaft und sind im Fachkontext relevant und beantwortbar.1 Die größte Herausforderung besteht darin, die Frage nicht zu weit, aber auch nicht zu eng zu formulieren. Umgekehrt kann man nicht hinreichend entwickelte Forschungsfragen u. a. daran erkennen, dass sie unklar sind, zu weit gefasst sind, in sich widersprüchlich sind, dass sie auf unklaren Vorannahmen beruht oder dass es sich nicht um eine echte Frage, sondern um als eine als Frage formulierte Behauptung oder eine beeinflussende bzw. tendenziöse Frage handelt (vgl. z. B. Karmasin/Ribing 2010: 23 – 24). Das Formulieren einer einfachen, konkreten und ausreichend eng gefassten Forschungsfrage verlangt i. d. R. mehrere Anläufe (hilfreiche Techniken wie Freewriting, Mindmaps, Präzisierungen findet man z. B. bei Wolfsberger 2010: 77 – 85) und sollte in Rückkopplung mit dem Betreuer bzw. der Betreuerin erfolgen. Für ein Dissertationsprojekt ist es nicht ungewöhnlich, wenn Lesephase und die ersten Formulierungen der Forschungsfrage ein halbes Jahr in Anspruch nehmen. Aber dieser Aufwand lohnt sich, denn die Forschungsfrage leitet den nachfolgenden Lese- und Schreibprozess, sie hilft bei der gezielten Suche und Sichtung von Literatur bzw. Material und bei der Entwicklung der Struktur bzw. des Argumentationsgangs der Arbeit. Denn jedes Kapitel der Arbeit zielt zielt durch Beantwortung einer Teilfrage darauf, dass am Ende die Forschungsfrage beantwortet werden kann.
6.1.3 Wie hängen Thema, Forschungsfrage und Forschungsmethode zusammen? Mit der Formulierung der Forschungsfrage einher geht die Entscheidung für eine bestimmte Forschungsmethodik. Während die Wahl eines Themas noch keine Entscheidung bzgl. einer bestimmten Forschungstradition impliziert, legt die Forschungsfrage in aller Regel zumindest die Forschungstradition, oft auch bestimmte Forschungsverfahren bzw. -methoden nahe. Dies soll am Beispiel des Themas „Umgang mit Schülerfehlern“ skizziert werden. 1 Vgl. als Beispiele hierzu die Forschungsfragen in der Darstellung der Referenzarbeiten (Kapitel 7).
6.1 Von der Idee zur Forschungsfrage
363
• Interessiert am Thema der Aspekt der Veränderungen im Umgang mit Fehlern von 1970
bis heute, ist die Arbeit in der historischen Tradition angesiedelt (vgl. Kapitel 3.1). Innerhalb dieser Tradition können ganz unterschiedliche Forschungsfragen gestellt werden, z. B. folgende: Wie haben sich die Curricula bzw. die entsprechenden Verordnungen in diesem Zeitraum verändert? Wie hat sich die Korrekturpraxis in Klassenarbeiten oder Abiturarbeiten verändert? Wie haben sich die Auffassungen der Lehrkräfte diesbezüglich verändert? Diese Fragen legen unterschiedliche Verfahren nahe. Z. B. könnte man die erste Frage gut durch eine Dokumentenanalyse der entsprechenden offiziellen Vorschriften beantworten. • Interessiert dabei der Aspekt, was überhaupt ein Fehler ist, bzw. was als Fehler gilt, käme eine theoretische bzw. konzeptionelle Arbeit in Frage (vgl. Kapitel 3.2). Innerhalb dieser Forschungsrichtung könnte man z. B. folgende Fragen beantworten: Welche Definitionen und Bezugsnormen werden für den Begriff Fehler herangezogen? Welche Fehlertypen werden unterschieden? Welche Hinweise zum Umgang mit Schülerfehlern kann man aus der Vorstellung konzeptioneller Mündlichkeit gewinnen? Wie unterscheiden sich die Verordnungen der Bundesländer zur Definition von und zum Umgang mit Fehlern? Zur Beantwortung eignen sich jeweils hermeneutische, d. h. analysierende und vergleichende Verfahren. • Fragen, die sich auf die individuelle Wahrnehmung und den Umgang mit Fehlern beziehen, können mit einer qualitativ empirischen Arbeit beantwortet werden, auf Lernerseite z. B.: Was fangen Lernende mit Tipps und Tricks zur Fehlervermeidung an? Wie gehen sie mit schriftlichen Fehlerkorrekturen um? Auf Seite der Lehrenden z. B.: Welche unterschiedlichen Auffassungen zum Umgang mit Fehlern haben angehende Lehrkräfte? Wie verändern sie sich im Laufe ihres Referendariates? Für diese Fragen wären z. B. halbstandardisierte Fragebögen und Verfahren der Typenbildung geeignet. • Möchte man dagegen Genaueres über einen bestimmten Einzelaspekt erhalten, käme eine Arbeit in der quantitativ empirischen Forschungstradition in Frage. Mit den dort üblichen Verfahren könnten z. B. die Frage beantwortet werden: Welche Fehler markieren Lehrkräfte in schriftlichen Klassenarbeiten in Klasse 10? Wie bewerten Lehrkräfte das Kriterium „sprachliche Korrektheit“ in einer mündlichen Prüfung zum Mittleren Schulabschluss? Verändert sich ihr Bewertungsverhalten durch ein Bewertertraining? Die letzte Frage könnte z. B. im Rahmen einer Interventionsstudie mit Experimental- und Kontrollgruppe beantwortet werden. An diesen Beispielen wird deutlich, dass es zu jedem Thema eine Vielzahl interessanter Forschungsfragen gibt und dass sie je nach interessierendem Aspekt innerhalb unterschiedlicher Forschungstraditionen bearbeitet werden können. Erst mit der Formulierung der Forschungsfrage legt man sich fest, denn eine gute Forschungsfrage beruht auf der Passung von Thema, zu erforschendem Aspekt und Forschungsmethodik. Sind diese Entscheidungen getroffen, kann das Verfassen des Exposés (s. Kapitel 6.7) in Angriff genommen werden.
364
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
›› Literatur Altrichter, Herbert/Posch, Peter (2007). Lehrerinnen und Lehrer erforschen ihren Unterricht. 4. Auflage. Bad Heilbrunn: Klinkhardt. Beinke, Christiane/Brinkschulte, Melanie/Bunn, Lothar/Thürmer, Stefan (2011). Die Seminararbeit. Konstanz: UVK-Verlags-Gesellschaft. Behrent, Sigrid/Doff, Sabine/Marx, Nicole/Ziegler, Gudrun (2011). Review of doctoral research in second language acquisition in Germany (2006 – 2009). In: Language Teaching 44, 237 – 261. Boeglin, Martha (2012). Wissenschaftlich Arbeiten Schritt für Schritt. München: Fink. [= UTB] Doff, Sabine (2015). Qualifikationsschriften in der Fremdsprachenforschung im deutschsprachigen Raum 2007 – 2013: Titel, Themen, Trends. In: Doff, Sabine/Grünewald, Andreas (Hg.). WECHSELJahre? Wandel und Wirken in der Fremdsprachenforschung. Trier: WVT, 143 – 152. Esselborn-Krumbiegel, Helga (2014). Von der Idee zum Text. Paderborn: Schöningh. Friebertshäuser, Barbara/Panagiotopoulou, Argyro (2010). Ethnographische Feldforschung. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim: Juventa, 301 – 322. Gnutzmann, Claus/Königs, Frank G./Küster, Lutz (2011). Fremdsprachenunterricht und seine Erforschung. Ein subjektiver Blick auf 40 Jahre Forschungsgeschichte und auf aktuelle Forschungstendenzen in Deutschland. In: Fremdsprachen Lehren und Lernen 40, 5 – 28. Karmasin, Matthias/Ribing, Rainer (2010). Die Gestaltung wissenschaftlicher Arbeiten. Ein Leitfaden für Seminararbeiten, Bachelor-, Master- und Magisterarbeiten sowie Dissertationen. 5. aktualisierte Auflage. Wien: Facultas. [= UTB] Kornmeier, Martin (2010). Wissenschaftlich schreiben leicht gemacht für Bachelor, Master und Dissertationen. 3. Auflage. Bern: Haupt. [= UTB] Sauer, Helmut (2006). Dissertationen, Habilitationen und Kongresse zum Lehren und Lernen fremder Sprachen. Eine Dokumentation. Tübingen: Narr. Schart, Michael (2001). Aller Anfang ist Biografie – Vom Werden und Wirken der Fragestellung in der qualitativen Forschung. In: Müller-Hartmann, Andreas/Schocker-von Ditfurth, Marita (Hg.) (2001). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 40-61. Wolfsberger, Judith (2010). Frei geschrieben. Mut, Freiheit und Strategie für wissenschaftliche Abschlussarbeiten. 3. Auflage. Wien: Böhlau. [= UTB]
Wechselspiele zwischen Theorie und Praxis
6.2
Daniela Caspari
Nicht selten werden Promovend/innen in der Fremdsprachendidaktik gefragt, ob sie eine ‚theoretische oder praktische Arbeit‘ schrieben. Gemeint ist damit vermutlich, ob die Arbeit eher auf einen Beitrag zur Theoriebildung, auf einen Beitrag zur Erforschung der Praxis oder auf ein Beitrag zur Veränderung bzw. Verbesserung der Praxis abziele. Möglicherweise ist mit der Frage auch gemeint, in welcher Forschungstradition sich die Arbeit verortet, der historischen, der theoretisch-konzeptuellen oder der empirischen (s. Kapitel 3.1 bis 3.3 und Kapitel 6.1). Dass diese vermeintlich einfache Frage auf so unterschiedliche Ebenen abzielen kann, deutet bereits an, dass es darauf keine einfache Antwort geben kann. Dies liegt auch
6.2 Wechselspiele zwischen Theorie und Praxis
365
in der Fremdsprachendidaktik als wissenschaftlicher Disziplin begründet, die sich als angewandte Wissenschaft in dem Sinne versteht, dass jegliche Forschung direkt oder indirekt auf das Verstehen und/oder die Veränderung von Praxis abzielt (vgl. Kapitel 2). Fremdsprachendidaktische Studien können somit niemals ‚reine‘ Theorie- oder ‚reine‘ Praxisarbeiten sein, sondern sie erforschen auf unterschiedliche Art und mit unterschiedlicher Zielsetzung die komplexen Bezüge zwischen Theorie und Praxis. Dieses Kapitel soll daher – ungeachtet einer noch ausstehenden Theorie des Theorie-Praxis-Bezuges in der Fremdsprachendidaktik – den Blick für die möglichen Wechselspiele schärfen und erweitern. Dies kann dazu beitragen, die mit der Forschungsarbeit verbundenen Absichten zu klären und gezielt ein solches Design auszuwählen, das den eigenen Voraussetzungen und Absichten am besten entspricht.
6.2.1 Zum Verhältnis von Theorie und Praxis in der fremdsprachendidaktischen Forschung Im Rahmen dieses forschungspraktischen Beitrags können die vielschichtigen Begriffe „Theorie“, „Praxis“ und „Empirie“ nicht detailliert definiert werden (vgl. z. B. Kron 1999). Es muss daher genügen, „Theorie“ als „ein nach wissenschaftlichen Regeln entstandenes Ergebnis oder Produkt theoretischer und/oder empirischer Erkenntnisse“ [zu verstehen], das in Begriffen und Sätzen ausgedrückt wird“ (Kron 1999: 75). „Praxis“ soll hier im Sinne von „Lebenspraxis“ oder „Alltagshandeln“ (Kron 1999: 34 – 35) im Feld des Lehrens und Lernens von Fremdsprachen verstanden werden, das von den Beteiligten selbst und von externen Forscher/innen mithilfe empirischer Methoden beschrieben, reflektiert, analysiert und interpretiert werden kann. Dies kann mit oder ohne die Absicht geschehen, die Praxis zu bewerten und/oder zu verändern. Breidbach (1997: 44 – 47) unterscheidet in seinen Vorüberlegungen für den Entwurf einer reflexiven Didaktik für den bilingualen Sachfachunterricht in Anlehnung an Kron (1999) unter Verweis auf Weniger (1929, wiedergegeben in Breidbach 2007: 45) vier verschiedene Formen des Bezugs zwischen Theorie und Praxis:
• Theorie der Theorie: Bildung von Theorien unabhängig von der Unterrichtspraxis • Praxis des Unterrichts: handelnder Vollzug unabhängig von Theoriebildung • Theorie der Praxis: Herstellen eines gegenseitigen Verweisungszusammenhangs zwischen Theorie und Praxis
• Praxis der Theoriebildung: Aktivität der Erstellung einer Theorie Dieser Einteilungsversuch illustriert, wie schwierig es ist, das komplexe Wechselverhältnis von Theorie und Praxis zu strukturieren, allein schon, weil Theorie und Praxis keine klar voneinander abgrenzbaren, dichotomen Kategorien sind. Zudem hat fremdsprachendidaktische Theoriebildung i. d. R. direkt oder indirekt die Praxis des Lehrens und Lernens von Sprachen zum Inhalt, und Praxis umfasst neben dem handelnden Vollzug zumindest auch die Theorien der beteiligten Akteur/innen. Statt theoretisch unterschiedliche Formen von TheoriePraxis-Bezügen weiter auszudifferenzieren, scheint es für die fremdsprachendidaktische For-
366
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
schungspraxis sinnvoller, mögliche Zusammenhänge zwischen Theorie und Praxis ausgehend vom Forschungsdesign zu beschreiben. Im Folgenden wird ein solcher erster Versuch unter nommen.
6.2.2 Das Theorie-Praxis-Verhältnis im Forschungsdesign In Tabelle 1 werden fünf verschiedene Grundtypen des Theorie-Praxis-Bezugs fremdsprachendidaktischer Forschung unterschieden. Angegeben ist zunächst der Ausgangspunkt der Forschung: Geht man von bereits vorliegenden Theorien, d. h. von elaborierten Theorien, Modellen oder Konzepten (zur Unterscheidung vgl. Kron 1999: 77 – 78), auch aus anderen Disziplinen, aus oder ist die beobachtbare bzw. erlebte Praxis der Ausgangspunkt? Danach ist zu entscheiden, welches Ziel mit der Forschungsarbeit verfolgt wird: Möchte man primär einen Beitrag zur Theoriebildung oder primär einen Beitrag für die Praxis leisten? In Abhängigkeit von Ausgangspunkt und Zielsetzung der Forschungsarbeit sind unterschiedliche Forschungszugänge und -designs geeignet.
• Geht es darum, vorhandene theoretische Ansätze z. B. auf eine neue Frage zu beziehen oder unter einem neuen Aspekt zu betrachten, um daraus eine eigene Theorie oder ein eigenes Modell bzw. Konzept zu entwickeln, so handelt es sich um Typ 1 (theoretische Forschung, vgl. Kapitel 3.2). Dieser Typ findet ebenfalls in historischen Forschungsarbeiten Verwendung, in denen es darum geht, vorhandene Texte und Dokumente unter bestimmten Fragestellungen zu analysieren, um daraus neue Erkenntnisse über bestimmte Bereiche des Fremdsprachenlehrens und -lernens zu gewinnen (vgl. Kapitel 3.1). • Soll die Gültigkeit, Eignung oder Wirksamkeit vorliegender oder (weiter-) entwickelter Theorien, Modelle bzw. Konzepte an der Praxis überprüft werden, so gilt Typ 2. Ausgangspunkt der empirischen Untersuchung ist bzw. sind die aus den theoretischen Überlegungen abgeleitete (Hypo-)Thesen, die z. B. in Form eines Experimentes mit Interventions- und Kontrollgruppen überprüft werden können (vgl. Kapitel 3.3). • Besteht das Ziel jedoch darin, theoretische Ansätze für die Weiterentwicklung der Praxis nutzbar zu machen, so handelt es sich um Typ 3. Denn hier erfolgt die Übernahme vorliegender Theorien, Modelle und Konzepte bzw. ihre (Weiter-) Entwicklung mit dem Ziel, daraus Anwendungsmöglichkeiten für die Praxis zu generieren, z. B. in Form von Unterrichtsvorschlägen, Aufgaben oder Lernhilfen. In der Regel wird die Eignung dieser Vorschläge anschließend in der Praxis überprüft, meist in Form von Fallstudien. Anhand dieser Ergebnisse können abschließend die entwickelten Anwendungsmöglichkeiten überarbeitet werden und/oder die Ergebnisse für die Weiterentwicklung der Theorie genutzt werden (Prototypen: Entwicklungs- und Evaluationsforschung, vgl. Kapitel 3.3). • Von der Praxis aus gehen die Typen 4 und 5. Das Ziel von Typ 4 besteht in der Entwicklung einer Theorie auf der Grundlage der in einer empirischen Untersuchung der Praxis gewonnenen Daten. Die Erhebung erfolgt zunächst datengeleitet, d. h. ohne vorgängige theoretische Kategorien (Prototyp: Grounded Theory, vgl. Kapitel 5.3.3). • Besteht das Ziel der Forschung in der systematischen und überprüfbaren Veränderung konkreter Praxissituationen, so eignet sich Typ 5. Ausgehend von der Analyse dieser Praxis
Theorie(n)
Theorie(n)
Praxis
Praxis
Typ 2
Typ 3
Typ 4
Typ 5
Veränderung der Praxis
Theoriebildung
Praxis
1. Analyse der
tete empirische Untersuchung der Praxis
1. datengelei-
entwicklung des Modells bzw. der Theorie
3. ggf. Weiter-
3. Überprüfung riegeleitete ihrer WirksamEntwicklung keit von Handlungsalternativen
2. theo-
3. ggf. Weiterbeobachteten entwicklung der Praxis (indukti- Theorie durch ves Vorgehen) erneute Beobachtung der Praxis
2. Theorie der
3. ggf. empiritete Entwicksche Erprobung lung praktischer in der Praxis Realisierungsmöglichkeiten (deduktives Vorgehen)
leitete Anwendung empirischer Verfahren (deduktives Vorgehen)
von Modell, These, Hypothese
2. theoriegelei-
2. theoriege-
1. Entwicklung
hermeneutische Verfahren
Forschungsschritte/Forschungsverfahren
Nutzbarmachen 1. Entwicklung von Theorie für von Theorie, die Praxis Modell, Konzept
Überprüfung der Theorie an der Praxis
Theoriebildung
Ziel
Tabelle 1: Theorie-Praxis-Bezüge in der fremdsprachendidaktischen Forschung
Theorie(n)
Typ 1
Ausgangspunkt
Entwicklungsforschung Evaluationsforschung
Aktionsforschung
Untersuchungs- Grounded Theory gegenstand, im Feld
Ziel der Forschungsbemühungen
Ausgangspunkt leitete Weiterund Ziel der entwicklung Forschungsder Handlungs- bemühungen alternativen, ggf. erneute Überprüfung
4. theoriege-
entwicklung der Theorie auf der Basis der empirischen Ergebnisse
4. ggf. Weiter-
theoretische Forschung, historische Forschung
Beispiel
Untersuchungs- Experiment gegenstand, i. d. R. im Labor
Objektbereich der Theoriebildung
Bedeutung der Praxis
6.2 Wechselspiele zwischen Theorie und Praxis 367
368
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
werden theoriegeleitet Lösungen bzw. alternative Handlungsmöglichkeiten erarbeitet und systematisch erprobt. Nach der Überprüfung ihrer Wirksamkeit werden sie weiterentwickelt und ggf. erneut eingesetzt (Prototyp: Aktionsforschung, vgl. Kapitel 4.2). Diese grobe Einteilung soll dabei helfen, den passenden Grundtyp für das eigene Forschungsprojekt zu finden, der dann in einem Design konkretisiert werden muss (vgl. Kapitel 6.4). Die vorstehende Einteilung verfolgt somit nicht das Ziel, eine umfassende und trennscharfe Systematik der möglichen Theorie-Praxis-Bezüge zu leisten. Deutlich wird dabei jedoch, dass es sich in den einzelnen Typen durchaus um unterschiedliche Formen von Theorie und Praxis handelt. So kann die Praxis entweder Untersuchungsgegenstand, Ziel der Forschung oder Objektbereich der Theoriebildung sein. Auch der empirische Zugang erfolgt ja nach Typ auf unterschiedliche Weise: induktiv oder deduktiv, theorie- oder datengeleitet.
6.2.3 Weitere Dimensionen Um sich über diese Grundtypen hinaus der eigenen Verortungen und Ziele noch bewusster zu werden und die eigenen Stärken gezielt zu nutzen, kann es sinnvoll sein, über die grundsätzliche Anlage eines Designs hinaus weitere Entscheidungsdimensionen und Phasen des Forschungsprozesses unter Theorie-Praxis-Bezügen zu betrachten (vgl. auch Caspari 2011). Dazu gehört zunächst die Person des/der Forscher/in: Auf welche Ausbildung, Berufserfahrung sowie welchen fachlichen bzw. fachwissenschaftlichen Hintergrund rekurrieren er bzw. sie für die Forschungsarbeit? Über welche fachlichen und forschungsmethodischen Kompetenzen verfügt er/sie bereits und welche ist er/sie bereit zu erwerben? Welchem Handlungsfeld fühlt er/sie sich primär zugehörig? Auch Forschungsgegenstand und Forschungsfrage können in Hinblick auf Theorie-PraxisBezüge betrachtet werden: Aus welchem Kontext stammen Thema und Forschungsfrage? Wie sind sie entstanden? Handelt es sich um theoretische Fragen oder sind eigene oder fremde Praxisprobleme der Ausgangspunkt? Besonders wichtig ist es, die Ziele und Absichten des Forschungsprojektes in Hinblick auf Theorie-Praxis-Bezüge zu durchdenken: Welche Ziele und Absichten werden mit der Forschungsarbeit primär verfolgt: Soll sie eher die Praxis verändern oder die Theorie weiter entwickeln oder beides? Welche weiteren Ziele und Absichten sind dem/der Forscher/in möglicherweise ebenfalls wichtig? Was soll mit den Ergebnissen geschehen? Diese Fragen betreffen ebenfalls die avisierte Zielgruppe: Für wen sind das Thema, die Forschungsfrage und die Ergebnisse (möglicherweise) relevant? Dies hat u. a. Auswirkungen darauf, wo und in welcher Form die Ergebnisse veröffentlicht werden und in welcher Sprache bzw. in welchem Duktus die Arbeit verfasst wird. Hierbei sind ggf. auch weitere ‚Verwertungszusammenhänge‘ z. B. in Form von Handreichungen oder Fortbildungen zu bedenken.
6.2 Wechselspiele zwischen Theorie und Praxis
369
6.2.4 Konsequenzen Für die Präzisierung des eigenen Anliegens und für die eigene Positionierung ist es wichtig, sich vor und während der Forschungsarbeit die oben aufgeführten Fragen zu stellen und sie z. B. im Forschungstagebuch (vgl. Kapitel 6.1) für sich zu beantworten. Darüber hinaus regen die Fragen dazu an, die eigenen Vorannahmen und die eigene Rolle als Forscher/in zu reflektieren und die persönliche Entwicklung im Forschungsprozess wahrzunehmen. Auch wenn eine entsprechende Darlegung bislang nur in qualitativen Forschungsdesigns gefordert wird, so ist zwecks eigener Bewusstwerdung und zur Erhöhung der Transparenz sicher auch für Forschungsarbeiten in anderen Traditionen sinnvoll, diese Aspekte zu reflektieren. In den in Abschnitt 2 unterschiedenen Typen fremdsprachendidaktischer Arbeiten schlägt sich dann die ‚grobe Richtung‘ des geplanten Forschungsprojektes nieder. Darüber hinaus unterscheiden sie die großen Etappen des Forschungsprozesses und können daher eine Hilfestellung bei der Planung des Projektes sein (vgl. auch Kapitel 6.5). Nicht zuletzt können sie dabei helfen, den Aufbau der schriftlichen Fassung der Arbeit zu planen und zu überlegen, welche Aspekte möglicherweise besser in einer externen Publikation oder einer anderen Form der Anschlusskommunikation aufgehoben sind. Diese Überlegungen zeigen, dass die eingangs gestellte Frage nach einer ‚theoretischen‘ oder ‚praktischen‘ Arbeit tatsächlich zu kurz greift. Jede fremdsprachendidaktische Forschungsarbeit hat es mit Theorie(n) und mit Praxis zu tun. Immer geht es darum, vergangene oder gegenwärtige Praxis genauer zu verstehen, und, sei es auf einer Metaebene, sie zu beschreiben oder zu erklären. Dazu ist theoretische Reflexion nötig, die enger oder breiter erfolgt. Nicht immer will oder kann man durch die Forschung zukünftige Praxis direkt beeinflussen und verändern. Das Ergebnis einer Forschungsarbeit sollte jedoch stets einen Erkenntnisgewinn für die Theorie (und ggf. für die Praxis) liefern. ›› Literatur Breidbach, Stephan (2007). Bildung, Kultur, Wissenschaft. Reflexive Didaktik für den bilingualen Sachfachunterricht. Münster: Waxmann. Caspari, Daniela (2011). Zum Verhältnis von „Theorie“ und „Praxis“ im Forschungsfeld „Lehren und Lernen von Fremdsprachen“. In: Bausch, Karl-Richard/Burwitz-Melzer, Eva/Königs, Frank G./ Krumm, Hans-Jürgen (Hg.). Erforschung des Lehrens und Lernens fremder Sprachen: Forschungsethik, Forschungsmethodik und Politik. Arbeitspapiere der 31. Frühjahrskonferenz zur Erforschung des Fremdsprachenunterrichts. Tübingen: Narr, 42 – 51. Kron, Friedrich W. (1999). Wissenschaftstheorie für Pädagogen. Tübingen: E. Reinhardt. [= UTB]
370
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Literaturüberblick und Forschungsstand
6.3
Michael K. Legutke
Ein unabdingbarer Baustein jeder fremdsprachendidaktischen Forschungsarbeit ist der Literaturüberblick, der als eine eigene Textsorte bezeichnet werden kann. Er erscheint in der Regel in zwei Formen mit teils unterschiedlichen Funktionen in der Forschungsarbeit. Zum einen bezieht er sich in einer inhaltlichen Orientierung auf den Forschungsgegenstand (Literaturüberblick 1), zum anderen auf das Design und forschungsmethodologische Aspekte der Studie (Literaturüberblick 2). Beide Formen sollen im Folgenden unter drei Fragestellungen erörtert werden. (1) Welche Ziele verfolgt der Literaturüberblick bzw. welche Funktionen lassen sich für ihn benennen? (2) Wie ist er zu erstellen und zu schreiben? (3) Wann sollte er verfasst werden?
6.3.1 Was? Merkmale und Funktionen Literaturüberblick Jegliche Forschungsarbeit muss auf bekanntem Wissen aufbauen und bestrebt sein, dieses zu erweitern. Der Literaturüberblick 1 ist deshalb von besonderer Bedeutung, weil er dem Forschungsvorhaben Legitimität und Glaubwürdigkeit bei den Lesern, der Gemeinschaft der Forschenden und nicht zuletzt innerhalb größerer gesellschaftlicher Zusammenhänge verleiht. Er macht nämlich deutlich, dass es sich hier um originäre Forschung handelt und nicht um die Reproduktion vorhandenen Wissens. Damit dieses übergeordnete Ziel erreicht werden kann, muss er so verfasst sein, dass er vier Funktionen erfüllt. Diese sollen hier in idealtypischer Abfolge nachgezeichnet werden. Positionierung im Forschungsfeld: Der Forschende muss nicht nur deutlich machen, in welchem Forschungsfeld sein Projekt angesiedelt ist (s. Kapitel 2), sondern auch darlegen, wie es sich zu den dort formulierten Positionen und bereits vorhandenen Forschungsergebnissen verhält, d. h. er muss die Forschungsfrage in ihrem Verhältnis zum Forschungsstand erörtern, indem er beispielsweise Positionen und Gegenpositionen entfaltet und sich von folgenden Fragen leiten lässt: Welche Ergebnisse liegen bisher vor? Welches sind mögliche Anknüpfungspunkte für das eigene Projekt? Welche Traditionslinien lassen sich nachzeichnen und können aufgenommen werden? Welche Schwerpunkte der Argumentation lassen sich hervorheben? Dabei kann es sinnvoll sein, nach empirisch gewonnenen Forschungsergebnissen und theoretischen Positionen zu unterscheiden. Da es angesichts der Faktorenkomplexion fremdsprachendidaktischer Forschung (und abhängig von der Forschungsfrage) notwendig sein wird, Positionen und Erkenntnisse affiner Disziplinen im Literaturüberblick zu berücksichtigen, stellt sich immer auch die Frage der Abgrenzung und Beschränkung: eine besondere Herausforderung, auf die noch einzugehen sein wird. Theoretische Fundierung: Eine weitere Funktion des Literaturüberblicks ist die kritische Auseinandersetzung mit den zentralen theoretischen Konzepten, die der Forschungsfrage zugrunde liegen. Auch diese müssen im Zusammenhang vorhandener Arbeiten dargestellt, möglicherweise gegeneinander abgeglichen und für das eigene Projekt genau bestimmt werden.
6.3 Literaturüberblick und Forschungsstand
371
Herausarbeiten von Forschungslücken: Während die beiden ersten Funktionen darauf zielen, deutlich zu machen, was andere geforscht und zu sagen haben, geht es nachfolgend darum, Forschungslücken zu benennen, die beim Studium der Literatur deutlich wurden. Ziel ist es, den Raum zu skizzieren, in dem die eigene Forschung angesiedelt werden soll. Besetzung einer Forschungslücke: Sind die Desiderata herausgearbeitet, gilt es schließlich, eine oder mehrere der Lücken zu ‚besetzen‘, indem hervorgehoben und begründet wird, warum es notwendig und sinnvoll ist, diese zu bearbeiten. Die Relevanz der eigenen Studie tritt damit deutlich in Erscheinung. Während der Literaturüberblick 1 den Forschungsgegenstand, zugrunde liegende Konzepte und vorhandene bzw. fehlende Forschungsergebnisse fokussiert, ist der Literaturüberblick 2 auf das Design der Studie und die gewählten Forschungsverfahren, nämlich die Gewinnung von Dokumenten, Texten und/oder Daten sowie deren Aufarbeitung und Analyse bezogen. Auch wenn der Literaturüberblick 1 und der Literaturüberblick 2 eng zusammenhängen, was sich in der Darstellung auch spiegeln wird (s. u.), werden sie in der Regel in unterschiedlichen Kapiteln der Forschungsarbeit erscheinen. Der Literaturüberblick 2 muss folgenden zwei Zielen dienen: Begründung des Designs: Er muss zum einen transparent machen, warum das gewählte Design für die Bearbeitung der spezifischen Forschungsfrage als angemessener Weg gelten kann und auf welche Quellen sich diese Überzeugung stützt. Quellen sind u. a. forschungsmethodologische Erörterungen und vergleichbare Studien. Beschreibung und Begründung der Forschungswerkzeuge: Um zu verdeutlichen, weshalb die gewählten Forschungswerkzeuge als gegenstandsangemessen gelten können, sind diese nicht nur zu beschreiben, sondern auch in ihren Grenzen und Möglichkeiten zu erörtern. Auch hier muss transparent werden, welche Quellen die Einschätzung stützen. Dokumentierte Forschungsvorhaben können inspirierend gewirkt haben, indem sie das Potenzial bestimmter Werkzeuge belegen oder erkennbar machen, welche Herausforderungen mit ihrem Einsatz verbunden sind. Auch wenn Literaturüberblick 1 und Literaturüberblick 2 in der Regel in separaten Kapiteln erscheinen, sind vor allem bei qualitativen Arbeiten auch andere Lösungen denkbar. So können es der Verlauf des Erkenntnisgewinns und der Argumentation durchaus vertretbar machen, dass die Auseinandersetzung mit der Literatur an verschiedenen Stellen in die Arbeit einfließt. Auf ein Missverständnis, den Literaturüberblick 2 betreffend, sei hier noch abschließend hingewiesen: Auch wenn empirische Forschungsarbeiten, die dem qualitativen Paradigma verpflichtet sind, in den Fremdsprachendidaktiken spätestens seit der Jahrtausendwende nicht mehr grundsätzlich in Frage gestellt werden (vgl. Müller-Hartmann/Schocker-v. Ditfurth 2001), fühlen sich Novizen vor allem bei der Verfassung von Qualifikationsarbeiten immer noch genötigt, im Zusammenhang des Literaturüberblicks 2 allgemeine Begründungen des Forschungsparadigmas und grundsätzliche Überlegungen zu Gütekriterien qualitativer Forschung zu erörtern. Solche Grundsatzüberlegungen sind nicht erforderlich. Der Literaturüberblick 2 fokussiert ausschließlich das Projekt, sein Design und seine Forschungswerkzeuge. Selbstverständlich muss dargelegt werden, dass die eigene Arbeit den Gütekriterien fachdidaktischer Forschung genügt.
372
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
6.3.2 Wie? Schritte und Verfahren Die Abfassung des Literaturüberblicks setzt umfangreiche und systematische Rechercheaktivitäten voraus. Lesen, lesen und nochmals lesen, lautet die Devise. Der Fokus der Recherche sollte so angelegt sein, dass das empirische und theoretische Umfeld der Forschungsfrage weiträumig gesichtet und eingeschätzt werden kann. Dabei sollten nicht nur die letzten 5 – 10 Jahre einbezogen, sondern durchaus auch frühere Perioden der Fremdsprachendidaktik sowie Forschungen im Feld anderer Fremdsprachen berücksichtigt werden. Diese weite Anlage der Recherche impliziert allerdings nicht, dass die Lektürebefunde alle in den Literaturüberblick eingehen werden. Vielmehr sind Verdichtungen und Synthesen gefordert. Eine zu frühe Begrenzung der Suche birgt andererseits die Gefahr, dass die im Forschungsfeld vorhandenen Schätze verborgen bleiben. Einzelne Schritte auf dem Weg zum Literaturüberblick sollen nun kurz angesprochen werden. Bereits die Erstellung des Exposés und die vorläufige Formulierung einer Forschungsfrage (s. Kapitel 6.1) war mit einer Literaturrecherche verbunden. Diese gilt es nun gezielt auszuweiten und in einer annotierten Bibliographie zu dokumentieren, die alphabetisch nach Autoren geordnet ist. Letztere enthält nicht nur die genauen bibliographischen Angaben, sondern eine kurze Zusammenfassung des Beitrags/der Studie sowie erste, stichwortartige Einschätzungen/Vermutungen, ob und wenn ja in welcher Weise der Text für das eigene Projekt relevant ist. Der Einstieg in die systematische und vertiefende Recherchearbeit erfolgt am besten über folgende Quellen:2
• Einschlägige
Fachlexika: z. B. Byram/Hu 2013; Palacio Martínez, Ignacio M./Alonso Alonso, María Rosa/Cal Varela, Mario/López Rúa, Paula/Varela Pérez, José Ramón 2007, Surkamp 2010. • Einschlägige Handbücher: Burwitz-Melzer/Mehlhorn/Riemer/Bausch/Krumm 2016; Cohen/Manion/Morrison 2011; Friebertshäuser/Langer/Prengel 2010, Hallet/Königs 2010; Hinkel 2005, 2011; Krumm et al. 2011; Long/Doughty 2009. • Forschungsüberblicke: Arbeitspapiere der Frühjahrskonferenz zur Erforschung des Fremdsprachenunterrichts (Übersicht in: Burwitz-Melzer/Königs/Riemer 2015: 241 – 247), Stateof-the-Art Articles und Research Timelines in: Language Teaching. • Einschlägige Überblicksdarstellungen: z. B. Dörnyei 2007. • Einschlägige Fachzeitschriften: Applied Linguistics, Language Teaching, Fremdsprachen lehren und lernen, The Modern Language Journal, Zeitschrift für Fremdsprachenforschung. • Nationale und internationale Datenbanken: Fachportal Pädagogik, Informationszentrum für Fremdsprachenforschung der Universität Marburg (IFS). Für die Organisation und Verwaltung der Literatur und der annotierten Bibliographie bietet sich die Verwendung einer elektronischen Hilfe an.3 Aus der annotierten Bibliographie wird später ein wesentlicher Teil des Literaturverzeichnisses für die Publikation der Forschungsarbeit gewonnen. 2 Die folgenden Angaben sind als Beispiele zu verstehen. 3 Wiederum nur als Beispiele seien genannt: LitRat, Citavi, EndNote. Informationen finden sich im Internet zu den genannten Programmen und in den zahlreichen Doktorandenforen (z. B. doktorandenforum.de).
6.3 Literaturüberblick und Forschungsstand
373
Parallel zur Recherche müssen die Systematisierung und eine differenziertere Bewertung der Literatur im Hinblick auf das Forschungsfeld und den konkreten Forschungsgegenstand erfolgen. Hier helfen Mind-Maps, Flussdiagramme oder Hierarchisierungen. Wie schon oben angedeutet, empfiehlt es sich nach inhaltlichen und methodischen Gesichtspunkten zu unterscheiden, wenn Zusammenhänge hergestellt und Verknüpfungen zum eigenen Projekt vorgenommen werden.4 Die annotierte Bibliographie und die visualisierten Darstellungen von Zusammenhängen sind Bausteine des Literaturüberblicks, aber nicht mit ihm gleichzusetzen. Nunan und Bailey (2009) verdeutlichen den Unterschied mit dem anschaulichen Bild einer Flickendecke (quilt): The difference between an annotated bibliography and a literature review is that the former consists of separate entries arranged alphabetically by author, while the literature review is thematically organized: It extracts, records, and synthesizes the main points, issues, findings, and research methods of previous studies. We like to use the analogy of a quilt to explain the relationship. The annotations are like bits of cloth, the raw materials, assembled and organized before you start quilting. An effective literature review, in contrast, is more like a well-designed and carefully executed quilt. It is a unified whole. (Nunan/Bailey 2009: 35)
Entsprechend den o. g. Funktionen empfiehlt es sich, die rhetorische Struktur des Literaturüberblicks in drei großen Argumentationsblöcken zu entfalten. Im ersten Block geht es um die Markierung eines Themenfeldes (die Bedeutung des Themas in der fremdsprachendidaktischen Forschung hervorheben, Hintergrundinformationen liefern, Definitionen von Begriffen vornehmen, einen Überblick über vorhandenes Wissen und bisherige Forschungen liefern). Der zweite Block fokussiert Forschungslücken (formulieren, was nicht gesehen, berücksichtigt, erörtert wurde, was bisher fehlt, Fragen formulieren und Probleme benennen, zeigen welche Traditionen aufgenommen oder fortgesetzt werden müssen). Der dritte Block schließlich liefert die Argumente dafür, wie die geplante Forschungsarbeit die Lücke besetzen wird und leitet damit über zur detaillierten Ankündigung des eigenen Projekts (eine Gegenposition zur Forschungslage beziehen, sich abgrenzen, die eigene Position verdeutlichen). Hier könnte auch der Ort sein, an dem methodische Fragen bereits angesprochen werden (Literaturüberblick 2). In der Regel findet der Literaturüberblick 2 jedoch dort seinen Platz, wo das Design und die Forschungsverfahren erörtert werden.5 Um sich mit der rhetorischen Struktur des Literaturüberblicks und seinem Aufbau vertraut zu machen, lohnt es sich für Forschende, unterschiedliche Textbeispiele, etwa in den Referenzarbeiten, zu rezipieren. Beispiele zur Anlage des Literaturüberblicks finden sich auch bei Bitchener (2010) und O’Leary (2014). Für das Abfassen des Literaturüberblicks zitieren Nunan und Bailey (2009) mit Bezug auf Wiersma (2008) acht Merkpunkte, die eine gute Orientierung bieten können. Sie sollen deshalb auch diesen Abschnitt abschließen: 4 Beispiele für Verfahren der Systematisierung der Ergebnisse der Literaturrecherche finden sich u. a. in: Bitchener (2010: 59 – 67) und O’Leary (2014: 85 – 104). Anregungen zur Textzusammenstellung liefert auch das Kapitel 5.2.2. 5 Die rhetorische Struktur des Literaturüberblicks ist von der anglo-amerikanischen Forschung zum akademischen Schreiben mit Bezug auf das CARS-Modell (Creating a Research Space) differenziert untersucht worden, siehe z. B. Swales 1990, Kwan 2006. Dort werden auch Beispiele für Argumentationsverläufe gegeben.
374
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
1. Select studies that relate most directly to the problem at hand. 2. Tie together the results of the studies so that their relevance is clear. Do not simply provide a compendium of seemingly unrelated references in paragraph form. 3. When conflicting findings are reported across studies – and this is quite common in educational research – carefully examine the variations in the findings and possible explanations for them. Ignoring variation and simply averaging effects loses information and fails to recognize the complexity of the problem. 4. Make the case that the research area reviewed is incomplete or requires extension. This establishes the need for research in this area. (Note: This does not make the case that the proposed research is going to meet the need or is of significance.) 5. Although the information from the literature must be properly referenced, do not make the review a series of quotations. 6. The review should be organized according to major points relevant to the problem. Do not force the review into a chronological organization, for example, which may confuse the relevance and continuity among the studies reviewed. 7. Give the reader some indication of the relative importance of the results from studies reviewed. Some results have more bearing on the problem than others and this should be indicated. 8. Provide closure for the section. Do not terminate with comments from the final study reviewed. Provide a summary and pull together the most important results. (Nunan/Bailey 2009: 35 – 36).
6.3.3 Wann? Entwurf und Revision Bei der Beratung von Qualifikationsarbeiten taucht immer wieder die Frage auf, wann der Literaturüberblick am besten zu verfassen sei. Auch wenn die generelle Antwort lautet, dass es sich um einen fortlaufenden Prozess handelt, der nicht zuletzt vom Verlauf der Arbeit abhängt, ist es dennoch sinnvoll, nach Forschungsverfahren zu unterscheiden, die eher linear vorgehen (hypothesenprüfende Vorgehensweise) und solchen, die eher zyklisch vorgehen (hermeneutische, historische oder empirisch-interpretative Vorgehensweise). Da erstere Verfahren theoretisch präzise bestimmte Konstrukte und klar definierte Schrittabfolgen für Samplingentscheidungen sowie angestrebte Messungen voraussetzen, ist es durchaus möglich und sinnvoll, bereits vor der Datenerhebung und Auswertung den Literaturüberblick (1 und 2) zu verfassen. Dieser bedarf dann immer noch einer abschließenden Revision, hat jedoch weitgehend schon seine Endgestalt gefunden. Deutlich anders verhält es sich mit der zweiten Gruppe von Vorgehensweisen. Diese bringen in der Regel eine wiederholte Beschäftigung mit Daten, Texten und Dokumenten mit sich, die nicht selten zur Modifikation der Forschungsfrage und zur Befassung mit neuen Theorien führt. Zunächst nicht geplante Recherchen und Lektüreprozesse werden ausgelöst und verändern so den Literaturüberblick. Auch im zweiten Fall ist trotzdem anzuraten, vor der Befassung mit Daten, Texten und Dokumenten den schriftlichen Entwurf des Literaturüberblicks (1 und 2) zu versuchen, wohl wissend, dass je nach dem Verlauf des Forschungs-
6.3 Literaturüberblick und Forschungsstand
375
prozesses Modifikationen (Kürzungen, Erweiterungen, Neugewichtungen) unerlässlich sein werden. Die kritische Frage, der sich alle Forschenden unabhängig von ihrer Vorgehensweise stellen müssen, ist die nach der Funktionalität der referierten und erörterten Arbeiten für das eigene Projekt: Sind die hier behandelten Wissensbestände (Theorien, Forschungsergebnisse, Verfahren) wirklich erforderlich, damit das Besondere, das Innovative des eigenen Projekts eingeordnet und nachvollzogen werden kann? Ein Teil der Überlegungen wird, wie oben schon angedeutet, auch der Frage gelten, ob die im Zusammenhang der Recherche erfolgten Ausflüge in affine Disziplinen und Forschungsfelder, die ohne Frage die Perspektive erweiterten, für die Arbeit selbst noch funktional sind und deshalb bei der Darstellung auch berücksichtigt werden müssten. Oftmals ist diese Entscheidung erst auf der Basis einer Gesamtschau der Ergebnisse möglich. Diese zentralen Fragen werden auch den letzten Revisionsvorgang des Literaturüberblicks leiten, bevor die Arbeit eingereicht oder publiziert wird. Dabei kann sich zeigen, dass es sehr sinnvoll ist, Kürzungen vorzunehmen. Im Verlauf dieser letzten Revision empfiehlt es sich, dafür Sorge zu tragen, dass der Literaturüberblick mit den anderen Teilen der Forschungsarbeit wirklich vernetzt ist (z. B. bei der Erörterung der Ergebnisse oder der Zusammenfassung der Erträge), damit der ‚rote Faden‘ der Argumentation klar in Erscheinung tritt. ›› Literatur Bitchener, John (2010). Writing an Applied Linguistics Thesis or Dissertation. A Guide to Presenting Empirical Research. Houndmills, Basingstoke: Palgrave Macmillan. Burwitz-Melzer, Eva/Königs, Frank/Riemer, Claudia (Hg.) (2015). Lernen an allen Orten. Die Rolle der Lernorte beim Lehren und Lernen von Fremdsprachen. Tübingen: Narr. Burwitz-Melzer, Eva/Mehlhorn, Grit/Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.) (2016). Handbuch Fremdsprachenunterricht. 6. Auflage. Tübingen: Francke. Byram, Michael/Hu, Adelheid (Hg.) (2013). Routledge Encyclopedia of Language Teaching and Learning. 2. Auflage. London: Routledge. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage. London: Routledge. Dörnyei, Zoltan (2007). Research Methods in Applied Linguistics. Quantitative, Qualitative and Mixed Methodologies. Oxford: Oxford University Press. Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.) (2010). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. Auflage. Weinheim: Juventa. Hallet, Wolfgang/Königs, Frank (Hg.) (2010). Handbuch Fremdsprachendidaktik. Seelze-Velber: Klett Kallmeyer. Hinkel, Eli (Hg.) (2005). Handbook of Research in Second Language Teaching and Learning. Volume I. London: Lawrence Erlbaum. Hinkel, Eli (Hg.) (2011). Handbook of Research in Second Language Teaching and Learning. Volume II. London: Routledge. Krumm, Hans-Jürgen et al. (Hg.) (2011). Deutsch als Fremd- und Zweitsprache. Ein Internationales Handbuch. Berlin: De Gruyter. Kwan, Becky (2006). The schematic structure of literature reviews in doctoral theses of Applied Linguistics. English for Specific Purposes 25, 30 – 55.
376
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Long, Michael/Doughty, Catherine (Hg.) (2009). The Handbook of Language Teaching. Chichester, U. K.: Wiley-Blackwell. Müller-Hartmann, Andreas/Schocker-v. Ditfurth, Marita (Hg.) (2001). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr. Nunan, David/Bailey, Kathleen (2009). Exploring Second Language Classroom Research. A Comprehensive Guide. Boston: Heinle Cengage Learning. O’Leary, Zina (2014). Doing Your Research Project. 2. Auflage. Los Angeles: SAGE. Palacio Martínez, Ignacio M./Alonso Alonso, María Rosa/Cal Varela, Mario/López Rúa, Paula/Varela Pérez, José Ramón (2007). Diccionario de enseňanza y aprendizaje de languas. Madrid: En-ClaveELE. Wiersma, William. (2008). Research Methods in Education. An Introduction. 9. Auflage. Boston: Pearson. Surkamp, Carola (Hg.) (2010). Metzler Lexikon Fremdsprachendidaktik. Ansätze. Methoden. Grundbegriffe. Stuttgart: Metzler. Swales, John (1990). Genre Analysis: English in Academic Research Settings. Cambridge: Cambridge University Press.
Gestaltung des Designs
6.4
Karen Schramm
Eine besonders kreative Phase des Forschungsprozesses betrifft die Gestaltung des Designs der Gesamtuntersuchung. Voraussetzung für diesbezügliche Überlegungen ist eine klar formulierte, in umfassender Lektüre zum Forschungsstand präzisierte und theoretisch verortete Forschungsfrage. Erst auf dieser Grundlage kann die Gestaltung beginnen, die selbstverständlich auch bei historischen und theoretischen Studien von großer Bedeutung ist, um komplexe Fragestellungen systematisch untersuchen zu können. Die Verwendung des Begriffs Design ist jedoch auf empirische Arbeiten bezogen und die Gestaltung solcher Designs soll in diesem Kapitel genauer beleuchtet werden. Wie auch bei der Konzeption von historischen und theoretischen Arbeiten stellt es dabei eine besondere Herausforderung dar, die passende Balance zu finden zwischen der Ambition, forscherische Höchstleistungen zu erbringen und neue Erkenntnisse über möglichst umfassende Zusammenhänge zu erarbeiten einerseits, und der Begrenztheit zeitlicher und anderer Ressourcen, die für das Forschungsprojekt zur Verfügung stehen, andererseits. Die Gestaltung des Designs ist daher neben dem gedanklichen Spiel mit den verschiedenen Möglichkeiten auch ein Prozess, der eine weitsichtige Abschätzung des Arbeitsaufwands und eine kühle Reduktion unrealistischer, weil überfrachteter Arbeitsvorhaben erfordert: The setting up of the research is a balancing act, for it requires the harmonizing of planned possibilities with workable, coherent practice, i.e. the resolution of the difference between what could be done/what one would like to do and what will actually work/what one can actually do, for, at the end of the day, research has to work. (Cohen/Marion/Morrison 2007: 78; Hervorhebungen im Original)
6.4 Gestaltung des Designs
377
6.4.1 Von der Forschungsfrage zum vorläufigen Design-Entwurf Mit der zumindest vorläufigen Bestimmung der Forschungsfrage hat der bzw. die Forscher_in für sich geklärt, welche Untersuchungsgegenstände oder theoretischen Konstrukte fokussiert werden sollen. Auf dieser Grundlage kann er oder sie für die Design-Gestaltung erste Überlegungen dahingehend anstellen, welche gegenstandsadäquaten, aussagekräftigen Daten dazu erfasst oder erhoben werden können. Zu dieser Frage sollte man sich einführend in einschlägigen Forschungshandbüchern informieren, um die theoretischen Hintergründe der gewählten Verfahren und mögliche Alternativen kennen zu lernen. Der weitere Weg der Design-Gestaltung fällt je nach Forschungsparadigma sehr unterschiedlich aus. Wie Abbildung 1 aus Lamnek (2010: 120) zeigt, gehen quantitative bzw. analytisch-nomologische Studien von Theorien und Hypothesen aus (vgl. Kapitel 3.3). Die theoretischen Begriffe, die mit der Hypothese fokussiert werden, sind bei solchen Studien mithilfe von Indikatoren zu operationalisieren. Den Begriff der Operationalisierung definiert Flick (2014: 311) als „Maßnahme zur empirischen Erfassung von Merkmalsauspägungen. Dabei werden ein Datenerhebungsverfahren und Messoperationen festgelegt.“ Cohen/Manion/ Morrison (2007: 81) beschreiben diesen Prozess auch als Übersetzen oder Herunterbrechen allgemeiner Ziele in immer konkretere Elemente: The process of operationalization is critical for effective research. Operationalization means specifying a set of operations or behaviours that can be measured, addressed or manipulated. What is required here is translating a very general research aim or purpose into specific, concrete questions to which specific, concrete answers can be given. The process moves from the general to the particular, from the abstract to the concrete. Thus the researcher breaks down each general research purpose or general aim into more specific research purposes and constituent elements, continuing the process until specific, concrete questions have been reached to which specific answers can be provided. (Cohen/Manion/Morrison 2007: 81; Hervorhebung im Original)
Bei der Operationalisierung ist der Frage nach der Inhalts- und Konstruktvalidität besondere Aufmerksamkeit zu schenken, d. h. danach, ob „das Messinstrument oder der Test den zu untersuchenden Gegenstand erschöpfend erfasst“ (Flick 2014: 266) und „inwieweit das von einer Methode erfasste Konstrukt mit möglichst vielen anderen Variablen in theoretisch begründbaren Zusammenhängen steht und hieraus Hypothesen ableitbar sind, die einer empirischen Prüfung standhalten“ (Flick 2014: 267; s. auch Kapitel 2). Ausgangspunkt für die Design-Gestaltung im Rahmen qualitativer Forschung bzw. des explorativ-interpretativen Paradigmas (vgl. Kapitel 3.3) sind dagegen die soziale Realität und die daraus entwickelten Alltagsbegriffe (s. Abb. 1). Die entsprechende Design-Entwicklung beginnt deshalb oft mit Explorationen des Feldes und einer ersten Intuition, welche Arten von Daten für den Untersuchungszweck geeignet sein könnten. Diese ergibt sich in der Regel aus vorliegenden Forschungsberichten zum fokussierten Themenfeld, in denen Erfahrungen mit den eingesetzten Verfahren von anderen Forschenden thematisiert und Gesamtdesigns kritisch reflektiert werden. Insofern ist zum Zeitpunkt erster Design-Gestaltungsversuche eine erneute Rezeption von Vorgängerstudien, die in methodologisch-methodischer Hinsicht Inspiration oder zumindest Orientierung bieten, unter eben dieser spezifischen Perspektive empfehlenswert.
378
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Abbildung 1: Stellenwert der Operationalisierung in der quantitativen und qualitativen Sozialforschung (Lamnek 2010: 120)
An der Weitergabe solch methodologisch-methodischer Erfahrung in Forschungsbeiträgen zeigt sich auch der genuin kooperative Charakter von Forschung: Unabhängig von Zeit und Ort werden auf diese Weise an Kolleg_innen wertvolle Einsichten vermittelt, damit im Gesamtgefüge der Anstrengungen einer wissenschaftlichen Gemeinschaft Fortschritt möglich wird. Wer in diesem Geiste kooperativer Wissenschaft von transparenten Vorgängerstudien für die eigene Empirie profitiert hat, wird später bei der Präsentation der eigenen Untersuchungsergebnisse (s. Kapitel 6.6) auch nicht versucht sein, forschungsmethodische Probleme zu verbergen, sondern diesbezüglich vielmehr gewinnbringende Reflexionen anstellen, weil er oder sie Zweck und Relevanz selbstkritischer Forschungsmethodenreflexion bei der eigenen Orientierung bereits gewinnbringend erlebt hat. Wenig erfolgversprechend ist es dagegen, wenn die ersten Überlegungen zur Datengewinnung ohne ein gewisses Informationsniveau ex negativo erfolgen, beispielsweise weil man gehört hat, dass Transkribieren aufwändig sei, oder weil man glaubt, dass statistische Rechenverfahren schwierig seien. Das jeweilige Handwerkszeug ist durchaus erlernbar, wobei es natürlich vorteilhaft ist, wenn die Betreuungsperson und die Peers diese Kompetenzen bereits beherrschen und Noviz_innen bei der selbständigen Aneignung solcher Forschungsverfahren unterstützen. Haben Forscher_innen Typen von Daten identifiziert, die sich zur Beantwortung ihrer Forschungsfrage eignen, stellen sich u. a. Fragen nach der Korpusgröße und der Datentriangulati-
6.4 Gestaltung des Designs
379
on. Welche Personen, Zeitpunkte und Orte sind für die Datengewinnung besonders geeignet? Hier kommen Fragen des Sampling (s. Kapitel 4.3) und der Forschungsethik (s. Kapitel 4.6) ins Spiel. Weitergehend ist zu überlegen, mit welchen Aufbereitungs- und Auswertungsmethoden diese Daten bearbeitet werden sollen (s. Kapitel 5.3). Weiß man beispielsweise um das Transkriptionsverhältnis für ein Interview von 1:5 oder 1:10 oder für eine gesprächsanalytische Transkription von 1:60 oder 1:80, dann lässt sich der Aufwand in Arbeitsstunden allein für die Aufbereitung schon bei der Design-Entwicklung überschlagen. Entsprechende Überlegungen sind auch zur Eingabe statistischer Daten und zum Zeitaufwand von Auswertungen im Vorfeld anzustellen. Sie können zur Einsicht in die Notwendigkeit einer Reduktion des jeweiligen Korpus führen. So werden gewissermaßen rückwärtsgerichtete Entscheidungen notwendig, bei denen Überlegungen zur Aufbereitung und Analyse auf die Größe und Zusammensetzung des Datenkorpus zurückverweisen und bei denen Überlegungen zur Gewinnung von Daten Einsicht in die Notwendigkeit zur Veränderung der Forschungsfrage mit sich bringen. Auch der umgekehrte Fall vorwärtsgerichteter Entscheidungen tritt natürlich auf: Nach einem ersten Design-Entwurf wird deutlich, dass sich auf dieser Grundlage die Forschungsfrage noch nicht hinreichend beantworten lässt und dass weitere Daten, eine Methodentriangulation oder ein komplexeres Design erforderlich werden. Parallel zu und gewissermaßen im Wechselspiel mit diesem Einstieg in die Design- Gestaltung über die Frage nach untersuchungsgegenstandsadäquaten Daten ist auch die Orientierung an prototypischen Designs sinnvoll, die aufgrund eines Forschungsparadigmas (s. Kapitel 3.3) oder einer Tradition in einem bestimmten Untersuchungsfeld naheliegen (s. Kapitel 4.2). Sie bieten ebenfalls Ausgangspunkte dafür, einen vorläufigen Entwurf eines empirischen Forschungsdesigns zu konzipieren, der anschließend in einem kontinuierlichen Prozess von Revisionen und Präzisierungen weiterentwickelt wird. Bei quantitativen Studien wird diese Planungsphase vor der Datenhebung durchgeführt und nimmt einen beträchtlichen Anteil der Gesamtarbeitszeit für das Forschungsprojekt ein, während bei qualitativen Studien spezifische Fragen der Design-Gestaltung teilweise erst nach ersten Datenerhebungen präzisiert werden.
6.4.2 Revisionen und Präzisierungen des Designs Kontinuierliche Revisionen und Präzisierungen eines ersten groben Design-Entwurfs führen nach einem längeren Arbeitsprozess zu einem voll ausgearbeiteten, tragfähigen Forschungsdesign. Dabei ist im Hinblick auf Gütekriterien, die angesichts der ersten Design-Entscheidungen zu präzisieren sind (s. Kapitel 2), zu prüfen, ob bzw. in welcher Weise das geplante Vorgehen erlaubt, sie einzuhalten. Solche Überarbeitungen bestehen häufig aus den folgenden drei Prozessen: (a) der Überprüfung der Untersuchungsschwerpunkte bzw. Variablen, (b) der Überprüfung von Daten pro Variable und (c) der Abstimmung der Verfahren bzw. Teilstudien aufeinander. (a) Die Betreuungserfahrung zeigt, dass einige Doktorand_innen empirische Designs im ersten Zugriff zu breit anlegen, da ihnen aufgrund der Faktorenkomplexion des Fremdsprachenunterrichts viele Aspekte des zu untersuchenden Phänomens wichtig, ja un-
380
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
verzichtbar für die geplante Studie erscheinen. Der Weg zur Einsicht, dass die eigene Untersuchung nur einen sehr kleinen Ausschnitt der Realität erforschen kann, ist im ersten Moment nicht selten von Gefühlen der Enttäuschung oder der Belanglosigkeit des eigenen Projekts begleitet. Je mehr es jedoch gelingt, den Blick auch bereits über die Datengewinnung hinaus auf die arbeitsaufwändigen Aufbereitungs- und Auswertungsverfahren zu lenken, umso höher ist die Wahrscheinlichkeit, dass die Fokussierung auf vermeintlich geringfügige Realitätsausschnitte auch als befreiend erlebt wird. Dass ein wohldurchdachtes Design mit mehreren Variablen durchaus zu bewältigen ist, zeigt die Referenzarbeit von Biebricher (2008): Sie illustriert den Fall einer Dissertation, die erfolgreich mit einer sehr hohen Zahl an sowohl quantitativen Daten (C-Test, Leseteil des Preliminary English Test, Fragebogen) als auch qualitativen Daten (Beobachtung, Fragebogen, nicht-standardisierte Leseprobe, Leitfadeninterview und impulsgestützte Stellungnahmen) arbeitet. (b) Neben der Herausforderung, die zu berücksichtigenden theoretischen Konstrukte auszuwählen, gilt es im Design-Gestaltungsprozess auch kontinuierlich die Überlegungen zum Datenkorpus zu verfeinern, das zu jeweils einem theoretischen Konstrukt bzw. Untersuchungsgegenstand erhoben wird. Auch stellt sich die Frage, ob jeweils mehrere Erhebungsmethoden zum Einsatz kommen sollen (zur Methodentriangulation s. Kapitel 4.4). Als Gegenpol zu Biebrichers (2008) Arbeit kann die Referenzarbeit von Arras (2007) als Beispiel dafür herangezogen werden, dass in der Hauptstudie ein sehr begrenztes Inventar an Datentypen, in diesem Fall Daten Lauten Denkens und retrospektive Daten, verwendet wird. Zwar nutzt die Verfasserin in zwei Vorstudien auch Fragebogenerhebungen und problemzentrierte Interviews, um die Forschungsfragen genauer fassen zu können, doch in ihrer Hauptuntersuchung nimmt sie eine rigorose Begrenzung der Datentypen vor und ermöglicht so eine tiefgehende Auseinandersetzung mit entsprechenden qualitativen Analysestrategien. (c) Aus einer Kernidee für ein einfaches empirisches Design kann im Prozess des gestalterischen Nachdenkens auch ein komplexeres Design entstehen, in dem in zielführender Weise mehrere Teilstudien miteinander kombiniert werden, die parallel oder sequenziell aufeinander bezogen sind (s. Kapitel 3.3). Bei sequentiellen Designs sollten die Gewichtung und die jeweilige Funktion der Teilstudien im Zusammenspiel genau geklärt werden. Im Fall von parallelen Studien ist die Verschränkung der Teilstudien miteinander im Detail zu bedenken; besonderes Augenmerk sollte dabei der Frage gelten, in welchen Phasen des Forschungsprozesses Zusammenhänge zwischen verschiedenen Methoden hergestellt werden (s. zu Fragen des mixing von Methoden einführend Kuckartz 2014). Grundsätzlich erscheint es hilfreich für gestalterische Überlegungen, für Beratungsgespräche und nicht zuletzt auch für Leser_innen, wenn Forscher_innen ihr Design auch graphisch darstellen. Eine solche Darstellung zwingt naturgemäß zur Begrenzung auf das Wesentliche; wenn dabei die Variablen und die jeweilige Erhebungsmethode incl. Korpusgröße explizit angegeben und die Zusammenhänge zu Aufbereitungs- und die Auswertungsmethoden präzise abgebildet werden, lassen sich mögliche Design-Probleme wie ein fehlender Zusammenhalt zwischen einzelnen Verfahren, Gestaltungslücken oder überdimensionierte Korpusgrößen oft leichter erkennen als in Fließtexten. Eine weitere wichtige Möglichkeit, die Gestaltung des Designs voranzutreiben, stellen Pilotierungen
6.4 Gestaltung des Designs
381
dar. Zahlreiche der in Kapitel 7 vorbestellen Referenzarbeiten illustrieren, dass wichtige Präzisierungen des Designs erst auf dieser Grundlage vorgenommen werden konnten (s. Arras 2007, Biebricher 2008, Özkul 2011, Tassinari 2010).
6.4.3 Fazit Nach einem ersten vorläufigen Design-Entwurf, der häufig zur Verfeinerungsarbeit bezüglich der Forschungsfrage zurückführt, werden im weiteren Gestaltungsprozess detaillierte Revisions- und Präzisierungsprozesse erforderlich. Die Vorstellung, ein Design könne einfach so aus dem Ärmel geschüttelt werden, wäre illusorisch; es muss vielmehr in zahlreichen Runden immer wieder umstrukturiert und immer weiter verfeinert werden. Deshalb erscheint es wichtig, sich in Vorbereitung auf diese Phase der Design-Gestaltung klar zu machen, dass es sich um einen anspruchsvollen kreativen Prozess handelt, der gründliches Nachdenken, gute Beratung von klug ausgewählten Mentor_innen mit Erfahrung in den relevanten Bereichen, Geduld, Hartnäckigkeit und Lernbereitschaft erfordert. Settinieri (2014: 66 – 67) formuliert dazu u. a. die folgenden Maximen: Denke Deine Untersuchung bis ganz zum Schluss durch! […] Pilotiere Deine Datenerhebungsinstrumente, was das Verhalten der Datenerhebenden und der Untersuchungsteilnehmenden einschließt! Ändere und optimiere Dein Forschungsdesign auf der Grundlage der Pilotierung, nötigenfalls auch mehrmals! […] Präsentiere nach der Pilotierung, aber vor der eigentlichen Datenerhebung bei jeder sich bietenden Gelegenheit das Design Deiner Studie und hole nicht nur inhaltsbezogenes, sondern auch methodisches Feedback dazu ein! Vernetze Dich mit Forschenden auf unterschiedlichen Qualifikationsebenen und rege den gegenseitigen unterstützenden Austausch bzgl. Datenerhebung, -aufbereitung, – auswertung und -interpretation an! Gehe davon aus, dass Du in jedem Fall irgendwelche Methodenfehler begehst, suche aktiv nach ihnen, reflektiere sie im Rahmen Deiner Arbeit und beziehe sie in Deine Ergebnispräsentation ein […]! (Settinieri 2014: 66 – 67)
Handlungsleitend sollten im Prozess der Design-Gestaltung zum einen die Frage nach der Forschungsökonomie sein – also danach, ob das Design eine effiziente Beantwortung der Forschungsfrage erlaubt – und zum anderen die Frage nach der Forschungsökologie – also danach, ob das Design nachhaltig ist und sparsam mit Ressourcen umgeht. ›› Literatur Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDaF). Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Cohen, Louis/Manion, Lawrence/Morrison, Keith (2007). Research Methods in Education. London: Routledge.
382
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Flick, Uwe (2014). Sozialforschung. Methoden und Anwendungen. Ein Überblick für die BA-Studiengänge. 2. Auflage. Reinbek bei Hamburg: Rowohlt Taschenbuchverlag. Kuckartz, Udo (2014). Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer VS. Lamnek, Siegfried (2010). Qualitative Sozialforschung. 5. überarbeitete Auflage. Weinheim: Beltz. Özkul, Senem (2011). Berufsziel Englischlehrer/in. München: Langenscheidt. [Referenzarbeit, s. Kapitel 7] Settinieri, Julia (2014). Planung einer empirischen Studie. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Ferdinand Schöningh, 57 – 71. Tassinari, Maria G. (2010). Autonomes Fremdsprachenlernen: Komponenten, Kompetenzen, Strategien. Frankfurt/Main: Lang. [Referenzarbeit, s. Kapitel 7]
Prozessplanung und -steuerung
6.5
Karen Schramm
6.5.1 Planung komplexer Arbeitsprozesse Ein neues Forschungsprojekt zu beginnen, bedeutet oft nicht nur, sich auf ein neues thematisches Abenteuer einzulassen, sondern sehr oft ist es auch so, dass das neue Projekt in seinen Dimensionen die bisherigen Forschungserfahrungen der Beteiligten übersteigt. Bei Qualifikationsarbeiten ist dies mit der Steigerung der Anforderungen von einer BA- über eine MA-Arbeit bis hin zu einer Dissertation oder gar Habilitation systematisch so angelegt. Aber auch bei anderen, beispielsweise kooperativen Forschungsprojekten ist es kein seltener Fall, dass Fremdsprachendidaktiker_innen in Bezug auf die Komplexität der neuen Studie über ihre bisherigen Forschungserfahrungen hinausgehen und sich in diesem Prozess – wie auch Nachwuchswissenschaftler_innen im Qualifikationsprozess – weiterentwickeln. Somit ist der Beginn eines neuen Projekts zumeist nicht nur in thematischer, sondern auch in organisatorischer Hinsicht das Sich-Vorwagen in ein unbekanntes Terrain. Dass dabei so manche Überraschung lauert, hat Riemer (2014: 17) mit dem Bild der Forschungspraxis als „anstrengende[r] Trekkingtour“ verdeutlicht. Unter Bezugnahme auf Alemann (1984) spricht sie von schwierigen Wegabschnitten wie dem „Gipfel der Konfusion“, dem „Pass des Geldes“, dem „Wald der Müdigkeit“ oder dem „Sumpf der verlorenen Manuskripte“ (Riemer 2014: 18 – 19). Die Metapher der Trekking-Tour veranschaulicht einerseits, dass nicht alle Wegstrecken im Detail vorausgesehen werden können, und macht andererseits auch deutlich, dass gerade deshalb eine gute Vorbereitung notwendig ist, um auf dieser anstrengenden Tour den unweigerlichen Überraschungen und unerwarteten Anforderungen erfolgreich begegnen zu können. Somit sind Kompetenzen im Projektmanagement und insbesondere in der Zeit- und Arbeitsplanung hilfreich. An vielen Universitäten wird gefordert, bereits im Exposé eine erste Planung der Arbeitsschritte und des jeweiligen Zeitbedarfs vorzunehmen. Dies kann bei-
6.5 Prozessplanung und -steuerung
383
spielsweise in Form eines Flowcharts geschehen. Die Herausforderung liegt dabei gerade darin, die naturgemäß zunächst noch diffusen Vorstellungen über den Arbeitsprozess bestmöglich zu konkretisieren und in eine – praktisch realisierbare – lineare Reihenfolge zu bringen. Erst die explizite schriftliche Planung erlaubt es in vielen Fällen, auch Details rechtzeitig zu berücksichtigen, beispielsweise dass die Datenerhebung an einer Schule nur zu bestimmtem Phasen des Schuljahrs realistisch erscheint oder dass eine Schulung zu einer relevanten Analyse-Software nur zu bestimmten Zeitpunkten angeboten wird. Gleichzeitig ist natürlich zu betonen, dass die Planung immer wieder den (teils unerwarteten) Realitäten anzupassen ist – deshalb erscheint eine Feinplanung für die nächsten Wochen zusätzlich zu einer Grobplanung für die nächsten Monate geeignet. Der Wunsch nach einer solchen Struktur in Form von Arbeits- und Zeitplänen ist bei Doktorand_innen je nach Persönlichkeitstyp unterschiedlich ausgeprägt: Während einige die Freiheit genießen, auf der Trekking-Tour nach Gespür spontane Entscheidungen über den Reiseverlauf zu treffen, gewinnen andere Sicherheit aus einem vorstrukturierten Pfad, der ihnen ein zielorientiertes Voranschreiten ermöglicht. Über die diesbezüglichen Wünsche nachzudenken und mit der/dem Betreuer_in darüber zu sprechen, kann eventueller Frustration auf der einen oder anderen Seite vorbeugen. In diesem Planungsprozess empfiehlt es sich, Meilensteine zu definieren; dies sind konkrete Arbeitsprodukte wie beispielsweise der Erstentwurf eines Kapitels, das Transkriptkorpus oder der Anhang der Dissertation. Im Falle einer gelungenen Planung sind die Meilensteine die Fixpunkte, die bei der Trekking-Tour als nächstes Etappenziel angepeilt werden. Das bedeutet auch, dass nicht das bleierne Gewicht der gesamten fertigzustellenden Dissertation auf den Schultern zu tragen ist, sondern pro Etappe von beispielsweise zwei oder drei Monaten ‚nur‘ das aktuelle Arbeitspaket – dies kann sehr erleichternd sein und Gefühlen von Überforderung oder Mutlosigkeit entgegenwirken. Eine solche Planung ist auch eine wichtige Grundlage für Betreuungsgespräche, in denen Betreuer_innen aufgrund ihrer Forschungserfahrung bereits manches Problem voraussehen und rechtzeitig im Vorfeld ansprechen können (vgl. auch Kapitel 6.8). Dazu gehören u. a. Fragen der Reihenfolge (z. B. Lässt sich das Theoriekapitel tatsächlich schon schreiben, bevor das Forschungsdesign steht?), der zeitlichen Planung (Dauert es tatsächlich nur vier Wochen, die Genehmigung der Schulbehörde einzuholen?) oder des Arbeitsaufwands (Ist es realistisch, ein Videokorpus von 15 Unterrichtsstunden in zwei Monaten zu transkribieren?). In manchen Fällen können Betreuer_innen auch Hinweise zu den in der Planung noch nicht berücksichtigten Arbeitsphasen geben. Beispielsweise wird die Notwendigkeit zur Pilotierung, zur kommunikativen Validierung oder zur Erstellung eines Anhangs, der Transparenz über die Analyse schafft, in den ersten Schritten zur Planung eines Dissertationsprojekts oft noch nicht erkannt. Auch das Einholen von Feedback zu Kapitelentwürfen und die entsprechenden Revisionsprozesse bleiben von Doktorand_innen bei den ersten Planungen häufig unberücksichtigt – ebenso wie die aufwändige Gesamtformatierung. Anzumerken ist in Bezug auf die Zeitplanung, dass sich historische, theoretische sowie empirische Forschungsarbeiten (und hier wiederum hypothesengenerierende und hypothesenüberprüfende) deutlich in der zeitlichen Gewichtung der verschiedenen Arbeitsphasen unterscheiden. Bei historischen Arbeiten benötigt vor allem die Suche nach den Quellen erfahrungsgemäß viel Zeit, da sich deren Fundorte erst im Verlauf der Recherche erschließen.
384
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Theoretische Arbeiten zeichnen sich insbesondere durch eine umfängliche Literaturrecherche und iterative Leseprozesse aus. Während Forscher_innen sich bei empirischen Projekten, mit denen sie Hypothesen generieren wollen, eher frühzeitig ins Feld begeben und an die Datenerhebung wagen, erfordern hypothesenüberprüfende Studien eine deutlich längere Vorbereitungszeit, bevor die Datenerhebung sinnvollerweise stattfinden kann. Demgegenüber steht dann wiederum bei hypothesengenerierenden Projekten eine in der Regel deutlich längere Auswertungsphase als bei hypothesenüberprüfenden Studien.
6.5.2 Steuerung komplexer Arbeitsprozesse Selbstverständlich sind auch die besten Planungen dazu da, angesichts neuer Einsichten und praktischer Erfordernisse umgestoßen zu werden. Dies sollte wohlüberlegt und zielorientiert geschehen. Keinesfalls darf der Steuerungsprozess ein hilfloses Dahintreiben im Strom der vielen Möglichkeiten oder der vielen wohlgemeinten Ratschläge von unterschiedlichen Seiten sein. Damit ist das Spannungsfeld von Fremd- und Selbststeuerung bei einem komplexen Arbeitsprozess wie der Erstellung einer Dissertation angesprochen. Wichtig erscheint, dass der oder die Doktorand_in auf der Trekkingtour den Kompass selbst in der Hand hat und durch kontinuierliche Orientierung den Weg zum Ziel eigenständig findet. Um dabei zielführende Entscheidungen treffen zu können, ist die Einbindung in eine community of practice von Forschenden von höchster Bedeutung. Der Austausch mit erfahreneren ‚Doktorgeschwistern‘ liefert wertvolle Anregungen über bereits bestandene (bzw. für den/die Noviz_in noch zu bestehende Abenteuer). Gleichermaßen tragen die Denkanstöße, die man selbst als Doktorand_in den ‚Doktorgeschwistern‘ anbieten kann, zur eigenen Reflexion bei: Es ist kein seltener Fall, dass man an den Projekten anderer, in die man emotional weniger involviert ist, methodische Probleme klarer erkennt als am eigenen und daraus Nutzen für das eigene Projekt zieht. Auch das Gespräch mit mehreren professoralen Berater_innen stellt den Zugang zu einer Vielfalt von Erfahrungsperspektiven sicher und ist keinesfalls als ‚Verrat‘ an der oder dem eigenen Betreuer_in zu begreifen. Entscheidend ist dabei, dass Beratung jeweils als Denkanstoß oder als Anregung – nicht als Handlungsdirektive – verstanden wird. Doktorand_innen sollten Entscheidungen nicht aus Vertrauen in die Ratschläge anderer, sondern auf der Grundlage einer klaren eigenständigen Orientierung und entsprechend gefestigter Überzeugung treffen. Zur Dokumentation und Reflexion möglicher Handlungsalternativen bietet sich ein Forschertagebuch oder ein Logbuch an. Eine solche Dokumentation kann dabei helfen, regelmäßig auf einer Metaebene den eigenen Tourverlauf zu reflektieren, Bilanz zu ziehen und die nächsten Etappen zu planen. Beispielsweise kann es an einem Punkt der Arbeit zu der Entscheidung kommen, einen bereits erarbeiteten Themenbereich aus der Dissertation auszugliedern und zu einem späteren Zeitpunkt einen Artikel darüber zu schreiben. Regelmäßig Bilanz zu ziehen, ist auch Voraussetzung für das Erkennen des eigenen Fortschritts. Beispielsweise kann es die Motivation anfachen und die Konturen für die nächsten Arbeitsschritte klarer erkennbar werden lassen, wenn man bereits geschriebene Kapitel ausdruckt oder die fertiggestellten Teile in der Gliederung farbig markiert.
6.5 Prozessplanung und -steuerung
385
Dass es neben der klugen Steuerung durch gründliches Nachdenken auch einer guten Kondition und eines gewissen sportlichen bzw. intellektuellen Ehrgeizes bedarf, ist vermutlich selbstverständlich. Es wird bei Dissertationsprojekten kaum zu vermeiden sein, dass in den verschiedenen Phasen eine hohe Arbeitsbelastung entsteht, die es nicht nur in kognitiver, sondern auch in affektiver und sozialer Hinsicht zu bewältigen gilt. Der vertrauensvolle Austausch mit Peers über erfolgreiche Strategien zum Umgang mit diesen Herausforderungen ist dabei hilfreich: Wie haben andere Doktorand_innen Motivationstiefs oder gar Verzweiflung überwunden? Welche Maßnahmen haben sie ergriffen, um Abstand zu gewinnen und um auf ihre Gesundheit zu achten? Wie haben sie sich selbst angefeuert? Welche Arbeiten haben sie delegiert? Wie haben sie Partner, Familie und Freunde zu strategischen Verbündeten in Sachen Dissertationsprojekt gemacht? Gerade der letzte Punkt erscheint für den erfolgreichen Abschluss einer Dissertation von besonderer Bedeutung; die Unterstützung durch das soziale Umfeld spielt eine nicht zu unterschätzende Rolle. In den verschiedenen Phasen des Forschungsprozesses stellen sich hinsichtlich der Detailplanung und Steuerung teils charakteristische Herausforderungen. Bei der empirischen Datenerhebung könnte eine solche Herausforderung beispielsweise darin bestehen, dass das Feld schwer zugänglich ist oder die hohen Ansprüche der Forscherin oder des Forschers nicht mittragen kann – hier gilt es, sich nicht entmutigen zu lassen und Kompromisse zu schließen, die als wichtige Forschungserfahrung auch in der Dissertation dokumentiert werden. In vielen Fällen wird auch eine zeitliche Abhängigkeit der Datenerhebungen zu bedenken sein: So wird in Bezug auf das videobasierte Laute Erinnern beispielsweise häufig postuliert, dass es innerhalb von 24 Stunden geschehen solle. In Bezug auf problemzentrierte Interviews ist zu bedenken, dass die entsprechenden Impulse für das Interview möglicherweise nicht nur erhoben, sondern auch bereits transkribiert oder gar analysiert sein müssen, um ihre Funktion zu erfüllen. Auch könnte es wichtig sein, die Erhebungen so zu planen, dass die Forschungspartner_innen sich darüber nicht austauschen können; zu diesem Zweck wären simultane Erhebungen durch Forschungsassistent_innen eine Lösung. Die Datenverwaltung ist bei großen Mengen von Dokumenten, Texten und Daten eine nicht zu unterschätzende Herausforderung, der man nur durch akribische Sorgfalt im Erhebungsprozess und gute – heute in der Regel digitale – Ablagesysteme gerecht werden kann. Sollen beispielsweise verschiedene Daten wie Videoaufnahmen und Lerner_innentexte mittels eines Klassenspiegels zugeordnet werden, so ist das keine triviale Herausforderung, die unmittelbar im Zuge der Erhebungen zu erledigen ist. Auch eine sichere Aufbewahrung ist wichtig, um die in aufwändigen Arbeitsprozessen gewonnenen Dokumente, Texte und Daten vor Kindern und neugierigen Haustieren, vor Feuer und Wasser und insbesondere vor dem digitalen Verpuffen (versehentliches Löschen, fehlende Datensicherung bei gestohlenen oder kaputten Laptops etc.) zu schützen. Bei der Datenaufbereitung kann eine erfolgreiche Steuerung darin bestehen, sich eine hochkonzentrierte Arbeit wie das Transkribieren aufzuteilen (beispielsweise nicht länger als zwei Stunden am Stück), sich gute Ausrüstung zu besorgen (beispielsweise mit Einstellungen für Wiederholungsschleifen zu arbeiten) oder sich eine Datenbank passend zum eigenen Projekt einzurichten. Sollten mehrere Personen an solchen Aufbereitungsprozessen beteiligt sein, sind Schulungen einzuplanen, um die Einheitlichkeit sicherzustellen.
386
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Die Analyse stellt bei interpretativen Auswertungen möglicherweise die höchsten Anforderungen an die metakognitive Kontrolle und Steuerung des gesamten Prozesses. Die vertiefte Beschäftigung mit Detailanalysen einerseits und die Suche nach einer Gesamtstrategie für die Analyse andererseits kommen oft einem Balanceakt gleich. Hilfreich ist es in der Regel, exemplarische Einzelanalysen im Rahmen eines Kolloquiums oder einer Arbeitsgruppe, die idealerweise mit dem Projekt schon längere Zeit vertraut ist, vorzustellen. Die kritischen Freunde werden mit ihren Nachfragen dazu beitragen, die Analyse auf der Mikroebene zu schärfen und ihre Einbindung auf der Makroebene genauer zu fassen. Nicht nur, aber besonders bei unerwarteten Befunden wird eine erneute Auseinandersetzung mit der Forschungsliteratur notwendig. In der Regel ist nach der Analyse qualitativer Daten auch die Frage zu stellen, wie die konkreten Befunde abstrahiert und modelliert werden können. Bei der Erstellung des Schlusskapitels ist bei empirischen Projekten eine Rückbindung der Ergebnisse an den Forschungsstand oder eine (oder mehrere) Theorie(n) gefordert. Wichtige Fragen sind hier u. a.: Wie kann der Bogen zur Einleitung und zum Theoriekapitel geschlagen werden? Welche zitierfähigen Passagen fassen hieb- und stichfest die eigenen Arbeitsergebnisse zusammen? Welche Forschungsdesiderata ergeben sich daraus für zukünftige Untersuchungen? Bei historischen und theoretischen Arbeiten geht es dagegen in der Regel um einen Ausblick auf weiterhin offene oder neu entstandene Fragen. Ist die Trekking-Tour zu einem glücklichen Abschluss gekommen, steht am Ende nicht nur der fachliche Ertrag bzw. das eigene Buch, sondern der oder die Doktorand_in wird in der Regel auch einen großen persönlichen Gewinn aus der Autonomie- und Selbstwirksamkeitserfahrung der abenteuerlichen Reise ziehen. Es steht zu erwarten, dass dieser persönliche Gewinn an Mut, Veränderung anzugehen und Verantwortung zu übernehmen, auf der weiteren Reise des Lebens erkennbar werden wird. ›› Literatur Alemann, Heine von (1984). Der Forschungsprozeß. Eine Einführung in die Praxis der empirischen Sozialforschung. 2. Aufl. Stuttgart: Teubner. Riemer, Claudia (2014). Forschungsmethodologie Deutsch als Fremd- und Zweitsprache. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 15 – 31.
Zusammenfassung und Diskussion der Erträge
6.6
Michael K. Legutke
Nach der Gewinnung von Daten, Dokumenten oder Texten sowie deren Aufbereitung und Analyse sieht sich der/die Forscher_in mit der Herausforderung konfrontiert, die gewonnenen Erkenntnisse und erarbeiteten Erträge so zu bündeln und darzustellen, dass sowohl das Besondere der Studie in Erscheinung tritt, als auch die Fragen angesprochen werden, die offen
6.6 Zusammenfassung und Diskussion der Erträge
387
bleiben mussten oder die sich als Folge der Untersuchung neu stellen. Das folgende Kapitel bietet einige Anregungen dazu, was beim Umgang mit dieser Herausforderung zu bedenken ist, wenn die entsprechenden Teile der Forschungsarbeit abgefasst werden. Auch wenn die Zusammenfassung und Diskussion der Erträge in Abhängigkeit von den Forschungstraditionen (historisch, theoretisch, empirisch, vgl. Kapitel 3) sowie dem Forschungsansatz und den gewählten Vorgehensweisen (quantitativ, qualitativ, mixed methods) in zum Teil unterschiedlicher Form erfolgen wird, wie noch zu erläutern ist, sollte sich der/die Forscher_in in jedem Fall an folgenden Zielen orientieren. Dabei kann es durchaus sinnvoll sein, bei der Darstellung inhaltliche und methodische Aspekte getrennt zu erörtern:
• Die Zusammenfassung und Diskussion geschieht mit klarem Bezug zu der Forschungsfrage/ den Forschungsfragen und schlägt argumentativ die Brücke zum Forschungsstand und Literaturüberblick (vgl. Kapitel 6.3). • Die Erträge werden in die mit dem Forschungsstand erörterten theoretischen Zusammenhänge eingeordnet. • Der Geltungsanspruch und die Reichweite der Erträge werden erörtert und offene Fragen benannt. Damit wird deutlich, warum die Erträge der Studie ernst zu nehmen sind und warum sie den Gütekriterien fremdsprachendidaktischer Forschung entsprechen. • Die theoretische Bedeutung der Studie und mögliche Implikationen für praktisches Handeln werden verdeutlicht. • Perspektiven für weitere Forschungen, die sich aus den Erträgen herleiten lassen, werden skizziert. • Das gesamte Design wird ebenso wie einzelne Forschungsentscheidungen und Verfahren auf der Basis der Erträge kritisch reflektiert. • Besonders gewinnbringende ebenso wie problematische Ereignisse im Forschungsprozess werden, sofern vorhanden, benannt und diskutiert. • Der Text ist leserfreundlich formuliert, sprachlich zugänglich und nachvollziehbar. Er trägt mit dieser Qualität der sozialen Verpflichtung von Forschung Rechnung – ist es doch ein Bestimmungsmerkmal von Forschung, dass sie wahrgenommen und diskutiert wird. Die sprachlich-argumentative Qualität der Zusammenfassung und Diskussion schaffen dafür eine wichtige Voraussetzung. • In mehreren Handbüchern findet sich der Hinweis, der/die Forscher_in solle versuchen, die Zusammenfassung und Diskussion der Ergebnisse als Geschichte zu konzeptualisieren: „Your findings need to tell a story related to your aims, objectives and research questions“ (O’Leary 2014: 288; vgl. auch Dörnyei 2007: 292 – 93). Damit ist nicht gemeint, der/die Forscher_in solle versuchen, den Gang der Arbeit chronologisch nachzuerzählen. Die Anregung ist vielmehr metaphorisch zu verstehen, nämlich als Hinweis, darüber nachzudenken, wie die Darstellung der Erträge und ihrer Diskussion anschaulich gestaltet werden kann. Eine solche Empfehlung mag sich für historische und empirische Forschungen eher realisieren lassen als für theoretisch-konzeptuelle Arbeiten; als generelle Aufforderung, sich um Leserbezogenenheit und Lebendigkeit der Darstelllung zu bemühen, sollte sie auf jeden Fall ernst genommen werden. Welche Möglichkeiten der Realisierung einzelne Forscher_innen gewählt haben, zeigen exemplarisch die Referenzarbeiten im Kapitel 7 dieses Handbuchs.
388
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Unter Berücksichtigung von Forschungstraditionen und Vorgehensweisen ist es angebracht, spezifische Anregungen für empirische (Abschnitt 1) und historische sowie theoretische Forschung (Abschnitt 2) gesondert aufzuführen.
6.6.1 Erträge empirischer Arbeiten 1 Quantitative Forschungsarbeiten
Für quantitativ arbeitende Forscher_innen stellt sich zunächst die grundsätzliche Frage, ob die Präsentation und die Diskussion der Ergebnisse verschränkt oder in getrennten Kapiteln erfolgen soll. Für beide Varianten kann es gute Gründe geben. Eine verschränkte Darstellung bietet einerseits den Vorteil, dass dadurch eine fortlaufende Argumentation entfaltet und kontinuierlich Theoriebezüge hergestellt werden können. Diese Art der Darstellung kann es dem/der Leser_in erleichtern, der Argumentation, die sich ja auf Messergebnisse stützt, zu folgen; sie wäre dann leserfreundlicher. Sie eignet sich sicher besonders bei kürzeren Forschungsbeiträgen, etwa in Fachzeitschriften. Andererseits kann die Breite unterschiedlicher Ergebnistypen, die sich aus den zur Beantwortung der Forschungsfrage(n) zielführenden statistischen Verfahren ableiten, eine Darstellung in zwei getrennten Kapiteln nahe legen. Eine integrierte Darstellung wäre möglicherweise zu unübersichtlich. Eine solche Trennung kann sich vor allem bei größeren Forschungsprojekten, etwa bei Qualifikationsarbeiten (Promotionen, Habilitationen), anbieten. Die Entscheidung wird aber letzten Endes von den Forschungsfragen und den statistischen Auswertungsverfahren abhängen. In der anglo-amerikanischen Tradition (Applied Linguistics) hat sich auch für kürzere Darstellungen in Fachzeitschriften unter den Überschriften Findings/Results und Discussion eine Zweiteilung als Regelfall durchgesetzt.6 Neben dieser Grundsatzentscheidung müssen auf jeden Fall zwei weitere Herausforderungen gemeistert werden. Die erste beinhaltet die wichtige Frage des Präsentationssamplings; es geht darum zu entscheiden, welche Ergebnisse der Analyse prominent dargestellt und diskutiert werden sollen (s. Kapitel 4.3). Forscher_innen sollten der Versuchung widerstehen, für jedes einzelne Messergebnis oder jede einzelne Variable der Studie Graphen, Kurven, Tabellen, Skalen oder Schaubilder anzubieten. Man kann dieser Versuchung leicht erliegen, denn die verfügbaren Statistiksoftwareprogramme ermöglichen auf Knopfdruck die graphische Darstellung von Ergebnissen, die durch deskriptive oder komplexere statistische Verfahren gewonnen wurden. Die zweite Herausforderung betrifft die Art der Darstellung und ihre sprachliche Form. O’Leary bringt die Herausforderung folgendermaßen auf den Begriff: Now when it comes to how your data should be presented, I think there is one golden rule: your presentation should not be hard work for the reader. Most people’s eyes glaze over when it comes to statistics, so your data should not be hard to decipher. You should not need to be a statistician to understand it. Your challenge is to present your data graphically and verbally so that meanings
6 Vgl. z. B. Forschungsbeiträge in der Zeitschrift TESOL Quarterly. Auch in der deutschsprachigen Zeitschrift
für Fremdsprachenforschung zeigt sich bei der Darstellung quantitativer Forschung die Tendenz zur Zweiteilung.
6.6 Zusammenfassung und Diskussion der Erträge
389
are clear. Any graphs and tables you present should ease the task for the reader. So while you need to include adequate information, you do not want to go into information overload. (O’Leary 2014: 288).
Gezielt eingesetzte Graphiken, Kurven und Tabellen können ohne Frage dazu beitragen, die Darstellung insgesamt leserfreundlich und in ihrer inneren Logik gut nachvollziehbar zu machen. Allerdings gilt es darauf zu achten, dass der begleitende Text nicht einfach die Aussage der Graphen verbal verdoppelt, sondern vielmehr einordnet, ergänzt oder weiterführt.7 2 Qualitative Forschungsarbeiten
Während Forscher_innen bei der Abfassung quantitativer Forschungsarbeiten in der Regel einem konventionalisierten Schema folgen, in dem Präsentation und Diskussion der Ergebnisse einen festen Platz in der Reihenfolge der Kapitel einnehmen, haben qualitativ arbeitende Forscher_innen einen deutlich größeren Spielraum, der sich nicht zuletzt auf die hier zur Debatte stehende Zusammenfassung und Diskussion der Ergebnisse bezieht. Dies hängt einmal mit dem grundlegend explorativen und iterativen Vorgehen qualitativer Forschung zusammen. Die Abfassung der Arbeit ist deshalb nicht so sehr die Herstellung eines Endprodukts, sondern ein notwendiger Teil des Forschungsprozesses selbst, der den/die Forscher_in nicht nur zur Entwicklung neuer Ideen und damit zur Reinterpretation der Daten antreibt, sondern ihm/ihr häufig auch die Aufnahme neuer theoretischer Konzepte und die Auseinandersetzung mit weiterer Literatur abverlangt. Zum anderen sind Zusammenfassung und Diskussion der Ergebnisse von den zur Aufarbeitung und Interpretation der Daten herangezogenen Methoden abhängig (siehe Kapitel 5.3.2 bis 5.3.6), die zwar unterschiedliche Verfahrensweisen und Schrittabfolgen vorsehen, die andererseits aber auch für notwendige Anpassungen an den Forschungsgegenstand offen sind. Da Forscher_innen aufgrund des iterativen Charakters qualitativer Forschung oftmals nicht umhin können, Datensätze wiederholt zu analysieren, fällt die Entscheidung manchmal schwer, die Datenanalyse zu beenden. Der Forschungsprozess muss aber zu Ende kommen; eine zusammenfasende Präsentation und Diskussion der Ergebnisse sind gefordert. Aus der Beratungspraxis können die folgenden Empfehlungen gegeben werden, die bei der Erstellung der Endfassung der Forschungsarbeit bedacht werden sollten:8 Der/die Forscher_in muss ebenso wie bei quantitativen Arbeiten entscheiden, welche Erträge der Datenaufarbeitung und Analyse zur Beantwortung der Forschungsfrage(n) unbedingt und prominent dargestellt werden müssen (Präsentationssampling). Die Beantwortung dieser Frage ist vielfach von den Samplingentscheidungen abhängig, welche die Datenanalyse (Datensampling) leiteten (siehe Kapitel 4.3). Das Präsentationssampling sollte auf jeden Fall transparent gemacht werden. Auch wenn es für manche qualitative Forschungsarbeit durchaus sinnvoll sein kann, die Zusammenfassung der Ergebnisse und ihre Diskussion in zwei separaten Kapiteln vorzunehmen, legen es das explorative und iterative Vorgehen der Datenanalyse häufig nahe, 7 Hinweise für die Abfassung quantitativer Studien unter Berücksichtigung der Darstellung und Diskussion der Erträge liefern u. a.: Dörnyei 2007: 277 – 289, O’Leary 2014: 274 – 289. 8 Ausführliche Darstellungen zur Abfassung qualitativer Studien, insbesondere zur Zusammenfassung und Diskussion der Erträge bieten Dörnyei 2007: 290 – 300, Holliday 2007, Richards 2009: 191 – 207, Silverman 2000: 201 – 256.
390
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
die Darstellung der Erträge in Etappen und/oder thematisch gegliedert in Teilkapiteln unter Berücksichtigung weiterer Forschungsliteratur vorzunehmen. Der/die Forscher_in muss dann deutlich machen, wie sich die Einzelaspekte zu einem Ganzen zusammenfügen. Leser_innen brauchen klare Orientierungspunkte, damit sie der Argumentation folgen können. Die Bereitstellung solcher Markierungen und damit die Herstellung von Kohärenz sind wichtige Aufgaben der Forscher_innen. Da qualitative Studien in der Regel komplexe Phänomene und ihre Bedeutungen aufdecken, indem sie verschiedene Perspektiven und Stimmen, die des Forschers/der Forscherin eingeschlossen, berücksichtigen, besteht die Gefahr, dass für den/die Leser_in die Übersicht verloren geht. Qualitative Forschung hilft erschließen, was konkrete Menschen in spezifischen sozialen und institutionellen Kontexten tun, wie sie interagieren, wie sie ihr Handeln bewerten und verstehen, wenn sie Sprachen lernen oder lehren. Die Präsentation der Erträge einer Studie kann deshalb erheblich an Lebendigkeit und Aussagekraft gewinnen, wenn sie Beteiligte direkt durch Zitate aus den Daten zu Wort kommen lässt und wenn es gelingt, konkrete Zusammenhänge anschaulich zu beschreiben. Immerhin ist die Argumentation in vielen Fällen auf den ‚Stimmen‘ der Forschungspartner_innen aufgebaut. Es besteht allerdings auch die Gefahr, dass durch den Rekurs auf zu viele Daten die Darstellung zwar lebendig wird, aber in der Deskription stecken bleibt, die Stimmen nicht mehr interpretierend und kommentierend eingeordnet werden. Dörnyei fasst hier prägnant zusammen: „The challenge is to achieve a thick description without the study being overly desriptive but rather analytical as a whole“ (Dönyei 2007: 297). Eine gelungene Zusammenfassung der Erträge wird sich folglich durch eine Balance zwischen Partikularem und Allgemeinerem auszeichnen, dem Zitat aus den Daten und dem interpretierenden und einordnenden Kommentar. Ähnliches gilt in Bezug auf die Berücksichtigung des Kontextes, dem die Daten entstammen. Nur indem die Darstellung der Erträge deren Kontexabhängigkeit transparent macht, kann für den/die Leser_in deutlich werden, ob und wenn ja, in welcher Weise die für den besonderen Kontext erarbeiteten Erträge über ihn hinaus Geltung beanspruchen dürfen. Nicht nur im vorliegenden Beitrag, sondern an mehreren Stellen dieses Handbuchs ist im Zusammenhang der Erörterung qualitativer Verfahren der Datenaufarbeitung und Analyse deutlich geworden, dass solche Forschungsverfahren zwei miteinader verschränkte Funktionen haben. Zum einen helfen sie die Forschungsfragen zu beantworten, zum anderen liegt es in ihrer Natur, neue Perspektiven auf den Forschungsstand zu eröffnen; bisherige Forschung, die der Literaturbericht bündelte, muss möglicherweise neu bewertet werden. Forschungen, die bisher nicht berücksichtig wurden, müssen u. U. in die Erörterung aufgenommen werden. Forscher_innen sollten für solche reflexiven Prozesse offen und bereit sein, im Lichte der Erträge den Literaturüberblick möglicherweise zu modifizieren und/ oder zu erweitern (s. Kapitel 6.3). Schließlich gilt es bei der Zusammenfassung und Diskussion der Erträge qualitativer Arbeiten zu prüfen, ob und wenn ja, in welcher Weise an dieser Stelle die Rolle des Forschers/ der Forscherin explizit thematisiert und kritisch reflektiert werden muss.
6.6 Zusammenfassung und Diskussion der Erträge
391
6.6.2 Erträge theoretischer und historischer Arbeiten Die generellen Empfehlungen, die zu Beginn dieses Beitrags formuliert wurden, haben auch für theoretische Arbeiten Gültigkeit. Im Kapitel 3.2 wird die Vielfalt theoretisch-konzeptueller Forschung über die Darstellung unterschiedlicher Typen und Funktionen geordnet. Vielfalt und Unterschiedlichkeit spiegeln sich auch in Inhalt und Form der Zusammenfassung und Erörterung der Erträge. Gemeinsam ist theoretischen Arbeiten das Bestreben, auf der Basis vorhandener einzelner Konzepte und/ oder umfassenderer Theorien etwas Neues zu entwickeln. Damit dieses Neue sichtbar wird, müssen das Vorhandene gewichtet, Zusammenhänge verdeutlicht, Gemeinsamkeiten und Unterschiede herausgearbeitet und/ oder Teilaspekte neu kombiniert werden. Verbunden damit ist die Notwendigkeit, dem/der Leser_in schlüssige, durch Belege fundierte Argumentationen anzubieten, die in plausiblen Schlussfolgerungen münden. Eine solche Bündelung der Erträge kann durch die Fokussierung auf einen repräsentativen (Teil-) Gegenstand der Studie erfolgen. Zwei Beispiele sollen dies verdeutlichen. (1) In Arbeiten, in denen es um die Entwicklung umfassender theoretischer Konzepte der Sprachvermittlung geht, könnte die Modellierung eines spezifischen Konzepts den Fokus bilden, unter dem Erträge aus einer diachronen Rekonstruktion und kritischen Erörterung affiner Konzepte auch anderer Disziplinen zusammengführt und auf ihre Implikationen für die Praxis überprüft werden. Die Modellierung bietet zudem die Möglichkeit, gegenwärtige Diskurse im Umfeld des bearbeiteten Konzepts neu zu gewichten. (2) Bei Arbeiten, die der Analyse und Auswahl von Lehrmaterial gelten, könnte eine zusammenfassende Erörterung der Erträge mit Hilfe eines theoretisch fundierten Materialensembles aus Texten, Aufgaben und Übungen erfolgen, verknüpft mit einem begründeten Plädoyer, dieses in einem empirisch ausgerichteten Folgeprojekt zu validieren. Das Entscheidende und zugleich Herausfordernde für Forscher_innen ist es, einen für den jeweiligen Typus theoretischer Forschung angemessenen Fokus für die Zusammenfassung der Erträge zu finden. Letzten Endes wird es vom Forschungsgegenstand, der Forschungsfrage und dem Typus theoretisch-konzeptueller Forschung abhängen, wie Ergebnisse zu bündeln und argumentativ abzusichern sind. In der historisch arbeitenden Forschung besteht der bei weitem überwiegende Teil einer Studie aus der Darstellung der Ergebnisse. Auf der Basis der kritisch geprüften, nach thematischen und systematischen Gesichtspunkten geordneten Quellen und deren mehrfacher, gründlicher Analyse werden Prozesse, Phänomene, Diskurse oder andere historische Gegebenheiten in einer wissenschaftlichen Forschungsarbeit dargestellt. Dabei müssen Argumentationslinien entworfen, durch Quellen und Informationen aus der Sekundärliteratur (etwa zum historischen Kontext) belegt und miteinander verknüpft werden, damit die Forschungsergebnisse sowohl in ihrem deskriptiven Charakter (diese Fakten etc. sind belegt; „so war es“) als auch in ihrer Erklärung des Vergangenen sichtbar werden. Wichtig ist dabei immer, zwischen der Aussage von Quellen und dem Referieren weiterer Literatur auf der einen Seite und den eigenen auf den Quellen basierenden Schlussfolgerungen und Interpretationen sprachlich klar zu unterscheiden. Durch häufiges Zitieren aus den Quellen wird die Argumentation anschaulich; allerdings kann es erforderlich sein, sprachliche oder inhaltliche Besonderheiten der Quellen für geschichtliche Laien zu erläutern, da meistens weder
392
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Spezialkenntnisse noch Vertrautheit mit früheren sprachlichen Konventionen vorausgesetzt werden können. Wenn man über die Vergangenheit schreibt, benutzt man im Deutschen in der Regel das Imperfekt. Lediglich Einleitung und Ausführungen zum forscherischen Vorgehen werden im Präsens verfasst. Da man heute wesentlich entspannter mit dem Umstand zurecht kommt als früher, dass auch eine historiographische Forschungsarbeit subjektive Züge trägt, ist der Gebrauch des Pronomens ‚ich‘ nicht länger verpönt. Auch wenn die historische Forschung sich in der Gegenwart stärker an sozialwissenschaftlichen oder linguistischen Analyseverfahren orientiert, sollte man nicht vergessen, dass einer historischen Abhandlung auch Geschichten innewohnen. Besonders gelungen sind historische Forschungsarbeiten dann, wenn sie die gefundenen Fakten und die quellenbasierten Interpretationen zu einem Gesamtbild verdichten, das als facettenreicher und mehrdimensionaler Blick in die Geschichte überzeugt.
6.6.3 Fazit: das Schlusskapitel Während kürzere Forschungsbeiträge in der Regel eine Conclusio, einen Schlussteil, in die Zusammenfassung und Diskussion der Erträge integrieren, werden größere Arbeiten wie Dissertationschriften ein eigenes Schlusskapitel vorsehen, in dem einige der zu Anfang dieses Beitrags genannten zentralen Punkte angesprochen bzw. ‚abgearbeitet‘ werden. Dazu gehören die Frage nach der Reichweite der Studie und ihrer Grenzen; offene Fragen wären hier zu nennen wie neue Fragen, die sich zukünftiger Forschung stellen. Bei aller notwendigen kritischen Selbstreflexion sollte der/die Forscher_in sich allerdings nicht scheuen, selbstbewusst die eigene Forschungsleistung herauszustellen. Der/die Leser_in sollte mit einem positiven Eindruck, die Forschungsleistung betreffend, die Lektüre beenden. Welche konkreten Wege einzelne Forscher_innen einschlagen, um die Zusmammenfassung und Diskussion der Ergebnisse zu realisieren und wie sie integriert oder separat die Studie mit einer Conlusio komplettieren, zeigen die Referenzarbeiten in Kapitel 7, die nicht zuletzt auch deshalb als ermutigende Beispiele zur Lektüre empfohlen werden. ›› Literatur Bitchener, John (2010). Writing an Applied Linguistics Thesis or Dissertation. A Guide to Presenting Empirical Research. Houndmills, Basingstoke: Palgrave Macmillan. Dörnyei, Zoltan (2007). Research Methods in Applied Linguistics. Quantitative, Qualitative and Mixed Methodologies. Oxford: Oxford University Press. Holliday, Adrian (2007). Doing and Writing Qualitative Research. 2nd edition. Los Angeles: SAGE. O’Leary, Zina (2014). Doing Your Research Project. 2nd edition. Los Angeles: SAGE. Richards, Lyn (2013). Handling Qualiative data. A Practical Guide. 2nd edition. Los Angeles: SAGE. Silverman, David (2000). Doing Qualitative Reserch. A Practical Handbook. Los Angeles: SAGE.
6.7 Präsentation von Forschung
393
Präsentation von Forschung
6.7
Friederike Klippel
In den einzelnen Phasen einer Forschungsarbeit verfolgt man mit der Präsentation der eigenen Ideen und Ergebnisse unterschiedliche Zwecke und spricht daher andere Personenkreise an. Am Ende des Schreibprozesses – so schreiben es die meisten Promotionsordnungen vor – steht dann die Publikation der Arbeit in digitaler oder Printform.9 Die Wissenschaft kann sich nur weiterentwickeln, wenn neue Erkenntnisse kommuniziert und für weitere Forschung nutzbar gemacht werden. Auch die Gesellschaft hat ein Interesse daran, relevante Forschungsergebnisse zu erfahren, die – im Falle der Fremdsprachendidaktik – beispielsweise den schulischen Fremdsprachenunterricht, Materialien und Verfahren für die Vermittlung von Zweitsprachen oder die Lehrerbildung verbessern können, um nur einige praxisrelevante Aspekte zu nennen. Vor der Veröffentlichung der gesamten Arbeit, zu der im zweiten Abschnitt noch viel gesagt wird, soll es im Folgenden jedoch zuerst um Präsentationen im Verlauf des Forschungsvorhabens gehen. Dabei wird der Begriff ‚Präsentation‘ weit gefasst und schließt auch Veröffentlichungen von Teilen des Forschungsprojekts und Gespräche über das Projekt ein.
6.7.1 Präsentationen während des Forschungsprozesses 1 Im Recherchestadium
Wer ein Forschungsvorhaben beginnt, ist zunächst damit befasst, möglichst breit und genau die bereits vorhandenen einschlägigen Vorarbeiten und Erkenntnisse zur eigenen Forschungsfrage zu erfassen. In den ersten Stadien der Literaturrecherche, der Präzisierung der Forschungsfrage und der Entscheidung für ein bestimmtes Forschungsdesign geht es vor allem darum, sich selbst klar zu werden, was man wie untersuchen will. In dieser explorativen Phase kann es nützlich sein, seine Überlegungen im Rahmen eines lokalen Doktorandenkolloquiums oder Oberseminars, auch eines fächerübergreifenden, zu erläutern, um von anderen Feedback und Anregungen zu erhalten. Da alle Teilnehmer in einer solchen Veranstaltung ‚im gleichen Boot sitzen‘, aber bereits unterschiedlich weite Strecken in ihrer Forschung zurückgelegt haben, ist der Diskurs in der Regel sehr konstruktiv und unterstützend. Zugleich hilft es dem eigenen Denken, wenn man seine Ideen, Fragen und Theorien für ein Publikum formulieren muss, das zwar mit wissenschaftlichem Arbeiten vertraut, nicht jedoch Experte für das eigene Thema ist. Nicht zuletzt sind solche Präsentationen für das Arbeitsverhältnis zum Betreuer wichtig, einerseits um Rückmeldungen zu erhalten, andererseits um ihn oder sie über die Entwicklung der Arbeit auf dem Laufenden zu halten. 9 Für Bachelor- und Masterarbeiten besteht dieses Erfordernis nicht, denn sie gelten nicht in gleichem Maße als eigenständige Forschungsleistung, obwohl dies gerade im Fall von Masterarbeiten durchaus der Fall sein kann. Daher gibt es zunehmend Tendenzen, besonders gelungene Arbeiten z. B. über die Dokumentenserver der Universitäten oder in Aufsatzform zu veröffentlichen.
394
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Doktoranden fragen gelegentlich, ab welchem Zeitpunkt sie ihr Thema auf der eigenen oder der Universitäts-Webseite, in den sozialen Netzwerken, auf Blogs oder bei Umfragen (in der Anglistik etwa AREAS zu laufenden Promotionen, in der Fremdsprachendidaktik beim Informationszentrum Fremdsprachenforschung (ifs) an der Universität Marburg) angeben sollten. Dabei sind einige Aspekte gegeneinander abzuwägen. Auch wenn es sehr unwahrscheinlich ist, dass jemand anderes dasselbe Thema ebenfalls für eine Arbeit übernimmt, so steckt doch in der Formulierung des Themas schon ein gewisses geistiges Eigentum, das man eventuell schützen möchte, jedenfalls so lange, bis die Arbeit etwas fortgeschritten ist. Auch mag es ungünstig sein, eine Arbeit zu einem Thema anzukündigen, von der man in einem frühen Stadium eventuell noch gar nicht weiß, ob sich dazu ausreichend Daten oder Dokumente werden finden lassen, so dass die Forschungsfrage beantwortet werden kann. Allerdings kann es manchmal auch von Vorteil sein, wenn man ein Thema für sich ‚besetzt‘, d. h. in der Fachöffentlichkeit als jemand bekannt wird, der/die sich mit einer bestimmten Frage näher befasst. Das sollte idealerweise jedoch nicht nur durch dessen Nennung auf einer Seite oder Liste erfolgen, sondern durch einen wissenschaftlichen Beitrag, i. d. R. ein Exposé, einen Vortrag bei einer Konferenz oder einen Artikel. Wenn man sich um ein Stipendium oder die Aufnahme in ein Graduiertenkolleg oder eine Graduiertenschule bewerben möchte, dann ist es erforderlich, das eigene Forschungsprojekt in Form eines Exposés, incl. einer (kommentierten) Arbeitsgliederung, eines Literaturverzeichnisses sowie eines Arbeits- und Zeitplans zu präsentieren. Das Exposé sollte Angaben zum Forschungsfeld, zum Forschungsstand, zur Forschungsfrage und zum geplanten Forschungsansatz enthalten. Es ist dabei allen Beteiligten klar, dass sich Arbeitstitel, einzelne Abschnitte der Gliederung oder auch der genaue Fokus der Forschungsfrage im Verlauf des Forschungsprozesses noch ändern können. Ein solches Exposé gibt also Auskunft über das Projekt auf der Basis des aktuellen Kenntnisstandes, und man braucht weder extrem bescheiden zu sein noch sollte man das eigene Vorhaben zu vollmundig anpreisen. Zudem erhält man durch das Feedback der Auswahlkommission wertvolle Hinweise auf das eigene Vorhaben und dessen eventuelle Schwachstellen. 2 Im Erarbeitungszeitraum
Während der gesamten Entstehungszeit einer wissenschaftlichen Studie kann der Austausch im Doktorandenseminar hilfreich sein. Hier kann man seinen Forschungsüberblick darbieten, die für die Pilotierung vorgesehenen Forschungsinstrumente diskutieren oder das durchgesehene Daten- oder Dokumentenkorpus vorstellen. Wenn Forschungsfragen und Vorgehensweise weitgehend geklärt sind, dann ist der Zeitpunkt gekommen, bei überregionalen oder interdisziplinären Doktorandentreffen, Workshops oder Nachwuchstagungen zum eigenen Vorhaben vorzutragen, um von einem weiteren Personenkreis Rückmeldungen zu erhalten und in den Diskussionen zu ganz anders ausgerichteten Arbeiten etwas zu lernen. Im Bereich der Fremdsprachendidaktik gibt es dazu die alle zwei Jahre stattfindende Nachwuchstagung der DGFF; eine Gelegenheit zur forschungsmethodischen Weiterbildung und zur Vorstellung der eigenen Arbeit bietet zudem die DGFF Sommerschule, die etwa alle drei Jahre an wechselnden Universitäten veranstaltet wird. Nachwuchswissenschaftler_innen in der Fremdsprachendidaktik sind auch bei ähnlichen Workshops und Tagungen der Deutschen
6.7 Präsentation von Forschung
395
Gesellschaft für Erziehungswissenschaft (DGfE), anderer Fachdidaktiken oder in der Sprachbzw. Kulturwissenschaft willkommen. Es gibt eine ganze Reihe von Möglichkeiten der Präsentation bei solchen Veranstaltungen. Man kann seine Arbeit im Rahmen eines Vortrags, eines Thesenpapiers, eines Posters oder einer Powerpoint/Prezi-Präsentation zur Diskussion stellen. Oftmals ist es auch möglich, eigene Daten in Datensitzungen einzubringen, die im Rahmen von Methoden-Workshops veranstaltet werden. Welche Form man wählt, hängt dabei sowohl vom Arbeitsstand als auch von den eigenen Erwartungen an die Rückmeldungen ab, die man sich zu eventuell bestehenden Fragen oder Problemen erhofft. Es ist sicher sinnvoll, einerseits mit möglichst klaren Fragen in diese Präsentationen zu gehen („Wozu ich gerne von euch eine Rückmeldung haben möchte …“), sie andererseits aber vor allem als Chance dafür zu begreifen, die eigenen Überlegungen und forschungsmethodischen Entscheidungen auf der Basis der Reaktionen anderer (Nachwuchs-) Wissenschaftler_innen erneut zu überdenken. Sich mit den Fragen und Kommentaren anderer auseinanderzusetzen, muss nicht bedeuten, dass man von anderen geäußerten Kritikpunkte oder Anregungen in jedem Fall aufnimmt; wichtig ist der eigene Reflexionsprozess. Immer häufiger finden auch in den geisteswissenschaftlichen Fächern Poster-Präsentationen bei Konferenzen statt, was vermutlich durch die starke Zunahme empirischer Arbeiten ausgelöst wurde. Poster waren vor einiger Zeit vor allem in den empirisch arbeitenden Natur- und Verhaltenswissenschaften üblich. Bei der Gestaltung eines Posters gilt es – ebenso wie bei Powerpoint-Präsentationen – der (typo)grafischen, farblichen und der inhaltlichen Ebene gleichermaßen Aufmerksamkeit zu schenken, um das Projekt optimal zu präsentieren. Klarheit und Beschränkung auf das Wesentliche sollten die leitenden Gedanken dabei sein. Das Forschungsprojekt wird so knapp und anschaulich wie möglich dargestellt, so dass das Poster in etwa fünf Minuten gelesen werden kann. Dabei erfolgt die Leserführung entweder von links nach rechts (Querfomat) oder von oben nach unten (Hochformat). Die Textteile sind kurz gehalten; selbst-erklärende Schaubilder oder Grafiken verdeutlichen Zusammenhänge und/oder Ergebnisse. Über sinnvolle Farbgebung und Fontwahl informiert man sich am besten auf einschlägigen Webseiten. Einer breiteren wissenschaftlichen Öffentlichkeit stellt man sich, wenn man in einem fortgeschrittenen Stadium Näheres zu seinem Forschungsprojekt als Bericht in einer Fachzeitschrift, z. B. der Zeitschrift für Fremdsprachenforschung (ZFF) oder Fremdsprachen Lehren und Lernen (FLUL) veröffentlicht. Ein solcher Schritt sollte jedoch erst erfolgen, wenn man einen guten Überblick über das betreffende Forschungsfeld gewonnen hat, die Forschungsfrage und das Design geklärt sind und erste Zwischenergebnisse vorliegen. Während ein Forschungsbericht in der entsprechenden Rubrik einer Fachzeitschrift klar signalisiert, dass es sich um ‚work in progress‘ handelt, wird dies bei einem ‚normalen‘ wissenschaftlichen Beitrag in einer Zeitschrift oder Sammelband i. d. R. weniger deutlich. Möchte man Zwischenergebnisse oder Teile der noch nicht erschienenen Doktorarbeit oder Habilitationsschrift vorab publizieren, so ist als erstes der Blick in die jeweilige Promotions- oder Habilitationsordnung sinnvoll, ob solche Vorabpublikation gestattet sind. Selbst wenn es keine offizielle Regelung gibt, so ist zu überlegen, ob man wichtige Erkenntnisse und Ergebnisse der eigenen Forschungsarbeit vor der Gesamtveröffentlichung bekannt machen möchte.
396
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Manchmal mag es günstig sein, sich frühzeitig als Experte in einem Feld zu melden, oder man hält die eigenen Forschungsergebnisse für so brisant und interessant, dass man sie vor dem Abschluss des Verfahrens bereits bekannt machen möchte. Das ist vor allem dann der Fall, wenn es sich um ein sich rasch entwickelndes aktuelles Forschungsfeld handelt. Allerdings ist es nicht akzeptabel, lange Passagen aus einem vorab erschienenen eigenen Aufsatz wörtlich und ohne Verweis auf die frühere Publikation später in der Dissertation zu verwenden. Zwar handelt es sich bei solch langen Selbstzitaten nicht um ein Plagiat (also einen Diebstahl geistigen Eigentums anderer) im engeren Sinne, da man ja jeweils Autor_in ist, dennoch werden solche Textübernahmen in den Geisteswissenschaften sehr negativ eingeschätzt. Ist eine Vorabpublikation zu einem Forschungsprojekt, an dem mehrere Wissenschaftler_innen beteiligt sind, unter multipler Autorenschaft erschienen, wäre eine wörtliche Übernahme von langen Textpassagen unter keinen Umständen angebracht, da es sich um eine gemeinschaftlich verantwortete Publikation und das geistige Eigentum aller Autor_innen handelt. Der positive Effekt eines vorab publizierten Aufsatzes liegt darin, dass man sich im wissenschaftlichen Schreiben übt und auf knappem Raum wesentliche Aspekte des Forschungsvorhabens darstellen muss. Im Erfolgsfall schafft das Selbstvertrauen für den Schreibprozess. Werden in einem Aufsatz bestimmte Teile des Forschungsprojekts abschließend behandelt, so kann dies die Fertigstellung der umfassenderen Studie sehr fördern. Für Habilitationen und – bisher noch selten – für Promotionen besteht die Möglichkeit der Einreichung einer kumulativen Qualifikationsschrift. Das heißt, dass eine Anzahl von Aufsätzen (Zahlen schwanken zwischen fünf und zehn) zu einem ihnen gemeinsamen Forschungsfeld mit verbindenden Textpassagen in der Summe die Dissertation oder Habilitationsschrift darstellen und als äquivalent zu einer Monographie anzusehen sind. Die Aufsätze müssen i. d. R. bereits in renommierten Fachzeitschriften publiziert oder zur Veröffentlichung angenommen worden sein. Man geht davon aus, dass das Peer-Review-Verfahren der Zeitschriften eine gewisse Qualitätsgarantie darstellt. Im Falle kumulativer Habilitationen oder Promotionen sind Vorab-Publikationen also Teil der wissenschaftlichen Qualifikation. Der Schreibprozess selbst unterliegt bestimmten Konventionen, die sprachen- und fächerabhängig sind. In vielen deutschsprachigen Handbüchern zum wissenschaftlichen Arbeiten und Schreiben findet man Hinweise zu Textgestaltung, Formatierung und bibliographischen Angaben (z. B. Esselborn-Krummbiegel 2012). Zudem existieren an vielen Universitätsinstituten style sheets oder Vorgaben der Promotionsordnung zur Gestaltung des Manuskripts. Bislang gibt es nur sehr wenige speziell auf das wissenschaftliche Schreiben in der fremdsprachendidaktischen Forschung ausgerichtete Publikationen; diese finden sich vor allem im englischsprachigen Kontext, etwa Holliday (2012) oder Bitchener (2010): letzterer enthält für die Darstellung empirischer Arbeiten aus dem Bereich der Applied Linguistics wertvolle Anregungen und zahlreiche Beispiele.
6.7.2 Präsentationen nach der Fertigstellung der Arbeit Am intensivsten denkt man über die Präsentation seiner Forschung nach, wenn die Arbeit fertig geschrieben ist. Zuerst gilt es an vielen Universitäten, die Arbeit im Rahmen einer Disputation vorzustellen und zu verteidigen. Ein Blick in die Promotionsordnung und das
6.7 Präsentation von Forschung
397
Gespräch mit dem/der Betreuer_in hilft, die richtige Form zu finden. Mancherorts wird eine Powerpoint Präsentation erwartet, anderenorts ist sie verpönt. Auch Fokus und Länge variieren, ebenso der organisatorische Rahmen und die Anwesenheit von Zuhörenden aus der Universität oder darüber hinaus. Immer ist es jedoch erforderlich, die eigene Arbeit knapp und präzise zusammenzufassen. Weiterhin ist es von Vorteil, in der Präsentation auf die Monita der Gutachten einzugehen und sich auf diesbezügliche Fragen vorzubereiten. Nach Abschluss des Verfahrens steht die Frage der Veröffentlichung an. Da es unterschiedliche Formen und Orte der Publikation gibt, muss man Kosten, Nutzen, Aufwand und Zeitrahmen gegeneinander abwägen. Oft schreiben die Promotionsordnungen die Abgabe einer bestimmten Anzahl von Pflichtexemplaren (je nach Publikationsart) und eine bestimmte Frist vor, innerhalb derer die Dissertation erscheinen soll (meist ein oder zwei Jahre), damit der/ die Doktorand_in den erworbenen Titel auch führen darf. Man kann daher die Publikation nicht lange aufschieben, was auch aus anderen Gründen nicht sinnvoll wäre. Denn lässt man zwischen der Einreichung und der Überarbeitung in Vorbereitung der Veröffentlichung zu viel Zeit verstreichen, ist es sehr mühsam, sich wieder in die Gedankengänge und Zusammenhänge der eigenen Arbeit so weit zu vertiefen, dass man sie sinnvoll (und eventuell unter Berücksichtigung der in den Gutachten gemachten Auflagen) in die endgültige Form bringen kann. Zudem kann sich bei einem aktuellen Thema der Diskussionsstand rasch ändern, so dass nach einer gewissen Zeit vielleicht einige Teile der Arbeit nicht mehr aktuell sind oder man sie intensiver überarbeiten muss. Am günstigsten, schnellsten und billigsten ist die Online-Veröffentlichung auf der Universitäts-Webseite. Auch dazu muss man den Text erneut im Detail durchgehen, einzelne Passagen gegebenenfalls umarbeiten und gründlich Korrektur lesen. Auf der Universitäts-Webseite allerdings ist die Arbeit, in die man viele Jahre Mühen investiert hat, für das Fachpublikum gegenwärtig noch sehr schwer aufzufinden. Bislang werden Online-Veröffentlichungen nicht systematisch erfasst und auch nicht rezensiert. Damit sind sie für den Fachdiskurs und das Praxisfeld momentan noch wenig sichtbar. Das könnte sich allerdings mit der Weiterentwicklung von Open-Access-Angeboten und Veränderungen im Rezensionswesen bald ändern. Einige Universitäten verlangen bei einer Online-Publikation zusätzlich die Abgabe von einigen gedruckten Pflichtexemplaren für die eigene Universitätsbibliothek, die man im Copyshop herstellen lassen kann. Der Gang zum Copyshop ist in der Regel die zweit-günstigste Variante, was das Finanzielle betrifft. Je nach den Regeln der lokalen Promotionsordnungen müssen bis zu über 100 Exemplare eingereicht werden, da die eigene Universitätsbibliothek andere Bibliotheken damit versorgt. Aber auch für diese Art der Veröffentlichung gelten die gleichen Nachteile wie für die Online-Publikation. Es gibt kein Marketing, keine Rezensionen und keine Wirkung der Arbeit auf Wissenschaft oder Praxis. Zudem sind die im Copyshop verfügbaren Klebebindungen oft so wenig haltbar, dass das ‚Buch‘ bei Gebrauch nach einiger Zeit zerfleddert. Für die Publikation der Forschungsarbeit als Buch bestehen verschiedene Optionen. Eine Reihe von Verlagen hat sich auf Dissertationen spezialisiert und bietet entweder ein generelles Verlagsprogramm, allgemeine Reihen (z. B. Europäische Hochschulschriften) oder eventuell auch stärker fachbezogenene Schriftenreihen an. Als Autor muss man sein Manuskript in druckfertiger Form einreichen und dazu eine verlagsspezifische Druckvorlage berücksichtigen. Da in diesen Verlagen keine fachspezifischen Lektorate zu finden sind, gibt
398
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
es auch keinerlei inhaltliche Rückmeldung oder ‚Betreuung‘ bei der Manuskripterstellung. Man ist also für die orthografische und formelle Korrektheit ebenso wie für die inhaltliche Gestaltung ausschließlich selbst verantwortlich. Für den Druck des Buches in einer üblicherweise niedrigen Gesamtauflage (ca. 200 – 300; einige Promotionsordnungen verlangen eine Mindestauflage etwa von 150) muss ein Druckkostenzuschuss gezahlt werden, dessen Höhe nach Umfang des Buches, Bindung und Umschlaggestaltung schwankt, wohl aber meist im unteren vierstelligen Bereich liegen dürfte. Der Herstellungsprozess dauert meist nur wenige Wochen, so dass eine rasche Veröffentlichung erfolgen kann. Die Verlage werben auf ihren Webseiten und durch gedruckte Kataloge für ihr Programm. Allerdings besteht die Gefahr, dass das Werk im Strom der Neuerscheinungen ‚untergeht‘. Sichtbarer für die Fachwelt ist eine Veröffentlichung in einer der vielen fremdsprachendidaktischen Reihen, die es bei unterschiedlichen Verlagen gibt. Solche Reihen werden von Universitätsbibliotheken im Abonnement angeschafft und von Zeitschriften für Rezensionen berücksichtigt. Möchte man sein Werk dort platzieren, muss es von den Herausgeber_innen der jeweiligen Reihe akzeptiert werden. Das bedeutet auch, dass man abgelehnt werden kann – etwa wenn das Thema nicht zur Reihe passt oder die Arbeit den Qualitätsansprüchen der Herausgeber_innen nicht entspricht – oder dass man nur mit Auflagen angenommen werden kann. Es ist in den meisten Fällen so, dass der Text der Forschungsarbeit für die Publikation erneut überarbeitet und gegebenenfalls gekürzt werden muss, denn sowohl die Kritikpunkte in den Gutachten als auch in den Kommentaren der Reihenherausgeber_innen müssen aufgegriffen werden, was eine nochmalige gründliche Befassung mit dem Manuskript erfordert. Zudem gilt es auch hier eine bestimmte Formatvorlage zu beachten, sich gegebenenfalls um Copyright-Fragen zu kümmern und einen Druckkostenzuschuss zu zahlen. Wenn das Buch in einer renommierten Reihe akzeptiert wurde, ist es jedoch einfacher, sich um einen Zuschuss zu den Druckkosten bei der eigenen Universität, bei Stipendien- oder Drittmittelgebern zu bewerben. Als Teil einer bekannten Schriftenreihe wird das Werk in der Fach-Community breit rezipiert. Bei fremdsprachendidaktischen Forschungsarbeiten, die in deutscher Sprache geschrieben wurden, ist es auch sinnvoll, an weitere, internationale Veröffentlichungen zum eigenen Forschungsthema in einer anderen Sprache zu denken. Dazu können einzelne Aspekte der Arbeit fokussiert werden. Eine andere Möglichkeit besteht – je nach Thema – in der Aufbereitung von (Teil-)Ergebnissen für Lehrerfortbildungen oder Materialien für die Praxis. Da in den seltensten Fällen alle Überlegungen und Ausarbeitungen, die im Verlauf einer großen Forschungsarbeit entstehen, letztlich Eingang in die Abschlusspublikation finden, hat man für eine gewisse Zeit ausreichend Material, um zum Thema der eigenen Forschung mit unterschiedlicher Schwerpunktsetzung zu publizieren. Ist die Promotion oder Habilitation abgeschlossen und das Werk erschienen, liegt es nahe, seine Arbeit in einschlägigen Listen und Publikationsorganen zu melden. Für die Fremdsprachendidaktik ist die auf der Webseite der DGFF geführte Liste der Promotionen und Habilitationen in den fremdsprachendidaktischen Fächern (s. Sauer-Klippel-Liste der DGFF) das zentrale Element der Dokumentation; in der Anglistik erscheint jährlich ein Buch mit Zusammenfassungen von gerade publizierten Monographien (English and American Studies in German: a Supplement to Anglia; Summaries of Theses and Monographs), die von den jeweiligen Autoren selbst erstellt werden. Schließlich kann man sein Projekt in der For-
6.7 Präsentation von Forschung
399
schungsdatenbank des ifs (Informationszentrum Fremdsprachenforschung an der PhilippsUniversität Marburg) als abgeschlossen eintragen und dem ifs nach erfolgtem Druck der Forschungsarbeit ein Exemplar zukommen lassen, damit es verschlagwortet und in die Forschungsdatenbank des ifs und automatisch auch in die fächerübergreifende Datenbank „Promotionen und Habilitationen der Bildungsforschung in Deutschland“ (ProHabil) eingepflegt wird. Wer sich als Mitglied bei der Verwertungsgesellschaft Wort registriert, einem Zusammenschluss von Autor_innen und Verlagen, erhält für seine Publikation(en) einmal Tantiemen. Mehrere Hunderttausend Autoren aus allen Bereichen von Literatur, Medien und Wissenschaft lassen sich von der VG Wort vertreten. Wissenschaft lebt vom geistigen Austausch, vom Diskurs. Daher ist es für jede/n Forschende/n wichtig, sich mit den Forschungsfragen, den Methoden und Ergebnissen der eigenen Arbeit einer breiteren (wissenschaftlichen) Öffentlichkeit zu stellen. Das kann auf sehr unterschiedliche Weise geschehen. Aber immer ist es wichtig, dass das, was Forschende schreiben oder vortragen, für die Zuhörer oder Leser verständlich ist. Denn nur dann können sich diese mit den Inhalten auseinandersetzen und der Argumentation des/r Forschenden folgen. Die Verständlichkeit wissenschaftlicher Präsentationen und Texte beruht vor allem auf klarer Strukturierung und einer präzisen, jargonfreien Sprache. ›› Literatur Bitchener, John (2010). Writing an Applied Linguistics Thesis or Dissertation. A Guide to Presenting Empirical Research. Basingstoke: Palgrave Macmillan. Esselborn-Krummbiegel, Helga (2012). Richtig wissenschaftlich schreiben. Wissenschaftssprache in Regeln und Übungen. 2. Aufl. Paderborn: Schöningh. Holliday, Adrian (2012). Doing and Writing Qualitative Research. 2nd edition. Los Angeles: SAGE. Lobin, Henning (2012). Die wissenschaftliche Präsentation: Konzept – Visualisierung – Durchführung. Paderborn: Schöningh.
»» Wichtige Webseiten
Hinweise zur Gestaltung von Postern: http://betterposters.blogspot.de/[24. 11. 2015] Informationszentrum Fremdsprachenforschung: https://www.uni-marburg.de/ifs Sauer-Klippel-Liste der DGFF: http://www.dgff.de/de/qualifikationsarbeiten.html Verwertungsgesellschaft Wort: www.vgwort.de
400
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Betreuung von Forschungsarbeiten
6.8
Daniela Caspari
Während auf dem Titelblatt der Dissertations- oder Habilitationsschrift allein der Name des Verfassers bzw. der Verfasserin steht, erfährt man im Vorwort oder der Danksagung zumeist, wer noch zu diesem Werk beigetragen hat. Vor den Kolleg/innen, Freund/innen und Familienangehören werden zumeist der bzw. die Betreuer/innen genannt. Hinter den meist zwei oder drei Zeilen Dank verbirgt sich in der Regel eine mehrjährige Beziehung, in der Betreuer/innen und Nachwuchswissenschaftler/innen gemeinsam auf dieses Ziel hingearbeitet haben. Da zu einer erfolgreichen Beziehung immer beide Partner/innen beitragen, wendet sich dieses Kapitel ausdrücklich an beide. Sprach man noch vor nicht langer Zeit von „Doktorvater“ bzw. „Doktormutter“, so hat sich inzwischen der neutralere Begriff „Betreuer“ bzw. „Betreuerin“ durchgesetzt. Er bezeichnet das professionelle Verhältnis zwischen Promovend/innen bzw. Habilitand/innen und Betreuer/innen, das von einer klaren Rollenverteilung und gegenseitigen Verbindlichkeiten geprägt ist. Trotz aller offiziellen Leitlinien für ein solches Betreuungsverhältnis (siehe Angaben im Literaturverzeichnis), hängt die Ausgestaltung dieser meist sehr allgemein gehaltenen Formulierungen von der konkreten Situation und von den jeweiligen Personen ab. Eine Einzelbetreuung wird in der Regel anders ablaufen als die Betreuung in einem Graduiertenkolleg oder innerhalb eines strukturierten Promotionsprogramms, wo meist mehrere Personen als Ansprechpartner/innen für die Nachwuchswissenschaftler/innen fungieren; auch kann sich die Betreuung von wissenschaftlichen Mitarbeiter/innen anders gestalten als von extern Promovend/innen. Die folgenden Ausführungen betreffen in erster Linie das Betreuungsverhältnis zum bzw. zur Hauptbetreuer/in. 10 Das Aufgabenspektrum und die Auffassungen bzgl. der Rolle der Betreuer/in können im deutschsprachigen Raum vom supervisor der anglo-amerikanischen Universität, bei dem vor allem die Funktion des Coachens im Mittelpunkt steht, bis zum directeur de recherche der französischen Universitäten reichen, der klare Vorgaben und Erwartungen an die Promovenden/innen richtet. Umgekehrt können die Erwartungen der Promovend/innen von engmaschiger Führung bis zu völliger Eigenständigkeit reichen, je nach Persönlichkeit, Erfahrung, Vorwissen, sowie wissenschaftlichem und kulturellem Hintergrund. Daher ist es wichtig, sich rechtzeitig über die gegenseitigen Erwartungen zu verständigen. Diese können in Form eines schriftlichen Betreuungsvertrages festgehalten werden (s. Angaben im Literaturverzeichnis). Auch wenn der Abschluss eines solchen Vertrages von der Universität nicht verlangt wird, kann er im Sinne einer verbindlichen Absichtserklärung beider Seiten sinnvoll sein.
10 In dieses Kapitel sind eine Reihe von Überlegungen aus einem Beitrag von Caspari et al. 2011 eingegangen, in dem sich drei Nachwuchswissenschaftler/innen und zwei Betreuer/innen über die gegenseitigen Erwartungen an ein gutes Betreuungsverhältnis ausgetauscht haben.
6.8 Betreuung von Forschungsarbeiten
401
6.8.1 Wechselseitige Erwartungen an das Betreuungsverhältnis Promovend/innen und Habilitand/innen hegen höchst unterschiedliche Erwartungen an ihre Betreuung. Dies betrifft zum einen die Häufigkeit von Gesprächen bzw. Rückmeldungen. Sie reicht vom Wunsch nach wöchentlicher Konsultation bis zum nur zweimaligen Treffen: einmal, um Thema und Titel zu besprechen, und das zweite Mal, um Rückmeldungen zum fast fertigen Manuskript zu erbitten. Sicher hängt die Häufigkeit individueller Beratungen vom Stadium der Arbeit und aktuell anstehenden Aufgaben und Fragen ab; grundsätzlich ist sie immer dann anzuraten, wenn es um Rückmeldung zu größeren Arbeitsphasen oder um Entscheidungen hinsichtlich neuer Arbeitsschritte geht. Dabei kann die Vorstellung und Diskussion des aktuellen Arbeitsstandes im Doktorandenkolleg ein individuelles Gespräch durchaus ersetzen. Auch in Bezug auf Umfang, Breite und Tiefe der Beratung existieren ganz unterschiedliche Wünsche. Sie reichen von einer kurzen Bestätigung, dass man sich auf dem richtigen Weg befindet, bis zur intensiven Diskussion einzelner Details, von der 15-minütigen Abstimmung bis zu mehrstündigen tiefen Gesprächen. Auch hier lässt sich keine Regel aufstellen, jedoch sind die Betreuer/innen vor allem dafür da, bei grundlegenden Fragen zu beraten, nicht aber dafür, jede einzelne Entscheidung mit abzuwägen. Generell wird bei der Anfertigung einer Dissertation in der Fremdsprachendiaktik von den Promovend/innen, noch mehr von den Habilitand/innen, eine hohe Selbständigkeit und Eigenverantwortung erwartet. So gehören z. B. die Themensuche, Formulierung der Forschungsfrage und Gestaltung des Forschungsdesigns in den Verantwortungsbereich der Promovend/innen; die Betreuer/innen geben hier lediglich Ratschläge. Auch eine fundierte Diskussion einzelner Details können die Betreuer/innen in aller Regel nicht leisten, zumal sie normalerweise nicht so tief in das Thema eingearbeitet sind wie die Doktorand/innen selbst. Grundsätzlich besteht die Aufgabe der Betreuer/innen vor allem darin, die Arbeit als Ganzes im Blick behalten. Dazu gehört in erster Linie, bei der Gesamtkonzeption der Arbeit zu beraten sowie bei der Konzeption der einzelnen Schritte und bei der Besprechung der einzelnen Teile ihren jewiligen Beitrag zur Gesamtargumentation einzuschätzen, um so inhaltliche oder methodische Sackgassen vermeiden zu helfen. Auch Hinweise auf ein angemessenes Maß (z. B. bzgl. des Literaturberichtes oder der Anzahl der notwendigen Probanden für ein Experiment) und auf realistische, ‚gangbare‘ Wege sind wichtig, damit die Arbeit in angemessener Zeit bearbeitet werden kann. Und falls man einmal gar nicht weiterkommt, werden die Betreuer/innen auch akut Hilfe und Ermutigung geben. Aus den Beispielen wird deutlich, dass beide Seiten sich darüber verständigen sollten, was sie im konkreten Fall und zum jeweiligen Zeitpunkt für notwendig bzw. angemessen halten. Dafür sollten sie möglichst klar ihre gegenseitigen Wünsche und Erwartungen kommunizieren und gemeinsam überlegen, was wer wann leisten kann. Zu dieser Absprache gehört auch zu akzeptieren, dass die Betreuer/innen manches nicht für ihre Aufgabe halten. Die Basis eines gelungenen Betreuungsverhältnisses besteht darin, dass gemeinsam getroffene Vereinbarungen und Absprachen eingehalten werden bzw. dass man sich rechtzeitig informiert, wenn man sie nicht einhalten kann. Für Promovend/innen ist es z. B. wichtig, dass
402
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
sie zeitnah Rückmeldung erhalten. Wenn man den vereinbarten Termin als Betreuer/in jedoch einmal nicht einhalten kann, weil die Betreuung von Nachwuchswissenschaftler/innen nur einen kleinen Teil der Aufgaben darstellt und daher manchmal unerwartete Termine, wichtige Projekte, deadlines oder allgemeine Arbeitsüberlastung dazwischen kommen, empfiehlt es sich, einen neuen, zeitnahen Terminzu vereinbaren. Für das gegenseitige Verständnis ist weiterhin wichtig, dass das Anfertigen einer Forschungsarbeit nicht nur für die Promovend/innen einen Lernprozess darstellt, sondern ebenfalls für die Betreuer/innen, insbesondere wenn Thema oder Forschungsmethode nicht zu den eigenen Schwerpunkten und Praktiken gehören. In Rücksprache mit dem bzw. der Hauptbetreuer/in kann es sinnvoll sein, sich bei Expert/innen extern Rat und Hilfe zu holen. Grundsätzlich ist anzuraten, auch außerhalb des eigenen Institutes bzw. der eigenen Universität nach Austausch und Anregung zu suchen und sich insbesondere mit anderen Nachwuchswissenschaftler/innen zu vernetzen (vgl. auch Kapitel 6.7). Falls man als Promovend/in dabei durch stark divergierende oder gegensätzliche Rückmeldungen verunsichert wird, sollte man dies unbedingt mit dem bzw. der Hauptbetreuer/in besprechen – vielleicht muss man sein Anliegen oder sein Design nur besser ausschärfen oder genauer begründen, vielleicht sollte man es aber auch verändern. Zum Aufbau von Netzwerken ist ebenfalls der Besuch von Kongressen und Tagungen wichtig. Hierzu können die Betreuer/innen der Forschungsarbeit entsprechende Hinweise geben. Auch durch Empfehlungen und die Ermutigung zu eigenen Beiträgen und, zumindest am Anfang, entsprechende praktische Unterstützung können sie den Eintritt der Promovend/innen in die scientific community unterstützen.
6.8.2 Praktische Hinweise Im Vorfeld von Betreuungsgesprächen ist es hilfreich, wenn der Promovend bzw. die Promovendin schriftlich den aktuellen Stand der Arbeit skizziert und die aktuelle Gliederung (incl. Thema und Forschungsfrage) sowie das Literaturverzeichnis mitschickt. Außerdem ist es hilfreich, möglichst genau mitzuteilen, was man besprechen möchte. Dies klärt und fokussiert die eigenen Gedanken und gibt den Betreuer/innen die Möglichkeit, sich vorzubereiten. Bei der Abgabe von einzelnen Kapiteln ist es ebenfalls sinnvoll, zusätzlich die aktuelle Gliederung und das Gesamtliteraturverzeichnis mitzuschicken sowie konkrete Fragen oder Hinweise zu formulieren, z. B. „Bitte achten Sie besonders auf …“, „Bitte sagen Sie mir, ob diese Argumentation stimmig ist.“, „Was steht als nächstes an?“ Es ist verständlich, dass man als Promovend/in nicht nur eine Rückmeldung erhalten möchte, ob die Arbeit in die richtige Richtung geht, sondern – besonders gegen Ende – auch, welche Note sie wohl erhalten wird. Dazu kann sich jedoch kein/e Betreuer/in äußern, weil die Note erst durch die Kommission beschlossen wird. Bei einer sich noch zu entwickelnden wissenschaftlichen Arbeit ist es zudem schwierig, Prognosen über die Qualität des zu erwartenden Gesamtproduktes abzugeben. Die an eine Forschungsarbeit üblicherweise angelegten Qualitäts- bzw. Beurteilungskriterien findet man in den entsprechenden Kapiteln dieses Handbuches; was davon den Betreuer/innen besondes wichtig ist, erfährt man direkt oder indirekt im Gespräch und aus den Rückmeldungen zur eigenen Arbeit. In Deutsch-
6.8 Betreuung von Forschungsarbeiten
403
land ist es in der Regel die gleiche Person, die eine Dissertation als Erstbetreuer/in begleitet und sie nach dem Abschluss als Erstgutachter/in bewertet. Zwischen diesen beiden Rollen zu unterscheiden, fällt nicht immer leicht; so darf man als Promovend/in z. B. von einem freundlichen, zugewandten Verhalten des bzw. der Betreuer/in nicht automatisch auf eine gute Note schließen. Im Umkehrschluss muss eine zurückhaltende oder kritische Betreuung nicht bedeuten, dass die Qualitäten der Arbeit beim abschließenden Urteil nicht angemessen gewürdigt werden. Da die Note der Dissertationsschrift von der Kommission beschlossen wird, ist es wichtig, rechtzeitig mit dem bzw. der Hauptbetreuer/in zu beraten, wer als Zweitgutachter/in und – wenn die Abgabe der Arbeit in Aussicht steht und die Promotionsordnung dies vorsieht – wer als Kommissionsmitglied in Frage kommen könnte. Aus den vorstehenden Überlegungen wird deutlich, dass die besondere Beziehung zwischen Betreuer/in und Promovend/in bzw. Habilitand/in von beiden gemeinsam ausgestaltet werden muss. Eine gute Basis dafür sind – interessanterweise – die gleichen Eigenschaften, die auch als Gütekriterien an eine wissenschaftliche Arbeit angelegt werden: Kommunikation, Transparenz, Konsistenz, Ehrlichkeit, Respekt, Rationalität. Dazu kommen ein gegenseitiges Grundvertrauen sowie die Verbindlichkeit von Absprachen. ›› Literatur Caspari, Daniela/Deutsch, Bettina/Küster, Lutz/Plikat, Jochen/Siebel, Katrin (2011). Doktorvater, Doktormutter, Doktorkind: gekreuzte Blicke auf ein nicht unproblematisches Verhältnis. In: Zeitschrift für Fremdsprachenforschung 22, 243 – 252.
»» Weiterführende Hinweise Hochschulrektorenkonferenz (2012). Zur Qualitätssicherung in Promotionsverfahren. Empfehlungen des Präsidiums der HRK vom vom 23. 4. 2012 an die promotionsberechtigten Hochschulen. http:// www.hrk.de/positionen/gesamtliste-beschluesse/position/convention/zur-qualitaetssicherung-inpromotionsverfahren/ (29. 11. 2015). Humboldt-Universität zu Berlin [o. J.]. Betreuungshinweise für Promotionen. https://www.hu-berlin.de/ de/postdoktoranden/forsch/betr_hinw/InfoJournal_all (29. 11. 2015). Universität Bielefeld Rektorat (2010). Leitlinien der guten Betreuung von Promotionen an der Universität Bielefeld. https://www.uni-bielefeld.de/Universitaet/Studium/SL_K5/angebote_promovierende/ LeitlinienBetreuung20 100 510.pdf, (29. 11. 2015). Wissenschaftsrat (2011). Anforderungen an die Qualitätssicherung der Promotion. Positionspapier. http://www.wissenschaftsrat.de/download/archiv/1704 – 11.pdf (29. 11. 2015).
404
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
»» Betreuungsvereinbarung: Empfehlungen und Beispiele Deutsche Forschungsgemeinschaft (DFG) (2014). Empfehlungen für das Erstellen von Betreuungsvereinbarungen. http://www.dfg.de/formulare/1_90/1_90.pdf (29. 11. 2015). Universität Erlangen-Nürnberg [o. J.]. Leitfaden zur guten Praxis für die Durchführung und Betreuung einer Promotion. http://www.promotion.uni-erlangen.de/pdfs/Leitfaden%20gute%20Praxis%20 Promotion.pdf (29. 11. 2015). Universität Vechta [o. J.]. Mustervereinbarung zur Betreuung von Doktorandinnen und Doktoranden (Betreuungsvereinbarung). https://startpage.com/do/dsearch?query=Doktoranden+Betreuung+Uni +Vechta&cat=web&pl=opensearch&language=deutsch. (29. 11. 2015)
7. Referenzarbeiten In diesem Kapitel sind zwölf Referenzarbeiten erfasst, auf die in verschiedenen Kapiteln des Handbuchs unter spezifischen methodischen Fragestellungen verwiesen wird. Hier werden diese Dissertationen als Gesamtstudie kurz vorgestellt, und zwar von den jeweiligen Autor_ innen selbst. Es handelt sich um Zusammenfassungen der Untersuchungen unter methodischen Gesichtspunkten. Sie sollen ein Globalverständnis der Referenzarbeiten ermöglichen, sodass in anderen Kapiteln ohne weitere Erläuterungen methodische Details daraus aufgegriffen werden können. Nach welchen Prinzipien diese zwölf Referenzarbeiten ausgewählt wurden, ist in Kapitel 1 genauer beschrieben. Es handelt sich um folgende Dissertationen aus dem Zeitraum 2002 – 2011: Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDaF). Tübingen: Narr. Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für Mädchen im 19. Jahrhundert. München: Langenscheidt. Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache: zum Nutzen eines Sensibilisierungsunterrichts im ‚DaFnE‘. Baltmannsweiler: Schneider Verlag Hohengehren. Özkul, Senem (2011). Berufsziel Englischlehrer/in. München: Langenscheidt. Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtsspezifischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Narr. Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht – Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen im Unterricht der Klasse 7. Tübingen: Narr. Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. Tassinari, Maria G. (2010). Autonomes Fremdsprachenlernen: Komponenten, Kompetenzen, Strategien. Frankfurt/Main: Lang.
406
7. Referenzarbeiten
Ulrike Arras Darstellung der Referenzarbeit Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? 1. Thema und Forschungsfragen Die Leistungsbeurteilung ist neben der Erstellung valider Testaufgaben und der objektiven Prüfungsdurchführung ein weiterer Gegenstand der Qualitätssicherung einer Prüfung. Denn die Anforderungen, die in einem Sprachtest gestellt werden, ergeben sich nicht allein aus den Schwierigkeitsfaktoren der Aufgabenstellung, etwa der Komplexität des Themas, der erwarteten Textsorte oder den erforderlichen sprachlichen Mittel, sondern auch aus den Beurteilungsmaßstäben. Dabei sind die Konstrukt-konforme Interpretation und die konsistente Anwendung der Beurteilungsmaßstäbe für die valide Beurteilung (schriftlicher oder mündlicher) Prüfungsleistungen entscheidend. Hierzu ist es erforderlich, die mit der Beurteilung von Prüfungsleistungen betrauten Personen in der Handhabung des Beurteilungsinstrumentariums zu schulen. Aber selbst bei intensiver Schulung bleibt die Beurteilungsarbeit selbst weitgehend im Dunkeln. So bedürfen etwa die folgenden Fragen einer genaueren Betrachtung:
• Wie verläuft die konkrete Beurteilungsarbeit? Welche Prozesse lassen sich dabei beobachten?
• Wie wird das Beurteilungsinstrumentarium gehandhabt, das die Institution vorgibt? Welchen Stellenwert haben etwa die Beurteilungskriterien, die in skalierter Form als Raster für die Beurteilung zur Verfügung stehen? • Wie werden die vorgegebenen Maßstäbe interpretiert? • Worauf richtet sich das Augenmerk bei Lektüre und Bewertung? • Welche Determinanten beeinflussen die Wahrnehmung und damit das Urteil? Welche Textfaktoren sind ausschlaggebend für ein bestimmtes Urteil? Und vor allem: Welche, von der eigentlichen Leistung unabhängige, also testkonstrukt-irrelevante, beispielsweise affektive, Faktoren beeinflussen die Wahrnehmung? Die Untersuchung hatte als Grundlage schriftliche Leistungen aus dem Subtest ‚Schriftlicher Ausdruck‘ der standardisierten und seit 2001 weltweit administrierten Prüfung ‚Test Deutsch als Fremdsprache‘. Mit dem TestDaF können ausländische Studierende nachweisen, dass sie über solche sprachlichen Kompetenzen verfügen, die für ein Hochschulstudium in Deutschland erforderlich sind. Die schriftlichen (und auch mündlichen) Leistungen werden von eigens geschulten BeurteilerInnen bewertet. Das Bewertungsverfahren sowie das Beurteilungsinstrumentarium sind standardisiert. Leistungen aus dem Prüfungsteil ‚Schriftlicher Ausdruck‘ werden anhand von neun Einzelkriterien beurteilt, das Beurteilungsverfahren sieht eine Kombination aus holistischem und analytischem Beurteilungsverfahren vor.
Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache?
407
2. Datenerhebung Die Arbeit bediente sich eines Mehrmethodendesigns auf der Basis von Fallstudien und be stand aus zwei Vorstudien und einer Hauptuntersuchung. Die Hauptuntersuchung erhob qualitative introspektive Daten zunächst anhand von Laut-Denken-Protokollen mit vier Beurtei lerinnen (Primärdaten), die je acht Leistungen aus dem TestDaF-Prüfungsteil ‚Schriftlicher Ausdruck‘ bewerteten; dies diente der Eruierung spezifischer Beurteilungsstrategien und -prozesse. Das Verfahren des Lauten Denkens hat sich bereits in ähnlichen Forschungszusammenhängen bewährt (etwa Lumley 2005). Denn trotz der Einschränkungen hinsichtlich der Generalisierbarkeit der identifizierbaren Strategien und Prozesse sind es gerade introspektive Verfahren, die Einblicke in die individuell geprägten Vorgehensweisen und internen Prozesse ermöglichen. Introspektion hat im vorliegenden Fall ein breites Repertoire an Strategien und Strategiebündeln sichtbar machen können. Zusätzlich wurde zu Übungszwecken die Beurteilung einer Leistung unter Laut-DenkenBedingungen vorgeschaltet, um eine gewisse Vertrautheit mit dem ungewohnten lauten Denken zu gewährleisten und zudem korrigierend und kommentierend eingreifen zu können. Die Protokolle wurden aufgezeichnet. Am nächsten Tag wurden retrospektive Interviews mit allen vier Beurteilerinnen durchgeführt, in denen anhand der Audio-Datei der Protokolle problemzentriert um Kommentierung spezieller Handlungen und Äußerungen zur Beurteilungsarbeit gebeten wurde. In der Phase der beiden Vorstudien wurden qualitative Daten mittels einer Fragebogenerhebung und per problemzentrierter Interviews erfasst und das für die Hauptuntersuchung entwickelte introspektive Verfahren erprobt. Ziel der Vorstudien war es, zunächst explorativ Einblicke in die Bewertungsarbeit, ihre Prozesse und spezifischen Schwierigkeiten zu erlangen und auf dieser Basis die o. g. Forschungsfragen zu fokussieren, methodische Entscheidungen für die Hauptuntersuchung zu treffen und das Verfahren des Lauten Denkens während der Beurteilungsarbeit zu testen.
3. Datenaufbereitung und Datenauswertung Alle Daten der Hauptstudie wurden transkribiert. Es handelte sich um nahezu 13 Stunden Laut-Denken-Protokolle bei vier Versuchspersonen, die je 8 schriftliche Leistungen beurteilten, dazu noch knapp 8 Stunden retrospektive Interviews. Die Transkription der Protokolle erwies sich als aufwendig, weil auch Pausen und Abbrüche abgebildet werden mussten, um zugrundeliegende Prozesse zu erfassen. Zudem wurden die Laut-Denken-Protokolle segmentiert und kodiert, um möglichst genau die Strategien und deren Prozesshaftigkeit nachzuvollziehen. Bei den retrospektiven Interviews hingegen war eine einfache Transkriptionsweise ausreichend, denn hier sollten lediglich problemzentriert ausgewählte Phänomene aus den Laut-Denken-Sitzungen näher beleuchtet werden. Der Redefluss in den Interviews war zudem stringenter, weil die Versuchspersonen nicht (wie im Falle der Laut-Denken-Sitzungen) zwischen der zu beurteilenden Leistung, den Beurteilungskriterien und dem schriftlichen Festhalten der Einstufung wechseln mussten.
408
7. Referenzarbeiten
Die Segmentierung der Verbaldaten aus den Protokollen erfolgte mit dem Ziel Einzelhandlungen und ihren Prozesscharakter im Verlauf der Beurteilungsarbeit nachvollziehbar zu machen. Im Zentrum des Erkenntnisinteresses standen dabei Problemlösestrategien und die Rolle der Beurteilungskriterien. Die Entwicklung des Kodiersystems und dessen praktische Anwendung erwiesen sich als komplex. Mehrfach musste das Kodiersystem verändert und justiert werden, um die eruierten Prozesse und Strategien weitgehend zuverlässig zu erfassen. Zudem erwies sich die Kodierung selbst als fehleranfällig, denn sie ist in hohem Maße interpretativ, weil ggf. auch prosodische und implizite Informationen einbezogen werden müssen, was ein manuelles Vorgehen erforderlich machte. Zur Erhöhung der Reliabilität wurde deshalb eine Zweitkodierung im zeitlichen Abstand von ca. drei Monaten durchgeführt. Die durch Transkription, Segmentierung und Kodierung eruierten Einzelhandlungen wurden sodann systematisiert. Aufgrund der Fülle der Einzelhandlungen und Strategien musste für die Darstellung der Befunde eine Auswahl vorgenommen werden. Auswahlkriterien waren dabei zum einen die Dominanz bzw. Frequenz bestimmter Strategien, zum anderen Hinweise auf spezifische Problemlöse- und Beurteilungsstrategien. Auf dieser Grundlage wurden zum einen jene Handlungen interpretiert, die den Umgang mit dem Beurteilungsverfahren sowie die Rolle der Beurteilungskriterien dokumentieren, zum anderen jene Beobachtungen, die über das TestDaF-Beurteilungsinstrumentarium hinauswiesen, so z. B. Strategien, die vermutlich auf zugrundeliegende subjektive Annahmen und auf persönliche Erfahrungen gründen, was sich oftmals aus den Kommentaren und Bezügen in den Protokollen und in den retrospektiven Interviews ablesen ließ. Darüber hinaus wurden deskriptive Analysen der Resultate der Beurteilungsarbeit vorgenommen und mit den Daten der qualitativen Analysen trianguliert. Beispielsweise wurde die Beurteilungsübereinstimmung zwischen den vier Teilnehmerinnen analysiert und ihre Leistungseinstufungen in Beziehung gesetzt zur Zeit, die sie für die Beurteilung der einzelnen schriftlichen Leistungen benötigten.
4. Ergebnisse Die Untersuchung hat gezeigt, dass die Beurteilung (schriftlicher) Leistungen eine komplexe kognitive Handlung darstellt, die aus verschiedenen, sich ergänzenden und aufeinander aufbauenden Strategien und Strategiebündeln besteht. Sie werden zum einen von persönlichen und zum anderen von institutionellen Faktoren geprägt. Persönlichkeitsfaktoren sind beispielsweise individuelle Vorlieben und Erfahrungen, besonders natürlich berufliche Erfahrungen im Kontext Sprachunterricht. Andere Strategien hingegen sind durch das Beurteilungsinstrumentarium bestimmt, welches von der Testinstitution vorgegeben wird, etwa das standardisierte Beurteilungsverfahren oder die Schulungsmaßnahmen, die das Testkonstrukt und die Beurteilungsmaßstäbe operationalisieren. Folgende Hauptergebnisse können festgehalten werden: 1. Die Beurteilungsarbeit erfolgt in weitgehend klar trennbaren und interpersonell relevanten Phasen. Diese sind stark durch die institutionellen Vorgaben geprägt, insbesondere durch
Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache?
409
das vom TestDaF-Institut vorgegebene standardisierte Beurteilungsverfahren, durch das Beurteilungsinstrumentarium sowie durch entsprechende Schulungen und MonitoringMaßnahmen. 2. Eine Vielzahl an Strategien kann eruiert und beschrieben werden. Die Kategorisierung zeigte, dass sie zum einen auf eigenen, v. a. auch beruflichen, Erfahrungen und subjektiven Theorien, zum anderen auf die Standardisierung der Beurteilungsarbeit gründen. Meist treten die Strategien in Clustern auf, d. h. in bestimmten Phasen oder bei bestimmten Problemen der Beurteilungsarbeit werden bestimmte Strategien eingesetzt, die wiederum bestimmte Strategien nach sich ziehen. 3. Von besonderer Bedeutung bei der Urteilsfindung ist das Testkonstrukt, auf welches die Versuchspersonen, auch auf der Basis subjektiver Daten und Hypothesen, referieren. So wird insbesondere auf die Funktion des TestDaF referiert als Begründung für bestimmte Leistungseinstufungen, etwa vor dem Hintergrund der Frage, ob ein Text ‚hochschultauglich‘ ist. 4. Als Herzstück der Beurteilungsarbeit erweist sich das Beurteilungsraster, welches die Maßstäbe in Form von skalierten Leistungsbeschreibungen (Deskriptoren) präsentiert. Es wird stark und in unterschiedlicher Weise und Ausprägung frequentiert, ist weitgehend verinnerlicht und dient den Versuchspersonen als Sprachmaterial für die Formulierung ihrer Urteile.
Literatur Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDaF). Tübingen: Narr. Lumley, Tom (2005). Assessing Second Language Writing. The Rater’s Perspective. Frankfurt/Main: Lang.
410
7. Referenzarbeiten
Christine Biebricher Darstellung der Referenzarbeit: Biebricher, Christine (2008). Lesen in der Fremdsprache 1. Thema und Forschungsfragen Die Studie beschäftigt sich mit dem Lesen der Fremdsprache Englisch an Realschulen. Sie evaluiert, inwieweit extensives Lesen Auswirkungen auf die Lese- und Sprachkompetenz, Motivation und Lesesozialisation deutscher Realschüler hat. Im internationalen Kontext wird extensives Lesen als Möglichkeit gesehen, Lesekompetenz, Motivation und Lesesozialisation positiv beeinflussen zu können. Dies wird für den deutschen Forschungskontext untersucht. Den drei 9. Realschulklassen (n = 75), die die Experimentalgruppe bildeten, wurde für vier Monate eine englische Klassenbibliothek mit 95 Texten verschiedener Genres und Schwierigkeitsstufen zur Verfügung gestellt, von denen mindestens vier gelesen werden sollten. Während einer Unterrichtsstunde pro Woche (45 Minuten) wurde still und individuell gelesen, die Teilnehmer konnten zusätzlich Bücher ausleihen. Die Teilnahme am Leseprojekt war freiwillig und gelesene Texte wurden nicht im Unterricht besprochen. In den drei Kontrollgruppen (n = 85) fand gewöhnlicher Englischunterricht statt. Alle Teilnehmer kamen aus dem gleichen Schulamtsbezirk in Baden-Württemberg. Für die Lese- und Sprachkompetenz beantwortete die Untersuchung die folgenden Fragen: 1. Können Schülerinnen und Schüler durch extensives Lesen ihre fremdsprachliche Lesekompetenz verbessern? 2. Wirkt sich extensives fremdsprachliches Lesen auf die allgemeine englische Sprachkompetenz aus? 3. Gibt es geschlechtsspezifische Unterschiede in diesen Bereichen? Für den Bereich der Lesemotivation wurde untersucht: 1. Hat extensives Lesen Auswirkungen auf die Lesemotivation? 2. Verändert sich die englische Selbstwirksamkeitserwartung durch Erfolgserlebnisse? Für die fremdsprachliche Lesesozialisation wurden folgende Fragen evaluiert: 1. Führt extensives Lesen eine Veränderung im Leseverhalten und in der Einstellung zur Sprache herbei? 2. Kann die Lesesozialisation durch extensives Lesen unterstützt werden? 3. Gibt es geschlechtsspezifische Unterschiede bei fremdsprachlichem Lesen? Schließlich wurde insgesamt geprüft, ob sich innerhalb eines kurzen Zeitraums von vier Monaten Veränderungen in einzelnen Bereichen ergaben.
Biebricher, Christine (2008). Lesen in der Fremdsprache
411
2. Datenerhebung Die Untersuchung bediente sich eines quasi-experimentellen Interventionsdesigns mit nonäquivalenten Kontrollgruppen sowie mit Vorher-Nachher-Messungen. Um die Sprachkompetenz vor dem Treatment (extensives Lesen) kontrollieren zu können, wurde jeder Experimentalgruppe, die durch die Bereitschaft der Lehrer zum Treatment festgelegt wurde, im Vorfeld eine Kontrollgruppe zugeordnet. Hierzu wurde ein C-Test mit allen Schulen im Schulbezirk der Experimentalgruppen durchgeführt (19 Klassen, n = 524 Schülerinnen und Schüler), dessen Ergebnis bezüglich der Durchschnittspunkte, der Varianz innerhalb der Gruppe, Gruppengröße und des Geschlechterverhältnisses die Basis für das Matching darstellte. Als Methoden der Datenerhebung wurden in der Studie im qualitativen Bereich Beobachtung, Befragung (Fragebogen und Leitfadeninterview) und impulsgestützte Stellungnahmen eingesetzt, im quantitativen Bereich ein Teil des Fragebogens und verschiedene Sprachtests. Vor Beginn des Treatments erfolgte die Erfassung des fremdsprachlichen Leseverstehens der Experimental- und Kontrollgruppen mit dem Leseteil des standardisierten Sprachtests ‚Preliminary English Test (PET)‘, der dem B1-Niveau des Gemeinsamen europäischen Referenzrahmens entspricht. Zur Erhebung der Lesemotivation und -gewohnheiten erhielten alle Gruppen einen halboffenen Fragebogen sowie einen geschlossenen Fragebogen zur Selbstwirksamkeitserwartung. Während des Treatments wurden in den Experimentalgruppen drei nicht-standardisierte Leseproben durchgeführt, in denen das Leseverstehen relativ langer englischer Texte überprüft wurde. Die Teilnehmer lasen jeweils ein Kapitel eines Readers und waren aufgefordert, Informationen zum Inhalt auf Deutsch wiederzugeben oder zu inferieren. Die Jugendlichen hielten ihre Einstellung zum Leseprojekt und ihre Lesemotivation in zwei impulsgestützten Stellungnahmen nach drei und nach neun Wochen des Treatments fest. Schließlich gaben alle am Treatment Beteiligten einen schriftlichen Kurzkommentar in vorgefertigtem Format zu jedem gelesenen Text ab, der nach Titel sortiert in der Klasse verblieb. Dies diente zur Feststellung der Leseinteressen, aber auch als Leseempfehlung innerhalb der Klassen. Nach Abschluss des Treatments wurden mit allen Schülerinnen und Schülern der Experimental- und Kontrollgruppen der bereits zuvor eingesetzte C-Test und der Leseteil des PET durchgeführt. Zusätzlich erhielten alle einen halboffenen, leicht abgewandelten Fragebogen und erneut den geschlossenen Fragebogen zu Selbstwirksamkeitserwartung. Aus den Experimentalteilnehmern wurden aufgrund der Ergebnisse aller Instrumente 26 Interviewkandidaten ausgewählt, woraus wiederum sechs für Fallbeispiele ausgesucht wurden.
3. Datenaufbereitung Alle eingesetzten Instrumente wurden in einer Pilotphase sowie in einer Vorstudie erprobt, validiert und teilweise modifiziert. Ergebnisse der Vorstudie führten zu leichten Veränderungen in der Hauptstudie. Längere Einträge in ein ‚Reading Notebook‘ erwiesen sich in der Vorstudie beispielsweise als wenig hilfreich und wurden durch Kurzkommentare zu Texten ersetzt.
412
7. Referenzarbeiten
Die Ergebnisse der Sprachtests (C-Test und PET) wurden jeweils getrennt und nach Gruppen sortiert zur Auswertung in SPSS eingegeben. Vor der Auswertung der Leseproben stellten drei Englischlehrer schriftlich Antwortmöglichkeiten für jede Leseprobe zusammen. Zur höheren Interrater-Reliabilität wurden diese im Anschluss mit der Untersuchungsleiterin diskutiert und wurde ein gemeinsamer Erwartungshorizont und ein Auswertungsschema festgelegt. Geschlossene Items der verschiedenen Fragebogen wurden in SPSS kodiert, wobei kleinere Werte geringere Zustimmung bedeuteten (‚trifft nicht zu‘ = 1; bzw. ‚überhaupt nicht‘ = 1). Offene Items sowie die Inhalte der jeweiligen impulsgestützten Stellungnahmen wurden elektronisch erfasst und anonymisiert. Alle durchgeführten Interviews wurden vollständig transkribiert. Da Inhalte im Vordergrund der Untersuchung standen, wurde die Darstellung des Gesprächs an die Schriftsprache angeglichen und dialektale Redewendungen im Transkript geglättet und es wurde ein PostSkript zum Interviewpartner angelegt. Alle interviewten Personen wurden pseudonymisiert. Erstellte Transkriptionen wurden den Interviewpartnern zur kommunikativen Validierung vorgelegt und daraufhin erfolgte Änderungen wurden in das Transkript eingearbeitet und als solche kenntlich gemacht.
4. Datenauswertung Fragebogen: Für geschlossene Items des Fragebogens wurden mit SPSS zunächst Mittelwerte, Standardabweichungen sowie Häufigkeiten berechnet. Identische Items im Fragebogen vor und nach dem Treatment wurden im Anschluss mit Hilfe des Wilcoxon-Tests für nichtparametrische Tests auf signifikante Veränderungen im Leseverhalten, der Lesemotivation, der Lesehäufigkeit und der lesebezogenen Selbstwirksamkeitserwartung geprüft. Offene Items wurden nach Fragen sortiert und teilweise quantifiziert (z. B. Lieblingsbücher der Klassenbibliothek) sowie inhaltlich strukturiert und in ähnliche Themenblocks gruppiert. In einem nächsten Schritt wurden so entstandene Gruppen unter neuen Kategorien subsumiert. Das entstandene Kategoriensystem wurde mit Frequenzanalysen und Mittelwerten der geschlossenen Items in Beziehung gesetzt und hinsichtlich der Forschungsfragen interpretiert. Schriftliche Stellungnahmen: Die Aussagen der Teilnehmer waren bereits durch die gegebenen Impulse (Aufgaben) vorstrukturiert. Beide Stellungnahmen wurden in ähnlicher Weise wie der Fragebogen ausgewertet. Interview: Durch den Leitfaden war das Interview zwar bereits in Themenbereiche gegliedert, doch wurde es in einem ersten Schritt daraufhin durchgesehen, ob andere Themen an weiteren Stellen des Interviews angesprochen wurden. Nach der inhaltlichen Strukturierung wurden Gemeinsamkeiten und Unterschiede der Aussagen der Interviewten herausgearbeitet sowie verschiedene Kategorien, die zu den Ergebnissen der Fragebogen und schriftlichen Stellungnahmen in Beziehung gesetzt und interpretiert wurden. Fallbeispiele: In Anlehnung an thematisches Kodieren wurden einzelne Fälle nach bestimmten Kriterien ausgewählt und analysiert (criterion sampling). Zur Auswertung dieser sechs Fallbeispiele wurden alle verfügbaren Daten herangezogen.
Biebricher, Christine (2008). Lesen in der Fremdsprache
413
Sprachtests: Zunächst wurde versucht, die interne Validität durch die Parallelisierung der Experimental- und Kontrollgruppen zu erhöhen und personengebundene Störvariablen gering zu halten. Sequenzeffekte wurden durch den relativ großen zeitlichen Abstand limitiert. Nachdem die drei parallelisierten Experimental- und Kontrollgruppen-Paare auf Varianzhomogenität überprüft worden waren, wurden die Ergebnisse des C-Tests (Indikator Sprachkompetenz) und des PET-Leseteils (Indikator Lesekompetenz) mit einer univariaten Varianzanalyse (Analysis of Variance = ANOVA) mit Messwiederholung berechnet, um signifikante Veränderungen zwischen Test- und Kontrollgruppen, dem Prä- und Post-Test und einem Effekt des Treatments feststellen zu können.
Abbildung 1: Forschungsdesign
5. Ergebnisse Bezüglich der Forschungsfragen, ob extensives Lesen sich auf die fremdsprachliche Lesekompetenz und die allgemeine Sprachkompetenz auswirkt und ob es geschlechtsspezifische Unterschiede hierzu gibt, zeigte die Untersuchung, dass extensives Lesen zur verbesserten Lesekompetenz beitrug, dass die allgemeine Sprachkompetenz in zwei der drei Gruppen signifikant anstieg und Mädchen häufig die besseren Ergebnisse in beiden Bereichen erzielten. Extensives Lesen hatte in der Untersuchung signifikante positive Auswirkungen auf die Lesemotivation, während die Motivation der Kontrollgruppen kontinuierlich abfiel. Extensives Lesen förderte die Wertschätzung englischer Texte und leistete somit einen Beitrag zur Lesesozialisation. Tendenziell lasen Mädchen mehr und mit höherer Motivation. Allerdings ließ die Untersuchung keine eindeutigen Schlussfolgerungen über die Zusammenhänge von Lesemotivation und Lesekompetenz zu. Erhöhte Lesemotivation hatte nicht unbedingt ein besseres Ergebnis im Lesetest zur Folge, wie beispielsweise die Ergebnisse vieler Jungen bestätigten. Umgekehrt konnten vereinzelt verbesserte Leistungen erzielt werden, obwohl kaum Lesemotivation bestand. Auch ein Zusammenhang von Lesemenge, Lesemotivation und Leseverstehen reichte nicht als Erklärung für die Ergebnisse der Tests aus.
414
7. Referenzarbeiten
Obgleich der gewählte multiperspektivische Ansatz der Untersuchung mit seiner Vielzahl an Erhebungsinstrumenten notwendig erschien, bliebe zu bedenken, ob dies nicht zu einer Testermüdung bei den Teilnehmern führte. Beispielsweise hätte auf Leseproben und einen der Fragebogen zur Selbstwirksamkeitserwartung verzichtet werden können. In zukünftigen Forschungen wäre zu untersuchen, ob sich regelmäßiges extensives Lesen über einen längeren Zeitraum, beispielsweise über ein Schuljahr hinweg, positiv auf Lese- und Sprachkompetenz sowie Lesemotivation auswirkt ebenso wie die Zusammenhänge von Lesemotivation und Lesekompetenz in der Fremdsprache genauer zu erforschen wären. Kritik an extensivem Lesen als lediglich input ohne erwarteten output legt Forschungen nahe, die sich mit extensivem Lesen einschließlich Aufgaben dazu beschäftigen und Auswirkungen auf die Lesekompetenz und -motivation untersuchen.
Literatur Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr.
Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation
415
Sabine Doff Darstellung der Referenzarbeit: Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation 1. Thema und Forschungsfragen Gegenstand der Dissertationsschrift ist der Unterricht in den neueren Fremdsprachen (Französisch und insbesondere Englisch) für Mädchen im 19. Jahrhundert in Deutschland. Der Fokus liegt auf der Methodik des Englischunterrichts an höheren Mädchenschulen bis zum Beginn des 20. Jahrhunderts; das Phänomen wird im ideengeschichtlichen (Kapitel 1: ‚Ideengeschichtliche Grundlagen: Deutsche Entwürfe von Weiblichkeit und Bildung‘), sozialhistorischen (Kapitel 2: ‚Sozialhistorische Aspekte der weiblichen Bildungsfrage: Die Frauenbewegung‘) und bildungshistorischen (Kapitel 3: ‚Entwicklung des höheren Mädchenschulwesens in Deutschland‘) Kontext verortet. Zugrunde liegt die These, dass die bis heute viel diskutierte markante Affinität von Mädchen und Frauen zu den neueren Fremdsprachen (vgl. Kapitel 4: ‚Die Englischlehrerinnen‘) wesentlich die methodische Ausgestaltung des Unterrichts in diesen Schulfächern sowie dessen didaktische Ausrichtung (Kapitel 5: ‚Geschichte des Faches Englisch und seiner Didaktik im Kontext der weiblichen Bildung‘) über den Untersuchungszeitraum hinaus prägte. Die Arbeit nähert sich dem Untersuchungsgegenstand in der Schnittmenge zwischen Fremdsprachendidaktik, Historischer Bildungsforschung und Genderforschung.
2. Zusammenstellung der Dokumente Dieser interdisziplinäre Ansatz spiegelt sich in der Zusammenstellung der Dokumente: Berücksichtigt wurden neben Standardwerken zur deutschen Bildungsgeschichte die gehäuft im letzten Drittel des 20. Jahrhunderts entstandenen Quellensammlungen zur weiblichen Bildungsgeschichte. Daneben wurden weitere, bis dato nicht in diesem Umfang berücksichtigte historische Originalquellen in großem Umfang herangezogen. Dazu gehören vorrangig im letzten Drittel des 19. Jahrhunderts erschienene einschlägige Zeitschriften, u. a. zum Fremdsprachenunterricht und zur weiblichen Bildung, sowie Schulprogrammschriften. Bei letzteren handelt es sich um jährliche Veröffentlichungen von Einzelschulen, die im 17. und 18. Jahrhundert ursprünglich das Programm der öffentlichen Prüfung enthielten; ab der Mitte des 18. Jahrhunderts wurde häufig eine wissenschaftliche Abhandlung (z. B. über das Lehren und Lernen von Fremdsprachen) beigefügt. Seit dem 2. Viertel des 19. Jahrhunderts enthielten diese Schriften ferner einen Bericht über das vergangene Schuljahr. Bei den Zeitschriften wurden schwerpunktmäßig diejenigen ausgewählt, die für die Entwicklung des höheren Mädchenschulwesens von Bedeutung waren. Insgesamt neun Zeitschriften (u. a. ‚Die Lehrerin in Schule und Haus‘, Leipzig, ab 1849 sowie ‚Die Mädchenschule‘, Bonn: Weber, ab 1888)
416
7. Referenzarbeiten
wurden innerhalb des Untersuchungszeitraums einer vollständigen Durchsicht unterzogen, v. a. im Hinblick auf Fragen, die den Fremdsprachenunterricht betreffen. Daneben wurde eine möglichst vollständige Berücksichtigung der Schulprogrammschriften des 19. Jahrhunderts aus allen deutschen Ländern angestrebt, die sich auf den Fremdsprachenunterricht, insbesondere den für Mädchen, im Kontext der höheren Bildung beziehen. Grundlage der Recherche der Schulprogrammschriften waren existierende einschlägige Bibliographien sowie die (Online-)Kataloge der Staatsbibliotheken in München und Berlin. Es stellte sich dabei heraus, dass die Quellenlage für Schulprogrammschriften insbesondere für den Fremdsprachenunterricht an höheren Mädchenschulen in Preußen besonders günstig ist. Einbezogen wurden ferner relevante Stundentafeln und Curricula für den Sprachenunterricht an höheren Schulen sowie Lehrbücher und andere Unterrichtsmaterialien des Untersuchungszeitraums, die explizit für den neusprachlichen Unterricht für Mädchen erstellt wurden.
3. Interpretation der Dokumente Im ersten Schritt wurden die herangezogenen Quellen zunächst nach ihren formalen Merkmalen (äußere Quellenkritik) sowie nach dem Aussagewert ihres Inhalts (innere Quellenkritik) analysiert. Die wichtigsten Analyseschritte der äußeren Quellenkritik waren die Kritik der Provenienz, Echtheit und Originalität. Bei der inneren Quellenkritik erwiesen sich als zentrale Analysekriterien der Standpunkt bzw. Horizont der Autor/innen sowie der Kontext der jeweiligen Quelle. Der Anspruch bei der Interpretation der Dokumente war, den Zeitgeist der untersuchten Periode zu verstehen sowie die kulturelle Atmosphäre einzuschätzen, um den Untersuchungsgegenstand auf diesem Hintergrund adäquat analysieren zu können. Grundlegende Deutungsmuster für die Interpretation bildeten zwei Prämissen: Erstens wurde dem politischen, ökonomischen und sozialen Bezugsrahmen hohe Bedeutung für die Untersuchung des Ausschnitts der (weiblichen) Bildungsgeschichte zugewiesen. Im Umkehrschluss gilt, dass Schul- und Bildungsgeschichte neue Sichtweisen auf politische, ökonomische oder kulturelle Geschichte ermöglichen. Zweitens wurde eine teleologische Entwicklung von Geschichte dezidiert abgelehnt, d. h. es wurde nicht davon ausgegangen, dass Reformen im Fremdsprachenunterricht automatisch mit Fortschritt gleichzusetzen sind. Im Umkehrschluss werden zeitlich frühere Konzepte und Methoden nicht automatisch als defizitär, jüngere nicht automatisch als überlegen begriffen. Die Standardwerke zur deutschen Bildungsgeschichte sowie Quellensammlungen zur weiblichen Bildungsgeschichte wurden zur Kontextualisierung herangezogen, dienten also insbesondere der ideengeschichtlichen und sozialhistorischen Einbettung des Untersuchungsgegenstandes. Es stellte sich dabei heraus, dass erstere das höhere Mädchenbildungswesen nicht selten stiefmütterlich behandeln und dass letztere – was als korrespondierende Entwicklung dazu aufgefasst werden kann – vielfach als Teil der Genderforschung im letzten Drittel des 20. Jahrhunderts aufgefasst werden können. Dies galt es, bei der Interpretation dieser Dokumente entsprechend zu berücksichtigen. Auf der Grundlage des umfangreichen Quellenmaterials kann die Vielschichtigkeit eines lange gewachsenen und bis heute andauernden historischen Prozesses dargestellt werden.
Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation
417
Interpretiert wurden die Quellen ausgehend von den erläuterten generellen Grundannahmen sowie von der oben genannten spezifischen These. Letztere diente in einem zyklischen Prozess im Laufe des Quellenstudiums als Grundlage für die Auswahl und Bewertung von Quellen; sie wurde parallel dazu immer weiter ausdifferenziert, wenn sich aus den Quellen neue Erkenntnisse ergaben. Ziel dieses hermeneutischen Vorgehens war es, durch das Zusammenspiel von Fragestellung und Quellenarbeit Einsichten in historische Begründungszusammenhänge, Denkweisen und Ereignisse zu gewinnen. Als für den Untersuchungsgegenstand besonders lohnenswerte Quellen erwiesen sich die Schulprogrammschriften sowie einschlägige Zeitschriftenbeiträge. Gerade in letzteren hatten auch die beteiligten Frauen selbst die seltene Chance, ihren Standpunkt darzulegen.
4. Ergebnisse Die den Ausgangspunkt für die Arbeit bildende These wurde bestätigt und konnte ausgeweitet werden. Die Ergebnisse zeigen, dass nicht nur die Inhalte und Lehrpläne, sondern auch die in Schulprogrammschriften und Zeitschriften dokumentierte Didaktik der neueren Fremdsprachen im 19. Jahrhundert eine mitunter erhebliche Abweichung von den dominanten didaktischen Ansätzen in den klassischen Sprachen zeigten. Diese spezifische, d. h., stark verkürzt gesprochen, im Wesentlichen auf die mündliche Sprachfertigkeit fokussierte Ausrichtung der Neusprachendidaktik wurde in der Regel an höheren Mädchenschulen von Lehrerinnen unterrichtet, fernab von staatlicher Regulierung und Normierung. Der Staat zeigte an der Regulierung des höheren Mädchenschulwesens bis zum letzten Viertel des 19. Jahrhunderts nur sehr geringes Interesse, was dazu führte, dass Mädchenschulen eine Art didaktisches Experimentierfeld boten, in dem die Erprobung von Innovationen leichter möglich war als im staatlichen Regelschulsystem für Knaben. Über die Ausgangsfragen hinaus konnte gezeigt werden, dass die Anforderungen an Lehrkräfte in den neueren Sprachen sich sukzessive wandelten (z. B. der wachsende Anspruch an die Sprachkompetenz der Lehrkräfte). Dieser Wandel begünstigte die während des 19. Jahrhunderts vom universitären Studium ausgeschlossenen Frauen in diesem Beruf stark, da sie anstelle von oder zusätzlich zum Lehrerinnenseminar längere Auslandsaufenthalte vorzugsweise in England oder/und Frankreich realisierten. Die Untersuchung legt mit diesem Teilergebnis nahe, dass die neueren Fremdsprachen die Fächer waren, die den Lehrerinnen den Weg in das höhere (Regel-)Schulwesen ermöglichten. Somit konnte sowohl in personeller als auch in inhaltlicher Hinsicht eine spezifisch weiblich geprägte Neusprachendidaktik nachgewiesen werden. Durch die ab 1880 einsetzende Neusprachliche Reformbewegung, die nicht wenige markante Überschneidungen mit dieser weiblichen Tradition des Fremdsprachunterrichts zeigte, erhielt dieses Konzept eine theoretisch fundierte Grundlegung. Die Ergebnisse legen nahe, dass beide Strömungen in vielerlei Hinsicht auf das gleiche Ziel – primär die Stärkung der Mündlichkeit – hinwirkten; inhaltliche Ergänzungen in zentralen Punkten sowie personelle Überschneidungen (viele Neusprachenreformer waren zumindest zeitweise an höheren Mädchenschulen tätig) ermöglichten eine wirksame Durchsetzung von methodisch-didaktischen
418
7. Referenzarbeiten
Neuerungen in einem Fremdsprachenunterricht im höheren Mädchen- und mit einiger Verzögerung sowie abgeschwächt auch im höheren Knabenschulwesen. Die Einflüsse dieser Tradition reichen bis über den Untersuchungszeitrahmen hinaus; viele ihrer Leitlinien erwiesen sich als für den heutigen Fremdsprachenunterricht aktuell – wenn auch unter veränderten Vorzeichen. Der in dieser Arbeit ausschnitthaft geleistete Blick in die Geschichte des Fremdsprachenunterrichts verdeutlicht, dass eine kritische historische Betrachtungsweise der Brüche und Konstanten durchaus Hilfestellungen für ein wacheres Verständnis gegenwärtiger Problemstellungen und aktueller Herausforderungen liefern kann.
Literatur Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für Mädchen im 19. Jahrhundert. München: Langenscheidt.
Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung
419
Susanne Ehrenreich Darstellung der Referenzarbeit: Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung 1. Thema und Forschungsfragen Ausgangspunkt der Studie war folgende vorläufige Forschungsfrage: (Inwiefern) Ist das Fremdsprachenassistenten-Jahr ertragreich für angehende FremdsprachenlehrerInnen? Da es keine soliden Voruntersuchungen zum Thema gab, war die Durchführung einer explorativen Studie qualitativen Zuschnitts angezeigt. Diese methodologische Entscheidung brachte recht unmittelbar eine Neuakzentuierung mit sich. Schon die ersten Interviewdaten zeigten deutlich, dass die vorläufige Fragestellung normativ verkürzt, d. h. auf die Relevanz des Assistentenjahres für die Lehrerbildung ausgerichtet war. Darüber hinaus mussten jedoch auch die subjektiven Bedeutungszuschreibungen der Akteure berücksichtigt und aus einer phänomenologischen Perspektive ergänzt werden. Die für die Datenauswertung maßgeblichen Einzelfragen lauteten daher:
1. Wie stellt sich ein Auslandsaufenthalt als Fremdsprachenassistent/in (FSA) in einem englischsprachigen Land aus der Perspektive der Beteiligten dar?
2a. Wie bewerten die Beteiligten Ertrag und Auswirkung ihres Auslandsaufenthaltes als deutsche/r FSA in einem englischsprachigen Land?
2b. Wie sind Ertrag und Auswirkung eines Auslandsaufenthaltes als FSA in einem englischsprachigen Land im Licht der Lehrerbildung zu bewerten?
3. Welche Implikationen birgt die Gegenüberstellung dieser beiden Perspektiven im Blick auf Ausbildungsinhalte und Struktur der Fremdsprachenlehrerbildung? Die konzeptuelle Integration der phänomenologischen und der evaluativen Perspektive auf das Assistentenjahr gelang mithilfe des entwicklungstheoretisch ausgerichteten berufsbiographischen Ansatzes von Terhart (2001). Als Gütekriterien wurden die Kriterien der intersubjektiven Nachvollziehbarkeit und der Indikation des Forschungsprozesses angelegt.
2. Datenerhebung Für die Erforschung der Wirksamkeit eines Ausbildungsabschnitts wäre die Durchführung einer Langzeitstudie ideal. Aus Gründen der Machbarkeit war in diesem Fall jedoch eine Querschnittsuntersuchung angezeigt; die Frage, ob und inwiefern sich die Bewertung des Ertrags des assistant-Jahres in Abhängigkeit von der jeweiligen Ausbildungsphase unterscheidet, wurde über die kriteriengeleitete Zusammenstellung der Untersuchungsgruppe gelöst. Folgende Strategien wurden hierzu kombiniert: die Berücksichtigung quantitativer
420
7. Referenzarbeiten
Angaben zur Population, die gezielte und die theoretische Auswahl (vgl. Silverman 2000: 104). Damit bestimmten sechs Kriterien die Auswahl der UntersuchungsteilnehmerInnen: die Ausbildungs- bzw. Berufsphase zum Zeitpunkt des Interviews, das Geschlecht, das Herkunftsbundesland, das Zielland, die subjektive Bewertung der Fremdsprachenassistenz sowie die Aufenthaltsdauer bzw. frühzeitige Rückkehr. Der Feldzugang erfolgte über ein multiples Schneeballsystem, bei 22 Befragten war eine theoretische Sättigung erreicht. Als Datenerhebungsinstrument wurde das Interview gewählt, weil es u. a. eine gewisse ‚Hebammenfunktion‘ der Forscherin bei der Ko-Konstruktion der Daten ermöglicht. Für die Entwicklung der Interviewform war die Balance zwischen Offenheit und Strukturierung leitend, zum Einsatz kam daher das ‚teilstrukturierte Leitfadeninterview mit Erzählimpulsen‘. Zur Kontextualisierung der Interviewsituation wurden vor dem Interview relevante Angaben zur Person erfasst, Informationen zum Interviewverlauf wurden in einem Postskriptum festgehalten. Der Interview-Leitfaden gliederte sich in eine offene Eingangsfrage nach der wichtigsten Erfahrung während des assistant-Jahres und in die thematischen Bereiche Person, Sprache, Interkulturelles Lernen, Schule und Unterricht sowie einige Ausblicksfragen. Die Abfolge der Fragen wurde größtenteils durch die InterviewpartnerInnen bestimmt. Nach vier Pilotinterviews wurde der Leitfaden ohne große Veränderungen für die Gesamtstudie übernommen. Die Interviewgespräche wurden von der Forscherin über einen Zeitraum von sieben Monaten durchgeführt und dauerten durchschnittlich je einhundert Minuten.
3. Datenaufbereitung Für die Transkriptionsregeln galt das Prinzip der guten Lesbarkeit, wodurch gleichzeitig der forschungsethische Anspruch einer fairen Repräsentation der Befragten erfüllt wurde. Die Transkriptionen wurden von der Forscherin durchgeführt; die anonymisierten Transkripte wurden im Zuge des member check von den Interviewpartnern gegengelesen und anschließend in das Textmanagement-Programm MAXQDA importiert.
4. Datenauswertung Für das Auswertungsdesign wurden kategorisierende Verfahren (vgl. den Ansatz der Grounded Theory von Glaser/Strauss 1967) mit sequentiellen Analyseverfahren kombiniert. Darüber hinaus wurde nicht nur darauf geachtet, was gesagt, sondern auch darauf, wie etwas gesagt wurde (vgl. Freeman 1996). Die Auswertung erfolgte in folgenden fünf Arbeitsschritten: 1. Materialbezogene Kategorienbildung und Entwicklung einer Inhaltsübersicht: Die intensive Lektüre und Interpretation von zunächst drei Interviewtexten diente der Entwicklung der Auswertungskategorien. Diese wurden zum einen datenbasiert gebildet, zum anderen in Auseinandersetzung mit der Forschungsliteratur, dem Interviewleitfaden und dem konzeptuellen Bezugsrahmen der Studie. Ein erstes Netzwerk dieser Kategorien wurde erstellt und als zusätzliches Arbeitsinstrument wurde ein mehrteiliges Überblicksschema für die Einzelinterviews entwickelt.
Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung
421
2. Konstruktion und Erprobung des Kategoriensystems: Anschließend wurden die vorläufig entwickelten Kategorien zu einem hierarchisch angelegten Kategoriensystem (Codesystem) angeordnet und in die Software MAXQDA importiert. Einige Kategorien wurden dabei mit so genannten Code-Memos versehen. Im Zuge der – nun elektronischen – Codierung zweier weiterer Interviewtexte wurde das vorläufige Codesystem auf seine Reichweite und Flexibilität geprüft und minimal modifiziert. 3. (Vergleichende) Einzelfallanalyse und Codierung sämtlicher Interviewtexte: In dieser multifunktionalen Arbeitsphase wurde codierend am Einzeltext und zunehmend auch textübergreifend und -vergleichend gearbeitet. Insgesamt bewährte sich das System mit seinen 350 Kategorien in der Anwendung auf alle Texte. Die Memo-Funktion des Programms wurde genutzt, um Ankerbeispiele, Literaturhinweise und insbesondere erste textübergreifende theoretische Bezüge zu dokumentieren. Zusätzlich wurde für jedes Interview die oben genannte Inhaltsübersicht erstellt. 4. Synoptische Themenanalyse: Hier erfolgte die synoptische Datenanalyse, bei der über die Programmfunktion des Text-Retrievals alle einer Kategorie zugeordneten Textstellen vergleichend analysiert, in ihrer empirischen Ausprägung bewertet und interpretiert wurden. Narrative Passagen wurden entsprechend ausgewertet. 5. Textimmanente und -übergreifende axiale Themenanalyse mit dem Ziel der Theorieentwicklung: In Schritt 3 und 4 kristallisierten sich zentrale Kategorien heraus, die in ihrem axialen Zusammenhang zu analysieren waren (vgl. Strauss/Corbin 1990: 114). Dabei wurden Ursachen, Bedingungen, Korrelationen und Konsequenzen bestimmter Phänomene textimmanent und -übergreifend zueinander in Beziehung gesetzt. Weitere theoretische Rahmenkonzepte umfassten Entwicklungsverläufe, Identitäten sowie die von ehemaligen AssistentInnen geteilten Relevanzsysteme.
5. Ergebnisse Die Erwartungen an das FSA-Jahr einerseits und die retrospektiv erfolgten Interpretationen prägen als subjektive Relevanzen die Bewertung des jeweils Erlebten. Persönliches tritt während des Jahres und im Rückblick stark in den Vordergrund, die Fremdsprache – in der Regel das Hauptmotiv für den Aufenthalt – bekommt in der Gesamterfahrung eine nebengeordnete Rolle zugewiesen. Der (inter-)kulturelle Bereich bleibt zeitübergreifend von zentraler Bedeutung, wird aber von ambivalenten Erträgen bestimmt. Schule und Unterricht im Zielland geben häufig Anlass zu Enttäuschung. Im Ergebnis zeigt die Studie, dass die durch Mythen des ‚Sprach- und Kulturbades‘ verklärte Sicht auf den Auslandaufenthalt aufzugeben ist. Dieser ist vielmehr als spezifischer Lernort zu begreifen, den es vorzubereiten, zu strukturieren und zu reflektieren gilt.
422
7. Referenzarbeiten
Literatur Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Das assistant-Jahr als ausbildungsbiographische Phase. München: Langenscheidt. Freeman, Donald (1996). ‚To take them at their word‘: Language data in the study of teachers’ knowledge. In: Harvard Educational Review 66, 732 – 761. Glaser, Barney/Strauss, Anselm (1967). The Discovery of Grounded Theory. Strategies for Qualitative Research. Chicago: Aldine. Silverman, David (2000). Doing Qualitative Research. A Practical Handbook. London: Sage. Strauss, Anselm/Corbin, Juliet (1990). Basics of Qualitative Research. London: Sage. Terhart, Ewald (2001). Lehrerberuf und Lehrerbildung. Forschungsbefunde, Problemanalysen, Reformkonzepte. Weinheim: Beltz.
Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule
423
Johanna Hochstetter Darstellung der Referenzarbeit: Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule 1. Thema und Forschungsfragen Im Fremdsprachenunterricht der Grundschule stehen die mündlichen Kompetenzen Hörverstehen und Sprechen im Mittelpunkt. Um mündliche Kompetenzen gezielt fördern zu können, müssen im Unterricht immer wieder die bereits erworbenen Kompetenzen in diesem Bereich festgestellt und analysiert werden. Im Sinne eines adaptiven Unterrichts, der die individuelle Förderung der Lerner zum Ziel hat, dient eine solche Analyse als Ausgangspunkt für differenzierte Unterrichtsangebote und erfordert diagnostische Kompetenz der Lehrenden. Mündliche Kompetenzen lassen sich insbesondere in dieser Altersstufe nicht mit klassischen paper-and-pencil-Testformaten erheben, sie sind aber der direkten Beobachtung zugänglich. Ein Hilfsmittel für die systematische Beobachtung sind strukturierte Beobachtungsbögen. Für die Untersuchung stellten sich damit zwei Aufgaben: die Entwicklung von Beobachtungsbögen für das Fach Englisch in der Grundschule und die Erprobung dieser Bögen. Für die Entwicklung der Beobachtungsbögen lauteten die zentralen Fragen, welche Beobachtungskriterien für welche Art von Aufgaben sich eignen und in welcher Weise eine Abstufung im Grad des Könnens (Skalierung) beobachtbar ist. In der Erprobungsphase standen zwei weitere Forschungsfragen im Zentrum der Untersuchung. Zum einen sollte untersucht werden, inwieweit verschiedene Lehrkräfte Sprachproduktions- und/oder -rezeptionsleistungen ein und desselben Kindes mit Hilfe der Beobachtungsbögen übereinstimmend beurteilen. Zum anderen ging die Studie der Frage nach, welche Überzeugungen Lehrkräfte hinsichtlich der Arbeit mit Beobachtungsbögen äußern.
2. Datenerhebung Zur Beantwortung dieser Fragen wurde in der Entwicklungsphase Fachliteratur zu den Themengebieten Diagnostik (z. B. Klieme/Leutner 2006; von der Groeben 2003: 7), und hier speziell Beobachtungsverfahren (z. B. Feeley 2002), und zu mündlichen Kompetenzen im Fremdsprachenunterricht (z. B. Europarat 2001) hinzugezogen. Als weitere wichtige Grundlage für die Entwicklung der Beobachtungsbögen wurden vier Unterrichtsstunden Englischunterricht an einer Grundschule videografiert; die Lehrkraft war Seminarleiterin für Englischunterricht in der Grundschule und bereit, Unterricht mit Fokus auf mündliche Rezeptions- und Produktionsaufgaben zu gestalten. Aus diesen Unterrichtsstunden wurden vier Sequenzen zu Hörverstehens- und Sprechaufgaben transkribiert. Zwei weitere Videosequenzen wurden aus
424
7. Referenzarbeiten
dem Projekt E-LINGO1 hinzugezogen. Alle Videosequenzen wurden unter der Fragestellung ausgewertet, inwieweit mündliche Teilkompetenzen wie z. B. Flüssigkeit oder Aussprache beobachtbar sind. In mehreren Überarbeitungsschleifen entstand dabei ein Baukastensystem mit sieben Beispielbeobachtungsbögen. Als Grundmuster dient für alle Bögen eine Dreiteilung. Im obersten Abschnitt der Bögen ist Platz für Angaben zum Kind, zum Aufgabentyp (z. B. Rollenspiel, Präsentation) und für das erwartete verbale oder non-verbale Verhalten des Kindes. Im zentralen Bereich befindet sich das Feld ‚Beobachtungen‘. Dieses enthält in Abhängigkeit vom Aufgabentyp Beobachtungskategorien mit Deskriptoren auf vier Niveaustufen. Für folgende Beobachtungskategorien wurden Skalen erarbeitet: ‚Aussprache‘, ‚Korrektheit‘, ‚Flüssigkeit‘, ‚Spektrum‘, ‚soziolinguistische Angemessenheit‘ und – für Hörverstehensaufgaben – ‚Korrektheit der Reaktion‘ sowie ‚Schnelligkeit der Reaktion‘ sowie übergeordnet die Kategorie ‚Lernkompetenz‘. Es wurde eine vierstufige Skalierung gewählt, um eine Tendenz zur Mitte oder Zentraltendenz zu erschweren und keine Parallelität zur sechsteiligen deutschen Notenskala nahezulegen. Im dritten Abschnitt der Bögen befinden sich die beiden Freitextfelder ‚Sonstiges‘ und ‚Fördermaßnahmen‘, in denen besondere Stärken und Schwächen notiert und nächste Lernschritte – auch gemeinsam mit dem Kind – geplant und dokumentiert werden können. Für die Erprobung wurden fünf Grundschullehrerinnen gewonnen, die bis auf eine Multiplikatorin für Englisch in der Grundschule arbeiteten und von der Schulrätin angesprochen worden waren. Nach einem Einführungsworkshop, in dem anhand von Beispiel-Videosequenzen das Beobachten geübt worden war, wurden in der Erprobungsphase die Beobachtungsbögen sowohl direkt im Unterricht als auch in zwei Workshops mit Videosequenzen erprobt. Die Erprobungen im Unterricht fanden während des ‚normalen‘ Unterrichts statt. Die Lehrkräfte wurden gebeten, Hörverstehens- und/oder Sprachproduktionsaufgaben unterrichtlich zu initiieren und zu beobachten; Themen und Aufgaben wurden ihnen nicht vorgegeben. Als Vorgabe für die zu beobachtenden Kinder galt, dass möglichst Schüler und Schülerinnen verschiedener Leistungsniveaus berücksichtigt werden sollten. Um untersuchen zu können, inwieweit verschiedene Lehrkräfte Sprachproduktions- und/oder -rezeptionsleistungen ein und desselben Kindes übereinstimmend beurteilen, wurden die Beobachtungssituationen im Unterricht der fünf Lehrkräfte videografiert. Durch die Videoaufnahmen konnten alle fünf Lehrkräfte in zwei gemeinsamen Workshops dieselben Kinder einschätzen. Es liegen für zwölf beobachtete Kinder von jeder der fünf Lehrkräfte ein Beobachtungsbogen aus der Einschätzung im Workshop und ein zusätzlicher Beobachtungsbogen von der unterrichtenden Lehrkraft aus ihrem Unterricht vor. Zur Beantwortung der zweiten Frage bezüglich der lehrerseitigen Überzeugungen wurden sowohl teilstandardisierte Leitfadeninterviews mit jeder einzelnen Lehrkraft zu ihrem Unterricht geführt als auch Gruppengespräche im Rahmen der Workshops zu Fragen der Beobachtung und Bewertung einzelner Schüler und Schülerinnen initiiert und als AudioDateien erhoben.
1 E-LINGO war ein Fern- und Kontaktstudiengang zum Frühen Fremdsprachenlernen, der von der Pädagogischen Hochschule Freiburg in Kooperation mit der Pädagogischen Hochschule Heidelberg und der Justus-Liebig-Universität Gießen angeboten wurde.
Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule
425
3. Datenaufbereitung und Datenauswertung In der quantitativen Datenanalyse wurden mit Hilfe von Häufigkeitsberechnungen alle Beurteilungen zu einem Kind sowie alle Beurteilungen zu einer Kategorie, seien sie im Unterricht oder im Workshop entstanden, auf ihre Übereinstimmung hin verglichen. Um der Frage nachzugehen, ob einzelne Lehrkräfte in ihren Urteilen eine statistisch signifikante Tendenz zur Milde oder Strenge aufweisen, wurden t-Tests für abhängige Stichproben paarweise für alle Lehrkräfte sowie eine einfaktorielle Anova gerechnet. Korrelationsberechnungen (Pearsons r) dienten dazu, Zusammenhänge zwischen den Leistungen einzelner Kinder und der Übereinstimmung, mit der sie bewertet wurden, zu analysieren. Zur Beantwortung der zweiten Frage bezüglich der Überzeugungen wurden die Interviews und Gruppengespräche für die Auswertung in Anlehnung an die Transkriptionsregeln von Mayring (Mayring 2003: 49) transkribiert und einer qualitativen Inhaltsanalyse unterzogen. Die Kategorienbildung erfolgte induktiv. Das gesamte Material wurde von zwei Kodiererinnen getrennt voneinander kodiert.
4. Ergebnisse Die quantitativen Auswertungen der ausgefüllten Beobachtungsbögen ergeben für sechs der acht entwickelten Skalen (‚Aussprache‘, ‚Korrektheit‘, ‚Flüssigkeit‘, ‚Spektrum‘ und – für Hörverstehensaufgaben – ‚Korrektheit der Reaktion‘ sowie ‚Schnelligkeit der Reaktion‘), zufriedenstellende bis gute Werte für die Übereinstimmung.2 Für zwei Skalen (‚Lernkompetenz‘ und ‚soziolinguistische Angemessenheit‘) besteht weiterer Forschungsbedarf. Eine statistisch signifikante Tendenz zur Milde oder Strenge einzelner Lehrkräfte kann in den vorliegenden Daten nicht festgestellt werden. Durch die Korrelationsberechnungen zeigt sich folgender Zusammenhang: Je leistungsstärker ein Kind eingeschätzt wird, desto übereinstimmender wird es bewertet, und umgekehrt, je leistungsschwächer ein Kind wahrgenommen wird, desto weniger übereinstimmend wird es beurteilt. Die Auswertungen der qualitativen Daten geben wichtige Hinweise, warum es in bestimmten Fällen zu unterschiedlichen Einschätzungen der Schülerleistung kam. Dies trat z. B. in folgenden Fällen auf:
• wenn Kinder sich selbst korrigierten und die Lehrkräfte uneinig waren, ob sie dies als korrekt oder als inkorrekt ansehen wollten,
• wenn Lehrkräfte nicht das Beobachtete an sich zu dokumentieren versuchten, sondern das Wahrgenommene sogleich anhand von unterschiedlichen Attributionen interpretierten (z. B. „die Schülerin ist sonst besser“). Die Intention der Beobachtungsbögen, Raum zu geben für eine detaillierte Dokumentation der Beobachtungen und diese wiederum für eine formative Leistungsrückmeldung und zur adaptiven Planung von Unterricht zu nutzen, steht im Kontrast zu zentralen Überzeugungen 2 Als zufriedenstellend wird eine Übereinstimmung der Bewertungen von mehr als 66 %, als gut von mehr als 80 % angesehen.
426
7. Referenzarbeiten
von mindestens einem Teil der befragten Lehrkräfte. Aus den Formulierungen zweier Lehrkräfte in den Interviews lässt sich ein Konzept rekonstruieren, nach dem sie als Lehrkräfte die Kinder umfassend wahrnehmen, ihre Beobachtungen vollständig ‚im Kopf‘ abspeichern und zu späteren Zeitpunkten wieder abrufen können. Eine detaillierte Dokumentation der Beobachtungen erscheint ihnen folglich auch nicht zwingend notwendig. Aus den Ergebnissen kann abgeleitet werden, dass die diagnostische Kompetenz von Lehrkräften nicht allein dadurch weiterentwickelt werden kann, dass sie in den Umgang mit Beobachtungsverfahren eingeführt werden. Neben sprachbezogen-fachlichen Kenntnissen erscheint es notwendig, auch Kenntnisse über die Grenzen und Probleme von Beobachtungen zu vermitteln, um zu ermöglichen, dass Konzepte von der ‚Unfehlbarkeit‘ der eigenen Erinnerung an Beobachtetes reflektiert und hinterfragt werden können. Es ergeben sich erste Hinweise aus der Studie, dass der Einsatz von Videoaufnahmen in Workshops Lehrkräften die Möglichkeit gibt, ihre eigenen Wahrnehmungen zu reflektieren.
Literatur Europarat (Hg.) (2001). Gemeinsamer europäischer Referenzrahmen für Sprachen: lernen, lehren, beurteilen. München: Langenscheidt. Feeley, Thomas Hugh (2002). Comment on halo effects in rating and evaluation research. In: Human Communication Research 28(4), 578 – 586. Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. Klieme, Eckhard/Leutner, Detlev (2006). Kompetenzmodelle zur Erfassung individueller Lernergebnisse und zur Bilanzierung von Bildungsprozessen: Beschreibung eines neu eingerichteten Schwerpunktprogramms der DFG. In: Zeitschrift für Pädagogik 52(6), 876 – 903. Mayring, Philipp (2003). Qualitative Inhaltsanalyse. Grundlagen und Techniken. 8. Auflage. Weinheim: Beltz. Von der Groeben, Annemarie (2003). Verstehen lernen: Diagnostik als didaktische Herausforderung. In: Pädagogik 55(4), 6 – 9.
Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache
427
Nicole Marx Darstellung der Referenzarbeit: Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache 1. Thema und Forschungsfragen Ziel der experimentellen Studie war es, die Auswirkung eines auf die besondere Lernsitua tion heutiger Deutsch-als-Fremdsprache-Lernender ausgerichteten Unterrichts zu überprüfen. Thematisch bewegte sich die Arbeit im Feld der Tertiärsprachendidaktik. Diese basiert auf Erkenntnissen der Mehrsprachigkeitsforschung und konzipiert einen Unterricht, der besonders auf Lernende einer zweiten oder weiteren Fremdsprache (im Folgenden: Tertiärsprache bzw. L3) ausgerichtet ist. Über die Unterstützung von Erstsprachenkenntnissen, Lernumgebung und motivationalen Faktoren hinaus hebt die Tertiärsprachendidaktik die lernfördernde Wirkung einer früher gelernten L2 hervor, die für wissenserweiternde Strukturen und Wortschatz sowie durch Lernerfahrungen gewonnene Strategien der neuen L3 Pate steht. Ungeklärt war allerdings, ob eine Sensibilisierung für mitgebrachte Lernerfahrungen und die Interlanguage der L2 erstens möglich und zweitens förderlich ist. Somit fragte die Untersuchung danach, ob der mehrfach geforderte Einbezug der L2, die bei DaF-Lernenden heutzutage fast ausnahmslos Englisch ist, gewinnbringend für das Lernen des DaF nach Englisch (DaFnE) genutzt werden könne. Die übergreifende Fragestellung der Untersuchung lautete: Unterstützt eine besondere DaFnE-Sensibilisierung das Lernen des Deutschen als L3? Die auf den Erkenntnissen der bisherigen Forschung basierende Ausgangshypothese besagte, dass sensibilisierte Lernende ihre Kenntnisse der L2 während der Rezeption eines gesprochenen L3-Textes eher zu nutzen wissen als nicht sensibilisierte. Da sich der Großteil der bisherigen Tertiärsprachenforschung mit produktiven Fertigkeiten befasste, sollte sich die Studie der weniger untersuchten sprachlichen Fertigkeit des Hörverstehens widmen.
2. Datenerhebung Versuchspersonen waren 18 angehende ausländische Studierende mit nicht-germanischen Erstsprachen im Alter von 18 – 25 Jahren in englischsprachigen naturwissenschaftlichen Studiengängen einer deutschen Hochschule. Alle waren ohne Deutschkenntnisse eingereist und wohnten zur Zeit des Untersuchungsbeginns erst wenige Tage oder Wochen in Deutschland. Um der Fragestellung nachzugehen, wurde im Rahmen von Nullanfängerkursen mit jeweils 16 Unterrichtsstunden pro Woche in einer sechswöchigen Intensivphase eine Interventionsstudie mit experimentellem Design durchgeführt. Nach einem Eingangstest und Fragebogen zum Zweck einer Gruppenbalancierung wurden die Versuchspersonen in zwei curricular
428
7. Referenzarbeiten
identische, parallel laufende Kurse eingeteilt. Die unabhängige Variable stellte der Rückgriff auf Prinzipien der L3-Didaktik dar: Während die Kontrollgruppe möglichst ohne Einbezug der L2 die neue L3 lernte, erhielt die Experimentalgruppe einen Sprachunterricht, bei dem wöchentlich wenige Unterrichtsstunden (etwa 15 – 20 %) durch einen gezielten DaFnE-Unterricht (‚Sensibilisierungsunterricht‘) ersetzt wurden. Die abhängige Variable zu den jeweiligen Hypothesen stellte dann das Ergebnis bei den unterschiedlichen Messinstrumenten (Hörverstehenstests sowie Fragebogendaten) dar. Um Störfaktoren möglichst gering zu halten, wurden weitere Variablen kontrolliert. Dies bezog sich auf die Einteilung in die Gruppen (Quotenverfahren mit Balancierung nach Geschlecht, Alter und Herkunftsland), auf die Kursbedingungen (Materialien, Curriculum, Räumlichkeiten, Zeiten, Diensterfahrung der Lehrerinnen etc.) und auf die Datenerhebung (während des Regelunterrichts, gleiche aufgenommene Hörtexte, Aufgabenstellungen und Instruktionen etc.). Auch die als Messinstrumente eingesetzten Hörtexte waren innerhalb der Kategorien angeglichen, so dass bei Texttyp 2 und 3 (s. u.) der Schwierigkeitsgrad aller zehn Texte vergleichbar war. (Eine Angleichung des Schwierigkeitsgrads des Texttyps 1 war nicht sinnvoll, da diese die wöchentliche Lernprogression nachzeichnen sollte). Die Hauptfragestellung wurde in vier Untersuchungsfragen aufgeteilt, wozu jeweils eine Hypothese aufgestellt wurde. Die Messinstrumente bezogen sich direkt auf die zu prüfenden Hypothesen: Hypothese
Messinstrument(e)
1: DaFnE-sensibilisierte Lernende wissen ihr L2-Vorwissen besser zu nutzen und erzielen
Texttyp 1: dem Niveau der Lernenden entsprechende Hörverstehenstexte und hohe daher bessere Testergebnisse bei Aufgaben, Kognatendichte (GER Stufe A1) mit Aufgaben die ihrem Sprachniveau entsprechen und viele zum selektiven Hörverstehen L2-Kognaten enthalten.
2: Sensibilisierte Lernende wissen ihre L2Kenntnisse beim Hören schwieriger Texte mit vielen englisch-deutschen Kognaten eher zu ihrem Vorteil zu nutzen.
3: Mit fortschreitender Zeit werden die Unterschiede zwischen den beiden Lernergruppen deutlicher.
Radio-Nachrichtentexte mit offenen Aufgaben zum globalen und selektiven Hörverstehen: Texttyp 2 (Texte mit vielen deutsch-englischen Kognaten); Texttyp 3 (Texte ohne viele deutsch-englische Kognaten)
4: Sensibilisierte Lernende sind sich bewuss-
Retrospektive Erklärungen (schriftlich) zu den ter, welche Vorteile sie aus vorher gelernten vom Lernenden wahrgenommenen Gründen Fremdsprachen und vorherigen Lernerfahrun- für erfolgreiches Verstehen; gen mitbringen. qualitative Fragebögen zum Unterricht Tabelle 1: Hypothesen und Messinstrumente in der Studie
Die Datenerhebung zu allen Hörtexten erfolgte zu den regulären Kurszeiten als Vortest zum Kursbeginn (Woche 0), für Texttyp 1 wöchentlich während des Intensivkurses (Wochen 1, 2, 3, 4, 5, 6), für Texttyp 2 und 3 alle zwei Wochen (Wochen 2, 4, 6) und schließlich für alle Texttypen einmalig als Posttest sechs Wochen nach Ende des Intensivkurses (Woche 12).
Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache
429
3. Datenauswertung Die Datenauswertung wurde durch zwei unabhängige Rater durchgeführt und der Mittelwert aus den Ratings zur Datenanalyse verwendet. Für Texttyp 1 wurden Ergebnisse anhand einer korrekten Antwort auf geschlossene Fragen zum Text berechnet; für Texttyp 2 und 3 gingen sowohl die Anzahl der verstandenen Satzglieder als auch die Anzahl der aufgegriffenen Kognaten in die Auswertung ein. Die Antworten zu den Fragebögen und die retrospektiven Erklärungen wurden eingesammelt und kategorisiert. Um die Mittelwerte der zwei Gruppen zu vergleichen, wurden unterschiedliche statistische Verfahren herangezogen. Bei Texttyp 1, bei dem die Texte zu den unterschiedlichen Erhebungszeiten nicht das gleiche Niveau aufwiesen, wurden auf Grund der kleinen Gruppengrößen non-parametrische Mann-Whitney-U-Tests (ein Test für unabhängige Gruppen-Designs) vollzogen. Bei den Texttypen 2 und 3 (Nachrichtentexte) sowie bei den Kognatenergebnissen wurden Varianzanalysen mit Messwiederholung (MANOVAs) verwendet. Beide sehr aussagekräftigen Tests ziehen die Anzahl der beobachteten Fälle in Betracht, was besonders bei kleineren Gruppengrößen einen α-Fehler zu vermeiden hilft. Zur Überprüfung der MANOVA-Ergebnisse wurden auch post-hoc Analysen (U-Tests) durchgeführt, um Unterschieden zu spezifischen Testzeiten nachzugehen. Die retrospektiven Erklärungen wurden quantitativ ausgewertet (Anzahl und Art der Erklärungen für das Verstehen, die statistisch durch Varianzanalyse und post-hoc durch MannWhitney-U-Tests überprüft wurden), die Fragebogen zu subjektiven Beurteilungen des Kurses und des Wertes der L2 beim Lernen einer L3 jedoch durch Kategorisierung und Darlegung der Kommentare qualitativ.
4. Ergebnisse3 Beim Texttyp 1 ergaben Mann-Whitney-U-Tests signifikante Unterschiede zwischen der Experimental- und der Kontrollgruppe zu vier von den insgesamt sieben Erhebungszeiten nach Kursanfang. Somit konnte die erste Hypothese bestätigt werden: Lernende mit einer Sensibilisierung in der besonderen Situation des DaFnE-Lernens nutzen ihre (Vor-) Kenntnisse besser als ihre mit den gleichen Voraussetzungen angefangenen Kommilitonen. Zur Prüfung der zweiten Hypothese wurden Texttyp 2 und 3 eingesetzt. Hier haben die durchgeführten Analysen signifikante Unterschiede zwischen den beiden Gruppen beim Verstehen des Hörtexttyps 2 (hohe Kognatendichte) ergeben (F (1;9) = 7,079, p < ,05). Zudem konnte die Sensibilisierungsgruppe mehr Kognaten bei diesem Texttyp erfassen als die Kontrollgruppe (F (1;9) = 6,039, p < ,05). Beim Verstehen des Texttyps 3 (niedrige Kognatendichte) waren keine Unterschiede zwischen den zwei Lernergruppen nachzuweisen (F (1;9) = 0,126, p = n.s.). Somit wurde auch die zweite Hypothese bestätigt: Der Sensibilisierungskurs verhalf den Lernenden zu einem besseren Textverstehen, allerdings nur bei solchen Texten, die mehr deutsch-englische Parallelen enthielten. 3 Aus Platzgründen wird hier auf eine ausführliche Darstellung der Ergebnisse verzichtet; stattdessen wird exemplarisch von einigen statistischen Ergebnissen berichtet.
430
7. Referenzarbeiten
Die dritte Hypothese, dass Unterschiede zwischen den zwei Gruppen im Laufe der Erhebungszeit größer würden, musste sowohl für Texttyp 2 (F(4;9) = 1,157, p = n.s.) als auch für Texttyp 3 (F(4;9) = 0,254, p = n.s.) widerlegt werden. Dies könnte auf Mehreres hindeuten, u. a. darauf, dass fortschreitende Erfahrung mit dem Sensibilisierungsunterricht zwar hilfreich ist, aber eventuell weniger bedeutend als die Tatsache, dass ein Auslöser (trigger) zum Nutzen der L2 bereits früh gesetzt wurde. Bei der vierten Frage ging es darum, ob sich sensibilisierte Lernende über ihre Vorteile als Tertiärsprachenlernende bewusster sind als solche, die keinen gezielten DaFnE-Unterricht erhalten. Unterschiedliche Ergebnisse, die an dieser Stelle nicht referiert werden können, bestätigten diese Hypothese, zeigten aber auch, dass reflektierte Vorteile v. a. auf der Mikroebene verhaftet bleiben. So kann geschlussfolgert werden, dass der Sensibilisierungskurs im Vergleich zu einem herkömmlichen DaF-Unterricht in mehrfacher Hinsicht, insbesondere auf lexikalischer Ebene, eine positive Auswirkung auf den tatsächlichen Lernerfolg hatte, was sich in den Ergebnissen der Hörverstehenstests, der Retrospektionen und Fragebögen sowie der hier nicht diskutierten Abschlussprüfungen spiegelte. Das unterstützende Potential der L2 wird allerdings erst dann wirksam, wenn Lernenden die Gelegenheit eingeräumt wird, diese zu reflektieren und zu üben.
Literatur Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache: zum Nutzen eines Sensibilisierungsunterrichts im ‚DaFnE‘. Baltmannsweiler: Schneider Verlag Hohengehren.
Özkul, Senem (2011). Berufsziel Englischlehrer/in
431
Senem Aydın Darstellung der Referenzarbeit: Özkul, Senem (2011). Berufsziel Englischlehrer/in 1. Thema und Forschungsfragen Es gibt zahlreiche Untersuchungen zur Frage, weshalb sich Abiturienten für den Lehrerberuf entscheiden (u. a. Oesterreich 1987; Krieger 2000; Ulich 2004). Bei diesen Untersuchungen wurde jedoch die Rolle des Fachinteresses kaum differenziert erforscht. In dieser Studie wurden deshalb Berufs- und Studienfachwahlmotive von Lehramtsstudierenden in der Anglistik /Amerikanistik mit einem Fokus auf den geschlechtstypischen Unterschieden untersucht. Außerdem wurde das Phänomen Berufsentscheidungssicherheit und dessen Gründe hinterfragt, welche Rückschlüsse auf die von Lehramtsstudierenden wahrgenommene Unattraktivität des Lehrerberufs erlauben. Vor diesem Hintergrund verfolgte die Untersuchung die folgenden drei Forschungsfragen:
• Welche Gründe bewegen junge Menschen dazu, den Lehrerberuf zu ergreifen? • Wie unterscheiden sich die Berufs- und Studienfachwahlmotive der weiblichen und männlichen Lehramtsstudierenden?
• Welche Bedingungen oder Umstände erzeugen eine Unsicherheit bezüglich der bereits getroffenen Berufswahlentscheidung als Lehrer/in?
2. Datenerhebung Da es sich bei dem Forschungsthema um ein subjektiv-internes und nicht direkt beobachtbares Phänomen handelt, wurde eine teilstandardisierte schriftliche Befragung als Untersuchungsmethode eingesetzt. Bei derartigen Forschungsinhalten kann es vorkommen, dass Probanden Motive angeben, die nicht der Lebenswirklichkeit entsprechen. Um das Ausmaß der sozialen Erwünschtheit im Antwortverhalten von Probanden möglichst gering zu halten, wurde die Befragung anonym durchgeführt. Ein weiterer Grund für die Methodenwahl war, dass eine möglichst große Zahl von Probanden erreicht werden sollte, um repräsentative bzw. aussagekräftige Ergebnisse zu erhalten. Die Konstruktion eines ausgereiften und selbsterklärenden Fragebogens wurde in drei Phasen erreicht. Die Vorbefragung wurde mit Hilfe dreier offener Fragen zur Berufs- und Studienfachwahl sowie Berufsentscheidungssicherheit konzipiert. Beabsichtigt wurde damit, ausgehend von den freien und spontanen Formulierungen der Befragten eine konkrete Sammlung von Antwortmöglichkeiten für die Hauptbefragung zu gewinnen. Die Ergebnisse der Vorbefragung wurden mit Hilfe des Programms MAXQDA statistisch ausgewertet. Aus den in der Vorbefragung gewonnenen Antworten der Befragten wurden Motivkategorien der Berufs- und Studienfachwahl gebildet:
432
7. Referenzarbeiten
• intrinsische Berufswahlmotive (Kompetenz und Interessen, pädagogische Motive, gesellschaftsbezogene Motive); • extrinsische Berufswahlmotive (tätigkeitsbezogene Motive, pragmatische Motive, erfahrungsbestimmte Motive, Studienbedingungen, sonstige Motive, wie z. B. Berufswahl als Verlegenheitslösung); • intrinsische Studienfachwahlmotive (Verbesserung der Sprachkenntnisse, sprachliche Kompetenz, Interesse/Desinteresse, gesellschaftsbezogene Motive, Freude an der Sprache); • extrinsische Studienfachwahlmotive (erfahrungsbestimmte Motive, tätigkeitsbezogene Motive, pragmatische Motive, Studienbedingungen). In einem weiteren Schritt wurde anhand der Pilotierung der ersten Version des Fragebogens festgestellt, welche Fragenkomplexe relevant sind und auf welche Antworten der Befragten später in Form von Antwortmöglichkeiten für die geschlossenen Fragen eingegangen werden sollte. Im Anschluss an die Pilotierung wurde in der letzten Erstellungsphase die endgültige Version des Fragebogens angefertigt, die aus fünf Teilen bestand: Fragen zur Person und Herkunftsfamilie, zur Berufswahl, zur Berufsentscheidungssicherheit, zur Studienfachwahl und schließlich zur Reflexion der Befragten über die Studie. Die Zielgruppe bestand aus Lehramtsstudierenden der Anglistik/Amerikanistik, die sich noch in der Anfangsphase ihres Studiums befanden. Grundlegend hierfür war die Annahme, dass die Beweggründe für einen Beruf bzw. für ein Studium in der Anfangsphase noch frisch und somit gut zu untersuchen sind. Die Hauptbefragung fand von Mitte Oktober bis Ende Dezember 2008 statt. Es konnten 19 Universitäten aus zehn Bundesländern für die Teilnahme an dieser Studie gewonnen werden. Von insgesamt 2575 verschickten Fragebögen wurden 1727 zurückgesandt und 1709 (Frauen 76,24 %; Männer 23,76 %; 65,7 % aus dem ersten bis dritten Semester) davon konnten in die Auswertung aufgenommen werden. Daraus errechnet sich eine verwertbare Rücklaufquote von 66,37 %.
3. Datenaufbearbeitung Um die erhobenen Daten mit SPSS (Statistical Package for the Social Sciences) auswerten zu können, müssen die in Papierform vorliegenden Daten in eine Rohdatentabelle nach einem Kodierplan übertragen werden, womit die Daten sowohl für die quantitative als auch für die qualitative Analyse zugänglich gemacht werden. Es wird eine Liste aller im Fragebogen erhobenen Variablen mit den dazugehörigen Ausprägungen bzw. Antwortvorgaben erstellt, wobei jeder Variablen und jeder Merkmalsausprägung ein spezieller Kode zugeordnet wird. Die Angaben zu den offenen Fragen wurden in ein digitales Dokument übertragen und inhaltsanalytisch ausgewertet.
4. Datenauswertung Bei der Datenauswertung wurde zunächst anhand des Signifikanztests untersucht, ob zwischen den Variablen des Fragebogens signifikante Korrelationen auftreten. Die signifikanten
Özkul, Senem (2011). Berufsziel Englischlehrer/in
433
Zusammenhänge zwischen den zwei korrelierten Merkmalen wurden innerhalb der interpretativen Auswertung analysiert. Während die Ergebnisse der deskriptiven Analyse lediglich über die Stichprobe der vorliegenden Studie Informationen geben, bringen die Resultate eines Signifikanztests die Tendenzen der gesamten Population ans Licht. Um eine übersichtliche und den zeitlichen Etappen des Berufsentscheidungsprozesses entsprechende Gliederung und somit eine strukturierte Diskussion der umfangreichen Forschungsergebnisse zu ermöglichen, wurde ein Phasenmodell entwickelt. Nach Ansicht der Forscherin wird ein Berufswähler in der Vorentscheidungsphase von extrinsischen und intrinsischen Gründen bei seiner Berufswahl beeinflusst. Im Anschluss daran entscheidet er sich entweder direkt für eine Tätigkeit oder testet erst alternative Berufe (Entscheidungsphase). Nachdem die Person ihre Wahl getroffen hat, kann sie entweder mit ihrer Entscheidung zufrieden sein und in der Tätigkeit verbleiben oder unzufrieden sein und eine Alternative (Nachentscheidungsphase) suchen.
5. Ergebnisse Die Lehramtsstudentinnen orientieren sich in ihrer Berufsentscheidung vornehmlich an pädagogischen Motiven. Dementsprechend kamen an erster Stelle Aussagen hinsichtlich der Liebe zu Kindern („ich mag Kinder“; „ich arbeite gerne mit Kindern und Jugendlichen“). Auch die anderen am häufigsten genannten Berufswahlmotive der Frauen beziehen sich auf den sozialen Aspekt der Tätigkeit: das Interesse an einem Beruf mit viel Kontakt zu anderen Menschen und der Wunsch, eine soziale und sinnvolle Tätigkeit auszuüben. In der Rangfolge der Männer kam das Motiv ‚Erfüllung einer sozialen und sinnvollen Aufgabe‘ an erster Stelle. Darauf folgte der Grund, dass sie gerne mit Kindern und Jugendlichen arbeiteten. Weitere Motive waren: „Ich habe die Möglichkeit, zur Erziehung der nächsten Generationen beizutragen“ und „ich bin an einem Beruf mit viel Kontakt zu den anderen Menschen interessiert“. Sowohl Frauen als auch Männer wurden in ihrer Studienfachwahl v. a. durch ihr Interesse an englischsprachigen Ländern und Kulturen sowie durch ihren Wunsch nach einer Verbesserung ihrer Sprachkenntnisse während des Studiums bewegt. An dritter Stelle folgte bei den Frauen die Begeisterung für Fremdsprachen, während die Männer ihre bereits vor dem Studium vorhandenen Englischkenntnisse als Beweggrund angaben. Ein hochsignifikanter Unterschied konnte bei der subjektiven Einschätzung der eigenen Sprachbegabung festgestellt werden: Frauen betrachteten sich häufiger als sprachbegabt als Männer. Am stärksten wurde die Berufs- und Studienfachwahl beider Geschlechter durch positive Erfahrungen mit eigenen Lehrern (64,7 %) beeinflusst. Die Probanden möchten in ihrem Berufsleben ‚gute‘ Lehrpersonen nachahmen oder Erfahrungen, die sie mit ‚schlechten‘ Lehrpersonen gemacht haben, mit einem besseren Unterricht übertreffen. Dieser Befund ist deshalb erwähnenswert, weil er die relativ hohe Bewertung des Motivs und den Stellenwert der Vorbildfunktion der Lehrkräfte bei der Berufswahl verdeutlicht. Betrachtet man die Angaben bezüglich der Berufsentscheidungssicherheit, so ist festzustellen, dass mehr Männer als Frauen in ihrer Entscheidung unsicher waren. Der häufigste Grund für die Unsicherheit der Frauen war: „Weil ich mich auch für einen anderen Beruf interessiere“. Die Männer gaben dagegen am häufigsten an, dass sie sich in ihrer Lebensplanung noch nicht ganz sicher seien. Die Zahl der Studierenden,
434
7. Referenzarbeiten
die keineswegs Lehrer werden wollten, war bei den Männern ebenfalls höher als bei den Frauen.
Literatur Kiel, Ewald/Pollak, Guido/Eberle, Thomas (2007). Lehrer werden ist nicht schwer …?! Die problematische Studienwahl von Lehramtsstudierenden. In: Pädagogik 59(9), 11 – 15. Krause, Andreas/Dorsemagen, Cosima (2007). Ergebnisse der Lehrerbelastungsforschung: Orientierung im Forschungsdschungel Verlag für Sozialwissenschaften. In: Rothland, Martin (Hg.). Belastung und Beanspruchung im Lehrerberuf. Wiesbaden: Verlag für Sozialwissenschaften, 52 – 80. Krieger, Rainer (2000). Berufswahlmotive und Erziehungsvorstellungen im Wandel: Generationenvergleiche bei Lehramt-Studierenden. In: Krampen, Günter/Zayer, Hermann (Hg.). Psychologiedidaktik und Evaluation II. Bonn: Deutscher Psychologen Verlag, 239 – 255. Nieskens, Birgit (2009). Wer interessiert sich für den Lehrerberuf – und wer nicht? Berufswahl im Spannungsfeld von subjektiver und objektiver Passung. Göttingen: Cuvillier. Oesterreich, Detlef (1987). Die Berufswahlentscheidung von jungen Lehrern. Berlin: Max-Planck-Institut für Bildungsforschung. Özkul, Senem (2011). Berufsziel Englischlehrer/in. München: Langenscheidt. Ulich, Klaus (2004). Ich will Lehrer/in werden: Eine Untersuchung zu den Berufsmotiven von Studierenden. Weinheim: Beltz.
Schart, Michael (2003). Projektunterricht – subjektiv betrachtet
435
Michael Schart Darstellung der Referenzarbeit: Schart, Michael (2003). Projektunterricht – subjektiv betrachtet 1. Thema und Forschungsfragen Die Studie beschäftigt sich mit dem subjektiven Verständnis des Projektunterrichts bei Lehrenden für Deutsch als Fremdsprache. Sie wurde im Rahmen von Sommerkursen an deutschen Universitäten durchgeführt. Der Forschungsprozess zielt dabei auf ein verstehendes Nachvollziehen jener Überlegungen, auf die Lehrende ihr Handeln im Unterricht stützen, nicht aber auf die Untersuchung unterrichtlicher Praxis selbst. Forschungsleitend waren die folgenden Fragestellungen: 1. Was meinen Lehrende konkret, wenn sie von Projektunterricht sprechen? Welche subjektiven Sichtweisen zu Einsatzmöglichkeiten, Ablauf und Effizienz von Projektarbeit werden formuliert? 2. Welche typischen Argumentationslinien und -muster lassen sich aufzeigen? 3. Welche Rolle spielen die jeweiligen institutionellen Rahmenbedingungen und Entscheidungsmaximen? 4. Welche Rückschlüsse lassen sich auf Möglichkeiten und Grenzen von Projektarbeit im Kontext der Sommerkurse an deutschen Universitäten (bzw. vergleichbarer Kursformen) ziehen? 5. Welche Konsequenzen ergeben sich für die wissenschaftlichen Diskussionen um den Projektunterricht einerseits und die Aus- und Fortbildung von Lehrenden andererseits?
2. Datenerhebung Wie der Titel der Arbeit verdeutlicht, stehen qualitative Verfahren der Datenproduktion und -analyse im Zentrum des Forschungsprozesses. Genauer betrachtet verfolgte die Studie jedoch einen mixed-methods-Ansatz: Zunächst wurde eine Fragebogenerhebung durchgeführt, deren Ergebnisse dann den Ausgangspunkt für problemorientierte, halbstandardisierte Interviews darstellten. Die Fragebögen enthielten offene und geschlossene Items und wurden – in zwei unterschiedlichen Versionen – zunächst an die Organisatorinnen und Organisatoren der Sommerkurse, darauffolgend auch an die dort tätigen Lehrenden verschickt. Dieses Vorgehen erleichterte es, direkte Kontakte mit den Personen im zu untersuchenden Feld aufzubauen. Die Ergebnisse der Fragebogenerhebung bildeten zugleich eine wichtige Grundlage für die Konstruktion des allgemeinen Interviewleitfadens sowie die Formulierung individueller Fragestellungen für jedes der Interviews. Nicht zuletzt ergaben sich aus den Fragebögen bereits
436
7. Referenzarbeiten
Antworten auf einzelne Forschungsfragen. Für die Studie wurden 13 Interviews mit 17 Lehrenden geführt. Sie dauerten zwischen 60 und 120 Minuten.
3. Datenaufbereitung Alle Interviews wurden audiographisch aufgezeichnet und komplett transkribiert, wobei die Interviewäußerungen in ein normales Schriftdeutsch überführt und sprachbegleitende Handlungen nur dann notiert wurden, wenn sie offensichtlich die Aussage einer Passage beeinflussten. Nach der Transkription erhielten die Interviewpartnerinnen und -partner die Möglichkeit, ihre Äußerungen zu korrigieren oder zu ergänzen. Die autorisierten Transkriptionen wurden schließlich gemeinsam mit den qualitativen Daten aus den Fragebögen in eine QDA-Software eingelesen (WinMAX, jetzt: MAXQDA), die quantitativen Daten für die weitere Analyse über die Software SPSS erfasst. Alle aufbereiteten Daten befinden sich auf einer der Publikation beiliegenden CD.
4. Datenauswertung Die qualitative Datenanalyse erfolgte in mehreren Schritten. Als Ergebnis einer initiierenden Textarbeit an den Transkriptionen wurden zunächst vertiefende Einzelfallinterpretationen für alle Interviews vorgenommen. Die Grundlage dafür bildeten die Prinzipien der inhaltlich strukturierenden qualitativen Inhaltsanalyse. Bei dieser formulierenden Interpretation spielen genaue Wiedergaben von Textpassagen eine hervorgehobene Rolle. Die Interviewpartnerinnen und -partner kommen in den Darstellungen so viel wie möglich selbst zu Wort und ihre Kernaussagen dienen als Ankerpunkte für eine dichte Beschreibung des Falls. In diesen Einzelfalldarstellungen geht es vor allem darum, eine emische Perspektive einzunehmen, individuelle Denk- und Erklärungsweisen zu verstehen und die Heterogenität subjektiver Sichtweisen zum Projektunterricht aufzuzeigen. Im Unterschied dazu strebt der sich anschließende Schritt der Datenauswertung – die typenbildende Inhaltsanalyse – danach, die Vielfalt der Sichtweisen in Strukturen einzubinden, Ambivalenzen aufzulösen und die Betrachtung auf eine abstraktere Ebene zu führen. Mit Hilfe einer QDA-Software wurde das gesamte Textmaterial auf wiederkehrende Themen hin betrachtet und einzelne Passagen wurden durch Kodierung einem oder mehreren Themen zugeordnet. Die Kodierungen ergaben sich einerseits deduktiv aus dem Aufbau des Interviewleitfadens, andererseits wurden sie aber auch im Prozess der Analyse induktiv aus dem Textmaterial gebildet. Die Datenanalyse vollzog sich durch den thematischen Vergleich der gebildeten Kategorien und das Herausarbeiten von multidimensionalen Beziehungsmustern zwischen verschiedenen Textpassagen. Die Orientierung wechselte also in dieser Phase der Datenauswertung von den einzelnen Fällen zu den Themen und vom Konkreten zum Allgemeineren. Prinzipiell folgte der Analyseprozess zwar den vier grundlegenden Stufen der Typenbildung (Erarbeiten von relevanten Vergleichsdimensionen, Gruppieren der Fälle anhand empirischer Regelmäßigkeiten, Analyse inhaltlicher Sinnzusammenhänge und Charakterisierung der gebildeten Ty-
Schart, Michael (2003). Projektunterricht – subjektiv betrachtet
437
pen), doch der thematische Vergleich wurde nicht auf die Forschungssubjekte selbst bezogen, sondern auf einzelne ihrer Ansichten, Probleme und Konzeptionen. Typisiert wurden somit Formen der Wahrnehmung und des Erklärens, zu denen sich die einzelnen Interviewpartnerinnen und -partner in wechselnden Kombinationen zuordnen lassen. Als Ergebnis der komparativen Analysen konnten die überindividuellen Typen zu Argumentationslinien und -mustern zusammengesetzt werden. Die Auswertung der quantitativen Daten beschränkte sich auf eine deskriptive statistische Analyse. So wurden vor allem die Mittelwerte betrachtet, um Gemeinsamkeiten und Unterschiede zu verdeutlichen. Die Stärke bzw. die Schwäche der Zusammenhänge zwischen einzelnen Items wurde mit Hilfe des Korrelationskoeffizienten untersucht. Die Ergebnisse wurden abschließend mit den Erkenntnissen aus der qualitativen Inhaltsanalyse verknüpft.
5. Ergebnisse Die Studie verdeutlicht, dass die individuellen Projektbegriffe ihren Ausgang im beruflichen Selbstverständnis der DaF-Lehrenden nehmen, in ihren grundlegenden Einstellungen zum Gegenstand und zu den Zielen des institutionellen Fremdsprachenunterrichts. Lehrende formen sich aus einer vagen Idee ihre eigene, für sie praktikable Projektkonzeption, indem sie diese weitestgehend widerspruchsfrei mit ihren Vorstellungen eines effektiven Fremdsprachenunterrichts verschmelzen. Dabei erfahren einzelne Aspekte besondere Aufmerksamkeit, während andere vernachlässigt oder weitgehend ausgeblendet werden (Forschungsfrage 1). Als Ergebnis der Analyse kann auch dargestellt werden, auf welchen Wegen sich diese subjektive Einpassung der Projektidee vollzieht. Dafür werden zunächst die beiden idealtypischen Argumentationslinien in Form einer Diskussion von zwei fiktiven Lehrenden dargestellt (Forschungsfrage 2). In ihrer Gegensätzlichkeit verdeutlichen ihre Argumentationen die wahrgenommenen Entscheidungsspielräume beim Projektunterricht in den Sommerkursen (Forschungsfrage 3). Als ein weiteres Ergebnis der komparativen Analyse können anschließend vier unterschiedliche Argumentationsmuster beschrieben werden (Forschungsfrage 2). Diese spielen eine herausgehobene Rolle bei der Integration der Projektidee in die didaktischen Überlegungen von DaF-Lehrenden und tragen damit zu einem besseren Verständnis der Unterschiede in den individuellen Projektdefinitionen bei. Jede dieser vier prinzipiellen Orientierungen führt zwangsläufig zu anderen Schlussfolgerungen darüber, mit welchen Zielen die Projektarbeit verknüpft, welche Möglichkeiten ihr eingeräumt und welche Grenzen ihr gesetzt werden. Jede wirkt anders auf den Stellenwert zurück, der Projekten innerhalb eines komplexeren Kursprogramms zugesprochen wird, und jede nimmt schließlich ihren besonderen Einfluss darauf, wie die institutionellen Rahmenbedingungen beurteilt werden. So zeigt etwa die Verknüpfung mit den quantitativen Daten aus der Fragebogenerhebung, dass die Einstellungen von Organisatorinnen und Organisatoren einerseits und Lehrenden andererseits einen entscheidenden Einfluss daraus ausüben, ob bzw. in welcher Form Projektunterricht in den Sommerkursen durchgeführt wird (Forschungsfragen 3 und 4). In den 17 Einzelfalldarstellungen zeigen sich sehr unterschiedliche, individuelle Konfigurationen dieser vier Argumentationsmuster. Die Lehrenden bringen sie jeweils in eine
438
7. Referenzarbeiten
andere Hierarchie und ergänzen diese immer mit Faktoren, die nur für ihren Fall von Interesse sind und die Bedeutung des jeweiligen Kontextes für die subjektiven Wahrnehmungen herausstellen. Vor diesem Hintergrund geht die Ergebnisdarstellung abschließend auf theoretische Implikationen ein und bringt die Frage der Aus- und Fortbildung zur Diskussion (Forschungsfrage 5). Da die individuellen Interpretationen der Projektidee im beruflichen Selbstverständnis der Lehrenden wurzeln, sind sie eng mit dem Wertesystem der betreffenden Person verknüpft. Das lässt sie relativ resistent gegen abstrakte Innovationsbemühungen erscheinen. Die Studie veranschaulicht somit am Beispiel des Projektunterrichts, wie die Reichweite didaktischer Modelle durch die Subjektivität der Lehrenden begrenzt wird. Sie bietet damit weitere Evidenz für die Notwendigkeit reflexiver und erfahrungsorientierter Modelle der Aus- und Fortbildung von Lehrenden.
Literatur Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren.
Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen?
439
Barbara Schmenk Darstellung der Referenzarbeit: Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen? 1. Thema und Forschungsfragen Die Arbeit widmet sich der Rolle und Bedeutung von gender in der Erforschung des Fremdsprachenlehrens und -lernens. Das Geschlecht als Gegenstand der Fremdsprachenforschung spielte zum Zeitpunkt der Entstehung der Arbeit nur eine marginale Rolle, lediglich der verbreitete Glaube an eine weibliche Überlegenheit beim Fremdsprachenlernen war bemerkenswert. Wenn das Geschlecht überhaupt berücksichtigt wurde, dann nur als ein ‚Faktor‘, der gemäß dem dominanten quantitativ-nomologischen forschungsmethodischen Paradigma vornehmlich anglo-amerikanischer Provenienz konzeptualisiert wurde als Prädiktor von Fremdsprachenlernprozessen, zum Teil auch im Verbund mit weiteren individuell unterschiedlich ausgeprägten Faktoren wie Motivation, Lernstrategieverwendung, kognitive Stile u. a. Die seit den 90er Jahren entstandenen Arbeiten im Bereich der Gender Studies hingegen konzeptualisierten das Geschlecht als eine kulturell konstruierte Kategorie und verwendeten diskursanalytische Ansätze und forschungsmethodische Zugriffe, die es ermöglichten, das Geschlecht als historisch-kulturell kontextualisierbare Kategorie einer kulturwissenschaftlichdiskursanalytisch orientierten Analyse zu unterziehen. Vor dem Hintergrund dieser Arbeiten zum Thema gender lag die Aufgabe meiner Arbeit darin, den Geschlechterdiskurs in der Fremdsprachenforschung in einer kritischen (Diskurs-) Analyse genauer unter die Lupe zu nehmen und die spezifischen ‚Wahrheiten‘, die er hervorgebracht hat (wie etwa die weibliche Überlegenheit etc.), nicht lediglich als ‚empirische Fakten‘ zu akzeptieren, sondern diese als im historisch-kulturellen Kontext entstandene Interpretationen von empirischen Beobachtungen nachzuzeichnen und zu hinterfragen.
2. Datenerhebung Das für die Arbeit zusammengestellte Korpus von Arbeiten aus der Fremdsprachenforschung besteht aus all denjenigen mir zugänglichen internationalen Publikationen zur Rolle des Geschlechts beim Fremdsprachenlernen in englischer und deutscher Sprache, die seit den 1950er Jahren veröffentlich wurden (mehrheitlich empirische Studien zum Einfluss des Geschlechts auf Sprachlernprozesse und -erfolg) sowie Überblicksdarstellungen, die sich u. a. dem Thema Geschlecht beim Fremdsprachenlernen widmen. Die Studie ist in ihrem Charakter eine Metastudie, da sie sich nicht direkt mit empirischen Daten befasst, sondern mit dem Korpus vorhandener Arbeiten bzw. Publikationen. Dergleichen Metastudien existieren beispielsweise in der Psychologie, waren bis dato aber lediglich
440
7. Referenzarbeiten
quantitativer Art, d. h. es wurden Statistiken erstellt, die Einzelstudien und ihre Daten jeweils berücksichtigten und die gleich einer Sammelstatistik eine Gesamttendenz errechneten. Für meine Arbeit erwies sich eine solche quantitative Metastudie allerdings als nicht hinreichend, da sie lediglich die Befunde von Studien zur Geschlechtsspezifik en gros akzeptiert hätte. Die Sichtung der vorhandenen Forschungsbefunde zeigte jedoch, dass diese sehr heterogen sind und quantitative Metadaten entsprechend inkonsistent waren und weiterer Erklärungen und differenzierter Betrachtungen bedurften. Die Heterogenität bzw. Widersprüchlichkeit der Forschungsergebnisse zum Faktor Geschlecht machte vielmehr eine qualitativ-interpretative Herangehensweise erforderlich, die es ermöglichte, das Zustandekommen bestimmter empirischer Daten, Befunde und Interpretationen zu ermitteln. Für die Studie wurden deshalb neben der Darstellung der Ergebnisse in diesem Forschungsbereich auch detaillierte Analysen von insgesamt vier Einzelstudien vorgenommen (jeweils zwei zu den unterschiedlichen Geschlechtskonzeptionen anhand von sex bzw. gender), um die jeweils zugrunde liegenden Argumentations- und Interpretationsmuster freizulegen und zu ermitteln, wie die Kategorie Geschlecht im Kontext von Fremdsprachenlernprozessen konzeptualisiert wird und welche Bedeutungen ihr jeweils beigemessen werden.
3. Datenauswertung und -interpretation Mit Hilfe der Analysekategorien der Gender Studies und speziell im Anschluss an Foucaults Diskursbegriff bestand die Aufgabe darin, den in der Fremdsprachenforschung etablierten Geschlechterdiskurs genauer zu analysieren, um zu ermitteln, wie dort bestimmte ‚Wahrheiten‘ zustande kommen bzw. konstruiert werden. Statt das Geschlecht als eine empirische oder gar biologische Gegebenheit zu setzen, sollte es als diskursiv konstruierte Kategorie erfasst werden, die jeweils in Forschungsarbeiten geschaffen und unter Rekurs auf bestehende Diskurse (re-)produziert wird. Zu diesem Zweck wurden die verschiedenen Studien jeweils daraufhin untersucht (S. 134),
• was über ‚Geschlecht‘ ausgesagt wird (Wird von einem biologischen Konzept von Geschlecht als sex ausgegangen oder von einem eher soziokulturellen Konzept im Sinne von gender? Ist die Studie von vornherein auf die Messung von Geschlechtsspezifika angelegt oder erweisen sich solche erst als Nebenprodukt? Wenn ja, wie werden diese erklärt? Welche Daten wurden genau erhoben, welche statistisch signifikanten Ergebnisse wurden ermittelt, wie werden diese erklärt und begründet?); • was unausgesprochen vorausgesetzt wird (Wie wird sex bzw. gender operationalisiert, was wird dabei über die Zweigeschlechtlichkeit angenommen, ohne dass es explizit thematisiert bzw. gemessen wird? Viele Erklärungen in Studien erweisen sich bei näherer Betrachtung als reine Behauptungen über Geschlechtsspezifika, die auf inferierten Annahmen über Weiblichkeit und Männlichkeit basieren, die nicht in der betreffenden Studie gemessen wurden); • wo, wie und aus welchem Grund die Aussagen über ‚Geschlecht‘ innerhalb der Ausführungen eingebunden sind;
Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen?
441
• welche argumentative Rolle unausgesprochen vorausgesetzte Annahmen über ‚Geschlecht‘ innerhalb der betreffenden Publikation spielen (Sind die Ergebnisse der Studie tatsächlich auf die erhobenen Daten zurückzuführen oder werden diese vielmehr mit Hilfe von Vorannahmen über die Zweigeschlechtlichkeit und verbreitete Stereotype über Weiblichkeit und Männlichkeit interpretiert? Argumente zugunsten von Geschlechts-‚Spezifika‘ unterschlagen i. d. R. die Differenziertheit statistischer Messungen und Daten und legen stattdessen nahe, dass es sich bei männlichen und weiblichen Lernenden um zwei klar unterscheidbare Gruppen handelt).
4. Ergebnisse Die Untersuchung hat gemäß ihrer doppelten Perspektive sowohl Ergebnisse im Sinne einer state-of-the-art Zusammenschau der Forschungsergebnisse im Bereich Geschlecht und Fremdsprachenlernen hervorgebracht als auch darüber hinaus Prinzipien der Beschaffenheit des Geschlechterdiskurses in der Fremdsprachenforschung sichtbar gemacht, die sich auch in anderen Disziplinen und Kontexten finden. Insofern konnten viele Befunde aus den Gender Studies auch für die Fremdsprachenforschung bestätigt werden. Darüber hinaus wurde deutlich, wie sich der Glaube an Geschlechtsspezifika (und nicht die empirisch erhobenen Daten) auch auf die Theoriebildung der Fremdsprachenforschung auswirkt. Das Geschlecht wird zum sinnbildenden Zentrum in Argumentationen zum vermeintlich geschlechtsspezifischen Fremdsprachenlernen, so dass man meist unbemerkt implizite Modelle des Sprachenlernens konstruiert, die mit den Einsichten der Fremdsprachenforschung oft wenig zu tun haben.
• Feminisierung und Empirie: Fakten und Mythen Empirische Forschung zum Geschlecht ist zum Zeitpunkt der Entstehung der Arbeit primär darauf gerichtet, Geschlechtsspezifika zu bestimmen. Man geht damit implizit davon aus, dass das Geschlecht ein Faktor ist, der zu unterschiedlichen Lernweisen, Haltungen oder Erfolgen führt. Forschungsdesigns, die auf dieser Annahme beruhen, können deshalb nur die Existenz dessen bestätigen, was schon a priori gesetzt wurde: dass es zwei unterschiedliche Gruppen von Lernenden gibt, männliche und weibliche. Empirische Erhebungen bestätigen diese klare Unterscheidbarkeit jedoch nicht, gleich, ob die Mittelwerte weiblicher Probanden höher liegen oder nicht. In der Interpretation dieser Daten wird jedoch grundsätzlich davon ausgegangen, dass die Gruppe der männlichen Lernenden distinktive Merkmale aufweist (die stereotyp männlichen Attribute wie Dominanz, Wettbewerbsorientierung, analytisches Denken, Aggressivität), die sie von der Gruppe der weiblichen Lernenden unterscheidet (denen wiederum stereotyp weibliche Attribute zugeschrieben werden wie Einfühlsamkeit oder Kooperativität). Im Ergebnis werden so die heterogenen empirischen Daten vereinheitlicht und pauschal interpretiert zugunsten von Thesen zu einem besseren Lernergeschlecht (sei dies weiblich der männlich) oder zu geschlechtsspezifischem Sprachenlernen. Diese Thesen erweisen sich als Resultate einer self-fulfilling prophecy, was man auch als Mythenbildung bezeichnen kann, die sich im Alltag fortwährend zu bestätigen scheint und die in der Forschung ungeprüft übernommen wird.
442
7. Referenzarbeiten
• Gender-Binarität als epistemologische Falle Aufgrund der binären Verfasstheit des Faktors Geschlecht und seiner immanenten Komplementarität gerät man in eine epistemologische Falle, wenn man das Geschlecht als Gegebenes nimmt und seinen Einfluss bestimmen möchte. Auch eine Trennung von sex und gender erweist sich hier nicht als hinreichend zur Differenzierung, verweist diese doch auch immer nur zurück auf die basale Annahme der Zweigeschlechtlichkeit. • Glauben und Wissen: Geschlechtsspezifisches Fremdsprachenlernen und Theorie(miss-) bildungen Sowohl die strukturelle Verfasstheit der Kategorie Geschlecht – seine Binarität – als auch die hinreichend verbreiteten Geschlechterstereotype über Männlichkeit und Weiblichkeit verführen dazu, Theorien über geschlechtsspezifisches Lernen aufzustellen, die sich bei Licht betrachtet als kaum haltbar erweisen. Die Logik dieser Argumentationen speist sich primär aus dem Glauben an eine kategorische Unterscheidbarkeit der Geschlechter sowie dem nachträglich inferierten Alltagswissen über Männer und Frauen. Kausale Verknüpfungen dieser Art lassen sich jedoch nicht von den erhobenen empirischen Daten ableiten, sondern entstammen anderen Diskursen, die außerhalb der Fremdsprachenforschung existieren und deren Wahrheit somit auch in der Fremdsprachenforschung wiederum bestätigt wird.
Literatur Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtsspezifischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Narr.
Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht
443
Torben Schmidt Darstellung der Referenzarbeit: Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht 1. Thema und Forschungsfragen Während Lernsoftware als gängiges Musterbeispiel für individualisiertes Lernen gilt, wurde in dieser Studie der folgenden bisher kaum beachteten Frage nachgegangen: Inwieweit kann Selbstlernsoftware entgegen dem intendierten Verwendungszweck im Kontext individualisierten Übens eingesetzt werden, um gemeinsames Lernen im Klassenzimmer voranzutreiben und eine weitergehende Ausbildung der sprachlichen Fertigkeiten in einem kommunikativen Fremdsprachenunterricht zu erzielen? Dies war der Ansatzpunkt für die explorativ-interpretativ angelegte Unterrichtsforschung, die im Sinne einer Methoden-, Perspektiven- und Datentriangulation die Vielfalt der Einflussfaktoren bei der Arbeit mit Selbstlernsoftware (English Coach 2000, Cornelsen) in Partnerphasen des Englischunterrichts in Klasse 7 zu erfassen und in ihrem Zusammenspiel zu analysieren versuchte. Dabei wurden fünf Hauptfragen für die Untersuchung definiert:
• Wie beeinflussen Aspekte der Programmbedienung, der Steuerung der Übungsformate sowie insgesamt technische Rahmenbedingungen das Arbeiten mit der Software im Englischunterricht? • Welche Möglichkeiten und Grenzen der didaktischen Interaktionen zwischen Software und Lernenden ergeben sich (z. B. im Rahmen des Umgangs mit Aufgabenstellungen, Eingaberückmeldungen und Leistungsbewertungen sowie im Kontext der Nutzung sprachlicher Hilfs- und Unterstützungsangebote)? • Welche Merkmale der Kooperation und Kommunikation der Lernenden untereinander sind für Partnerarbeitsphasen mit der Lernsoftware charakteristisch? • Eignet sich die für das individualisierte Üben konzipierte Software auch als Unterrichtsmedium, und welche Vor-, Begleit- und Folgeaufgaben zur Softwarearbeit sind für den unterrichtlichen Einsatz sinnvoll? • Welche Rolle kommt der betreuenden Lehrperson in Phasen des unterrichtlichen Arbeitens mit der Lernsoftware zu?
2. Datenerhebung Die Datenerhebung wurde in vier siebten Klassen mit insgesamt 127 Schülerinnen eines Mädchengymnasiums durchgeführt. Im Sinne der Methoden- und Perspektiventriangulation wurden unterrichtliche Handlungen und Interaktionen erfasst. Zu Beginn wurde zur Klärung
444
7. Referenzarbeiten
der Ausgangslage zunächst ein Anfangsfragebogen für die beteiligten Schülerinnen eingesetzt, dessen Fokus insbesondere auf Art und Umfang der Computernutzung zu Hause, Vorerfahrungen der Schülerinnen mit Englisch-Lernsoftware, Umfang und Art der Computernutzung im schulischen Kontext sowie auf Erfahrungen mit kooperativen Lern- und Arbeitsformen im Englischunterricht lag. Ein Anfangsfragebogen für die vier beteiligten Lehrkräfte, der vom Aufbau und den Inhalten her dem Schülerinnenfragebogen ähnelte, hatte insbesondere die bisherige unterrichtliche Mediennutzung der Lehrkräfte (allgemeine Einstellungen zur Computernutzung, Art und Umfang des Einsatzes, besuchte Fortbildungen etc.) als Schwerpunkt. Im Rahmen der Datenerhebung während des Unterrichts wurde dann im Laufe des gesamten Schuljahres in den vier teilnehmenden Klassen in insgesamt 50 Unterrichtsstunden videographiert. Dabei wurde die Software zu Übungszwecken (Vokalen, Grammatik, Hörverstehen) oder als inhaltlicher Impulsgeber (z. B. Arbeit mit Hörtexten im Programm als vorbereitende Aktivität für weitere Unterrichtsaktivitäten) eingesetzt. Per Zufallssampling wurde regelmäßig jeweils ein Schülerinnenpaar bei der Bearbeitung der Softwareübungen videographiert. Parallel dazu wurde das Bildschirmgeschehen mit der Bildschirmaufzeichnungssoftware Camtasia (TechSmith) aufgezeichnet. Darüber hinaus wurden unterrichtliche Vorbereitungs-, Begleit- und Folgeaktivitäten zur Softwarearbeit (z. B. die Entwicklung und Präsentation mündlicher und schriftlicher Produkte) ebenfalls filmisch dokumentiert. Vom Forschenden erstellte Feldnotizen dienten als ergänzende Quelle. Außerhalb des Unterrichts wurden zu thematisch relevanten Aspekten und Bezug nehmend auf konkrete Unterrichtssituationen regelmäßig mit den Schülerinnen und Lehrkräften leitfadengestützte, retrospektive Interviews (20 Interviews mit Schülerinnen und 10 Interviews mit Lehrkräften, Dauer jeweils ca. 15 Min.) durchgeführt. Außerdem führten pro Klasse jeweils drei Schülerinnen ein Lerntagebuch; insgesamt wurden dabei ca. 100 Lerntagebucheinträge erstellt. Die Phase der Datenerhebung wurde am Ende des Schuljahres mit Abschlussfragebögen für die Lehrkräfte bzw. für die Schülerinnen sowie einem retrospektiven Gruppeninterview mit den vier Lehrkräften abgeschlossen.
3. Datenaufbereitung Im Zentrum der Datenaufbereitung stand neben der Überführung der Fragebogenergebnisse in ein Statistikprogramm sowie der Pseudonymisierung und Strukturierung der bereits schriftlich vorliegenden Daten (Lerntagebucheinträge, Feldnotizen, Lernertexte) insbesondere die Transkription der Audio- und Videoaufzeichnungen (Partnerarbeit mit der Software inklusive Bildschirmgeschehen, retrospektive Interviews mit Schülerinnen und Lehrkräften). Dabei wurde für die Erfassung der Partnerarbeit mit der Software die halbinterpretative Arbeitstranskription (HIAT) als Methode gewählt. So wurden in Partiturschreibweise, angelehnt an eine Zeitachse, sowohl die auf dem Bildschirm sichtbaren Aktivitäten (was wurde angeklickt, welche Meldungen erschienen etc.), die verbale Kommunikation der Schülerinnen vor dem Computer sowie – falls für die Beschreibung der Kommunikations- und Interaktionsprozesse und die Bearbeitung der Softwareübungen relevant – einzelne paraverbale (Lautstärke, Betonung) und nonverbale Besonderheiten (z. B. bestimmte Gesten) in Tabellenform in Word in ihrer Gleichzeitigkeit erfasst.
Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht
445
Im Gegensatz zu dieser relativ detailreichen und diskursanalytisch orientierten Transkription der Partnerarbeitsprozesse mit der Software wurde bei der Verschriftung der retrospektiven Interviews mit den Lehrenden und Schülerinnen mit Blick auf eine primär inhaltsanalytisch orientierte Auswertung auf die Erfassung non- und paraverbaler Besonderheiten verzichtet.
4. Datenauswertung Die Transkripte der Videoaufzeichnungen der Partnerarbeitsphasen mit der Software stellten die für die Untersuchung zentralen Daten dar. Dabei wurde im Zuge der Datenauswertung zunächst ausgehend von den Forschungsfragen ein grober Kodierungskatalog entwickelt, der im weiteren Verlauf des Kodierungsprozesses sukzessive erweitert und verfeinert wurde. Ziel dieses Vorgehens war es, die erhobenen Videodaten der Partnerarbeit am Computer zu codieren, zu kategorisieren und insgesamt häufig auftretende Phänomene und typische Abläufe zu identifizieren. Insgesamt wurden in fünf Hauptkategorien 48 Codes definiert, die dann wiederum teilweise in weitere Untercodes aufgeteilt wurden. In der Hauptkategorie B „Umgang mit den schriftlichen Aufgabenstellungen und Fehlerrückmeldungen, Nutzung der Hilfs- und Informationsangebote der Software“ wurden etwa unter dem Code B4 „Es tauchen Probleme auf, weil die Schülerinnen die Aufgabenstellung nicht verstehen“ die Untercodes B1 „Nutzung der Programmhilfen“, B2 „Rufen der Lehrperson“, B3 „Abbruch und Überspringen einer Übung“ und B4 „Abbruch und Neustart der Übung“ als typische Verhaltensweisen identifiziert und in Codes überführt. In einem nächsten Schritt wurden die so codierten Daten im Sinne der Datentriangulation mit den anderen Datenquellen (z. B. relevante, erklärende oder vertiefende Aussagen in Interviews, Lerntagebüchern und Feldnotizen, quantitative und qualitative Ergebnisse der eingesetzten Fragebögen) verglichen, verknüpft und somit inhaltlich dazu in Bezug gesetzt. Die entsprechenden Daten und Textstellen der Interviews und Lerntagebücher wurden in MAXQDA gekennzeichnet, mit Kommentaren und Code- bzw. Kategorieverknüpfungen versehen, sodass eine rasche Zuordnung, ein problemloses Auffinden der Passagen, eine Zusammenführung der Ergebnisse und schließlich eine auf verschiedenen Datenquellen und Perspektiven basierende Interpretation gewährleistet werden konnte.
5. Ergebnisse
• Optisch und akustisch teilweise nicht sinnhaft gestaltete, bedienungstechnisch zu schwierige oder fehlerhafte Übungsformate in Kombination mit zu ungenauen Aufgabenstellungen und regelmäßig auftretenden Hardwareproblemen wirkten sich negativ auf die Konzentration und Motivation der Schülerinnen aus. • Grundsätzlich schätzten es die Schülerinnen sehr, mit einem interaktiven Medium zu arbeiten, das sie korrigiert und bewertet, das den Lernverlauf speichert, das spielerische Übungsformate bietet und das bei auftretenden sprachlichen Problemen verschiedene Hilfs- und Informationsangebote (z. B. Wörterbuch, Mini-Grammatik) bereithält. Schwächen in den Bereichen der Eingabeanalyse, des informierenden Fehlerfeedbacks und der Lerntipps
446
7. Referenzarbeiten
wirkten allerdings immer wieder störend. Außerdem waren einige Aufgabenstellungen zu unpräzise bzw. zu kompliziert, sodass die Schülerinnen teilweise nicht verstanden, wie die jeweilige Übung zu bearbeiten ist. Nur durch eine Erhöhung des Bedienkomforts der Software, kombiniert mit einer gezielten Schulung der computerbezogenen Fähigkeiten der Lernenden, konnte die Aufmerksamkeit vollständig auf die Übungsinhalte und weg von Bedienungsfragen gelenkt werden. • Insgesamt wirkte die Partnerarbeit mit der Lernsoftware in hohem Maße kommunikationsund kooperationsfördernd, weil permanent im Dialog mit der jeweiligen Lernpartnerin sprachliche Probleme diskutiert, Lösungsvorschläge begründet sowie Eingaberückmeldungen, Korrekturen und Bewertungen durch das Programm durchdacht und verarbeitet werden mussten. • Bestimmte Übungsformate und Inhalte des Programms (z. B. das Hörverstehensformat Listen & Act oder die vertonten Bildgeschichten) lassen sich mit verschiedenen lerneraktivierenden und kommunikativen Begleit- und Folgeaufgaben zur Softwarearbeit sinnvoll verknüpfen (z. B. kreative Schreibaufgaben, Partnerinterviews, Internetrecherchen, Entwicklung und Präsentation von Dialogen und kleinen Szenen). Solche Aufgaben intensivierten die verbalen Auseinandersetzungen mit den Programminhalten zwischen den gemeinsam arbeitenden Lernenden, wirkten motivations- und konzentrationssteigernd und bewegten die Lernenden insgesamt zu einem gezielten Gebrauch der Fremdsprache. • Die Integration der Selbstlernsoftware in den Unterricht veränderte maßgeblich die Lehrerrolle: Die Lehrkraft wurde als sprachlicher Experte, Hilfs- und Bewertungsinstanz zurückgedrängt und agierte eher als Moderator, Organisator und Experte im Hintergrund. Gleichzeitig wurde die Lehrkraft als technischer Experte gefordert, der diverse Hard- und Softwareprobleme lösen musste.
Literatur Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht – Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen im Unterricht der Klasse 7. Tübingen: Narr.
Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht
447
Götz Schwab Darstellung der Referenzarbeit Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht 1. Thema und Forschungsfrage Ausgangspunkt der Arbeit ist die Frage nach interaktionalen Prozessen im Fremdsprachenunterricht mit lernschwachen und/oder benachteiligten Schülerinnen und Schülern, wie man sie insbesondere in Hauptschulbildungsgängen findet. Der Fokus liegt dabei auf der LehrerSchüler-Interaktion und den damit verbundenen Partizipationsstrukturen im Englischunterricht. Das Erkenntnisinteresse der Untersuchung fokussiert somit das mündliche Engagement der Beteiligten. Damit wird von vornherein der Blick auf einen ganz bestimmten Teilaspekt des Unterrichts gerichtet. Dieses Forschungsinteresse spiegelt sich auch in der forschungsleitenden Frage wider, wie sie der Arbeit zugrunde gelegt wurde: Wie gestaltet sich die unterrichtliche Interaktion zwischen Schülerinnen/ Schülern und Lehrkraft in einem so genannten kommunikativ geführten Englischunterricht zum Ende der regulären Hauptschulzeit (Klasse 8/9)? Die Arbeit folgt einem qualitativen Paradigma. Sie stellt den Versuch dar, Englischunterricht mittels eines konversationsanalytischen Untersuchungsinstrumentariums emisch, d. h. aus Sicht der Beteiligten – Schüler wie Lehrer – darzustellen und in den Kontext fremdsprachendidaktischer Forschung zu stellen. In der einschlägigen angelsächsischen Literatur wird dieser Ansatz auch als Conversation Analysis for Second Language Acquisition (CA for SLA) bezeichnet (Markee/Kasper 2004).
2. Datenerhebung Die Datenerhebung erfolgte insbesondere durch digitale Video- und Audiomitschnitte des Unterrichts im Abstand von vier bis sechs Wochen. Es wurde bewusst nur eine Kamera eingesetzt, um die Unterrichtsatmosphäre nicht zu sehr zu strapazieren. Bewährt hat sich die parallele Audioaufnahme mit einem zusätzlichen Gerät in zentraler Position. Damit konnten Schwierigkeiten bei der Verständlichkeit von Schülerbeiträgen reduziert werden. Zu jeder Aufnahme wurden Feldnotizen angefertigt. Die Erhebung war auf eine Klasse beschränkt und erstreckte sich über zwei Schuljahre in den Klassenstufen 8 respektive 9. Sie kann somit als explorative Einzelfall- bzw. Longitudinalstudie bezeichnet werden. Bei der Auswahl der Klasse wurde darauf geachtet, dass neben der zielsprachlichen Kompetenz der Lehrkraft auch die unterrichtliche Interaktion und hier vor allem das verbale Engagement auf Schülerseite deutlich wird, was eher in höheren Klassen zu finden ist. Diesbezüg-
448
7. Referenzarbeiten
lich weist das Korpus eine große Bandbreite an beispielhaften Sequenzen auf, die zweifellos auch für andere Lerngruppen und andere Unterrichtssettings von Bedeutung sein können. Um ein möglichst natürliches Setting abzubilden, wurde auf jegliche Form der Beeinflussung von unterrichtlichen Inhalten verzichtet. Insgesamt konnten 13 Aufnahmen gemacht werden. Eine weitere Aufnahme wurde von den Schülern selbst erstellt, umfasst aber nur einen Teil der Gruppe (5 Schüler), welche einen Zusatzunterricht für bessere Lerner besuchten. Damit befindet sich die Untersuchung quantitativ leicht über dem, was Seedhouse (2004) als durchschnittliche Anzahl an erhobenen Unterrichtsstunden in konversationsanalytischen Arbeiten angibt (5 bis 10 Stunden). Die Gesamtzeit der Aufnahmen beträgt 8 Zeitstunden und 33 Minuten. Die Rolle des Videografen kann als Beobachter ohne direkte Aufgabe oder, wie Friedrichs (1990: 97) es nennt, „observer-as-participant“ bezeichnet werden. Die Anwesenheit im Unterricht beschränkte sich somit rein auf die Aufnahmetätigkeit. Um weitere Einblicke in die Klassen- und Lernsituation zu erlangen wurden mit den Schülern Leitfadeninterviews und mit der Lehrkraft ein retrospektives (stimulated recall) Interview geführt.
3. Datenaufbereitung Zur Aufbereitung wurden die Unterrichtsmitschnitte komplett verschriftet. Zunächst wurden Grobtranskriptionen erstellt, die als Unterstützung bei der Sichtung des Materials dienten. Die eigentliche Auswahl der Sequenzen erfolgt dann in einem nächsten Schritt. Diese Selektion orientierte sich einerseits an der allgemeinen Zielsetzung der Arbeit (forschungsleitende Frage), andererseits aber auch am Material selbst. Ein solch phänomenologischer Ansatz führt zu einer rekursiven Vorgehensweise, bei der das Erkenntnisinteresse nicht a priori festgeschrieben, sondern vielmehr im Laufe des Forschungsprozesses konkretisiert wird (Deppermann 2001). Die Gesprächspraktik ‚Schülerinitiative‘ kann als ein solches Phänomen angesehen werden, welches als zentrales Element von Schülerpartizipation im Verlauf der Untersuchung herausgearbeitet werden konnte. Insgesamt wurden n = 81 Sequenzen, mit einer Länge zwischen 7 Sekunden und 3 Minuten und 53 Sekunden, identifiziert und gemäß der Transkriptionskonvention GAT (Selting et al. 1998) fein transkribiert, was mithilfe einer Transkriptionsoftware (www.transana.org) geschah. Auch die Interviews mit der Lehrkraft sowie die Leitfadeninterviews wurden verschriftet, wobei die literarische Umschrift gemäß der Standardorthografie des Deutschen erfolgte.
4. Datenauswertung Da es sich um vornehmlich verbale Daten handelte, wurde mit der Konversationsanalyse eine Analysemethode gewählt, die nicht nur in der ethnografischen Tradition verwurzelt ist (Garfinkel/Sacks 1970), sondern auch im Kontext fremdsprachenspezifischer Untersuchungen mehr und mehr an Bedeutung gewinnt (Markee/Kasper 2004). Gerade die mikroanalytische Rigorosität der Konversationsanalyse ermöglicht dem Forschenden äußerst detaillierte Ein-
Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht
449
sichten in unterrichtliche Interaktionsabläufe, wie sie wohl kaum mit einer anderen Methode möglich wären. Die identifizierten Sequenzen ließen sich im Zuge der Analyse ordnen und zu so genannten Kollektionen zusammenfassen. Die verwendete Software Transana ermöglichte dabei nicht nur das gleichzeitige Abspielen der Videos und synchrone Betrachten der Transkripte, sondern auch eine Einordnung der Sequenzen bzw. Teilsequenzen in das generierte Kategoriensystem. Neben der Gesprächsinitiation durch Lehrer oder Lerner schließt dies umfassendere Sequenztypen in der Lehrer-Schüler-Interaktion, unterrichtliches Reparaturverhalten (‚Korrektur‘), aber auch sprachliche Merkmale, die für die Partizipationsgestaltung auf Schülerseite relevant sind, mit ein. Innerhalb der Kategorien wurden Ankerbeispiele ausgewählt und ausführlich diskutiert. Aufgrund der Komplexität der einzelnen Sequenzen mussten diese z. T. in Teilsequenzen untergliedert und unter verschiedenen Gesichtspunkten interpretiert werden. Die Interviewdaten wurden kategorisiert und in den Analyseprozess eingebunden, indem sie den Unterrichtssequenzen gegenübergestellt wurden. Rückblickend lässt sich jedoch sagen, dass dieser Schritt nur wenig zum besseren Verständnis des unterrichtlichen Handelns beigetragen hat. Eine gesprächsanalytische Herangehensweise scheint vielmehr ausreichend zu sein, um unterrichtliche Interaktionsstrukturen zu erforschen (vgl. Markee/Kasper 2004).
5. Ergebnisse Die Untersuchungsergebnisse lassen sich auf drei Ebenen darstellen: 1. Unterrichtsstruktur: Die Lehrer-Schüler-Interaktion kann als multilogische Diskursform bezeichnet werden, die im quasi öffentlichen Raum des Unterrichts unter Beteiligung aller Anwesenden, jeweils mit unterschiedlichen Rollen, stattfindet. Die interaktional-inhaltliche Rahmung findet dabei grundsätzlich durch die Lehrkraft statt. Neben dieser klar gesteuerten Interaktionsform kommt es jedoch immer wieder zu Situationen mit erhöhter Schülerpartizipation. Diese sind sequentiell vorwiegend in eingebetteten Nebensequenzen anzutreffen. 2. Partizipationsmöglichkeiten: Die Dominanz der Lehrkraft liegt in erster Linie darin begründet, dass sie Gespräche in den allermeisten Fällen initiiert und beendet. Schüler partizipation kann somit als ein Gewährenlassen seitens der Lehrkraft bezeichnet werden. Besonders deutlich wird dies, wenn Schülerinnen und Schüler Raum zur Eigeninitiative erhalten. 3. Realisierung der Partizipation: Diese Eigeninitiative wird hier als Schülerinitiative bezeichnet und ist ein Charakteristikum besonders intensiver Partizipation. Dabei zeigte sich, dass Schülerinitiative als eigenständige und komplexe Gesprächspraktik zu bezeichnen ist, welche insbesondere diskursive Kompetenzen erfordert, wie z. B. die Fähigkeit Beiträge zum genau richtigen Zeitpunkt einzubringen. Gerade bei den z. T. deutlichen sprachlichen Defiziten von Schülerinnen und Schülern in Hauptschulbildungsgängen ist dies kein leichtes Unterfangen. Insgesamt zeigte die Untersuchung, wie Lernende im Fremdsprachenunterricht wiederholt versuchen, ihr kommunikatives Potential einzusetzen und auszuspielen. Wenngleich
450
7. Referenzarbeiten
die institutionelle Konversation stark reglementiert ist, ergeben sich doch immer wieder Möglichkeiten der stärkeren Partizipation von Schülerinnen und Schülern, auch wenn die linguistischen Kompetenzen in der Zielsprache klar beschränkt sind. Entscheidend hierbei ist das kommunikative Geschick der Lehrkraft, gerade in der den Fremdsprachenunterricht dominierenden direkten Lehrer-Schüler-Interaktion.
Literatur Deppermann, Arnulf (2001). Gespräche analysieren. Eine Einführung. Opladen: Leske und Budrich. Friedrichs, Jürgen (1990). Methoden empirischer Sozialforschung. Opladen: Westdeutscher Verlag. Garfinkel, Harold/Sacks, Harvey (1970). On formal structures of practical action. In: McKinney, John C./ Tiryakian, Edward A. (Hg.). Theoretical Sociology. New York: Appleton-Century-Crofts, 337 – 366. Markee, Numa/Kasper, Gabriele (2004). Classroom talks: An introduction. In: The Modern Language Journal 88(4), 491 – 500. Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. Seedhouse, Paul (2004). The Interactional Architecture of the Language Classroom: A Conversation Analysis Perspective. Oxford: Blackwell. Selting, Margret/Auer, Peter/Barden, Birgit/Bergmann, Jörg R./Couper-Kuhlen, Elizabeth/Günthner, Susanne/Meier, Christoph/Quasthoff, Uta M./Schlobinski, Peter/Uhmann, Susanne (1998). Gesprächsanalytisches Transkriptionssystem (GAT). In: Linguistische Berichte 173, 91 – 122.
Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen
451
Maria Giovanna Tassinari Darstellung der Referenzarbeit: Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen 1. Thema und Forschungsfragen In der Arbeit ging es zum Ersten darum, eine wissenschaftlich fundierte und praxisorientierte Definition von Lernerautonomie beim Fremdsprachenlernen zu erarbeiten. Auf deren Basis wurde zum Zweiten ein Instrument zur Beschreibung von Kompetenzen und Strategien von Lernenden entwickelt, um Lernende und Lehrende in autonomisierenden Lernprozessen zu unterstützen. Dieses Instrument, ein dynamisches Autonomiemodell mit Deskriptoren, wurde drittens theoretisch und empirisch von Expertinnen validiert und viertens an Studierenden und Lehrenden erprobt. Die zentralen Forschungsfragen waren: 1. Wie kann Lernerautonomie beim Fremdsprachenlernen wissenschaftlich begründet und praxisorientiert definiert und beschrieben werden? 2. Wie können daraus ein Autonomiemodell und Deskriptoren entwickelt werden? 3. Wie können Autonomiemodell und Deskriptoren theoretisch und empirisch validiert werden? 4. Wie können diese Erkenntnisse zum Nutzen von Lernenden und Lehrenden sinnvoll umgesetzt werden?
2. Phasen des Forschungsprozesses und Datenerhebung Die Komplexität der Fragestellung erforderte eine explorativ‑interpretative Zugangsweise (Grotjahn 2006), sodass das Forschungsdesign ein enges Zusammenspiel zwischen einem theoretisch‑konzeptuellen und einem empirischen Zugang vorsah. Ziele des Theorieteils (Frage 1) waren Beschreibung und Definition von Lernerautonomie. Die Ziele des empirischen Teils (Fragen 2 bis 4) lagen in der Entwicklung, Validierung und Erprobung des dynamischen Autonomiemodells mit seinen Deskriptoren. Tabelle 1 bildet die Phasen des Forschungsprozesses sowie deren Zielsetzung und zeitlichen Ablauf ab.
Ziel: Erarbeitung und Erprobung eines Verfahrens für die Validierung und Erprobung des AM und der Deskriptoren Ziels: intersubjektive Validierung des AM und der Deskriptoren bzw. Hinweise für deren Überarbeitung Ziel: Erprobung des AM und der Deskriptoren an Lernenden und Lehrenden
Ziel: Erarbeitung eines wissenschaftlich basierten und praxisorientierten Instruments für die Unterstützung von Lernenden und Lehrenden in autonomisierenden Lern- und Lehrprozessen
Zielsetzung: Darstellung und Reflexion über die Ergebnisse und Erkenntnisse des gesamten Forschungsprozesses
Tabelle 1: Phasen des Forschungsprozesses
Phase 7 Wissenschaftliches Schreiben
Phase 6 Empirischer Teil: Erprobung
Phase 5 Empirischer Teil: Validierungsverfahren
Phase 4 Pilotstudie
Phase 3 Entwicklung des Autonomiemodells (AM) und der Deskriptoren
Ziel: Festlegung nachvollziehbarer Kriterien und Schritte für die Entwicklung von Deskriptoren
Ziel: Erarbeitung einer Definition, Festlegung der Grundkomponenten von Lernerautonomie, Ermittlung von Ansätzen für die Entwicklung von Deskriptoren
Phase 1 Literaturrecherche und ‑analyse
Phase 2 Erarbeitung einer Methode für die Entwicklung der Deskrip toren
Zielsetzung und zeitliche Verortung im Forschungsprozeß
Phase
452 7. Referenzarbeiten
Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen
453
Ausgangspunkt bildete die Analyse der einschlägigen Literatur, hauptsächlich aus dem deutsch-, englisch- und französischsprachigen Raum, anhand mehrerer Forschungsfragen: Wie bzw. anhand welcher Kriterien wird Lernerautonomie insgesamt definiert? Welche Kompetenzen werden festgelegt und wie werden sie beschrieben? Welche Entwicklungsstufen von Lernerautonomie werden genannt? Daraus ergaben sich Grundkomponenten von Lernerautonomie sowie Ansätze für die Entwicklung von Deskriptoren für Kompetenzen, Strategien und Einstellungen von Lernenden. In Phase 2 wurden die Deskriptoren in Anlehnung an einige Prinzipien der für den Gemeinsamen Europäischen Referenzrahmen entwickelten Methode definiert (Europarat 2001: 200 – 217). In Phase 3 wurden das dynamische Autonomiemodell und die Deskriptoren entwickelt. In Phase 4 (Pilotstudie) wurden die Verfahren und die Instrumente der Hauptstudie erprobt. Im Fokus der Phase 5 standen die Entwicklung und Durchführung eines qualitativen Verfahrens für die intersubjektive Validierung des dynamischen Autonomiemodells und der Deskriptoren. Dadurch sollte über Autonomiemodell und Deskriptoren ein intersubjektiver Konsens erzielt und somit deren Nachvollziehbarkeit sichergestellt werden. Das Validierungsverfahren, eine themenzentrierte Expertendiskussion, wurde in Anlehnung an Flick (2000: 131 – 142) entwickelt, pilotiert und in der Hauptstudie mit zwei verschiedenen Expertengruppen mit leicht unterschiedlichen Schwerpunkten durchgeführt. Für die Auswahl der Expertinnen wurden Kriterien festgelegt, z. B. wissenschaftliche Auseinandersetzung mit dem Themenkomplex und berufliche Erfahrung in der Förderung von Lernerautonomie beim Fremdsprachenlernen. Zu den Expertengruppen gehörten Fachwissenschaftlerinnen und Didaktikerinnen. Zusätzlich erfolgte die Datenerhebung für das Validierungsverfahren über Aufgaben der Struktur-Lege-Technik. Zugleich fand eine Erprobung mit Studierenden und Lehrenden statt (Phase 6), deren Ziel es war, Feedback zur Selbsteinschätzung auf der Basis des dynamischen Autonomiemodells und der Deskriptoren zu erhalten. Außerdem sollte die Befragung von Studierenden und Lehrenden zur Triangulation der Daten beitragen. Für die Erprobung wurden das Autonomiemodell und die Deskriptoren als Checklisten zur Selbsteinschätzung aufbereitet. Zwei Gruppen von Studierenden führten eine Selbsteinschätzung ihrer Lernkompetenzen anhand der Checklisten durch und gaben dazu Feedback. Zudem wurden zwei Lehrende zum Einsatz der Selbsteinschätzung mit diesen Checklisten in autonomiefördernden Lehrsituationen befragt. Die Datenerhebung der Erprobung sah folgende Schritte vor: (i) Erhebung persönlicher Daten der Befragten; (ii) Leitfadeninterview zu Einstellungen und Erfahrungen der Befragten mit Lernerautonomie; (iii) Durchführung einer Selbsteinschätzung mit den Checklisten sowie (iv) Feedback zur Selbsteinschätzung. Die Expertendiskussionen (Phase 5), die Interviews mit Studierenden und Lehrenden sowie die Feedbackgespräche (Phase 6) wurden aufgenommen und transkribiert. Die in der Struktur-Lege-Technik (Phase 5) von den Expertinnen erarbeiteten Materialien sowie die von den Studierenden ausgefüllten Checklisten (Phase 6) wurden eingesammelt.
454
7. Referenzarbeiten
3. Datenaufbereitung und Datenauswertung Das dynamische Autonomiemodell wurde auf der Basis der Literaturanalyse konzipiert. Wichtig hierfür waren die Festlegung der Komponenten von Lernerautonomie sowie die Abbildung ihrer gegenseitigen Beziehungen im autonomen Lernprozess. Die Modellbildung (Phase 3) erfolgte in mehreren Schritten: Das Modell wurde mehrmals im akademischen Kontext vorgestellt und mehrfach überarbeitet. Die Transkripte der Expertendiskussionen wurden im Hinblick auf verschiedene Leitfragen in einer qualitativen Inhaltsanalyse untersucht. Darüber hinaus wurden Argumente und Vorschläge der Expertinnen kontextualisiert, d. h. zuerst im Kontext der Diskussion, dann anhand von Hintergrundinformationen über den beruflichen und akademischen Bezugsrahmen der Expertinnen analysiert, um sie angemessen zu interpretieren und im Hinblick auf die Fragestellung zu gewichten. Dadurch konnte die Validität der Ergebnisse gesichert werden. Außerdem wurde für die Expertendiskussionen eine Gesprächsanalyse mit dem Ziel durchgeführt, die Validität des Verfahrens abzusichern und die Rolle der Forscherin in den Diskussionen aufzuschlüsseln und zu reflektieren. In der Gesprächsanalyse wurden die Expertendiskussionen in ihrer Gesamtheit auf die Prinzipien gut gelungener Kommunikation hin analysiert. Darüber hinaus wurden die Beiträge der Diskussionsteilnehmerinnen sowie der Forscherin auf ihren illokutionären Gehalt hin untersucht (Sprechakttheorie, Searle 1979). So konnte ein genaues Bild der jeweiligen Diskussionen erarbeitet werden. Ebenso wurden das kommunikative Verhalten und die Haltung der Forscherin in der Diskussion im Detail analysiert.
4. Ergebnisse Als Ergebnisse liegen zum ersten die Definition von Lernerautonomie, das dynamische Autonomiemodell und die Deskriptoren vor sowie die Methode für die Entwicklung des Autonomiemodells und der Deskriptoren. Diese besteht aus einem doppelten Zugang: Die Erkenntnisse aus einer gezielten Analyse der einschlägigen Literatur (Phase 1) konnten anhand nachvollziehbarer Kriterien und Schritte (Phase 2) in ein praxisorientiertes Instrument umgesetzt werden (Phase 3). Das Validierungsverfahren diente der Absicherung des Autonomiemodells. Die themenund zielorientierten Diskussionen mit Expertinnen erwiesen sich als geeignet, um den intersubjektiven Konsens über das Autonomiemodell und die Deskriptoren zu erlangen. Die Gesprächsanalyse ermöglichte außerdem einen tiefgreifenden Einblick in kommunikationsdynamische Aspekte der Expertendiskussionen und unterstrich somit die Validität des Verfahrens: Die Diskussionen konnten als inhaltlich und wissenschaftlich relevant betrachtet werden. Sie waren sachlich und erfüllten alle wichtigen kommunikativen Merkmale einer erfolgreichen Diskussion. Durch einen regen, sachlichen und ausgewogenen Austausch führten die Diskussionen zu einer gemeinsamen Bedeutungskonstruktion und konnten somit als gemeinschaftlicher Erkenntnisprozess betrachtet werden. Zum Ergebnis der Forschungsfrage 3 gehört außerdem die Reflexion zur Rolle der Forscherin. Diese wurde zum einen durch die genaue Definition und die Abgrenzung zwischen mei-
Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen
455
ner Aufgabe als Forscherin und als Diskussionsleiterin durchgeführt, zum anderen durch die Gesprächsanalyse untermauert, insbesondere durch die genaue Aufstellung meiner Sprechakte und die Reflexion über meine Haltungen in der Diskussion. Die Studierenden hielten die Checklisten zur Selbsteinschätzung für ein gutes Instrument zur Reflexion über den eigenen Lernprozess (Forschungsfrage 4). Sie erreichten dadurch eine tiefere Bewusstheit über ihre Einstellungen und Kompetenzen sowie einen Überblick über verschiedene Lernmöglichkeiten. Auch die Lehrenden hielten einen gezielten Einsatz der Checklisten in autonomiefördernden Lernprozessen für sinnvoll und ertragreich.
Literatur Europarat, Rat für kulturelle Zusammenarbeit (2001). Gemeinsamer europäischer Referenzrahmen für Sprachen: lernen, lehren, beurteilen. Berlin: Langenscheidt. Flick, Uwe (2000). Qualitative Forschung. Theorien, Methoden, Anwendung in Psychologie und Sozialwissenschaften. 5. Auflage. Reinbek: Rowohlt. Grotjahn, Rüdiger (2006). Zur Methodologie der Fremdsprachenerwerbsforschung. In: Scherfer, Peter/ Wolff, Dieter (Hg.). Vom Lehren und Lernen fremder Sprachen: Eine vorläufige Bestandsaufnahme. Frankfurt/Main: Lang, 247 – 270. Searle, John (1979). Expression and Meaning. Studies in the Theory of Speech Acts. Cambridge: Cambridge University Press. Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen: Komponenten, Kompetenzen, Strategien. Frankfurt/Main: Lang.
8. Fremdsprachendidaktische Forschung im Kontext Friederike Klippel/Michael K. Legutke
An mehreren Stellen in diesem Handbuch scheint auf, in welcher Art und Weise die unterschiedlichen Kontexte auf die fremdsprachendidaktische Forschung wirken, sei es, dass bestimmte Forschungsfelder stärker oder weniger stark beachtet werden, sei es, dass die Forschenden selbst in anderen Kontexten tätig sind. Internationale Entwicklungen beeinflussen die häufig gewählten Forschungsmethoden oder -themen und die öffentliche Förderung gibt bestimmte Parameter vor. Schließlich tragen bildungspolitische, gesellschaftliche und wissenschaftliche Kontexte auch dazu bei, wie viel Forschung überhaupt möglich ist. Fragen, die sich aus diesen unterschiedlichen Zusammenhängen ergeben, sollen im abschließenden Kapitel des Handbuches skizziert werden, ohne dass es möglich ist, tiefergehende wissenschaftstheoretische und -soziologische Aspekte breit zu entfalten. Die unterschiedlichen Kontexte werden dabei in Form von konzentrischen Kreisen in den Blick genommen.
Kontext Fach
8.1
Der engste Kontext für die Fachdidaktik einer Fremdsprache im deutschsprachigen Raum ist die jeweilige Philologie. Anders als an anglo-amerikanischen Universitäten, an denen die Schwesterdisziplin Applied Linguistics der Sprachwissenschaft oder auch der Psychologie zugeordnet ist, bestehen an den meisten deutschen Universitäten und den Pädagogischen Hochschulen enge Verbindungen zwischen der Literatur-, Kultur- und Sprachwissenschaft einer Philologie und deren zugehöriger Fachdidaktik. Für die fachdidaktische Forschung hat diese Nähe einige Konsequenzen. Zum ersten zeigt ein Blick auf die Forschungstraditionen (s. Kapitel 3), dass etwa literatur- und kulturdidaktische Arbeiten im deutschsprachigen Raum viel häufiger durchgeführt werden als anderswo und dass entsprechende Themen auch mit der zunehmenden empirischen Ausrichtung der fremdsprachendidaktischen Forschung nicht an Bedeutung verloren haben. Der innerfachliche Dialog mag diese thematische Ausrichtung fördern; wichtig ist aber sicher auch, dass die Forscher_innen in der Fremdsprachendidaktik in der Regel selbst über die Philologien wissenschaftlich sozialisiert wurden und in diesen Feldern über Kenntnisse verfügen und Interessen verfolgen. Zum zweiten bestehen latente Beziehungen zwischen Forschungsthemen und -verfahren in einem fremdsprachendidaktischen Fach und der jeweiligen Philologie, wenn man daran denkt, dass Forschung anschlussfähig sein soll und fachintern kommuniziert wird. Als stärker
458
8. Fremdsprachendidaktische Forschung im Kontext
auf ein bestimmtes Praxisfeld gerichtete Disziplinen, nämlich Schule oder Bildungseinrichtungen, werden die Fremdsprachendidaktiken in ihrem Fachkontext gelegentlich als zu wenig theoretisch und ‚wissenschaftlich‘ angesehen, da sie u. a. die Verbesserung der Praxis durch neue Erkenntnisse zum Ziel haben. Es mag also vorkommen, dass fremdsprachendidaktische Forschung bewusst so ausgerichtet wird, dass sie im Gesamtfach nicht in dieser Weise kritisiert werden kann. Zum dritten bedeutet die fachliche Anbindung für Fremdsprachendidaktiker_innen aber auch, dass man mit den aktuellen Entwicklungen der Forschung in der Sprach-, Literatur- oder Kulturwissenschaft in der entsprechenden Zielsprache konfrontiert wird, was wiederum für die fachdidaktische Forschung Anregungen liefert. Kennzeichnend für diese Zusammenhänge sind u. a. erkennbar fachspezifische Prägungen fremdsprachendidaktischer Forschungsschwerpunkte. Als Beispiele solcher Prägungen seien genannt: Untersuchungen von Unterrichtsdiskursen (geprägt durch die Pragmalinguistik), genre-didaktische Forschungen (geprägt durch die fachspezifische Textlinguistik und Literaturwissenschaft) oder Studien zum kulturellen Lernen mit Jugendliteratur (geprägt durch fachspezifische Kultur- und Literaturwissenschaft). Dass sich die romanistische Fachdidaktik der Erforschung der Mehrsprachigkeit zugewandt hat, ist sicher nicht zuletzt dem Umstand geschuldet, dass sich das Fach selbst als konstitutiv mehrsprachig versteht. Trotz der Nähe zum Fach sind die Fremdsprachendidaktiken jedoch selbständige Wissenschaftsdisziplinen, die genuine Forschungsgegenstände bearbeiten. Ihre Aufgabe ist es folglich auch nicht, fachwissenschaftliche Inhalte in die Praxis zu transferieren, sondern ihr Selbstverständnis zielt auf die – interdisziplinär verankerte – eigenständige Erforschung unterrichtsbezogener Fragestellungen.
Kontext Universität bzw. Hochschule
8.2
Während bis in die 1960er Jahre fremdsprachendidaktische Forschungsarbeiten vor allem von Lehrer_innen und somit im Kontext der Schule durchgeführt wurden, verlagerte sich die Forschung nach der Etablierung der Englisch- und der Französischdidaktik an den Pädagogischen Hochschulen (s. Kapitel 3) allmählich in den Hochschulbereich. Mit der Einrichtung von Professuren, die zunächst mit promovierten Lehrkräften besetzt wurden, entstand zudem das Erfordernis, die wissenschaftliche Qualifizierung durch Promotionen und (später) Habilitationen in einem fremdsprachendidaktischen Fach zu ermöglichen, um Nachwuchs für die Professuren auszubilden. An den Pädagogischen Hochschulen, die zu unterschiedlichen Zeitpunkten in den alten Bundesländern in die Universitäten integriert wurden (z. B. in den frühen 1970er Jahren in Hessen, 1980 in Nordrhein-Westfalen, bis heute nicht in Baden-Württemberg), vertraten die Professuren jeweils das ganze Fach, also Englisch oder Französisch, und waren somit auch für die fachwissenschaftliche Ausbildung der angehenden Lehrkräfte zuständig. Dadurch waren die Forschungsarbeiten dieser Wissenschaftler_innen nicht automatisch auf engere fachdidaktische Themen beschränkt. An den Universitäten wirkt sich vielerorts die geringe personelle Ausstattung der fremdsprachendidaktischen Professuren insofern auf die Forschung aus, als an vielen Standorten die Belastung durch Lehre und Prüfungen sehr hoch ist – höher als in den fachwissenschaftlichen
8.2 Kontext Universität bzw. Hochschule
459
Bereichen, in denen sich mehrere Professuren befinden, die zudem in der Regel über mehr wissenschaftliches Personal verfügen. Weitere Aufgaben in der Praktikumsbetreuung und der Lehrerfortbildung reduzieren zusätzlich die für die Forschung zur Verfügung stehende Zeit. Gleichzeitig besteht auch für die Wissenschaftler_innen in den Fremdsprachendidaktiken der Druck, Drittmittel für Forschungsprojekte einzuwerben, um Zielvorgaben zu erreichen und allgemeinen Leistungserwartungen zu genügen. Aufgrund der geringen Repräsentanz von Fachdidaktiker_innen aus den Geisteswissenschaften in Auswahlgremien für Drittmittel, etwa unter den Gutachter_innen der DFG, sind die Aussichten, tatsächlich eine DrittmittelFinanzierung für fremdsprachendidaktische Forschung zu erhalten, nicht besonders gut. Auch ist insgesamt die Zahl der Förderprogramme bei Forschungsförderungsinstitutionen eher gering, die zu fremdsprachendidaktischen Forschungsthemen passen. Für das Fach Deutsch als Zweitsprache/Deutsch als Fremdsprache stellt sich die Situation allerdings besser dar, weil in diesem Bereich Fördermittel für Entwicklungsprojekte bereit stehen, in deren Folge auch Forschungsprojekte möglich werden (s. Teilkapitel 4). Entwicklungen in einzelnen Bundesländern, die im Gefolge der Exzellenzinitiativen des Bundes ähnliche Förderprogramme aufgelegt haben, bieten möglicherweise auch neue Perspektiven für die fremdsprachendidaktische Forschung, wie das FaBiT-Projekt (Fachbezogene Bildungsprozesse in Transformation) der Universität Bremen zeigt. In diesem Forschungsprojekt arbeiten insgesamt sechs Vertreter_innen unterschiedlicher Fachdidaktiken und des Zentrums für Lehrerbildung zusammen (Doff/Bikner-Ahsbahs/Grünewald/Lehmann-Wermser/Peters/Roviró 2014). Da heute ein erheblicher Anteil der fremdsprachendidaktischen Forschung im Rahmen von wissenschaftlichen Qualifikationsarbeiten entsteht, ist die Rekrutierung des wissenschaftlichen Nachwuchses eine wichtige Aufgabe. In der Regel werden daher in den fremdsprachendidaktischen Fächern besonders erfolgreiche Absolvent_innen eines Lehramtsstudiums angesprochen, ob sie promovieren möchten – denn man kann ein Fach wie Englisch- oder Französischdidaktik, anders als Deutsch als Fremd- und Zweitsprache, ja nicht als alleiniges wissenschaftliches Fach im BA studieren. Da eine erfolgreiche Promotion im staatlichen Schuldienst weder eine bessere Bezahlung noch eine bessere Stellung bewirkt, ist das Interesse an wissenschaftlicher Arbeit in der Fachdidaktik auch bei hervorragenden Absolvent_innen so lange sehr gering, solange die Einstellungschancen im Schuldienst gut sind. Die Beschäftigung auf einer halben Qualifikationsstelle von unsicherer Dauer an einer Universität kann mit dem sicheren, meist unbefristeten Status im Schuldienst in der Regel nicht konkurrieren. Daher liegen die Zahlen für erfolgte Promotionen in den Fachdidaktiken meist wesentlich unter denen in den fachwissenschaftlichen Bereichen. Auch herausragend qualifizierte Absolvent_innen, die zunächst den Wunsch äußern, nach abgeschlossenem Referendariat in die Forschung zurückzukehren, setzen diesen Wunsch oftmals nicht in die Praxis um, weil entweder an den Hochschulen angemessene Qualifikationsstellen fehlen oder die Kultusministerien kaum Abordnungen von Lehrkräften an die Hochschulen ermöglichen.
460
8. Fremdsprachendidaktische Forschung im Kontext
Kontext Lehrerbildung
8.3
Heute sind die fremdsprachendidaktischen Professuren, mit Ausnahme von Baden-Württemberg, an den Universitäten verankert und dort vor allem in der Ausbildung von Lehrkräften für alle Schulformen (für die Schulfremdsprachen und Deutsch als Zweitsprache) oder für den Einsatz im Deutschunterricht in nicht deutschsprachigen Regionen (Deutsch als Fremdsprache) tätig. Diese Schwerpunktsetzung in der Lehre und der damit verknüpfte Kontakt zum Praxisfeld wirken anregend auf die Auswahl der Forschungsthemen. In der Zusammenarbeit mit anderen Fachdidaktiken und den Bildungswissenschaften, die heute vielfach an den Lehrerbildungszentren verortet ist, entstehen weitere Impulse für die Forschung. Derzeit geschieht dies häufig im Rahmen von Verbundprojekten und -aktivitäten, die bei der Qualitätsoffensive Lehrerbildung (Förderung durch das BMBF ab 2015) eingeworben wurden. Diese Kooperationen sind für alle Beteiligten deshalb anregend, weil Fragestellungen aus unterschiedlichen Perspektiven und mit eventuell sehr unterschiedlichen Forschungsmethoden angegangen werden und deshalb auch neue Erkenntnisse versprechen. Gerade für die pädagogische und psychologische Forschung ist ein fachlicher Fokus oftmals interessant. Im Gegenzug profitiert die Fremdsprachendidaktik von der Forschungsmethodenkompetenz der empirischen Bildungswissenschaften. Da die Lehrerbildung und die mit ihr verbundene Schulentwicklung in der Verantwortung der Länder liegt, können Institutionen in diesem Feld (Ministerien, Fortbildungsinstitute und Lehrerakademien) Impulse für Forschung geben, indem sie etwa die wissenschaftliche Begleitung und Evaluation von Entwicklungsprojekten finanzieren und Fachdidaktiker_innen zur Mitarbeit einladen. Ein Beispiel für solche Forschung ist die von Nordrhein-Westfalen in Auftrag gegebene „Evaluation Englisch in der Grundschule“ EVENING (Groot-Wilken 2009, Börner/Engel/Groot-Wilken 2013). Im Hamburger Schulversuch „alles