Forschungsmethoden in der Fremdsprachendidaktik. Ein Handbuch [1 ed.] 9783823378396


1,407 142 5MB

German Pages 485 Year 2016

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
1. Zur Orientierung
Daniela Caspari/Friederike Klippel/Michael K. Legutke/Karen Schramm
1.1 Zur Zielsetzung dieses Handbuchs
1.2 Zugriffe
1.3 Auswahl und Funktion der Referenzarbeiten
1.4 Entstehung des Handbuchs
2. Grundfragen fremdsprachendidaktischer Forschung
Daniela Caspari
2.1 Was ist Forschung? Und was beeinflusst sie?
2.2 Was ist fremdsprachendidaktische Forschung? Und welches sind ihre zentralen Forschungsfelder?
2.3 Welche Gütekriterien gelten für fremdsprachendidaktische Forschung?
3. Forschungstraditionen der Fremdsprachendidaktik
Friederike Klippel
3.1 Historische Forschung
Friederike Klippel
3.1.1 Die Anfänge fremdsprachendidaktischer historischer Forschung um 1900
3.1.2 Fremdsprachendidaktische historische Forschung nach 1945
3.1.3 Forschungsdesiderata und forschungsmethodische Entwicklungen
3.2 Theoretische Forschung
Michael K. Legutke
3.2.1 Typen und Funktionen theoretischer Forschung
3.2.2 Meilensteine theoretischer Forschung
3.2.3 Theorie und Empirie
3.3 Empirische Forschung
Karen Schramm
3.3.1 Begriffsklärung
3.3.2 Quantitatives und qualitatives Paradigma
3.3.3 Quantitative Daten und statistische Auswertungen
3.3.4 Qualitative Daten und interpretative Auswertungen
3.3.5 Mixed methods
3.3.6 Fazit und Ausblick
4. Forschungsentscheidungen
Karen Schramm
4.1 Texte, Daten und Dokumente als Forschungsgrundlage
Michael K. Legutke
4.1.1 Texte als Forschungsgrundlage
4.1.2 Dokumente als Forschungsgrundlage
4.1.3 Daten als Forschungsgrundlage
4.1.4 Texte, Dokumente und Daten im Verbund: zwei Beispiele
4.1.5 Organisation und Überprüfbarkeit der Belege
4.2 Prototypische Designs
Daniela Caspari
4.2.1 Fallstudie
4.2.2 Forschungsprogramm Subjektive Theorien (FST)
4.2.3 Aktionsforschung
4.2.4 Fazit
4.3 Sampling
Urška Grum/Michael K. Legutke
4.3.1 Begriffsklärung und Einführung
4.3.2 Sampling in der quantitativen Forschung
4.3.3 Sampling in der qualitativen Forschung
4.3.4 Fazit
4.4 Triangulation
Petra Knorr/Karen Schramm
4.4.1 Begriffsklärung
4.4.2 Datentriangulation
4.4.3 Methodentriangulation
4.4.4 ForscherInnentriangulation
4.4.5 Theorientriangulation
4.4.6 Fazit
4.5 Der zweite Blick: Meta-Analysen und Replikationen
Claudia Harsch
4.5.1 Einführung
4.5.2 Durchführung von Meta-Analysen
4.5.3 Replikationsstudien
4.5.4 Anwendung in Studien
4.5.5 Fazit
4.6 Forschungsethik
Michael K. Legutke/Karen Schramm
4.6.1 Begriffsklärung
4.6.2 Gestaltung von Forschungsbeziehungen
4.6.3 Freiwilligkeit der Teilnahme
4.6.4 Vertraulichkeit der Daten
4.6.5 Wissenschaftliches Fehlverhalten
4.6.6 Fazit
5. Forschungsverfahren
5.1 Grundsatzüberlegungen
Friederike Klippel
5.2 Gewinnung von Dokumenten, Texten und Daten
Karen Schramm
5.2.1 Dokumentensammlung
Elisabeth Kolb/Friederike Klippel
5.2.2 Textzusammenstellung (für theoretische Arbeiten)
Barbara Schmenk
5.2.3 Beobachtung
Karen Schramm/Götz Schwab
5.2.4 Befragung
Claudia Riemer
5.2.5 Introspektion
Lena Heine/Karen Schramm
5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung
Verena Mezger/Christin Schellhardt/Yazgül Şimşek
5.2.7 Erfassen von unterrichtsbezogenen Produkten
Daniela Caspari
5.2.8 Testen
Claudia Harsch
5.3 Aufbereitung und Analyse von Dokumenten, Texten und Daten
Karen Schramm
5.3.1 Analyse historischer Quellen
Dorottya Ruisz/Elisabeth Kolb/Friederike Klippel
5.3.2 Hermeneutische Verfahren
Laurenz Volkmann
5.3.3 Grounded Theory und Dokumentarische Methode
Karin Aguado
5.3.4 Inhaltsanalyse
Eva Burwitz-Melzer/Ivo Steininger
5.3.5 Typenbildung
Michael Schart
5.3.6 Diskursanalytische Auswertungsmethoden
Götz Schwab/Karen Schramm
5.3.7 Analyse von Lernersprache
Nicole Marx/Grit Mehlhorn
5.3.8 Korpusanalyse
Cordula Meißner/Daisy Lange/Christian Fandrych
5.3.9 Statistische Verfahren – Einleitung
Urška Grum/Wolfgang Zydatiß
5.3.10 Deskriptiv- und Inferenzstatistik
Julia Settinieri
5.3.11 Exploratorische und konfirmatorische Faktorenanalysen
Thomas Eckes
6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen
Friederike Klippel
6.1 Von der Idee zur Forschungsfrage
Daniela Caspari
6.1.1 Wie finde ich ein Thema?
6.1.2 Wie formuliere ich eine Forschungsfrage?
6.1.3 Wie hängen Thema, Forschungsfrage und Forschungsmethode zusammen?
6.2 Wechselspiele zwischen Theorie und Praxis
Daniela Caspari
6.2.1 Zum Verhältnis von Theorie und Praxis in der fremdsprachendidaktischen Forschung
6.2.2 Das Theorie-Praxis-Verhältnis im Forschungsdesign
6.2.3 Weitere Dimensionen
6.2.4 Konsequenzen
6.3 Literaturüberblick und Forschungsstand
Michael K. Legutke
6.3.1 Was? Merkmale und Funktionen Literaturüberblick
6.3.2 Wie? Schritte und Verfahren
6.3.3 Wann? Entwurf und Revision
6.4 Gestaltung des Designs
Karen Schramm
6.4.1 Von der Forschungsfrage zum vorläufigen Design-Entwurf
6.4.2 Revisionen und Präzisierungen des Designs
6.4.3 Fazit
6.5 Prozessplanung und -steuerung
Karen Schramm
6.5.1 Planung komplexer Arbeitsprozesse
6.5.2 Steuerung komplexer Arbeitsprozesse
6.6 Zusammenfassung und Diskussion der Erträge
Michael K. Legutke
6.6.1 Erträge empirischer Arbeiten
6.6.2 Erträge theoretischer und historischer Arbeiten
6.6.3 Fazit: das Schlusskapitel
6.7 Präsentation von Forschung
Friederike Klippel
6.7.1 Präsentationen während des Forschungsprozesses
6.7.2 Präsentationen nach der Fertigstellung der Arbeit
6.8 Betreuung von Forschungsarbeiten
Daniela Caspari
6.8.1 Wechselseitige Erwartungen an das Betreuungsverhältnis
6.8.2 Praktische Hinweise
7. Referenzarbeiten
Darstellung der Referenzarbeit Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache?
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenaufbereitung und Datenauswertung
4. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Biebricher, Christine (2008). Lesen in der Fremdsprache
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenaufbereitung
4. Datenauswertung
5. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation
1. Thema und Forschungsfragen
2. Zusammenstellung der Dokumente
3. Interpretation der Dokumente
4. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenaufbereitung
4. Datenauswertung
5. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenaufbereitung und Datenauswertung
4. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenauswertung
4. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Özkul, Senem (2011). Berufsziel Englischlehrer/in
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenaufbearbeitung
4. Datenauswertung
5. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Schart, Michael (2003). Projektunterricht – subjektiv betrachtet
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenaufbereitung
4. Datenauswertung
5. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen?
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenauswertung und -interpretation
4. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht
1. Thema und Forschungsfragen
2. Datenerhebung
3. Datenaufbereitung
4. Datenauswertung
5. Ergebnisse
Literatur
Darstellung der Referenzarbeit Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht
1. Thema und Forschungsfrage
2. Datenerhebung
3. Datenaufbereitung
4. Datenauswertung
5. Ergebnisse
Literatur
Darstellung der Referenzarbeit: Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen
1. Thema und Forschungsfragen
2. Phasen des Forschungsprozesses und Datenerhebung
3. Datenaufbereitung und Datenauswertung
4. Ergebnisse
Literatur
8. Fremdsprachendidaktische Forschung im Kontext
Friederike Klippel/Michael K. Legutke
8.1 Kontext Fach
8.2 Kontext Universität bzw. Hochschule
8.3 Kontext Lehrerbildung
8.4 Kontext Bildungs-, Kultur- und Sprachenpolitik
8.5 Kontext Wirtschaft
8.6 Kontext Gesellschaft und Fazit
Register
Die Autorinnen und Autoren
Recommend Papers

Forschungsmethoden in der Fremdsprachendidaktik. Ein Handbuch [1 ed.]
 9783823378396

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Forschungsmethoden in der Fremdsprachendidaktik Ein Handbuch

Daniela Caspari, Friederike Klippel, Michael K. Legutke, Karen Schramm (Hrsg.)

Forschungsmethoden in der Fremdsprachendidaktik

Daniela Caspari / Friederike Klippel / Michael K. Legutke / Karen Schramm (Hrsg.)

Forschungsmethoden in der Fremdsprachendidaktik Ein Handbuch

Daniela Caspari ist Professorin für Didaktik der romanischen Sprachen und Literaturen an der Freien Universität Berlin. Friederike Klippel ist Professorin em. für Didaktik der englischen Sprache und Literatur an der Ludwig-Maximilians-Universität München. Michael K. Legutke ist Professor em. für Didaktik der englischen Sprache und Literatur an der Justus-Liebig-Universität Gießen. Karen Schramm ist Professorin für Deutsch als Fremdsprache an der Universität Wien.

Alle ganzseitigen Übersichtsgrafiken wurden von Frau Dr. Kristina Peuschel (Berlin) erstellt. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2016 · Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72 070 Tübingen www.narr.de · [email protected] Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen ­Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Gedruckt auf chlorfrei gebleichtem und säurefreiem Werkdruckpapier. Satz: pagina GmbH, Tübingen Printed in Germany ISBN 978-3-8233-7839-6



Inhalt 1. Zur Orientierung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  1 Daniela Caspari/Friederike Klippel/Michael K. Legutke/Karen Schramm 2. Grundfragen fremdsprachendidaktischer Forschung. . . . . . . . . . . .  7 Daniela Caspari 3. Forschungstraditionen der Fremdsprachendidaktik. . . . . . . . . . . . .  23 Friederike Klippel 3.1 Historische Forschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  31 Friederike Klippel 3.2 Theoretische Forschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  39 Michael K. Legutke 3.3 Empirische Forschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  49 Karen Schramm

4. Forschungsentscheidungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  59 Karen Schramm 4.1 Texte, Daten und Dokumente als Forschungsgrundlage. . . . . . . . . . . . .  61 Michael K. Legutke 4.2 Prototypische Designs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  67 Daniela Caspari 4.3 Sampling.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  78 Urška Grum/Michael K. Legutke 4.4 Triangulation.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  90 Petra Knorr/Karen Schramm 4.5 Der zweite Blick: Meta-Analysen und Replikationen. . . . . . . . . . . . . . .  98 Claudia Harsch 4.6 Forschungsethik.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  108 Michael K. Legutke/Karen Schramm

5. Forschungsverfahren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  119 5.1 Grundsatzüberlegungen.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  119 Friederike Klippel

VI

Inhalt

5.2 Gewinnung von Dokumenten, Texten und Daten.. . . . . . . . . . . . . . . . .  121 Karen Schramm 5.2.1 Dokumentensammlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  124 Elisabeth Kolb/Friederike Klippel 5.2.2 Textzusammenstellung (für theoretische Arbeiten). . . . . . . . . . .  132 Barbara Schmenk 5.2.3 Beobachtung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  141 Karen Schramm/Götz Schwab 5.2.4 Befragung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  155 Claudia Riemer 5.2.5 Introspektion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  173 Lena Heine/Karen Schramm 5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  182 Verena Mezger/Christin Schellhardt/Yazgül Şimşek 5.2.7 Erfassen von unterrichtsbezogenen Produkten .. . . . . . . . . . . . .  193 Daniela Caspari 5.2.8 Testen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  205 Claudia Harsch 5.3 Aufbereitung und Analyse von Dokumenten, Texten und Daten .. . . . .  218 Karen Schramm 5.3.1 Analyse historischer Quellen .. . . . . . . . . . . . . . . . . . . . . . . . . .  220 Dorottya Ruisz/Elisabeth Kolb/Friederike Klippel 5.3.2 Hermeneutische Verfahren. . . . . . . . . . . . . . . . . . . . . . . . . . . . .  229 Laurenz Volkmann 5.3.3 Grounded Theory und Dokumentarische Methode.. . . . . . . . . . .  243 Karin Aguado 5.3.4 Inhaltsanalyse .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  256 Eva Burwitz-Melzer/Ivo Steininger 5.3.5 Typenbildung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  269 Michael Schart 5.3.6 Diskursanalytische Auswertungsmethoden.. . . . . . . . . . . . . . . .  280 Götz Schwab/Karen Schramm 5.3.7 Analyse von Lernersprache.. . . . . . . . . . . . . . . . . . . . . . . . . . . .  297 Nicole Marx/Grit Mehlhorn 5.3.8 Korpusanalyse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  306 Cordula Meißner/Daisy Lange/Christian Fandrych 5.3.9 Statistische Verfahren – Einleitung. . . . . . . . . . . . . . . . . . . . . . .  319 Urška Grum/Wolfgang Zydatiß

Inhalt

VII

5.3.10 Deskriptiv- und Inferenzstatistik.. . . . . . . . . . . . . . . . . . . . . . . .  324 Julia Settinieri 5.3.11 Exploratorische und konfirmatorische Faktorenanalysen.. . . . . .  341 Thomas Eckes

6. Etappen im Forschungsprozess: Erfahrungen und Empfehlungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  357 Friederike Klippel 6.1 Von der Idee zur Forschungsfrage .. . . . . . . . . . . . . . . . . . . . . . . . . . . .  359 Daniela Caspari 6.2 Wechselspiele zwischen Theorie und Praxis. . . . . . . . . . . . . . . . . . . . . .  364 Daniela Caspari 6.3 Literaturüberblick und Forschungsstand . . . . . . . . . . . . . . . . . . . . . . . .  370 Michael K. Legutke 6.4 Gestaltung des Designs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  376 Karen Schramm 6.5 Prozessplanung und -steuerung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  382 Karen Schramm 6.6 Zusammenfassung und Diskussion der Erträge. . . . . . . . . . . . . . . . . . .  386 Michael K. Legutke 6.7 Präsentation von Forschung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  393 Friederike Klippel 6.8 Betreuung von Forschungsarbeiten .. . . . . . . . . . . . . . . . . . . . . . . . . . .  400 Daniela Caspari

7. Referenzarbeiten.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  405 Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache?. . . .  406 Biebricher, Christine (2008). Lesen in der Fremdsprache. . . . . . . . . . . . . . . .  410 Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation.. . . .  415 Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  419 Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule.. . . . . . . . . . . . . . . . . . . . . . . . . . . .  423 Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  427 Özkul, Senem (2011). Berufsziel Englischlehrer/in.. . . . . . . . . . . . . . . . . . . .  431 Schart, Michael (2003). Projektunterricht – subjektiv betrachtet.. . . . . . . . . .  435 Schmenk, Barbara (2002, 2009). Geschlechtsspezifisches Fremdsprachenlernen?.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  439

VIII

Inhalt

Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht .. . . . . . . . . . . . . . . . . . . . . . .  443 Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht ... . . .  447 Tassinari, Maria Giovanna (2010). Autonomes Fremdsprachenlernen .. . . . .  451

8. Fremdsprachendidaktische Forschung im Kontext .. . . . . . . . . . . . .  457 Friederike Klippel/Michael K. Legutke Register. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  467 Die Autorinnen und Autoren .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .  475

1. Zur Orientierung Daniela Caspari/Friederike Klippel/Michael K. Legutke/Karen Schramm

 Zur Zielsetzung dieses Handbuchs

1.1

Forschung ist genuiner Bestandteil von Wissenschaft. Wie und wozu in einzelnen Wissenschaften Forschung betrieben wird, hat viel mit den jeweils herrschenden Grundannahmen und Erkenntnisinteressen zu tun. Junge Wissenschaften orientieren sich in ihren Forschungsmethoden zu Beginn an Nachbardisziplinen, und es ist ein Zeichen der erfolgten Etablierung, wenn sie eigene Forschungsansätze heranbilden. Die Fremdsprachendidaktik ist eine vergleichsweise junge Wissenschaft. Sie kann sich allerdings auf eine ausgedehnte Geschichte von Lehr-/Lern-Praxis in ihrem Feld berufen, so dass das Nachdenken über die Vermittlung und das Erlernen von Sprachen eine lange Tradition hat, in die wir uns mit diesem Band einordnen. In den letzten Jahrzehnten hat sich für die Erforschung der vielfältigen Kontexte, Praxen und Prozesse des Lehrens und Lernens fremder Sprachen ein bestimmtes Repertoire an Forschungsansätzen herausgebildet. Es ist das Ziel dieses Handbuches, umfassend in diese fremdsprachendidaktische Forschung einzuführen und dabei alle grundlegenden Ansätze systematisch zu berücksichtigen. Bei der Verwendung des Begriffs Fremdsprachendidaktik als Sammelbegriff für Sprachlehr- und Sprachlernforschung, für unterrichtsbezogene Zweitspracherwerbsforschung, für Fremdsprachenforschung und für Zweitsprachendidaktik lehnen wir uns an die Auffassung von Gnutzmann/Königs/Küster (2011: 7) an, dass „die Entwicklungen, die den Ansprüchen und Forderungen der Sprachlehrfoschung ja weitgehend gefolgt sind, dazu geführt [haben], dass man dem Begriff ‚Fremdsprachendidaktik‘ aufgrund seiner längeren Geschichte und der eingetretenen Veränderungen durchaus den Vorzug geben kann“. Auch wenn sich dieses Handbuch auf die deutschsprachige Fremdsprachendidaktik konzentriert, so haben wir doch die internationale Entwicklung in allen Teilen des Handbuchs im Blick. Es geht uns dabei zunächst einmal um eine Darstellung des aktuellen Standes der Forschungsmethodologie und um praktische Hilfen für den Forschungsprozess. Wir möchten sowohl denjenigen Informationen und Hilfestellung geben, die in die Forschung einsteigen, als auch diejenigen unterstützen, die wissenschaftliche Qualifikationsarbeiten betreuen und selbst forschend tätig sind. Weiterhin wollen wir dazu anregen, sich über Forschung, Forschungsverfahren und -ansätze nicht nur aus der Sicht einer guten handwerklichen Gestaltung von Forschungsprozessen zu informieren, sondern auch über allgemeine Aspekte von Forschung in unserem Feld nachzudenken. Wenn sich die hier entworfene Systematik auch für die Einordnung zukünftiger Forschungsarbeiten als hilfreich erweist, wäre ein wichtiges Anliegen erfüllt. Noch weitreichender ist die Hoffnung, dass Leser_innen des vorliegenden Handbuchs es als Einladung begreifen, die Gesamtentwicklung der Fremdsprachendidaktik auf einer Metaebene zu reflektieren und kritisch zu begleiten.

2

1. Zur Orientierung

Im Unterschied zu den bisher vorliegenden forschungsmethodischen Grundlagenwerken der Fremdsprachendidaktik setzt sich dieser Band deshalb zunächst mit den Grundfragen fremdsprachendidaktischer Forschung (Kapitel 2) auseinander und stellt sodann die historische, die theoretische und die empirische Forschungstradition in der Fremdsprachendidaktik dar (Kapitel 3), wobei auch wichtige Meilensteine fremdsprachendidaktischer Forschung erfasst werden. Stärker handwerklichen Charakter nimmt das Handbuch ab Kapitel 4 an, in dem grundsätzliche Forschungsentscheidungen erörtert werden, wie beispielsweise die Forschungsgrundlage in Form von Texten, Daten und Dokumenten, das Design, das Sampling, die Triangulation oder ethische Fragen. Das Kernkapitel des Bandes (Kapitel 5) stellt eine große Palette unterschiedlicher Forschungsverfahren zur Datengewinnung und -auswertung vor; hier wurden die Teilkapitel von ausgewiesenen Expert_innen für das jeweilige Verfahren verfasst. Die überblicksartigen Dachkapitel 5.1 zu Grundsatzüberlegungen in Bezug auf diese Forschungsverfahren, 5.2 zur Gewinnung von Dokumenten, Texten und Daten und 5.3 zu deren Aufbereitung und Analyse sollen jeweils Orientierung in der beachtlichen Vielfalt fremdsprachendidaktischer Forschungsverfahren bieten. Die Etappen des Forschungsprozesses, die von der Idee für ein Dissertationsprojekt bis zur Publikation der abgeschlossenen Studie dargestellt werden und die auch Fragen der Betreuung betreffen, sind Thema von Kapitel 6, das auf der langen und breitgefächerten Betreuungserfahrung der Autor_innen in unterschiedlichen fremdsprachendidaktischen Fächern basiert und sich deshalb auch im Duktus und der Verweisdichte von den anderen Kapiteln des Handbuchs deutlich unterscheidet. Kapitel 7 präsentiert zwölf ausgewählte Dissertationen, die in diesem Handbuch an vielen Stellen als Referenzarbeiten dienen. Da Wissenschaft von der Auseinandersetzung mit bisherigen Forschungsergebnissen und -verfahren bzw. vom entsprechenden Diskurs darüber lebt, erscheint es uns vorteilhaft, die forschungsmethodischen und -methodologischen Fragen immer wieder auch mit Bezug auf solche konkreten Arbeitserfahrungen zu thematisieren und zu illustrieren. Ein Blick auf die gesellschaftlichen und (bildungs-)politischen Kontexte fremdsprachendidaktischer Forschung steht am Ende des Bandes (Kapitel 8) und soll dazu beitragen, dem oben skizzierten Anliegen, auch einen analytischen Blick auf die Gesamtentwicklung der Fremdsprachendidaktik zu ermöglichen, gerecht zu werden. An dieser kurzen Vorstellung der einzelnen Kapitel wird deutlich, dass dieses Handbuch in der Absicht erstellt wurde, unterschiedlichen Lesergruppen zu dienen: Es wendet sich gleichermaßen an diejenigen, die einen systematischen Überblick über fremdsprachendidaktische Forschungsmethoden zu gewinnen suchen, und an diejenigen, die sich zu spezifischen Forschungsverfahren informieren möchten.

 Zugriffe

1.2

Ein Handbuch wird man in der Regel nicht wie einen Roman lesen. Es ist auch nicht wie ein Roman geschrieben, in dem man die späteren Kapitel nur versteht, wenn man die voran-

1.3 Auswahl und Funktion der Referenzarbeiten

3

gehenden kennt. Ein Handbuch dient vor allem dem gezielten Nachschlagen von Informationen, die auf dem aktuellen Stand präsentiert werden. Viele Elemente des Handbuches unterstützen einen transparenten Zugriff: So finden sich zu Beginn jedes Großkapitels einleitende Passagen; in allen Kapiteln des Handbuchs gibt es zahlreiche Querverweise; viele Kapitel enthalten zudem kommentierte Leseempfehlungen. Ein Novum sind die informativen Grafiken, die vor allem die Teilkapitel zu den Forschungsentscheidungen (Kapitel 4) und Forschungsverfahren (Kapitel 5) illustrieren. In enger Abstimmung mit den jeweiligen Autor_innen und den Herausgeber_innen hat Kristina Peuschel Kernelemente und -prozesse einzelner Verfahren grafisch umgesetzt. Die Grafiken vermögen die Lektüre eines Kapitels nicht zu ersetzen, sie erleichtern jedoch das Erkennen der wesentlichen Zusammenhänge und – insbesondere für visuelle Lerner_innen – auch das Behalten. Besonders geeignet erscheinen uns die Grafiken zur Unterstützung von Methodenseminaren oder Doktoranden-Kolloquien zu sein, wenn ein Überblick über die zentralen Elemente einzelner Forschungsmethoden gegeben wird.

 Auswahl und Funktion der Referenzarbeiten

1.3

Dass die in einem Forschungshandbuch angesprochenen forschungsmethodischen Fragen und Aspekte an Beispielen dargestellt und erläutert werden, ist in der internationalen Forschung gute Tradition. Dass dies durch ein ganzes Buch hindurch vorzugsweise an zwölf ausgewählten Dissertationen, so genannten Referenzarbeiten, geschieht, ist eine Besonderheit dieses Buches. Auf die in Kapitel 7 durch die Forscher_innen selbst vorgestellten Studien wird in den einzelnen Kapiteln des Buches immer wieder Bezug genommen. Sie stehen exemplarisch für zentrale Forschungsfelder und Themen der Fremdsprachendidaktik. Sie repräsentieren bestimmte Erhebungs- und Auswertungsverfahren und sind überzeugende Beispiele für das funktionale Zusammenspiel von Forschungsinteresse, Forschungsfrage, Design und Forschungsmethode(n) sowie für eine transparente und klare Darstellung des Forschungsprozesses und der Ergebnisse. Um der Vielfalt der fremdsprachendidaktischen Forschung und den unterschiedlichen Realisierungsformen bestimmter Designs und Formate Rechnung zu tragen, wird in jedem Kapitel dieses Forschungshandbuches zusätzlich auf viele andere Studien zurückgegriffen. Gleichwohl stellen die Referenzarbeiten in ihrer Gesamtheit relevante Entwicklungen der Forschungsmethodik in den Fremdsprachendidaktiken der letzten Jahre sowie einen repräsentativen Ausschnitt der Fremdsprachendidaktik als Forschungsdisziplin in dieser Zeitspanne dar. Unsere Wahl fiel auf Dissertationen, weil sie einen bedeutenden Anteil an der gesamten fremdsprachendidaktischen Forschung stellen und die Verfasser_innen und deren Betreuer_innen von Dissertationen die Hauptzielgruppe dieses Buches sind. Für die Auswahl der Arbeiten haben wir eine Reihe von Kriterien angelegt: Die Arbeiten wurden zwischen 2002 und 2011 veröffentlicht und unter den in der Fremdsprachendidaktik bislang üblichen Bedingungen realisiert, d. h. es handelt sich ausschließlich um Studien, die als Einzelarbeit ohne übergreifende Projektkontexte entstanden sind. Sie sind forschungsmethodologisch als Ganzes gelungen und zumindest in Einzelaspekten vorbildlich. Außerdem

4

1. Zur Orientierung

folgen sie dem Primat der Gegenstandsangemessenheit, d. h. sie sind vom Gegenstand und einer klaren Forschungsfrage her entwickelt worden. Sie entsprechen den gängigen Gütekriterien (s. Kapitel 2) und zeichnen sich durch die Passung von Forschungsfrage und Methodik, durch ein systematisches, forschungsökonomisches Vorgehen sowie durch Klarheit der Darstellung aus. Für die Aufnahme in ein Forschungshandbuch sind zudem ein angemessenes Reflexionsniveau hinsichtlich der Forschungsmethodologie und -methodik sowie ein sinnvolles Verhältnis von forschungsmethodischer Reflexion (‚Aufwand‘) und inhaltlichen Ergebnissen (‚Ertrag‘) unabdingbar. Aus den vielen Arbeiten, die diesen Kriterien genügen, wurden zwölf nach dem Prinzip maximaler Variation ausgewählt, um in der Gesamtheit eine möglichst große Breite hinsichtlich folgender Kriterien zu erreichen:

• Forschungstraditionen (historisch, theoretisch-konzeptionell, empirisch-qualitativ, empirisch-quantitativ);

• Forschungsfelder (z. B. Professionsforschung, Lernforschung, Begegnungsforschung, Kompetenzforschung etc.) (s. Kapitel 2);

• Settings (natürlich – arrangiert – experimentell, mit/ohne Intervention); • Erhebungsinstrumente; • Verfahren der Datenauswertung; • (Fremd-)Sprachen; • Forschungspartner_innen (Lehrkräfte, Studierende, Schüler_innen unterschiedlicher Schulformen, Lerner_innen aus außerschulischen Kontexten);

• Grad der forschungsmethodischen Komplexität (von eher schlicht bis sehr komplex); • Grad der thematischen Breite (von sehr fokussiert bis sehr weit). Zudem wurden Besonderheiten, wie z. B. die besonders gründliche Reflexion der Forscher­ _innenrolle, die Art der Kombination von Theorie und Empirie bzw. von qualitativen und quantitativen Verfahren oder der Prozesscharakter der Studie, berücksichtigt sowie auch Designs, die einen besonderen Erkenntnisgewinn speziell für fremdsprachendidaktische Fragestellungen versprechen. Trotz dieser Kriterien ist die nach langen Recherche-, Lese- und Diskussionsphasen gemeinsam getroffene Auswahl natürlich subjektiv, denn selbstverständlich gibt es auch außerhalb dieses Samples eine Reihe hervorragender Forschungsarbeiten. Insbesondere dann, wenn es zu einem Design oder einem bestimmten Forschungsverfahren zahlreiche überzeugende Arbeiten gab, fiel die Auswahl schwer. Insgesamt will die vorliegende Auswahl das gesamte methodische Spektrum fremdsprachendidaktischer Forschung in seiner Vielfalt dokumentieren. Um sich schnell und unaufwändig einen Eindruck von den ausgewählten Studien verschaffen zu können, wurden die Verfasser_innen gebeten, ihre Dissertation unter forschungsmethodischer Perspektive selbst vorzustellen. Die in Kapitel 7 zu findenden Darstellungen erlauben es, die einzelne Arbeit als Ganzes verstehen und insbesondere den jeweiligen inhaltlichen Bezug zwischen Forschungsinteresse, Forschungsfrage und eingesetzten Methoden nachzuvollziehen sowie die wichtigsten Ergebnisse zu erfahren. So können in den einzelnen Kapiteln des Forschungshandbuches direkt spezifische Aspekte und Details dieser Arbeiten angesprochen werden. Wir danken den Autor_innen, dass sie sich auf diese neue Textsorte „Darstellung der Forschungsarbeit“ eingelassen haben.

1.4 Entstehung des Handbuchs

5

 Entstehung des Handbuchs

1.4

Man kann eine Publikation besser einschätzen, wenn man ihre Genese ein wenig kennt. An diesem Handbuch sind viele Autor_innen in unterschiedlichem Umfang und in unterschiedlicher Funktion beteiligt. Unser Anliegen als Herausgeber_innen und Autor_innen war und ist es, ein Handbuch vorzulegen, das den aktuellen Stand der Forschungsmethodologie in der Fremdsprachendidaktik angemessen wiedergibt. Dazu war es erforderlich, die in einzelnen Forschungsverfahren führenden Wissenschaftler_innen für eine Autorschaft zu gewinnen. Das ist in erfreulichem Umfang gelungen. Wir danken allen Autor_innen für ihre konstruktive und geduldige Mitwirkung an diesem Band. Zugleich war es unser Ziel, ein in sich geschlossenes, kohärentes Handbuch vorzulegen, dessen Kapitel miteinander verschränkt sind und aufeinander Bezug nehmen und das auf einer von uns allen geteilten Vorstellung von Forschung in der Fremdsprachendidaktik basiert. Dieses gemeinsame Forschungsverständnis haben wir Herausgeber_innen uns in häufigen intensiven Diskussionen und breiten Recherchen über etwa fünf Jahre hinweg erarbeitet. Jedes Kapitel, das von einer/m von uns verfasst ist, wurde in allen Fassungen von allen gelesen, einer kritischen Analyse unterworfen, kommentiert, ergänzt und ausführlich besprochen. Insofern ist dieses Handbuch auch in allen den Teilen, für die eine_r der vier Herausgeber_innen namentlich genannt ist, dennoch in vielerlei Hinsicht ein Gemeinschaftswerk. Das heißt jedoch nicht, dass unser Ziel der Vereinheitlichung und Abstimmung immer bis in die Formulierungen hineinwirkt. Aufmerksame Leser_innen werden feststellen, dass sich durchaus noch unterschiedliche Schreibstile, verschiedene und unterschiedlich konsequente Arten des gendergerechten Schreibens und Variationen in der Verweisdichte ergeben haben. Auch für die Konzeption und Struktur des Handbuches zeichnen wir – Daniela Caspari, Friederike Klippel, Michael K. Legutke, Karen Schramm – gemeinsam verantwortlich. Am Anfang stand die Idee eines Handbuches, das die Situation der deutschen fremdsprachendidaktischen Forschung und insbesondere Kontexte und Erfordernisse der Ausbildung des wissenschaftlichen Nachwuchses berücksichtigt. Ob wir diese Idee gut umgesetzt haben, werden unsere Leser_innen beurteilen. Über Rückmeldungen positiver und kritischer Natur freuen wir uns. ››  Literatur Gnutzmann, Claus/Königs, Frank/Küster, Lutz (2011). Fremdsprachenunterricht und seine Erforschung. Ein subjektiver Blick auf 40 Jahre Forschungsgeschichte und auf aktuelle Forschungstendenzen in Deutschland. In: Fremdsprachen Lehren und Lernen 40, 1 – 28.

2. Grundfragen fremdsprachendidaktischer Forschung Daniela Caspari

 Was ist Forschung? Und was beeinflusst sie?

2.1

Diese grundlegende Frage wird in den bisher erschienenen deutschsprachigen Handbüchern bzw. Einführungen in die fremdsprachendidaktischen Forschungsmethoden nicht thematisiert. Obwohl auch im Rahmen dieses Handbuches keine grundlegende Abhandlung möglich ist, erscheint es gerade in Hinblick auf die Zielgruppe „Forschungsnoviz_innen“ sinnvoll, sich die Unterschiede zwischen Beobachtungen im Alltag oder in der beruflichen Praxis einerseits, so wie sie z. B. von angehenden Lehrkräften im Praktikum oder Referendariat verlangt wird, und der wissenschaftlichen Erforschung von Fragestellungen andererseits bewusst zu machen. Diese Unterschiede sind – wie z. B. bei der Darstellung der historischen Forschung (Kapitel 3.1), an bestimmten forschungsmethodischen Ansätzen (Kapitel 4.2) oder einigen Verfahren zur Datengewinnung (z. B. Kapitel 5.2.3 und 5.2.4) zu erkennen ist  – eher gradueller als grundsätzlicher Natur. Denn es scheint in der Natur des Menschen zu liegen, Phänomenen in seiner Umwelt auf den Grund zu gehen, nach Gesetzmäßigkeiten zu suchen sowie auf der Basis von Beobachtungen und Erfahrungen Theorien aufzustellen und Vorhersagen zu machen. Während dies im Alltag in der Regel eher zufällig, unbewusst und ad hoc geschieht, zumeist um konkrete Herausforderungen und Probleme des täglichen Lebens zu meistern, zeichnet sich wissenschaftliche Forschung durch eine systematische und methodisch kontrollierte Herangehensweise aus. Bei wissenschaftlicher Forschung handelt es sich um einen Prozess, der von dem/der Forscher_in beständig bewusste Entscheidungen verlangt: von der Wahl des Forschungsgegenstandes (Thema), über die Forschungsfrage/n, die Erhebungs- und Auswertungsverfahren bis hin zu Art und Ort der Veröffentlichung der Ergebnisse. Da diese Entscheidungen von vielen, nicht immer bewusst gemachten Faktoren beeinflusst werden, sollen in diesem Kapitel einige dieser Faktoren ebenfalls angesprochen werden. Grundlegend für die Wahl des Forschungszugangs sind die jeweiligen Annahmen über die Beschaffenheit der sozialen Wirklichkeit und die Möglichkeiten ihrer Erforschung. Cohen/ Manion/Morrison (2011: 3 – 7) unterscheiden in Anlehnung an Burrell und Morgan (1979) vier voneinander abhängige Ebenen (s. Tabelle 1):

8

2. Grundfragen fremdsprachendidaktischer Forschung

A scheme for analysing assumptions about the nature of social science

The subjectivist approach to social science

The objectivist approach to social science

Nominalism

Ontology

Realism

Anti-positivism

Epistemology

Positivism

Voluntarism

Human nature

Determinism

Idiographic

Methodology

Nomothetic

The subjective-objective dimension Tabelle 1: Subjektivistischer und objektivistischer Forschungszugang (Nachzeichnung von Cohen/Manion/ Morrison 2011: 7)

Grundsätzlich werden ein subjektivistischer und ein objektivistischer Forschungszugang unterschieden (subjectivist approach vs. objectivist approach), die sich auf drei Ebenen voneinander unterscheiden: der ontologischen, der epistemologischen und auf der Ebene der Auffassung über die Natur des Menschen. Auf der ontologischen Ebene (ontology) geht es um grundlegende Annahmen über die Wirklichkeit und die Natur der Dinge. Gehe ich davon aus, dass es eine objektive, vom jeweiligen Betrachter unabhängige Welt gibt (realist position), oder bin ich der Überzeugung, dass Wirklichkeit erst durch den Betrachter geschaffen wird und somit das Produkt subjektiver Wahrnehmung ist (nominalist position)? Diese grundsätzliche Position bestimmt Annahmen darüber, was und wie man etwas herausfinden und dies anderen mitteilen kann (epistemology): Kann ich soziale Wirklichkeit ‚von außen‘, d. h. durch Beobachtung wahrnehmen und erklären, ihre Gesetzmäßigkeiten erkennen und daraus Voraussagen über zukünftiges Verhalten ableiten (positivism)? Diese Auffassung legt einen etischen Zugang zum Forschungsfeld nahe, in dem von außen Kategorien an einen Untersuchungsgegenstand angelegt werden. Oder muss ich Menschen bzw. spezifischen Gruppen von Menschen und ihren Referenzsystemen möglichst nahe kommen, damit ich, soweit dies überhaupt möglich ist, ihre Innensicht auf sich selbst und ihr soziales Umfeld nachzeichnen kann (anti-positivism)? Diese Auffassung legt einen emischen Zugang zum Forschungsfeld nahe, der von den kultur- und sprachspezifischen Kategorien der Forschungspartner_innen ausgeht. Mit den beiden epistemologischen Positionen verbunden sind grundsätzlich unterschiedliche Auffassungen über die menschliche Natur: Betrachte ich den Menschen in erster Linie durch seine Anlagen und seine Umwelt bestimmt (determinism) oder verstehe ich ihn als freies, selbstbestimmtes Wesen, das seine soziale Umwelt kreativ mitgestaltet (voluntarism)? Der objektivistischen Herangehensweise entsprechen sog. nomothetische Forschungszugänge (nomothetic), die das Ziel verfolgen, allgemein gültige Gesetzmäßigkeiten aufzustellen. Ausgangspunkt von Forschungsarbeiten in diesem, auch als analytisch-nomologisch bezeichneten, Forschungsparadigma (vgl. Grotjahn 1993: 229 – 230) sind i. d. R. zuvor aufgestellte Theorien, Modelle oder hypothetische Kausalbeziehungen; das Ziel besteht darin, die daraus abgeleiteten Hypothesen zu überprüfen. Ein solches Vorgehen ist grundsätzlich dann möglich, wenn der Forschungsstand weit entwickelt und die Fragestellungen eng gefasst

2.1 Was ist Forschung? Und was beeinflusst sie?

9

sind. Bevorzugte Forschungsverfahren in diesem Paradigma sind u. a. Tests, Experimente, repräsentative Befragungen. Der subjektivistischen Herangehensweise entsprechen sog. ideographische Forschungszugänge (ideographic), die das Ziel verfolgen, das Individuelle, Besondere zu beschreiben, zu interpretieren und daraus Erkenntnisse zu gewinnen. Innerhalb dieses, auch als explorativ-interpretativ bezeichneten, Forschungsparadigmas (vgl. Grotjahn 1993: 230 – 231) stehen somit Hypothesen und Konzepte bzw. Theorien nicht am Anfang des Forschungsprozesses, sondern sind dessen Ergebnis. Dieser Zugang bietet sich immer dann an, wenn der Gegenstand noch nicht gut erforscht ist oder wenn eine weite Forschungsfrage gestellt wird. Bevorzugte Forschungsverfahren in diesem Paradigma sind u. a. Fallstudien, Beobachtungen, Interviews. Über diese grundsätzlichen Paradigmen bzw. Forschungszugänge hinaus werden die für jedes Forschungsprojekt notwendigen einzelnen Entscheidungen durch zahlreiche weitere Faktoren bestimmt. Von entscheidender Bedeutung sind selbstverständlich die Disziplin und innerhalb der Disziplin die jeweilige Forschungsrichtung, die mehr oder weniger explizit gemachte Vorgaben bzw. Erwartungen an eine konkrete Forschungsarbeit richten. Die in den Disziplinen vorherrschenden Traditionen sind, was sich besonders deutlich in der Rückschau zeigt, nicht selten aktuellen Moden und Tabus unterworfen. Zur Entstehung zu solchen, zu einem bestimmten Zeitpunkt vorherrschenden Forschungspraktiken tragen neben der allgemeinen Forschungslandschaft und entsprechenden Tendenzen in den jeweiligen Bezugsdisziplinen auch einflussreiche Forscher_innen bzw. Forscher_innengruppen sowie nicht zuletzt große Geldgeber bei. So sind der Siegeszug der empirischen Bildungsforschung innerhalb der Erziehungswissenschaft und die aktuelle Vorliebe für Interventionsforschung innerhalb der naturwissenschaftlichen Fachdidaktiken auch durch Förderentscheidungen der Politik beeinflusst. In diesem Zusammenhang spielt ebenfalls der aktuelle gesellschaftliche Kontext eine Rolle: Welcher Beitrag zur gesellschaftlichen Entwicklung wird von der Forschung erwartet? Welche Themen stehen im Zentrum des Interesses? Wie verläuft der mediale Diskurs zu diesen Themen? Die Forschungstraditionen der einzelnen Disziplinen schlagen sich nicht selten in eta­ blierten, sog. prototypischen Designs nieder, die gewisse Standards setzen und oft als modellhaft gelten. Gerade wenn solche Designs detaillierte Vorgaben hinsichtlich der Erhebungsund Auswertungsverfahren machen, sind sie insbesondere für Anfänger_innen attraktiv und helfen, die notwendige methodische Qualität einer Forschungsarbeit zu sichern. Andererseits kann die Ausrichtung auf etablierte Designs dazu führen, dass bestimmte Forschungsfragen gar nicht erst gestellt werden oder dass die ursprüngliche Frage an die Erkenntnismöglichkeiten des Designs angepasst wird. Daher sollte ein Forschungsprojekt nicht mit methodischen Entscheidungen beginnen, sondern von der Forschungsfrage geleitet sein, und man sollte auch – und gerade – bei prototypischen Designs genau prüfen, ob die zugrundeliegenden Annahmen und Erkenntnisinteressen tatsächlich geeignet sind, die eigene Forschungsfrage zielführend zu bearbeiten. Ein anderer wichtiger Einflussfaktor für forschungsmethodische Entscheidungen besteht in der Kenntnis von bzw. der Vertrautheit mit einzelnen Erhebungs- und Auswertungsverfahren. Hier wurde der Fremdsprachendidaktik in der Vergangenheit zu Recht ein deutlicher Nachholbedarf attestiert; in bestimmten Bereichen, insbesondere innerhalb des analytischnomologischen Paradigmas, gilt dies bis heute. Gerade die einfache Zugänglichkeit von bzw.

10

2. Grundfragen fremdsprachendidaktischer Forschung

die individuelle Expertise in bestimmten Verfahren kann jedoch dazu führen, dass andere, für die Forschungsfrage möglicherweise sogar geeignetere Verfahren gar nicht erst in den Blick genommen werden. Dies mindert nicht nur die Qualität der Ergebnisse, sondern kann bei häufigerem Vorkommen sogar das Ansehen der Disziplin beeinträchtigen. Ein weiterer, in vielen Disziplinen zu beobachtender Effekt besteht in der Bildung sog. ‚Schulen‘. Damit bezeichnet man die Tendenz, dass einzelne Wissenschaftler_innen oder Gruppen von Wissenschaftler_innen für die jeweilige Wissenschaft ganz grundsätzlich bestimmte Forschungsverfahren und Designs propagieren. Um diese – möglicherweise begrenzenden – Einflussfaktoren zu erkennen, ist es sinnvoll, sich bei der Planung des eigenen Forschungsvorhabens auch außerhalb des eigenen Standortes und ggf. auch außerhalb der eigenen Disziplin beraten zu lassen. Nicht zuletzt bestimmen individuelle Vorlieben und die von der einzelnen Forscher_in mitgebrachten sowie die von ihrem Umfeld bereitgestellten Ressourcen forschungsmethodische Entscheidungen: Wie viel Zeit steht zur Verfügung? Wer kann die Forscher_in wobei womit unterstützen? Welche administrativen Hürden sind zu überwinden? Auf welche technischen Ressourcen kann zurückgegriffen werden? Diese Faktoren bestimmen nicht nur die individuellen Forschungsentscheidungen, sondern auch forschungsmethodische Entwicklungen innerhalb einer Disziplin. So waren die zunehmend preisgünstige Verfügbarkeit von technisch ausgereiften Kameras und die Entwicklung von spezieller Auswertungssoftware Voraussetzung für den aktuellen Boom der Videographie in der fremdsprachendidaktischen (Unterrichts-) Forschung (vgl. Kapitel 5.2.3). Eine Möglichkeit, sich die vielfältigen Einflussfaktoren auf die eigenen Forschungsentscheidungen bewusst(er) zu machen, besteht bei den Überlegungen zur Relevanz der eigenen Forschungsarbeit. Reflektiert werden kann bzw. sollte hier zum einen die Relevanz für die involvierten Personen bzw. Institutionen: die Forscher_in persönlich, ihr unmittelbares berufliches Umfeld, Geldgeber, ‚Abnehmer_innen‘ bzw. Anwendungsbereiche. Was sind ihre expliziten oder impliziten Interessen und Ziele? Zum anderen kann man sich anhand der Relevanz der eigenen Arbeit für das Forschungsfeld, die Disziplin und möglicherweise auch die Nachbardisziplinen größere Klarheit darüber verschaffen, welche Erwartungen dadurch an die eigene Arbeit gerichtet werden. Generell wird zwischen Grundlagenforschung und angewandter Forschung unterschieden, wobei die Grenzen fließend sind. Grundlagenforschung ist vom reinen Erkenntnisinteresse geleitet; sie geht generellen Fragen nach und versucht allgemein gültige Zusammenhänge und Gesetzmäßigkeiten aufzuspüren. Angewandte Forschung ist dagegen auf praxisrelevante, ‚nützliche‘ Ergebnisse ausgerichtet. Innerhalb der angewandten Forschung können weitere Forschungszweige, wie z. B. die Entwicklungsforschung oder die Evaluationsforschung unterschieden werden. Je nach erkenntnistheoretischer Position, Forschungszweig, Forschungsstand und Erkenntnisinteresse kommt Forschung unterschiedliche Funktionen zu: Die Spannweite reicht vom Aufzeigen und genauen Beschreiben von bestimmten Phänomenen über die Strukturierung, Systematisierung und Kategorisierung von Wirklichkeitsbereichen bis hin zur Entwicklung und Überprüfung von Hypothesen, Konzepten und Modellen. Im Bereich der anwendungsorientierten Forschung liegt der Schwerpunkt dabei auf der Erzeugung von praxisrelevantem Wissen sowie der theoriegeleiteten, systematischen Entwicklung und empirischen Überprüfung von für die Praxis ‚nützlichen‘ Konzepten und Materialien.

2.2 Was ist fremdsprachendidaktische Forschung? Und welches sind ihre zentralen Forschungsfelder?  11

Jeglicher Forschung gemein ist, dass sie fokussiert und zielgerichtet verläuft und dabei zugleich offen ist für Unerwartetes. Üblicherweise beruht Forschung daher auf einer gezielten und gründlichen Suche. Forschung kann aber auch durch ein beiläufiges Finden angeregt werden, das dann ein gezieltes Weiter-Suchen auslöst (zum Wechselspiel zwischen Suchen und Finden vgl. Schlömerkemper 2010: 11 – 13). Im Unterschied zum anfangs skizzierten Erwerb von Alltagswissen zeichnet sich wissenschaftliche Forschung durch eine in zweifacher Hinsicht systematische Vorgehensweise aus: zum einen bezüglich der untersuchten Phänomene (hier gilt es, alles zu berücksichtigen, was man findet, und nicht nur das, was zur eigenen Vorstellung passt), zum anderen bezüglich der Forschungsschritte und Forschungsverfahren. Der Forschungsprozess erfolgt methodisch reflektiert und kontrolliert, die Ergebnisse sind überprüfbar bzw. intersubjektiv nachvollziehbar. Ein wesentliches Merkmal besteht darin, dass die Ergebnisse auf der Basis bzw. in Zusammenhang mit bereits vorhandenem wissenschaftlichem Wissen entstehen und diskursiv verhandelbar bzw. korrigierbar sind. Daher ist es erforderlich, dass die Ergebnisse wissenschaftlicher Forschung veröffentlicht bzw. allgemein zugänglich gemacht werden. Die genannten Kriterien für wissenschaftliches Arbeiten gelten für jede Forschungsarbeit, sie werden mit zunehmender Größe und Bedeutung der Forschungsarbeiten jedoch differenzierter und strenger gehandhabt (vgl. auch Kapitel Kap. 3.3, Stufen der Empirie).

 Was ist fremdsprachendidaktische Forschung?

2.2

Und welches sind ihre zentralen Forschungsfelder?

Fremdsprachendidaktische Forschung konstituiert sich durch ihren Gegenstandsbereich, „das Lehren und Lernen fremder Sprachen in allen institutionellen Kontexten und auf allen Altersstufen“ (Bausch/Christ/Krumm 2003: 1). Aufgrund der Entwicklungen der letzten Jahre könnte man diese bekannte Definition durch die Elemente „Zweitsprachen“ und „außerinstitutionelle Kontexte“ (vgl. Burwitz-Melzer/Königs/Riemer 2015) ergänzen. Während die Ursprünge fremdsprachendidaktischer Forschung bereits im 19. Jahrhundert liegen (vgl. Kapitel 3.1), etablierte sich die Fremdsprachendidaktik erst nach dem 2. Weltkrieg als eigenständige Disziplin. Folgende sechs Merkmale sind als besonders charakteristisch herauszustellen (vgl. im Folgenden Bausch/Christ/Krumm 2003, Doff 2008 und 2010, Edmondson/ House 2006, Grotjahn 2006): 1. Das wichtigste Charakteristikum fremdsprachendidaktischer Forschung ist ihr Erkenntnisinteresse. Noch in den 1950er und 60er Jahren wurde die zentrale Aufgabe der Didaktik darin gesehen, praktische Empfehlungen für den schulischen Unterricht zu geben. Seit den 1970er Jahren ist nicht zuletzt unter dem Einfluss der Sprachlehrforschung sowohl eine stärker theoretisch ausgerichtete (Grundlagen-) Forschung als auch eine stärkere Ausdifferenzierung des Theorie-Praxis-Bezuges zu beobachten. Das theoretische Ziel fremdsprachendidaktischer Forschung besteht – ganz allgemein – darin, die einzelnen Faktoren fremdsprachlichen Lernens und Lehrens differenziert zu erforschen und in ihrem Zusammenwirken immer genauer zu verstehen. Das praktische Ziel besteht – grob gesagt – darin,

12

2. Grundfragen fremdsprachendidaktischer Forschung

die Qualität des Fremdsprachenunterrichts und außerunterrichtlicher Lernangebote beständig zu verbessern. Dies kann angesichts der Vielfalt und Komplexität der Praxis jedoch nicht durch simple Ableitung theoretisch gewonnener Erkenntnisse geschehen, sondern nur in der Interaktion zwischen Theorie und Praxis. Als anwendungsorientierte Wissenschaft zeichnet sich die Fremdsprachendidaktik daher durch ein beständiges Wechselspiel zwischen Forschung und Anwendung aus.1 Generelles Ziel ist es, durch das forschungsgeleitete Aufstellen, empirische Überprüfen und erkenntnisbasierte Ausschärfen von theoretischen Grundlagen, Begriffen, Konzepten und Modellen das Erkennen, Verstehen und Erklären von komplexen Lehr- und Lernsituationen voranzutreiben und das Handeln in diesen Situationen zu verbessern. 2. Charakteristisch für den Gegenstandsbereich der Fremdsprachendidaktik ist weiterhin seine Faktorenkomplexion (Königs 2010), denn beim Lehren und Lernen von Fremdsprachen wirken zahlreiche Faktoren zusammen. Ein bekanntes Modell stammt von Edmondson (1984, wiedergegeben in Edmondson/House 2006: 25, im Folgenden leicht adaptiert). Er unterscheidet fünf große, sich gegenseitig beeinflussende Faktorenkomplexe: • Unterricht (beeinflusst durch Curriculum, Lern-/Lehrziele, Lehrinhalte, Lehrmethoden, Prinzipien, Übungsformen, Lehrwerke, Medien usw.) • Lehr- und Lernumgebungsfaktoren (Dauer, Frequenz, Ausstattung, Lerngruppengröße usw.) • personenbezogene Faktoren, d. h. Lehrkräfte und Lerner_innen (personale Faktoren, Ausbildung, Motivation/ Interesse, fremdsprachige Kompetenzen etc.) • soziopolitische Faktoren (Status der Fremdsprache, Fremdsprachenpolitik, Ausbildung, ökonomische Bedingungen etc.) • wissenschaftliche Faktoren (Ergebnisse aus der Sprachlehrforschung und der Fremdsprachendidaktik sowie aus den Bezugswissenschaften). Angesichts der Vielzahl und der Interdependenz der  – keinesfalls vollständig aufgeführten – Einzelfaktoren leuchtet unmittelbar ein, dass die isolierte Darstellung und Erforschung eines Einzelfaktors forschungsmethodisch nicht sinnvoll zu realisieren ist. Fremdsprachendidaktische Forschung muss sich daher auch bei der notwendigen Fokussierung auf einen oder wenige Faktoren stets der Tatsache bewusst sein, dass es sich um Einzelaspekte innerhalb eines komplexen Gefüges handelt. 3. Aus den ersten beiden Merkmalen ergibt sich das dritte: Fremdsprachendidaktische Forschung ist interdisziplinär, denn sie greift sowohl inhaltlich als auch forschungsmethodisch auf Bezugswissenschaften zurück. Je nach Gegenstand und Fragestellung handelt es sich z. B. um die Erziehungswissenschaften, die Linguistik und Literaturwissenschaft, die Kultur- und Medienwissenschaften, die Soziologie und/oder die Psychologie. Jedoch geht es auch hierbei nicht um die alleinige Anwendung der Theorien, Modelle und Erkenntnisse aus den Bezugswissenschaften, sondern darum, diese für die spezifischen Fragen und 1 Grundsätzlich ist zwischen der Fremdsprachendidaktik als Forschungsdisziplin und als Lehrfach zu unterscheiden. Bedauerlicherweise ist fachdidaktische Lehre – vor allem durch die personelle Ausstattung an den Universitäten und Pädagogischen Hochschulen, aber z. B. auch durch die Erwartungshaltung von Studierenden bedingt – nicht selten auf unmittelbaren Anwendungsbezug hin ausgerichtet oder gar begrenzt.

2.2 Was ist fremdsprachendidaktische Forschung? Und welches sind ihre zentralen Forschungsfelder?  13

Interessen der Fremdsprachendidaktik zu nutzen und die unterschiedlichen Perspektiven zu integrieren. 4. Dieses interdisziplinäre und integrierende Vorgehen hat zur Folge, dass Fremdsprachendidaktik durch eine große Breite an methodischen Herangehensweisen charakterisiert ist und sich je nach Gegenstand und Forschungsfrage unterschiedlicher methodischer Ansätze und Verfahren bedient. Dabei überprüft sie die Passung zwischen ihren Fragen und den Ansätzen bzw. Verfahren verwandter Disziplinen und wandelt sie ggf. ab. In diesem Prozess entstehen zunehmend spezifisch fremdsprachendidaktische methodische Zugänge. 5. Aus dem Theorie-Praxis-Bezug ergibt sich, dass Praktiker_innen (wie Lerner_innen, Lehrer_innen oder Ersteller_innen von Curricula und Prüfungen) nicht nur Forschungspartner_innen sind, sondern auch selbst zu Forschenden werden können, die selbst oder in Zusammenarbeit mit universitären Forscher_innen sie interessierende Fragen untersuchen. Da sich diese Studien u. a. in Umfang und Zielsetzung häufig von etablierten Standards unterscheiden, wird immer wieder diskutiert, ob bzw. inwieweit es sich dabei tatsächlich um wissenschaftliche Forschung handelt. Im Design der Aktionsforschung und der insbesondere im englischsprachigen Raum verbreiteten Forschungsrichtung der teacher research (vgl. Kapitel 4.2) liegen inzwischen jedoch weithin akzeptierte Ansätze vor. Das Gros der fremdsprachendidaktischen Forschung findet allerdings weiterhin an Universitäten und Pädagogischen Hochschulen statt, die wichtigsten außeruniversitären Forschungseinrichtungen sind das Institut für Qualitätsentwicklung im Bildungswesen (IQB) in Berlin und das Institut für Pädagogik der Naturwissenschaften (IPN) in Kiel (vgl. auch Kapitel 8). 6. Charakteristisch für die Fremdsprachendidaktik ist weiterhin, dass der allergrößte Teil der Forschung von den Wissenschaftler_innen selbst angestoßen und durchgeführt wird, wobei den Qualifikationsarbeiten von Nachwuchswissenschaftler_innen besondere Bedeutung zukommt. Auftragsforschung z. B. von der Kultusministerkonferenz (KMK), Länderministerien oder Behörden wie dem Bundesamt für Migration und Flüchtlinge (BAMF), Institutionen wie dem Goethe-Institut oder dem Deutsch-Französischen Institut Ludwigsburg oder einzelnen Schulen ist eher selten. Die allermeisten Forschungsprojekte sind Einzelarbeiten, die zwar im Austausch mit Kolleg_innen und Betreuer_innen entstehen, letztlich aber von einzelnen Forscher_innen geplant, durchgeführt und veröffentlicht werden. Kleinere Forschungsverbünde (z. B. in Graduiertenkollegs oder Research Schools) oder die gemeinsame Arbeit größerer Forschergruppen (wie z. B. in der DESI-Studie 2008) sind bislang die Ausnahme. Es bleibt jedoch abzuwarten, ob die zunehmende Anzahl von, meist interdisziplinären, Graduiertenschulen und fächerübergreifenden Forschungsprojekten z. B. im Rahmen der empirischen Bildungsforschung, hier zu einem Wandel führen wird. Forschungsfelder

Typisch für fremdsprachendidaktische Forschungsarbeiten ist weiterhin, dass sie nicht nur Forschungsfelder anderer Disziplinen aufnehmen, sondern oft auch innerhalb der Fremdsprachendidaktik mehrere Felder betreffen. Forschungsfelder bestimmen sich durch einen thema-

14

2. Grundfragen fremdsprachendidaktischer Forschung

tischen Schwerpunkt. Bei der Durchsicht von annähernd einhundert Qualifikationsarbeiten für die Auswahl der Referenzarbeiten wurden insgesamt 13 Forschungsfelder ermittelt. In jedem dieser, in sich komplexen und weit gefassten Felder können Arbeiten vertreten sein, die zu den drei großen, in diesem Handbuch unterschiedenen Kategorien von Forschung gehören, nämlich historische Forschungsarbeiten (s. Kapitel 3.1), theoretische Arbeiten (s. Kapitel 3.2) und empirische Arbeiten (s. Kapitel 3.3). Die folgende alphabetische Liste erhebt keinen Anspruch auf Vollständigkeit, bietet jedoch eine generelle Orientierung und verdeutlicht die thematische Breite fremdsprachendidaktischer Forschung:

• Begegnungsforschung: Hier sind Arbeiten zu finden, die direkte und (medial) vermittelte Begegnungen von Sprechern unterschiedlicher Sprachen und unterschiedlicher (kultureller) Herkunft konzeptuell-theoretisch, historisch und empirisch untersuchen. • Curriculumforschung: Arbeiten in diesem Feld sind mit der theoretischen Begründung, historischen Entwicklung und empirischen Validierung von Lehrprogrammen für Sprachunterricht befasst. • Diagnostik: Arbeiten in diesem Forschungsfeld sind Tätigkeiten gewidmet, die in Abgrenzung zur Diagnostik anderer Berufsfelder unter dem Begriff Pädagogische Diagnostik zusammengefasst werden können. Im Brennpunkt stehen mit Bezug auf das Lehren und Lernen von Fremd- und Zweitsprachen Tätigkeiten „durch die bei einzelnen Lernenden und den in einer Gruppe Lernenden Voraussetzungen und Bedingungen planmäßiger Lehr- und Lernprozesse analysiert und Lernergebnisse festgestellt werden, um individuelles Lernen zu optimieren“ (Ingenkamp/Lissmann 2005:15). • Interaktionsforschung: Forschungen zu Bedingungen, Verlaufsformen und Strukturmerkmalen fremdsprachiger Interaktion in unterschiedlichen sozialen Arrangements sowie ihre Erträge sind diesem Feld zugeordnet. • Kompetenzforschung: Hier geht es um die theoretische Bestimmung und empirische Modellierung von Kompetenzen im Bereich des Lehrens und Lernens von Fremdsprachen (insbesondere sprachlicher, literarischer, medialer und interkultureller Kompetenzen) und um die Erforschung ihrer Entwicklung unter spezifischen institutionellen Bedingungen (Schule, Hochschule, Erwachsenenbildung). • Konzeptforschung: Die Entwicklung und systematische Analyse umfassender Konzepte und tragender Konstrukte der Fremdsprachendidaktik sowie die Modellbildung machen den gemeinsamen Nenner der Arbeiten dieses Forschungsfelds aus. • Lehr- und Professionsforschung: Forschungsarbeiten in diesem Feld beschäftigen sich mit dem Lehren fremder Sprachen als Beruf. Von Interesse sind nicht nur gesellschaftliche Ansprüche an Lehrkräfte oder deren berufliches Selbstverständnis, sondern in gleicher Weise Fragen der Aus- und Weiterbildung von Lehrkräften. Mit Blick auf die Praxis werden zudem Bedingungen und Prozesse des Lehrens von Fremd- und Zweitsprachen in diesem Feld unter besonderer Berücksichtigung der Lehrpersonen, ihres Wissens, ihrer Erfahrungen, Einstellungen und ihres Handelns in spezifischen Kontexten bearbeitet. • Lehrwerks- und Materialienforschung: Hier geht es um die systematische Analyse historischer wie gegenwärtiger Lehrwerke und Medienverbundsysteme analoger und digitaler Provenienz. Auf diesem Feld sind folglich Forschungen angesiedelt, die Materialentwicklung, Evaluation und Nutzung in Lehr und Lernprozessen fokussieren.

2.2 Was ist fremdsprachendidaktische Forschung? Und welches sind ihre zentralen Forschungsfelder?  15

• Lernforschung: Die Lernforschung untersucht die komplexen Voraussetzungen, Prozesse und Ergebnisse individuellen und kooperativen Sprachenlernens unter natürlichen und gesteuerten Bedingungen. • Lernerforschung: In diesem Feld steht die Sprachen lernende Person im Zentrum der Aufmerksamkeit und zwar als Individuum und als soziales Wesen mit ihrer speziellen Sprachlerngeschichte, mit ihren Potenzialen, sprachlich zu handeln, sowie ihrer kognitiven und affektiven Ausstattung. • Schulbegleit- und Schulentwicklungsforschung: Ziel dieser Forschung ist es, relevante Aspekte des Lehrens und Lernens von Fremdsprachen unter schulischen Bedingungen zu erkennen, um das Zusammenspiel zwischen der Institution und den in ihr tätigen Individuen und Gruppen zu verstehen. In diesem Feld sind ebenfalls Projekte angesiedelt, in denen Lehrkräfte und professionell Forschende von Hochschulen und/oder Forschungsinstituten zusammenwirken mit dem Ziel, die Handlungskompetenz der Beteiligten zu entwickeln. • Testforschung: Hier geht es sowohl um die Entwicklung, Validierung und Implementierung standardisierter Sprachtests als auch um unterrichtsbezogene Verfahren formativer und summativer Lernstandsermittlung, ihre Entwicklung und Erprobung. • Zweitsprachenerwerbsforschung: Aus diesem wesentlich weiteren Forschungsfeld sind für die fremdsprachendidaktische Forschung solche Arbeiten relevant, die sich darum bemühen, Prozesse ungesteuerten wie gesteuerten Fremdsprachenerwerbs zu beschreiben, Erwerbssequenzen zu bestimmen und Zusammenhänge zwischen Lehren und Erwerb aufzudecken. Dabei finden u. a. das Wechselverhältnis von Erst- und Zweitsprachen sowie weiterer Sprachen Berücksichtigung als auch soziale Bedingungen des Erwerbs oder die besonderen Merkmale der Erwerbssituation. Betrachtet man die ausgewählten Referenzarbeiten, so ist ein Großteil der Arbeiten in mindestens zwei Forschungsfeldern angesiedelt: Die Referenzarbeiten von Biebricher (2008) und Marx (2005) in der Lern- und Kompetenzforschung, die von Ehrenreich (2004) in der Begegnungs- und Professionsforschung, die von Schmidt (2007) in der Materialien- und Lernforschung, die von Schart (2003) in der Kompetenz- und Professionsforschung, die von Hochstetter in der Diagnostik und der Kompetenzforschung; die Untersuchung von Doff (2002) berührt die Felder der Lernforschung, Schulforschung und Professionsforschung. Die Fokussierung dieser in mehreren Feldern angesiedelten Arbeiten erfolgt jeweils durch die Forschungsfrage. Im Gegenzug berücksichtigen die Studien, die primär in nur einem Forschungsfeld verortet sind wie z. B. die Referenzarbeiten von Arras (2007) (Testforschung), Özkul (2011) (Professionsforschung), Schwab (2009) (Interaktionsforschung) sowie Schmenk (2002) und Tassinari (2010) (Konzeptforschung), die Faktorenkomplexion z. B. bei der Einordnung bzw. Gewichtung der Ergebnisse oder der Rückbindung an den Kontext bzw. eine ­Theorie. Möglicherweise ist die Faktorenkomplexion auch ein Grund dafür, dass in der Fremdsprachendidaktik der Theorie-Empirie-Bezug in der Form der Überprüfung von zuvor aufgestellten Modellen wenig verbreitet ist. Der Vielfalt der Lehr-/ Lernsituationen und der weiten Verbreitung von Einzelforschung könnte wiederum geschuldet sein, dass bisher insgesamt vergleichsweise wenige Studien auf repräsentative Ergebnisse abzielen. Dafür konn-

16

2. Grundfragen fremdsprachendidaktischer Forschung

ten in den letzten 15 Jahren durch zahlreiche Studien mit qualitativen Forschungsansätzen der Gegenstandsbereich des Lehrens und Lernens fremder Sprachen besser exploriert werden und viele Einzelfaktoren und -aspekte in ihrer Vielschichtigkeit und Komplexität erforscht und dargestellt werden.

 Welche Gütekriterien gelten für

2.3

fremdsprachendidaktische Forschung?

Wissenschaftliche Forschung unterscheidet sich von der anfangs erwähnten Alltagsbeobachtung nicht zuletzt durch die Einhaltung bestimmter forschungsmethodischer Standards, den sog. Gütekriterien. Als Prinzipien verstanden, helfen sie dabei, sich der jeweiligen qualitativen Standards bewusst zu werden und sie bei der Planung und Durchführung der Untersuchung einzuhalten; als Kriterien verstanden, ermöglichen sie, im Nachhinein die Qualität und die Reichweite der gewonnenen Ergebnisse einer Forschungsarbeit zu beurteilen. Auffällig ist, dass Gütekriterien bislang nahezu ausschließlich im Kontext empirischer Forschung diskutiert werden. Sowohl in der theoretisch-hermeneutischen wie auch in der historischen Forschung steht eine intensivere forschungsmethodologische Diskussion erst am Anfang. Auffällig ist ebenfalls, dass sich die Diskussion über Gütekriterien in der empirischen Forschung nach wie vor zumeist an der soziologischen, psychologischen und erziehungswissenschaftlichen Forschung orientiert. Erst seit der Etablierung der Gegenstandsangemessenheit als zentralem Gütekriterium ist zu beobachten, dass in fremdsprachendidaktischen Arbeiten bei der Präsentation und Analyse der Forschungsmethodik offensiver anhand fremdsprachenforschungsspezifischer Charakteristika argumentiert wird. Trotzdem ist der Stand der Diskussion aus den genannten Disziplinen nach wie vor wegweisend. Grundsätzlich unterscheiden sich die Gütekriterien in quantitativen und qualitativen Forschungsansätzen (vgl. Kap. 3.3). Als zentrale Kriterien quantitativer Forschung (vgl. im Folgenden Edmondson/House 2006: 39 – 40, Grotjahn 2006, Schmelter 2014) gelten Objektivität, Reliabilität und Validität. Unter Objektivität versteht man die Intersubjektivität einer Methode, d. h. die Unabhängigkeit der Ergebnisse von den Forscher_innen, die die Untersuchung durchgeführt haben. Dabei unterscheidet man anhand der einzelnen Forschungsschritte Durchführungs-, Auswertungs- und Interpretationsobjektivität. Detaillierte Vorschriften sollen dafür sorgen, dass sowohl der Einfluss der Untersuchung auf die Untersuchungsteilnehmer_innen als auch der Einfluss der Forscher_innen auf die Untersuchung kontrolliert und möglichst gering gehalten wird. Eng mit dem Kriterium der Objektivität zusammen hängt das Kriterium der Zuverlässigkeit (Reliabilität). Es misst die Genauigkeit des Datenerhebungs- bzw. Messvorgangs und gibt den Grad der Verlässlichkeit der Ergebnisse an. Für ein hochreliables Ergebnis müssen bei einer Wiederholung der Untersuchung unter gleichen Bedingungen die gleichen Ergebnisse erzielt werden (Replizierbarkeit der Messergebnisse). Reliabilität umfasst drei Aspekte: die Stabilität (die Übereinstimmung der Messergebnisse zu unterschiedlichen Zeitpunkten), die Konsistenz (das Maß, mit dem die zu einem Merkmal

2.3 Welche Gütekriterien gelten für fremdsprachendidaktische Forschung?

17

gehörenden Items dasselbe Merkmal messen) und die Äquivalenz (die Gleichwertigkeit von Messungen, wenn z. B. durch das Wiederholen eines Tests ein Lerneffekt eintritt). Objektivität und Reliabilität der Methoden bestimmen die Validität, d. h. die Gültigkeit einer Variable, eines Messverfahrens bzw. der erzielten Ergebnisse. Sie bestimmt das Maß ihrer Übereinstimmung mit dem untersuchten Realitätsausschnitt. Man unterscheidet in Bezug auf Untersuchungsverfahren zum einen innere bzw. interne Validität (das Maß, mit dem ein Forschungsverfahren tatsächlich das erfasst oder misst, was es erfassen oder messen soll – und nicht z. B. durch andere Einflüsse wie z. B. Störvariablen oder systematische Messfehler beeinträchtigt wird). Hierbei unterscheidet man insbesondere die Inhaltsvalidität (die Eignung eines Verfahrens für die Erfassung bzw. Messung des Konstruktes), die Kriteriumsvalidität (die Übereinstimmung der gemessenen Ergebnisse mit einem empirischen Kriterium, z. B. den Ergebnissen, die mit einem anderen Verfahren gewonnen wurden) und die Konstruktvalidität (die Zuverlässigkeit der Ergebnisse bezüglich des gesamten untersuchten Konstruktes und nicht nur einzelner Aspekte des Konstruktes). Zum anderen bestimmt man die externe Validität, d. h. die Möglichkeit der Übertragung der Ergebnisse über die jeweilige Stichprobe und Situation der konkreten Untersuchung hinaus (Möglichkeit der Verallgemeinerung, Repräsentativität). Grundsätzlich ist eine hohe Reliabilität eine Voraussetzung für hohe Validität, allerdings kann sich eine zu hohe Reliabilität negativ auf die Validität auswirken, weil dann nur sehr enge Konstrukte erfasst werden können. Während Studien mit einem quantitativen Forschungsansatz das Forschungsfeld und die Forschungsgegenstände aus einer distanzierten Außenperspektive betrachten, setzt sich qualitative Forschung das Ziel, die Untersuchungsgegenstände soweit es geht aus der Innenperspektive der Beteiligten zu erforschen (vgl. Kapitel 3.3). Diese Forschung verlangt daher andere Gütekriterien (vgl. im Folgenden Flick 1987 und 1995, Schmelter 2014, Steinke 1999). Ein Teil dieser Kriterien stellt eine Um- oder Neudefinition der aufgeführten Gütekriterien quantitativer Forschung dar, dazu kommen spezifische Kriterien qualitativer Forschung. Das Kriterium der Objektivität ist nicht vereinbar mit der Subjektivität der Forschungsbeteiligten, der Notwendigkeit ihrer Interaktion und der Anwendung interpretativer Auswertungsverfahren; zudem widerspricht es zentralen Charakteristika qualitativer Forschung wie z. B. den Prinzipien der Gegenstandsentfaltung, der Offenheit, der Alltagsorientierung und der Kontextualität. Als Äquivalenzkriterium führt Steinke (1999: 143) das Kriterium der Intersubjektiven Nachvollziehbarkeit ein, für das die Reflexivität des/der Forscher_in wichtig ist. Auch das Kriterium der Reliabilität ist nicht direkt auf qualitative Forschung übertragbar, u. a. weil weder eine Standardisierung der Erhebungssituation noch eine vorgängige exakte Bestimmung und Operationalisierung des Untersuchungsgegenstandes möglich bzw. sinnvoll sind, auch ist das Untersuchungsphänomen in den meisten Fällen nicht ausreichend stabil. Stattdessen schlägt Flick (1995: 242) die Prüfung der Verlässlichkeit von Daten und Vorgehensweisen vor, für die u. a. die konsequente Dokumentation des Forschungsprozesses notwendig ist. Daneben werden auch Verfahren der Reliabilitätsprüfung aus quantitativen Forschungsansätzen auf qualitative Designs übertragen, wenn z. B. zwei Forscher_innen die gleichen Texte kodieren und ihre unterschiedlichen Deutungen diskutieren (Inter-Coder-Reliabilität).

18

2. Grundfragen fremdsprachendidaktischer Forschung

Das Kriterium der Validität wird für qualitative Forschungsansätze dagegen teilweise übernommen und in Bezug auf den Auswertungs- und Interpretationsprozess hin erweitert. Validierung wird verstanden als – zumeist kommunikativer – Prozess, in dem das Zustandekommen der Daten, die Darstellung der Phänomene und die daraus abgeleiteten Schlüsse auf systematische Verzerrungen oder Täuschungen hin untersucht werden (Flick 1995: 244 – 245). Die zentrale Frage lautet, „inwieweit die Konstruktionen des Forschers in den Konstruktionen derjenigen, die er untersucht hat, begründet sind (…) und inwieweit für andere diese Begründungen nachvollziehbar sind“ (Flick 1995: 244). Ein Verfahren der Validitätsprüfung ist die Triangulation (vgl. auch Kapitel 4.4), die hierbei jedoch nicht primär auf die Bestätigung der Ergebnisse und damit auf die Gewinnung eines einheitlichen Gesamtbildes abzielt, sondern auf ergänzende und vertiefende Perspektiven. Neben den drei genannten gelten als weitere wichtige Kriterien qualitativer Forschung Offenheit (gegenüber dem Forschungsfeld und gegenüber unerwarteten Ergebnissen), Flexibilität (angesichts gewachsener Erkenntnisse oder als Reaktion auf Unerwartetes), die Darlegung des Vorverständnisses, die Reflexion der Rolle der Forscher_in, die Indikation des Forschungsprozesses und der Bewertungskriterien (d. h. die Prüfung, ob die getroffenen methodischen Entscheidungen indiziert, d. h. angemessen gewählt worden waren) sowie die empirische Verankerung der Theoriebildung (die Theoriebildung erfolgt dicht an den Daten). Obwohl mit qualitativen Untersuchungen keine Generalisierung angestrebt werden kann, ist zu prüfen, wie weit die gewonnenen Ergebnisse über den Untersuchungskontext hinaus Gültigkeit beanspruchen können (Kriterium der Limitation bzw. Reichweite). Im Unterschied zu den Gütekriterien in quantitativen Forschungsansätzen zielen die Kriterien in qualitativen Forschungsansätzen weniger auf Kontrolle, sondern auf Vertrauenswürdigkeit, Glaubwürdigkeit und Verlässlichkeit. Wichtige Gütekriterien für beide Ansätze sind die Offenlegung des Gegenstandsverständnisses (es bildet die Grundlage für die Beurteilung der Angemessenheit des gewählten Ansatzes und der eingesetzten Methoden) sowie die theoretische und praktische Relevanz der Fragestellung und der Forschungsergebnisse (es muss z. B. deutlich erkennbar sein, an welchen Theorien und Ergebnissen die Untersuchung anknüpft, welche Praxisaspekte sie aufgreift sowie welche neuen Deutungen oder Erklärungen für die untersuchten Phänomene sie bereitstellt und welches Innovationspotential sie enthält). Darüber hinaus müssen in jedem Fall ethische Standards eingehalten werden (vgl. Kapitel 4.6). Das zentrale Gütekriterium sind in jedem Fall die Gegenstandsangemessenheit der gewählten Ansätze und Verfahren für die Bearbeitung der Forschungsfrage und, darüber hinaus, die Passung, das sinnvolle Zusammenwirken der einzelnen Elemente und Entscheidungen innerhalb der Forschungsarbeit: zum einen Passung von Gegenstand, Fragestellung, Zielsetzung und Relevanz untereinander, zum anderen Passung von Forschungstradition, Forschungskonzept bzw. -design und Verfahren untereinander sowie die unerlässliche Passung beider Stränge.

2.3 Welche Gütekriterien gelten für fremdsprachendidaktische Forschung?

19

››  Literatur Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDAF). Tübingen: Narr. [Referenzarbeit, Kapitel 7] Bausch, Karl-Richard/Christ, Herbert/Krumm, Hans-Jürgen (2003). Fremdsprachendidaktik und Sprachlehrforschung. In: Dies. (Hg.). Handbuch Fremdsprachenunterricht. 4. vollständig neu bearbeitete Ausgabe. Tübingen: Francke. Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Burwitz-Melzer, Eva/Königs, Frank/Riemer, Claudia (Hg.) (2015). Lernen an allen Orten? Die Rolle der Lernorte beim Lehren und Lernen von Fremdsprachen. Arbeitspapiere der 35. Frühjahrskonferenz zur Erforschung des Fremdsprachenunterrichts. Tübingen: Narr. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage. London: Routledge. DESI-Konsortium (2008) (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz. Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. München: Langenscheidt-Longman. [Referenzarbeit, Kapitel 7] Doff, Sabine (2008). Englischdidaktik in der BRD 1949 bis 1989. Konzeptuelle Genese einer Wissenschaft. München: Langenscheidt. Doff, Sabine (2010). Englischdidaktik in den 1970er und 1980er Jahren: Stationen auf dem Weg zu einer wissenschaftlichen Disziplin. In: Fremdsprachen Lehren und Lernen 39, 145 – 159. Edmondson, Willis J./House, Juliane (2006). Einführung in die Sprachlehrforschung. 3. Auflage. Tübingen: Francke. Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Das „assistant“-Jahr als ausbildungsbiographische Phase. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Flick, Uwe (1987). Methodenangemessene Gütekriterien in der qualitativ-interpretativen Forschung. In: Bergold, Jarg B./Flick, Uwe (Hg.). Ein-Sichten. Zugänge zur Sicht des Subjekts mittels qualitativer Forschung. Tübingen: Deutsche Gesellschaft für Verhaltenstherapie. Flick, Uwe (1995). Qualitative Forschung: Theorie, Methoden, Anwendung in Psychologie und Sozialwissenschaften. Reinbek: Rowohlt. Groeben, Norbert/Wahl, Diethelm/Schlee, Jörg/Scheele, Brigitte (1988). Das Forschungsprogramm Subjektive Theorien. Eine Einführung in die Psychologie des reflexiven Subjekts. Tübingen: Francke. Grotjahn, Rüdiger (1993). Qualitative vs. quantitative Fremdsprachenforschung: Eine klärungsbedürftige und unfruchtbare Dichotomie. In: Timm, Johannes-Peter/Vollmer, Helmut Johannes (Hg.). Kontroversen in der Fremdsprachenforschung. Dokumentation des 14. Kongresses für Fremdsprachendidaktik, veranstaltet von der Deutschen Gesellschaft für Fremdsprachenforschung (DGFF) Essen, 7. – 9. Oktober 1991. Bochum: Brockmeyer, 223 – 248. Grotjahn, Rüdiger (2006). Zur Methodologie der Fremdsprachenerwerbsforschung. In: Scherfer, Peter/ Wolff, Dieter (Hg.). Vom Lehren und Lernen fremder Sprachen. Eine vorläufige Bestandsaufnahme. Frankfurt/M.: Lang, 247 – 270. Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Ingenkamp, Karlheinz/Lissmann, Urban (2005). Lehrbuch der Pädagogischen Diagnostik. 5. Auflage. Weinheim: Beltz.

20

2. Grundfragen fremdsprachendidaktischer Forschung

Königs, Frank G. (2010). Faktorenkomplexion. In: Barkowski, Hans/Krumm, Hans-Jürgen (Hg.). Fachlexikon Deutsch als Fremd- und Zweitsprache. Tübingen: Francke: 78. Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines Sensibilisierungsunterrichts im „DaF-nE“. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Özkul, Senem (2011). Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in Anglistik/Amerikanistik. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Schart, Michael (2003). Projektunterricht  – subjektiv betrachtet. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Schlömerkemper, Jörg (2010). Konzepte Pädagogischer Forschung. Eine Einführung in Hermeneutik und Empirie. Bad Heilbrunn: Klinkhardt. Schmelter, Lars (2014). Gütekriterien. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh, 33 – 45. Schmenk, Barbara (2002). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Stauffenburg. [Referenzarbeit, Kapitel 7] Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. [Referenzarbeit, Kapitel 7] Steinke, Ines (1999). Kriterien qualitativer Forschung: Ansätze zur Bewertung qualitativ-empirischer Sozialforschung. Weinheim: Juventa. Tassinari, Giovanna (2010). Autonomes Fremdsprachenlernen. Komponenten, Kompetenzen, Strategien. Frankfurt/M.: Lang. [Referenzarbeit, Kapitel 7]

»»  Zur Vertiefung empfohlen Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage London: Routledge, 3 – 30. Im ersten Kapitel dieses Handbuches „The nature of enquiry: setting the field“ erläutern die Autoren die zentralen Forschungsparadigmen einschließlich ihrer erkenntnistheoretischen Grundlagen. Gnutzmann, Claus/Königs, Frank/Küster, Lutz (2011). Fremdsprachenunterricht und seine Erforschung. Ein subjektiver Blick auf 40 Jahre Forschungsgeschichte und auf aktuelle Forschungstendenzen in Deutschland. In: Fremdsprachen Lehren und Lernen 40, 1 – 28. Nach einer Klärung des Gegenstandsbereiches fremdsprachendidaktischer Forschung zeichnen die Autoren anhand von sechs aktuellen Forschungsfeldern, darunter Forschungsmethoden, die Entwicklung der Fremdsprachendidaktik in den letzten 40 Jahren nach. Grotjahn, Rüdiger (1993). Qualitative vs. quantitative Fremdsprachenforschung: Eine klärungsbedürftige und unfruchtbare Dichotomie. In: Timm, Johannes-Peter/Vollmer, Helmut Johannes (Hg.). Kontroversen in der Fremdsprachenforschung. Dokumentation des 14. Kongresses für Fremdsprachendidaktik, veranstaltet von der Deutschen Gesellschaft für Fremdsprachenforschung (DGFF) Essen, 7. – 9. Oktober 1991. Bochum: Brockmeyer, 223 – 248.

2.3 Welche Gütekriterien gelten für fremdsprachendidaktische Forschung?

21

Ausgehend von dem seiner Meinung nach unfruchtbaren Gegensatz zwischen qualitativer und quantitativer Forschung erläutert der Autor grundlegende methodologische Paradigmen und Gütekriterien. Von den Spezifika der Fremdsprachendidaktik aus konturiert er Ansätze zur Überwindung dieses methodologischen Gegensatzes. Kron, Friedrich W. (1999): Wissenschaftstheorie für Pädagogen. Tübingen: E. Reinhardt. In diesem Handbuch wird ein systematischer Überblick über die wichtigsten wissenschaftstheoretischen Begriffe, Fragen und Konzepte gegeben. Die Darstellung der zentralen Paradigmen und Methoden erfolgt aus Sicht der Pädagogik. Schmelter, Lars (2014). Gütekriterien. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/ Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh, 33 – 45. Dieser Artikel gibt, ausgehend vom Forschungsgegenstand der Fremdsprachenforschung, einen Überblick über Gütekriterien quantitativer und qualitativer Forschungsansätze. Außerdem werden übergreifende Gütekriterien sowie bislang ungelöste Fragen hinsichtlich der Gütekriterien fremdsprachendidaktischer Forschung diskutiert.

3. Forschungstraditionen der Fremdsprachendidaktik Friederike Klippel

Die Fremdsprachendidaktiken sind als wissenschaftliche Disziplinen noch relativ jung, denn sie etablierten sich erst nach dem Zweiten Weltkrieg in Deutschland als akademische Fächer. Dennoch gibt es eine Tradition der Erforschung des Lehrens und Lernens von Sprachen, die viel weiter zurückreicht als in die 1960er Jahre, in denen an den Pädagogischen Hochschulen der Bundesrepublik Deutschland in größerem Umfang Professuren für die Fachdidaktiken in den Sprachenfächern eingerichtet wurden. Wenn man unter Forschung die systematische Suche nach neuen Erkenntnissen versteht (s. auch Kapitel 2), dann müssen auch die Bemühungen aus früheren Jahrhunderten anerkannt werden, die Ziele, Inhalte, Verfahren und kontextuelle Einbettung des Sprachenlernens theoretisch oder empirisch genauer zu fassen. Kelly (1969) charakterisiert zwei Grundtypen früher Forschung zum Sprachenlernen: The all-important stages of learning a language were developed by two sorts of amateur. One was the professional grammarian who, for various reasons, found himself in the classroom; the other was the professional educator who, because of an interest in language, turned to teaching languages. Erasmus is a good example of the first and Comenius of the second. (Kelly 1969: IX)

Auch wenn Kellys Bezeichnung „amateur“ für Gelehrte wie Erasmus und Comenius nicht ganz passend erscheint, so besitzt doch seine Unterscheidung in diese beiden Grundtypen bis in das 20. Jahrhundert hinein Gültigkeit: Ein Interesse an der intensiven Beschäftigung mit dem Sprachenlernen erwuchs entweder aus der Beschäftigung mit der Sprache oder den Sprachen selbst, so etwa im Falle von Hermann Breymann, Professor für französische und englische Sprache an der Münchener Universität von 1875 bis 1909. Breymann, der vor seinem Ruf nach München sieben Jahre lang in England u. a. als Französischlektor selbst Sprachunterricht erteilt und Lehrbücher für das Französische verfasst hatte (Riedl 2005: 233), widmete sich als Wissenschaftler sowohl der Erforschung des Provençalischen, der historischen Entwicklung des Französischen und Spanischen und bestimmten Epochen der englischen Literatur als auch der inhaltlichen Gestaltung der Lehrerbildung in den neueren Sprachen und der bibliographischen Aufarbeitung der neusprachlichen Reformbewegung. Seine kommentierten Bibliographien zur Reformbewegung (Breymann 1895, 1900) sind bis heute eine unverzichtbare Grundlage der fachhistorischen Forschung. Als Vertreter des anderen Typus, nämlich des Pädagogen, dessen Interesse an Bildungsprozessen im Allgemeinen auch die sprachliche Bildung im Besonderen umfasst, wäre z. B. Carl Wilhelm Mager zu nennen, der um die Mitte des 19. Jahrhunderts ein Konzept für eine umfassende Schulbildung entwirft, in dessen Rahmen dem Unterricht in Sprachen, und zwar sowohl den lebenden als auch den

24

3. Forschungstraditionen der Fremdsprachendidaktik

klassischen Sprachen, besonderer Stellenwert zukommt (Mager 1846). Die von Mager dafür entwickelte und propagierte „genetische Methode“ wurde zu seiner Zeit in einigen erfolgreichen Lehrbüchern umgesetzt (Klippel 1994: 444 – 447). Die Klassifizierung in eher linguistisch oder pädagogisch motivierte frühe fremdsprachendidaktische Forschung liegt quer zu der heute üblichen Unterscheidung von Grundlagenforschung und angewandter Forschung (s. Kapitel 2). Die aktuell gültigen und allgemein üblichen Güte- und Qualitätskriterien für Forschungsarbeiten (s. Kapitel 2) waren im 19. und frühen 20. Jahrhundert noch nicht in gleichem Maße bekannt oder selbstverständlich. Das bedeutet jedoch nicht, dass weit zurückliegende Forschungsarbeiten a priori fehlerhaft oder gar wertlos sind. Man muss sie allerdings  – ganz im Sinne einer inneren und äußeren Quellenkritik (dazu Kapitel 5.3.1)  – im Kontext ihrer Zeit lesen und interpretieren. Geht man vom zeitlichen Rahmen bisheriger großer historischer Abrisse des Fremdsprachenlehrens und -lernens aus (Kelly 1969, Germain 1993, Wheeler 2013), dann lassen sich Überlegungen zum Sprachenlehren und -lernen aus 5000 bis 2500 Jahren belegen. Sicherlich sind nicht alle diese Überlegungen als Forschung im engeren Sinne einzuordnen, aber die Grenze zwischen den in den vergangenen Jahrhunderten niedergelegten Annahmen, Prinzipien und Beobachtungen engagierter Sprachenlehrer (etwa von Seidelmann 1724 oder Falkmann 1839) einerseits und theoretischen Ideen und Konzepten etwa eines Comenius (1643) andererseits ist schwer festzulegen. Ist beides, nur eines oder gar nichts davon als Forschung zu sehen? Da der Fokus dieses Handbuchs auf der deutschen Fremdsprachendidaktik liegt, werden im Folgenden die Forschungstraditionen in Deutschland ab dem 19. Jahrhundert skizziert, seit es eine theoretische, historische und empirische Auseinandersetzung mit dem Forschungsfeld in größerem Ausmaß gibt. Wer forscht?

Heute erfolgt ein Großteil der fremdsprachendidaktischen Forschung an Universitäten und Hochschulen, oftmals im Kontext wissenschaftlicher Qualifizierungsarbeiten oder geförderter Projekte. Das war im 19. und frühen 20. Jahrhundert noch völlig anders. In einer Zeit, in der sich die modernen Sprachen erst langsam an Schulen und Universitäten etablierten (dazu z. B. Finkenstaedt 1983: 27 – 123; Hüllen 2005: 75 – 91), befand sich ein Großteil derer, die sich systematisch mit dem Fremdsprachenunterricht befassten, als Lehrer an einer höheren Schule. Viele der damaligen Sprachlehrer waren leidenschaftliche Verfechter ihres Faches und kämpften für dessen Berechtigung und stärkere Berücksichtigung. Dazu veröffentlichten sie theoretische Abhandlungen in den ebenfalls ab der Mitte des 19. Jahrhunderts entstehenden pädagogischen und philologischen Fachzeitschriften. Insbesondere zu Zeiten der neusprachlichen Reformbewegung ab etwa 1880 setzten sich Befürworter und Gegner der Reform intensiv auseinander. In diesem Kontext entstanden auch die ersten Forschungsarbeiten, die sich in heutiger Terminologie eventuell als empirische Unterrichtsforschung oder Handlungsforschung bezeichnen lassen, indem einzelne Lehrer (z. B. Klinghardt 1888) über einen längeren Zeitraum hinweg ihren Unterricht systematisch aufzeichneten, ihre Beobachtungen notierten und diese dann mit Bezug auf die gängigen Theorien zum Sprachenlernen interpretierten (Klippel 2013). Andere Lehrer untersuchten die Geschichte des Französisch- oder

3. Forschungstraditionen der Fremdsprachendidaktik

25

Englischunterrichts (s. Kapitel 3.1 zu einschlägigen Beispielen), wiederum andere befassten sich mit theoretischen Konzepten zu einer Sprachenfolge in den höheren Schulen  – etwa Julius Ostendorf (dazu Ostermeier 2012). Der Beginn der Forschungstradition im Bereich der Fremdsprachendidaktik ist also eng verknüpft mit der Lehrerschaft. Die zunehmende Professionalisierung dieser Lehrer und ihr starkes Engagement für die aufstrebenden modernen Sprachen sowie ihr Bemühen, den Unterricht wissenschaftlich zu fundieren und zu optimieren, führten zu einem regen fachlichen Diskurs. Und es ist festzuhalten, dass bereits damals historisch, theoretisch und empirisch geforscht wurde – wenn auch letzteres nicht in breitem Umfang. Bis in die 1960er Jahre ändert sich diese Situation nicht wesentlich. Zwar gibt es vereinzelt Dissertationen zum Lehren und Lernen fremder Sprachen (s. Überblick in Sauer 2006), doch findet der wissenschaftliche Diskurs primär nicht auf akademischer Ebene statt, sondern vielmehr bei Fachtagungen und in fachdidaktischen Fachzeitschriften, wie z. B. Die Neueren Sprachen, Neusprachliche Mitteilungen, Praxis des neusprachlichen Unterrichts, die weiterhin für den Unterricht in den beiden Sprachen Englisch und Französisch publizieren1 und zumeist, so scheint es, von Sprachlehrern selbst herausgegeben, verfasst und gelesen werden. Der Französisch- und Englischunterricht ist in der ersten Hälfte des 20. Jahrhunderts an Gymnasien und Mittelschulen etabliert; an den Universitäten sind fast überall Professuren für die neuphilologischen Fächer eingerichtet, deren Schwerpunkt jedoch weiterhin in der Literaturwissenschaft und der Historischen Sprachwissenschaft liegt. Erst mit dem Ausbau des Unterrichts in einer modernen Fremdsprache, meist Englisch, für Schülerinnen und Schüler aller Schulformen in Folge des Hamburger Abkommens von 1964 und der dadurch erforderlichen Einrichtung von fremdsprachendidaktischen Professuren an den Pädagogischen Hochschulen, an denen damals die Lehrkräfte für die nicht-gymnasialen Schulformen ausgebildet wurden, gewinnt die Fachdidaktik Englisch (vgl. dazu Doff 2008) und in Folge dessen auch die Fachdidaktik der romanischen Sprachen an wissenschaftlicher Statur und Forschungskapazität. Gleichzeitig erhöht sich die Zahl der Lehrkräfte erheblich, die für den Sprachunterricht ausgebildet werden müssen und die als potentielle Rezipienten von Forschungsergebnissen – während der Ausbildung oder im Beruf – zu sehen sind. Im Bereich Deutsch als Fremdsprache erfolgt die Entwicklung mit einiger Verzögerung und mit anderen Vorzeichen, denn ein wissenschaftliches Fach etabliert sich in der alten Bundesrepublik erst Ende der 1970er Jahre in unterschiedlich enger Verzahnung mit der Germanistik und mit unterschiedlichen Denominationen (vgl. Götze et al. 2010: 19 – 20). Für Deutsch als Fremdsprache geht die Forschungstätigkeit weniger von den praktizierenden Lehrkräften aus als von den Wissenschaftlerinnen und Wissenschaftlern. Als „Motor der Entwicklung im Wissenschaftsbereich“ identifizieren Götze et al. (2010: 20 – 21) ab 1971 den „Arbeitskreis Deutsch als Fremdsprache“ (AKDaF; heute „Fachverband Deutsch als Fremdsprache“ FaDaF). In den 1970er Jahren entstehen die einschlägigen DaF-Publikationsorgane wie etwa die Zeitschrift „Zielsprache Deutsch“ (ab 1970) und das „Jahrbuch Deutsch als Fremdsprache“ (ab 1975) (vgl. Götze et al. 2010: 21).

1 Die fremdsprachendidaktische Zeitschrift der DDR, „Fremdsprachenunterricht“, enthielt auch Artikel zum Russischunterricht.

26

3. Forschungstraditionen der Fremdsprachendidaktik

Die hier geschilderte Entwicklung verlief in der DDR etwas anders. So gab es am Leipziger Herder-Institut, an dem seit 1956 Deutschunterricht für ausländische Studierende erteilt wurde, bereits ab 1968 eine Professur im Fach Deutsch als Fremdsprache. Die fremdsprachendidaktische Forschung in der DDR orientierte sich weitgehend an der russischen (Psycho-) Linguistik und Pädagogik, während die westdeutsche eher in die USA blickte. Vor der Wiedervereinigung 1989 wollte oder konnte man sich in BRD und DDR gegenseitig kaum in den jeweiligen Forschungsbemühungen wahrnehmen (so Hüllen 1991), wenngleich es etwa im Bereich der fachhistorischen Forschung bereits in den 1980er Jahren auf der Basis der Initiative einzelner Forscher zu einem wissenschaftlichen Austausch kam (etwa Strauß 1985). Die große Steigerung der Forschungsaktivität ab den späten 1960er Jahren zeigt sich eindrücklich an der wachsenden Zahl von Dissertationen und Habilitationsschriften, die in der Fremdsprachendidaktik angefertigt werden. Während Sauer (2006) für den Zeitraum von 1900 bis 1962 lediglich 19 einschlägige Arbeiten aufführt, sind es von 1968 bis zum Jahr 2000 insgesamt 355. Ab dem Jahr 2000 erfolgen in Deutschland jährlich im Durchschnitt zwischen 15 und 25 Promotionen und Habilitationen in den fremdsprachendidaktischen Fächern.2 Selbstverständlich sind unter den Promovenden und Habilitanden auch Lehrkräfte der Sprachenfächer; genaue Zahlen dazu gibt es jedoch nicht. Dennoch hat sich somit in den letzten 50 Jahren die Forschungstätigkeit eindeutig aus den Schulen in die Universitäten und Hochschulen verlagert, zumal für Lehrkräfte im Schuldienst eine Promotion keine die Laufbahn direkt fördernde Qualifikation darstellt. Es ist heutzutage nicht in jedem Bundesland zwingend erforderlich, dass bei der Besetzung von fachdidaktischen Professuren in den Sprachenfächern Schul- oder Unterrichtspraxis nachgewiesen wird. Insofern hat sich auch in dieser Hinsicht die Forschung aus der Schule heraus verlagert. Was wird erforscht?

Fremdsprachendidaktische Forschung dient dem Ziel, die Komponenten des Sprachunterrichts, dessen Ziele, Inhalte und Methoden, aber auch die Prozesse der Sprachaneignung und die Kontexte, in denen Lehren und Lernen realisiert wird, besser zu verstehen und in Folge effektiver zu gestalten. Wenn man also das Didaktische Dreieck zum Ausgangspunkt einer Analyse nimmt, dann bestehen für die fremdsprachendidaktische Forschung die vier Optionen, ihren Fokus stärker auf die Lern(er)perspektive, die Lehr(er)perspektive oder die Inhaltsperspektive zu legen; als weiterer Fokus kommt der Kontext hinzu, in dem Lehren bzw. Lernen verortet ist. Betrachtet man die jüngere deutsche Tradition der fremdsprachendidaktischen Forschung in den vergangenen gut einhundert Jahren, so kann man Phasen unterscheiden, in denen einzelne der genannten Schwerpunkte im Zentrum der Forschung standen, während andere kaum Beachtung fanden. Zu jeder Zeit gibt es Bereiche des Sprachenlernens, die als weitgehend geklärt oder unstrittig gelten, so dass sie als wenig ertragreich für die Forschung 2 Zu Zahl und Titeln der Dissertationen und Habilitationen in den fremdsprachendidaktischen Fächern wird in Fortführung der Chronologie von Sauer (2006) eine jährlich aktualisierte Liste auf der Webseite der DGFF geführt, die auf Meldungen von Nachwuchswissenschaftler_innen und Professor_innen basiert. (http://www.dgff.de/de/qualifikationsarbeiten.html 18. 11. 2015 )

3. Forschungstraditionen der Fremdsprachendidaktik

27

betrachtet werden. Gegenwärtig ist das etwa für die generelle Ausrichtung des Fremdsprachenunterrichts auf funktionale Sprachfertigkeiten der Fall. Dass dies ein wichtiges Ziel ist, wird theoretisch kaum hinterfragt; die Mehrzahl der Forschungsvorhaben konzentriert sich vielmehr auf Fragen nach dem optimalen Gestalten von Lernumgebungen, Aufgaben oder Leistungsmessung innerhalb des akzeptierten Konzepts. Solange fremdsprachendidaktische Forschung vor allem durch die Sprachlehrer selbst erfolgte, standen Fragen nach der methodischen Gestaltung des Unterrichts und nach der Eignung bestimmter Texte und Materialien im Vordergrund. Die Lern(er)perspektive findet sich in dieser Zeit nur sehr selten. So scheint zwar die kleine Monographie von Felix Franke (1884) aufgrund ihres Titels „Die praktische Spracherlernung auf Grund der Psychologie und der Physiologie der Sprache dargestellt“ einen Fokus auf das Lernen zu besitzen, doch geht es Franke vielmehr um die möglichst einsprachige, aus seiner Sicht natürliche Methode, um Sprachen zu vermitteln. Die nützliche und leider fast vergessene Bibliographie von Kohl/Schröder (1972), die Veröffentlichungen zur englischen Fachdidaktik und deren Bezugsfelder bis 1971 aufführt, liefert für die Zeit bis 1960 unter der Rubrik „Der Fremdsprachen-Lernprozess“ (Kohl/Schröder 1972: 62 – 65) wesentlich weniger Einträge als ab 1960. Insgesamt enthält die Bibliographie zu dem Themenbereich des Fremdsprachen Lernens nur einen geringen Bruchteil an Publikationen im Vergleich zu denen, die unter „Methodische Grundfragen“ zusammengestellt sind (Kohl/Schröder 1972: 191 – 286) und die sich also mit der Lehrperspektive befassen. Auch wenn viele der in dieser Bibliographie genannten Aufsätze und Monographien nicht zur Forschungsliteratur im engeren Sinne gezählt werden können, so werden doch zeitlich bedingte Schwerpunktsetzungen sehr deutlich. Die Lern(er)perspektive wird ab den 1970er Jahren im Zuge der Etablierung der Sprachlehrforschung sehr viel stärker berücksichtigt. Dieser Blickwechsel wird durch internationale Entwicklungen gestützt, die der Second Language Acquisition Research zur Blüte verhelfen (Königs 2003). Applied Linguistics emanzipiert sich von der Sprachwissenschaft und behauptet sich seitdem als eigener Forschungszweig. Zahlreiche Verbands- und Zeitschriftengründungen im englischsprachigen Raum in den 1960er und 1970er Jahren tragen dem Rechnung. So gibt es die „Association Internationale de Linguistique Appliquée“ (AILA) seit 1964, die „British Association for Applied Linguistics“ (BAAL) seit 1967, die „American Association for Applied Linguistics“ (AAAL) seit 1977. Organisationen und Zeitschriften, die sich auf Forschung zur Vermittlung einer Sprache konzentrieren, sind in der Regel jüngeren Datums als diejenigen, die sich mit mehreren lebenden Sprachen befassen, was die fortlaufende Differenzierung des gesamten Feldes in Einzeldisziplinen in Deutschland und im internationalen Raum widerspiegelt. So gibt es die Vereinigung der Fremdsprachenlehrer in den USA, die „National Federation of Modern Language Teachers“, und ihre Zeitschrift „Modern Language Journal“ bereits seit 1916. Nach dem zweiten Weltkrieg werden wichtige internationale englischdidaktische Zeitschriften gegründet: „English Language Teaching“ (heute: „English Language Teaching Journal“) besteht seit 1946, „TESOL Quarterly“ seit dem Jahr 1966, „Language Teaching“ seit 1967. Auch in Deutschland differenziert sich das Angebot an einzelsprachigen Zeitschriften erst ab den 1960er Jahren aus: „Englisch“ wird 1965 gegründet, „Englisch-Amerikanische Studien (EASt)“ im Jahr 1979.

28

3. Forschungstraditionen der Fremdsprachendidaktik

Man kann wahrscheinlich davon ausgehen, dass Dissertationen und Habilitationsschriften im Großen und Ganzen mit den jeweils aktuellen Forschungstrends konform gehen. Blickt man auf die Themen der seit dem Jahr 1843 abgeschlossenen Arbeiten (Sauer 2006 und DGFF-Webseite, siehe Fußnote 2), dann lassen sich anhand der Titel die thematischen Schwerpunkte zumindest oberflächlich feststellen. Tabelle 1 gibt einen Überblick. Thematischer Schwerpunkt

1843 bis 1970

1971 bis 1999

2000 bis 2014

N = 29

N = 336

N = 282

Inhalte

1

24 %

123

37 %

86

30 %

Lehren, Lehrer

10

34 %

58

17 %

56

20 %

Lernen, Lerner

7

3 %

127

38 %

124

44 %

Kontext

12

41 %

28

8 %

16

6 %

Tabelle 1: Themenbereiche fremdsprachendidaktischer Dissertationen und Habilitationen 1843 bis 2014

Selbstverständlich kann eine solche Übersicht nur einen groben Trend verdeutlichen, denn zum ersten sind vermutlich nicht alle Dissertationen und Habilitationen in den benutzten Übersichten erfasst, zum zweiten lässt sich das Themengebiet aus den Titeln nicht immer eindeutig bestimmen und zum dritten umgreifen sehr viele Arbeiten vermutlich mehr als nur einen Schwerpunkt. Dennoch ist die Verlagerung von der Lehrperspektive zur Lernperspektive klar zu erkennen. Studien zu den Inhalten des Fremdsprachenunterrichts haben sich in ihrem Anteil nicht wesentlich verändert, was vor allem darauf zurückzuführen ist, dass literatur- und kulturdidaktische Untersuchungen in der deutschen Fremdsprachendidaktik – anders als etwa im englischsprachigen Raum – seit jeher einen hohen Stellenwert besitzen. Wie wird geforscht?

Wenn man von den drei großen Kategorien von Forschung ausgeht, die auch in diesem Handbuch unterschieden werden, nämlich historische, theoretische und empirische Forschung, dann haben sich die Gewichte in den letzten drei Jahrzehnten stark zur empirischen Forschung hin verschoben. Vor gut hundert Jahren gab es zwar auch schon erste empirische Studien zum Fremdsprachenunterricht, der Großteil der Forschung war jedoch eher theoretisch-konzeptuell und historisch-beschreibend ausgerichtet. Es ist nicht verwunderlich, dass die historische Forschung in den letzten Jahrzehnten des 19. und bis in die späten 1960er Jahre bedeutsam war, denn jede neue Disziplin sucht im Prozess der Selbstdefinition und Selbstfindung nach historischen Wurzeln und Belegen für eine eventuell schon vorhandene Tradition. Während im englischsprachigen Raum mit der Entwicklung der Applied Linguistics nach einer theoretischen Konsolidierungsphase in den 1960er Jahren (z. B. Halliday/McIntosh/ Strevens 1964) in den letzten Jahrzehnten vor allem empirische Forschungsvorhaben durchgeführt wurden, blieben die Traditionen der theoretisch-konzeptuellen und der historischen

3. Forschungstraditionen der Fremdsprachendidaktik

29

Forschung im deutschsprachigen und europäischen Raum stärker lebendig, wenngleich auch bei uns die empirische Forschung heute den Hauptanteil aller Vorhaben in der Fremdsprachendidaktik ausmacht. Es ist insofern interessant, dass erst jetzt in der englischsprachigen Welt der Fremdsprachendidaktik die Forderung nach systematischer historischer Forschung geäußert wird (Smith 2016), die etwa auch in der Romania schon lange im Rahmen von SIHFLES (Société Internationale pour l’Histoire du Français Langue étrangère ou seconde) oder CIRSIL (Centro Interuniversitario di Ricerca sulla Storia degli Insegnamenti Linguistici) erfolgt. Die Einflüsse auf die fremdsprachendidaktische Forschung in Deutschland stammen aus unterschiedlichen Feldern. Durch die feste Verankerung der Fremdsprachendidaktik in der Lehrerbildung ergeben sich Schnittmengen mit der bildungswissenschaftlichen Forschung und der in anderen Fachdidaktiken. Der Aufstieg der empirischen Bildungsforschung hat auch in der Fremdsprachendidaktik Wirkungen entfaltet. Zudem geschieht Forschung heute stärker als noch vor einigen Jahrzehnten in größeren Verbünden; das DESI-Projekt (Deutsch-Englisch-Schülerleistungen-International) ist dafür ein Beispiel. Eine größere Kooperation gibt es auch über die Grenzen einzelner Fachdidaktiken hinweg; ab 2015 ist dies häufiger im Rahmen von Verbundprojekten der Qualitätsoffensive Lehrerbildung (gefördert durch das BMBF) der Fall. Für die fremdsprachendidaktische Forschung sind auch die Initiativen und Aktivitäten des IQB (Institut zur Qualitätsentwicklung im Bildungswesen) von großer Bedeutung, mit denen etwa eine Entwicklung und empirische Validierung von fachspezifischen Aufgaben erfolgt, die in den Schulen die Erreichung der Bildungsstandards fördern und überprüfen sollen. Fremdsprachendidaktische Forschung war auch schon früher mit Innovationen und Entwicklungen im Schulwesen eng verknüpft. Insbesondere die Einführung des Englischunterrichts in der Grundschule führte in den 1970er (Doyé/Lüttge 1977) und frühen 1990er Jahren (Kahl/Knebler 1996) zu wichtigen Forschungsarbeiten. Wie geforscht wird und geforscht werden kann, hängt nicht zuletzt auch mit den vorhandenen Infrastrukturen zusammen. Die fremdsprachendidaktische Forschung hat vor allem von der Etablierung von Professuren in den letzten fünfzig Jahren profitiert, aber auch von der Einrichtung des DFG-Schwerpunkts „Sprachlehrforschung“ und der Graduiertenkollegs der DFG. Zwölf Jahre lang, von 1991 bis 2003, bestand das Graduiertenkolleg „Didaktik des Fremdverstehens“ an der Justus-Liebig-Universität Gießen und hat durch seine Absolvent_innen, von denen weit mehr als ein Dutzend erfolgreich die Wissenschaftler_innenlaufbahn eingeschlagen haben, die deutsche Forschungslandschaft der fremdsprachendidaktischen Fächer in den vergangenen zwanzig Jahren nachhaltig geprägt. Offenbar gehen eine intensive Nachwuchsförderung und ein bedeutsamer Forschungs-Output Hand in Hand, wie ein Blick in die Zusammenstellung von Sauer (2006) zeigt. Universitäten, an denen zahlreiche Dissertationen und Habilitationsschriften entstanden sind (vgl. Sauer 2006: 75 – 109) – etwa Gießen, Bielefeld, Hamburg, München und Berlin – können auch als forschungsstark angesehen werden, wenngleich nicht immer in allen fremdsprachendidaktischen Fächern. Der Blick zurück zeigt eine Reihe von parallel und sukzessive verlaufenen Entwicklungen sowie einige Konstanten. Die fremdsprachendidaktische Forschung hat sich in den letzten 130 Jahren von den Lehrern auf die Wissenschaftler_innen an Universitäten und Hochschulen verlagert. Neben die Inhalts- und Lehrperspektive ist zunehmend die Lernperspektive als

30

3. Forschungstraditionen der Fremdsprachendidaktik

Forschungsgegenstand getreten. Historische und theoretische Forschungsansätze haben zwar etwas an Bedeutung verloren, sind jedoch keineswegs obsolet. Diesen Verschiebungen im Fokus fremdsprachendidaktischer Forschungsaktivitäten stehen die Konstanten gegenüber, die sich etwa in den Forschungsfragen zeigen, von denen sich viele – zwar im jeweiligen Zeitraum anders formuliert und fokussiert – mit der Sinnhaftigkeit bestimmter Lehr-Lernziele oder der Wirksamkeit einzelner unterrichtlicher Maßnahmen befassen. Auch die Analyse von Lehr- oder Lernmaterialien ist ein immer wieder aufgegriffenes Forschungsthema. Der Blick in diese reiche Tradition lohnt sich auch heute und in Zukunft. ››  Literatur Breymann, Hermann (1895). Die neusprachliche Reform-Literatur 1876 – 1893. Eine bibliographischkritische Übersicht. Leipzig: Deichert. Breymann, Hermann (1900). Die neusprachliche Reform-Literatur 1894 – 1899. Eine bibliographischkritische Übersicht. Leipzig: Deichert. Comenius, Johann Amos (1643). Janua Linguarum Reserata. Danzig: Hünefeld. Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. München: Langenscheidt. Doyé, Peter/Lüttge, Dieter (1977). Untersuchungen zum Englischunterricht in der Grundschule. Bericht über das Braunschweiger Forschungsprojekt „Frühbeginn des Englischunterrichts“ FEU. Braunschweig: Westermann. Falkmann, Christian Friedrich (1839). Einige Bemerkungen über den Unterricht in den neuern Sprachen. Lemgo: Meyer. Finkenstaedt, Thomas (1983). Kleine Geschichte der Anglistik in Deutschland. Darmstadt: Wissenschaftliche Buchgesellschaft. Franke, Felix (1884). Die praktische Spracherelernung auf Grund der Psychologie und Physiologie der Sprache dargestellt. Heilbronn: Henninger. Germain, Claude (1993). Évolution de l’enseignement des langues: 5000 ans d’histoire. Paris: CLE international. Götze, Lutz/Helbig, Gerhard/Henrici, Gert/Krumm, Hans-Jürgen ( 2010). Die Strukturdebatte als Teil der Fachgeschichte. In: Krumm, Hans-Jürgen/Fandrych, Christian/Hufeisen, Britta/Riemer, Claudia (Hg.). Deutsch als Fremd- und Zweitsprache. Ein internationales Handbuch. 1. Halbband. Berlin: de Gruyter, 19 – 34. Halliday, M. A. K./Mclntosh, Angus/Strevens, Peter (1964). The Linguistic Sciences and Language Teaching. London: Longmans. Hüllen, Werner (1991). Honi soit qui mal y pense. Fremdsprachenforschung in Deutschland. Zeitschrift für Fremdsprachenforschung 2 (2), 4 – 15. Hüllen, Werner (2005). Kleine Geschichte des Fremdsprachenlernens. Berlin: Schmidt. Kahl, Peter W./Knebler, Ulrike (1996). Englisch in der Grundschule und dann? Evaluation des Hamburger Grundschulversuchs Englisch ab Klasse 3. Berlin: Cornelsen. Kelly, Louis G. (1969). 25 Centuries of Language Teaching. 500 BC – 1969. Rowley (Mass.): Newbury House. Klinghardt, Hermann (1888). Ein Jahr Erfahrungen mit der neuen Methode. Bericht über den Unterricht mit einer englischen Anfängerklasse im Schuljahr 1887/88. Zugleich eine Anleitung für jüngere Fachgenossen. Marburg: Elwert.

3.1 Historische Forschung

31

Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher und Unterrichtsmethoden. Münster: Nodus. Klippel, Friederike (2013). Die neusprachliche Reformbewegung im Unterrichtsalltag: Frühe Handlungsforschung. In: Klippel, Friederike/Kolb, Elisabeth/Sharp, Felicitas (Hg.). Schulsprachenpolitik und fremdsprachliche Unterrichtspraxis. Historische Schlaglichter zwischen 1800 und 1989. Münster: Waxmann, 125 – 138. Kohl, Norbert/Schröder, Konrad (1972). Bibliographie für das Studium der Anglistik III. Englische Fachdidaktik. 2 Bände. Frankfurt am Main: Athenäum. Königs, Frank (2003). Teaching and Learning Foreign Languages in Germany: a personal overview of developments in research. In: Language Teaching 36 (4), 235 – 251. Mager, Carl Wilhelm (1846). Die genetische Methode des schulmäßigen Unterrichts in fremden Sprachen und Litteraturen. 3. Bearb. Zürich: Meyer und Zeller. Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859 – 1931). Stuttgart: ibidem. Riedl, Michael (2005). Hermann Wilhelm Breymann (1843 – 1910) – Ein bayerischer Neuphilologe und Hochschulreformer. In: Hüllen, Werner/Klippel, Friederike (Hg.). Sprachen der Bildung – Bildung durch Sprachen im Deutschland des 18. und 19. Jahrhunderts. Wiesbaden: Harrassowitz, 229 – 246. Sauer, Helmut (2006). Dissertationen, Habilitationen und Kongresse zum Lehren und Lernen fremder Sprachen. Eine Dokumentation. Tübingen: Narr. Seidelmann, Christian Friedrich. (1724 / 1984). Tractatus Philosophico-Philologicus de Methodo Recte Tractandi Linguas Exoticas Speciatim Gallicam, Italicam et Anglicam. Facsimile und Übersetzung von Franz-Josef Zapp and Konrad Schröder 1984. Augsburg: Universität Augsburg. Smith, Richard (2016). Building ‚Applied Linguistics Historiography‘: Rationale, Scope, Methods. In: Applied Linguistics 37, 71 – 87. Strauß, W. H. (Hg.) (1985). 150 Jahre Methodik des Englischunterrichts als Wissenschaft und akademisches Lehrfach. Probleme und Entwicklungstendenzen in Vergangenheit und Gegenwart. Internationales Symposium aus Anlaß des 575-Gründungsjubiläums der Universität Leipzig am 25. und 26. Oktober 1984. Augsburg: Universität. Wheeler, Garon (2013). Language Teaching Through the Ages. New York und London: Routledge.

 Historische Forschung

3.1

Friederike Klippel

Die Beschäftigung mit der Geschichte von Fächern und Disziplinen hat in den Fachdidaktiken eine gewisse Tradition, wenngleich fachhistorische Forschung meist nur ein Minderheiteninteresse darstellt. Der Großteil gegenwärtiger Forschungstätigkeit in der Fremdsprachendidaktik befasst sich verständlicherweise mit Fragen, die aus der Gegenwart erwachsen oder die nahe Zukunft der Fachdidaktiken und ihres Praxisfelds betreffen und nimmt dazu vorliegende Forschungsergebnisse nur aus einem Zeitraum von wenigen Jahren zur Kenntnis. Bestenfalls findet man in den jeweiligen Einleitungen kurze Hinweise auf die Genese des Forschungsfeldes und einige seiner früheren Erträge. Weiter zurückliegende Forschung wird in der Regel bei dieser ‚Einleitungshistorie‘ kaum berücksichtigt; auch findet eine intensive Auseinandersetzung mit Traditionen, früheren theoretischen Überlegungen und gelebter Praxis meistens

32

3. Forschungstraditionen der Fremdsprachendidaktik

nicht statt. Dadurch gehen wichtige Erkenntnisse, weiterhin gültige theoretische Annahmen und Wissensbestände sowie auch das Wissen über erfolgreiche Praktiken verloren. Es bedarf daher auch der gezielten historischen Forschung. Historische Forschung in der Fremdsprachendidaktik kann insofern eine gewisse fachliche Kontinuität herstellen, ein Bewusstsein für fundamentale Fragen und Entwicklungen schaffen und zur Selbstreflexion und Selbstvergewisserung der Disziplin beitragen. In der rückblickenden Analyse von Entwicklungen, Theorien, Praktiken, Materialien und institutionellen sowie individuellen Lehr-/Lernsituationen besitzt die fachdidaktisch historische Forschung Schnittstellen zu historischer Bildungsforschung und zur Wissenschaftsgeschichte ebenso wie zu Ideen- und Kulturgeschichte, denn Lehren und Lernen war immer Teil kultureller Praktiken.

3.1.1 Die Anfänge fremdsprachendidaktischer historischer Forschung um 1900 Die Forschung zur Geschichte des Fremdsprachenlehrens und -lernens setzt in Deutschland gegen Ende des 19. Jahrhunderts ein. Das erklärt sich aus einer Reihe von Entwicklungen: Zum ersten etablierten sich im Verlauf des 19. Jahrhunderts sowohl die modernen Sprachen als Unterrichtsfächer an den höheren Schulen als auch die Neuphilologien als forschende und lehrerbildende Disziplinen an den Universitäten; zum zweiten entstand im Zuge dieser Konsolidierungen eine selbstbewusste, gebildete und wissenschaftlich interessierte Lehrerschaft, deren forschende Neugier sich auch auf die historischen Wurzeln des eigenen Tuns richteten. Zum dritten gab es mit den ab 1824 jährlich zu erstellenden Schulprogrammen, die jeweils auch einen wissenschaftlichen Beitrag enthielten (s. Klippel 1994: 302) und den gegen Ende des 19. Jahrhunderts zunehmend verbreiteten pädagogischen Lexika und Handbüchern (z. B. Rein 1895) sowie der steigenden Zahl an pädagogischen und neuphilologischen Zeitschriften zahlreiche Möglichkeiten zur Publikation historischer Arbeiten. Das Interesse dieser frühen historischen Arbeiten richtete sich zum ersten auf die Darstellung der Entwicklung des Unterrichts in den modernen Fremdsprachen in früheren Jahrhunderten im Allgemeinen (Lehmann 1904, Boerner/Stiehler 1906), in bestimmten Regionen (z. B. Ehrhart 1890 zu Württemberg), an bestimmten Institutionen (z. B. zu Berliner Handelsschulen Gilow 1906, zur Universität Gießen Behrens 1907), im Hinblick auf bestimmte Lehr/ Lernmaterialien (zu Comenius siehe Liese 1904, zu Johann König siehe Driedger 1907, zu Grammatiken siehe Horn 1911) oder auf die Vermittlung einzelner Sprachen, wie des Französischen (Dorfeld 1892, Streuber 1914, Huth 1905) oder Englischen (Pariselle 1895, Junker 1904). Für die gegenwärtige historische Forschung liefern diese frühen Schriften, denen aus heutiger Perspektive natürlich in gewisser Weise auch der Status historischer Quellen zukommt, aufschlussreiche Einblicke in die damalige Sicht auf die Vergangenheit, die von den Diskursen ihrer Entstehungszeit – etwa im Sinne der Positionierung im Hinblick auf die Neusprachenreform – geprägt ist. Wichtiger für die heutige Forschung sind diese Veröffentlichungen jedoch

3.1 Historische Forschung

33

als Belege zu den Quellen früherer Jahrhunderte, von denen viele die Weltkriege und deren Zerstörungen nicht überdauert haben. Es ist für die heutige Forschung zudem ein großer Vorteil, dass die Fremdsprachendidaktiker der Wende vom 19. zum 20. Jh nicht nur eigene historische Untersuchungen durchgeführt haben, sondern auch die Publikationen ihrer Zeit akribisch recherchiert und als bibliographische Hilfsmittel zusammengestellt haben. Eine besondere Position nimmt dabei die von Hermann Breymann über einen längeren Zeitraum publizierte Bibliographie zur neusprachlichen Reformliteratur (Breymann 1895, 1900; Breymann/Steinmüller 1905, 1909) ein, die die Beiträge der Neusprachenreformer und ihrer Gegner nicht nur bibliographisch aufführt, sondern auch kommentiert, so dass der Diskurs im Kontext seiner Zeit aus der Sicht des Bibliographen abgebildet wird, der weder ein radikaler Reformer noch ein Reformgegner war. Eine bedeutsame Rolle spielen auch die ab der Mitte des 19. Jahrhunderts erscheinenden Enzyklopädien zum Studium der neueren Sprachen, in denen zahlreiche Hinweise auf Lehrwerke, Literatur, Zeitschriften, einschlägige zeitgenössische Veröffentlichungen und den jeweiligen Kenntnisstand zu einzelnen Bereichen der Sprachen und ihrer Vermittlung zu finden sind (siehe etwa Schmitz 1859, Wendt 1893).

3.1.2 Fremdsprachendidaktische historische Forschung nach 1945 Nach der ersten Blüte der historischen Forschung zum Fremdsprachenunterricht um 1900 gibt es für die Zeit bis zum Ende des zweiten Weltkriegs nur ein größeres Werk, das auch heute noch nicht überholt ist, nämlich Wilhelm Aehles Untersuchung zum frühen Englischunterricht insbesondere an den Ritterakademien (Aehle 1938). Man kann eventuell davon ausgehen, dass die durch die nationalsozialistische Schulpolitik vorgenommene Aufwertung des Englischen gegenüber dem bis dahin klar dominierenden Französisch die Erforschung der Anfänge des Englischunterrichts in Deutschland motiviert hat. Wie schwierig sich damals die historische Forschung aufgrund der Rahmenbedingungen gestaltete, erkennt man an Aehles Vermutung, dass sich wohl kein Englischbuch aus dem 18. Jahrhundert mehr auffinden lasse, wenn selbst die Bibliothek des traditionsreichen Gymnasiums zum Grauen Kloster in Berlin kein Exemplar des Ende des 18. Jahrhunderts an der Schule verwendeten Buches von Gedike mehr besitze (siehe Aehle 1938: 222 – 223). Heute bestehen aufgrund des hervorragend vernetzten und leicht digital zugänglichen Bibliotheks- und Archivwesens wesentlich bessere Voraussetzungen für die historische Forschung und auch zahlreiche Lehrwerke des 18. Jahrhunderts sind noch vorhanden (siehe Klippel 1994, Turner 1978). In den 1960er Jahren setzte die historische Forschung zum Lehren und Lernen von Sprachen wieder ein und stellt bis heute einen stetigen, wenngleich geringen Anteil aller Forschungsarbeiten im Feld der Fremdsprachendidaktiken, wie man aus der Chronologie bei Sauer (2006) ersehen kann. Vier Dissertationen aus den 1960er Jahren zeigen zum einen die nun gefestigte Vorrangstellung des Englischen, denn sowohl Sauer (1968, zum Englischunterricht in der Volksschule) als auch Schröder (1969, zum Englischunterricht an den Universitäten bis 1850) befassen sich ausschließlich mit der Vermittlung des Englischen, während

34

3. Forschungstraditionen der Fremdsprachendidaktik

Flechsig (1962) und Rülcker (1969) Entwicklungen der neusprachlichen Bildung und des neusprachlichen Unterrichts über längere Zeiträume untersuchen. Aus Konrad Schröders Beschäftigung mit der Geschichte des Sprachenlernens an Universitäten im deutschsprachigen Raum erwuchs eine überaus fruchtbare und ertragreiche Tätigkeit als Bibliograph und Chronist, deren Ergebnis zahlreiche nützliche Nachschlagewerke zu Lehrbüchern, Lernorten und Sprachenlehrenden vergangener Jahrhunderte sind (etwa Schröder 1975, Schröder 1980 – 1985, Schröder 1987 – 1999, Glück/Schröder 2007). Es ist in der Tat ein Kennzeichen der historischen Forschung des letzten Drittels des 20. Jahrhunderts, dass die Erschließung und Aufarbeitung der Vergangenheit in zahlreichen Bibliographien und Quellensammlungen ihren Niederschlag findet, die bestimmte Felder kartieren und in Folge anderen Forschern als Arbeitsmittel zur Verfügung stehen (z. B. Flechsig 1965 und Hüllen 1979 mit Primärquellen, von Walter 1977 zu Schulprogrammschriften, Christ/Rang 1985 zu Lehrplänen, Macht 1986 – 1990 zu Lehrbüchern; neuerdings die Arbeiten von Helmut Glück und anderen in der Reihe „Fremdsprachen in Geschichte und Gegenwart“). Somit sind die Voraussetzungen für historische Forschung am Ende des 20. und zu Beginn des 21. Jahrhunderts sehr viel besser als jemals zuvor. Der leichtere Zugriff auf die Quellen mag dazu beigetragen haben, dass ab den 1980er Jahren die Forschungsfragen spezifischer und/oder die untersuchten Zeiträume kürzer werden. Dabei geraten zunehmend auch zeitgeschichtliche Entwicklungen in den Blick, wie etwa die Zeit der Kulturkunde (Mihm 1972), die des Nationalsozialismus (Lehberger 1986 zum Englischunterricht, Hausmann 2000 zur Romanistik bzw. Hausmann 2003 zu Anglistik und Amerikanistik an den Universitäten), die Nachkriegszeit (Ruisz 2014), die Zeit zwischen 1945 und 1989 (Doff 2008) oder die Epoche des kommunikativen Fremdsprachenunterrichts (Kolb 2013). Zugleich verengt sich der Fokus der einzelnen Arbeiten auf spezifische Fragestellungen: so analysiert Franz (2005) die speziell für deutsche Auswanderer nach Nordamerika veröffentlichten Sprachführer im 19. Jahrhundert; Ostermeier (2012) untersucht die Debatte um die Sprachenfolge an höheren Schulen im 19. Jahrhundert und Schleich (2015) stellt auf breiter Quellenbasis die Anfänge des internationalen Schülerbriefwechsels vor dem ersten Weltkrieg dar. Das 19. Jahrhundert spielt zu Recht eine wichtige Rolle in der fremdsprachendidaktischen historischen Forschung, denn in dieser Zeit wurden wesentliche Grundlagen für den modernen Sprachunterricht in institutioneller (Lehrpläne, Stundentafeln), materieller (Schulbücher, Materialien, Medien), personeller (Lehrer) und wissenschaftlicher (Lehrerbildung, Forschung) Hinsicht gelegt. Nicht alle dieser Aspekte wurden bisher gleichermaßen untersucht. So wissen wir Näheres nur über wenige wichtige Aktanden dieser Zeit – etwa über V. A. Huber und S. Imanuel (Haas 1990) oder Julius Ostendorf (Ostermeier 2012) – ; viele wichtige Persönlichkeiten, wie etwa Ludwig Herrig oder Carl Mager, jedoch harren noch darauf, in ihrem Wirken und ihren Werken näher erforscht zu werden. Die Entstehung neuphilologischer Lehrstühle an den Universitäten ist gut dokumentiert und analysiert (z. B. Haenicke 1979, Finkenstaedt 1983, Christmann 1985), doch wurde bislang die Lehrerbildung nur punktuell einbezogen (Haenicke 1982). Die mit dem Fremdsprachenunterricht verknüpften Bildungsvorstellungen und außersprachlichen, kulturellen Inhalte untersuchen Flechsig (1962) und Raddatz (1977). Einzelne Forschungsarbeiten zu dieser Epoche widmen sich der Entwicklung von Medien (z. B. Schilder 1977, Reinfried 1992) sowie Lehr- und Lesebüchern (Diehl 1975, Bode 1980,

3.1 Historische Forschung

35

Niederländer 1981, Klippel 1994); dabei wird die Methode der historischen Lehrbuchanalyse zunehmend verfeinert. Schwierig ist es, aus historischer Sicht etwas zu den konkreten Lernbedingungen in den Schulen der Vergangenheit und den Lernenden selbst herauszufinden. Selbstverständlich gehen alle Untersuchungen vom „Normalfall“ aus; für das 19. Jahrhundert sind das die höheren Schulen, die Knaben vorbehalten waren. Die wegweisende Studie von Sabine Doff (2002) zum Fremdsprachenlernen von und Fremdsprachenunterricht für Mädchen im 19. Jahrhundert liefert Einsichten in ein anderes, aus heutiger Sicht moderneres Konzept von Sprachenlernen. In Kubanek-German (2001) wird die Ideengeschichte des Fremdsprachenunterrichts für jüngere Kinder aufgearbeitet. Die Lernenden im privaten oder schulischen Umfeld sind immer Ziel des methodischen Bemühens des Sprachmeisters oder Sprachlehrers. Die Frage nach der richtigen, der besten, der effektivsten, der natürlichsten Methode der Sprachvermittlung hat nicht nur die Sprachlehrer aller Zeiten beschäftigt, sie ist auch in der historischen Forschung sehr präsent. Neben Dokumentationen (Macht 1986 – 1990) und Überblicksdarstellungen zur Methodenentwicklung (Apelt 1991, Klippel 1994) finden sich auch Untersuchungen zur Rolle der Muttersprache (Butzkamm 1973). Alle diese Untersuchungen stammen aus dem 20. Jahrhundert, und es ist bemerkenswert, dass gerade in jüngerer Zeit keine historischen Arbeiten zu fremdsprachenunterrichtsmethodischen Fragen mehr entstanden sind. Zu den historischen fremdsprachendidaktischen Forschungsfeldern zählt auch die Geschichte des Deutschunterrichts in anderen Ländern (z. B. Wegner 1999, Eder 2006) und die Geschichte des Unterrichts in anderen als den gängigen Schulfremdsprachen. Auch wenn es angesichts der zahlreichen historischen Untersuchungen aus gut einhundert Jahren und der großartigen Synthesen von Hüllen (2005) und Kuhfuß (2013) so scheinen mag, als lägen Erkenntnisse für alle Epochen und Aspekte der Geschichte des Sprachenlernens und -lehrens der unterschiedlichen Sprachen vor, gibt es doch weiterhin viele weiße Flecken auf der Landkarte der Vergangenheit.

3.1.3 Forschungsdesiderata und forschungsmethodische Entwicklungen Nimmt man das Didaktische Dreieck mit seinen drei „Ecken“ Lehrer-Lerner-Stoff als Ausgangspunkt, dann fehlen historische Untersuchungen zu Lehrerbildung und Lehrerverhalten, wenngleich letzteres natürlich nur sehr schwer zu rekonstruieren ist. Dass die Frage nach der Entwicklung von Unterrichtsmethoden, die ja gerade im 20. Jahrhundert viele Wandlungen erfahren haben, bislang keine Aufmerksamkeit erfahren hat, wurde bereits erwähnt. Aber auch die konkreten Verkörperungen von Methoden, nämlich Lehrmaterialien und Handbücher für den Unterricht, wurden bisher nur punktuell aus historischer Perspektive untersucht. Die Geschichte der Medien ist noch nicht bis in die Gegenwart fortgeschrieben worden. Im Hinblick auf die Lernenden existiert keine Sozialgeschichte der Fremdsprachenlerner, deren altersmäßige und soziale Zusammensetzung sich insbesondere im 20. Jahrhundert stark verändert hat. Auch ein Überblick über die Entwicklung der Sprachlerntheorien und deren

36

3. Forschungstraditionen der Fremdsprachendidaktik

Rezeption in der Unterrichtspraxis wäre wünschenwert. Zu den Unterrichtsinhalten und Curricula liegen erste Arbeiten vor (z. B. Kolb 2013). Zusätzlich zu diesen breit gefassten, bisher kaum oder gar nicht bearbeiteten Feldern gibt es eine Vielzahl von regionalen, lokalen oder gar individuellen Forschungsfragen, deren Aufarbeitung sich lohnen würde. In den vergangenen drei Jahrzehnten hat sich die historische fremdsprachendidaktische Forschung in Anlehnung an die aktuellen Ansätze in der allgemein-historischen und der bildungshistorischen Forschung methodisch weiterentwickelt. Verfahren der Quellenkritik und der Diskursanalyse (s. Kap. 5.3.1 Analyse historischer Quellen) und deren Reflexion sind ebenso selbstverständlich geworden wie der Gang in die Archive (z. B. Ruisz 2014) und der Blick über die nationalen Grenzen (z. B. Kolb 2103). Es ist heute unabdingbar, den historischen Entstehungskontext in die Analyse einzubeziehen und neben der Entwicklung im Bildungssystem auch politische, wirtschaftliche, soziale und technische Fortschritte der Zeit zu betrachten, die das Interesse an und die Vermittlung von bestimmten Sprachen stark beeinflussten (so beispielhaft in Schleich 2015). Des Weiteren hat sich in den jüngeren Arbeiten zur Geschichte des Fremdsprachenlernens und -lehrens eine größere Sensibilität gegenüber dem historischen Sprachgebrauch entwickelt (s. Kap. 5.2.1 und 5.3.1), so dass in der Vergangenheit verwendete Begrifflichkeiten nicht ohne weiteres als identisch mit heutigen gleichlautenden Konzepten angesehen, sondern vielmehr konzeptuell analysiert werden. Fremdsprachendidaktische historische Forschung hat sich insofern als eigenständiger Forschungszweig auch in methodologischer Hinsicht etabliert. ››  Literatur Aehle, Wilhelm (1938). Die Anfänge des Unterrichts in der englischen Sprache besonders auf den Ritterakademien. Hamburg: Riegel. Apelt, Walter (1991). Lehren und Lernen fremder Sprachen. Grundorientierungen und Methoden in historischer Sicht. Berlin: Volk und Wissen. Behrens, Dietrich (1907). Zur Geschichte des neusprachlichen Unterrichts an der Universität Gießen. In: Universität Gießen (Hrsg.) (1907). Die Universität Gießen von 1607 bis 1907. Festschrift zur dritten Jahrhundertfeier. Zweiter Band. Gießen: Töpelmann, 329 – 356. Bode, Hans (1980). Die Textinhalte in den Grundschen Französischlehrbüchern. Eine fachdidaktische Untersuchung von Lesestoffen französischer Sprachlehrbücher für höhere Schulen in Deutschland zwischen 1913 und 1969. Frankfurt/Main: Lang. Boerner, Otto /Stiehler, Ernst (1906). Zur Geschichte der neueren Sprachen. In: Neue Jahrbücher für das klassische Altertum, Geschichte und deutsche Literatur und für Pädagogik 18, 334 – 351, 392 – 412, 459 – 471. Breymann, Hermann (1895). Die neusprachliche Reformliteratur von 1876 bis 1893. Eine bibliographisch-kritische Übersicht. Leipzig : Deichert. Breymann, Hermann (1900). Die neusprachliche Reformliteratur. Ergänzungsheft für den Zeitraum von 1894 bis 1899. Leipzig: Deichert. Breymann, Hermann/Steinmüller, Georg (1905). Die neusprachliche Reformliteratur. Ergänzungsheft für den Zeitraum von 1896 bis 1904. Leipzig: Deichert. Breymann, Hermann/Steinmüller, Georg (1909). Die neusprachliche Reformliteratur. Ergänzungsheft für den Zeitraum von 1904 bis 1909. Leipzig: Deichert.

3.1 Historische Forschung

37

Butzkamm, Wolfgang (1973). Aufgeklärte Einsprachigkeit. Zur Entdogmatisierung der Methode im Fremdsprachenunterricht. Heidelberg: Quelle & Meyer. Christ, Herbert/Rang, Hans-Joachim (Hg.) (1985). Fremdsprachenunterricht unter staatlicher Verwaltung 1700 bis 1945. Eine Dokumentation amtlicher Richtlinien und Verordnungen. 7 Bände. Tübingen: Narr. Christmann, Hans Helmut (1985). Romanistik und Anglistik an der deutschen Universität im 19. Jahrhundert. Mainz: Mainzer Akademie der Wissenschaften. Diehl, Erika (1975). Deutsche Literatur im französichen Deutschlesebuch 1870 – 1970. Ein Beitrag zur literarischen Kanonbildung. Wiebaden: Athenaion. Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für Mädchen im 19. Jahrhundert. München: Langenscheidt-Longman. Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. Konzeptuelle Genese einer Wissenschaft im Dialog von Theorie und Praxis. München: Langenscheidt. Dorfeld, Karl (1892). Beiträge zur Geschichte des französischen Unterrichts in Deutschland. In: Beilage zum Programm des Großherzoglichen Gymnasiums in Gießen. Driedger, Otto (1907). Johann Königs (John King’s) deutsch-englische Grammatiken und ihre späteren Bearbeitungen (1706 – 1802). Versuch einer kritischen Behandlung. Diss. phil. Marburg. Eder, Ulrike (2006). „Auf die mehrere Ausbreitung der teutschen Sprache soll fürgedacht warden.“ Deutsch als Fremd- und Zweitsprache im Unterrichtssystem der Donaumonarchie zur Regierungszeit Maria Theresias und Josephs II. Innsbruck: Studien Verlag. Ehrhart, o.V. (1890). Geschichte des fremdsprachlichen Unterrichts in Württemberg. In: KorrespondenzBlatt für die Gelehrten- und Realschulen Württembergs 37, 281 – 308. Finkenstaedt, Thomas (1983). Kleine Geschichte der Anglistik in Deutschland. Darmstadt: Wissenschaftliche Buchgesellschaft. Flechsig, Karl-Heinz (1962). Die Entwicklung des Verständnisses der neusprachlichen Bildung in Deutschland. Diss. phil. Göttingen. Flechsig, Karl-Heinz (Hg.) (1965). Neusprachlicher Unterricht I. Weinheim: Beltz. Franz, Jan (2005). Englischlernen für Amerika! Sprachführer für deutsche Auswanderer im 19. Jahrhundert. München: Langenscheidt. Gilow, Hermann (1906). Das Berliner Handelsschulwesen des 18. Jahrhunderts im Zusammenhange mit den pädagogischen Bestrebungen seiner Zeit dargestellt. Berlin: Hofmann. Glück, Helmut/Schröder, Konrad (2007). Deutschlernen in den polnischen Ländern vom 15. Jahrhundert bis 1918. Eine teilkommentierte Bibliographie. Wiesbaden: Harrassowitz. Haas, Renate (1990). V. A. Huber, S. Imanuel und die Formationsphase der deutschen Anglistik. Frankfurt/Main: Lang. Haenicke, Gunta (1979). Zur Geschichte der Anglistik an deutschsprachigen Universitäten 1850 – 1925. Augsburg: Universität Augsburg. Haenicke, Gunta (1982). Zur Geschichte des Faches Englisch in den Prüfungsordnungen für das Höhere Lehramt 1831 – 1942. Augsburg: Universität Augsburg. Hausmann, Frank-Rutger (2000). Vom Strudel der Ereignisse verschlungen. Deutsche Romanistik im Dritten Reich. Frankfurt/Main: Klostermann. Hausmann, Frank-Rutger (2003). Anglistik und Amerikanistik im „Dritten Reich“. Frankfurt/Main: Klostermann. Horn, Jacob (1911). Das englische Verbum nach den Zeugnissen von Grammatikern des 17. und 18. Jahrhunderts. Diss. phil. Gießen. Hüllen, Werner (Hg.) (1979). Didaktik des Englischunterrichts. Darmstadt: Wissenschaftliche Buchgesellschaft. Hüllen, Werner (2005). Kleine Geschichte des Fremdsprachenlernens. Berlin: Schmidt.

38

3. Forschungstraditionen der Fremdsprachendidaktik

Huth, G. (1905). Geschichte von Unterrichtsgegenständen. Französisch. In: Mitteilungen der Gesellschaft für deutsche Erziehungs- und Schulgeschichte, 15, 327 – 333. Junker, H. P. (1904). Englischer Unterricht, geschichtlicher Abriß. In: Rein, Wilhelm (Hg.) Enzyklopädisches Handbuch der Pädagogik. 2. Aufl. Langensalza: Beyer & Mann, 406 – 421. Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher und Unterrichtsmethoden. Münster: Nodus. Kolb, Elisabeth (2013). Kultur im Englischunterricht: Deutschland, Frankreich und Schweden im Vergleich (1975 – 2011). Heidelberg: Carl Winter. Kubanek-German, Angelika (2001). Kindgemäßer Fremdsprachenunterricht. Band 1: Ideengeschichte. Münster: Waxmann. Kuhfuß, Walter (2013). Eine Kulturgeschichte des Französischunterrichts in der frühen Neuzeit. Französischlernen am Fürstenhof, auf dem Marktplatz und in der Schule in Deutschland. Göttingen: Vandenhoeck & Ruprecht. Lehberger, Reiner (1986). Englischunterricht im Nationalsozialismus. Tübingen: Stauffenburg. Lehmann, Alwin (1904). Der neusprachliche Unterricht im 17. und 18. Jahrhundert, insbesondere seine Methode im Lichte der Reform der Neuzeit. In: Jahresbericht der Annenschule zu Dresden-Altstadt. Liese, Ernst (1904). Des J. A. Comenius Methodus Linguarum Novissima. Inhalt und Würdigung. Bonn: Carl Georgi. Macht, Konrad (1986 – 1990). Methodengeschichte des Englischunterrichts. 3 Bände. Augsburg: Universität Augsburg. Mihm, Emil (1972). Die Krise der neusprachlichen Didaktik. Eine systeminterne Ortsbestimmung. Frankfurt/Main: Hirschgraben. Niederländer, Helmut (1981). Französische Schulgrammatiken und schulgrammatisches Denken in Deutschland von 1850 bis 1950. Ein Beitrag zur Lehrwerkanalyse. Frankfurt/Main: Lang. Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859 – 1931). Ein historischer Diskurs. Stuttgart: ibidem-Verlag. Pariselle, o.V. (1895). Englischer Unterricht, geschichtlicher Abriß. In: Rein, Wilhelm (Hg.). Encyklopädisches Handbuch der Pädagogik. Langensalza: 834 – 838. Raddatz, Volker (1977). Englandkunde im Wandel deutscher Erziehungsziele 1886 – 1945. Kronberg/ Ts.: Scriptor. Rein, Wilhelm (Hg.) (1895). Encyklopädisches Handbuch der Pädagogik. Langensalza: Beyer. Reinfried, Marcus (1992). Das Bild im Fremdsprachenunterricht. Eine Geschichte der visuellen Medien am Beispiel des Französischunterrichts. Tübingen: Narr. Ruisz, Dorottya (2014). Umerziehung durch Englischunterricht? US-amerikanische Reeducation-Politik, neuphilologische Orientierungsdebatte und bildungspolitische Umsetzung im nachkriegszeitlichen Bayern (1945 – 1955). Münster: Waxmann. Rülcker (1969). Der Neusprachenunterricht an höheren Schulen. Frankfurt/Main: Diesterweg. Sauer, Helmut (1968). Fremdsprachen in der Volksschule. Untersuchungen zur Begründung des Englischunterrichts für alle. Hannover: Schroedel. Sauer, Helmut (2006). Dissertationen, Habilitationen und Kongresse zum Lehren und Lernen fremder Sprachen. Eine Dokumentation. Tübingen: Narr. Schilder, Hanno (1977). Medien im neusprachlichen Unterricht seit 1880. Eine Grundlegung der Anschauungsmethoden und der auditiven Methode unter entwicklungsgeschichtlichem Aspekt. Kronberg/Ts.: Scriptor. Schleich, Marlis (2015). Geschichte des internationalen Schülerbriefwechsels. Entstehung und Entwicklung im historischen Kontext von den Anfängen bis zum Ersten Weltkrieg. Münster: Waxmann. Schmitz, Bernhard (1859). Encyklopädie des philologischen Studiums der neueren Sprachen. Greifswald: Koch.

3.2 Theoretische Forschung

39

Schröder, Konrad (1969). Die Entwicklung des englischen Unterrichts an deutschsprachigen Universitäten bis zum Jahre 1850. Ratingen: Henn. Schröder, Konrad (1975) Lehrwerke für den Englischunterricht im deutschsprachigen Raum 1665 – 1900. Darmstadt: Wissenschaftliche Buchgesellschaft. Schröder, Konrad (1980 – 1985). Linguarum Recentium Annales. Der Unterricht in den modernen europäischen Sprachen im deutschsprachigen Raum. 4 Bände. Augsburg: Universität Augsburg. Schröder, Konrad (1987 – 1999). Biographisches und bibliographisches Lexikon der Fremdsprachenlehrer des deutschsprachigen Raumes, Spätmittelalter bis 1800. 6 Bände. Augsburg: Universität Augsburg. Streuber, Albert (1914). Beiträge zur Geschichte des französischen Unterrichts im 16. bis 18. Jahrhundert. Teil 1: Die Entwicklung der Methoden im allgemeinen und das Ziel der Konversation im besonderen. Berlin: Emil Ebering. Turner, John Frank (1978). German Pedagogic Grammars of English 1665 – 1750. The Nature and Value of Their Evidence of Language Usage in Early Modern English. Diss. Braunschweig. Walter, Anton von (1977). Bibliographie der Programmschriften zum Englischunterricht. Augsburg: Universität Augsburg. Wegner, Anke (1999). 100 Jahre Deutsch als Fremdsprache in Frankreich und in England. Eine vergleichende Studie von Methoden, Inhalten und Zielen. München: iudicium. Wendt, Otto (1893). Encyklopädie des englischen Unterrichts. Methodik und Hilfsmittel für Studierende und Lehrer der englischen Sprache mit Rücksicht auf die Anforderungen der Praxis. Hannover: List, Meyer.

 Theoretische Forschung

3.2

Michael K. Legutke

Neben der historischen und der empirischen Forschung zählt die theoretische Forschung zu den bedeutsamen Arbeitsbereichen der Fremdsprachendidaktik. Theoretische Forschung zeichnet sich dadurch aus, dass sie bemüht ist, den Gegenstandsbereich Lehren und Lernen von Fremdsprachen und seine verschiedenen Teilbereiche zu bestimmen, zu systematisieren, Konzepte zu entwickeln bzw. diese einer kritischen Reflexion zu unterziehen und/oder angesichts gesellschaftlicher Entwicklungen und neuerer Forschungsergebnisse weiter zu entwickeln. Theoretische Forschung ordnet empirische Befunde, systematisiert Phänomene des Gegenstandsbereiches, entwirft handlungsleitende Modelle und erörtert deren Grenzen und Reichweite. Sie gewinnt Erkenntnisse in Auseinandersetzung sowohl mit der Theoriebildung innerhalb der Fremdsprachendidaktik als auch mit Konzeptbildungen und Erkenntnissen affiner Wissenschaftsdisziplinen (wie der Spracherwerbsforschung, der Bildungswissenschaften, der Sozialwissenschaften, der Linguistik und der Kultur- und Medienwissenschaften). Theoretische Arbeiten sind nicht gleichzusetzen mit der Literaturanalyse, die als Voraussetzung jeder Art wissenschaftlicher Forschung zu gelten hat, sondern schließen diese ein (vgl. Kapitel 6.3 Literaturüberblick und Forschungsstand). Eine Möglichkeit der Systematisierung theoretischer Forschung bieten ihre unterschiedlichen Funktionen. Diese sollen zunächst unter Berücksichtigung exemplarischer Arbeiten skizziert werden. Danach werden vier Meilensteine theoretischer Forschung in der Fremd-

40

3. Forschungstraditionen der Fremdsprachendidaktik

sprachendidaktik vorgestellt, die aus unterschiedlichen Fachkulturen stammen und Arbeitsweisen solcher Forschung verdeutlichen. Das besondere Verhältnis theoretischer Forschung zur Empirie soll in einem letzten Abschnitt angesprochen werden.

3.2.1 Typen und Funktionen theoretischer Forschung Die folgende Zusammenstellung erhebt nicht den Anspruch auf Vollständigkeit, sondern bietet die Möglichkeit der Orientierung in einem weiten Feld teils sehr unterschiedlicher Forschungsaktivitäten. Die zur Verdeutlichung herangezogenen Arbeiten haben exemplarischen Charakter. Soweit als möglich wurden Studien zu unterschiedlichen Fremdsprachen berücksichtigt. Die zur Bezeichnung von Typen und Funktionen theoretischer Forschung gewählten Begriffe sind nicht trennscharf. Auch wenn deshalb Mehrfacheinordnungen möglich sind, bieten Typen und Funktionen eher die Möglichkeit der Systematisierung und Orientierung als ein Versuch, theoretische Forschung über ihren Bezug zu affinen Wissenschaftsdisziplinen zu bündeln. Selbst Arbeiten, die vorwiegend einer Disziplin verpflichtet scheinen, wie die folgenden Beispiele und die Meilensteine zeigen, belegen, dass die Faktorenkomplexion fremdsprachlichen Lehrens und Lernens fachdidaktische Forschungsgegenstände nur durch interdisziplinäre Zugriffe analysierbar macht. 1 Entwicklung umfassender Konzepte der Sprachvermittlung

In der Konsolidierungsphase der Fremdsprachendidaktik in den 70er und 80er Jahren des letzten Jahrhunderts (vgl. Doff 2008) stellten theoretische Forschungen den Hauptanteil der Forschungsaktivitäten dar. Sie beförderten die Konturierung des Faches und seiner Teildisziplinen. Für die Sprachdidaktik wären als Beispiele zu nennen: Werner Hüllens Didaktische Analysen zum Verhältnis von Linguistik und Englischunterricht (Hüllen 1971, 1979, s. u. „Linguistik und Englischunterricht“), Harald Gutschows schulstufenspezifische Ausdifferenzierung der Englischdidaktik für die Hauptschule (Gutschow 1964, 1973), Hans-Eberhard Piephos Arbeiten zur Kommunikativen Kompetenz als übergeordnetem Lernziel des Englischunterrichts (Piepho 1974) oder Helmut Heuers lerntheoretische Fundierung des Englischunterrichts (Heuer 1976). Die Literaturdidaktik wurde als eigenständige Teildisziplin konturiert durch die Arbeiten Lothar Bredellas (1976), der die Hermeneutik und Rezeptionsästhetik für die Fremdsprachendidaktik nutzbar machte (s. u. „Das Verstehen literarischer Texte“). Konzepte einer politisch engagierten Landeskundedidaktik legte Gisela BaumgratzGangl vor (1990, s. u. „Persönlichkeitsentwicklung und Fremdsprachenerwerb“). Für den Komplex Literatur- und Kulturdidaktik wären auch die an einer skeptischen Hermeneutik orientierten Arbeiten Hans Hunfelds zu nennen (z. B. Hunfeld 2004). Beispielhaft für den hier zusammengefassten Typus theoretischer Forschung kann ferner die Kritische Methodik des Englischunterrichts von Rudolf Nissen (1974) gelten.

3.2 Theoretische Forschung

41

2 Entwicklung und/oder kritische Analyse tragender Konstrukte der Fremdsprachendidaktik

Arbeiten dieses Typus fokussieren zentrale Konstrukte der Fremdsprachendidaktik, deren Herausbildung interdisziplinär verortet und deren Grenzen und Möglichkeiten für unterschiedliche Praxisfelder kritisch erörtert werden, beispielsweise für die Materialentwicklung, die Unterrichtsgestaltung, die Aufgabenkonstruktion oder die Lehrerbildung. Drei Beispiele sollen diesen Typus verdeutlichen. (1) Mit seiner Studie Aufgeklärte Einsprachigkeit. Zur Entdogmatisierung der Methode im Fremdsprachenunterricht, ebenfalls situiert in der Konstituierungsphase der Fremdsprachendidaktik, positioniert sich Wolfgang Butzkamm (1973) in der Debatte um die Einsprachigkeitsproblematik, indem er Befunde der Bilingualismusforschung, der Lernpsychologie und der Spracherwerbsforschung auswertet und zu einer Unterrichtmethodik verdichtet, die dem gezielten Gebrauch der Muttersprache eine angemessen funktionale Verwendung im Unterricht zuweist.3 (2) Für Daniela Caspari ist Kreativität im Umgang mit literarischen Texten im Fremdsprachenunterricht Untersuchungsgegenstand (Caspari 1994). Sie arbeitet zentrale Aspekte der psychologischen Kreativitätsforschung und der rezeptionstheoretischen Lesetheorien heraus, die sie vergleichend analysiert, um auf diesem Hintergrund das kreative Potenzial fremdsprachlicher literarischer Texte zu erfassen, das in unterrichtlichen Lehr- und Lernprozessen genutzt werden kann. Caspari wertet dabei ein breites Spektrum dokumentierten Unterrichts und problematisierender fachdidaktischer Arbeiten aus. (3) Aus der Perspektive des Deutschen als Fremdsprache skizziert Swantje Ehlers (1998) in ihrer Arbeit Lesetheorie und fremdsprachliche Lesepraxis einen theoretischen Entwurf für eine fremdsprachliche Lesedidaktik („Ansätze einer fremdsprachlichen Leselehre“), die der Eigengesetzlichkeit fremdsprachlichen Lesens Rechnung tragen soll. Sie wertet dazu lesetheoretische Positionen zum Lesen in der Erst- und Zweisprache aus, bündelt entwicklungs- und kognitionspsychologische Forschung, um dann die Besonderheiten fremdsprachlichen Lesens zu fokussieren. Dabei setzt sie sich kritisch mit der empirischen Leseforschung in der Fremdsprachendidaktik auseinander. Dem hier angesprochenen Typus wären auch Arbeiten zuzuordnen wie die von Corinna Koch (2013) und Elena Bellavia (2007), die das fremdsprachendidaktische Potenzial der Metapher untersuchen. Bellavia fokussiert Deutsch als Fremdsprache, Koch die Sprachen Englisch, Französisch und Spanisch. Die Theoriebildung ermöglicht es beiden Autorinnen, ein Instrument zur kritischen Analyse und Optimierung von Lehrmaterial zu entwickeln. 3 Modellbildung

Die Entwicklung und kritische Erörterung von Modellen gehört zu den zentralen Aufgaben theoretischer Forschung, denn Modelle haben die Funktion, komplexe Zusammenhänge und Abläufe verständlich zu machen – sie sind ein notwendiger Teil von Theoriebildung, die deshalb auch ohne Modelle nicht vorstellbar ist. Insofern arbeiten alle bisher erwähnten Beispiele mit mehr oder weniger expliziten Modellen. Wenn hier dennoch ein eigener Typus theoretischer Arbeiten markiert wird, so geschieht dies im Anschluss an die Tradition didaktischer 3 Zur wissenschaftsgeschichtlichen Einordnung der Arbeiten von Butzkamm und zu seinem Beitrag zur Konstitution der Fremdsprachendidaktik als Wissenschaft vgl. Doff 2008: 216 – 17.

42

3. Forschungstraditionen der Fremdsprachendidaktik

Modelle, die den Anspruch erheben, handlungsleitend zu sein. Im Kontext fachdidaktischer Forschung spielen Modellbildungen eine bedeutende Rolle (Jank & Meyer 2002). Für das Lehren und Lernen von Fremdsprachen repräsentieren zwei Arbeiten den hier gemeinten Typus: (1) Ausgehend vom kulturwissenschaftlichen Konzept der Intertextualität modelliert Wolfgang Hallet (2002) das fremdsprachliche Klassenzimmer als hybrid-kulturellen Handlungsraum für die diskursive Aushandlung und die Erprobung gesellschaftlicher Partizipationskompetenz. Das Modell ist handlungsleitend für die Konzeption von Lehr- und Lernmaterial (s. u. „Das Spiel der Texte und Kulturen“). (2) In der Referenzarbeit Autonomes Fremdsprachenlernen: Komponenten, Kompetenzen, Strategien entwickelt, validiert und erprobt Maria Tassinari ein „dynamisches Autonomiemodell“ mit seinen Deskriptoren. Das Modell liefert die Basis für Checklisten zur Reflexion eigener Lernprozesse von Studierenden (Tassinari 2010). 4 Analyse und Auswahl von Lehr- und Lernmaterial

Der Komplex Analyse von Lehr- und Lernmaterial lässt sich nach zwei Gruppen von Arbeiten ordnen, nämlich nach solchen, die sich mit einem Lehrwerksystem oder Materialien einer Fremdsprache befassen und solchen, die lehrwerkvergleichend mehrere Fremdsprachen berücksichtigen. Innerhalb der beiden Gruppen kann nach den Bezugstheorien unterschieden werden, aus denen die Analysekriterien entwickelt werden. So bestimmen beispielsweise lerntheoretische Überlegungen die Studie von Dietmar Rösler (1984) zum Spannungsverhältnis von Lernerbezug und vorgefertigtem Lehrmaterial für Deutsch als Fremdsprache. Politik- und sozialwissenschaftlich orientiert ist die Analyse von Angelika Kubanek-German (1987): Dritte Welt im Englischlehrbuch der Bundesrepublik Deutschland. Aspekte der Darstellung und Vermittlung. Methodengeschichtliche Kriterien bestimmen die Studie von Lilli-Marlen Brill (2005), die am Beispiel von Lehrwerken zu Deutsch als Fremdsprache die These überprüft, ob Lehrwerkgenerationen als Ausdruck bestimmter Vermittlungsmethoden gelten müssen. Als prägnante Vertreter theoriegeleiteter, vergleichender Lehrwerkanalyse für mehrere Sprachen können die Studie von Dagmar Abendroth-Timmer (1998) und Christian Thimme (1996) gelten. Abendroth-Timmer vergleicht Lehrwerke zu den Sprachen Deutsch, Französisch und Russisch in Hinblick auf landeskundliches und interkulturelles Lernen. Für Thimme ist die Behandlung landeskundlicher, insbesondere geschichtlicher Aspekte in Lehrwerken für Deutsch und Französisch Forschungsgegenstand. Für den Komplex der Auswahl von Lehr- und Lernmaterial können stellvertretend zwei literaturdidaktische Studien herangezogen werden, die das didaktische Potenzial literarischer Genres untersuchen. Annette Werner (1993) rekonstruiert Kontinuität und Diskontinuität des fachdidaktischen Diskurses zur Behandlung von Lyrik im Englischunterricht, indem sie sowohl pädagogische und didaktische Begründungen seit 1945 als auch Lyriksammlungen, Handreichungen und Rahmenpläne untersucht. Forschungsgegenstand der Arbeit von Nancy Grimm (2009) sind Romane der indigenen Gegenwartsliteratur als Textgrundlage für die Förderung des Fremdverstehens im fortgeschrittenen Englischunterricht. Die Mehrzahl der für diesen Typus erwähnten Arbeiten bedienen sich hermeneutisch-textanalytischer Verfahren.

3.2 Theoretische Forschung

43

5 Phänomenologische Arbeiten

Dieser Typus versammelt Arbeiten, die Phänomene aus dem Gegenstandsbereich Lehren und Lernen fremder Sprachen zusammenstellen, systematisch beschreiben, ihre Behandlung in theoretischen Diskursen nachzeichnen und die Relevanz für die unterrichtliche Praxis ausloten. Zwei repräsentative Beispiele sollen ihn verdeutlichen: (1) Die Studie von Friederike Klippel (1980) ist dem Spielphänomen gewidmet. Nach der Aufarbeitung spieltheoretischer und spielpädagogischer Grundlagen sichtet die Verfasserin die Behandlung des Lernspiels in der fachdidaktischen Literatur (Lexika, didaktisch-methodische Handbücher, Richtlinien) und rekonstruiert seine Stellung im fremdsprachlichen Unterricht aus Erfahrungsberichten und Spielesammlungen. Ansätze einer Theorie des Lernspiels liefern die Grundlagen für die Erörterung des bewussten und integrativen Einsatzes des Lernspiels im Englischunterricht. Eine Klassifizierung von Lernspielen, verbunden mit einem Instrument zu ihrer didaktischen Aufarbeitung, sind u. a. Ergebnisse dieser Studie. (2) Das Offenheits-Paradigma bestimmt die Studie von Engelbert Thaler (2008), dessen vielfältige Wurzeln zunächst aufgedeckt werden (u. a. philosophisch-erkenntnistheoretische, anthropologisch-pädagogische, fremdsprachendidaktisch-methodische). Das Paradigma dient dazu, unterschiedliche Lernarrangements zu erfassen und zu analysieren sowie im Kontext der fachdidaktischen und bezugswissenschaftlichen Diskussion zu verorten. Thalers Studie bietet damit einen theoriegeleiteten, deskriptiven Methodenvergleich. 6 Bildungswissenschaftliche und bildungspolitische Positionierungen

Auch hier sollen zwei Studien diesen Typus verdeutlichen. (1) Lutz Küster (2003) liefert eine bezugs- und bildungswissenschaftliche sowie eine bildungspolitische Positionierung fremdsprachendidaktischer Kernkonzepte, die mit Bezug auf empirische Aspekte des Anfangsunterrichts im Fach Französisch sowie auf den fortgeschrittenen Unterricht mit literarischen Texten verdeutlicht werden. Der Autor versteht diese Bezüge als „Verknüpfungen und Vertiefungen“ zu den von ihm behandelten Grundsatzfragen der Didaktik des Fremdverstehens, der Literaturdidaktik, der Theorien interkultureller, ästhetischer und medialer Bildung. (2) Das zweite Beispiel fokussiert den bilingualen Sachfachunterricht. Nach einer problem- und ideengeschichtlichen Rekonstruktion des Theoriediskurses unternimmt Stephan Breidbach (2007) eine bildungstheoretisch und bildungswissenschaftlich fundierte Theoriebildung zum bilingualen Sachfachunterricht, die als Basis für die Weiterentwicklung seiner Didaktik dienen soll. Auch die schon erwähnte und unten im Detail vorgestellte Arbeit von BaumgratzGangl (1990, s. u.) ließe sich hier verorten. 7 Vergleichende Überblicksforschungen

Vergleichende Überblicksforschungen bezeichnen Arbeiten, deren Forschungsgegenstand vorhandene Studien, wissenschaftliche Publikationen und Theorieansätze sowie Lehr- und Lernmaterialien sind, die unter einer spezifischen Fragestellung systematisch analysiert werden; existente Forschung wird unter einer neuen Perspektive kritisch gesichtet. Vergleichende Überblicksforschungen sind von Metaanalysen zu unterscheiden, da erstere weder neue

44

3. Forschungstraditionen der Fremdsprachendidaktik

Analysen mit bestehenden Daten noch neue Datenerhebungen durchführen.4 Beispiele für diesen Typus theoretischer Forschung liefern die Studien von Barbara Schmenk Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs (2008) und die Referenzarbeit Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtsspezifischer Lerner- und Lernbilder in der Fremdsprachenforschung (2002, 2009). Die interdisziplinäre Anlage, Fragen der Textauswahl und ihrer Systematisierung sowie die qualitativ-interpretative Herangehensweise als auch forschungsmethodologische Implikationen vergleichender Überblicksforschungen werden dort transparent dargestellt (vgl. Schmenk 2002, 2009).

3.2.2 Meilensteine theoretischer Forschung Vier Meilensteine theoretischer Forschung in der Fremdsprachendidaktik werden nun vorgestellt, die zum einen aus unterschiedlichen Fachkulturen und Teilbereichen der Disziplin stammen, zum anderen einige Funktionen und Arbeitsweisen solcher Forschung verdeutlichen und die sich schließlich durch ihre Bezugnahme auf affine Wissenschaftsdisziplinen zumindest teilweise unterscheiden. 1 „Das Verstehen literarischer Texte“: Literaturwissenschaft und Rezeptionsästhetik

Ein prägnantes Beispiel theoretischer Forschung liefern die Arbeiten Lothar Bredellas, die zur Konstitution der Literaturdidaktik als noch junger, eigenständiger Teildisziplin der Fremdsprachendidaktik beitrugen (Bredella 1976, 1980, 2002, 2004). Bredella erörtert die Bedeutung literarischer Texte für das Lernen von Fremdsprachen aus der Perspektive des Verstehensprozesses, den er vor allem in kritischer Auseinandersetzung mit den literaturtheoretischen Positionen des New Criticism entfaltet. Nicht die textimmanente Interpretation des für sich selbst sprechenden Kunstwerks, sondern die Sinnbildung durch Lesen und Deuten rücken in den Vordergrund. Bezugspunkte sind die philosophische Hermeneutik (Gadamer) und die literaturwissenschaftliche Rezeptionsästhetik der Konstanzer Schule (Iser, Jauß). Mit der expliziten Fokussierung auf den Vorgang der Rezeption zeigt Bredella, dass literarische Texte eine authentische Kommunikationssituation im Klassenzimmer schaffen helfen, weil sie Lernende zu Deutungen und Stellungnahmen herausfordern. Indem Bredella dem Vorverständnis, den subjektiven Wahrnehmungen und Reaktionen der Lernenden im Rezeptionsvorgang ein eigenes Gewicht gegenüber dem Text zuweist, eröffnet er ein Feld für pädagogisch bedeutungsvolles Handeln, für Lernerorientierung. Gleichzeitig betont er jedoch die besondere Gestalt des literarischen Textes. Aus diesem Grund weist er subjektivistische Rezeptionsmodelle, die die Zeichenhaftigkeit und formale Gestalt des Textes ausblenden und seine besondere Qualität damit entwerten (Fish, Bleich), entschieden zurück (Bredella 2002). Bredella versteht deshalb auch den Verstehensprozess als dialogisch, als Interaktion zwischen Leser und Text, die unter den institutionellen Bedingungen von Lehren und Lernen immer sozialer Natur ist und die Lehrkraft als Dialogpartner einschließt. 4 Zur Bestimmung von Metaanalysen vgl. Kapitel 4.5: „Der zweite Blick: Metaanalysen und Replikation“. Eine knappe Einführung in den Komplex Metaanalysen liefern auch: Lueginger/Renger (2013).

3.2 Theoretische Forschung

45

Aus der Fokussierung auf den Verstehensprozess leitet Bredella zwei zentrale Aufgaben für die Literaturdidaktik ab. Zum einen geht es um die Auswahl herausfordernder und bedeutungsvoller literarischer Texte für den unterrichtlichen Diskurs, zum anderen um die Entwicklung und Erprobung angemessener Verfahren, die die Leser-Text-Interaktion im Klassenzimmer ermöglichen. Beiden Aufgaben stellt sich Bredella in seinen Arbeiten, indem er zahlreiche literarische Texte im Hinblick auf ihr Interaktionspotenzial exemplarisch deutet und unterrichtsnahe Handlungsoptionen skizziert. 2 „Das Spiel der Texte und Kulturen“: Kultur- und Textwissenschaft

Text- und diskurstheoretische Überlegungen, insbesondere eine Auseinandersetzung mit dem Konstrukt der Intertextualität, führen Hallet zur Modellierung des fremdsprachlichen Klassenzimmers als „hybriden“ Raum (Hallet 2002: 48), in dem „Texte und Diskurse aus verschiedenen kulturellen Sphären in ein wechselseitiges Zusammenspiel treten“ (ebd. 54). Fremdsprachenunterricht wird als eine eigenkulturelle Diskurssphäre markiert, als kultureller Handlungsraum, in dem vielfältige kulturelle Stimmen wahrnehmbar werden können, die den Lernenden Gelegenheit bieten, eigene Überzeugungen und Wahrnehmungsmuster zu erkennen, zu hinterfragen und möglicherweise zu modifizieren. Dialogische Aushandlungsprozesse unter Nutzung der Fremdsprache sind wesentliches Merkmal der unterrichtlichen Diskurssphäre, Lernende werden als (inter)kulturelle Aktanten (ebd. 34) und diskursive Mitspieler begriffen. Hallet erörtert das didaktische Potenzial von Intertextualität in doppelter Weise. Zum einen thematisiert er die Zusammenstellung von Materialien als Textensembles, zum anderen das intertextuelle Arbeiten und die Rolle lerneraktivierender Verfahren. Beide Perspektiven führen ihn zu einer Neubewertung von Materialentwicklung im weiteren Sinne und somit zu einer Neubestimmung der Aufgaben der Textdidaktik. Hallet konkretisiert sein Modell und dessen Implikationen für die Materialentwicklung auf der einen und die Strukturierung des Lern- und Begegnungsraums auf der anderen Seite durch verschiedene Unterrichtsmodelle und Unterrichtsreihen, die das Zusammenspiel von literarischen Schlüsseltexten als Teil komplexerer Textensembles und den diskursiven Zugriffen im Klassenzimmer weiter differenzieren. Die Möglichkeiten der Kontextualisierung literarischer Texte durch andere Textsorten sowie das Potential gattungstypologischen Arbeitens mit einer klaren Orientierung auf thematisch relevante Diskurse werden unterrichtsnah mit Beispielen erörtert. 3 „Persönlichkeitsentwicklung und Fremdsprachenerwerb“: Landeskundedidaktik

Gisela Baumgratz-Gangls Forschungsarbeit (1990) ist in den engagierten bildungspolitischen Diskussionen der 70er und 80er Jahren situiert, die auf die Expansion des europäischen Binnenmarktes folgte und der damit gegebenen größeren Mobilität seiner Bürger. Sie nimmt Bezug auf eine ganze Reihe deutsch-französischer Bildungsprojekte. Letztere galten sowohl der Entwicklung von Unterrichtskonzepten für den Französischunterricht der Sekundarstufe I und II, der Lehrerfortbildung durch erlebte Landeskunde und vor allem der Förderung deutsch-französischer Austauschaktivitäten, die von Korrespondenzprojekten über Studienfahrten bis hin zum Schüleraustausch reichten. Baumgratz-Gangl entwickelt einen theoriegeleiteten Zugriff auf diese Erfahrungen, ohne sie allerdings empirisch auszuwerten. Aus-

46

3. Forschungstraditionen der Fremdsprachendidaktik

gehend von der Annahme, dass der schulische Fremdsprachenunterricht einen „wichtigen Beitrag zur Verbesserung transnationaler und internationaler Kommunikation leisten“ kann, „wenn es gelingt, die Schüler für andere Menschen, ihre Gefühle, Gewohnheiten, Wünsche und Lebensbedingungen zu interessieren“ (ebd. 28), erörtert Baumgratz-Gangl Ergebnisse der Sozialisationsforschung, insbesondere psychosoziale Faktoren der Subjektkonstitution, um zu bestimmen, welche Persönlichkeitsentwicklung bei Schülerinnen und Schülern gefördert werden muss, damit sie befähigt werden, sowohl die Herausforderungen transkultureller Mobilität (etwa Erfahrungen der Fremdheit und Entfremdung) zu meistern, als auch die Chancen zum Lernen von und mit anderen selbstbewusst zu ergreifen. Der Tätigkeitstheorie von Galperin folgend skizziert Baumgratz-Gangl Dimensionen einer relationalen Sprach- und Landeskundedidaktik, die nicht primär das Ziel verfolgt, Wissen zu vermitteln, sondern auf die „Qualifizierung der Persönlichkeit für den zwischenmenschlichen Umgang mit Angehörigen der anderen Gesellschaft und Kultur, bzw. anderer Gesellschaften und Kulturen“ (ebd. 131) setzt. Das Gesamtarrangement des Unterrichts (das Ensemble von Themen, Texten und kommunikativen Situationen) berücksichtigt die persönlichen Erfahrungen der Lernenden; die Unterrichtsmethoden stärken ihre Risikobereitschaft und sensibilisieren für den Umgang mit Fremden. In Bamgratz-Gangls Lehr- und Lernkonzept spielen alle jene Situationen eine Schlüsselrolle, die einen kommunikativen Ernstfall involvieren: die Klassenkorrespondenz, das Auslandspraktikum und der Schüleraustausch. 4 „Linguistik und Englischunterricht“

Das zweibändige Werk Werner Hüllens Linguistik und Englischunterricht (Hüllen 1971, 1979) trägt den Untertitel „Didaktische Analysen“, die sich zum Ziel setzen, den fremdsprachlichen „Unterricht, wie er im praktischen Vollzug erfahren wird, durch theoretische Überlegungen konsistenter, verlässlicher, wohl auch besser und erfolgreicher zu machen“ (Hüllen 1971: 7). Kontext für Hüllens Arbeiten sind zum einen die bildungspolitischen Umwälzungen, die sich in der 1965 beschlossenen Einführung der ersten Fremdsprache für alle Kinder ab der 5. Klasse, also auch für die Hauptschüler, zeigten und deshalb neue Konzepte für das Lehren und Lernen von Fremdsprachen erforderlich machten, zum anderen die Theoriebildung in der Linguistik, insbesondere die Herausbildung der Angewandten Linguistik. Hüllen geht es um eine Klärung des Verhältnisses der verschiedenen Teilbereiche und Modelle der Sprachwissenschaft zu dem eigenständigen Handlungsbereich Fremdsprachenunterricht. Er erörtert didaktische Implikationen linguistischer Grundbegriffe (Sprache, Grammatik, Lexik, Semantik), diskutiert didaktische Leistungen linguistischer Modelle (Generative Transformationsgrammatik, Kontextualismus) und wendet sich dann vor allem den Implikationen der Pragmalinguistik zu, die zusammen mit der Fokussierung der Emanzipation als übergeordnetem Lernziel des Fremdsprachenunterrichts in der Phase der sogenannten Kommunikativen Wende die fachdidaktische Diskussion bestimmte. Zu welchen Ergebnissen linguistisch fundierte Planung von Englischunterricht führt und wie dabei Linguistik und Fachdidaktik zusammenwirken, wird für verschiedene Komplexe verdeutlicht (Passiv in einer didaktischen Grammatik, Nominalkomposita oder Ausspracheunterricht). Im Schlusskapitel des zweiten Bandes bilanziert Hüllen mit Rückblick auf mehr als ein Jahrzehnt Diskussion über das Verhältnis von Linguistik und Didaktik, dass die „hohen Er-

3.2 Theoretische Forschung

47

wartungen an eine didaktische Verwendbarkeit linguistischer Begriffe, Methoden und Erkenntnisse [. . .] zurückgenommen werden mussten“ (1976: 141) und dass eine direkte Übernahme linguistischer Erkenntnisse und Analyseverfahren für den Fremdsprachenunterricht seinen besonderen Bedingungen nicht Rechnung tragen kann. Es sei Aufgabe der Fremdsprachendidaktik, ihre Möglichkeiten als praxisorientierte Wissenschaft interdisziplinär zu verorten und von einer solchen Perspektive ihre Forschungspraxis und damit zugleich das Verhältnis von Linguistik und Didaktik zu bestimmen (1976: 151).

3.2.3 Theorie und Empirie Theoretische Forschung als Teil einer praxisorientierten Disziplin, einer Handlungswissenschaft, bezieht sich immer auch auf die Empirie, wie die hier erwähnten und skizzierten Beispiele zeigen. Ein solcher Bezug kann in mehrfacher Weise deutlich werden: Die Empirie kann diesen Studien entweder vorgelagert sein und geht als Bericht, als dokumentierte Erfahrung, als Erfahrung der Autorinnen und Autoren in die Überlegungen ein. Der Studie von Klippel zum Lernspiel vorgelagert waren „viele anregende englische „Spielstunden“ mit Hauptschülern unterschiedlicher Klassenstufen“ (Klippel 1980: 5); Hallets Textensembles (Hallet 2002) sind vor ihrer diskursiven Erörterung durch mehrjährige Erprobungen im eigenen Unterricht gegangen. Oder die Empirie ist den Studien nachgelagert und erscheint in der Form von Überprüfung oder Vergewisserung: Nach der umfassenden Bestimmung kreativer Verfahren im Umgang mit literarischen Texten befragt Caspari (1994) Berliner Französischlehrkräfte zum Einsatz und zur Bewertung eben dieser Verfahren. Ferner lassen Ergebnisse theoretischer Forschung die Empirie als anvisierte erscheinen. Sie manifestiert sich in Handlungsvorschlägen, Empfehlungen oder Angeboten von neuen Sichtweisen auf die Praxis, etwa in der Bestimmung und Begründung von Textauswahl und im Entwurf lerneraktivierender Aufgaben für zukünftigen Unterricht (Bredella 2002). Sie zeigt sich in der Konkretisierung intertextueller Unterrichtsmodelle (Hallet 2002), in Vorschlägen zur Nutzung transkultureller Begegnungen innerhalb und jenseits des Unterrichts (Baumgratz-Gangl 1990), in Ansätzen einer fremdsprachlichen Leselehre (Ehlers 1998) sowie im Erkennen und Auskundschaften von Spielräumen für Autonomie (Schmenk 2008). Dieser anvisierte Praxisbezug ist jedoch in keinem der Beispiele präskriptiv gemeint bzw. von dem Verständnis bestimmt, als zwingend aus der Theorie gewonnene Ableitungen für praktisches Handeln im Unterricht zu gelten. Die hier skizzierte theoretische Forschung versteht sich folglich auch nicht als Anwendungsdidaktik. Denn alle auf die Praxis bezogenen Erkenntnisse, zum Teil als Empfehlungen für das Handeln im Unterricht formuliert, bedürfen nicht nur der diskursiven Würdigung und Validierung derjenigen, die aus den unterschiedlichen Perspektiven ihrer jeweiligen Praxis (als Lehrende, als Verfasserinnen und Verfasser von Lehr- und Lernmaterial) auf solche Erkenntnisse zugreifen und dabei ihre Relevanz und Reichweite ausloten. Die Erkenntnisse verlangen auch nach empirischer Überprüfung. Ein besonderes Merkmal theoretischer Arbeiten besteht deshalb darin, dass sie Angebote zum Diskurs über zentrale Aspekte des Gegenstandsbereichs Lehren und Lernen von Fremdsprachen machen und zugleich Motor empirischer Forschung sein können.

48

3. Forschungstraditionen der Fremdsprachendidaktik

››  Literatur Abendroth-Timmer, Dagmar (1998). Der Blick auf das andere Land. Ein Vergleich der Perspektiven in Deutsch-, Französisch- und Russischlehrwerken. Tübingen: Narr. Baumgratz-Gangl, Gisela (1990). Persönlichkeitsentwicklung und Fremdsprachenerwerb: transnationale und transkulturelle Kommunikationsfähigkeit im Französischunterricht. Paderborn: Schöningh. Baumgratz-Gangl, Gisela (1993). Compéténce transculturelle et échanges éducatifs. Paris: Hachette. Bellavia, Elena (2007). Erfahrung, Imagination und Sprache. Die Bedeutung der Metaphern der Alltagssprache für das Fremdsprachenlernen am Beispiel der deutschen Präpositionen. Tübingen: Narr. Bredella, Lothar (1976). Einführung in die Literaturdidaktik. Stuttgart: Kohlhammer. Bredella, Lothar (1980). Das Verstehen literarischer Texte. Stuttgart: Kohlhammer. Bredella, Lothar (2002). Literarisches und interkulturelles Verstehen. Tübingen: Narr. Bredella, Lothar (2004). Grundlagen für eine rezeptionsästhetische Literaturdidaktik. In: Bredella, Lothar/Burwitz-Melzer, Eva (Hg.). Rezeptionsästhetische Literaturdidaktik mit Beispielen aus dem Fremdsprachenunterricht Englisch. Tübingen: Narr, 25 – 80. Breidbach, Stephan (2007). Bildung, Kultur, Wissenschaft. Reflexive Didaktik für den bilingualen Sachfachunterricht. Münster: Waxmann. Brill, Lilli-Marlen (2005). Lehrwerke, Lehrwerkgenerationen und die Methodendiskussion im Fach Deutsch als Fremdsprache. Aachen: Shaker. Butzkamm, Wolfgang (1973, 21978). Aufgeklärte Einsprachigkeit. Zur Entdogmatisierung der Methode im Fremdsprachenunterricht. Heidelberg: Quelle & Meyer. Casapri, Daniela (1994). Kreativität im Umgang mit literarischen Texten im Fremdsprachenunterricht. Theoretische Studien und unterrichtspraktische Erfahrungen. Frankfurt: Lang. Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. Konzeptuelle Genese einer Wissenschaft im Dialog von Theorie und Praxis. München: Langenscheidt. Ehlers, Swantje (1998). Lesetheorie und fremdsprachliche Lesepraxis aus der Perspektive des Deutschen als Fremdsprache. Tübingen: Narr. Grimm, Nancy (2009). Beyond the ‚Imaginary Indian‘: Zur Aushandlung von Stereotypen kultureller Identität. Perspektiven in/mit indigener Gegenwartsliteratur. Heidelberg: Winter. Gutschow, Harald (1964, 81973). Englisch an Hauptschulen. Probleme und Arbeitsformen. Berlin: Cornelsen. Hallet, Wolfgang (2002). Fremdsprachenunterricht als Spiel der Texte und Kulturen. Intertextualität als Paradigma einer kulturwissenschaftlichen Didaktik. Trier: WVT. Heuer, Helmut (1976). Lerntheorie des Englischunterrichts. Untersuchungen zur Analyse fremdsprachlicher Lernprozesse. Heidelberg: Quelle & Meyer. Hüllen, Werner (1971). Linguistik und Englischunterricht 1. Didaktische Analysen. Heidelberg: Quelle & Meyer. Hüllen, Werner (1976). Linguistik und Englischunterricht 2. Didaktische Analysen. Heidelberg: Quelle & Meyer. Hunfeld, Hans (2004). Fremdheit als Lernimpuls. Skeptische Hermeneutik, Normalität des Fremden, Fremdsprache Literatur. Meran: Alpha Beta Verlag. Jank, Werner/Meyer, Hilbert (112002). Didaktische Modelle. Buch didaktischer Landkarte. Berlin: Cornelsen. Klippel, Friederike (1980). Lernspiele im Englischunterricht. Mit 50 Spielvorschlägen. Paderborn: Schöningh. Koch, Corinna (2013). Metaphern im Fremdsprachenunterricht. Englisch. Französisch. Spanisch. Frankfurt: Lang.

3.3 Empirische Forschung

49

Kubanek-German, Angelika (1987). Dritte Welt im Englischlehrbuch der Bundesrepublik Deutschland. Aspekte der Darstellung und Vermittlung. Regensburg: Pustet. Küster, Lutz (2003). Plurale Bildung im Fremdsprachenunterricht. Ästhetisch-literarische und interkulturelle Aspekte von Bildung an Beispielen romanistischer Fachdidaktik. Frankfurt/M.: Lang. Lueginger, Elisabeth/Renger, Rudi (2013). Das weite Feld der Metaanalyse. Sekundär-, literatur- und metaanalytische Verfahren im Vergleich. Kommunikation.medien 2, 1 – 31 [www.journal.kommunikation-medien.at]. Nissen, Rudolf (1974). Kritische Methodik des Englischunterrichts. 1: Grundlegung. Heidelberg: Quelle & Meyer. Piepho, Hans-Eberhard (1974). Kommunikative Kompetenz als übergeordnetes Lernziel im Englischunterricht. Limburg: Frankonius-Verlag. Rösler, Dietmar (1984). Lernerbezug und Lehrmaterialien Deutsch als Fremdsprache. Heidelberg: Groos. Schmenk, Barbara (2002). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Stauffenberg. [Referenzarbeit]. Schmenk, Barbara (2008). Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs. Tübingen: Narr. Tassinari, Maria Giovanni (2010). Autonomes Fremdsprachenlernen. Konzepte, Kompetenzen, Strategien. Frankfurt: Lang. [Referenzarbeit] Thahler, Engelbert (2008). Offene Lernarrangements im Englischunterricht. Rekonstruktion, Konstruktion, Konkretion, Exemplifikation, Integration. München: Langenscheidt. Thimme, Christian (1996). Geschichte in Lehrwerken Deutsch als Fremdsprache und Französisch als Fremdsprache für Erwachsene. Ein deutsch-französischer Lehrbuchvergleich. Baltmannsweiler: Schneider Hohengehren. Werner, Annette (1993). Lyrik im Englischunterricht nach 1945. Die Entwicklung einer fachdidaktischen Debatte. Augsburg: Universität Augsburg (= Augsburger I & I Schriften, Bd. 67).

 Empirische Forschung

3.3

Karen Schramm

3.3.1 Begriffsklärung Im Gegensatz zu historischer und theoretischer Forschung (s. Kapitel 3.1 und 3.2) ist für die empirische Forschung charakteristisch, dass sie auf der datengeleiteten Untersuchung einer Forschungsfrage beruht. Riemer (2014: 15) stellt in Anlehnung an einschlägige Arbeiten dazu fest, dass „[v]on empirischem Wissen […] – anders als im Fall von Allgemeinwissen und unsystematisch reflektiertem Erfahrungswissen – erst dann gesprochen werden [kann], wenn die allgemeinen Merkmale der Systematizität und Datenfundiertheit wissenschaftlicher Forschung eingehalten werden“. Diese für die jeweilige Untersuchung erfasste oder erhobene Datengrundlage (s. Kapitel 5.2) kann unterschiedlich umfangreich sein, sodass sich empirische Forschung auf einem Kontinuum von Erfahrungsberichten über explorative und deskriptive Studien bis hin zu explanativen Studien beschreiben lässt.

50

3. Forschungstraditionen der Fremdsprachendidaktik

Eine erste Stufe der Empirie stellen Erfahrungsberichte dar. Als fremdsprachendidaktische Beispiele kann u. a. auf Rattunde (1990), Minuth (1996) oder Wernsing (1995) verwiesen werden, die über Unterrichtserfahrungen berichten und auf dieser Grundlage methodische Handlungsempfehlungen entwickeln. Für den Bereich der Projektarbeit zeigt Peuschel (2012: 13 – 17) als Grundlage ihrer eigenen Studie in ihrem Literaturbericht beispielsweise auf, dass bisherige Forschungen zu diesem Thema weitestgehend auf der Stufe von Erfahrungsberichten angesiedelt sind. Blickt man auf die Entwicklung der empirischen Forschung in der Fremdsprachendidaktik zurück, so ist auch bemerkenswert, dass uns bereits aus früheren Jahrhunderten einige empirische Arbeiten der Fremdsprachendidaktik zugänglich sind, die sich in der Regel auf dieser ersten Stufe der Empirie bewegen (s. Kapitel 3 und 3.1). Als zweite Stufe der Empirie zielen explorative Studien auf die Erkundung eines Untersuchungsgegenstands ab, der bisher kaum erforscht ist. In der Regel ist es Ziel solcher explorativen Studien, Hypothesen über einen bisher wenig erforschten Untersuchungsgegenstand zu generieren. Zahlreiche der in Kapitel 7 unter methodisch-methodologischer Perspektive zusammengefassten – und an vielen Stellen dieses Handbuchs illustrativ aufgegriffenen – Referenzarbeiten liefern Beispiele für solche gewinnbringenden Explorationen: Arras (2007) zu Leistungsbeurteilungen, Ehrenreich (2004) zum ausbildungsbiographischen Ertrag eines assistant-Jahres, Hochstetter (2011) zur diagnostischen Kompetenz von Englischlehrpersonen in der Grundschule, Schart (2003) zur Perspektive von Lehrenden auf Projektunterricht und Schmidt (2007) zum gemeinsamen Lernen mit Selbstlernsoftware. Auf einer dritten Stufe lassen sich deskriptive Studien einordnen, die genaue Beschreibungen von Phänomenen vornehmen, die bereits in Vorgängerstudien exploriert wurden. Die Referenzarbeit von Özkul (2011) illustriert den Fall einer Fragebogenstudie, die aufgrund von quantitativen Daten zu statistischen Aussagen (und zwar über Berufs- und Studienfachwahlmotive) gelangt; die Referenzarbeit von Schwab (2009) dagegen zeigt den Fall einer konversationsanalytischen Videostudie, die aufgrund von qualitativen Daten interpretative Aussagen (und zwar über Partizipationsmöglichkeiten von Schüler_innen im Plenumgsgespräch) trifft. Auf einer vierten Stufe der Empirie bewegen sich explanative Studien, die auf die Erforschung kausaler Zusammenhänge abzielen. Hierbei steht die Überprüfung von Hypothesen, die zu einem extensiv explorierten und deskriptiv erforschten Untersuchungsgegenstand zum Zeitpunkt der Studie bestehen, im Zentrum der Forschungsanstrengung. Der Wunsch, über die Deskription von Fremdsprachenunterricht hinauszugehen und auch explanative Studien durchzuführen, ist in der Fremdsprachendidaktik spätestens nach Erscheinen des Gemeinsamen europäischen Referenzrahmens (Europarat 2001) und dem Erstarken der Kompetenzorientierung deutlich erkennbar. Die (quasi-)experimentellen Interventionsstudien zum Hörverstehen im Deutschen als Tertiärsprache von Marx (2005) und zu Effekten extensiven Lesens im Fremdsprachenunterricht von Biebricher (2008) illustrieren als Referenzarbeiten dieses Handbuchs, dass auch Dissertationen, die nicht in größere Verbundprojekte eingebunden sind, fundierte Aussagen über Ursache und Wirkung treffen können; oft nutzen explanative Qualifikationsarbeiten aber auch Synergieeffekte aus kooperativen, teils standortübergreifenden Projekten für Einzelstudien.

3.3 Empirische Forschung

51

Die folgenden Abschnitte geben einen einführenden Überblick über prototypische Designs fremdsprachendidaktischer Empirie (dazu grundlegend Abschnitt 2). Dabei findet einerseits die statistische Auswertung quantitativer Daten (Abschnitt 3) und andererseits die interpretative Auswertung qualitativer Daten besondere Berücksichtigung (Abschnitt 4). Auch die komplexen Kombinationsmöglichkeiten dieser Vorgehensweisen in Studien, die als mixed methods bezeichnet werden, sollen kurz angerissen werden (Abschnitt 5).

3.3.2 Quantitatives und qualitatives Paradigma In der Regel werden das qualitative und das quantitative Forschungsparadigma als zwei diametral gegenübergestellte empirische Arbeitsweisen charakterisiert, die sich bezüglich des Erhebungskontextes, der erhobenen Daten, der Auswertungsmethoden und der dahinterliegenden Wissenschaftstheorie diametral unterscheiden (s. Kapitel 2). Als Prototyp quantitativer Forschung gilt das Experiment. Für dessen quantitative Natur ist die Tatsache charakteristisch, dass es im Labor, also nicht im natürlichen Kontext, und damit unter streng kontrollierten Bedingungen durchgeführt wird. Bei den in Experimenten erhobenen Daten handelt es sich typischerweise um Messwerte (z. B. um Reaktionszeitmessungen oder Test-Werte), die mithilfe statistischer Verfahren ausgewertet werden. Experimentelle Forschung basiert auf der wissenschaftstheoretischen Position des Rationalismus, nach der in einem hypothesentestenden Verfahren eine objektive bzw. universalgültige Wahrheit aus der Außenperspektive von Forscher_innen, einer sogenannten etischen Perspektive, beschrieben werden soll (s. Kapitel 2). Als Prototyp qualitativer Forschung gilt hingegen die Ethnographie, bei der die Daten mittels teilnehmender Beobachtung im natürlichen Kontext und damit unter hochgradig unkontrollierten Bedingungen gesammelt werden. Diese Daten werden zu Zwecken der Hypothesengenerierung mithilfe interpretativer Verfahren ausgewertet, wobei eine emische Perspektive verfolgt wird, d. h. dass Forschende die Innenansicht der Forschungspartner_innen analytisch herausarbeiten. Wissenschaftstheoretisch basiert diese Vorgehensweise auf dem Relativismus, der der rationalistischen Vorstellung einer universalgültigen Wahrheit das Konzept (sozio-)kulturell geprägter bzw. kontextgebundener Wahrheiten entgegensetzt (s. Kapitel 2). Grotjahn (1987) hat in einem auf die deutschsprachige Fremdsprachendidaktik sehr einflussreichen Beitrag bereits in den 80er Jahren verdeutlicht, dass diese simple Gegenüberstellung von zwei Prototypen den vielen denkbaren Varianten empirischer Forschungsdesgins nicht gerecht wird. Er unterscheidet neben diesen beiden „Reinformen“ (Grotjahn 1987: 59) des explorativ-interpretativen und des analytisch-nomologischen Paradigmas sechs weitere „Mischformen“ (ebd.), die sich aus den möglichen Kombinationen der drei Pole (a) (quasi-) experimentelles vs. nicht-experimentelles Design, (b) quantitative vs. qualitative Daten und (c) statistische vs. interpretative Auswertung ergeben: Beispielsweise ist es möglich, im Feld metrische Werte zu erheben und statistisch auszuwerten oder im Labor verbale Daten zu erheben, die interpretativ ausgewertet werden. Somit wird deutlich, dass empirische Designs nicht immer eindeutig einem paradigmatischen Prototypen zugeordnet werden können,

52

3. Forschungstraditionen der Fremdsprachendidaktik

sondern dass sich eine Vielzahl von durch das Erkenntnisinteresse geleiteten grundlegenden Design-Möglichkeiten ergibt.

3.3.3 Quantitative Daten und statistische Auswertungen Zur fremdsprachdidaktischen Illustration des analytisch-nomologischen Paradigmas können die Referenzarbeit von Marx (2005) als Forschungsleistung einer Einzelperson und die DESIStudie als Forschungsleistung eines umfassenden Verbundes dienen. In der Untersuchung von Marx (2005) zu Hörverstehensleistungen im Deutschen als Tertiärsprache handelt es sich um ein Experiment, bei dem Lernende im Bereich Deutsch als Fremdsprache nach Englisch (DaFnE) auf der Grundlage von Eingangstests und Fragebögen mit dem Ziel einer Balancierung von Kontroll- und Experimentalgruppe auf zwei parallele Nullanfängerkurse verteilt wurden. Oft steht die Verteilung von Proband_innen auf unterschiedliche Kurse nicht im Einflussbereich der Forschenden, sodass bei Experimenten, die im Feld durchgeführt werden, i. d. R. mit bestehenden Parallelgruppen in einem sogenannten Quasi-Experiment gearbeitet wird. In solchen Fällen stellt sich dann die Frage der Vergleichbarkeit der Gruppen, die häufig in Paarvergleichen abgesichert werden soll. In der Studie von Marx (2005) handelt es sich jedoch nicht um ein Quasi-Experiment, sondern tatsächlich um ein Experiment, bei dem die Gruppen gezielt nach bestimmten Überlegungen in vergleichbarer Weise zusammengesetzt wurden. Anders als in der oben beschriebenen Reinform des analytisch-nomologischen Paradigmas wurden dabei jedoch nicht für das Experiment charakteristische Messwerte erhoben, sondern Daten aus Hörverstehensaufgaben und retrospektive Erklärungen zu den von Lernenden wahrgenommenen Gründen für erfolgreiches Verstehen, die beide für die Zwecke einer statistischen Auswertung mittels Mann-Whitney-U-Test und MANOVA (s. Kapitel 5. 3. 10) erst in Zahlenwerte überführt werden mussten (vgl. dazu die Darstellung der Referenzarbeit in Kapitel 7).5 Ein zweites Beispiel aus dem Bereich der Fremdsprachendidaktik ist die DESI-Studie (Deutsch-Englisch-Schülerleistungen-International). Sie zielte darauf ab, den Leistungsstand in Deutschland, Österreich und der Schweiz in den Fächern Deutsch und Englisch zu erfassen und zur Verbesserung von Curricula, Lehrmaterialien, Aus- und Weiterbildung von Lehrpersonen und Unterrichtsgestaltung in diesen beiden Fächern beizutragen: In einem interdisziplinären Team aus Bildungsforscher_innen und Fachdidaktiker_innen wurden dazu ca. 11 000 Schüler_innen der neunten Klasse aller Schularten befragt und zu zwei Zeitpunkten getestet sowie neben Videoaufnahmen des Unterrichts auch Befragungen mit Lehrpersonen, Eltern und Schulleitungen durchgeführt (Klieme 2008). Zur Kurz-Illustration des Umfangs dieser Art von empirischer Großuntersuchung sei als eine der vielen DESI-Teilstudien die Videostudie des Englischunterrichts (Helmke et al. 2008) herausgegriffen, die Aufnahmen, Transkripte, Basiskodierungen und Beurteilungen der Unterrichtsqualität von 105 Englischstunden beinhaltete. Auf dieser Grundlage konnten u. a. quantitative Aussagen zu einer Reihe von Aspekten des untersuchten Englischunterrichts (z. B. verwendete Unterrichtssprache, 5 Es sei angemerkt, dass diese quantifizierten Daten wiederum um qualitative, interpretativ ausgewertete Daten (Fragebögen zum Unterricht) ergänzt wurden.

3.3 Empirische Forschung

53

Sprechanteile von Lehrpersonen und Schüler_innen, Art und Länge der Schüleräußerungen, Fehlerkorrektur und Wartezeit) sowie auch Zusammenhänge dieser Unterrichtsmerkmale mit anderen Variablen wie Schülerleistungen (z. B. in einem C-Test oder Hörverstehenstest) herausgearbeitet werden.

3.3.4 Qualitative Daten und interpretative Auswertungen Als fremdsprachendidaktische Beispiele für den Gegenpol, das explorativ-interpretative Paradigma, sollen hier die Dissertation von Haider (2010) zu Sprachbedürfnissen von Pfleger_ innen mit Deutsch als Zweitsprache und die umfangreiche Studie zur mündlichen Fehlerkorrektur im Italienisch- und Spanischunterricht von Kleppin & Königs (1991) dienen. Haiders (2010) Untersuchung ist im Themenfeld Deutsch für den Beruf angesiedelt und wird von der Autorin selbst im Titel als kritische Sprachbedarfserhebung charakterisiert. Mithilfe von Erhebungsmethoden wie job-shadowing, also der Begleitung der Forschungspartner_innen im Arbeitsalltag, und insbesondere auf der Grundlage von 13 halbstandardisierten, interpretativ ausgewerteten Interviews arbeitet die Forscherin heraus, welchen sprachlichen Herausforderungen Gesundheits- und Krankenpfleger_innen in Österreich, die Deutsch als Zweitsprache erwerben, sich bei ihrer Berufstätigkeit ausgesetzt sehen. Charakteristisch für das explorativ-interpretative Paradigma ist u. a. ihre Zielsetzung, die Innenperspektive des Pflegepersonals zu erfassen: Im Gegensatz zu klassischen Bedarfsanalysen, die stärker die Außenperspektive einnehmen und beispielsweise Anforderungen des Arbeitsmarktes ins Zentrum der Untersuchung stellen, ist diese Studie der emischen Perspektive zuzuordnen. Anhand der Schilderungen des Berufseinstiegs will die Autorin sprachliche Probleme der Berufspraxis aufzeigen, die die Betroffenen selbst als relevant erleben; diese sollen als Grundlage für berufsorientierte Deutschkurse dienen – und letztlich auch in einem politisch-kritischen Sinn Mängel im System von Pflegeeinrichtungen mit Bezug auf Spracherwerbsmöglichkeiten offenlegen und auf deren Behebung drängen. Die umfassende Studie von Kleppin/Königs (1991: 117), in der sie „[d]er Korrektur auf der Spur“ sind  – so der Titel  – , kann als früher Meilenstein fremdsprachendidaktischer Empirie bezeichnet werden. Das untersuchte Datenkorpus besteht aus 97 videografierten Stunden Spanisch-Unterricht und 91 videografierten Stunden Italienisch-Unterricht; weiterhin wurden auch zwölf flankierende Lehrerinterviews ausgewertet. Ergänzend wurden „zu einem Teil der Unterrichtsaufzeichnungen“ (Kleppin/Königs 1991: 107) Daten nachträglichen Lauten Denkens als „unterrichtskommentierende Daten“ (ebd.) erhoben. Auch fokussierte Interviews und ein in elf Klassen verteilter und von 198 Lernenden ausgefüllter Fragebogen waren Grundlage der Analysen. Die Autor_innen erläutern, dass sie die an einem Datensatz gewonnenen Interpretationen an einem anderen Datensatz zu bestätigen gesucht haben, um die Reichweite der jeweiligen Interpretation zu erhöhen bzw. um bei Nicht-Bestätigung entsprechend vorsichtig mit der Interpretation umzugehen (Kleppin/Königs 1991: 117). Zentrale Aspekte der Auswertung betreffen die linguistisch basierte Fehlerkodierung und -auszählung nach Unterrichtsphasen, die diskursanalytische Auswertung von Initiation der Korrektursequenz, Reaktion auf Initiationen, Korrekturen und ihrer Art und Weise sowie von

54

3. Forschungstraditionen der Fremdsprachendidaktik

Reaktionen und Nachreaktionen auf die Korrekturen. Für 16 Unterrichtsstunden nehmen die Autor_innen detaillierte Quantifizierungen dieser Aspekte vor; darüber hinaus präsentieren sie Befunde zu den subjektiven Theorien der Lehrpersonen und zu Schülerwünschen und -erwartungen hinsichtlich der mündlichen Fehlerkorrektur. Die Autor_innen ordnen diese frühe, beeindruckende Videostudie des Fremdsprachenunterrichts explizit der explorativ-interpretativen Forschungsrichtung zu (ebd.) und dementsprechend würdigt Henrici (1992: 250) in seiner Rezension – neben vielen anderen Aspekten – auch „die vorsichtig zurückhaltende Darstellung der Ergebnisse, die dem verwendeten Paradigma und dessen Ansprüchen gerecht wird“.

3.3.5 Mixed methods Unter dem Begriff mixed methods ist die Möglichkeit der Kombination von Verfahren aus dem sogenannten qualitativen und quantitativen Paradigma (vgl. dazu Abschnitt 2) diskutiert worden und nach anfänglichen Zweifeln bezüglich der grundsätzlichen Vereinbarkeit von Ansätzen, die auf wissenschaftstheoretisch so unterschiedlichen Grundannahmen basieren (s. Kapitel 2), doch das besondere Potenzial einer solchen Verknüpfung betont worden (einführend – allerdings ohne fremdsprachendidaktischen Bezug – s. Kuckartz 2014). Dabei lassen sich in Anlehnung an Ivankova/Creswell (2009: 138) zur methodologischen Einordnung von mixed-methods-Studien die Aspekte (a) zeitliche Anordnung (timing), (b) Gewichtung (weighting) und (c) Mischung (mixing) qualitativer und quantitativer Verfahren unterscheiden. Mit dem ersten Begriff der zeitlichen Anordnung ist gemeint, dass eine qualitative und eine quantitative Teilstudie entweder sequentiell zeitlich aufeinander folgen (qualitativ -> quantitativ oder quantitativ -> qualitativ) oder dass sie gleichzeitig durchgeführt werden können (qualitativ + quantitativ). Der zweite Begriff der Gewichtung zielt darauf ab, die Bedeutung der qualitativen und der quantitativen Anteile der Studie zueinander in Beziehung setzen: Sind beide gleichgewichtet (QUAL, QUAN), ist der qualitative Anteil höher einzuschätzen (QUAL, quan) oder ist der quantitative Anteil stärker gewichtet (qual, QUAN)? Schließlich bezieht sich der dritte Begriff des Mischens auf die Forschungsphase, in der die qualitativen und quantitativen Anteile miteinander in Beziehung gesetzt werden; dies kann in der Phase der Erhebung, der Auswertung oder der Interpretation der Ergebnisse geschehen. Im Hinblick auf den letztgenannten Aspekt ist in der mixed-methods-Diskussion von einigen Forschenden die weitreichende Forderung vertreten worden, dass die Mischung alle Phasen des Forschungsprozesses betreffen müsse; auf diesen rigorosen Fall bezieht sich der Begriff mixed models. Auf der Grundlage der Kriterien zeitlicher Anordnung, Gewichtung und Mischung lassen sich in Anlehnung an Kuckartz (2014) folgende vier mixed-methods-Designs unterscheiden:

• Vertiefungsdesign (auch: explanatory design): Es ist sequenziell angeordnet und die Studie schreitet vom Quantitativen zum Qualitativen voran (QUAN -> qual, quan -> QUAL, QUAN -> QUAL). Die qualitativen Befunde der zweiten Teilstudie dienen dazu, die quantitativen Befunde der ersten Teilstudie vertiefend zu erklären. Beispielsweise könnte auf der

3.3 Empirische Forschung

55

Grundlage bestehender Forschungsergebnisse zunächst eine umfassende Fragebogenstudie erfolgen und im zweiten Schritt könnten überraschende Befunde in einer Interviewstudie zu Einzelfällen genauer beleuchtet werden. • Verallgemeinerungsdesign (auch: exploratory design): Es ist ebenfalls sequenziell, aber bei diesem Design ist die qualitative Forschung der quantitativen vorgeschaltet (QUAL -> quan, qual -> QUAN, QUAL -> QUAN). Dies ist beispielsweise der Fall, wenn zunächst in explorativer Absicht eine Studie einzelner Fälle durchgeführt und auf der Grundlage dieser Exploration dann ein Fragebogen entwickelt und bei einer weitreichenderen Stichprobe eingesetzt wird. Die quantitative Teilstudie dient dabei dem Ziel, die qualitativen Befunde zu verallgemeinern oder Zahlenangaben über einzelne Aspekte der qualitativen Befunde zu erhalten. • Das parallele Design (auch: triangulatory design): Es handelt sich nicht um ein sequenzielles Design, sondern um eins, das auf der Gleichzeitigkeit bzw. Parallelität einer qualitativen und einer quantitativen Teilstudie beruht (QUAL + quan, qual + QUAN und QUAL + QUAN). Hierbei bauen die Teilstudien nicht aufeinander auf, sondern sie werden unabhängig voneinander durchgeführt und erst danach werden beim Mixing die parallelen Ergebnisse und Schlussfolgerungen miteinander verglichen oder kontrastiert. Der aus beiden Teilstudien integrierte Forschungsbericht soll somit möglichst gut validierte Forschungsergebnisse erbringen. • Das Transferdesign (auch: embedded design): Es zeichnet sich dadurch aus, dass entweder qualitative Daten quantifiziert werden (wenn beispielsweise bei einer qualitativen Inhaltsanalyse Kodierungen ausgezählt werden) oder dass quantitative Daten qualifiziert werden (wenn beispielsweise nach einer Zeitmessung die metrischen Daten in verbale Angaben oder Kategorien überführt werden). Als Beispiel für eine zweitsprachdidaktische mixed-methods-Studie sei an dieser Stelle die Arbeit von Ricart Brede (2011) zur Sprachförderung in Kindertagesstätten kurz vorgestellt. Es handelt sich um zwei sequentielle Teilstudien, die in einer groben Annäherung dem Vertiefungsdesign (quan -> QUAL) zugeordnet werden können. In der ersten Teilstudie nimmt die Forscherin niedrig- bis mittelinferente Kodierungen von 48 Videoaufnahmen von Sprachfördereinheiten vor. Dabei werden Aktivitäten (wie Begrüßung/ Verabschiedung, Organisatorisches, Aufgabe mit bzw. ohne Spielcharakter, motorisch bestimmte Tätigkeit, Lied/ Vers, Arbeit mit Text/ Bild, mündliche Kommunikation und Sonstiges), Sozialformen (Gesamtgruppe-Dialog, Gesamtgruppe-Monolog, Partner-/ Kleingruppenarbeit und Einzelarbeit) sowie auch Sprachbereiche (phonologische Bewusstheit, Wortschatz, Grammatik, Gespräch, Erklären, Erzählen, Vorlesen/ Rezitieren) kodiert (s. Ricart Brede 2011: 124). In dieser ersten Teilstudie kann die Forscherin u. a. den chronologischen Ablauf einer typischen Sprachfördereinheit herausarbeiten. Für die zweite Teilstudie erfolgt aus den 625 auf diese Weise gebildeten Handlungssequenzen eine Stichprobenziehung von 40 Sequenzen, die einer hochinferenten (also stärker interpretativen) Analyse in Bezug auf bestimmte Qualitätsmerkmale von Sprachförderung wie sprachlicher Input der Sprachförderperson (z. B. wie Äußerungsfunktionen oder Umgang mit Fehlern), Intake der Kinder (z. B. Aufmerksamkeit) und sprachlicher Output der Kinder (z. B. Komplexität der Äußerungen) unterzogen werden. Mit Blick auf den mixed-methods-Charakter dieser Studie ist weiterhin anzumerken, dass

56

3. Forschungstraditionen der Fremdsprachendidaktik

diese Untersuchung in beiden Teilstudien mit der Quantifizierung von qualitativen (genauer gesagt videographischen) Interaktionsdaten arbeitet, sodass beide Teilstudien jeweils auch ein Transferdesign beinhalten. Dieser kurze Überblick deutet die vielfältigen Möglichkeiten an, die sich für fremdsprachendidaktische mixed-methods-Designs aus den unterschiedlichen Kombinationen von zeitlicher Anordnung, Gewichtung und Mischung ergeben. Zentrale Bedeutung hat bei Entscheidungen auf Designebene die Forschungsfrage, die vor dem Hintergrund des erreichten Forschungsstands in einem (oder an der Schnittstelle mehrerer) Forschungsfeld(er) formuliert wurde. Gerade bei Qualifikationsarbeiten und bei begrenzten Ressourcen sollte die Vielfalt der Möglichkeiten aber keinesfalls dazu verleiten, das Design allzu komplex zu gestalten.

3.3.6 Fazit und Ausblick Zusammenfassend ist festzuhalten, dass eine breitere methodologische Diskussion zu empirischen Fragen in der Fremdsprachendidaktik ab den 90er Jahren zu beobachten ist, in der die empirischen Erfahrungen wichtiger Bezugsdisziplinen verstärkt zur Kenntnis genommen werden. In der Auseinandersetzung mit diesen beginnt die Fremdsprachendidaktik in dieser Zeit verstärkt, erfolgreich um die Eigenständigkeit fremdsprachendidaktischer Forschung zu ringen (z. B. Müller-Hartmann/Schocker-von Ditfurth 2001). Trotz zahlreicher wichtiger Studien, die auf quantitativen Daten und statistischen Auswertungen beruhen, haben die Erhebung von qualitativen Daten und die interpretative Auswertung in der fremdsprachendidaktischen Empirie bisher deutlich mehr Aufmerksamkeit erfahren. Dies bedeutet mit Blick auf die Ausbildung von Nachwuchsforscher_innen für die Fremdsprachendidaktik zweifellos eine Herausforderung, die ebenfalls für die Weiterentwicklung des mixed-methods-Zugangs grundlegend ist. Das aktuelle Interesse der Fremdsprachendidaktik bzw. ihre intensive Beschäftigung mit empirischen Forschungsmethoden zeigt sich – nicht zuletzt im Zusammenhang mit der Verankerung entsprechender Ausbildungsangebote der Fremdsprachendidaktik im Zuge der mit der Bologna-Reform verbundenen Revision der entsprechenden Studiengänge – auch in zahlreichen aktuellen Publikationen zur Methodenlehre (s. die Einführungen von Doff 2012 und Settinieri et al. 2014 oder die Sammelbände mit spezifischerem Fokus von Aguado/Schramm/ Vollmer 2010 und Aguado/Heine/Schramm 2013). ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.) (2013). Introspektive Verfahren und Qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt a. M.: Peter Lang. Aguado, Karin/Schramm, Karen/Vollmer, Helmut Johannes (Hg.) (2010). Fremdsprachliches Handeln beobachten, messen, evaluieren. Neue methodische Ansätze der Kompetenzforschung und der Videographie. Frankfurt a. M.: Peter Lang.

3.3 Empirische Forschung

57

*Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDaF). Tübingen: Narr. [Referenzarbeit, Kapitel 7] *Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Doff, Sabine (Hg.) (2012). Fremdsprachenunterricht empirisch erforschen. Grundlagen – Methoden – Anwendung. Tübingen: Narr. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Europarat/Rat für kulturelle Zusammenarbeit (2001). Gemeinsamer europäischer Referenzrahmen für Sprachen: Lernen, lehren, beurteilen. München: Langenscheidt. [http://www.goethe.de/z/50/­ commeuro/deindex.htm] (3. 12. 2015) Grotjahn, Rüdiger (1987). On the methodological basis of introspective methods. In: Faerch, Claus/Kasper, Gabriele (Hg.). Introspection in Second Language Research. Clevedon, PH: Multilingual Matters. *Haider, Barbara (2010). Deutsch in der Gesundheits- und Krankenpflege. Eine kritische Sprachbedarfserhebung vor dem Hintergrund der Nostrifikation. Wien: Facultas.wuv. *Helmke, Tuyet/Helmke, Andreas/Schrader, Friedrich-Wilhelm/Wagner, Wolfgang/Nold, Günter/Schröder, Konrad (2008). Die Video-Studie des Englischunterrichts. In: DESI-Konsortium (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz, 345 – 363. Henrici, Gert (1992). Rezension Kleppin, Karin/Königs, Frank G. (1991). Der Korrektur auf der Spur – Untersuchungen zum mündlichen Korrekturverhalten von Fremdsprachenlehrern. In: Deutsch als Fremdsprache 29(4), 248 – 250. *Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Ivankova, Nataliya V./Creswell, John W. (2009). Mixed methods. In: Heigham, Juanita/Croker, Robert A. (Hg). Qualitative Research in Applied Linguistics. A Practical Introduction. Houndmills, Basinstoke: Palgrave-Macmillan, 135 – 161. *Kleppin, Karin/Königs, Frank G. (1991). Der Korrektur auf der Spur – Untersuchungen zum mündlichen Korrekturverhalten von Fremdsprachenlehrern. Bochum: Universitätsverlag Dr. N. Brockmeyer. Klieme, Eckhard (2008). Systemmonitoring für den Sprachunterricht. In: Klieme, Eckhard (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim, Beltz, 1 – 10. [http://www.pedocs.de/volltexte/2010/3149/pdf/978_3_407_25 491_7_1A_D_A.pdf] (4. 12. 2015). Kuckartz, Udo (2014). Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer VS. *Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache: zum Nutzen eines Sensibilisierungsunterrichts im ‚DaFnE‘. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] *Minuth, Christian (1996). Freie Texte im Französischunterricht. Berlin: Cornelsen. Müller-Hartmann, Andreas/Schocker-von Ditfurth, Marita (Hg.) (2001). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr. *Özkul, Senem (2011). Berufsziel Englischlehrer/in. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Peuschel, Kristina (2012). Sprachliche Tätigkeit und Fremdsprachenlernprojekte. Fremdsprachliches Handeln und gesellschaftliche Teilhabe in radiodaf-Projekten. Baltmannsweiler: Schneider Verlag Hohengehren.

58

3. Forschungstraditionen der Fremdsprachendidaktik

*Rattunde, Eckhardt (1990). Poésie et écriture poétique. Möglichkeiten eines kreativen Umgangs mit poetischen Texten im Französsichunterricht (Chanson – comptime – poème). Berlin: Cornelsen. *Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen. Freiburg i.B.: Fillibach. Riemer, Claudia (2014). Forschungsmethodologie Deutsch als Fremd- und Zweitsprache. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 15 – 31. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] *Schmidt, Torben (2007). Gemeinsamens Lernen mit Selbstlernsoftware im Englischunterricht – Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen im Unterricht der Klasse 7. Tübingen: Narr. [Referenzarbeit, Kapitel 7] *Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. [Referenzarbeit, Kapitel 7] Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. München: Fink/ Schöningh. *Wernsing, Arnim Volkmar (1995). Kreativität im Französischunterricht. Berlin: Cornelsen.

»»  Zur Vertiefung empfohlen Doff, Sabine (Hg.) (2012). Fremdsprachenunterricht empirisch erforschen. Grundlagen – Methoden – Anwendung. Tübingen: Narr. Dieser einführende Sammelband liefert Empirie-Noviz_innen hilfreiche Hinweise zu Vorüberlegungen zu einem Forschungsprojekt, zu Untersuchungsdesigns, zur Datenerhebung und -analyse. Zur Illustration und Vertiefung werden zahlreiche Erhebungs- und Analyseverfahren jeweils anhand eines Qualifikationsprojekts konkret im Zusammenhang mit Forschungsfrage und Design thematisiert. Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. München: Fink/Schöningh. Diese Einführung ist zwar spezifisch auf das Fach Deutsch als Fremd- und Zweitsprache bezogen, bietet jedoch zweifellos auch Leser_innen anderer fremdsprachendidaktischer Fächer einen verständlich geschriebenen, höchst lohnenswerten Einstieg in empirische Erhebungs- und Auswertungsmethoden. Auf Designebene werden insbesondere die Themen Methodologie, Gütekriterien, Triangulation und Planung empirischer Studien thematisiert.

4. Forschungsentscheidungen Karen Schramm

Ist eine grundsätzliche Entscheidung dahingehend gefallen, in welcher Forschungstradition (s. Kapitel 3) die eigene geplante Studie verortet werden soll, sind zahlreiche Überlegungen zur Anlage der Studie auf der Makroebene zu treffen. Wichtige Aspekte solcher Makroentscheidungen werden in diesem Kapitel thematisiert, während das darauffolgende Kapitel 5 die nachgeordneten Entscheidungen auf der Ebene der Gewinnung von Dokumenten, Texten und Daten sowie auch auf der Ebene von deren Aufbereitung und Analyse beleuchtet. In der empirischen Forschung steht auf Makroebene das zielgerichtete Zusammenspiel von Forschungsfrage und Auswahl des Erhebungskontexts, von Datentyp(en) sowie auch von Aufbereitungs- und Auswertungsverfahren im Zentrum der Überlegungen, während Fragen auf Mikroebene spezifischer auf Entscheidungen in Bezug auf Einzelaspekte der Erhebung oder der Aufbereitung und Analyse bezogen sind. Dabei ist zu berücksichtigen, dass ein Wechselspiel der Entscheidungen auf beiden Ebenen nicht nur unvermeidbar, sondern sinnvoll und gewinnbringend ist. Die Notwendigkeit, Entscheidungen beim Entwurf der eigenen Studie vielfach zu überdenken und zu verfeinern, sollte von Forschungsnoviz_innen deshalb keinesfalls als persönliches Scheitern, sondern als erfolgreiche Ausdifferenzierung eines Designs zur Beantwortung der Forschungsfrage gedeutet werden, das in einem anspruchsvollen  – und dementsprechend auch anstrengenden  – Prozess des Nachdenkens immer weiter an Gestalt und Qualität gewinnt. Auch Arbeiten in historischer oder theoretischer Tradition sind durch dasselbe Wechselspiel von Entscheidungen auf unterschiedlichen Ebenen betroffen. Dementsprechend haben auch bei solchen Studien viele Entscheidungen auf der Mikroebene, die in Kapitel 5 angesprochen werden, Rückwirkungen auf die Makroentscheidungen. Das Kapitel 4.1 zur Grundlage der eigenen Forschungsarbeit ist stark mit der Entscheidung für eine bestimmte Forschungstradition verknüpft. Hier ist eine (zunächst vorläufige) Weichenstellung bezüglich der Frage vorzunehmen, ob bzw. welche Daten, Dokumente oder Texte grundsätzlich dazu geeignet sind, der Forschungsfrage nachzugehen. Hieran schließen sich Entscheidungen für einen grob skizzierten Gang der Untersuchung bzw. im Fall von empirischen Studien für einen Design-Entwurf an. In Kapitel 3 wurden für die verschiedenen Forschungstraditionen charakteristische Vorgehensweisen bereits kurz angesprochen; diese gilt es für die eigenen Zielsetzungen genau zu prüfen, zu adaptieren und kreativ zu gestalten. Zu diesem Zweck stehen auch bestimmte etablierte Untersuchungsformen bereit, die – oft im Rahmen spezifischer Forschungsfelder oder theoretischer Schulen – gewissermaßen fest gefügte Ensembles von Makroentscheidungen als Substrat vorangegangener Untersuchungsentwürfe für das eigene forscherische Handeln zur Verfügung stellen (s.

60

4. Forschungsentscheidungen

dazu Kapitel 4.2). In Bezug auf solche Design-Vorlagen auf Makroebene wie beispielsweise die Fallstudie, die Aktionsforschung und das Forschungsprogramm Subjektive Theorien ist zu betonen, dass sie – wie jeder andere Projektentwurf auch – vor dem Hintergrund der Forschungsfrage als mögliche Handlungsoption kritisch zu hinterfragen und gegenstandsadäquat auszugestalten (sowie den Leser_innen explizit zu begründen) sind. Solche Makroentscheidungen können selbstverständlich nur in Abhängigkeit vom jeweiligen Forschungsstand getroffen werden. In besonderer Weise gilt dies für zwei Sonderfälle: die Entscheidung für eine Meta-Analyse oder für eine Replikationsstudie, welche beide in Kapitel 4.5 unter der Metapher des zweiten Blicks behandelt werden. Bei Metaanalysen ist ein sehr umfänglicher empirischer Forschungsstand vonnöten, damit auf dieser Grundlage eine Synthese der unterschiedlichen Befunde mithilfe statistischer Verfahren durchgeführt werden kann. Dabei wird gewissermaßen aus den Mosaiksteinchen zahlreicher Einzelstudien ein Gesamtbild zusammengesetzt. Die Replikationsstudie ist dagegen eher angezeigt, wenn bisher noch wenig Erkenntnis bzw. gesicherte Befunde bezüglich eines Untersuchungsgegenstands vorliegen und aus diesem Grund ein bestimmtes Design in einen anderen Kontext transferiert bzw. dort erneut oder in vergleichbarer Form durchgeführt wird. Spezielle Spielarten der vielfältigen Erscheinungsformen empirischer Forschung sind nicht nur durch die in Kapitel 3.3 thematisierte Frage von Rein- und Mischformen von Designs bestimmt, sondern ergeben sich auch aus verschiedenen Formen der Triangulation. Kapitel 4.4 stellt einführend die vielfältigen Entscheidungsalternativen in Bezug auf Daten-, Methoden-, Forscher_innen- und Theorientriangulation vor, die die Gestaltungsmöglichkeiten auf Makroebene teils begrifflich mit denen in Kapitel 3.3 diskutierten Optionen überlappen und teils wiederum erweitern. Unter dem Titel Sampling bietet Kapitel 4.3 zahlreiche Denkanstöße zu Auswahlentscheidungen an, die vor allem die Forschungspartner_innen bzw. die Stichprobenziehung betreffen. Sampling beinhaltet darüber hinaus durchaus aber auch weitere Selektionsprozesse, z. B. in Bezug auf die Vertiefung der Analyse bestimmter Datensätze oder die Präsentation ausgewählter Beispiele. An das Ende von Kapitel 4 zu den Makroentscheidungen haben wir das Ethikkapitel 4.6 gestellt, das das vorausschauende Abwägen bestimmter Handlungsalternativen unter Berücksichtigung des Schutzes der Forschungspartner_innen oder anderer Personen, Institutionen oder des Fachs sowie auch den reflektierten Umgang mit ethischen Dilemmata ergründet. Viele der hier angesprochenen Fragen, beispielsweise die Anonymität der Forschungspartner_innen oder die Frage des Feldzugangs, betreffen zwar die Datenerhebung und könnten damit auch der Mikroebene zugeordet werden; doch reichen die ethischen Entscheidungen auch in andere Phasen des Forschungsprozesses hinein (z. B. die kommunikative Validierung oder die Präsentation der Ergebnisse), sodass es stringent erscheint, sie an dieser Stelle im Verbund mit den anderen Entscheidungen auf Makroebene anzusprechen.

4.1 Texte, Daten und Dokumente als Forschungsgrundlage

61

 Texte, Daten und Dokumente als

4.1

Forschungsgrundlage Michael K. Legutke

Ziel des folgenden Beitrags ist es, drei Schlüsselbegriffe zu bestimmen, deren Bedeutung in der Forschungsliteratur selten geklärt, sondern anscheinend als allgemein bekannt vorausgesetzt wird. Mit diesen Begriffen werden in der fremdsprachendidaktischen Forschung die Belege bezeichnet, die ihr als Forschungsgrundlage dienen. Während Daten nur in der empirischen Forschung Verwendung finden, sind Texte und Dokumente für alle drei Forschungstraditionen von Bedeutung: für die historische, die theoretische und die empirische Forschung (s. Kapitel 3).

4.1.1 Texte als Forschungsgrundlage Unabhängig davon, welcher Forschungstradition oder welchem Forschungsparadigma der Forscher oder die Forscherin verpflichtet ist, sie/ er wird auf jeden Fall (meist zu Beginn der Arbeit) das Vorhaben im wissenschaftlichen fremdsprachendidaktischen Diskurs verorten und dabei oftmals nicht nur einen Literaturbericht liefern (s. Kapitel 6.3), sondern bereits eigene Hypothesen entwickeln und Positionen formulieren, um den theoretischen Bezugsrahmen der Arbeit zu markieren. Grundlage solcher Bemühungen sind vorwiegend schriftliche wissenschaftliche Texte, wobei zwischen primären Texten (umfassende Studien) und sekundäre Texten (Zusammenfassungen und Überblicksdarstellungen) unterschieden wird (s. Kapitel 5.2.2). Neben primären und sekundären wissenschaftlichen Texten können auch andere Textgenres die Grundlage theoretischer Forschungsarbeiten bilden (s. Kapitel 3.2). Je nachdem welcher Teildisziplin der Fremdsprachendidaktik (z. B. Sprach-, Literatur-, Kultur- oder Mediendidaktik) die einzelne Forschungsarbeit zuzuordnen ist, werden bestimmte Textgenres eher als andere die Grundlage des Forschungsbemühens sein. Für kultur- und literaturdidaktische Arbeiten könnten beispielsweise klassische literarische Texte (Kurzgeschichten) oder multimodale literarische Texte (multimodale Jugendromane), Animationsfilme oder Lehrmaterialien die zentrale Forschungsgrundlage bilden. Aber angesichts der Komplexität des Gegenstandsbereichs und abhängig von der Fragestellung wird es meist darum gehen, ein Ensemble verschiedener Texte zusammenzustellen und auszuwerten.

4.1.2 Dokumente als Forschungsgrundlage Auch Dokumente sind Texte; sie unterscheiden sich jedoch von den oben genannten wissenschaftlichen Primär- und Sekundärtexten insofern, als sie nicht im Kontext wissenschaftlicher Arbeit entstanden sind, sondern einem anderen Zweck dienen. Der Begriff ‚Dokument‘ wird

62

4. Forschungsentscheidungen

dabei allgemein im Anschluss an McCulloch verstanden als „a record of an event or process“ (McCulloch 2011: 249). Dokumente können verschiedene Erscheinungsformen haben. Sie stehen nicht nur als gedruckte Texte, sondern in vielfältig medialen Realisierungen zur Verfügung (Bilder, Fotografien, Filme). In der fremdsprachendidaktischen Forschung werden Dokumente nach den Urhebern, nach dem Vertriebsweg und ihrer Zugänglichkeit unterschieden: offizielle Dokumente (z. B. Gesetze der Bundesländer, Stellungnahmen der Ständigen Konferenz der Kultusminister der Länder (KMK), Expertisen des Europarats, Lehrpläne), halboffizielle Dokumente (z. B. schulinterne Curricula, Arbeitspapiere von Lehrergruppen, Konferenzprotokolle, ‚graue Papiere‘) und private Dokumente (Tagebücher, Briefe, aber auch Stundenvorbereitungen von Lehrkräften oder Hausaufgaben der Schüler). Als öffentlich werden Dokumente dann bezeichnet, wenn sie in der einen oder anderen Form veröffentlicht wurden und deshalb leicht zugänglich sind. 1 Für die Fremdsprachenforschung von Interesse sind unter anderem die Dokumente, die als unterrichtsbezogene Produkte entstehen. Obwohl im öffentlichen Kontext Schule situiert, sind sie private Dokumente von Lehrenden und Lernenden. Ihr Spektrum reicht von unterschiedlichen schriftlichen und mündlichen Sprachhandlungsprodukten der Lehrkraft oder der Lernenden (schriftliche Unterrichtvorbereitungen, Tafelanschriebe, Plakate oder Präsentationen von Einzelnen und von Gruppen, Aufzeichnungen von Rollenspielen) über Bewertungen unterschiedlicher Provenienz (Verbalbeurteilungen, Kommentare zu Einzelarbeiten) bis hin zu Tagebuchnotizen (s. Kapitel 5.2.7). Für die historische Fremdsprachenforschung liefern Dokumente die entscheidende Forschungsgrundlage (Kapitel 3.1 und 5.3.1). Dokumentenanalyse kann jedoch auch ein Teil theoretischer Forschung sein oder im Kontext empirischer Studien erfolgen.

4.1.3 Daten als Forschungsgrundlage Auch Daten lassen sich mit der allgemeinen Definition „a record of an event or process“ (McCulloch 2011: 249) bestimmen. Diese Definition geht auf Gregory Bateson zurück, der wie folgt formulierte: „[…] ‚data‘ are not events or objects but always records or desricptions or memories of events or objects“ (Bateson 1973: 24). Was Daten jedoch von Dokumenten unterscheidet, ist ihre Entstehung, denn sie werden durch die eingesetzten Erhebungsverfahren erst hervorgebracht, d. h. sie werden geschaffen. Daten sind demnach das Produkt von Forschungshandlungen. Die Ausprägung von Daten kann entweder qualitativer oder quantitativer Art sein, ihr Inhalt wird durch die Forschungsfrage und die Datenquellen bestimmt. In der fremdsprachendidaktischen Forschung wird zwischen Primär-, Sekundär- und Tertiärdaten unterschieden. Primärdaten sind sprachliche Rohdaten (z. B. Videodaten einer Unterrichtsstunde, Ergebnisse eines Prä- oder Posttests). Sekundärdaten sind alle Verarbeitungsstufen der Rohdaten (z. B. kodierte Daten, Transkripte, skalierte Testergebnisse). Tertiärdaten schließlich sind alle Metadaten zu den vorangegangenen Datentypen (z. B. Angaben zum Kontext, zur Entstehungszeit; s. auch Kapitel 5.2.6; 5.3.8). 1 Eine differenzierte Begriffsklärung liefert das Kapitel 5.2.1 „Dokumentensammlung“. Hier wird auch der begriffliche Unterschied zwischen Dokumenten und Quellen erörtert.

4.1 Texte, Daten und Dokumente als Forschungsgrundlage

63

Häufig wird in der allgemeinen Forschungsliteratur nur zwischen Primär- und Sekundärdaten unterscheiden. Erstere bezeichnen dann Daten, die bei der Datenerhebung unmittelbar geschaffen werden, letztere hingegen solche, die von anderen Forschern oder von Institutionen erhoben wurden: Beispiele sind das Statistische Bundesamt, Statistische Landesämter, Ministerien, die OECD, die UNO, die Weltbank (vgl. O’Leary 2014: 243 – 273). Quantitative Daten sind das Ergebnis eines Transformationsprozesses, in dem Belege zu Sachverhalten, Ereignissen, Prozessen und Objekten in eine Zahlenform verwandelt werden. Man spricht deshalb auch von numerischen Daten. Sie bilden die Grundlage für den Einsatz statistischer Verfahren und sind das Herzstück einer quantitativ-hypothesenprüfenden Fremdsprachenforschung, die sich um objektiv überprüfbare und repräsentative Ergebnisse sowie validierbare Verallgemeinerungen bemüht (s. Kapitel 3.3). Datenquellen sind zum Beispiel Tests aller Art (Sprach-, Kompetenz- oder Intelligenztests), strukturierte und kontrollierte Messungen bestimmter Phänomene (Reaktionszeiten bei der Bearbeitung von OnlineAufgaben) oder Fragebögen. Quantitative Daten verdichten komplexe Zusammenhänge zu messbaren Einheiten. Eine vertiefende Einführung liefern die Kapitel 5.3.9 bis 5.3.11. Qualitative Daten sind Belege zu Sachverhalten, Ereignissen und Prozessen, die in unterschiedlicher Text- und Medienform die Grundlage rekonstruktiv-qualitativer Fremdsprachenforschung bilden. Ihre Interpretation liefert nicht repräsentative oder generalisierbare Erkenntnisse, sondern erschließt, was konkrete Menschen in spezifischen sozialen und institutionellen Kontexten tun, wie sie interagieren, wie sie ihr Handeln verstehen und bewerten. Folgende Datentypen seien hier als Beispiele, d. h. ohne Anspruch auf Vollständigkeit genannt. Die Bezeichnungen bieten eine grobe Orienteirung und sind nicht trennscharf:2

• Deskriptive Daten: Daten, die Verhalten von Menschen, Ereignisse, Institutionen und konkrete Settings repräsentieren. Erhoben werden diese durch Beobachtungen aller Art mit Hilfe von (Feld-)Notizen, Tagebüchern, Beobachtungsprotokollen. • Narrative Daten: Diese repräsentieren biographische und berufliche Erfahrungen. Erhebungsinstrument sind narrative Interviews. • Introspektionsdaten: Diese gestatten Einblicke in Gedanken und Gefühle der Forschungspartner, die der Beobachtung in der Regel nicht zugänglich sind. Erhoben werde solche Daten durch Verfahren des Lauten Denkens und Lauten Erinnerns (s. Kapitel 5.2.5). • Berichts- und Meinungsdaten: Diese machen zugänglich, was Menschen zu Situationen, Ereignissenn und Zusammenhängen sagen und/oder meinen. Sie werden u. a. durch Interviews erhoben (s. Kapitel 5.2.4). • Diskursdaten: Diese geben wieder, was Menschen in spezifischen Situationen wie zueinander sagen (z. B. im fremdsprachlichen Klassenzimmer). Erhebungsinstrumente sind hier Audio- und Videoaufzeichnung (s. Kapitel 5.3.5). Auch die oben genannten Dokumente, nämlich die unterrichtsbezogenen Produkte und Artefakte, werden in der Forschungsliteratur häufig als Datenquelle gefasst und somit den qualitativen Daten zugeschlagen (vgl. Zydatiß 2002). Eine solche Zuordnung ist insofern plausibel, als diese Produkte zwar als integrale Bestandteile des laufenden Unterrichts ent2 Einen tabellarischen Überblick über qualitative Datentypen mit Datenbeispielen bietet Holliday 2012: 62 – 63.

64

4. Forschungsentscheidungen

stehen und demnach nicht durch die Forschungsverfahren geschaffen werden. Sie sind jedoch durch die Forschungsfrage(n) aus diesem quasi naturwüchsigen Zusammenhang herausgehoben, werden besonders markiert und bestimmten Verfahren der Aufarbeitung und Analyse unterzogen. Die Grenze zwischen den Begriffen ‚Dokumente‘ und ‚Daten‘ ist bezogen auf diese Belege demnach fließend. Der Unterschied zwischen Daten (geschaffene Belege) und Dokumenten (unterrichtsbezogene Belege im Fokus einer Forschungsfrage) legt auf jeden Fall nahe, begrifflich zwischen dem Erfassen von Dokumenten und Erheben von Daten zu unterscheiden (s. Kapitel 5.2.6). Da für die empirische Fremdsprachenforschung prinzipiell vier Perspektiven unterschieden werden können, nämlich der „Blick auf die Produkte, die Akteure und die Lern- und Bildungsprozesse selbst“ (Bonnet 2012: 286) sowie auf die Kontexte (Kapitel 3.3), können auch Datenquellen und die aus ihnen gewonnenen Daten diesen vier Perspektiven zugeordnet werden. Eine solche Einteilung der Daten nach Produkt-, Personen-, Prozess- und Kontextdaten kann sich u. a. als funktional für das Datenmanagement (s. u.) erweisen. Die Ausprägung dieser Daten kann je nach Forschungsansatz entweder qualitativer oder quantitativer Natur sein. In Studien, die quantitativ-hypothesenprüfende und qualitativ-rekonstruktive Ansätze kombinieren, werden beide Datenarten nebeneinander vertreten sein.

4.1.4 Texte, Dokumente und Daten im Verbund: zwei Beispiele Dass sich für empirische Arbeiten in der fremdsprachendidaktischen Forschung besondere Chancen eröffnen, wenn sie auf alle drei Belegtypen im Verbund zugreifen, soll anhand der Arbeit von Britta Freitag-Hild (2010) erläutert werden. Freitag-Hild verfolgt die These, dass das kulturwissenschaftliche Konzept der Transkulturalität nicht nur geeignet ist, kulturelle Komplexität und Hybridität deskriptiv zu erfassen, sondern auch die Grundlage für die Konzeption von Unterrichtseinheiten bietet (Bestimmung von Inhalten, Lernzielen, Textauswahl, Auswahl und Integration von Aufgaben), die Lernende für kulturelle Vielstimmigkeit sensibilisieren. Die Verfasserin entwickelt zunächst ein theoretisch fundiertes Unterrichtsmodell zu British Fictions of Migration, das dann in drei Fallstudien im Literaturunterricht der Sekundarstufe II konkretisiert und auf seine Leistungsfähigkeit in Hinblick auf die angestrebte Sensibilisierung untersucht wird. Unterrichtsgegenstand sind ein Spielfilm und zwei Romane. Die qualitativ-explorative Untersuchung der Unterrichtsprozesse über mehrere Wochen führt die Verfasserin zu einer Neukonzeption des zunächst theoretisch entwickelten Unterrichtsmodells. Für die theoretische Fundierung und Konzeptualisierung des Unterrichtsmodells bilden sowohl kulturwissenschaftliche und kultur- bzw. literaturdidaktische theoretische Primär- und Sekundärtexte die Forschungsgrundlage als auch literarische Texte unterschiedlicher Genres (Kurzgeschichten, Romane) und Filme, die auf ihr didaktisches Potenzial im Sinne der übergeordneten Fragestellung analysiert werden. Für die unterrichtsbezogene Aufbereitung der Analyseergebnisse wertet die Verfasserin weitere Texte aus, die sie mit den ausgewählten literarischen Texten und Filmen zu intertextuellen Arrangements als Arbeitsgrundlage im

4.1 Texte, Daten und Dokumente als Forschungsgrundlage

65

Unterricht verknüpft. Die Erörterung des didaktischen Potentials erfolgt schließlich in Verbindung mit der Analyse offizieller Dokumente staatlicher Institutionen (Lehrpläne, Bildungsstandards, Einheitliche Prüfungsanforderungen im Abitur). Datenquellen der drei Fallstudien sind das Unterrichtsgeschehen und insbesondere die Interaktionsprozesse, die beobachtet und audiovisuell aufgezeichnet werden. Freitag-Hild erhebt Daten zu Lehrer-Schüler-Interaktionen, Unterrichtsgesprächen, Phasen der Gruppenarbeit sowie zur Vorbereitung von Rollenspielen in Gruppen. Forschungsgrundlage sind ferner eine Vielzahl von Produkten dieser Interaktionsprozesse, also Dokumente des laufenden Unterrichts wie Lernertexte (interpretative und kreative Schreibprodukte, Poster, Collagen, Rollenspiele) und Klausuren (Vorschläge der Forscherin, Klausuraufgaben der Lehrkraft sowie ausgewählte Klausurbeispiele von Schülern). Die Außenperspektive der Forscherin auf die Prozesse und ihre Produkte (festgehalten durch Beobachtungsprotokolle) werden ergänzt und differenziert durch die Innenperspektive der Akteure (Lehrkräfte und Lernende). Diese Datenquellen werden durch retrospektive Interviews nach einzelnen Stunden und am Ende der Unterrichtseinheiten erschlossen. Auch wenn Freitag-Hilds Arbeit deutlich macht, wie für die Beantwortung bestimmter Forschungsfragen die Verschränkung vieler Datenquellen, Texte und Dokumente in besonderer Weise zielführend sein kann, ist damit nicht gesagt, fremdsprachendidaktische Forschung müsse stets derart breit und mehrmethodisch angelegt sein. Als Gegenbeispiel kann die Referenzarbeit von Michael Schart (2003) dienen. Die Studie beschäftigt sich mit dem subjektiven Verständnis des Projektunterrichts bei Lehrenden für Deutsch als Fremdsprache im universitären Kontext und benutzt neben primären und sekundären Texten zwei Datenquellen: In einem mixed-methods-Ansatz verknüpft Schart quantitative Daten, die aus einer Fragebogenerhebung gewonnen wurden, mit qualitativen Daten aus problemorientierten, halbstandardisierten Interviews.

4.1.5 Organisation und Überprüfbarkeit der Belege Wie die verschiedenen Belegtypen gesammelt, organisiert und/oder katalogisiert werden müssen, hängt nicht zuletzt von den Forschungstraditionen ab, denen die Studie verpflichtet ist, und den jeweiligen Forschungsverfahren. Möglichkeiten des Datenmanagements werden im Kapitel 5.3 „Aufbereitung und Analyse von Dokumenten, Texten und Daten“ dieses Handbuchs in den jeweiligen Teilkapiteln angesprochen. Eine klare Organisation der Belege ist nicht nur aus forschungspraktischen Gründen von großer Wichtigkeit, sondern schafft auch die Voraussetzung dafür, dass die Auswahl von Texten und Dokumenten von anderen Forschenden nachvollzogen, dass Daten überprüft werden bzw. als Grundlage weiterer Forschungen, etwa in Metastudien (s. Kapitel 4.5), genutzt werden können. Sofern es sich um wissenschaftliche Primär- und Sekundärtexte und um offizielle Dokumente handelt, garantiert die genaue bibliographische Angabe die Überprüfbarkeit. Weniger klar ist die Sachlage für halboffizielle und vor allem für private Dokumente. In solchen Fällen kann es sinnvoll sein, die Belege unter Berücksichtigung forschungsethischer Prinzipien (s. Kapitel 4.6) als Anhänge zu den Forschungsarbeiten zugänglich zu machen.

66

4. Forschungsentscheidungen

Besondere Aufmerksamkeit verlangen qualitative und quantitative Daten. Sie müssen nicht nur für das jeweilige Projekt organisiert werden, sondern sollten im Sinne der Grundsätze zum Umgang mit Forschungsdaten der Allianz der deutschen Wissenschaftsorganisationen (Allianz 2010) und der DFG Denkschrift: Sicherung guter wissenschaftlicher Praxis (DFG 1998) gesichert und aufbewahrt werden. Die Empfehlung 7 „Sicherung und Aufbewahrung von Primärdaten“ dieser Denkschrift lautet: „Primärdaten als Grundlagen für Veröffentlichungen sollen auf haltbaren und gesicherten Trägern in der Institution, wo sie entstanden sind, zehn Jahre lang aufbewahrt werden“ (DFG 1998: 21). Wie diese Empfehlungen im Einzelnen in die Praxis umgesetzt werden, hängt von den Regeln ab, die sich Forschungsinstitutionen, Universitäten, Fachbereiche oder Institute gegeben haben. Verpflichtende Strukturen und Formen der Datenarchivierung existieren in Deutschland nicht (s. Klump, o. J.). ››  Literatur Allianz der deutschen Wissenschaftsorganisationen (2010). Grundsätze zum Umgang mit Forschungsdaten. [http://www.allianzinitiative.de/de/handlungsfelder/forschungsdaten/grundsaetze.html]. Bateson, George (1973). Steps to an Ecology of Mind. Collected Essays in Anthropology, Psychiatry, Evolution and Epistomology. London: Granada Publishing. Bonnet, Andreas (2012). Von der Rekonstruktion zur Integration: Wissenssoziologie und dokumentarische Methode in der Fremdsprachenforschung. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen. Grundlagen. Methoden. Anwendung. Tübingen: Narr, 286 – 305. DFG (1998). Denkschrift: Sicherung Guter Wissenschaftlicher Praxis. Weinheim: WILEY-VCH Verlag GmbH. [http://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp/index.html]. Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT. Holliday, Adrian (2012). Doing and Writing Qualitative Research. 2nd edition. Los Angeles: SAGE. Klump, Jens (o. J.). Wissenschaftliche Primärdaten. In: Nestor Handbuch. Eine kleine Enzyklopädie der digitalen Langzeitarchivierung. Niedersächsische Staats- und Universitätsbibliothek: Göttingen, Kapitel 15, 54 – 63. [http://nestor.sub.uni-goettingen.de/handbuch/artikel/nestor_handbuch_artikel_275.pdf]. McCulloch, Gary (2011). Historical and Documentary Research in Education. In: Cohen, Louis/Manion, Lawrence/Morrison, Keith (Hg.). Research Methods in Education. 7. Auflage. London: Routledge, 248 – 255. O’Leary, Zina (2014). Doing Your Research Project. 2nd Edition. Los Angeles: SAGE. Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren [Referenzarbeit, Kapitel 7]. Zydatiß, Wolfgang (2002). Leistungsentwicklung und Sprachstandserhebungen im Englischunterricht. Methoden und Ergebnisse der Evaluierung eines Schulversuchs zur Begabtenförderung : Gymnasiale Regel- und Expressklassen im Vergleich. Frankfurt: Peter Lang.

4.2 Prototypische Designs

67

 Prototypische Designs

4.2

Daniela Caspari

Wie in der Einleitung zu Kapitel 4 bereits erwähnt, bedingen bestimmte Forschungsentscheidungen einander, während andere voneinander weitgehend unabhängig sind. So stellt die Wahl einer bestimmten Forschungstradition eine richtungsweisende Vorentscheidung für geeignete Erhebungs- und Auswertungsverfahren dar, die dann je nach Forschungsfrage und Gegebenheiten ausgewählt und miteinander kombiniert werden können. Auch innerhalb der empirischen Forschungstradition stellt die Entscheidung für ein bestimmtes Paradigma (qualitativ – quantitativ – mixed methods) eine Vorentscheidung für die Auswahl der verwendbaren Forschungsinstrumente dar (z. B. Fragebogen nur mit geschlossenen Fragen versus Fragebogen mit teiloffenen und offenen Fragen, quantitative versus qualitative Inhaltsanalyse). Im Laufe der Zeit hat sich insbesondere innerhalb der quantitativ-empirischen Forschungstradition eine Reihe von festen Elementen und Abfolgen herausgebildet, die sich für bestimmte Zielsetzungen besonders gut eignen, z. B. für experimentelle Forschung, Evaluationsforschung oder Implementationsforschung. Eine solche Kombination bestimmter Erhebungs-, Aufbereitungs- und Auswertungsverfahren im Kontext eines bestimmten Forschungsansatzes bzw. für eine bestimmte Zielsetzung wird auch als „komplexes Design“ bezeichnet. In der qualitativen Forschungstradition gibt es im Rahmen bestimmter Forschungsansätze ebenfalls solche festgelegten Kombinationen, z. B. die Grounded Theory oder die Dokumentarische Methode (s. Kapitel 5.3.3). In diesem Kapitel werden drei Designs vorgestellt, die als komplexe, relativ fest gefügte Ensembles einen forschungsmethodologischen und forschungsmethodischen Rahmen für bestimmte Zielsetzungen und Absichten bieten, ohne sich eindeutig dem qualitativen oder quantitativen Paradigma zuzuordnen. Ausgewählt wurden drei unterschiedliche Designs, die innerhalb der pädagogischen und fachdidaktischen Forschung für ganz unterschiedliche Absichten stehen: 1. Fallstudien verfolgen das Ziel, einzelne Personen, Gruppen oder Institutionen in ihrer Komplexität zu erfassen. Sie gehen davon aus, dass sich in diesen Einzelfällen allgemeinere Strukturen manifestieren. 2. Das Forschungsprogramm Subjektive Theorien (FST) ist ein theoretischer und methodologischer Ansatz, mit dem individuelle Kognitionen und Argumentationen von Menschen erhoben, rekonstruiert und – in der weiten Fassung des Programms – an der Realität überprüft werden können. 3. Die Aktionsforschung bietet Praktiker/innen ein zyklisches Verfahren, alleine oder in Zusammenarbeit mit Kolleg/innen oder Forscher/innen ihren Unterricht systematisch zu erforschen und im Prozess der Erforschung zu verändern. In der forschungsmethodischen Literatur gibt es weder einen festen Oberbegriff noch eine einheitliche ‚Einordnung‘ für diese Ansätze, man findet sie z. B. unter styles of educational research (Cohen/Manion/Morrison 2011) oder unter research design issues (Nunan/Bailey 2009). Häufig werden sie mit „approach“ bzw. „research approach“ (Nunan/Bailey 2009,

68

4. Forschungsentscheidungen

Hitchcock/Hughes 1995, Heighman/Croker 2009) bezeichnet. Unter Forschungsansatz bzw. approach versteht Lamnek (2010: 272 – 273) eine vielschichtige methodische Vorgehensweise, die methodologisch zwischen einem methodologischen Paradigma und einer konkreten Erhebungstechnik angesiedelt ist. Der hier gewählte Begriff „Design“ soll die Gesamtheit und das funktionale Zusammenspiel der für die Erreichung des Forschungsziels notwendigen Einzelelemente betonen; „prototypisch“ deswegen, weil sie alle drei typische Ziele pädagogischen bzw. fachdidaktischen Forschens verfolgen und beispielhaft in ein Design umsetzen. Daher ist mit diesem Kapitel auch keinesfalls eine vollständige Darstellung solcher „besondere[r] Forschungsansätze“ (Riemer 2014) beabsichtigt. Vielmehr soll an drei in der fremdsprachendidaktischen Forschung häufig verwendeten Designs auf diese methodologische Besonderheit aufmerksam gemacht werden.

4.2.1 Fallstudie Fallstudien (engl. case studies) stehen in der Tradition enthnografischer Forschungsansätze. Während sie in den deutschsprachigen Erziehungswissenschaften bishlang eher ein „Mauerblümchendasein“ fristen (Lamnek 2010: 272), kommt ihnen in den Untersuchungen zum Erstund Zweitsprachenerwerb sowie in der englischsprachigigen erziehungswissenschaftlichen Forschung seit den 1970er Jahren eine große Bedeutung zu. Bislang gibt es keinen einheitlichen Begriffsgebrauch (Fatke 2010: 161, vgl. auch die Zusammenstellung unterschiedlicher Definitionen in Nunan/Bailey 2009: 161). Zentrales Merkmal ist die Konzentration auf einzelne Einheiten wie Menschen, Gruppen oder Organisationen, d. h. Individuen in einem sozialwissenschaftlichen Sinn (Lamnek 2010: 273). Unterschieden werden sie nach drei Kriterien:

• Einzelfallstudien und Studien mit mehreren Fällen (multiple Fallstudien), • holistische Studien (der einzelne Fall wird in seiner Gänze und unter Einbeziehung des Kontextes untersucht) und eingebettette (embedded) Studien (der einzelne Fall wird ausschnitthaft in Bezug auf einen übergeordneten Fall untersucht), • beschreibende Fallstudien (Darstellung des Falles in seiner Komplexität) und erklärende Fallstudien (Klärung von Kausalbeziehungen). Innerhalb des quantitativen Forschungsparadigmas können Fallstudien vor oder nach einer quantitativ orientierten Studie zur Exploration oder zur Entwicklung von Hypothesen bzw. zur Illustration oder zur Überprüfung der Praktikabilität ihrer Ergebnisse eingesetzt werden (Lamnek 2010: 276 – 284). Als eigenständige Forschungsmethode ist das Haupteinsatzgebiet von Fallstudien jedoch die qualitative, d. h. explorativ-interpretative Forschung (s. Kap. 3.3). Man geht davon aus, dass sich in Einzelfällen über das ihnen Spezifische hinaus generellere Strukturen manifestieren, so dass sich „[a]us dem Besonderen eines Einzelfalls […] stets noch anderes von allgemeiner Relevanz ableiten [lässt], als nur das, was dem Theoretiker in seinen kategorialen Blick gelangt“ (Fatke 2010: 167). Als Vorteile gelten insbesondere der hohe Grad an Vollständigkeit und die Tiefe der Analyse, die Integration vielfältiger Sichtweisen und Interpretationen sowie die Möglichkeit, dass die Leser/innen im dargestellten Fall ihre Wirklichkeit wiedererkennen

4.2 Prototypische Designs

69

und daraus Erkenntnisse gewinnen können (vgl. Nunan/Bailey 2009: 166 – 167). Wichtig ist daher eine vielschichtige, offene Herangehensweise, wobei die Methodentriangulation zugleich eine relative Gewähr biete, Methodenfehler vergleichend zu erkennen bzw. zu vermeiden (Lamnek 2010: 273). Grundlage der Forschung ist die gezielte Auswahl des Falls bzw. der Fälle (‚typische‘ Fälle vs. gezielt abweichende oder extreme Fälle, vgl. auch Kapitel 4.3). In Studien mit mehreren Fällen folgt der individuellen Auswertung häufig ein Fallvergleich mit dem Ziel der Erfassung der überindividuellen Phänomene sowie einer Typisierung (Lamnek 2010: 291 – 292, zur Typenbildung vgl. auch Kapitel 5.3.5). Fallstudien in der Fremdsprachendidaktik

Auch in der deutschsprachigen Fremdsprachendidaktik erfreut sich der Einsatz von Fallstudien großer Beliebtheit. Neben den vielen Studien zum Zweit- und Fremdsprachenerwerb existiert eine Fülle von kleineren und größeren Untersuchungen, die in der Datenbank des ifs (Informationszentrum Fremdsprachenforschung) als „Fallstudie“ klassifiziert werden. Diese Beliebtheit dürfte nicht nur daran liegen, dass dieses Design eine Möglichkeit darstellt, der Faktorenkomplexion des Lehrens und Lernens von Sprachen gerecht zu werden, sondern vor allem daran, dass „die Einzelfallstudie als elementarer Baustein jeder qualitativen Studie anzusehen ist, denn eine qualitative Befragung von dreißig Personen etwa besteht aus dreißig Einzelfallstudien, die sich der gleichen Erhebungstechnik bedienen und analytisch miteinander verbunden sind“ (Lamnek 2010: 285). Häufig werden auch einzelne Fälle etwa aus einer umfangreicheren (Interview-) Studie vorab veröffentlicht. Für die Auswahl eines Beispiels aus der Fremdsprachendidaktik wurde daher ein engeres Verständnis von Fallstudie zugrunde gelegt: Fallstudie verstanden als eine mehrmethodische Untersuchung unterschiedlicher Konstituenten eines oderer mehrerer komplexer Fälle. Beispiele hierfür sind u. a. die Studien von Biebricher (2008), Bär (2009), Burwitz-Melzer (2003), Freitag-Hild (2010), Grünewald (2006), Kimes-Link (2013), Roters (2012), Peuschel (2012), Schubert (2013), Steininger (2014) und Tesch (2010). Grünewald (2006) konzipiert seine Untersuchung zur subjektiv wahrgenommenen Wirkung verschiedener Computeranwendungen im spanischen Anfangsunterricht aufgrund der zugrunde gelegten konstruktivistischen Auffassung von Fremdsprachenlernen (ebda.: 21 – 53) als Fallstudie. Um den Motivationsverlauf und den selbst eingeschätzten Lernfortschritt von Schüler/innen aus drei neunten Klassen (n=60) zu erheben, verwendet er unterschiedliche Instrumente: Eingangsfragebogen, strukturiertes Lerntagebuch mit Motivationskurven, Abschlussfragebogen und Leitfadeninterviews mit 15 ausgewählten Schüler/innen. Grünewald versteht die Falldarstellung als „Methode“, die bereits mit der Datenaufbereitung und der Fallanalyse beginnt (vgl. ebda.: 167 – 168). Daher verfolgt die Auswertung der Daten mit Hilfe des Transkriptionsprogramms MAXQDA das Ziel, jeden einzelnen Fall möglichst individuell zu erfassen. Um diesem Anspruch gerecht zu werden, wurden die Kategorien aus dem Material entwickelt und es wurden zu jedem/jeder Lerner/in zusätzlich zu den Daten aus den Interviews die Daten aus den anderen Untersuchungsinstrumenten mit kodiert. Ausgewählt wurden schließlich sechs Fälle (zu den Auswahlkriterien vgl. ebda.: 151 – 152), die auf jeweils gut 20 Seiten dargestellt und in einer vergleichenden Synopse zusammengestellt werden. Die in Form von „zusammenfassenden Thesen“ dargestellten Ergebnisse beruhen ausschließlich

70

4. Forschungsentscheidungen

auf diesen sechs Fällen. In der abschließenden Reflexion kommt Grünewald zu dem Schluss „dass methodisch kontrollierte Einzelfalldarstellung[en] mehr können, als Theorien zu veranschaulichen oder zu überprüfen. Sie können auch mehr als nur Hypothesen für weitere […] Forschung generieren: Sie tragen zur Gewinnung neuer wissenschaftlicher Erkenntnisse und damit letztendlich zur Theoriebildung bei“ (ebda.: 316). Die Studie von Rauschert (2014) ist ein Beispiel für ein Design, das Fallstudie und Aktionsforschung (Abschnitt 3) verknüpft. Ausgehend von dem bisher nur in der Pädagogik bekannten Unterrichtsansatz des Service Learning setzt sich die Arbeit mit der Frage auseinander, wie im Englischunterricht in der gymnasialen Mittelstufe durch Projektarbeit, die fachspezifische Ziele und Inhalte mit sozialem Engagement verbindet, interkulturelle und kommunikative Kompetenzen gefördert werden können. Ausgehend von Byrams Modell (Byram 1997) der interkulturellen kommunikativen Kompetenz und dem Leitgedanken des Service Learning gestaltet die Verfasserin ein Projekt in einer 10. Klasse, in dessen Rahmen die Schüler/innen in Zusammenarbeit mit indischen Schüler/innen ein Magazin zum Thema „Happiness“ erarbeiten und produzieren, dessen Erlös einer indischen Schule zugute kommt. Rauschert diskutiert den „action research cycle“ anhand ihres eigenen Projekts (Rauschert 2014: 161 – 166). Dabei reflektiert sie ihre eigenen Rollen als Forscherin und Lehrerin und setzt sich mit kritischen Einschätzungen dieses Forschungsansatzes auseinander. Somit wird deutlich, dass die Wahl des forscherischen Vorgehens getragen ist von genauer Kenntnis des Ansatzes in seinen Schwächen und Stärken, von nachvollziehbaren Überlegungen zur Passung von Forschungsthema, Fragestellungen und Methode und von (selbst-)kritischer Reflexion der eigenen Rolle. In den einzelnen Projektphasen werden unterschiedliche Formen der Datenerhebung eingesetzt, zu denen erstens ein Fragebogen im Pretest-Posttest-Format zur Feststellung interkultureller Fähigkeiten, Kenntnisse sowie Einstellungen, zweitens drei Befragungen der beteiligten Schüler/innen in Form von Interviews, drittens eine (simulierte) Pressekonferenz, viertens eine freie Textproduktion (Portfolio) und schließlich eine schriftliche Abschlussbefragung ein Jahr nach dem Projekt zählen. Alle Formen der Datenerhebung werden im Hinblick auf die Gütekriterien empirischer Forschung genau analysiert. Der eingesetzte Fragebogen wurde sowohl mit einer großen Stichprobe pilotiert als auch einem Expertenrating unterworfen.

4.2.2 Forschungsprogramm Subjektive Theorien (FST) Das zentrale Ziel qualitativer Forschung ist die Erhebung der Innen- bzw. Binnensicht der Forschungspartner/innen. Dazu gibt es eine Reihe von Konzepten und Zugängen, z. B. die Erforschung von Einstellungen (attitudes), Überzeugungen (beliefs), Wissen (knowledge) oder persönliche Konstrukten (personal constructs) bzw. Konzepten (conceptions). In der deutschsprachigen fremdsprachendidaktischen Forschung wurde der vergleichsweise weit gefasste, integrative Ansatz der „subjektiven Theorien“ besonders populär. Hauptvertreterin dieses Ansatzes im deutschsprachigen Raum ist eine Gruppe um Norbert Groeben, die in den 1970er und 80er Jahren das „Forschungsprogramm Subjektive Theorien“ (FST) (Groeben et al. 1988, s. im Folgenden auch Scheele/Groeben 1998) entwickelte. Dieses theoretisch und methodisch ausgereifte, anspruchsvolle Modell geht von der sog. „Struk-

4.2 Prototypische Designs

71

turparallelität“ des Denkens aus, d. h. davon, dass Forscher/innen und Forschungspartner/-­ innen prinzipiell die gleichen Denkstrukturen und -prozesse verwenden, die zum Aufbau von „Subjektiven Theorien“ führen. Damit werden relativ stabile Denkinhalte und -strukturen bezeichnet, die sich auf die eigene Person, auf andere Personen und die übrige Welt beziehen können. Sie können sowohl aus bewussten wie auch aus impliziten, dem Bewusstsein der Personen nicht zugänglichen Kognitionen bestehen und weisen eine zumindest implizite Argumentationsstruktur auf. In Analogie zu wissenschaftlichen Theorien dienen sie u. a. dazu, Situationen zu definieren, Sachverhalte zu erklären, Vorhersagen zu treffen oder Handlungsentwürfe und -empfehlungen zu konstruieren. Im FST wird Subjektiven Theorien zudem eine zumindest potenziell handlungsleitende Funktion zugeschrieben. In der sog. „engen Begriffsexplikation“ werden zwei weitere Anforderungen an Subjektive Theorien gestellt: Sie müssen im „Dialog-Konsens“ zwischen Forscher/in und Forschungspartner/in rekonstruierbar sein, d. h. es soll durch eine nachträgliche kommunikative Validierung sichergestellt werden, dass die erhobene Subjektive Theorie adäquat verstanden und rekonstruiert worden ist. Zudem soll durch eine „explanative“ oder Handlungsvalidierung festgestellt werden, ob die rekonstruierte subjektive Theorie auch tatsächlich handlungsleitend und damit als ‚objektive‘ Theorie gültig ist. In dieser weiten Explikation vermag das FST zur „Überwindung des unfruchtbaren Gegensatzes von sog. qualitativer und quantitativer Forschung beizutragen“ (Grotjahn 1998: 34). Das FST in der Fremdsprachendidaktik

Das FST stellt die Grundlage zahlreicher Studien zur Erhebung der Binnensicht von Lerner/innen und Lehrer/innen dar. Die Feststellung von Schart (2001:56), dass man „zumindest im deutschen Sprachraum nicht umhin [komme], den eigenen Ansatz [dazu] in Bezug […] zu setzen“ gilt bis heute. Dabei legen nur wenige Arbeiten die enge Begriffsexplikation zugrunde (u. a. Richert 2009, Lochtman 2002). Wesentlich häufiger wird auf die weite Explikation rekurriert (u. a. von Martinez 2008, Schart 2003, Hochstetter 2011, Hüttner/Dalton-Puffer 2013), nicht selten zuzüglich der kommunikativen Validierung (u. a. Berndt 2003, Kallenbach 1996, Morkötter 2005, Viebrock 2007). Zwar beklagt Grotjahn (1998: 34), dass das FST „häufig in einer sehr vagen und allgemeinen Bedeutung sowie ohne hinreichende theoretische Verankerung verwendet wird“. Trotzdem kam und kommt ihm vor allem als Prototyp in dem Sinne, dass von Forscher/innen in Auseinandersetzung mit dem FST eine individuelle, gegenstandsbezogene Forschungsmethodik für die eigene Forschungsfrage entwickelt wird, eine hohe Bedeutung für die forschungsmethodologische Diskussion innerhalb der Fremdsprachendidaktik zu. Als Anwendungsbeispiel sei die eng an die Methodik des FST angelehnte, häufig zitierte Arbeit von Kallenbach (1996) skizziert. Sie untersucht die individuellen Vorstellungen von fortgeschrittenen Fremdsprachenlerner/innen. Um diese subjektiven Theorien mittlerer Reichweite zu erheben, führte sie „halbstrukturiert-leitfadenorientierte“ Interviews mit insgesamt 14 Schüler/innen aus verschiedenen 12. Klassen, die seit einem guten Jahr zusätzlich Spanisch lernten. Aus den Interviews erstellte die Verfasserin eine erste Rekonstruktion der individuellen subjektiven Theorien. Diese wurden anschließend mit Hilfe der Heidelberger Strukturlege-Technik kommunikativ validiert. Dazu erstellten die Schüler/innen aus den von

72

4. Forschungsentscheidungen

der Verfasserin ausgewählten und auf Kärtchen notierten zentralen Begriffen aus den Interviews mit Hilfe von zehn Relationskärtchen (z. B. „Wechselwirkung“, „Folge, Konsequenz“, „Ober-/Unterbegriff“ oder „Beispiel“) ein Strukturbild, das ihre Subjektive Theorie möglichst genau wiedergibt. Die Strukturbilder boten zum einen Anlass, im Gespräch bestimmte Aspekte erneut zu thematisieren, außerdem wurden sie später den in den Interviews entwickelten Argumentationen gegenübergestellt, so dass sich Hinweise auf die Konsistenz der erhobenen Theorien ergaben. Zusätzlich füllten die Schüler/innen zwischen Interview und kommunikativer Validierung einen fünfseitigen Fragebogen mit Fragen zu ihrem Fremdsprachenlernen aus, den die Verfasserin punktuell als Zusatzinformation heranzog. Fünf der subjektiven Theorien wurden als einzelne Fälle dargestellt, zusätzlich wurden die zentralen, von allen Gesprächspartner/innen thematisierten Aspekte des Fremdsprachenlernens interviewübergreifend zusammengestellt („aggregiert“).

4.2.3 Aktionsforschung Mit der 1990 erschienenen Erstauflauge des Buches „Lehrer erforschen ihren Unterricht“ (Altrichter/Posch 1990) etablierte sich die Aktionsforschung (action research) oder Handlungsforschung bzw. die häufig als Synonyme verwendeten, eng damit verbundenen Konzepte der Praxisforschung und teacher research auch im deutschsprachigen Raum. Sie bietet die Möglichkeit, Theorie und Praxis in der Forschung untrennbar miteinander zu verbinden (zum Verhältnis von Theorie und Praxis siehe auch Kapitel 6.2). Grundgedanke ist die Vorstellung von Lehrer/innen als reflektierenden Praktiker/innen, die aktiv und systematisch ihren Unterricht erforschen und im Forschungsprozess verändern wollen. Aktionsforschung kann in unterschiedlichen Kontexten angewandt werden: als Instrument der Aus- und Fortbildung (vgl. Hermes 2001, z. B. in der Studie von Benitt 2015), als Verfahren, um (selbstbestimmt) den eigenen Unterricht zu verändern, als Verfahren zur Unterrichts- und Schulentwicklung (vgl. Weskamp 2003), als Schulbegleitforschungsprojekt für die Konkretisierung und Erprobung bildungspolitischer Innovationen (z. B. AbendrothTimmer 2007, Bechtel 2015), als Instrument zur Implementation von Forschungsergebnissen in der Praxis (vgl. Riemer 2014: 257) sowie als Instrument zur Erprobung und ggf. Weiterentwicklung wissenschaftlicher Erkenntnisse in der Praxis (z. B. Even 2003, Jäger 2011, Lamsfuß-Schenk 2008, Schart 2008, Müller-Hartmann/Schocker/Pant 2013, Schreiber 2010, Raith 2011). Normalerweise werden die Ergebnisse von Aktionsforschungsprojekten nur im letzten Fall veröffentlicht, die anderen stehen der Öffentlichkeit zumeist nicht zur Verfügung. Allerdings folgt die Aktionsforschung auch in weiteren Aspekten nicht unbedingt den traditionellen Kriterien wissenschaftlicher Forschung bzw. definiert sie teilweise neu (vgl. Altrichter 1990, Altrichter/Feindt 2011: 214 – 215): – Die traditionelle Trennung von Forschung und Entwicklung wird in einem Prozess, in dem Forschung und Entwicklung einander bedingen, aufgehoben. – Ähnlich wie im FST (s. Abschnitt 2) werden Praktiker/innen als Akteure des Forschungsprozesses angesehen.

4.2 Prototypische Designs

73

– Die Forschung ist als längerfristiger, zyklischer Prozess angelegt, innerhalb dessen – i. d. R. ausgehend von einem Praxisproblem – theoretische Annahmen zur Veränderung der Praxis im praktischen Handeln überprüft werden und nach erneuter Reflexion in revidierten Praxisvorschlägen bzw. Veränderungen der theoretischen Annahmen münden (vgl. auch die Darstellung in Burns 2010: 9). – Aktionsforschung versucht der Komplexität der Praxis durch den Einbezug möglichst unterschiedlicher Forschungsinstrumente (i. d. R. (Selbst-) Beobachtungen und Befragungen) und Perspektiven (neben den Lehrkräften und universitären Forscher/innen z. B. Schüler/innen, Kolleg/innen, studentische Beobachter/innen) gerecht zu werden. – Viele Aktionsforschungsprojekte werden als Gemeinschaftsprojekte durchgeführt. Neben forschungspraktischen Gründen wird dies der Vorstellung von professionellem Lernen als sozialem Lernen gerecht. – Dadurch, dass Aktionsforschung in soziale Praktiken eingreift, kann sie nicht wertneutral sein. – Die traditionellen, am quantitativen Paradigma ausgerichteten Vorstellungen von Objektivität, Reliabilität und Validität werden neu definiert bzw. ersetzt durch Multiperspektivität, praktische Erprobung und ethische Kriterien, z. B. der Vereinbarkeit mit pädagogischen Zielen. Aktionsforschung in der Fremdsprachendidaktik

Praktische Anleitungen zur Planung, Durchführung und Auswertung von Aktionsforschungsprojekten finden sich z. B. in Altrichter/Posch (insb. in der 4. Auflage des Buches von 2007), auf den Fremdsprachenunterricht fokussierte Anleitungen und Beispiele in Burns (2010), Riemer (2014) und Wallace (1998). Wie an der Zahl und dem Erscheinungsdatum der im letzten Abschnitt genannten Beispiele deutlich wird, zählt Aktionsforschung inzwischen zu einem in der Fremdsprachendidaktik anerkannten Design. Auffällig ist, dass alle aufgeführten Arbeiten entweder von universitären Wissenschaftler/innen begleitet wurden oder das Aktionsforschungsprojekt Gegenstand der eigenen Qualifikationsschrift war. Insbesondere für Nachwuchswissenschaftler/innen, die parallel als Fremdsprachenlehrkräfte tätig sind, scheint es sich um ein attraktives Forschungsdesign zu handeln, mit dem sie die beiden beruflichen Felder verbinden können. So stellte sich Anja Jäger (2011) aufgrund der Beobachtung, dass sich viele Lehrkräfte mit der Entwicklung interkultureller Kompetenzen im Englischunterricht schwertun, die Frage, welche Aufgaben sich dazu besonders gut eignen und unter welchen Bedingungen sie ihr Potenzial am besten entfalten. Dazu entwarf sie unter Rückgriff auf Forschungen und Erfahrungsberichte zum interkulturellen Lernen, zum aufgabenorientierten Ansatz, zur Literaturdidaktik und zur Dramenpädagogik einen theoretischen Rahmen für die Erstellung von Aufgaben. In ihrem Aktionsforschungsprojekt erprobte sie dann die für den Jugendroman „Bend it like Beckham“ von ihr entwickelten Aufgaben in drei Realschulklassen, wobei sie beim ersten Mal selbst unterrichtete und aufgrund der Erfahrungen des ersten und zweiten Durchlaufs die Aufgaben jeweils veränderte. Als Forschungsinstrumente setzte sie Forschertagebuch, teilnehmende Beobachtung, Video- und Audioaufnahmen der Unterrichts-

74

4. Forschungsentscheidungen

stunden, die schriftlichen Unterrichtsprodukte und retrospektive Leitfadeninterviews sowie Fragebögen ein (Jäger 2011: 180 – 189). In der engen Zusammenarbeit mit den beteiligten Lehrkräften, Schüler/innen und den (je nach Zyklus wechselnden) begleitenden Studierenden entstand eine Forschergemeinschaft, die den Prozess des Unterrichtens, der Datenerhebung und -auswertung gemeinsam durchführte bzw. beobachtete und dadurch eine Vielperspektivität sicherstellte, die sich in den dichten Beschreibungen und den detaillierten Analysen der einzelnen Unterrichtssequenzen niederschlägt.

4.2.4 Fazit Die jeweils hohe Anzahl an Studien, die methodisch auf die hier vorgestellten komplexen Designs zurückgreifen, deutet darauf hin, dass es sich hierbei um für fremdsprachendidaktische Forschung besonders attraktive Forschungsansätze handelt. Dies könnte mit bestimmten Spezifika fremdsprachendidaktischer Forschung (vgl. Kapitel 2) zusammenhängen: So ist es mit Fallstudien besonders gut möglich, die Komplexität fremdsprachlicher Lehr-/Lernprozesse abzubilden. Auch scheint dieses Design der Tatsache entgegenzukommen, dass fremdsprachendidaktische Qualifikationsarbeiten i. d. R. als Einzelprojekt geplant und durchgeführt werden. In Fallstudien werden zumeist mehrere Fälle (Subjekte, Lerngruppen, institutionelle Kontexte) vorgestellt, so dass auf diese Weise nicht nur die Vielschichtigkeit, sondern auch die Vielperspektivität fremdsprachendidaktischer Realitäten abgebildet werden kann. Das FST als prominentester Ansatz zur Erforschung der Binnensicht von Subjekten spiegelt zum einen die hohe Bedeutung, die den Akteur/innen fremdsprachlicher Lehr-/Lernprozesse als Subjekten bzw. Individuen in der fremdsprachendidaktischen Forschung zukommt. Zum anderen ermöglicht das Forschungsprogramm wie der Ansatz der Fallstudien, die Komplexität und Unterschiedlichkeit subjektiver Vorstellungen sichtbar zu machen. Die enge Variante des FST erlaubt darüber hinaus, das Handeln der untersuchten Personen in den Blick zu nehmen und bietet damit eine – wenn auch nicht unumstrittene Möglichkeit – Theorie und Praxis zu verbinden. Dies ist ebenfalls das Anliegen der Aktionsforschung, wobei dieser Ansatz bewusst über das Verstehen von Praxis hinausgeht und explizit auf ihre (forschende) Veränderung abzielt. Dies geschieht ebenfalls in Form von Fallstudien, wobei den im Lehr-/Lernprozess handelnden Akteur/innen die Schlüsselrolle zukommt. Zudem wird in diesem Ansatz das zentrale Anliegen jeglicher fremdsprachendidaktischer Forschung, direkt oder indirekt auf eine Verbesserung des Fremdsprachenlernens hinzuwirken, unmittelbar verfolgt. ››  Literatur Abendroth-Timmer, Dagmar (2007). Akzeptanz und Motivation: Empirische Ansätze zur Erforschung des unterrichtlichen Einsatzes von bilingualen und mehrsprachigen Modulen. Frankfurt/M.: Lang. Altrichter, Herbert (1990). Ist das noch Wissenschaft? Darstellung und wissenschaftstheoretische Diskussion einer von Lehrern betriebenen Aktionsforschung. München: Profil.

75 4.2 Prototypische Designs

quantitativ

4.2 Prototypische Designs

- in der Spezifik generelle Strukturen finden - Exploration, Hypothesenbildung, Überprüfung der Praktikabilität von Ergebnissen

Ziele

- Konzentration auf Individuen bzw. soziale Gemeinschaften - Interviews, Fragebögen, Beobachtungen - qualitative Analysen

Aspekte / Verfahren

- reflektierende Praktiker/ innen - Beobachtungen, Forschungstagebuch, Fragebögen, Interviews

- Interviews, Fragebogen Strukturbilder, kommunikative Validierung - explanative Validierung

- Verstehen, forschende Veränderung und Verbesserung von Praxis

- Rekonstruktion der Binnensicht von Forschungspartner/innen im Dialog-Konsens - Überprüfung der Handlungsleitung

feste Fügung von Forschungsinstrumenten mit spezifischen Zielen 

Fallstudien (case studies) Einzelfallanalyse multipel, holistisch, beschreibend, vollständig, analytisch tiefgehend, multiperspektivisch

Forschungsprogramm Subjektive Theorien (FST) Methodologie und Methode Strukturparallelität des Denkens von Forscher/innen und Partner/innen

Aktionsforschung

durch Akteur/innen von Lehr-/Lernprozessen häufig als forschende Gemeinschaft vereinbar mit pädagogischen Zielen zyklisch

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

qualitativ

76

4. Forschungsentscheidungen

Altrichter, Herbert/Feindt, Andreas (2011). Lehrerinnen und Lehrer erforschen ihren Unterricht: Aktionsforschung. In: Terhart, Ewald/Bennewitz, Hedda/Rothland, Martin (Hg.). Handbuch der Forschung zum Lehrerberuf. Münster: Waxmann, 214 – 231. Altrichter, Herbert/Posch, Peter (1990). Lehrerinnen und Lehrer erforschen ihren Unterricht. Bad Heilbrunn: Klinkhardt. (4. Auflage 2007). Bär, Marcus (2009). Förderung von Mehrsprachigkeit und Lernkompetenz. Fallstudien zu Interkomprehensionsunterricht mit Schülern der Klassen 8 bis 10. Tübingen: Narr Bechtel, Mark (Hg.) (2015). Fördern durch Aufgabenorientierung. Bremer Schulbegleitforschung zu Lernaufgaben im Französisch- und Spanischunterricht der Sekundarstufe I. Frankfurt/M.: Lang. Benitt, Nora (2015). Becoming a (Better) Language Teacher. Classroom Action Research and Teacher Learning. Tübingen: Narr. Berndt, Annette (2003). Sprachenlernen im Alter. Eine empirische Studie zur Fremdsprachengeragogik. München: iudicium. Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practitioners. New York: Routledge. Burwitz-Melzer, Eva (2003). Allmähliche Annäherungen: Fiktionale Texte im interkulturellen Fremdsprachenunterricht der Sek. I. Tübingen: Narr. Byram, Michael (1997). Teaching and assessing intercultural competence. Clevedon: Multilingual Matters. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 4. Auflage. London: Routledge. Even, Susanne (2003). Drama Grammatik: Dramapädagogische Ansätze für den Grammatikunterricht Deutsch als Fremdsprache. München: iudicium. Fatke, Reinhard (2010). Fallstudien in der Erziehungswissenschaft. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. vollständig überarbeitete Auflage. Weinheim: Juventa, 159 – 172. Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT. Groeben, Norbert/Wahl, Diethelm/Schlee, Jörg/Scheele, Brigitte (1988). Das Forschungsprogramm Subjektive Theorien: eeine Einführung in die Psychologie des reflexiven Subjekts. Tübingen: Francke. Grotjahn, Rüdiger (1998). Subjektive Theorien in der Fremdsprachenforschung: Methodologische Grundlagen und Perspektiven. In: Fremdsprachen Lehren und Lernen 27, 33 – 59. Grünewald, Andreas (2006). Multimedia im Fremdsprachenunterricht. Motivationsverlauf und Selbsteinschätzung des Lernfortschritts im computergestützten Spanischunterricht. Frankfurt/M.: Lang. Heigham, Juanita/Croker, Robert A. (2009). Qualitative Research in Applied Linguistics. A Practical Introduction. Houndmills: Palgrave MacMillan. Hermes, Liesel (2001). Action Research – Lehrkräfte erforschen ihren Unterricht. Herausgegeben vom Landesinstitut für Schule und Weiterbildung NRW, Soest. Hitchcock, Graham/Hughes, David (1995). Research and the Teacher: A Qualitative Introduction to School-based Research. 2. Auflage. New York: Routledge. Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Hüttner, Julia/Dalton-Puffer, Christiane (2013). Der Einfluss subjektiver Sprachlerntheorien auf den Erfolg der Implementierung von CLIL-Programmen. In: Breidbach, Stephan/Viebrock, Britta (Hg.). Content and language integrated learning (CLIL) in Europe. Research perspectives on policy and practice. Frankfurt/M.: Lang, 129 – 144.

4.2 Prototypische Designs

77

Jäger, Anja (2011). Kultur szenisch erfahren. Interkulturelles Lernen mit Jugendliteratur und szenischen Verfahren im aufgabenorientierten Fremdsprachenunterricht. Frankfurt/M.: Peter Lang. Kallenbach, Christiane (1996). Subjektive Theorien. Was Schüler und Schülerinnen über Fremdsprachenlernen denken. Tübingen: Narr. Kimes-Link, Ann (2013). Aufgaben, Methoden und Verstehensprozesse im englischen Literaturunterricht der gymnasialen Oberstufe. Eine qualitativ-empirische Studie. Tübingen: Narr. Lamnek, Siegfried (2010). Einzelfallstudie. In: Ders. (Hg.). Qualitative Sozialforschung. 5. überarbeitete Auflage. Weinheim: Beltz: 271 – 300. Lamsfuß-Schenk, Stefanie (2008). Fremdverstehen im bilingualen Geschichtsunterricht: Eine Fallstudie. Frankfurt/M.: Lang. Lochtman, Katja (2002). Korrekturhandlungen im Fremdsprachenunterricht. Bochum: AKS-Verlag. Martinez, Hélène (2008). Lernerautonomie und Sprachenlernverständnis: Eine qualitative Untersuchung bei zukünftigen Lehrerinnen und Lehrern romanischer Sprachen. Tübingen: Narr. Morkötter, Steffi (2005). Language Awareness und Mehrsprachigkeit. Eine Studie zu Sprachbewusstheit und Mehrsprachigkeit aus der Sicht von Fremdsprachenlernern und Fremdsprachenlehrern. Frankfurt/M.: Lang. Müller-Hartmann, Andreas/Schocker, Marita/Pant, Hans Anand (Hg.) (2013). Lernaufgaben Englisch aus der Praxis. Braunschweig: Bildungshaus Schulbuchverlage Nunan, David/Bailey, Kathleen M. (2009). Case Study Research. In: Dies. (Hg.). Exploring Second Language Classroom Research. A Comprehensive Guide. Boston, MA: Heinle, 157 – 185. Peuschel, Kristina (2012). Sprachliche Tätigkeit und Fremdsprachenlernprojekte. Fremdsprachliches Handeln und gesellschaftliche Teilhabe in „radiodaf“-Projekten. Baltmannsweiler: Schneider Verlag Hohengehren. Raith, Thomas (2011). Kompetenzen für aufgabenorientiertes Fremdsprachenunterrichten. Eine qualitative Untersuchung zur Ausbildung von Fremdsprachenlehrkräften. Tübingen: Narr. Rauschert, Petra (2014). „Intercultural Service Learning“ im Englischunterricht. Ein Modell zur Förderung interkutureller Kompetenz auf der Basis journalistischen Schreibens. Münster: Waxmann. Richert, Anja Simone (2009). Einfluss von Lernbiografien und subjektiven Theorien auf selbst gesteuertes Einzellernen mittels E-Learning am Beispiel Fremdsprachenlernen. Frankfurt/M.: Lang. Riemer, Claudia (2014). Besondere Forschungsansätze: Aktionsforschung. In: Settinieri, Julia/Dermirkaya, Servilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 255 – 267. Roters, Bianca (2012). Professionalisierung durch Reflexion in der Lehrerbildung. Eine empirische Studie an einer deutschen und einer US-amerikanischen Universität. Münster: Waxmann. Schart, Michael (2001). Aller Anfang ist Biografie – Vom Werden und Wirken der Fragestellung in der qualitativen Forschung. In: Müller-Hartmann, Andreas/Schocker-von Ditfurth, Marita (Hg.) (2001). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 40-61. Schart, Michael (2003). Projektunterricht  – subjektiv betrachtet. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Schart, Michael (2008). What matters in TBLT – task, teacher or team? An action research perspective from a beginning German language classroom. In: Eckerth, Johannes/Siekmann, Sabine (Hg.). Taskbased Language Learning and Teaching: Theoretical, Methodological, and Pedagogical Perspectives. Frankfurt/M.: Lang, 47 – 66. Scheele, Brigitte/Groeben, Norbert (1998). Das Forschungsprogramm Subjektive Theorien: theoretische und methodologische Gründzüge in ihrer Relevanz für den Fremdsprachenunterricht. In: Fremdsprachen Lehren und Lernen 27, 12 – 32. Schreiber, Rüdiger (2010). Aktionsforschung zum Einsatz von Podcasts und MP3 als Interaktionsmedium zwischen Dozenten und Lernenden. In: Chlosta, Christoph/Jung, Matthias (Hg.). DaF integriert:

78

4. Forschungsentscheidungen

Literatur, Medien, Ausbildung. 36. Jahrestagung des Fachverbandes Deutsch als Fremdsprache 2008 an der Heinrich-Heine-Universität Düsseldorf. Göttingen: Universitätsverlag, 191 – 211. Schubert, Anke (2013). Fremdverstehen durch amerikanische Jugendliteratur: Ein Beitrag zu einem authentischen Englischunterricht. Trier: WVT. Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdsprachenunterricht der Sekundarstufe I. Tübingen: Narr. Tesch, Bernd (2010). Kompetenzorientierte Lernaufgaben im Fremdsprachenunterricht. Frankfurt/M.: Lang. Viebrock, Britta (2007). Bilingualer Erdkundeunterricht. Subjektive didaktische Theorien von Lehrerinnen und Lehrern. Frankfurt/M.: Lang. Wallace, Michael J. (1998). Action Research for Language Teachers. Cambridge: CUP. Weskamp, Ralf (2003). Fremdsprachenunterricht entwickeln: Grundschule – Sekundarstufe I – Gymnasiale Oberstufe. Hannover: Schroedel.

»»  Zur Vertiefung empfohlen Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practitioners. New York: Routledge. Hierbei handelt es sich um eine umfassende, an Praktiker/innen gerichtete Einführung in die Aktionsforschung. Die Verfasserin behandelt alle für die Planung, Durchführung und Auswertung von Aktionsforschungsprojekten notwendigen Grundlagen, Aspekte und Verfahren, wobei der Schwerpunkt auf der kollaborativen Aktionsforschung liegt. Viele Beispiele von Aktionsforschungsprojekten und zahlreiche praktische Hinweise ermutigen dazu, selbst ein solches Projekt zu beginnen oder zu begleiten. De Florio-Hansen, Inez (Koord.) (1998). Fremdsprachen Lehren und Lernen 27. Themenschwerpunkt: Subjektive Theorien von Fremdsprachenlehrern. Dieses Themenheft enthält zahlreiche Beiträge zur Erforschung subjektiver Theorien in der Fremdsprachendidaktik. Die Spannweite reicht von grundlegenden forschungsmethodologischen und -methodischen Aufsätzen über Beiträge zur Erforschung von subjektiven Theorien von (angehenden) Lehrkräften bis hin zu Berichten über die Arbeit mit subjektiven Theorien in der Lehrerausbildung.

 Sampling

4.3

Urška Grum/Michael K. Legutke

4.3.1 Begriffsklärung und Einführung Empirisch arbeitende Fremdsprachendidaktiker müssen im Forschungsprozess Auswahlentscheidungen treffen, die wesentlichen Einfluss auf die Datenerhebung, die Datenauswertung sowie die Präsentation der Ergebnisse haben und damit nicht zuletzt den Erfolg und die Aussagekraft der Studie bestimmen. Den Prozess der Auswahlentscheidungen, der im folgenden

4.3 Sampling

79

Kapitel skizziert werden soll, nennt man Sampling. So geht es u. a. um die Frage, von welchen Personen, Gruppen, Objekten oder Merkmalen (Stichprobe) in welcher Anzahl Daten erhoben werden sollen (Stichprobenziehung). Entschieden werden muss ferner, welche der erhobenen Daten im Detail zu analysieren sind (Datensampling) und welche Ergebnisse der Analyse prominent diskutiert und dargestellt werden müssen (Präsentationssampling). Unter Sample versteht man eine Stichprobe, also eine Gruppe von Menschen oder Objekten, die einer Grundgesamtheit (Population) entnommen wurde, um diese auf bestimmte Merkmale hin zu untersuchen, sprich um von dieser Daten zu erheben. In der qualitativen Studie von Steininger (2014), die die Modellierung literarischer Kompetenz für den Englischunterricht am Ende der Sekundarstufe I versucht, setzt sich die Stichprobe aus jeweils zwei 10. Gymnasialklassen, zwei 10. Realschul-, zwei 10. Gesamtschul- und schließlich zwei 9. Hauptschulklassen zusammen (Steininger 2014: 99). Sie besteht demnach aus acht Fällen bzw. Teilstichproben. Die Grundgesamtheit bildet hier die Gruppe aller Schülerinnen und Schüler mit Englischunterricht am Ende der Sekundarstufe in Hessen. Da Forschungsvorhaben, die einem quantitativen Paradigma verpflichtet sind, sich in den grundlegenden Zielsetzungen von denen unterscheiden, die qualitativen Designs folgen, differieren auch die Auswahlentscheidungen und -prozesse. Aus diesem Grund wird nachfolgend Sampling in der quantitativen (Abschnitt 2) und der qualitativen Forschung (Abschnitt 3) getrennt erörtert. Trotz der Unterschiede zwischen quantitativen und qualitativen Forschungsarbeiten sind empirisch arbeitende Forschende in der Regel mit den Herausforderungen des Zugangs zum Forschungsfeld konfrontiert, den Schlüsselpersonen und Institutionen (gatekeepers) regulieren. Für Arbeiten im schulischen Bereich sind dies u. a. die Kultusministerien der Länder, die Schulleitungen, die Schulkonferenzen und die Lehrkräfte. Gatekeepers spielen häufig eine zentrale Rolle bei der Konkretisierung der Auswahlentscheidungen (Merkens 2012: 288). Forschende können oftmals gar nicht anders, als ein aus forschungsstrategischen Überlegungen als ideal eingestuftes Sampling zu modifizieren, weil die Anforderungen der gatekeepers Einschränkungen mit sich bringen (s. auch Kapitel 4.6). Auswahlentscheidungen sind deshalb häufig Ergebnisse von Kompromissen, ohne die das jeweilige Forschungsprojekt gefährdet wäre, wie unten an Beispielen noch verdeutlicht wird.

4.3.2 Sampling in der quantitativen Forschung Quantitative Forschung strebt vom Grundsatz her Repräsentativität der Ergebnisse an. Diese wäre vollständig gegeben, würden alle für die Beantwortung der Forschungsfrage zu untersuchenden Personen, Merkmale oder Objekte untersucht. Da dies jedoch aus Praktikabilitätsgründen meistens nicht möglich ist, muss aus der Grundgesamtheit eine Stichprobe gezogen werden, die das zu untersuchende Phänomen möglichst genau abbildet, sprich repräsentiert. Mit anderen Worten: quantitative Forschung ist daran interessiert, Ergebnisse zu gewinnen, die nicht nur für die Stichprobe selbst, sondern für die gesamte Population gültig sind. Die zugrunde gelegte Population, die anhand einer Stichprobe genauer untersucht werden soll, kann dabei sehr groß (z. B. alle 15-jährigen Schülerinnen und Schüler weltweit) oder auch sehr klein sein (z. B. alle Schülerinnen und Schüler einer Klasse). Welche Stichprobengröße in Relation zur Grundgesamtheit angemessen ist, wird in Abschnitt 2.3 erläutert. Zunächst soll

80

4. Forschungsentscheidungen

jedoch diskutiert werden, welche Sampling-Strategien (Stichprobenziehungsverfahren) dafür zum Einsatz kommen können (Abschnitt 2.2) und welche a priori Entscheidungen getroffen werden müssen, um eine größtmögliche Repräsentativität der Stichprobe zu gewährleisten (Abschnitt 2.1). Zur Verdeutlichung möglicher Sampling-Strategien werden ausgewählte Forschungsarbeiten aus den Fremdsprachendidaktiken herangezogen. 1 Vorabentscheidungen

Um die mit Hilfe statistischer Verfahren gewonnenen Analyseergebnisse einer Stichprobe später auf die gesamte Population verallgemeinern zu können, müssen vorab genaue Überlegungen angestellt werden, wie die Repräsentativität der Stichprobe sichergestellt werden kann. Vollständige Repräsentativität ist gegeben, wenn alle Mitglieder der Grundgesamtheit untersucht werden, so dass Population und Stichprobe deckungsgleich sind. Diese Totaloder Vollerhebung stellt die einfachste Sampling-Strategie dar. In diesem Fall ist die gesamte Population erhebungsrelevant und kann mit den gegebenen Ressourcen in ihrem Umfang auch erfasst werden. Beispielsweise ließen sich über eine Vollerhebung alle Schülerinnen und Schüler einer Schule zu ihrer Zufriedenheit mit dem kulinarischen Angebot der Schulmensa befragen, wohingegen es ein hoffnungsloses Unterfangen wäre, mit dieser Sampling-Strategie die Lesekompetenz aller 15-jährigen Schülerinnen und Schüler weltweit messen zu wollen. Hier empfiehlt es sich, von einer Vollerhebung abzusehen und die erhebungsrelevante Grundgesamtheit in ihrer Anzahl (Umfang der Grundgesamtheit: N) im Rahmen einer Teilerhebung auf eine Stichprobe geringerer Zahl (Stichprobenumfang: n) zu reduzieren. Um jedoch die aus der Analyse der über die Stichprobe gewonnenen Befunde auf die Grundgesamtheit (alle 15-Jährigen weltweit) beziehen zu können, bedarf es einer Stichprobe, die die Grundgesamtheit repräsentiert. Eine repräsentative Stichprobe stellt ein unverzerrtes Miniaturabbild der Grundgesamtheit in Bezug auf die zu untersuchenden Personen, Objekte oder Merkmale dar. Ist die Miniatur nicht deckungsgleich mit dem Original, entsteht ein Zerrbild, was die Grundgesamtheit nicht zuverlässig darstellt. Repräsentativität ist in der Forschungspraxis eher eine theoretische Zielvorgabe als ein Attribut konkreter Untersuchungen […] Die meisten Laien […] glauben, dass große Stichproben (z. B. 1000 Befragte) bereits die Kriterien für Repräsentativität erfüllen. […] Es ist ein weit verbreiteter Irrtum, dass mit wachsender Stichprobengröße die Repräsentativität der Stichprobe generell steigt. Dies trifft nur bei unverzerrter Auswahl zu. Bei einer verzerrten Auswahl hilft auch ein großer Stichprobenumfang nicht, den Fehler zu beheben, er wiederholt sich nur in großem Stil. (Bortz/Döring 2006: 398)

Repräsentativität ist eine Grundvoraussetzung für schließende bzw. inferenzstatistische Verfahren, die auf die Daten der Stichprobe angewendet werden. Ist die Stichprobe nicht repräsentativ für die Grundgesamtheit, lassen sich formal-statistisch die Studienergebnisse nicht auf die Grundgesamtheit verallgemeinern und die Aussagekraft der Studie reduziert sich auf die Stichprobe selbst. Es lassen sich zur Beschreibung der Stichprobe lediglich Verfahren der deskriptiven Statistik verwenden. Repräsentative und nicht-repräsentative Stichproben unterscheiden sich also in ihrer Aussagekraft und in der Art statistischer Verfahren, die auf sie angewendet werden können. Damit empfiehlt es sich, vorab festzulegen, welche Aussagekraft die Ergebnisse einer Studie haben sollen und Stichprobe und Sampling-Verfahren entsprechend zu wählen.

4.3 Sampling

81

Es gibt verschiedene Sampling-Strategien, die eine größtmögliche Repräsentativität der Stichprobe anstreben. Sampling-Strategien geben einen Stichprobenplan vor, nach dem die Stichprobenziehung erfolgt. Dieser legt genau fest, welche Elemente in welcher Anzahl in die Stichprobe aufgenommen werden. Es gibt probabilistische wie nicht-probabilistische Sampling-Strategien. Erfolgt die Auswahl aus der Grundgesamtheit so, dass die ausgewählten Elemente die gleiche bzw. bekannte Auswahlwahrscheinlichkeit haben, entstehen probabilistische Stichproben; ist die Auswahlwahrscheinlichkeit unbekannt, ergeben sich nicht-probabilistische Stichproben (vgl. z. B. Bortz/Döring 2006: 402). 2 Sampling-Strategien

Probabilistischen Sampling-Strategien (Zufallsstichprobenauswahl) liegt die Annahme zugrunde, dass sich Zufallsstichproben, die von einer Grundgesamtheit gezogen werden, zwar unterscheiden, aber alle Elemente der Grundgesamtheit qua Zufall eine ähnliche Wahrscheinlichkeit haben, genauso verteilt zu sein wie in der Grundgesamtheit. Statistisch betrachtet ist somit eine ausreichend große Wahrscheinlichkeit gegeben, dass eine einzelne Zufallsstichprobe dem Mittel der Grundgesamtheit ähnelt. Aus probabilistischen Stichproben gewonnene Ergebnisse erlauben daher populationsbeschreibende Rückschlüsse. Aus den gängigsten probabilistischen Sampling-Strategien resultieren u. a. folgende Stichprobentypen:

• Zufallsstichprobe: Eignet sich für Untersuchungen, bei denen noch nichts über die untersuchungsrelevanten Merkmale bekannt ist. Per Zufallsauswahl werden die Probandinnen und Probanden (oder Objekte) direkt aus der Grundgesamtheit gezogen. Dazu muss die Grundgesamtheit bekannt sein und die Auswahl nachweislich zufällig stattfinden (vgl. z. B. Bortz/Döring 2006: 480, Bortz/Schuster 2010: 80, Cohen/Manion/Morrison 2011: 153). Dies kann z. B. dadurch gewährleistest werden, dass jedes Mitglied der Grundgesamtheit eine Nummer erhält. Die Auswahl der zur Stichprobe gehörigen Nummern erfolgt dann über einen Zufallsgenerator. Hier wird statistisch unterschieden zwischen einfacher Zufallsstichprobe (die gezogenen Nummern werden zurückgelegt und können erneut ausgewählt werden) und Zufallsstichprobe (hier kann jedes Mitglied der Grundgesamtheit nur einmal in die Stichprobe gewählt werden). • Geschichtete Stichprobe: Um die Verteilung der zu untersuchenden Merkmalsausprägung in einer Stichprobe analog zu ihrer Verteilung auf verschiedene Schichten innerhalb der Grundgesamtheit replizieren zu können, muss diese Verteilung (z. B. aus Vorstudien) bekannt sein. Die Mitglieder aus den Schichten der Grundgesamtheit werden zufällig in die entsprechende Schicht der Stichprobe gewählt (vgl. z. B. Bortz/Döring 2006: 425, Bortz/ Schuster 2010: 81, Cohen/Manion/Morrison 2011: 154). Ist beispielsweise bekannt, dass sich Leistungskurse in der Fremdsprache Französisch im Mittel aus 20 % männlichen und 80 % weiblichen Jugendlichen zusammensetzen, dann sollte sich diese Quote auch in der Stichprobe einer entsprechenden Studie wiederfinden. Gleiches gilt für alle Merkmale, die Einfluss auf die im Forschungsfokus stehende Eigenschaft haben könnten. • Klumpenstichprobe: Als Klumpen werden natürliche Teilkollektive oder bereits bestehende Gruppen bezeichnet, wie etwa Schulklassen und Schulen. Analog zur Zufallsstichprobenziehung ist auch hier eine Liste aller studienrelevanten Klumpen notwendig, aus der per Zufall eine bestimmte Anzahl an Klumpen in ihrer Gesamtheit für die Stichprobe

82

4. Forschungsentscheidungen

ausgewählt wird (vgl. z. B. Bortz/Döring 2006: 435 – 6, Bortz/Schuster 2010: 81, Cohen/ Manion/Morrison 2011: 154). Es ist beispielsweise nicht möglich, im Rahmen einer Klumpenstichprobenziehung, für die ganze Schulklassen ausgewählt werden, nur einige Schüler aus einer gewählten Schulklasse in die Stichprobe aufzunehmen. • Mehrstufige Stichprobe: Klumpenstichproben können oftmals zu umfangreich werden, wenn die Klumpen selbst schon sehr groß sind. In diesen Fällen bieten sich zwei- oder mehrstufige Stichprobenziehungen an. Dabei wird in einem ersten Schritt eine Liste aller untersuchungsrelevanten Klumpen erstellt, aus der per Zufall eine bestimmte Anzahl an Klumpen ausgewählt wird (Klumpenstichprobe). In einem zweiten Ziehungsschritt wird wiederrum per Zufall eine bestimmte Anzahl an einzelnen Untersuchungsobjekten für die Stichprobe ausgewählt. Diese Schritte können mehrfach wiederholt werden (vgl. z. B. Bortz/Döring 2006: 440 – 1, Cohen/Manion/Morrison 2011: 155). Die Stichprobenziehungen der PISA-Studien folgen annäherungsweise einer zweistufigen Sampling-Strategie: Zuerst werden per Zufall aus einer vollständigen Liste infrage kommender Bildungseinrichtungen Schulen ausgewählt (Klumpenstichprobe), aus denen dann in einem zweiten Schritt zufällig die 15-jährigen Probandinnen und Probanden gezogen werden. Um größtmögliche Repräsentativität der Stichprobe zu gewährleisten, muss in der Forschungspraxis oft auf mehrstufige Sampling-Verfahren zurückgegriffen werden. Dies lässt sich beispielhaft an der Studie von Grum (2012) darstellen: Untersucht wurde das Leistungsspektrum mündlicher englischer Sprachfähigkeit von Schülerinnen und Schüler der zehnten Jahrgangsstufe mit und ohne Bilingualem Sachfachunterricht in Berlin. Da es zum Erhebungszeitpunkt eine überschaubare Menge an Schulen mit bilingualem Sachfachunterricht gab (drei Gymnasien und drei Realschulen), wurden alle Schulen in die Studie aufgenommen. Anschließend wurden zu gleichen Anteilen aus den bilingualen wie regulären Klassen per Zufall, stratifiziert nach Geschlecht und Leistung, 84 Schülerinnen und Schülern gezogen, die an einem mündlichen Test teilnahmen. Der Stichprobenplan stellt somit eine Kombination aus Vollerhebung und geschichteter Stichprobe dar. Als weiteres Beispiel aus der SprachlehrLernforschung sei hier die Studie von Özkul (2011) zur Berufs- und Studienfachwahl von Englischlehrenden genannt. Auch hier wurde auf eine Mischform der Stichprobenziehung zurückgegriffen. Die Grundgesamtheit lässt sich folgendermaßen beschreiben: alle Lehramtsstudierende mit Anglistik/ Amerikanistik an deutschen Hochschulen im Wintersemester 2008, die an studieneinführenden Veranstaltungen teilnahmen. An 19 von 40 möglichen Hochschulen wurden Fragebögen verschickt, die von den Studierenden beantwortet wurden. Dieses Verfahren scheint zu einer Klumpenstichprobe in Kombination mit einer Zufallsstichprobe zu führen. Allerdings kann dieses Verfahren nicht als probabilistisch beschrieben werden, da sich Hochschulen und Studierende selbst für die Teilnahme an der Fragebogenergebung entschieden haben (Selbstauswahl) und nicht per Zufall ausgewählt wurden. Somit ist die Stichprobe nicht zufällig, sondern willkürlich entstanden und als nicht-probabilistisch einzustufen. Bei nicht-probabilistischen Sampling-Strategien (Quotenauswahlstrategien) spielt der Zufall keine Rolle, sodass ein höheres Risiko besteht, Auswahlfehler zu begehen, die zu einem verzerrten Abbild der Grundgesamtheit führen. Aus nicht-probabilistischen Stichproben gewonnene Ergebnisse erlauben daher keine verallgemeinernden Aussagen über die Grund-

4.3 Sampling

83

gesamtheit, gleichwohl lässt sich aber die Stichprobe beschreiben. Daher sind nicht-probabilistische Stichprobenverfahren dann sinnvoll, wenn beispielsweise die Grundgesamtheit unbekannt ist oder eine Studie zu rein deskriptiven oder explorativen Zwecken durchgeführt wird. Zu nicht-probabilistischen Sampling-Strategien gehören u. a. folgende Stichprobentypen:

• Ad-hoc-Stichprobe (Bequemlichkeitsauswahl oder Gelegenheitsstichprobe): Eine bereits bestehende Personengruppe bildet die Stichprobe (z. B. eine Schulklasse oder Lerngruppe, Passanten). Es ist meist nicht zu rekonstruieren, welche Grundgesamtheit eine Ad-hocStichprobe abbildet (vgl. z. B. Bortz/Döring 2006: 723, Bortz/Schuster 2010: 82, Cohen/ Manion/Morrison 2011: 155 – 6). • Quotenstichprobe: Die Zusammensetzung der Stichprobe erfolgt nach Merkmalsquoten, die analog zur Zusammensetzung dieser in der Population erfolgt. Es werden gezielt vermeintlich passende Untersuchungsobjekte in die Stichprobe aufgenommen, um die Quote für bestimmte Merkmalskategorien zu erfüllen. Die Erfüllung der Quoten spielt dabei eine größere Rolle als die zufällige Auswahl der Stichprobe und erfolgt nicht per Zufall, sondern nach subjektiven Kriterien der Datenerhebenden (vgl. z. B. Bortz/Döring 2006: 483, Bortz/ Schuster 2010: 82, Cohen/Manion/Morrison 2011: 156). Von einer Quotenauswahl kann beispielsweise dann gesprochen werden, wenn die Vorgabe ist, je vier Englischlehrerinnen und -lehrer zu befragen und der Interviewer sich in den Schulpausen im Lehrerzimmer solange passende Interviewpartner sucht, bis die Quote erfüllt ist. • Theoretische Stichprobe: Nicht zufalls-, sondern theoriegeleitet werden für eine Forschungsfrage besonders typische oder untypische Fälle ausgewählt, mit dem Ziel, deren Verteilung in der Grundgesamtheit in der Stichprobe widerzuspiegeln (vgl. z. B. Bortz/ Döring 2006: 742 – 3, Bortz/Schuster 2010: 82, Cohen/Manion/Morrison 2011: 156 – 7). Dieses Verfahren wird auch bei quantitativen Studien eingesetzt, findet aber primär in der qualitativen Forschung Anwendung (s. Kapitel 4.3). 3 Stichprobengröße

Um eine möglichst hohe Repräsentativität für die Aussagekraft der Ergebnisse einer Studie zu erzielen, ist neben der Genauigkeit, mit der eine Stichprobe die Grundgesamtheit abbildet, und dem Grad an Zufälligkeit, mit der die Elemente der Grundgesamtheit in die Stichprobe gewählt werden, auch die Größe der Stichprobe von Bedeutung. Prinzipiell lassen sich statistische Kennzahlen mit jedem ‚irgendwie‘ erhobenen Datensatz jeglicher Größe berechnen – jedoch lassen sich weder die Qualität der Ergebnisse noch die Aussagekraft der Studie nachvollziehen. Wird ein quantitativ-empirisches Forschungsdesign mit auf die Grundgesamtheit schließenden inferenzstatistischen Verfahren angestrebt, lässt sich a priori der Umfang für die probabilistisch zu erhebende Stichprobe berechnen. Dabei wird ein möglichst optimaler Stichprobenumfang angestrebt, denn zu kleine Stichproben verringern die Teststärke und zu große Stichproben erhöhen den Erhebungsaufwand unnötig. „Stichprobenumfänge sind optimal, wenn sie einem Signifikanztest genügend Teststärke geben, um einen getesteten Effekt bei vorgegebener Effektgröße entdecken und auf einem vorgegebenen Signifikanzniveau absichern zu können“ (Bortz/Döring 2006: 736). Statistisch gesehen hängen Teststärke, Effektgröße, α-Fehlerniveau und Stichprobenumfang voneinander ab. Dies bedeutet, dass

84

4. Forschungsentscheidungen

sich die Stichprobengröße berechnen lässt, wenn man Teststärke, Effektgröße und α-Fehlerniveau festlegt. Diese Berechnung ist auch abhängig vom gewählten statistischen Verfahren, das auf die Daten angewendet werden soll. Das α-Fehlerniveau wird oftmals auf 5 % oder 1 % festgelegt und die Teststärke (1-β) auf .80. Die Effektgröße hingegen ist stark abhängig vom Forschungszusammenhang und wird oft in kleinere, mittlere und größere Effekte unterteilt. Der optimale Stichprobenumfang lässt sich für spezifische statistische Tests beispielsweise mit der Software G*Power berechnen oder in Tabellen nachschlagen (vgl. z. B. Cohen/Manion/ Morrison 2011: 147 – 8, Bortz/Döring 2006: 627 – 8). Zusammenfassend lässt sich für die Planung eines quantitativen Samplings folgender Ablaufplan erstellen: Zuerst wird entschieden, ob es nötig ist, eine Stichprobe zu ziehen oder ob eine Vollerhebung durchgeführt werden kann. Danach wird die Population in ihrer Größe und ihren erhebungsrelevanten Merkmalen definiert. Anschließend erfolgt die Festlegung auf eine für die Studie passende Sampling-Strategie. Zum Schluss wird überprüft, ob Zugang zur Stichprobe besteht (gatekeepers) oder ggf. die Sampling-Strategie geändert werden muss.

4.3.3 Sampling in der qualitativen Forschung Da qualitative Forschungen nicht statistische Repräsentativität der Ergebnisse anstreben, spielt die Frage auch keine Rolle, ob die für die Datenerhebung gewählte Stichprobe für die Gesamtheit einer Population repräsentativ ist. Bei qualitativen Studien werden Auswahlentscheidungen deshalb nicht von probabilistischen, sondern eher von inhaltlichen Gesichtspunkten gesteuert; sie sind eng mit dem Forschungsprozess verbunden und stellen sich auf drei Ebenen, nämlich (1) der Ebene der Datenerhebung, (2) der Ebene der Datenauswertung und schließlich (3) der Präsentation der Ergebnisse (vgl. Flick 2011: 155). Damit das jeweilige Forschungsvorhaben intersubjektiv nachvollziehbar ist, muss das Sampling transparent und damit nachvollziehbar sein. Im Folgenden sollen solche Auswahlentscheidungen unter Berücksichtigung ausgewählter Forschungsarbeiten aus den Fremdsprachendidaktiken skizziert werden. 1 Vorabentscheidungen und Festlegung des Samples für die Datenerhebung

Die Festlegung der Stichprobe wird zunächst durch die Forschungsfrage und die theoretischen Vorüberlegungen des Forschers bestimmt; sie leiten eine von Kriterien bestimmte, gezielte Auswahl. Die Entscheidung ist demnach theorie- und kriteriengeleitet: purposive sampling und criterion sampling (Silverman 2000: 104 – 5). Als Beispiel für solche begründeten (Vorab-) Entscheidungen diene die Referenzarbeit von Ehrenreich (2004), in der die Forscherin die Bedeutung des Auslandsaufenthalts für die Fremdsprachenlehrerbildung unter besonderer Berücksichtigung des Assistant-Jahres mit Hilfe einer Interviewstudie untersucht. Theoretische Vorüberlegungen im Zusammenhang der Aufarbeitung der Fachliteratur bilden die Basis für eine Kriterienmatrix mit entsprechenden Parametern, die die Forscherin bei der tatsächlichen Informantenauswahl leiteten. Auswahlkriterien sind u. a.: Geschlecht, Herkunftsbundesland, Zielland und Ausbildungsphase zum Zeitpunkt der Interviews. Unter Berücksichtigung dieser Matrix konstituiert Ehrenreich im Schneeballverfahren (s. Kapitel 5.2.1) die Stichprobe ihrer

4.3 Sampling

85

Studie, eine Gruppe von 22 Informanten, die zum einen als typisch markierte Fälle gemäß der Kriterien enthält, zum anderen eine maximale Variation der Teilnehmenden innerhalb der Gesamtgruppe abbildet (Ehrenreich 2004: 158f). Kimes-Link (2013) untersucht „welche Aufgaben und Methoden Lehrkräfte im englischen Literaturunterricht der gymnasialen Oberstufe bei der Lektüre von Ganzschriften einsetzen und inwiefern diese geeignet sind, die Interaktion zwischen den Lernenden und dem Text sowie die Interaktion innerhalb der Lerngruppe zu intensivieren, gemeinsame Bedeutungsaushandlungen zu initiieren und vertiefte Verstehensprozesse zu begünstigen“ (Kimes-Link 2013: 85). Sie konstituiert theoriegeleitet die Stichprobe ihrer Studie aus insgesamt sieben Kursgruppen gymnasialer Oberstufen, die zum einen unterschiedliche Schul- und Kurstypen repräsentieren, zum anderen ein Spektrum unterschiedlicher literarischer Genres zum Arbeitsgegenstand haben (Dramen, Jugendromane, Romane und Kurzgeschichten). A priori vorgenommene, kriterien- und theoriegeleitete Konstruktionen einer Stichprobe werden, wenn es um die konkrete Realisierung des Projekts geht, von drei Aspekten beeinflusst, die letzten Endes den Forschungsprozess beeinflussen und häufig für das Sampling modifizierend wirken. Die Frage, wo und wie Forschende ihre Forschungspartner gewinnen, bringt die Herausforderung auf den Begriff. Da ist zum einen der Aspekt der räumlichen und institutionellen Zugänglichkeit. So kann es sein, dass ein räumlich naher und deshalb forschungspragmatisch günstiger Kontext, der für die Bearbeitung der Forschungsfrage zudem sehr vielversprechend wäre, nicht zugänglich ist, weil die gatekeepers unüberwindliche Hürden errichten. Andererseits kann ein räumlich ferner Kontext zugänglich sein, der den Forschenden jedoch einen größeren Zeitaufwand abnötigt und damit den Forschungsprozess erheblich belastet. Damit ist auch der zweite Aspekt angesprochen, nämlich die Machbarkeit des Projekts. Gerade für Qualifikationsarbeiten, die in der Regel von Individuen und nicht von Forschergruppen geleistet werden und mit oft sehr begrenzten Zeitbudgets auskommen müssen, ist die Frage, was unter den konkreten Bedingungen leistbar ist, von Bedeutung. Machbarkeitsüberlegungen werden deshalb in das Sampling eingehen müssen. Die Kombination von Machbarkeits- und Zugänglichkeitsüberlegungen kann zu einer Ad-hoc-Stichprobe führen, die weniger kriterien- und zielgeleitet, als vielmehr pragmatisch bestimmt ist: Die Forschende wendet sich Personen und Kontexten zu, die zur Verfügung stehen, wie die Untersuchung von Roters (2012: 161 – 63) verdeutlicht. Roters befasst sich in ihrer explorativen Studie mit dem Konstrukt der Reflexion, das in Diskursen zur Entwicklung von Lehrerprofessionalität als Schlüsselkompetenz markiert wird. Untersuchungsgegenstand sind die Beschreibung und Analyse zweier Lehrerbildungsprogramme und -kontexte einer deutschen und einer US-amerikanischen Universität. Die Auswahl der Stichprobe erfolgte zunächst theoriegeleitet und über umfangreiche Dokumentenanalysen, dann aber nach Kriterien der Zugänglichkeit und Machbarkeit, wobei nicht zuletzt formale und institutionelle Anforderungen bestimmend wirkten. Von Relevanz für die Bestimmung der Stichprobe ist schließlich die Bereitschaft der Forschungspartner, sich auf die Belastungen des Forschungsprozesses einzulassen: etwa auf narrative Interviews (Ehrenreich 2004) oder auf Videoaufnahmen im Klassenzimmer (KimesLink 2013): „… wie kann [der Forscher] erreichen, dass eine entsprechende Bereitschaft nicht nur geäußert wird, sondern zu konkreten Interviews und anderen Daten führt“ (Flick 2011: 143)?

86

4. Forschungsentscheidungen

2 Entscheidungen bei der Datenbearbeitung und Sampling-Strategien

Auch wenn zunächst entschieden ist, von welchen Personen und Gruppen Daten erhoben werde sollen, ist damit für qualitativ Forschende in der Regel das Sampling nicht abgeschlossen. Nicht nur Forschungsanfänger stehen vor der Herausforderung, die große Datenfülle, die in qualitativen Studien anfallen kann, zu meistern. Dabei stellen sich zwei Fragen. Welche Daten sind für die Beantwortung der Forschungsfrage zielführend, „the real challenge is not to generate enough data, but to generate useful data“ (Dörnyei 2007: 125 [Hervorh. im Original]) und welche Daten sollen in welcher Breite und Tiefe etwa mit Hilfe von Datentriangulation (s. Kapitel 4.4) bearbeitet werden. Entscheidungen sind dann häufig an den Prozess der Datenbearbeitung gebunden, aus dem sich oftmals auch eine weitere Differenzierung der Forschungsfrage(n) ergibt. Die Fälle werden damit schrittweise ausgewählt, Entscheidungskriterium ist ihre Relevanz für die Forschungsfrage und nicht ihre Repräsentativität (Flick 2011: 163). Forschenden stehen eine Reihe von Sampling-Strategien zur Verfügung, zu denen u. a. folgende gehören:3

• Sampling typischer Fälle: Der Forscher, der sich z. B. mit dem beruflichen Selbstverständnis von Englischlehrkräften in der Grundschule befasst, konzentriert sich auf Personen in den Daten, die in Hinblick auf die Forschungsfrage über typische Eigenschaften, Merkmale und/oder Erfahrungen verfügen (weibliche Lehrkräfte mit mehr als drei Jahren Berufserfahrung, die Englisch nicht als Muttersprache mitbringen), auf Personen also, die typisch für die Mehrzahl der untersuchten Fälle sind. • Sampling maximaler Variation: Der Forscher interessiert sich besonders für Fälle, die signifikante Unterschiede aufweisen, um die Bandbreite und Variabilität von Erfahrungen der untersuchten Gruppe zu erfassen und dabei mögliche Gemeinsamkeiten herauszuarbeiten. • Sampling extremer oder abweichender Fälle: Die Strategie ähnelt der vorangegangenen. Der Forscher fokussiert auf die Extremfälle, z. B. auf Lehrkräfte, die ihr berufliches Selbstverständnis besonders stark mit der Einschätzung ihrer L2-Kompetenz verknüpfen und sich Muttersprachlern besonders unterlegen fühlen. Auch hier könnte von Interesse sein, ob selbst solche Extremfälle Gemeinsamkeiten aufweisen. • Event-Sampling: Diese Sampling-Strategie ist vorwiegend in der Videoforschung vertreten und filtert bestimmte niedrig- oder hochinferente Phänomene (wie Partnerarbeit oder mündliche Fehlerkorrekturen) aus dem Videomaterial heraus. Event-Sampling wird vom Time-Sampling abgegrenzt. Beim Time-Sampling werden Kodierungen in bestimmten Zeitabständen vorgenommen (z. B. alle 2 Minuten) (vgl. Appel/Rauin 2015). • Sampling kritischer Fälle: Diese Strategie ist dem Event-Sampling ähnlich. Sie zielt auf Fälle in den Daten, die als zentral für die untersuchten Zusammenhänge gelten können. Schwab (2006), der mit Hilfe einer konversationsanalytischen Longitudinalstudie die Interaktionsstrukturen im Englischunterricht einer Hauptschulklasse untersucht, konkretisiert nach der ersten Durchsicht einer Grobtranskription der Daten die Gesprächspraktik „Schülerinitiative“ als ein kritisches Phänomen und zentrales Element von Schülerpartizipation. 81 dieser kritischen Fälle werden dann im Detail transkribiert und einer differenzierten 3 Zu den einzelnen Strategien vgl.: Dörnyei 2007: 95ff; Flick 2011: 165 – 67; Cohen/Manion/Morrison 2011: 148 – 164.

4.3 Sampling

87

Analyse unterzogen (Schwab 2006). Die Referenzarbeit von Schwab verdeutlicht, dass Sampling-Prozesse in qualitativen Studien in der Regel offen und iterativ sind, denn die zu untersuchenden Fälle gewinnen oftmals erst im Prozess der Datenbearbeitung an Gestalt: die Grundgesamtheit kann nicht von vorneherein genau bestimmt werden, sondern konstituiert sich durch einen Prozess der sukzessiven Differenzierung bereits gewonnener Erkenntnisse und die daraus folgende, erneute Interpretation der Daten, die u. U. sogar eine weitere Phase der Datengewinnung im Sinne der Forschungsfrage nahe legt. Die Auswahlentscheidungen werden durchgängig von Relevanzkriterien für die Forschungsfrage und durch die bereits formulierten Einsichten und Vermutungen und, nicht zuletzt, durch vorhandene Wissensbestände (Vorwissen, Fachwissen) geleitet. Dieses zyklisch voranschreitende Auswahlverfahren wird als Theoretical-Sampling bezeichnet und wurde erstmals von Vertretern der empirischer Sozialforschung im Zusammenhang der Grounded Theory beschrieben (s. Kapitel 5.3.3). Obwohl der Begriff ursprünglich in der Grounded Theory-Methodologie verortet ist und dort den Prozess der datengeleiteten Theoriegenerierung bezeichnet, wird das Verfahren des Theoretical-Sampling auch mit anderen Methoden qualitativer Forschung verbunden (s. Kapitel 5.3.4). Alle oben genannten Sampling-Strategien können im Verfahren des Theoretical-Sampling zur Anwendung kommen.4 3 Entscheidungen für die Präsentation der Ergebnisse

Da es für qualitative Studien nicht per se die richtige Entscheidung oder Strategie gibt, sondern diese sowohl von der Fragestellung, dem Gang der Analyse und vorhandenen Wissensbeständen abhängt, zu der das jeweilige Forschungsprojekt in Beziehung steht, müssen die Entscheidungen auch im Kontext dieses Gesamtzusammenhangs gefällt und entsprechend begründet werden: „Samplingentscheidungen lassen sich nicht isoliert treffen“ (Flick 2011: 169). Das gilt natürlich auch für Entscheidungen, welche Befunde wie zu präsentieren sind. Als Beispiel diene die Referenzarbeit von Arras (2007), die Prozesse der Beurteilungsarbeit mit Hilfe eines Mehrmethodendesigns erforschte. Arras erhob qualitativ introspektive Daten (Laut-Denk-Protokolle) von vier Beurteilerinnen, die danach durch Daten aus retrospektiven Interviews ergänzt und vertieft wurden. Die Datenanalyse erbrachte eine solche Fülle von Einzelhandlungen und Strategien der Beurteilerinnen, dass für die Darstellung der Befunde eine Auswahl getroffen werden musste. Arras begründet ihre Entscheidung mit zwei Auswahlkriterien: Sie konzentriert sich einerseits gemäß ihrer zentralen Fragestellung auf jene Befunde, die „den Umgang mit dem Beurteilungsverfahren und … die Rolle … der Deskriptoren beleuchten. Zum anderen werden jene Beobachtungen referiert …, die über das Test-DaFBeurteilungsinstrumentarium hinausweisen“ (Arras 2007: 217). Von besonderem Interesse sind nämlich „Strategien, die vermutlich auf zugrunde liegenden subjektiven Annahmen und

4 Das methodische Vorgehen des Theoretical Sampling und seine methodologische Begründung werden im Kapitel 5.3.3. ausführlich erörtert und mit Hinweisen auf Referenzarbeiten verdeutlicht. Eine Einzeldarstellung kann hier deshalb entfallen. S. auch Silverman 2000: 105 – 110.

88

4. Forschungsentscheidungen

persönlichen Erfahrungen gründen“. Befunde dieser beiden Großgruppen werden dann im Detail präsentiert.5

4.3.4 Fazit Auch wenn es sinnvoll ist, Sampling-Verfahren nach qualitativ und quantitativ zu unterscheiden, lassen sich Forschungsvorhaben nicht immer strikt in quantitative oder qualitative Erhebungs- und Analyseverfahren unterteilen, so dass es auch Sampling-Strategien gibt, bei denen quantitative und qualitative Verfahren kombiniert werden (Mixed-Methods-Sampling). Hierzu gehören z. B. parallele, sequenzielle oder multi-level Auswahlverfahren (vgl. z. B. Kuckartz 2014, Cohen/Manion/Morrison 2011: 162 – 3, Teddlie/Yu 2007, s. auch Kapitel 3.3 und 6.4). Prinzipiell sollte die Sampling-Strategie immer auf Basis der Forschungsfrage gewählt werden und dem Forschungszweck dienen. Die gewählte Strategie muss transparent sein, mögliche Einschränkungen berücksichtigen und zum gewählten Design passen. Alle diese Aspekte bestimmen letztendlich auch den Grad an Generalisierbarkeit, der für die gewonnenen Ergebnisse erreicht werden kann bzw. die angestrebte Aussagekraft der Studie. ››  Literatur

Forschungsarbeiten, in denen hier erläuterte Sampling-Strategien angewendet werden, sind mit einem Sternchen markiert. Appel, Johannes/Rauin, Udo (2015). Methoden videogestützter Beobachtungsverfahren in der Lehrund Lernforschung. In: Elsner, Daniela/Viebrock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Peter Lang, 59 – 79. *Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung Test Deutsch als Fremdsprache (TestDAF). Tübingen: Narr. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] *Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] *Benitt, Nora (2015). Becoming a (Better) Language Teacher. Classroom Action Research and Teacher Learning. Tübingen: Narr. Bortz, Jürgen/Döring, Nicola (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4. Auflage. Berlin: Springer. Bortz, Jürgen/Schuster, Christof (2010). Statistik für Human- und Sozialwissenschaftler. 7. Auflage. Berlin: Springer. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage. London: Routledge. Dörnyei, Zoltan (2007). Research Methods in Applied Linguistics. Oxford: Oxford University Press.

5 Weitere Beispiele für solche Entscheidungsprozesse liefern die Arbeiten von Benitt (2015) und Zibelius (2015).

4.3 Sampling

89

*Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Das assistant-Jahr als ausbildungsbiographische Phase. München: Langenscheidt. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] Flick, Uwe (2011). Qualitative Forschung. Eine Einführung. 4. vollständig überarbeitete Auflage. Reinbek: Rowohlt. G*Power [http://www.gpower.hhu.de] (25. 09. 2015) *Grum, Urška (2012). Mündliche Sprachkompetenzen deutschsprachiger Lerner des Englischen. Entwicklung eines Kompetenzmodells zur Leistungsheterogenität. Frankfurt/Main: Peter Lang. *Kimes-Link, Ann (2013). Aufgaben, Methoden und Verstehensprozesse im englischen Literaturunterricht der gymnasialen Oberstufe. Eine qualitativ-empirische Studie. Tübingen: Narr. Kuckhartz, Udo (2014). Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer. Merkens, Hans (2012). Auswahlverfahren, Sampling, Fallkonstruktion. In: Flick, Uwe/von Kardorff, Ernst/Steinke, Ines (Hg.). Qualitative Forschung. Ein Handbuch. 9. Auflage. Reinbek: Rowohlt, 286 – 299. Özkul, Senem (2011). Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in Anglistik/Amerikanistik. Berlin: Langenscheidt. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] *Roters, Bianca (2012). Professionalisierung durch Reflexion in der Lehrerbildung. Eine empirische Studie an einer deutschen und einer US-amerikanischen Universität. Münster: Waxmann. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Hohengehren: Schneider. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] *Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. [Referenzarbeit, s. Kurzbeitrag Kapitel 7] Silverman, David (2000). Doing Qualitative Research. A Practical Handbook. London: Sage. *Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdsprachenunterricht der Sekundarstufe I. Tübingen: Narr. Teddlie, Charles/Yu, Fen (2007). Mixed Methods Sampling. A Typology with Examples. Journal of Mixed Methods Research 1/1, 77 – 100. *Zibelius, Marja (2015). Cooperative Learning in Virtual Space. A Critical Look at New Ways of Teacher Education. Tübingen: Narr. »»  Zur Vertiefung empfohlen Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education [Chapter 5. The ethics of educational and social research]. Hoboken: Taylor and Francis, 143 – 164. Das Kapitel „Sampling“ gibt einen sehr umfassenden Überblick über Samplingprozesse in quantitativer, qualitativer und Mixed-Method-Forschung. Dörnyei, Zoltan (2007). Research Methods in Applied Linguistics. Oxford: Oxford University Press, 95 – 100 (Sampling in quantitative research); 125 – 29 (Sampling in qualitative research). Beide Teilkapitel bieten eine knappe Einführung in Sampling-Fragen und -Prozesse für die Fremdund Zweitsprachenforschung.

90

4. Forschungsentscheidungen

 Triangulation

4.4

Petra Knorr/Karen Schramm

4.4.1 Begriffsklärung Mit Triangulation wird eine methodologische Strategie bezeichnet, bei der ein Forschungsgegenstand aus zwei oder mehreren Perspektiven betrachtet wird und es zu einer Kombination verschiedener Methoden, Datenquellen, theoretischer Zugänge oder Einflüsse durch mehrere Forschende kommt. Der Begriff ist der Landvermessung entlehnt und wird dort für die exakte Lokalisierung eines Objektes durch die Verwendung bereits bekannter Fixpunkte verwendet. Der Grundgedanke, durch den Einsatz mehrerer Bezugspunkte möglichst genaue Ergebnisse zu erzielen, führte einst auch zur Verwendung des Begriffs als Metapher in der sozialwissenschaftlichen Forschung (Campbell/Fiske 1959, Webb et al. 1966). Triangulation stand zunächst dafür, die Validität von Forschungsergebnissen zu erhöhen, indem vor allem im Rahmen quantitativer Studien der Reaktivität von Methoden durch die Verwendung mehrerer Messinstrumente entgegengewirkt werden sollte. Die Schwächen einer Methode sollten durch komplementäre Testverfahren ausgeglichen, Messartefakte sollten ausgeschlossen werden. Denzin (1970) sprach sich für eine Verbindung qualitativer und quantitativer Methoden aus und brachte die Triangulation als Validierungsstrategie in die qualitative Methodendiskussion ein. Das Verständnis über die Zielsetzung von Triangulation hat sich seither weiter ausdifferenziert und umfasst gegenwärtig weniger die Validierung von Forschungsergebnissen als vielmehr die Vertiefung und Erweiterung von Erkenntnissen (Denzin 1989 revidierte Position, Fielding/Fielding 1986). Vor allem vor dem Hintergrund konstruktivistischer Positionen wurde problematisiert, dass ein methodischer Zugang nicht durch einen anderen korrigiert oder validiert werden kann, denn jede Methode, jede Forschungsperson oder jede Theorie wirkt sich auf das aus, was als Ergebnis ermittelt wird. Der Forschungsgegenstand wird durch die verwendete Methode konstituiert. Gerade weil aber jedes Verfahren einen bestimmten Aspekt bzw. eine andere Facette des zu untersuchenden Phänomens offenlegt, kann ein triangulierendes Vorgehen den jeweiligen Gegenstandsbereich umfassender und weitreichender beschreiben und erklären. Daher eignet sich die Triangulation insbesondere in Settings, die durch eine hohe Faktorenkomplexion gekennzeichnet sind (wie z. B. fremdsprachliche Lehr- und Lernkontexte). Es besteht nicht der Anspruch, kongruente Ergebnisse zu erzielen; vielmehr werden durchaus Befunde erwartet, die divergieren, sich aber komplementär und multiperspektivisch ergänzen. Die Betrachtung verschiedener Perspektiven kann sich durch verschiedene Formen der Triangulation realisieren. Diese wurden von Denzin (1970) klassifiziert und vier Typen zugeordnet, auf die seither rekurriert wird: Daten-, Methoden-, ForscherInnen- und Theorientriangulation.

4.4 Triangulation

91

4.4.2 Datentriangulation Von Datentriangulation wird gesprochen, wenn Datensätze kombiniert werden, die verschiedenen Quellen entstammen (Denzin 1970). Allein nach dieser Definition könnte jedoch jede Art der Methodentriangulation auch als Datentriangulation bezeichnet werden, denn der Einsatz verschiedener Methoden führt immer auch zu unterschiedlichen Datensätzen (Aguado 2015: 207, Settinieri 2015: 23). Denzin spricht daher nur dann von Datentriangulation, wenn dieselbe Methode verwendet und das gleiche Phänomen untersucht wurde (Denzin 1970: 301). In Anlehnung an Denzin können drei Subtypen von Datentriangulation entsprechend der Triangulation verschiedener Zeitpunkte, Personen und/oder Orte unterschieden werden. So kann, wie z. B. in der Studie von Schwab (2009), die Datenerhebung zu mehreren Zeitpunkten stattfinden. Obwohl es nicht um das Nachzeichnen einer Entwicklung ging, erstreckten sich die Videomitschnitte von Unterrichtssequenzen in dieser Untersuchung über zwei ­Schuljahre. Die Erhebung von Daten mit einer spezifischen Methode kann auch mit einer weiteren Person oder Personengruppe durchgeführt werden, was geradezu den Regelfall darstellt und mit Blick auf Sampling-Prozeduren zu reflektieren ist (vgl. Kapitel 4.3). Der dritte Triangula­ tionstyp beschreibt die Kombination von Datensätzen, die an mehreren verschiedenen Orten erhoben wurden. In allen drei Fällen geht es nicht darum, auf diese Weise unterschiedliche Variablen (verschiedene Zeitpunkte, Personen oder Orte) zu erfassen und bei der Analyse zu berücksichtigen, sondern Datentriangulation dient grundsätzlich dazu, die Robustheit der Studie zu erhöhen. Die Beispiele machen deutlich, dass meist mehrere Triangulationsstrategien gleichzeitig verwendet werden und Denzins Klassifizierungen nicht immer trennscharf sind. So ist die lokale Datentriangulation auch zwingend immer eine Kombination verschiedener Personen(gruppen). In Bezug auf die zeitliche Triangulation wird mehrfach angemerkt, dass demnach auch Longitudinalstudien triangulierende Untersuchungen wären, da hier die Datensätze mehrerer Zeitpunkte in Beziehung zueinander gesetzt werden. Dieses Vorgehen dient jedoch weder der Validierung noch der Vertiefung von Erkenntnissen, sondern der Erforschung von Prozessen (s. auch Aguado 2015: 207 – 8). Im Unterschied zu Denzins Verwendung des Begriffs Datentriangulation als Oberbegriff gehen andere Klassifizierungen von Datentriangulation (bezogen auf Personen als verschiedene Informationsquellen), von zeitlicher und örtlicher Triangulation als nebeneinander stehende Triangulationstypen aus (Brown/Rodgers 2002, Cohen/Manion/Morrison 2011). Denzin plädiert in Anlehnung an das theoretical sampling der Grounded Theory dafür, innerhalb einer Studie nach möglichst vielen auf den Forschungsgegenstand bezogenen Datenquellen zu suchen, um durch Vergleiche möglichst kontrastiver Settings entsprechende theoretische Konzepte sukzessive herausarbeiten zu können (Denzin 1970: 301). Dem Prinzip von Replikationsstudien (s. Kapitel 4.5) liegt ein ähnlicher Gedanke zugrunde, doch spricht man von Triangulation nur in den Fällen, in denen Daten bei der Analyse direkt zueinander in Beziehung gesetzt werden; dies ist in der Regel nur im Rahmen jeweils einer Studie der Fall, da Replikationsstudien zwar die Befunde, in der Regel aber nicht die Daten von Vorgängerstudien mit den eigenen Daten in Beziehung setzen (s. auch Kapitel 4.5 zu Metaanalysen).

92

4. Forschungsentscheidungen

4.4.3 Methodentriangulation Die Kombinationen mehrerer Methoden zur Erforschung eines Gegenstands ist die wohl am häufigsten durchgeführte Art der Triangulation. Denzin (1970: 308 – 9) unterscheidet hier zwei Formen: zum einen die Triangulation innerhalb einer Methode (within-method) und zum anderen die Verwendung verschiedener Methoden zur Beantwortung einer Forschungsfrage (between-method). Wenn z. B. in der Studie von Schart (2003) innerhalb eines Fragebogens offene und geschlossene Fragen gestellt werden, kann hier von methodeninterner Triangulation gesprochen werden. Schwab (2009) arbeitete in seiner Untersuchung methodenübergreifend und triangulierte das Verfahren der videografischen Unterrichtsbeobachtung mit anschließenden retrospektiven Interviews mit den an der Studie teilnehmenden Lehrenden; außerdem wurden die Schülerinnen und Schüler leitfadengestützt interviewt (between method triangulation). Diese Referenzarbeit illustriert somit das Potential einer Kombination von Beobachtungen zur Erfassung der sozialen Dimension mit Befragungen zur Erfassung der mentalen Dimension. Doch auch innerhalb einer Perspektive lassen sich Methoden triangulieren; beispielsweise kombinierte Arras (2007) die Methode des Lauten Denkens mit der Durchführung retrospektiver Interviews. Vergleichsweise selten findet der methodentriangulatorische Fall Erwähnung, dass derselbe Datensatz mit unterschiedlichen Auswertungsverfahren bearbeitet wird wie beispielsweise von Knorr (2015), die Planungsgespräche von angehenden Lehrpersonen sowohl inhaltsanalytisch als auch gesprächsanalytisch auswertete. Werden jedoch unterschiedliche Variablen mit unterschiedlichen Methoden erhoben, wie dies u. a. die Referenzarbeit von Biebricher (2008) illustriert, so handelt es sich nicht um ein triangulatorisches, sondern um ein mehrmethodisches Vorgehen. Eine spezielle Form der methodologischen Triangulation stellt die Verbindung quantitativer und qualitativer Forschungsmethoden dar, die auch als mixed methods oder mixed methodologies bezeichnet wird (s. Kapitel 3.3). Diese Mischung von Methoden, die ehemals nahezu unvereinbare Paradigmen verknüpft, wird gegenwärtig nicht mehr in Frage gestellt; es werden jedoch Diskussionen nach dem Verhältnis beider Positionen innerhalb eines Forschungsdesigns, nach der Gewichtung der Ergebnisse, der Abfolge des Einsatzes der jeweiligen Methode und nach dem Umgang mit Divergenzen geführt (z. B. Flick 2011: 75 – 96, Kelle/ Erzberger 2004, Kuckartz 2014, Lamnek 2010: 245 – 265, Mayring 2001, Schründer-Lenzen 2010). Gerade divergierende Ergebnisse werden eher als Chance betrachtet, da die Suche nach alternativen Erklärungen zur Modifikation von Theorien führen kann (Lamnek 2010: 259).

4.4.4 ForscherInnentriangulation Als ForscherInnentriangulation wird der Fall bezeichnet, bei dem „das gleiche Phänomen von unterschiedlichen Forschern (Beobachtern) untersucht und interpretiert [wird]; die Ergebnisse werden trianguliert, man erhofft sich so, den Einfluss von Forschern auf den Forschungsgegenstand ermitteln zu können“ (Kuckartz 2014: 46). Es ist damit also kein arbeitsteiliges Vorgehen, sondern der Prozess der Zusammenführung von gemeinsam oder unabhängig voneinander durchgeführten Erhebungs-, Aufbereitungs- und/oder Auswertungsschritten

4.4 Triangulation

93

gemeint. Dieser Prozess dient zumeist der Erhöhung der Reliabilität, in einigen Fällen auch der Komplementarität von individuell bedingten Herangehensweisen. Die Erhebung von Messwerten und deren statistische Auswertung im Rahmen des quantitativen Forschungsparadigmas erfordern in der Regel keine ForscherInnentriangulation, doch bei der Quantifizierung qualitativer Daten (also beispielsweise bei der Überführung von Video- und Videotranskriptdaten in Zahlenwerte) empfiehlt es sich in einigen Fällen, die Inter-Coder- bzw. die Inter-Rater-Reliabilität zu überprüfen (vgl. Hugener et al. 2006). Bei niedrig-inferenten Kodier- und Beurteilungsvorgängen (z. B. Welches Objekt hat die im Morgenkreis erzählende Person in der Hand? Wie ruhig verhalten sich die Zuhörenden im Erzählkreis?) ist dies möglicherweise unnötig, während es bei hoch-inferenten Kodier- und Beurteilungsprozessen (z. B. Welche Art von Geschichte erzählt die Person? Wirkt sie motiviert?) jedoch sehr relevant erscheint. Im Rahmen des qualitativen Forschungsparadigmas handelt es sich fast durchgängig um hoch-inferente interpretative Analyseprozesse, die den Gütekriterien der Transparenz und der intersubjektiven Nachvollziehbarkeit gerecht werden sollen (s. Kapitel 2). Dementsprechende Beispiele für ForscherInnentriangulation reichen von der Präsentation und Diskussion eigener interpretativer Analysen in einer Forschergruppe über interaktionsanalytische Datensitzungen bis zur Gegenkodierung von Teil- oder Gesamtdatenkorpora wie beispielsweise in der Referenzarbeit von Hochstetter (2011), in der das gesamte Material von zwei Kodiererinnen getrennt voneinander bearbeitet wurde. Aufgrund begrenzter Ressourcen ist eine wünschenswerte ForscherInnentriangulation jedoch häufig unmöglich; in solchen Fällen erscheint die Überprüfung der Intra- (im Gegensatz zur Inter-) Coder- bzw. der Intra-Rater-Reliabiltät als mögliche Lösung. So wurde in der Referenzarbeit von Arras (2007) zur Erhöhung der Reliabilität beispielsweise eine Zweitkodierung im zeitlichen Abstand von drei Monaten von derselben Forscherin durchgeführt. ForscherInnentriangulation spielt im Rahmen qualitativer Forschung jedoch nicht nur bei der interpretativen Auswertung eine wichtige Rolle: Auch der Einfluss der forschenden Person(en) in der Erhebungsphase ist bei nicht-standardisierten Verfahren, beispielsweise bei Interviews oder bei teilnehmender Beobachtung, von großem Interesse (vgl. auch Schründer-Lenzen 2010 zur epistemologischen Funktion von Triangulation in der Ethnographie). Darüber hinaus ist es bei der Aufbereitung von Audio- und Videodaten im Rahmen interaktionsanalytischer Forschung üblich, die dabei entstehenden detailreichen Transkripte von einer zweiten Person korrigieren zu lassen und das entsprechende Transkriptions- und Korrekturverhältnis zu erfassen, um die Reliabilität der Analysegrundlage zu erhöhen bzw. für die Leserschaft einschätzbar zu machen.

4.4.5 Theorientriangulation Unter Theorientriangulation versteht man in Anlehnung an Denzin (1970: 303) in der Regel die Annäherung an Daten aus verschiedenen theoretischen Perspektiven und mit unterschiedlichen Hypothesen, um auf diese Weise ggf. Hypothesen zu widerlegen und die Nützlichkeit und Stärke verschiedener Theorien zu überprüfen. Laut Flick (2011: 14) „sollen hier aber auch die Erkenntnismöglichkeiten fundiert und verbreitert werden“.

ngsgegen u s ch

Datentriangulation

Untersuchung des gleichen Phänomens durch unterschiedliche Personen (z.B. Interrater-Reliabilität)

ForscherInnentriangulation

Annäherung an Daten aus verschiedenen theoretischen Perspektiven

Theorientriangulation

Kombination verschiedener Datensätze bei gleicher Methode: Variation des Zeitpunktes, der Personen, des Ortes

nd ta

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Voraussetzungen: Gegenstandsangemessene Integration von Verfahren/Ansätzen, Methodenkompetenz, professionelle Reflektiertheit

mixed methods Kombination qualitativer und quantitativer Methoden

between methods Triangulation verschiedener Methoden

within method methodeninterne Triangulation

Kombination von Methoden

Methodentriangulation

For s

Betrachtung eines Forschungsgegenstands aus mehreren Perspektiven

4.4 Triangulation

94 4. Forschungsentscheidungen

4.4 Triangulation

95

Aguado (2014: 50) stellt fest, dass Theorientriangulation „in der Forschungsrealität kaum vor[kommt]“, und vertritt die Auffassung, dass es „weder sonderlich zielführend noch sehr ökonomisch [ist], mehrere theoretische Ansätze gleichzeitig in Anwendung zu bringen.“ Konzept und Potential der Theorientriangulation lassen sich jedoch an der zweitsprachendidaktischen Dissertation von Gadow (2016) illustrieren, die mit Blick auf das bildungssprachliche Handeln von ViertklässlerInnen bei Berichten über Experimente zum Sinken und Schwimmen systematisch Theorien aus der Naturwissenschaftsdidaktik und aus der Linguistik zusammenführt. Sie arbeitet u. a. heraus, dass das auf das inhaltlich-konzeptionelle Lernen ausgerichtete naturwissenschaftsdidaktische Konstrukt des evidenzbasierten Begründens gewinnbringend mit den unter funktional-pragmatischer Perspektive entwickelten Konstrukten des (einfachen und funktionalen) Beschreibens und des (einfachen und funktionalen) Erklärens in Verbindung gebracht werden kann. Ihre empirische Untersuchung zeigt, dass sich eine Theorientriangulation in Form einer „bedeutsame[n] Integration“ (Aguado 2015: 208) im Gegensatz zur „bloße[n] Akkumulation“ (ebd.) insbesondere als Grundlage von interdisziplinär angelegten Forschungsarbeiten als sehr gewinnbringend erweisen kann. Dieser Aspekt ist für kooperative Projekte von besonderer Relevanz.

4.4.6 Fazit Allen Triangulationsarten liegt der Gedanke einer Integration im Gegensatz zu einer reinen Akkumulation zugrunde. Daten- und Methodentriangulation spielen in der Fremd- und Zweitsprachenforschung zweifellos eine prominentere Rolle als ForscherInnen- und Theorientriangulation. Der Einsatz mehrerer Methoden ist inzwischen fast zu einem Gütekriterium qualitativer Forschung geworden, was vielfach kritisch hinterfragt wird (z. B. Aguado 2015, Lamnek 2010, Settinieri 2015). Aguados Meinung nach sollte nicht der Eindruck entstehen, „dass ein mehrmethodisches Vorgehen für eine hochwertige, aktuellen forschungsmethodologischen Entwicklungen verpflichtende qualitative Forschung zwingend erforderlich sei“ (2015: 204). Als notwendige Voraussetzung für die Durchführung einer triangulierenden Studie wird immer wieder die angemessene Auswahl an Methoden und deren sinnvolle Kombination gefordert, um ein eklektisches Nebeneinander diverser Verfahren ohne direkten Mehrwert zu vermeiden. Vor allem bei einer mixed-methods-Triangulation, aber auch bei Triangulation innerhalb des qualitativen Paradigmas ist zu beachten, dass nicht alle Methoden per se miteinander kombinierbar sind. Es muss daher sorgfältig abgewägt werden, ob Untersuchungsgegenstand, Forschungsfrage(n) und Erhebungs- sowie Auswertungsmethode optimal zueinander passen. Neben einem erhöhten Aufwand bei der Durchführung mehrmethodischer Forschung ist ein höheres Maß an Methodenkompetenz und professioneller Reflektiertheit nötig, um die Potentiale der Methodentriangulation voll ausschöpfen zu können. Grundsätzlich erscheint eine Annäherung an den Forschungsgegenstand notwendig, die sich zunächst der Vielfalt theoretischer Perspektiven bewusst wird, um daran anschließend Entscheidungen bezüglich der Verwendung verschiedener Methoden, Datensätze, ForscherInnen oder Theorien gegenstandsangemessen und theoretisch begründet zu treffen.

96

4. Forschungsentscheidungen

››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin (2014). Triangulation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremdund Zweitsprache. Paderborn: Schöningh, 47 – 56. Aguado, Karin (2015). Triangulation: Möglichkeiten, Grenzen, Desiderate. In: Elsner, Daniela/Viebrock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 203 – 219. *Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung „Test Deutsch als Fremdsprache“ (TestDaF). Tübingen: Narr. [Referenzarbeit] Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. Brown, James D./Rodgers, Theodore S. (2002). Doing Second Language Research. Oxford: Oxford University Press. Campbell, Donald T./Fiske, Donald W. (1959). Convergent and discriminant validation by the multitrait-multimethod matrix. In: Psychological Bulletin 56, 81 – 105. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. New York: Routledge. Denzin, Norman K. (1970). The Research Act. Chicago: Aldine. Denzin, Norman K. (1989). The Research Act. 3. Auflage. Englewood Cliffs, NJ: Prentice Hall. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. [Referenzarbeit] Fielding, Nigel G./Fielding, Jane L. (1986). Linking data. Beverly Hills, CA: Sage. Flick, Uwe (2011). Triangulation. Eine Einführung. 3. aktualisierte Auflage. Wiesbaden: Verlag für Sozialwissenschaften. *Gadow, Anne (2016). Bildungssprache im naturwissenschaftlichen Sachunterricht. Beschreiben und Erklären von Kindern mit deutscher und anderer Familiensprache. Berlin: ESV. *Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit] Hugener, Isabelle/Rakoczy, Katrin/Pauli, Christine/Reusser, Kurt (2006). Videobasierte Unterrichtsforschung. Integration verschiedener Methoden der Videoanalyse für eine differenzierte Sicht auf Lehr-Lernprozesse. In: Rahm, Sybille/Mammes, Ingelore/Schratz, Michael (Hg.). Schulpädagogische Forschung. Bd. 1: Unterrichtsforschung. Perspektiven innovativer Ansätze. Innsbruck: Studienverlag, 41 – 53. Kelle, Udo/Erzberger, Christian (2004). Qualitative und quantitative Methoden: kein Gegensatz. In: Flick, Uwe/Kardorff, Ernst von/Steinke, Ines (Hg.). Qualitative Forschung: Ein Handbuch. Reinbek: Rowohlt, 299 – 309. *Knorr, Petra (2015). Kooperative Unterrichtsvorbereitung: Unterrichtsplanungsgespräche in der Ausbildung angehender Englischlehrender. Tübingen: Narr. Kuckartz, Udo (2014). Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer Fachmedien. Lamnek, Siegfried (2010). Qualitative Sozialforschung. Lehrbuch. 5. überarbeitete Auflage. Weinheim: Beltz.

4.4 Triangulation

97

Mayring, Philipp (2001). Kombination und Integration qualitativer und quantitativer Analyse. In: Forum Qualitative Sozialforschung/Forum Qualitative Social Research 2(1), Art. 6. [Online: http:// nbn-resolving.de/urn:nbn:de:0114-fqs010 162] (11. 8. 2015). *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit] Schründer-Lenzen, Agi (2010). Triangulation – ein Konzept zur Qualitätssicherung von Forschung. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. vollständig überarbeitete Auflage. Weinheim: Juventa, 149 – 158. *Schwab, Götz (2009). Gesprächsanalyse und Fremdsprachenunterricht. Landau: Verlag Empirische Pädagogik. [Referenzarbeit] Settinieri, Julia (2015). Forschst Du noch, oder triangulierst Du schon? In: Elsner, Daniela/Viebrock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 17–35. Webb, Eugene J./Campbell, Donald T./Schwartz, Richard D./Sechrest, Lee (1966). Unobtrusive Measure: Nonreactive Research in the Social Sciences. Chicago: Rand McNally. »»  Zur Vertiefung empfohlen Flick, Uwe (2011). Triangulation. Eine Einführung. 3. aktualisierte Auflage. Wiesbaden: Verlag für Sozialwissenschaften. Bei der Monografie von Flick handelt es sich um einen gut lesbaren und komprimierten Überblick über die Thematik der Triangulation. Flick gibt einen Abriss über Ursprung und Geschichte des Konzepts und zeichnet kritische Diskussionen nach. Er arbeitet mit zahlreichen Verweisen auf Norman Denzin als den Begründer der Triangulation im Bereich qualitativer Forschung sowie mit vielen beispielhaften Veranschaulichungen aus der Forschungspraxis. Neben einem Fokus auf Methodentriangulation in der qualitativen Forschung, insbesondere in der Ethnographie, richtet Flick sein Augenmerk auf die Kombination qualitativer und quantitativer Forschung und zeigt abschließend praktische Durchführungsprobleme von Triangulationsstudien auf. Settinieri, Julia (2015). Forschst Du noch, oder triangulierst Du schon? In: Elsner, Daniela/Viebrock, Britta (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Peter Lang, 17–35. Dieser einführende und sehr verständlich geschriebene Beitrag leistet eine präzise Klärung des Triangulationsbegriffs. Dazu wird erstens der Forschungsdiskurs zu den beiden Funktionen Validierung und Erkenntniserweiterung seit den 1950er Jahren nachgezeichnet und zweitens ein informativer Überblick über Daten-, Methoden-, Theorien- und ForscherInnentriangulation gegeben. Der Begriff der Triangulation wird drittens in ebenso erhellender Weise auch auf die Diskussion von mixed methods bezogen und viertens in der überraschenden Wendung der Titelfrage zu „Triangulierst Du noch, oder forschst Du schon?“ auch als aktuelle Modeerscheinung kritisch hinterfragt.

98

4. Forschungsentscheidungen

 Der zweite Blick: Meta-Analysen6 und

4.5

Replikationen Claudia Harsch

4.5.1 Einführung Mit steigender Zahl an Studien und der Kumulierung von Forschungsergebnissen zu einem bestimmten Bereich steigt auch der Bedarf an einer Synthese dieser Ergebnisse, ebenso wie das Interesse an einer Replikation bestimmter Studien, um zu generalisierbaren Aussagen über verschiedene Zielgruppen und Kontexte hinweg zu gelangen (z. B. Plonsky 2012a). Zur Synthese empirischer Daten eignen sich Meta-Analysen: Ausgehend von einer umfassenden Literaturrecherche werden systematisch empirische Daten gesammelt und analysiert, um zu empiriegestützten Aussagen über eine Vielzahl von Studien hinweg zu gelangen; darüber hinaus erlauben Meta-Analysen die Analyse etwaiger Moderatorvariablen zur Bestimmung des Einflusses, die diese auf die zu untersuchenden Variablen ausüben (Plonsky/Oswald 2012a). Replikationsstudien hingegen haben das Ziel, ausgewählte Studien zu replizieren, um Ergebnisse zu validieren oder die Übertragbarkeit von Ergebnissen auf andere Kontexte oder Zielgruppen zu überprüfen. Die Ergebnisse solcher Replikationsstudien können ebenfalls in Meta-Analysen einfließen, um zu evidenzbasierten und möglichst generalisierbaren Synthesen zu kommen. Solche Synthesen können zum einen eine gegebene Studie im Kontext des derzeitigen Wissensstands platzieren, sie stellen aber auch die Basis für weitere Forschung dar, da sie den derzeitigen Erkenntnissstand zusammenfassen und somit aufzeigen helfen, wo es Forschungsbedarf gibt. Des Weiteren leisten sie einen Beitrag zur evidenzbasierten Entscheidungsfindung, indem sie die Forschungserträge auf einem bestimmten Gebiet kumulativ zusammenstellen (z. B. Rousseau/McCarthy 2007). Meta-Analysen und Replikationen sind jedoch zu unterscheiden von vergleichenden Überblicksforschungen, wie sie etwa Schmenk (2008) darstellt. Solch ein zweiter theoretischer Blick fasst existente Forschung zusammen, doch werden keine neuen Analysen mit bestehenden Daten und keine neuen Datenerhebungen durchgeführt. Eine gute Übersicht zu mehr als 140 Meta-Analysen und Forschungssynthesen im Bereich der Zweit- und Fremdsprachenforschung bietet die Internetseite von Luke Plonsky (http:// oak.ucc.nau.edu/ldp3/bib_metaanalysis.html). Die Universität Murcia bietet unter http:// www.um.es/metaanalysis eine Übersicht über Bücher zum Thema und eine Datenbank zu Publikationen von Meta-Analysen.

6 Ich möchte mich bei Yo In’nami und Eric A. Surface für den wertvollen Input ihres Pre-Conference Workshops auf dem Language Testing Research Colloquium (LTRC) im Juni 2014 in Amsterdam bedanken.

4.5 Der zweite Blick: Meta-Analysen und Replikationen

99

4.5.2 Durchführung von Meta-Analysen Meta-Analysen werden wegen ihres Umfangs meist von einem Team von Forschenden durchgeführt; sie bestehen aus einer Abfolge von Schritten, welche im Folgenden kurz beschrieben werden:

• Problemstellung; • Literaturrecherche; • Evaluation und Kodierung der ausgewählten Studien; • Datenanalyse, Untersuchung der Ergebnisse, Interpretation; • Berichterstattung, Publikation. Die Formulierung der Problemstellung, der zu untersuchenden Fragestellung ist von zentraler Bedeutung. Sie kann sowohl theoriegeleitet als auch empirisch begründet sein. Eng geführte Fragen eignen sich, um bekannte Hypothesen und Effekte zu prüfen, Forschungen zu dieser Themestellung zusammenzufassen oder bestimmte Populationen und Kontexte zu vergleichen. Offenere Problemstellungen eignen sich, um neue Erkenntnisse aus der Synthese zu gewinnen. Die Fragestellung bestimmt somit, welche Studien in die Meta-Analyse einfließen sollen; beispielsweise hängen die Auswahl und der Fokus auf konzeptionelle Fragen, Methoden, Probanden, Messmodelle und berichtete empirische Indizes (outcome measures) von der Fragestellung ab. Die Literaturrecherche ist direkt von der Problemstellung geleitet. Hier gilt es, so umfassend und systematisch wie möglich vorzugehen, um möglichst viele Studien und Replikationen in der zu untersuchenden Problemstellung zu erfassen. Dabei sollten neben den einschlägigen Zeitschriften, Buch- und Kongresspublikationen und Internetrecherchen (z. B. google scholar) auch Datenbanken abgefragt werden (In’nami/Koizumi 2011). Bei der Recherche stellt sich das Problem des so genannten publication bias, da in der Regel nur Studien mit signifikanten Effekten publiziert werden; dadurch gehen für die Synthese wertvolle Informationen verloren, welche zumindest teilweise durch statistische Verfahren abgefangen werden können (Hunter/ Schmidt 2004; s. unten die Ausführungen zu Datenanalyse und Untersuchung der Ergebnisse). Darüber hinaus gibt es Datenbanken zu unveröffentlichten Studien, die herangezogen werden können. Auch auf den so genannten English language bias darf verwiesen werden: Publikationen in internationalen englischsprachigen Journals berichten oft stärkere Effekte als Publikationen in anderen Sprachen; hier hilft es, auch anderssprachige Publikationen zu beachten. Es gilt, transparente Kriterien zum Einschluss (und ggf. Ausschluss) von Studien zu entwickeln; der Kriterienkatalog kann in einem iterativen Prozess während der Auseinandersetzung mit der Literatur verfeinert werden. Hierbei sollten Forschungsstandards angelegt werden, wie sie beispielsweise Porte (2010) beschreibt. Wichtig ist es, eine gesunde Balance zwischen Ein- und Ausschlusskriterien zu finden, um nicht die Generalisierbarkeit durch den Ausschluss zu vieler Studien zu gefährden, andererseits aber nicht die Qualität und Validität der Ergebnisse der Meta-Analyse durch den Einschluss methodisch mangelhafter Studien zu riskieren. Alle Schritte der Literaturrecherche und der eingesetzten Strategien und Kriterien zur Suche und Auswahl sollten transparent dokumentiert werden. Sind die Studien ausgewählt, müssen sie hinsichtlich ihrer Charakteristika und der berichteten Effektstärken evaluiert und kodiert werden. Hier helfen ein Kodierplan und ein

100

4. Forschungsentscheidungen

Kodierbuch, um die relevanten Charakteristika und das Kodierschema zu definieren. Idealerweise wird das Kodierschema pilotiert und alle Studien werden von mindestens zwei Forschenden kodiert, um zu reliablen und validen Kodierungen zu kommen. In’nami7 schlägt vor, mindestens die folgenden Charakteristika zu den Studien und den empirischen Daten zu kodieren: Studie

Empirische Datenlage

• ID, bibliographische Angaben, Abstract; • Moderatorvariablen: Population, Kontext; • Kriterien zur Qualität der Studie; • Informationen zu etwaigen Artefakten

• Effektstärke (s. Ausführungen unten):Da-

(Hunter/Schmidt 2004);

• Forschungsdesign: Probanden, experimentelles (oder anderes) Design, Manipulationen.

tenbasis, Methode der Bestimmung, etwaige Gewichtung; • Stichprobengröße; • Gemessene(s) Konstrukt(e), Instrumente; • Zeitpunkte, zu denen die verschiedenen Variablen gemessen wurden; • Reliabilität der Messungen; • statistische Tests, die zum Einsatz kamen; • Moderatorvariablen.

Abbildung 1: Kodiervorschläge nach In’nami (s. Fußnote 7)

Spätestens bei der Kodierung der Studien kann es sein, dass fehlende Daten zu Tage treten. Hier kann es helfen, die Autoren direkt anzuschreiben, um gezielt nach fehlenden Informationen zu fragen. Im Zweifelsfall müssen Studien, zu denen keine hinreichenden Daten vorliegen, ausgeschlossen oder die fehlenden Werte mittels statistischer Verfahren imputiert werden. Auch dies sollte dokumentiert werden. Das Konzept der Effektstärken sei hier kurz skizziert (s. auch Kapitel 5. 3. 10), da sie die zentrale Analyseeinheit von Meta-Analysen darstellen (s. Borenstein et al. 2011, insbesondere Kapitel 3 – 9, Plonsky 2012b). Die Ergebnisse empirischer Studien werden in der Regel mittels zweier Statistiken berichtet: Zum einen interessiert die Größe oder die Stärke eines untersuchten Effekts (die so genannte Effektstärke), zum anderen ist die Signifikanz der Effekte wichtig  – man bedenke, dass nicht-signifikante Ergebnisse ebenso bedeutsam sind wie signifikante Effekte, doch werden sie meist nicht publiziert (s. oben, publication bias). Effektstärken sind statistische Indizes, welche grundsätzlich auf zwei Wegen bestimmt werden können: mittels Korrelationen (die Gruppe der sogenannten r Indizes) oder mittels (standardisierter) Unterschiede in Mittelwerten oder Standardabweichungen (die Gruppe der d Indizes). Die in den für eine Meta-Analyse ausgewählten Studien berichteten Statistiken lassen sich problemlos in die Effektstärken r oder d überführen8, je nachdem, welche Herangehensweise für die Meta-Analyse verwendet werden soll. Johnson/Eagly (2000) empfehlen r für Studien, die vorwiegend Korrelationen berichten, und d für Studien, welche ANOVA und t-tests einsetzen. 7 Unveröffentlichte Präsentation aus dem Pre-Conference Workshop Meta-Analysis, LTRC 2014, Amsterdam.

8 In’nami empfiehlt den ES Calculator (http://mason.gmu.edu/~dwilsonb/ma.html: download ­„es_calcula​ tor.zip“).

4.5 Der zweite Blick: Meta-Analysen und Replikationen

101

Zur eigentlichen Datenanalyse und zur Untersuchung der Ergebnisse gibt es eigens für Meta-Analysen entwickelte Computerprogramme, beispielsweise das Programm Comprehensive Meta-Analysis9. Eine Evaluation verschiedener Programme ist unter http://www.um.es/ metaanalysis/software.php zu finden. Es empfiehlt sich, Einführungen und Workshops zur Nutzung eines bestimmten Programms zu besuchen, um sich mit den Spezifika, Modellen, Annahmen und Anforderungen vertraut zu machen. Generell besteht die zentrale Datenanalyse einer Meta-Analyse aus der Berechnung des Mittelwerts und der Varianz der in den ausgewählten Studien berichteten Effektstärken (Plonsky/Oswald 2012b: 275). Dazu gibt es verschiedene Modelle (die so genannten fixed-, random- oder mixed-effect Modelle, s. Borenstein et al. 2011, insb. Kapitel 10 – 14 und 19), von denen das angemessenste gewählt werden muss. Ebenso müssen Entscheidungen getroffen werden hinsichtlich der zu nutzenden Effektstärkeindizes (s. oben) und der Gewichtung bestimmter Studien. Zur Interpretation der Ergebnisse ist es nötig, sich die Effektstärken, Konfidenzintervalle und die Richtung der Effekte der einzelnen Studien sowie Mittelwert und Varianz der Effekte über die Studien hinweg zu betrachten, um die Homogenität der gefundenen Effektstärken beurteilen zu können. Zur Interpretation helfen neben den statistischen Indizes so genannte forest plots, graphische Darstellungen, welche von den Programmen erstellt werden. Es kann nötig sein, den erwähnten publication bias statistisch zu korrigieren; hierzu gibt es verschiedene Möglichkeiten (s. z.B. Banks/Kepes/Banks 2012, Borenstein et al. 2011, Kapitel 30), von denen die graphische Methode des funnel plottings in der Fremdsprachenforschung die verbreiteste ist (z. B. Norris/Ortega 2000). Es empfehlen sich weiterführende Moderator-Analysen, um den Effekt bestimmter Moderatorvariablen auf die zu untersuchende Variable festzustellen; beispielsweise haben Jeon/Yamashita (2014) Befunde zum Leseverstehen in der Fremdsprache in einer groß angelegten Meta-Analyse zusammengestellt und dabei u. a. die Moderatoren Alter und Vokabelwissen untersucht. Abschließend darf auf so genante Power Analysen verwiesen werden (z. B. Cohen 1988, Plonsky 2013), um die Wahrscheinlichkeit zu bestimmen, dass ein bestimmter statistischer Test einen gegebenen Effekt auch erfassen kann. Dazu werden die notwendige minimale Stichprobengöße oder die minimal zu erwartende Effektgröße bei einer gegebenen Stichprobengröße bestimmt. Power Analysen können für die Einzelstudien, die in eine Meta-Analyse einfließen, ebenso wie retrospektiv für eine gegebene Meta-Analyse durchgeführt werden. Sind die Effektgrößen bestimmt und die Ergebnisse interpretiert, so schließt sich die Phase der Berichterstattung und Publikation an. Hier darf auf die APA Meta-Analysis Reporting Standards (APA 2008, American Psychological Association 2010) verwiesen werden, ebenso wie auf die Hinweise in Plonsky (2012b); letztere eignen sich auch gut zur Evaluation publizierter Meta-Analysen. Folgende Elemente sollte die Publikation minimal abdecken:

9 Download: http://www.meta-analysis.com/pages/full.php; das Programm kann einen Monat kostenlos getestet werden.

102

4. Forschungsentscheidungen

Eingeschlossene Studien

Resultate

• Auswahlkriterien, Publikationsstatus,

• Effekgrößen: Datenbasis, Methode der Be-

Referenzen, Datenbanken; • Forschungskontext; • Teilnehmende: demographische Angaben, Stichprobengrößen; • Forschungsdesign: experimentelles (oder anderes), Pre-/ Post, Längs-/ Querschnitt; • eingesetzte Instrumente.

stimmung, Gewichtung;

• Konfidenzintervalle, obere und untere

Grenzen, Mittelwert, Varianz, forest plots;

• weiterführende Analysen (Moderatoren, publication bias);

• Interpretation, Kontextualisierung der Ergebnisse;

• Implikationen.

Abbildung 2: Minimale Publikationselemente von Meta-Analysen

4.5.3 Replikationsstudien Replikationsstudien dienen der Wiederholung bestimmter Experimente, Interventionen oder Studiendesigns, einerseits zum Zweck der Überprüfung der Generalisierbarkeit der Ergebnisse der Originalstudie für andere Zielgruppen oder Kontexte, andererseits zur Validierung der berichteten Ergebnisse (Abbuhl 2012, Porte 2010). In empirischen Untersuchungen kommt der Replizierbarkeit einer Studie und deren Ergebnissen besondere Bedeutung zu, können doch auf diese Weise die Fehlertypen I und II (fälschliches Verwerfen bzw. Akzeptieren der Nullhypothese) kontrolliert werden (Schmidt 2009). Abbuhl (2012) unterscheidet verschiedene Typen von Replikationsstudien, die sie auf einem Kontinuum von exakter Replikation (eher selten in den Sozialwissenschaften zu finden) über systematische oder approximative Replikation bis hin zur konzeptuellen oder konstruktiven Replikation anordnet. Bei der approximativen Replikation wird die Originalstudie so getreu wie möglich repliziert, doch eine der Schlüsselvariablen wird variiert, um etwa eine andere Zelgruppe oder einen anderen Kontext zu untersuchen. Die konzeptuelle Replikation bleibt dem Untersuchunggegenstand treu, doch verwendet sie zusätzlich zu den qualitativen der Originalstudie andere Zugänge, wie etwa andere Instrumente oder quantitative Methoden. Replikationsstudien beginnen mit der Forschungsfragestellung und der Evaluation und Auswahl einer geeigneten Studie, welche die Forschungsfrage in relevanter Weise operationalisiert und untersucht. Es schließt sich die Entscheidung an, welche Art der Replikation für die zu untersuchende Fragestellung angemessen ist. Hierbei muss die Vergleichbarkeit und Anschlussfähigkeit zwischen Replikation und Originalstudie bedacht werden mit Hinblick auf Zielpopulationen und Stichproben, Untersuchungsgegenstand, Design, eingesetzte Instrumente und Analysemethoden. Etwaige Abweichungen sollten wohlbegründet sein (Gass/Mackey 2005). Nach der Durchführung und Analyse der Replikationsstudie erfolgt die Interpetation der Ergebnisse, immer auch in Bezug auf die Resultate der Originalstudie. Unterstützen die Replikationsbefunde die Ergebnisse der Originalstudie, so kann dies als ein weiterer Hinweis auf die Validität der ursprünglichen Befunde gedeutet werden. Widersprechen die Replikationsergebnisse denen der Originalstudie, kann dies als Anlass genommen werden, die

4.5 Der zweite Blick: Meta-Analysen und Replikationen

103

Generalisierbarkeit bestimmter Ergebnisse kritisch zu diskutieren, oder die Parameter, die in die Studien einflossen, zu hinterfragen und gezielt in weiteren Untersuchungen zu erforschen (z. B. Eden 2002). Abschließend steht der Schritt der Publikation an, in welcher der Anlass der Replikationsstudie und etwaige Abweichungen von der Originalstudie begründet werden, die Vorgehensweise transparent dargestellt und die Ergebnisse im Vergleich zur Originalstudie diskutiert und kommentiert werden sollten.

4.5.4 Anwendung in Studien Während es, wie Schmidt (2009) ausführt, nur wenige Replikationsstudien in den Sozialwissenschaften gibt, erfreuen sich Meta-Analysen zunehmender Beliebtheit. Hier sollen drei Meta-Analysen exemplarisch das Feld illustrieren. Eine frühe, einflussreiche Meta-Analyse wurde von Norris/Ortega (2000) zur Effektivität von L2 Instruktionen durchgeführt. Sie verglichen die Effektstärken von 49 experimentellen und quasi-experimentellen Studien, die in den Jahren 1908 bis 1998 durchgeführt wurden. Sie fanden u. a. heraus, dass explizite Formen des Unterrichtens effektiver sind als implizite und dass fokussiertes Unterrichten zu langfristigen Lernerfolgen führt. Allerdings mussten sie feststellen, dass die Effektstärke vom jeweils eingesetzten Messinstrument beeinflusst wird und dass die Ergebnisse ihrer Meta-Analyse nur beschränkt generalisierbar sind, da es damals dem Feld noch an empirisch rigorosen Operationalisierungen und Replikationen der Konstrukte mangelte. Eine wesentlich umfangreichere Meta-Analyse, die eine gewisse Generalisierbarkeit aufweist, führte Hattie (2009) durch. Die so genannte ‚Hattie-Studie‘ beeinflusste die bildungspolitische Diskussion im In- und Ausland, weshalb sie hier erwähnt werden soll, wenngleich die meisten Studien, die in Hatties Meta-Analyse eingingen, nicht aus dem fremdsprachlichen Unterricht stammen. Er unterzog über 800 Meta-Analysen einer Meta-Metaanalyse und untersuchte 138 unterrichtsrelevante Variablen und ihre Effektivität auf das Lernen. Das Novum an seinem Ansatz ist, dass er die Effektstärken inhaltlich interpretiert, indem er sie in unterschiedliche Bereiche einteilt. Für den untersten Bereich (bis 0,15) behauptet Hattie, dass diese Effekte auch erzielt würden, wenn kein Unterricht stattfinde; Effektstärken im Bereich 0,15 bis 0,40 würden auch durch regulärem Unterricht einer durchschnittlichen Lehrkraft erzielt; nur Effektstärken über 0,40 würden auf tatsächliche Effekte der untersuchten Variablen deuten. Die stärksten Effekte fand Hattie in den Variablen ‚selfreported grades‘, ‚Piagetian programmes‘ und ‚providing formative evaluation‘. Es wäre interessant, diese Variablen gezielt für den fremdsprachlichen Unterricht zu untersuchen. Hattie leitet auf Basis seiner Ergebnisse ein theoretisches Modell erfolgreichen (fachunabhängigen) Lehrens und Lernens ab; er nutzt die Meta-Analyse also zur Theorie-Generierung. Die dritte Meta-Analyse, die hier vorgestellt werden soll, wurde von Jeon/Yamashita (2014) durchgeführt für den Bereich des Leseverstehens in der Fremdsprache. Diese Studie soll die o. g. Moderatorenanalysen illustrieren. Jeon/Yamashita (2014) untersuchten u. a. die Moderatoren Alter und Vokabelwissen. Die Befunde legen nahe, dass das fremdsprachliche Leseverständnis am höchsten mit fremdsprachlichem Grammatik- und Vokabelwissen korre-

→ → → → →

Studie x

Studie 3

Studie y

→ Forschungsfragestellung → Auswahl der Originalstudie → Replikationstyp: exakt, systematisch, approximativ → Durchführung und Analyse → Ergebnisinterpretation im Vergleich zum Original

Studie x

Wiederholung von Studien zur Überprüfung der Generalisierbarkeit von Ergebnissen

Replikationsstudien

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

! aufwändige Umsetzung

Formulierung der Problemstellung Auswahl der Studien publication bias Evaluation, Kodierung Effektstärken Datenanalyse mit Hilfe von Statistik-Software Berichterstattung nach APA Standards

Studie 1

Studie 2

Synthese empirischer Daten über einzelne Studien hinweg, meist im Forschungsteam

Meta-Analysen

Forschungsergebnisse synthetisieren und kumulieren

4.5 Der zweite Blick: Meta-Analysen und Replikationen

104 4. Forschungsentscheidungen

4.5 Der zweite Blick: Meta-Analysen und Replikationen

105

liert und dass Leseverstehen vom Alter und der Distanz zwischen erster und zweiter Sprache beeinflusst wird.

4.5.5 Fazit Die hier vorgestellten Möglichkeiten des ‚zweiten Blicks‘ auf existente Studien, sei es mittels quantitativer Meta-Analysen oder mittels Replikationsstudien, stellen eine Möglichkeit dar, existente Ergebnisse zu nutzen und zu transformieren. Auf diese Weise können, wie es beispielsweise Hattie (2009) zeigt, Theorien entwickelt und untermauert werden, oder es können Ergebnisse eines Bereichs oder Kontexts in neuen Kontexten überprüft werden, wie es in Replikationsstudien geschieht. Diese Herangehensweisen bieten effektive Wege, existente Ergebnisse zusammenzuführen, sie zu validieren und etwa zur evidenzbasierten Entscheidungsfindung oder zur weiteren Forschungsplanung zu nutzen. Allerdings sollten sie in ihrem Aufwand nicht unterschätzt werden. ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Abbuhl, Rebekha (2012). Why, when, and how to replicate research. In: Mackey, Alison/Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition: A Practical Guide. London: Basil Blackwell, 296 – 312. APA Publications and Communications Board Working Group on Journal Article Reporting Standards (2008). Reporting standards for research in psychology: Why do we need them? What might they be? In: American Psychologist 63, 848 – 849. [https://www.apa.org/pubs/authors/jars.pdf] (4. 12. 2015) American Psychological Association (2010). Publication Manual of the American Psychological Association. 6. Auflage. Washington, DC: American Psychological Association. Banks, Georges C./Kepes, Sven/Banks, Karen P. (2012). Publication bias: The antagonist of meta-analytic reviews and effective policy making. In: Educational Evaluation and Policy Analysis 34, 259 – 277. Borenstein, Michael/Hedges, Larry V./Higgins, Julian P. T. / Rothstein, Hannah R. (2011). Introduction to Meta-Analysis. Chichester, UK: Wiley. Cohen, Jacob (1988). Statistical Power Analysis for the Behavioral Sciences. 2nd edition. Hillsdale, NJ: Erlbaum. Eden, Dov (2002). Replication, meta-analysis, scientific progress, and AMJ’s publication policy. In: Academy of Management Journal 45, 841 – 846. Gass, Susan M./Mackey, Alison (2005). Second Language Research: Methodology and Design. Mahwah, NJ: Lawrence Erlbaum. *Hattie, John (2009). Visible Learning: A Synthesis of Over 800 Meta-Analyses Relating to Achievement. Oxon: Routledge. Hunter, John E./Schmidt, Frank L. (2004). Methods of Meta-Analysis: Correcting Error and Bias in Research Findings. 2nd edition. Newbury Park, CA: Sage. In’nami, Yo/Koizumi, Rie (2010). Database selection guidelines for meta-analysis in applied linguistics. In: TESOL Quarterly 44, 169 – 184.

106

4. Forschungsentscheidungen

*Jeon, Eun H./Yamashita, Junko (2014). L2 reading comprehension and its correlates: A meta-analysis. Language Learning 64(1), 160 – 212. Johnson, Blair T./Eagly, Alice H. (2000). Quantitative synthesis of social psychological research. In: Reis, Harry T./Judd, Charles M. (Hg.). Handbook of Research Methods in Social and Personality Psychology. New York: Cambridge University Press, 496 – 528. *Norris, John M./Ortega, Lourdes (2000). Effectiveness of L2 instruction: A research synthesis and quantitative meta-analysis. Language Learning 50, 417 – 528. Plonsky, Luke (2012a). Replication, meta-analysis and generalizability. In: Porte, Graeme K. (Hg.). Replication Research in Applied Linguistics. New York: Cambridge University Press, 116 – 132. Plonsky, Luke (2012b). Effect size. In: Robinson, Peter (Hg.). The Routledge Encyclopedia of Second Language Acquisition. New York: Routledge, 200 – 202. Plonsky, Luke (2013). Study quality in SLA: An assessment of designs, analyses, and reporting practices in quantitative L2 research. In: Studies in Second Language Acquisition 35, 655 – 687. Plonsky, Luke/Oswald, Frederick L. (2012a). Meta-analysis. In: Robinson, Peter (Hg.). The Routledge Encyclopedia of Second Language Acquisition. New York: Routledge, 420 – 423. Plonsky, Luke/Oswald, Frederick L. (2012b). How to do a meta-analysis. In: Mackey, Alison/Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition: A Practical Guide. London: Basil Blackwell, 275 – 295. Porte, Graeme K. (2010). Appraising Research in Second Language Learning. A Practical Approach to Critical Analysis of Quantitative Research. Amsterdam: John Benjamins. Rousseau, Denise M./McCarthy, Sharon (2007). Evidence-based management: Educating managers from an evidence-based perspective. In: Academy of Management Learning and Education 6, 94 – 101. Schmenk, Barbara (2008). Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Schmidt, Stefan (2009). Shall we really do it again? The powerful concept of replication is neglected in the social sciences. In: Review of General Psychology 13, 90 – 100.

»»  Zur Vertiefung empfohlen Borenstein, Michael/Hedges, Larry V./Higgins, Julian P. T. / Rothstein, Hannah R. (2011). Introduction to Meta-Analysis. Chichester, UK: Wiley. Das Buch beschreibt in klarer und umfassender Weise alle grundsätzlichen und weiterführenden Aspekte, die zu einer Meta-Analyse gehören. Es erläutert zugrunde liegende Konzepte und führt die Leser an die statistischen Grundlagen und Formeln, welche durch Beispiele veranschaulicht werden. Das Buch eignet sich gut zum Selbststudium und wird durch Online-Materialien ergänzt. Cooper, Harris/Hedges, Larry V./Valentine, Jeff C. (Hg.). (2009). The Handbook of Research Synthesis and Meta-Analysis. 2nd edition. New York: Russel Sage Foundation. Das Handbuch bietet einen guten Einstieg in die Thematik der Meta-Analsyen. Es ist als Enzyklopädie angelegt, wobei die Kapitel sich je einem spezifischen Aspekt widmen. Eine Besonderheit ist, dass sich alle Kapitel auf denselben Datensatz beziehen. Das Buch ist geeignet für Forschende und Statistiker. Plonsky, Luke/Oswald, Frederick L. (2012b). How to do a meta-analysis. In: Mackey, Alison/ Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition: A Practical Guide. London: Basil Blackwell, 275 – 295.

4.5 Der zweite Blick: Meta-Analysen und Replikationen

107

Das Kapitel gibt eine leicht verständliche Einführung in die Planung und Durchführung von MetaAnalysen, mit praktischen Tipps und Anregungen. Es eignet sich gut als erster Einstieg. Porte, Graeme K. (Hg.) (2012). Replication Research in Applied Linguistics. New York: Cambridge University Press. Das Buch bringt Experten zusammen, die die Bedeutsamkeit von Replikationsstudien in der Angewandten Linguistik unterstreichen. Die Autoren beleuchten Replikationsstudien von theoretischer Seite, geben praktische Ratschläge zur Planung, Vorbereitung, Durchführung solcher Studien und nicht zuletzt Hinweise dazu, wie die Studien und Ergebnisse berichtet werden können.

108

4. Forschungsentscheidungen

 Forschungsethik

4.6

Michael K. Legutke/Karen Schramm

4.6.1 Begriffsklärung Der Gegenstandsbereich der Forschungsethik umfasst Prinzipien und Regeln, die das Handeln der Forschenden leiten sollen. Er befasst sich mit Fragen wie: Was darf ich als Forschender? Was ist erlaubt? Wem bin ich verantwortlich? (Bach/Viebrock 2012). Obwohl empirische Studien in besonderer Weise ethischen Ansprüchen Rechnung tragen müssen, wie wir darlegen werden, unterliegen alle Typen von Forschung, egal welcher Forschungstradition sie zuzuordnen sind, ethischen Codes. Küster (2011: 139) schlägt vor, den Komplex Ethik in der Fremdsprachenforschung unter zwei Perspektiven in fünf Handlungsfelder zu strukturieren. Er unterscheidet eine „prudentielle Perspektive“ mit den beiden Handlungsfeldern (1) „Verantwortung des Forschers vor und für sich selbst“ und (2) „Verantwortung des Fremdsprachenforschers gegenüber seinem privaten Umfeld“ sowie eine „moralische Perspektive“. Zur letzteren gehört (3) die „Verantwortung des Fremdsprachenforschers gegenüber der scientific community“. Diese zeigt sich u. a. in der Sorgfalt und Vertrauenswürdigkeit des Forschers im Umgang mit anderen Forschungen und Quellen, in der Ehrlichkeit im Umgang mit Positionen und Forschungsergebnissen, der Strenge der Arbeitsweisen und Darstellung sowie der Transparenz der Argumentationen, der Integrität und Lauterkeit des wissenschaftlichen Arbeitsprozesses. Zur moralischen Perspektive gehören ferner (4) die „Verantwortung des empirischen Fremdsprachenforschers gegenüber den unmittelbar Beforschten (quantitative Forschung) bzw. den am Forschungsprozess unmittelbar Beteiligten (qualitative Forschung und Handlungsforschung)“ (Küster 2011: 139) und schließlich (5) die „Verantwortung des Fremdsprachenforschers gegenüber gesellschaftlichen und universitären Institutionen und deren Anforderungen“ (Küster 2011: 139). Die Handlungsfelder 3 und 4 werden in diesem Beitrag genauer bestimmt. Das fünfte Handlungsfeld ist u. a. Gegenstand des Kapitels 2 dieses Handbuchs. Nationale wie internationale Fachgesellschaften aus den Natur- und Sozialwissenschaften haben Ethik-Kodizes entwickelt, die Forschenden eine Grundorientierung geben und deren Prinzipien und Regeln sich auch für die Praxis der Fremdsprachenforschung fruchtbar machen lassen.10 Zu den Grundprinzipien, die in diesen Kodizes in unterschiedlichen Graden der Konkretisierung erscheinen, gehören: das Prinzip der Schadensvermeidung, das Prinzip des Nutzens bzw. des Mehrwerts von Forschung, der Respekt vor anderen Menschen sowie das 10 Für die Fremdsprachenforschung sind besonders relevant: Teachers of English to Speakers of Other Languages (TESOL) ; The American Association of Applied Linguistics (AAAL) ; die Deutsche Gesellschaft für Erziehungswissenschaften (DGfE): . Vgl. auch die Vorstellungen der Deutsche Forschungsgemeinschaft (DFG) zur Sicherung guter wissenschaftlicher Praxis: . Die Ethik-Kodizes verwandter deutscher Fachgesellschaften werden dargestellt in Viebrock 2015: 87 – 97.

4.6 Forschungsethik

109

Prinzip der Redlichkeit (vgl. Kitchener/Kitchener 2009: 13 – 16; Bach/Viebrock 2012). Im Folgenden werden wir die Implikationen solcher Prinzipien für verantwortungsvolles Handeln in der Fremdsprachenforschung verdeutlichen.

4.6.2 Gestaltung von Forschungsbeziehungen Wesentliches Merkmal empirischer fremdsprachendidaktischer Forschung ist ihr sozialer Charakter, denn sie ist abhängig von und situiert in den Beziehungen des Forschers zu Personen und deren Umfeld (z. B. Kinder mit Migrationshintergrund mehrerer Grundschulen einer Großstadt, Erwachsene über 60 einer Kreisvolkshochschule, Lehrer und Lehrerinnen mehrerer Bundesländer). Aus diesem Umstand ergeben sich Verantwortlichkeiten und Ansprüche gegenüber den Personen und ihren Handlungskontexten auf der einen Seite und gegenüber der scientifc community auf der anderen Seite. So stellt sich nicht nur die Frage, wie der Forscher Zugang zu dem Forschungsfeld finden kann und welche Regeln dabei zu beachten sind (z. B. Forschungserlasse der Kultusministerien der Länder), sondern auch, wie ein vertrauensvolles Arbeitsbündnis entwickelt wird, das für den anvisierten Forschungsprozess tragfähig ist (vgl. dazu Holliday 2007: 75 – 104). Die Personen(gruppen) haben Anspruch, dass ihre Interessen geschützt sind und ihre Privatsphäre respektiert wird, dass sie über das Vorhaben, über mögliche Belastungen11 und die Nutzung der Daten (s. Kapitel 4.6.3 und 4.6.4) informiert werden. Arbeitsbündnisse können dann besondere Produktivität entfalten, wenn es gelingt, Formen der Gegenseitigkeit zu entwickeln, die von den am Forschungsprozess beteiligten Personen als gewinnbringend wahrgenommen werden können, wenn es also gelingt, ein Verhältnis des Gebens und Nehmens zu etablieren. Als Beispiele für das forscherseitige Geben sind neben einer möglichen Bezahlung von Untersuchungsteilnehmenden etwa das Versenden der Forschungsergebnisse oder das Angebot von Fortbildungen zu den Forschungsergebnissen zu nennen.12 Im Hinblick auf das forscherseitige Nehmen ist beispielsweise zu reflektieren, dass es angesichts der von den Forschungspartnern investierten Zeit und Mühe nicht gerechtfertigt erscheint, Daten zu erheben, die anschließend nicht ausgewertet werden. Auch wird immer häufiger thematisiert, dass die Forschungspartner (und nicht wie bisher zumeist der Forschende) als Eigentümer der Daten zu konzeptualisieren seien und ihnen damit das Recht der Auswahl von Daten für Analyseprozesse zukomme. Die ethische Forderung nach Transparenz der Ziele, Verfahren und Ergebnisse des Vorhabens bringt allerdings eine doppelte Herausforderung für die Forscher mit sich. Denn 11 Körperliche und psychische Beeinträchtigungen der Untersuchungsteilnehmenden sind bestmöglich zu vermeiden: Unbeabsichtigte Beeinträchtigungen erfordern unverzügliches forscherseitiges Eingreifen; beabsichtigte Beeinträchtigungen wie das Herbeiführen einer besonderen Anstrengung sind im Hinblick auf ihre Notwendigkeit und Zumutbarkeit ethisch zu reflektieren (Aeppli/Gasser/Gutzwiller/Tettenborn 2010: 58 – 59). 12 In besonderer Weise stellt sich die Problematik des Gebens auch dann, wenn vielversprechende oder kostenintensive Maßnahmen (z. B. zusätzliche Sprachförderung, moderne technische Ausstattung) nur bei einem Teil der Forschungspartner erprobt werden. Um die Vergleichsgruppe nicht schlechter zu behandeln, bietet es sich in solchen experimentellen Designs an, die beteiligten Gruppen nacheinander mit den erwünschten Maßnahmen zu versorgen.

110

4. Forschungsentscheidungen

zum einen bedarf die Fachsprache der Wissenschaft, die die Beteiligten in der Regel als unzugänglich wahrnehmen, der angemessenen Übersetzung in die Alltagsprache. Verständnis muss erarbeitet und ausgehandelt werden (Holliday 2007: 145 – 152). Das Dilemma sprachlicher Vermittlung zwischen dem Forscher und den Forschungspartnern einerseits und andererseits den Anforderungen, die an die Veröffentlichung der Ergebnisse von Seiten der Wissenschaft gestellt werden, thematisiert die Referenzarbeit von Schart (2003: 51 – 52). Ferner stellt sich die Frage, wie viel Transparenz aus ethischen Gründen nötig und aus forschungsmethodischen Anforderungen möglich ist, ohne das Vorhaben selbst zu gefährden. Wenn Forschungspartnern aus Gründen des Forschungsdesigns bestimmte Informationen vorenthalten oder sie getäuscht werden, ist von Seiten der Forschenden explizit zu reflektieren, ob dies für das Design tatsächlich unabdingbar ist und ob den Teilnehmenden dadurch in psychologischer Hinsicht Schaden wie beispielsweise Stress oder Unbehaglichkeit entsteht. In der Debriefing-Phase einer solchen Studie sollten die Verantwortlichen dann gewissenhaft dafür Sorge tragen, dass die Teilnehmenden über die Täuschung und die Gründe für die Täuschung aufgeklärt werden (dehoaxing) und dass sie jegliche, durch die Studie verursachte unangenehme Gefühle abbauen können (desensitizing), beispielsweise indem man unerwünschtes Verhalten oder unangenehme Gefühle auf eine Situationsvariable statt auf die Person des Forschungspartners zurückführt oder indem man verdeutlicht, dass das Verhalten oder die Gefühle der Forschungspartner so erwartbar waren (Johnson/Christensen 2008: 116 – 117). Besondere Aufmerksamkeit verlangt schließlich die Phase des Projekts, wenn der Forscher das Feld wieder verlässt und damit die Beziehung beendet. Dieser Feldrückzug muss bewusst als Beendigung einer Beziehung gestaltet und den Teilnehmenden erklärt werden. Rallis/Rossman (2009: 278) erörtern in diesem Zusammenhang das Bild des Verführens und Sitzenlassens: „The image is that you seduce the participants into disclosing their worldviews, then abandon them when you have gotten what you wanted – data“. Auch gehen viele Forscher davon aus, dass den Beteiligten unbedingt die Ergebnisse der Forschung bekannt zu machen seien. Andere wiederum erkennen darin die Gefahr eines „Verletzungsrisiko[s]“ (Miethe 2010: 933); so reflektiert beispielsweise Viebrock (2007) an einem Beispiel aus der Fremdsprachendidaktik, inwieweit ihr Versuch der kommunikativen Validierung schmerzhaft für die betroffene Forschungspartnerin war. Da der Forscher mit dem Eintritt in das Feld und mit dem Aufnehmen und Unterhalten der Beziehungen, dies gilt in besonderem Maße bei qualitativen Studien, durch seine Präsenz nolens volens den Forschungsprozess mit prägt und damit das Forschungsvorhaben selbst verändert, wobei Forschungsfragen neu justiert, konkretisiert und oftmals modifiziert werden (Holliday 2007), erwächst eine besondere Verantwortung gegenüber der scientific community, diesen Forschungsprozess, die Rolle des Forscher und die Dynamik der Beziehungen transparent zu machen (Freeman 2009).

4.6 Forschungsethik

111

4.6.3 Freiwilligkeit der Teilnahme Ein zentrales datenschutzrechtliches und damit gesetzliches Erfordernis empirischer Untersuchungen ist, dass Forschungspartner freiwillig an einer Studie teilnehmen. Forscher müssen deshalb ihre Forschungspartner vor einer Untersuchung über das geplante Vorgehen detailliert informieren und sich deren Teilnahmebereitschaft schriftlich bestätigen lassen. Dies betrifft insbesondere Ziele, Zeitdauer, Procedere, mögliche Nach- und Vorteile für die Forschungspartner, Maßnahmen zur Einhaltung gesetzlicher Datenschutzbestimmungen sowie Ansprechpartner bei rechtlichen und inhaltlichen Fragen (vgl. dazu genauer Mackey/Gass 2005; Johnson/Christensen 2008). Den Forschungspartnern ist ausreichend Gelegenheit zu geben, dazu Fragen zu stellen bzw. zu klären. Essentiell ist dabei, dass die Forschungspartner keinerlei Nachteile bei Nicht-Teilnahme befürchten und dass sie keinerlei Bedrängnis zur Teilnahme verspüren, wie dies beispielsweise der Fall wäre, wenn Forschungspartner dem Fortschritt der Wissenschaft nicht im Weg stehen wollen und sich deshalb der Autorität des Forschers unterordnen, wenn Vorgesetzte ausdrücklich die Teilnahme ihrer Lehrerschaft wünschen, wenn Lehrpersonen ihre Schülerschaft um Einwilligung bitten oder wenn Eltern bei Nicht-Teilnahme ihrer Kinder Nachteile für diese in der Schule befürchten. Forscher stehen in der Verantwortung, proaktiv Maßnahmen gegen derartigen sanften oder unbeabsichtigten Druck zu ergreifen (beispielsweise mit der Lehrerin abzusprechen, dass sie bei der Datenerhebung nicht anwesend ist). Die informierte Einwilligungserklärung sollte grundsätzlich auch auf die Tatsache aufmerksam machen, dass die Teilnahme an der Studie jederzeit (während und auch nach der Datenerhebung) ohne weitere Erklärung zurückgezogen werden kann; zu diesem Zweck sollte der Forscher die entsprechenden Kontaktinformationen bereitstellen. Darüber hinaus müssen die Forschungspartner über die weitere Verwendung der Daten informiert werden. Dazu gehört, dass sie vor ihrer informierten Einwilligungserklärung erfahren, wie lange die Daten verwahrt werden, wer Zugang zu den Daten hat und in welcher Form die Daten in Publikationen oder Vorträgen präsentiert werden. Darüber hinaus sind ethische Prinzipien auch dann zu bedenken und in den entsprechenden Publikationen zu thematisieren, wenn Zweifel bestehen, inwieweit die Forschungspartner in der Lage sind, die Einwilligungserklärung zu verstehen. Dies ist in der Fremdsprachenforschung in sprachlicher Hinsicht insbesondere im Hinblick auf die Zusammenarbeit mit Migranten von Bedeutung, denen die entsprechenden Einwilligungserklärungen bei entsprechenden Zweifeln in ihrer Erstsprache vorgelegt oder mündlich in der Erstsprache erläutert werden sollten. Doch auch konzeptuelle Verständnisschwierigkeiten schutzbedürftiger Gruppen wie beispielsweise schriftunkundiger Zweitsprachenlerner, Kinder, dementer oder geistig behinderter Personen sind ggf. zu reflektieren und angemessen zu berücksichtigen. Bei Kindern und Jugendlichen unter 18 Jahren sind darüber hinaus ebenfalls die Eltern um ihre Einverständniserklärung zu bitten; bei Untersuchungen in Schulen ist beim entsprechenden Kultusministerium eine Genehmigung zu erwirken, was in der Regel einen längeren zeitlichen Vorlauf von mehreren Monaten erfordert. Noch virulenter sind solche ethischen Problemlagen häufig bei Internetforschungen, bei denen schwerer zu beurteilen ist, ob die Forschungspartner die Informationen zum Forschungsvorhaben tatsächlich verstanden haben und ob sie in der Lage oder alt genug sind,

or

r/in

(*) Transparenz Ehrlichkeit Geben und Nehmen Zugang zum Feld Rückzug aus dem Feld Freiwilligkeit Vertraulichkeit

he sc

handlungsleitende Prinzipien und Regeln (*)

F

mu

4.6 Forschungsethik

prudentielle Perspektive moralische Perspektive

h u n g sfeld

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Manipulation von Daten, Verleugnen der Autorschaft, Plagiarismus

wissenschaftliches Fehlverhalten

informierte Einwilligungserklärung, Datensicherheit, Pseudonymisierung / Anonymisierung

Gesetze

Mehrwert, Respekt, Redlichkeit, Schadensvermeidung

Ethik-Kodizes

1) für sich selbst 2) für das Umfeld 3) gegenüber der scientific community 4) gegenüber den Beteiligten 5) gegenüber Institutionen

Verantwortung

Forschung = dynamisches Arbeitsbündnis im sozialen Gefüge

sci e n

tifi c c

nity

rsc o F

o

m

112 4. Forschungsentscheidungen

4.6 Forschungsethik

113

ihre Einwilligung zu erklären. In solchen Fällen gewinnen nach Eynon/Fry/Schroeder (2008) Bemühungen um eine verständliche Sprache und ggf. auch online-Verständnistests besondere Bedeutung. Erwähnt sei in diesem Zusammenhang auch, dass Beobachtungsstudien in virtuellen Welten wie Second Life oder bei der Teilnahme an Chatgroups mit derselben ethischen Reflexion wie auch in der realen Welt anzugehen sind (ebd.); auch für das Debriefing ist bei Internetforschung besondere Sorge zu tragen (Johnson/Christensen 2008: 126).

4.6.4 Vertraulichkeit der Daten Ebenfalls gesetzlich geregelt ist in den meisten (Bundes-)Ländern, welche Anforderungen an die Vertraulichkeit der Daten zu stellen sind. Eine wichtige Unterscheidung ist in diesem Zusammenhang zwischen Anonymisierung und Pseudonymisierung zu treffen. Anonyme Daten liegen dann vor, wenn dem Untersuchungsteam die Zuordnung von Daten zu Namen unmöglich ist (bspw. beim Einsatz nummerierter Fragebögen ohne Erhebung von Namen). Pseudonymisierung bedeutet hingegen, dass dem datenerhebenden Forscher die Namen der Forschungspartner bekannt sind, diese aber bei der Aufbereitung der Daten durch Pseudonyme ersetzt werden, sodass weder bei der Bearbeitung der Daten noch bei der Präsentation der Ergebnisse die Identität der Forschungspartner bekannt wird.13 Die Referenzarbeit von Ehrenreich (2004: 457) illustriert den Einbezug der Forschungspartnerinnen in die Pseudonymisierung der Transkripte. Die Autorin gibt den interviewten Fremdsprachenassistentinnen neben der Korrektur inhaltlicher Fehler hinaus auch die Möglichkeit, über die von der Autorin vorgenommene Pseudonymisierung14 hinaus auch bestimmte Wörter zu neutralisieren oder zu streichen. Fürsorglich weist sie im Sinne eines Schutzes der Forschungspartnerinnen auch darauf hin, dass niemand aufgrund der für die Mündlichkeit charakteristischen Satzbrüche und anderer Phänomene der Mündlichkeit an der eigenen Ausdrucksfähigkeit zweifeln solle. Pseudonymisierung stellt insbesondere bei der Arbeit mit Bild- und Videomaterial eine Herausforderung dar, da arbeitsaufwändige Verpixelungen oder Balken über Gesichtern die Identitäten von Forschungspartnern unter Umständen nicht hinreichend verdecken, mög­ licherweise aber sogar die Datenauswertung behindern. So ist es bei Einwilligungserklärungen hinsichtlich videographischer Fremdsprachenforschung insbesondere von Interesse, den Forschungspartnern alternative Präsentationsweisen der audiovisuellen Daten (von der Begrenzung auf pseudonymisierte Transkripte bis hin zu Filmvorführungen bei Vorträgen auf wissenschaftlichen Konferenzen und in der Lehreraus- und -weiterbildung) anzubieten und ihr schriftliches Einverständnis einzuholen. Ethisch zu reflektieren ist auch der Wunsch einiger Forschungspartner, ihre Identität zu benennen, um auf diese Weise ihren Forschungsbeitrag zu würdigen. Wie Miethe (2010: 931 – 932) ausführt, ist bei De-Anonymisierung jedoch insbesondere zu bedenken, inwieweit die Betroffenen, vor allem Kinder, die Reichweite einer solchen Entscheidung absehen 13 Auch bereits während der Datenerhebung ist darauf zu achten, dass auf Nachfrage der Forschungspartner keine Weitergabe der Informationen von anderen Personen erfolgt.

14 Allerdings spricht Ehrenreich (2004: 457) selbst von Anonymisierung.

114

4. Forschungsentscheidungen

können und inwieweit damit auch andere Personen wie Familienmitglieder oder Kollegen de-anonymisiert werden. Ebenfalls reflexionsbedürftig erscheint bei Internetforschung beispielsweise das Zitieren von Postings in Diskussionsforen, da diese im Internet unmittelbar aufgefunden werden können und möglicherweise die Identität der Beforschten preisgeben; auch die sichere Datenübertragung bei Befragungen bzw. der mögliche Zugriff Dritter auf die Daten muss Internetforscher in besonderer Weise beschäftigen (vgl. Eynon/Fry/Schroeder 2008). Da bei Internetforschung keine klaren nationalen Grenzen gegeben sind und somit rechtliche Grauzonen entstehen, erscheint in diesen Fällen die ethische Reflexion durch das Forscherteam in besonderer Weise geboten (s. ebd.).

4.6.5 Wissenschaftliches Fehlverhalten Neben dem Betrug wie beispielsweise dem Fälschen von Daten oder dem Manipulieren von Ergebnissen sind als wissenschaftliches Fehlverhalten auch solche Fälle zu bezeichnen, in denen der Umgang mit gefälschten Daten von Kollegen bewusst übersehen wird, bestimmte (widersprüchliche) Daten gezielt zurückgehalten werden oder das Forschungsdesign auf Druck des Geldgebers verändert wird (Johnson/Christensen 2008: 104; s. Kapitel 2). Bei Publikationsaktivitäten ist im Hinblick auf wissenschaftliches Fehlverhalten zum einen die Frage der Autorenschaft von besonderer Relevanz. Autorenschaft gebührt denjenigen, die entscheidend zur Entwicklung und Durchführung des Forschungsprojekts beigetragen haben; besondere Sensibilität ist diesbezüglich bei einem hierarchischen Gefälle der Beteiligten bzw. bei Kooperationen von etablierten Forschern mit Nachwuchswissenschaftlern angebracht. Zum anderen steht der Plagiarismus immer wieder im Mittelpunkt der universitären und der öffentlichen Diskussion, da der Diebstahl geistigen Eigentums einen grundlegenden Verstoß gegen die ethischen Prinzipien des wissenschaftlichen Arbeitens sowie auch gegen das Urheberrecht und damit ein strafbares Vergehen darstellt, das rechtliche Konsequenzen nach sich zieht (Ackermann 2003; Aeppli/Gasser/Gutzwiller/Tettenborn 2010: 57).

4.6.6 Fazit Die hier erörterten Handlungsmaximen sind nicht als abzuarbeitender Regelkatalog misszuverstehen. Vielmehr sollen sie die Sensibilität für die Implikationen forschenden Handelns fördern. Forschende sind gehalten, sich immer wieder neu der Konsequenzen ihres Handelns bewusst zu werden. Abweichungen von Prinzipien sind im Kontext konkreter Forschungsprojekte nicht zu vermeiden; solche Abweichungen bedürfen jedoch der genauen Begründung und der kritischen Abwägung, die auch den Rat von Experten mit einbezieht (vgl. Denscombe 2010: 77). Macfarlane (2009) entwickelt seine Forschungsethik auf der Grundlage von sechs Tugenden. Zu diesen gehört neben Mut, Respekt, Entschlossenheit, Ernsthaftigkeit und Bescheidenheit die Schlüsseltugend der Reflexivität, die Fähigkeit Abstand zu nehmen,

4.6 Forschungsethik

115

zu fragen, ob ich als Forscherin, als Forscher meinen Verantwortlichkeiten gerecht werde und wie ich mein Handeln begründe. Es ist genau jene Tugend, der wir mit diesem Kapitel das Wort reden. ››  Literatur Ackermann, Kathrin (2003). Plagiat. In: Ueding, Gert (Hg.). Historisches Wörterbuch der Rhetorik. 6. Auflage. Darmstadt: Wissenschaftliche Buchgesellschaft, 1223 – 1230. Aeppli, Jürg/Gasser, Luciano/Gutzwiller, Eveline/Tettenborn, Annette (2010). Empirisches wissenschaftliches Arbeiten. Ein Studienbuch für die Bildungswissenschaften. Bad Heilbrunn: Klinkhardt. Bach, Gerhard/Viebrock, Britta (2012). Was ist erlaubt? Forschungsethik in der Fremdsprachenforschung. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 19 – 35. Denscombe, Martyn (2010). Ground Rules for Social Research. Guidelines for Good Practice. 2. Auflage. Maidenhead: Open University Press. Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. München: Langenscheidt. [Referenzarbeit, s. Kapitel 7]. Eynon, Rebecca/Fry, Jenny/Schroeder, Ralph (2008). The ethics of internet research. In: Fielding, Nigel/ Lee, Raymond M./Blank, Grant (Hg.). The Sage Handbook of Online Research Methods. Los Angeles, CA: Sage, 23 – 41. Freeman, Donald (2009). What makes research qualitative? In: Heigham, Juanita/Crocker, Robert (Hg.). Qualitative Research in Applied Linguistics. A Practical Introduction. Houndmills: Palgrave Macmillan, 25 – 41. Holliday, Adrian (2007). Doing and Writing Qualitative Research. 2. Auflage [Kap. 7: Writing about Relations]. Los Angeles, CA: Sage, 137 – 163. Johnson, R. Burke/Christensen, Larry B. (2008). Educational Research. Quantitative, Qualitative, and Mixed Approaches. 3. Auflage. Los Angeles, CA: Sage. Kitchener, Karen/Kitchener, Richard (2009). Social science research ethics: Historical and philosophical issues. In: Mertens, Donna/Ginsberg, Pauline (Hg.). The Handbook of Social Research Ethics. Los Angeles, CA: Sage, 5 – 22. Küster, Lutz (2011). Entscheidungs(spiel)räume in der Fremdsprachenforschung. In: Bausch, KarlRichard/Burwitz-Melzer, Eva/Königs, Frank/Krumm, Hans-Jürgen (Hg.). Erforschung des Lehrens und Lernens fremder Sprachen: Forschungsethik, Forschungsmethodik und Politik. Tübingen: Narr, 135 – 145. Macfarlane, Bruce (2009). Researching with Integrity. The Ethics of Academic Inquiry. London: Routledge. Mackey, Alison/Gass, Susan M. (2005). Second Language Research. Methodology and Design. Mahwah, NJ: Routledge, 25 – 42. Miethe, Ingrid (2010). Forschungsethik. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim: Juventa, 927 – 937. Rallis, Sharon F./Rossman, Gretchen B. (2009). Ethics and trustworthiness. In: Heigham, Juanita/Croker, Robert A. (Hg.). Qualitative Research in Applied Linguistics. A Practical Introduction. New York: Palgrave Macmillan, 263 – 287. Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Hohengehren: Schneider. [Referenzarbeit, s. Kapitel 7].

116

4. Forschungsentscheidungen

Viebrock, Britta (2007). Kommunikative und argumentative Validierung: Zwischen Gütekriterien, Subjektivität und forschungsethischen Fragestellungen. In: Vollmer, Helmut Johannes (Hg.). Empirische Zugänge in der Fremdsprachenforschung. Herausforderungen und Perspektiven. Frankfurt/Main: Lang, 73 – 87. Viebrock, Britta (2015). Forschungsethik in der Fremdsprachenforschung. Eine systematische Betrachtung. Frankfurt/Main: Lang.

»»  Zur Vertiefung empfohlen Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education [Chapter 5. The ethics of educational and social research]. Hoboken: Taylor and Francis, 75 – 104. Das Kapitel „The ethics of educational and social reseach“ gibt einen sehr umfassenden Überblick sowohl zu grundsätzlichen Fragen der Forschungsethik (zusammengefasst in einem Modell forschungsehtischer Parameter auf S. 77) als auch zu praktischen Erfordernissen wie Zugang zum Feld und Forschungsverträge. Ethische Kodizes einschlägiger Fachgesellschaften aus dem anglo-amerikanischen Raum werden eingeführt und kommentiert. Holliday, Adrian (2007). Doing and Writing Qualitative Research. 2. Auflage [Kap. 7: Writing about Relations]. Los Angeles, CA: Sage, 137 – 163. Auf der Grundlage extensiver Beispiele aus der fremdsprachendidaktischen Forschungspraxis werden in diesem Handbuchkapitel Problemfälle beim Feldzugang und insbesondere bei der Gestaltung der Beziehung mit den Forschungspartnern thematisiert. Angesichts der Tatsache, dass das Untersuchungsfeld eine andere Kultur als die der Forscherin aufweist, plädiert Holliday für konsequentes kulturelles Lernen und eine culture of dealing, bei der sich die Forscherin der zu untersuchenden Welt unterordnet. Miethe, Ingrid (2010). Forschungsethik. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim: Juventa, 927 – 937. In diesem erziehungswissenschaftlichen Handbuchartikel behandelt die Autorin die Themen (a) informierte Einwilligung als Basis der Forschungsbeziehung, (b) Anonymisierung und (c) Publikation bzw. die Frage der Rückmeldung von Ergebnissen. Dabei arbeitet sie besonders deutlich die jeweils kontroversen Aspekte dieser drei Themen heraus. Rallis, Sharon F./Rossman, Gretchen B. (2009). Ethics and trustworthiness. In: Heigham, Juanita/ Croker, Robert A. (Hg.). Qualitative Research in Applied Linguistics. A Practical Introduction. New York: Palgrave Macmillan, 263 – 287. Dieser von Erziehungswissenschaftlerinnen publizierte Artikel ist spezifisch für eine fremdsprachendidaktische Leserschaft verfasst worden und behandelt Ethik – neben kompetenter Praxis – als einen Aspekt der Vertrauenswürdigkeit von Forschung. Glaubwürdigkeit, Genauigkeit und Nutzen fremdsprachendidaktischer Forschung werden deshalb ebenso thematisiert wie ethiktheoretische Ansätze und ethische Aspekte wie Wahrung der Privatsphäre, Geheimhaltung und Vertraulichkeit sowie auch Täuschung und Einwilligung, Vertrauen und Betrug. Viebrock, Britta (2015) Forschungsethik in der Fremdsprachenforschung. Eine systematische Betrachtung. Frankfurt/Main: Lang. Diese erste umfassende Darstellung der Forschungsethik für den Gegenstandsbereich Fremdsprachenforschung bietet differenzierte Vertiefungen zu grundsätzlichen Fragestellungen (z. B. zur Integrität

4.6 Forschungsethik

117

des Forschers, der Forscherin), zu theoretischen Konzepten und Hintergründen (z. B. Ethik-Theorien) und praxisnahen Problemstellungen, die in dem vorliegenden Kapitel angesprochen werden.

5. Forschungsverfahren

 Grundsatzüberlegungen

5.1

Friederike Klippel

Im zentralen fünften Kapitel dieses Handbuches geht es um das methodische Kernelement von Forschung: zum ersten um die wesentlichen Verfahren und Werkzeuge für die Datengewinnung und -erhebung sowie die Zusammenstellung von Dokumenten (Kapitel 5.2.1 bis 5.2.8), zum zweiten um Verfahren und Instrumente für die Aufbereitung und Analyse von Daten und Dokumenten (5.3.1 bis 5. 3. 11). Dieses Kapitel ist denn auch bei weitem das umfangreichste des Handbuchs. Die einzelnen Teilkapitel wurden von ausgewiesenen Expert_innen für das jeweilige Verfahren verfasst; wie in Kapitel 4 illustrieren auch hier klare Grafiken die zentralen Vorgehensweisen und Elemente der unterschiedlichen Forschungsmethoden. Während Kapitel 4 die grundsätzlichen Forschungsentscheidungen im Hinblick auf das zu wählende Design, auf Fragen des Sampling oder der Forschungsethik behandelt, also Aspekte der Forschungsmethodologie, geht es hier vor allem um einzelne Forschungsmethoden. Wir verstehen den Begriff Forschungsmethode bzw. Forschungsverfahren relativ breit; Methoden oder Verfahren der Forschung bedienen sich unterschiedlicher Instrumente oder Werkzeuge. So arbeitet die Methode der Befragung etwa mit dem Instrument Fragebogen, zu dessen quantitativer Auswertung das Werkzeug SPSS in Anwendung kommen kann. Auch das Interview ist ein Verfahren der Befragung; bei seiner Durchführung kann als Instrument der Interviewleitfaden eingesetzt werden. Bei der Inhaltsanalyse etwa ist ein Instrument das Kodierschema; dazu hilft als Werkzeug eine Software wie z. B. MAXQDA. Allerdings lassen sich Werkzeuge und Instrumente nicht für jedes Forschungsverfahren sauber voneinander trennen. Zugleich sind einige Werkzeuge bei der Anwendung unterschiedlicher Verfahren einsetzbar. Wenn im Folgenden die Verfahren für historische, theoretische und empirische Forschung in dieser Reihenfolge im Einzelnen vorgestellt werden, dann bedeutet diese Reihung keinerlei Wertung. Desgleichen ist mit der vergleichsweise breiten Darstellung von Verfahren für die empirische Forschung nicht ausgesagt, dass diese Art von Forschung grundsätzlich bedeutsamer sei als andere Forschungsansätze. Es ist jedoch unübersehbar, dass sich die aktuelle Diskussion zu und Beschreibung von Forschungsmethoden fast ausschließlich auf empirische Forschung bezieht, während historische und theoretisch-konzeptuelle Forschung in den gängigen Handbüchern nur selten überhaupt beachtet werden. Insofern betritt dieses Kapitel Neuland, indem es auch diese Herangehensweisen unter forschungsmethodischer Perspektive thematisiert. Die 19 Teilkapitel bieten eine breite Palette an geeigneten Forschungsmethoden für die Fremdsprachendidaktik, wobei wir selbstverständlich keinen Anspruch auf Vollständigkeit

120

5. Forschungsverfahren

erheben. Da sehr viele Autor_innen an Kapitel 5 mitgewirkt haben, ergibt sich an dieser Stelle des Handbuchs eine gewisse Vielfalt der Stile und Sichtweisen. Zudem wird deutlich, dass sich einzelne Instrumente und Werkzeuge nicht nur einem, sondern mehreren Verfahren zuordnen lassen, da gewisse Affinitäten zwischen unterschiedlichen Verfahren bestehen. In einem Handbuch, das Hilfen für die eigene Forschungsarbeit oder zur Betreuung von Qualifikationsarbeiten bereitstellen möchte, sollte es vor allem um eine klare und konkrete Darstellung der einzelnen Verfahren und Instrumente gehen. Diesem Ziel dienen die Übersichts-Grafiken, die fast allen Kapiteln zugeordnet sind. Weniger wichtig erschien es daher aus Sicht der Herausgeber_innen, historische Entwicklungen von einzelnen Methoden, bestimmte Schulenbildungen oder Kontroversen zu einzelnen Forschungsmethoden detailliert zu referieren. Dieses Kapitel, in dem sehr viele Forschungsmethoden vorgestellt werden, mag vielleicht den Charakter eines Menüs suggerieren, aus dem man nach Geschmack beliebig auswählen kann. Sich über unterschiedliche Zugangsweisen in der Forschung zu informieren, hat jedoch immer das Ziel, die für das jeweilige Forchungsvorhaben am besten geeignete Methode zu finden. Die Passung von Forschungsfrage und Forschungsmethode spielt in jeder Forschungsarbeit eine zentrale Rolle. Nicht jedes Verfahren eignet sich zur Bearbeitung jeder Forschungsfrage; vielmehr muss auf der Basis des treibenden Erkenntnisinteresses überlegt werden, wie man am besten zu Ergebnissen gelangt. Die eingesetzten Forschungsmethoden und ihre Instrumente sind zudem nicht wertneutral, sondern tragen eine bestimmte Perspektive, ein bestimmtes Menschenbild in sich. Daher gibt es durchaus gewisse Affinitäten zwischen dem Wissenschafts- und Forschungsverständnis individueller Forscher_innen und deren bevorzugter Wahl von bestimmten Forschungsmethoden. Neben die individuellen Präferenzen treten zeitbedingte Strömungen. Jede Epoche besitzt häufiger und weniger beachtete Ausprägungen von Forschung, und zwar sowohl im Hinblick auf die beforschten Bereiche und Themen als auch auf die forschungsmethodischen Ansätze. Schließlich durchläuft auch die Forschungsmethodologie generell durch die fortwährende Forschertätigkeit eine Entwicklung, die zur Verfeinerung, Ausweitung, Schärfung, Neuentwicklung oder auch zum Aufgeben bestimmter Verfahren führen kann. Noviz_innen in der Forschung sollten daher bestehende Methoden oder Designs nicht einfach unreflektiert übernehmen, sondern – abhängig von der Forschungsfrage – durch ihre Ideen und Experimentierfreude dazu beitragen, auch die Forschungsverfahren weiter zu entwickeln. Anregungen dazu können aus der Kombination unterschiedlicher Methodologien, der Modifikation bekannter Verfahren oder aus benachbarten Disziplinen kommen. Allerdings muss dabei beachtet werden, dass sich nicht alles mit allem sinnvoll kombinieren lässt, da den einzelnen Ansätzen unterschiedliche Auffassungen von Forschung zugrundeliegen können (s. Kapitel 2). Dass solche forschungsmethodischen Innovationen in Qualifikationsarbeiten zudem nur in Absprache mit den betreuenden Wissenschaftler_innen vorgenommen werden sollten, ist selbstverständlich. Betrachtet man die in diesem Kapitel vorgestellten Verfahren mit dem Ziel, unterschiedliche Arten des Forschens zu unterscheiden, dann ließe sich eine grobe Differenzierung in eher zyklische und eher lineare Vorgehensweisen treffen. Hermeneutische, inhaltsanalytische und hypothesen-generierende Ansätze beruhen ebenso wie die historische Forschung auf einer wiederholten Befassung mit den zu analysierenden Texten, Dokumenten und Daten. Dem-

5.2 Gewinnung von Dokumenten, Texten und Daten

121

gegenüber ist die hypothesenprüfende Vorgehensweise stärker linear und umfasst eine Reihe von klar definierten, aufeinanderfolgenden Schritten. Eine Rückbindung an die theoretische Grundlegung, die man als zyklisches Element ansehen könnte, erfolgt in diesen Verfahren vor allem im Zuge der Interpretation und Diskussion der Ergebnisse. Angesichts der Fülle der möglichen forschungsmethodischen Zugriffe ist es für Forschungsnoviz_innen oft schwer, sich für ein bestimmtes Verfahren zu entscheiden. Die Wahl der Forschungsmethode ist eine zentrale Weichenstellung für die gesamte Arbeit und bedarf gründlicher Überlegungen. Dieses Kapitel soll dabei helfen, die gesamte Breite der forschungsmethodischen Optionen und deren besondere Stärken bewusst werden zu lassen. Als Illustration für ein spezifisches Vorgehen dienen jeweils Referenzarbeiten, die als Beispiele ausgewählt wurden, weil in ihnen die forschungsmethodische Umsetzung besonders gelungen ist. Insofern liefert dieses Großkapitel auch die Möglichkeit, an guten Beispielen zu lernen.

 Gewinnung von Dokumenten, Texten und Daten

5.2

Karen Schramm

Dieser Abschnitt thematisiert Verfahren der Dokumenten-, Text- und Datengewinnung. Diese stellen einen zentralen Arbeitsschritt im Forschungsprozess dar, der zwar prinzipiell nach der forschungsfragebasierten Design-Erstellung (s. Kapitel 3 und 4) und vor der Datenaufbereitung und -analyse (s. Kapitel 5.3) zu verorten ist. Dennoch ist zu betonen, dass sich diese Arbeitsschritte – insbesondere bei explorativ-interpretativen Forschungsarbeiten – nicht einfach in linearer Abfolge sukzessiv abarbeiten lassen, sondern dass aufgrund der komplexen Zusammenhänge spiralförmig voranschreitende Vorgehensweisen bzw. dabei vorzunehmende kontinuierliche Verfeinerungen notwendig sind. Gelingt es, das Forschungsdesign und die entsprechende Größe des Dokumenten-, Textoder Datenkorpus hinreichend zu präzisieren, so lässt sich bei der Gewinnung dieses Korpus eine überdimensionierte Ansammlung vermeiden. Die Forschungspraxis zeigt jedoch, dass die gezielte Eingrenzung allzu häufig Schwierigkeiten bereitet. Im Bereich der empirischen Forschung wird darauf scherzhaft mit der Metapher von Datenfriedhöfen Bezug genommen; damit ist die Ansammlung von Daten gemeint, die aufgrund der für die Auswertung zur Verfügung stehenden zeitlichen Ressourcen nicht analysiert werden können. Diesen unglückseligen Fall schon im Vorfeld zu vermeiden, erscheint mit Rücksicht auf die Anstrengungen, die eine Datenerhebung den Forschungspartner_innen abverlangt, genauso wichtig wie im Hinblick auf die begrenzten Ressourcen der erhebenden Forschenden selbst. Grundlegend unterscheiden wir in diesem Handbuch zwischen dem Erfassen und dem Erheben und nutzen den Begriff der Gewinnung von Dokumenten, Texten und Daten (s. zu dieser Unterscheidung Kapitel 4.1) als Oberbegriff für beide Verfahren. Das Konzept des Erfassens bezieht sich dabei auf Dokumente, Texte und Daten, die unabhängig von der jeweiligen Forschungsarbeit vorzufinden sind. Wie Abbildung 1 verdeutlicht, kann dieses Erfassen

122

5. Forschungsverfahren

sich erstens konkret auf den Unterricht beziehen (beispielsweise auf das Einsammeln von lehrer- und lernerseitigen Arbeitsprodukten wie Unterrichtsplanungen oder Aufsätze). Es wurde in der forschungsmethodischen Diskussion bislang kaum thematisiert; das in dieser Hinsicht innovative Kapitel 5.2.7 ist solchen Verfahren gewidmet. Zweitens ist für die Fremdsprachendidaktik auch die Erfassung von Dokumenten und Texten von Interesse, die über konkrete Unterrichtssituationen hinausreichen und die entweder auf eine Dokumentensammlung für historische Forschungsarbeiten (s. Kapitel 5.2.1) oder eine Textsammlung für theoretische Studien (s. Kapitel 5.2.2) hinauslaufen. Im Gegensatz zum Erfassen ist für das Erheben die Tatsache charakteristisch, dass die gewonnenen Daten ohne die Forschungsarbeit nicht existierten. Abbildung 1 zeigt die vielen Verfahren zur Datenerhebung, die in der Fremdsprachendidaktik Beachtung finden: Hier ist zunächst einmal die häufig getroffene Unterscheidung von Beobachten und Befragen relevant. Die vielfältigen Formen des Beobachtens (unter anderem die ethnographisch motivierte teilnehmende Beobachtung mit Feldnotizen, die gesteuerte Beobachtung anhand von Beobachtungsbögen oder die videographische Beobachtung) werden in Kapitel 5.2.3 thematisiert. Befragungen in Form von Fragebögen und Interviews stellt Kapitel 5.2.4 vor. Die in Kapitel 5.2.5 aufgefächerten Verfahren der Introspektion sind in Abbildung 1 zwischen dem Beobachten und Befragen abgebildet, da Verfahren des Lauten Denkens und des Lauten Erinnerns einerseits ähnlich wie Befragungen auf Impulsen der Forschenden beruhen, aber andererseits ähnlich wie Beobachtungen nicht-kommunikativ bzw. auch in Abwesenheit der Forschenden ablaufen können. Auch der Themenbereich des Testens ließe sich begrifflich der Befragung zuordnen; aufgrund der Bedeutung dieses Bereichs wurde er in Abbildung 1 jedoch ausgegliedert und wird in einem eigenen Kapitel (5.2.8) ausführlich behandelt. Im Fall des Kapitels zur Lernersprache und Korpuserstellung (5.2.6) hat es sich als gewinnbringend erwiesen, das Erfassen und Erheben gemeinsam zu thematisieren, sodass dieses Kapitel in Abbildung 1 entsprechend platziert ist. Als wesentlich für die Charakterisierung von empirischen Unterrichtsdaten wird seit spätestens den 1980er Jahren die Unterscheidung von Produkt- und Prozessdaten betrachtet. In Abbildung 1 weist die hell- und dunkelgraue Markierung auf diese (nicht immer trennscharfe) Dichotomie hin, die zwischen den punktuellen Ergebnissen des Lernens, dem Produkt, und dem zeitlich ausgedehnten Vorgang des Lernens, dem Prozess, unterscheidet: Als eher produktorientiert sind die unterrichtsbezogene Erfassung von Daten, das Erfassen und Erheben von Lernersprache und das Testen zu charakterisieren, während das Beobachten, das Befragen und die Introspektion sich besonders für die Erforschung von (meta-)kognitiven, affektiven und sozialen Prozessen eignen. Steht bei einer Untersuchung die sprachliche oder kulturelle Entwicklung von Lernenden über einen längeren Zeitraum im Vordergrund, erweist sich auch die begriffliche Unterscheidung von Längs- und Querschnittdaten als zentral. Dabei zeichnen Längsschnittdaten die tatsächliche Entwicklung von Personen über einen längeren Untersuchungszeitraum nach, während Querschnittdaten Personengruppen in unterschiedlichen Entwicklungsstadien (z. B. Klassenstufen oder Sprachniveaus) untersuchen, um auf der Grundlage einer Datenerhebung zu einem einzigen Zeitpunkt Aussagen über angenommene Entwicklungsprozesse zu treffen.

4.6.6 Fazit

123

Designerstellung (3 & 4) Dokumenten-, Text- und Datengewinnung (5.2)

Beobachtung (5.2.3)

Erheben

Lernersprache und Korpuserstellung (5.2.6)

Erfassen

eher produktbezogen

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Textsammlung für theoretische Studien (5.2.2)

außerhalb des Unterrichts

Dokumentensammlung für historische Studien (5.2.1)

im Unterricht

eher prozessbezogen

Erfassen unterrichtsbezogener Produkte (5.2.7)

Introspektion (5.2.5)

Testen (5.2.8)

Datenaufbereitung und Analyse (5.3)

Befragungen (5.2.4)

Abbildung 1: Übersicht über Verfahren zur Gewinnung von Dokumenten, Texten und Daten

124

5. Forschungsverfahren

5.2.1 Dokumentensammlung Elisabeth Kolb/Friederike Klippel

Wenn das Erkenntnisinteresse einer Forschungsarbeit darin liegt, gegenwärtige Prozesse und Zustände oder vergangene Epochen und Ereignisse zu beschreiben, zu interpretieren und zu bewerten, so ist es nötig, sich auf Dokumente zu stützen, die diese Gegebenheiten repräsentieren. Um tatsächlich gültige Aussagen treffen zu können, muss diese Analyse auf einer möglichst breiten, objektiven, systematischen, repräsentativen und validen Basis an Belegen beruhen. Daher sind wichtige Forschungsstrategien die Suche, Sammlung, Auswahl und Anordnung von Dokumenten. Dabei ist der Begriff ‚Dokument‘ ganz allgemein zu verstehen als „a record of an event or process“ (McCulloch 2011: 249) und kann je nach Forschungsinteresse unterschiedliche Realisierungen aufweisen. Dokumente können von Daten derart unterschieden werden, dass erstere jegliche Art von schriftlichen oder gegenständlichen Belegen umfassen, die nicht speziell für das Forschungsprojekt generiert wurden, wohingegen Daten erst durch die eingesetzten Erhebungsverfahren geschaffen werden. Während mit Heuristik der erste Schritt des Auffindens von Dokumenten beschrieben ist, verlangt die anschließende Korpuserstellung begründete Entscheidungen dazu, welche der gefundenen Dokumente ausgewählt und analysiert werden sollen. Im Folgenden werden 1. für fremdsprachdidaktische Forschung relevante Dokumenttypen vorgestellt, 2. die Schritte bei Heuristik und Korpuserstellung erläutert und 3. konkrete Verfahrensweisen, Schwierigkeiten bei der Sammlung verschiedener Dokumente und der Umgang damit dargestellt. 1 Welche Dokumente kommen in Frage? Terminologie

Grundsätzlich werden in Abgrenzung zu 5.3.1 unter Dokumenten Texte, Materialien und Medien verstanden, die nicht im Kontext aktueller wissenschaftlicher Arbeit als wissenschaftliche (Sekundär-)Literatur entstanden sind, sondern ursprünglich einem anderen Zweck dienen.1 Während die Bezeichnung Dokument vor allem in der sozialwissenschaftlichen Forschung Verwendung findet, wird in der Geschichtswissenschaft eher von Quellen gesprochen; diese Begrifflichkeit differenziert nach gegenwärtiger bzw. vergangener Entstehungszeit (Glaser 2010: 366 – 367). Allerdings ist insbesondere für historische Forschungsarbeiten diese Kategorisierung nicht eindeutig: So können beispielsweise Zeitschriftenaufsätze oder Rezensionen in ihrer Entstehungszeit Dokumente gewesen sein, während sie jetzt als Quellen zur Rekonstruktion vergangener Geschehnisse oder Zeitabschnitte herangezogen werden. Weiterhin können Primär- und Sekundärdokumente unterschieden werden: Während erstere von Zeitzeugen oder direkt Beteiligten produziert werden, verwenden letztere Primärdokumente, um ein Ereignis oder eine Epoche zu rekonstruieren und zu beschreiben. Auch hier gibt es fließende Übergänge zwischen diesen beiden Polen: Ein Zeitgenosse kann mit 1 Somit werden vor allem diejenigen Texte ausgeschlossen, die bei jeder Forschungsarbeit gefunden werden müssen, um den Stand der Forschung zu referieren. Dennoch ist das heuristische Verfahren jeweils ganz ähnlich beschaffen (vgl. Kapitel 6.3).

5.2.1 Dokumentensammlung

125

zeitlichem Abstand, z. B. in seiner Autobiographie, Gegebenheiten darstellen; ein derartiger Rückblick kann deutlich anders aussehen als ein zeitgenössischer Bericht (McCulloch 2011: 249). Relevante Arten von Dokumenten

Für die fremdsprachendidaktische Forschung äußerst relevant ist die Einteilung nach den Urhebern der Dokumente sowie nach dem Vertriebsweg bzw. der Zugänglichkeit der Dokumente (vgl. Scott 1990: 14 – 18). Ausgehend von der Zugehörigkeit zu verschiedenen Kommunikationsbereichen können hauptsächlich offizielle, halboffizielle, öffentliche und private Dokumente unterschieden werden.

• Offizielle Dokumente werden von staatlichen Institutionen veröffentlicht und in erster Linie auch rezipiert. Dazu gehören z. B. Gesetze, Lehrpläne, Stundentafeln, Verordnungen und Verträge. Sie zeigen, wie der Staat als Akteur Organisation und Ablauf von (Fremdsprachen-)Unterricht konzeptionell vorgibt. Diese Dokumente erlauben nur in begrenztem Maß Rückschlüsse auf die Unterrichtswirklichkeit und sind vielmehr als Absichtserklärungen auf der Makroebene der Schul- und Unterrichtsorganisation zu sehen (Fend 2006: 167; Kolb 2013: 38 – 40). • Halboffizielle Dokumente entstehen in der Kommunikation zwischen Institutionen und Privatpersonen. Wenn auch die Zuordnung nicht immer eindeutig ist, so können dazu Schulprogrammschriften, Stoffverteilungspläne, schulinterne Curricula, Unterrichtsentwürfe, Jahresberichte, Klassenbücher, Schülerzeitungen, Zeugnisse, Tests usw. gezählt werden (s. Kapitel 5.2.7). Während einige dieser Dokumenttypen eher innerhalb der Institution Schule rezipiert werden, haben andere auch außerhalb ein Publikum, z. B. Eltern. Sie spiegeln amtliche Positionen wider, sind aber gleichzeitig als Dokumente der Mesoebene der schulischen Institutionen oder als Dokumente der Mikroebene des Unterrichts auch näher an der Unterrichtsrealität (Fend 2006: 167). • Zu den privaten Dokumenten, die von unterschiedlichen Beteiligten stammen können, zählen beispielsweise Tagebücher von Lernenden und Lehrenden, Interviews, Briefe oder (Auto-)Biographien von Bildungspolitikern, Fremdsprachendidaktikern oder Sprachenlernenden. Am Übergang zwischen halboffiziellen und privaten Dokumenten befinden sich Lernertexte (z. B. ausgefüllte Arbeitsblätter, Klassenarbeiten, Aufsätze oder Portfolios) (s. Kapitel 5.2.7). Diese und viele weitere Dokumente geben kleine, subjektiv gefärbte Ausschnitte aus verschiedenen Bereichen wieder und müssen daher, was Zuverlässigkeit und Korrektheit betrifft, vorsichtig rezipiert und interpretiert werden (s. Kapitel. 5.3.1). • Als öffentlich können Dokumente bezeichnet werden, wenn sie in irgendeiner Form veröffentlicht sind, so dass sie bei Interesse relativ leicht zugänglich sind. Dazu sind verschiedene Dokumente und Quellen zu zählen wie Rezensionen, Zeitschriften- und Zeitungsartikel, Konferenzberichte, Statistiken, kommerzielle Selbstlernmaterialien, Lehrwerke und zugehörige Medien, Plakate, Anzeigen, Graffiti oder auch literarische Texte. Was die Zugänglichkeit betrifft, so können schriftliche Dokumente beispielsweise frei im Buchhandel erhältlich sein oder in Bibliotheken bereitgestellt werden, sie können in Archiven vorhanden sein, oder sie können nur intern einem begrenzten Adressatenkreis (z. B. als Ar-

126

5. Forschungsverfahren

beitspapier oder als private Nachricht) verfügbar sein (vgl. Scott 1990: 14 – 18). Schriftliche Dokumente aus allen o. g. Kategorien, die nicht öffentlich zugänglich sind, sondern innerhalb eines bestimmten Rezipientenkreises zirkulieren, werden als graue Literatur bezeichnet (Bortz/Döring 2006: 360). Da sie meist schwierig aufzufinden sind, werden sie oft vernachlässigt; sie bieten jedoch viele Gelegenheiten, neue Erkenntnisse zu bestimmten Diskursen zu gewinnen, etablierte Sichtweisen zu ergänzen und möglicherweise gar zu revidieren. Im Internet werden solche Texte zwar gelegentlich auf privaten Webseiten oder in Foren veröffentlicht; dadurch sind sie aber nicht automatisch leichter zu finden. Ein weiterer wichtiger Anhaltspunkt, um zu analysierende Dokumente auszuwählen, ist das Medium. Neben gedruckten Texten sollten auch andere mediale Realisierungsformen beachtet werden. Lohnend kann beispielsweise die Analyse von (audio-)visuellen Dokumenten wie Bildern, Fotografien, Cartoons, (Spiel-)Filmen, CDs oder Overheadfolien sein, wobei diese visuellen bzw. audiovisuellen Dokumente sowohl die Perspektive der Lehr- und Unterrichtsmaterialien als auch die der Lernerprodukte verkörpern können. Für fachhistorische Untersuchungen sind etwa Lehrbuchillustrationen, frühe Formen von Unterrichtsmedien oder verwendete Realien des Ziellandes aufschlussreich. Auch an multimediale und elektronische Quellen und Software (Blogs, Webseiten, Chat-Daten, Emails, Lernmaterialien auf CD-Rom etc.) ist zu denken. Für einige methodische Ansätze sind bestimmte reale Gegenstände konstitutiv, etwa die cuisenaire rods und fidel charts für den Silent Way. Selbstverständlich können Realien und Objekte wie Gebäude, Klassenzimmerausstattungen, Sprachlabore, technische Hilfsmittel (Hardware), Wandtafeln usw. in eine Untersuchung einbezogen werden; diese Arten von Dokumenten werden auch Relikte genannt (Johnson/Christensen 2012: 416). Natürlich ist es durchaus möglich, verschiedene Dokumententypen für eine einzelne Studie zu sammeln und auszuwerten. Dabei werden zuweilen halboffizielle oder private Dokumente, die im Unterrichtsbetrieb ohnehin anfallen (etwa Lernertexte) kombiniert mit gezielt erhobenen Daten für den Forschungszweck. So werden beispielsweise in der Referenzarbeit von Schmidt (2007, s. Kapitel 7) Anfangs- und Abschlussfragebögen, Video- und Audioaufnahmen aus dem Unterricht, Feldnotizen, Lernertexte, Interviews und Lerntagebücher verwendet (Schmidt 2007: 186 – 203). Ähnlich sieht es bei Bellingrodt (2011) aus, die Fragebögen, Interviews und verschiedene Dokumente aus den Portfolios der Lernenden einbezieht. Wenn unterschiedliche Dokumentarten für eine gemeinsame Fragestellung herangezogen werden, muss im Rahmen der Triangulation eine Verknüpfung der verschiedenen Perspektiven erfolgen (siehe dazu Kapitel 4.4). 2 Wie laufen Heuristik und Korpuserstellung ab?

Bevor mit der Sammlung jeglicher Art von Dokumenten begonnen werden kann, müssen das Forschungsinteresse, der Forschungszweck oder die Ausgangshypothese genau bestimmt werden. Dabei haben folgende Fragen Leitfunktion:

• Was ist der Forschungsgegenstand? • Welche Forschungsfragen sollen beantwortet werden?

5.2.1 Dokumentensammlung

127

Es ist wichtig, diese Aspekte sorgfältig zu bestimmen, damit die nachfolgende Suche und Auswahl der Dokumente eingegrenzt werden können und nicht zu wenig oder zu viele Dokumente eingeschlossen werden (vgl. Keller 2011: 80 – 87). Vielfach finden sich in der gesichteten Forschungsliteratur zum Forschungsfeld bereits Hinweise auf aufschlussreiche Arten von Dokumenten. In einem zweiten Schritt sind folgende Überlegungen anzustellen:

• Anhand welcher Dokumente kann den Forschungsfragen nachgegangen werden? • Welche örtliche und zeitliche Eingrenzung der Dokumentenauswahl ist sinnvoll? Diese Vorgehensweise zeigt sich sehr gut in der Referenzarbeit von Doff (2002, s. Kapitel 7), in der eine Konzentration auf Preußen und auf das späte 19. Jahrhundert erfolgt. Genauso geht Kolb (2013) vor, wenn sie verschiedene europäische Länder und den Zeitraum von 1975 bis 2011 auswählt. Derartige lokale und temporale Beschränkungen können von den Forschungsfragen abhängen, aber auch ganz pragmatisch durch die Verfügbarkeit von Dokumenten bedingt sein. Letzerer Aspekt zeigt sich oft erst, wenn Heuristik und Korpuserstellung bereits begonnen haben. Allerdings kann es auch notwendig sein, den betrachteten Zeitraum auszuweiten, wenn relevante Dokumente auch noch später veröffentlicht wurden oder das Forschungsthema nur im Vergleich mit früheren oder späteren Entwicklungen zufriedenstellend bearbeitet werden kann. Dies ist z. B. gerade bei Lehrplänen der Fall, die häufig Fortschreibungen früherer Versionen sind (Kolb 2013). Nach diesen beiden vorbereitenden Schritten beginnt die eigentliche Heuristik, bei der zu klären ist, wo und wie sich die Dokumente ausfindig machen lassen. Ausgeschlossen bleiben soll hier die selbstständige Gewinnung von Daten durch Beobachtung oder Befragung (s. Kapitel 5.2.3 und 5.2.4). Bei der Suche und Auswahl von bereits existierenden Dokumenten sind verschiedene Verfahren denkbar, die sich gegenseitig ergänzen können:

• Systematische Suche oder Suche nach dem Schneeballprinzip (vgl. Roos/Leutwyler 2011: 25 – 46)

• Vollständige Erfassung aller möglichen Dokumente oder Auswahl einer Stichprobe Sowohl das Schneeballverfahren als auch die systematische Suche werden in der Referenzarbeit von Doff (2002) und bei Kolb (2013) angewendet. Bei ersterem Verfahren werden neuere Sekundärliteratur oder Quellensammlungen zum gewählten Thema gesucht und anhand deren Bibliographien weitere Dokumente ausfindig gemacht (Doff 2002: 16; Kolb 2013: 140 – 142, 237 – 241, 306 – 309). Dieser Vorgang wird so oft wiederholt, bis genügend Dokumente vorliegen, wobei sich meist zeigt, dass gewisse Dokumente und Quellen als Standard in unterschiedlicher Literatur immer wieder genannt werden (Roos/Leutwyler 2011: 30). Bei letzterer Vorgehensweise werden beispielsweise Bibliographien und komplette Zeitschriftenjahrgänge nach relevantem Material durchgesehen (Doff 2002: 16) oder Datenbanken und Bibliothekskataloge anhand von Stichwörtern oder Autorennamen durchsucht (Kolb 2013: 142, 239, 308). Zu Beginn der Suche sollte darauf geachtet werden, so breit wie möglich vorzugehen, um nicht zu früh potentiell interessante und ergiebige Dokumente auszuschließen. Dabei hängen Forschungsinteresse und Sammlung von Materialien eng zusammen: Einerseits werden Dokumente, die sich beim ersten Durchsehen als zur Fragestellung passend erweisen, einbe-

128

5. Forschungsverfahren

zogen; andererseits können die Forschungsfragen durch aufgefundene Dokumente erweitert oder verändert werden. Dies wiederum hat Einfluss auf die weitere Recherche. Es bestehen somit Parallelen zum theoretical sampling (s. Kapitel 5.3.3): Dieses Verfahren der Grounded Theory bedeutet, dass der Auswahlplan nicht vorher festgelegt wird, sondern auf Basis der Vorkenntnisse und der im Forschungsprozess entstandenen Hypothesen und Theorien schrittweise entwickelt wird (vgl. Glaser/Strauss 2010: 61 – 65; s. Kapitel 5.3.3). Sammlung und Analyse der Dokumente laufen zirkulär ab. Wichtig ist in jedem Fall, dass die Rechercheprinzipien offengelegt werden, damit so Suche und Auswahl der Dokumente intersubjektiv nachvollzogen werden können. Die Frage, wann die Dokumentensammlung abgeschlossen werden kann, stellt sich für jede Art von Forschungsarbeit etwas anders. Beispielsweise bestimmt Freitag-Hild ein Korpus literarischer Texte für die Erprobung in Unterrichtsvorhaben, das auf deren Thematik und ihrer fremdsprachendidaktischen Eignung basiert (2010: 4 – 9), oder Summer (2011: 83 – 87) begründet ihre Analyse der Grammatikdarstellung in ausgewählten Lehrwerken mit Bezug auf Schulform, Niveaustufe und Thema. In historischen, hermeneutischen, diskursanalytischen, aber auch anderen Ansätzen wird man jedoch häufig weiterrecherchieren, bis eine Sättigung erreicht ist. Dies bedeutet, dass keine weiteren Dokumente mehr gefunden werden können, die neue Erkenntnisse liefern (s. Glaser/Strauss 2010: 76 – 78). Das Material für den entsprechenden Aspekt der Forschungsfrage kann dann als vollständig angesehen und, falls nötig, die Suche für einen anderen Gesichtspunkt fortgesetzt werden. Aus der Gesamtheit der gefundenen Dokumente ist das Korpus zu erstellen, mit dem weitergearbeitet wird. Begrifflich lassen sich so imaginäres Korpus (Menge aller jemals existierenden Dokumente zu einem Thema), virtuelles Korpus (Menge der noch erhaltenen Dokumente) und konkretes Korpus (Menge der tatsächlich analysierten Dokumente) unterscheiden (s. Landwehr 2008: 102 – 103). Kriterien für die Auswahl von Dokumenten sind ihre Repräsentativität, ihre genügend große Anzahl und ihre thematische und zeitliche Breite (s. Landwehr 2008: 103). In manchen Untersuchungen kann es wichtig sein, die Gesamtheit aller auffindbaren Dokumente einzubeziehen (s. Kolb 2013 für die Analyse aller Lehrplanversionen im Untersuchungszeitraum); in anderen Fällen ist die Auswahl einer Stichprobe für die Fallanalyse einer bestimmten Frage möglicherweise sinnvoller: So konzentriert sich Doff (2008) auf die durch eine Umfrage unter Experten bestimmten Standardwerke bzw. auf durch Zitationsanalyse ausgewählte Zeitschriftenartikel (Doff 2008: 72 – 84). Dokumente, die näher analysiert werden sollen, können entweder dem Prinzip der maximalen Kontrastierung – also nach größtmöglicher Unterschiedlichkeit – oder dem Prinzip der minimalen Kontrastierung folgend – nach einer möglichst starken Ähnlichkeit – ausgewählt und angeordnet werden (s. Keller 2011: 92). 3 Welche Probleme und Hilfsmittel existieren?

Bevor jedoch die nähere Analyse des Korpus erfolgen kann (vgl. z. B. die methodische Beschreibung von Quellenkritik und -analyse in Kapitel 5.3.1), müssen die gefundenen Dokumente genau erfasst werden. Für gedruckte Dokumente sind Entstehungsdatum und -ort, Umfang, Autoren und Zusammenfassungen der Kernaussagen zu notieren. Auch andere Arten von Dokumenten müssen in einer informativen und konsistenten Weise erfasst wer-

5.2.1 Dokumentensammlung

129

den. Die Erstellung einiger dieser Angaben, aber auch weitere Elemente des Prozesses der Dokumentensammlung können Probleme bereiten. So können die Autoren unbekannt sein oder bewusst anonym gehalten werden; dies ist beispielsweise bei Lehrplänen häufig der Fall. Besonders bei älteren Dokumenten kann die Datierung schwierig sein. Sollte eine Klärung von Autorschaft und Datum nicht möglich sein, so ist dies ebenfalls zu vermerken. Auch können die Dokumente unvollständig sein oder Unklarheiten enthalten. Hier kann nur versucht werden, durch Vergleich mit anderen Quellen und Dokumenten die fehlenden Informationen zu erschließen. Entscheidend dafür, wie aufwendig die Dokumentensammlung ist, ist jedoch hauptsächlich die Frage, um welche Art von Dokumenten es sich handelt. Soll unveröffentlichtes Material aus der Gegenwart verwendet werden, so kann es hilfreich sein, sich direkt an Autoren und andere Akteure zu wenden und um Manuskripte und die Erlaubnis, diese zu verwenden, zu bitten (vgl. Kolb 2013: 254, 307). Bei historischen Dokumenten sind Archive die Hauptanlaufstelle, während neuere Dokumente sich häufig über Datenbanken, Bibliotheks- und Buchhandelskataloge oder das Internet recherchieren lassen. Teilweise gibt es für historische Forschung auch Quellen- und Dokumentensammlungen, auf die man sich bei der Recherche stützen kann (vgl. Doff 2002: 16 – 17). Beispiele hierfür sind Kössler (1987) für Schulprogrammschriften, Schröder (1975) für Lehrwerke und Unterrichtsmaterialien bis 1900 sowie Christ/Rang (1985) und Christ/Müllner (1985) für Lehrpläne. Lehrwerke werden durch das Georg-Eckert-Institut für internationale Schulbuchforschung zugänglich gemacht (http:// www.gei.de). Zur Suche von Monographien bietet sich nach den jeweiligen Hochschulbibliotheken die Metasuche über den Karlsruher Virtuellen Katalog (KVK) an, mit der weltweit nach Medien gesucht werden kann (http://www.ubka.uni-karlsruhe.de/kvk.html). Für Zeitschriften ist die Elektronische Zeitschriftenbibliothek der Universität Regensburg (EZB, http://rzblx1. uni-regensburg.de/ezeit/) nützlich. Gerade für die deutschsprachige Pädagogik und Didaktik lassen sich die FIS Literaturdatenbanken (http://www.fachportal-paedagogik.de/start.html) sowie besondere Fachdatenbanken, die über die Hochschulbibliotheken ausfindig gemacht werden können, verwenden. Über das Informationszentrum für Fremdsprachenforschung in Marburg können Bibliographien aus der dortigen Literaturdatenbank angefordert werden (http://www.uni-marburg.de/ifs). In gedruckter Form liegt die ebenfalls in Marburg verantwortete Bibliographie Moderner Fremdsprachenunterricht vor, die seit 1970 fremdsprachendidaktische Veröffentlichungen und auch graue Literatur bibliographiert. Über die Deutsche Nationalbibliographie können außer Printmedien auch audiovisuelle Medien, elektronische Medien, Karten und Online-Ressourcen recherchiert werden (http://dnb.dnb.de). Weitere Hilfen zur Literaturrecherche im Internet und in Bibliotheken finden sich bei Franke/Klein/ Schüller-Zwierlein (2010). Die Suche nach Dokumenten jeder Art erfordert Findigkeit, Geduld und Gründlichkeit. Diese wichtige Phase im Forschungsprozess sollte nicht unterschätzt werden, da im kumulativen Prozess des Suchens, Findens, Einordnens und Aussortierens sich auch die Forschungsfragen weiter klären und man mit dem zu analysierenden Material zunehmend vertraut wird.

130

5. Forschungsverfahren

››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Bellingrodt, Lena Christine (2011). ePortfolios im Fremdsprachenunterricht. Empirische Studien zur Förderung autonomen Lernens. Frankfurt/M.: Peter Lang. Bortz, Jürgen/Döring, Nicola (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. Heidelberg: Springer. Christ, Herbert/Müllner, Klaus (1985). Richtlinien für den Unterricht in den neueren Fremdsprachen in den Schulen der BRD 1945 – 1984. Eine systematische Bibliographie. Tübingen: Narr. Christ, Herbert/Rang, Hans-Joachim (1985). Fremdsprachenunterricht unter staatlicher Verwaltung. 7 Bände. Tübingen: Narr. *Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. München: LangenscheidtLongman. [Referenzarbeit, s. Kapitel 7] *Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. Konzeptuelle Genese einer Wissenschaft im Dialog von Theorie und Praxis. München: Langenscheidt. Fend, Helmut (2006). Neue Theorie der Schule. Einführung in das Verstehen von Bildungssystemen. Wiesbaden: VS Verlag für Sozialwissenschaften. Franke, Fabian/Klein, Annette/Schüller-Zwierlein, André (2010). Schlüsselkompetenzen. Literatur recherchieren in Bibliotheken und Internet. Stuttgart: Metzler. *Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT. Glaser, Barney G./Strauss, Anselm L. (2010). Grounded Theory. Strategien qualitativer Forschung. Bern: Huber. Glaser, Edith (2010). Dokumentenanalyse und Quellenkritik. In: Friebertshäuser, Barbara/Langer, Antje/ Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3., vollständig überarbeitete Auflage. Weinheim: Juventus. 365 – 375. Johnson, Burke/Christensen, Larry (2012). Educational Research. Quantitative, Qualitative, and Mixed Approaches. 4. Auflage. London: Sage. Keller, Reiner (2011). Diskursforschung. Eine Einführung für Sozialwissenschaftlerinnen. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. *Kolb, Elisabeth (2013). Kultur im Englischunterricht. Deutschland, Frankreich und Schweden im Vergleich (1975 – 2011). Heidelberg: Winter. Kössler, Franz (1987). Verzeichnis von Programm-Abhandlungen deutscher, österreichischer und schweizerischer Schulen der Jahre 1825 – 1918. München: Saur. Landwehr, Achim (2008). Historische Diskursanalyse. Frankfurt/M.: Campus. McCulloch, Gary (2011). Historical and Documentary Research in Education. In: Cohen, Louis/Manion, Lawrence/Morrison, Keith (Hg.). Research Methods in Education. 7. Auflage. London: Routledge. 248 – 255. Roos, Markus/Leutwyler, Bruno (2011). Wissenschaftliches Arbeiten im Lehramtsstudium. Bern: Huber. *Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Schröder, Konrad (1975). Lehrwerke für den Englischunterricht im deutschsprachigen Raum. 1665 – 1900. Einführung und Versuch einer Bibliographie. Darmstadt: Wiss. Buchgesellschaft. Scott, John (1990). A Matter of Record. Documentary Sources in Social Research. Cambridge: Polity Press.

5.2.1 Dokumentensammlung

131

5.2.1 Dokumentensammlung Forschungsgegenstand Forschungsfrage(n) Eingrenzung zeitlich, örtlich, bildungspolitisch, etc.

Dokumente offiziell, halboffiziell, privat, öffentlich frei bzw. nicht frei zugänglich unterschiedliche Kommunikationsbereiche Art der Urheberschaft

Suche systematisch oder Schneeballsuche

Untersuchungskorpus

imaginäres Korpus virtuelles Korpus konkretes Korpus repräsentativ genügend breit genau erfasst

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

132

5. Forschungsverfahren

*Summer, Theresa (2011). An Evaluation of Methodological Options for Grammar Instruction in EFL Textbooks. Are Methods Dead? Heidelberg: Winter. »»  Webseiten Deutsche Nationalbibliographie: http://dnb.dnb.de Elektronische Zeitschriftenbibliothek: http://rzblx1.uni-regensburg.de/ezeit/ FIS Literaturdatenbanken: http://www.fachportal-paedagogik.de/start.html Georg-Eckert-Institut für internationale Schulbuchforschung: http://www.gei.de Informationszentrum für Fremdsprachenforschung: http://www.uni-marburg.de/ifs Karlsruher Virtueller Katalog: http://www.ubka.uni-karlsruhe.de/kvk.html »»  Zur Vertiefung empfohlen McCulloch, Gary (2004). Documentary Research in Education, History and the Social Sciences. London: Routledge Falmer. In dieser Monographie wird die Bedeutung von Dokumenten für geistes- und sozialwissenschaftliche Forschung dargelegt. Recherche- und Analysemethoden werden erklärt und an Beispielen erläutert, wobei ein breites Spektrum an Dokumenten abgedeckt wird. Prior, Lindsay (2011). Using Documents and Records in Social Research. 4 Bände. Los Angeles: Sage. In dieser vierbändigen Sammlung von Beiträgen werden alle Aspekte des Forschungsprozessses (Planung, Dokumentensammlung, Interpretation und Synthese der Ergebnisse) anhand von Beispielen aus den Sozialwissenschaften dargestellt. Die vier Bände legen jeweils einen Schwerpunkt auf Dokumenttypen, Dokumente als soziale Konstrukte, Verwendung von Dokumenten in der Praxis, Vernetzung zwischen verschiedenen Dokumenten.

5.2.2 Textzusammenstellung (für theoretische Arbeiten) Barbara Schmenk

Theoretische Arbeiten in der Fremdsprachenforschung können ganz unterschiedlicher Natur sein und umfassen sowohl Arbeiten zur Theorie- und Modellbildung als auch solche, die sich mit spezifischen Fragestellungen der Fremdsprachenforschung beschäftigen. Für theoretische Arbeiten gilt dabei allgemein, dass die VerfasserInnen sich mit einem Textkorpus auseinandersetzen müssen, dessen Erstellung ein recht aufwändiger und langwieriger Prozess sein kann. Das Erkenntnisinteresse theoretischer Arbeiten liegt immer auch darin, spezifische Ausschnitte der Forschungslandschaft genauer zu erfassen und zu durchdringen. Diejenigen Texte, auf die sich solche Arbeiten stützen, umfassen normalerweise neben Studien aus dem entsprechenden Bereich der Fremdsprachenforschung auch Arbeiten aus anderen – affinen –

5.2.2 Textzusammenstellung (für theoretische Arbeiten)

133

Fachbereichen, in denen thematisch und erkenntnistheoretisch relevante bzw. vergleichbare Forschungsprojekte durchgeführt werden (z. B. der jeweiligen Fachwissenschaften, der Allgemeinen Pädagogik, der Psychologie, der Lehr- und Lernforschung sowie anderer Fachdidaktiken). Damit sind theoretische Arbeiten häufig zugleich interdisziplinär angelegt, da es hier oft darum geht, die Perspektive der Fremdsprachenforschung gezielt zu erweitern, zu schärfen und in größere theoretische Zusammenhänge zu stellen. Die Lektüre theoretischer Schriften (z. B. aus den Kulturwissenschaften oder der Philosophie) zu bestimmten Themen und Fragestellungen ist damit häufig eine wichtige Voraussetzung bzw. Hilfe sowohl für die Entwicklung des theoretischen Bezugsrahmens als auch für die Auswahl und ggf. Klassifikation von Texten aus der Fremdsprachenforschung sowie anderer relevanter Fachbereiche. Im Folgenden wird zunächst genauer aufgefächert, was unter „Text“ zu verstehen ist und welche Arten von Texten für theoretische Arbeiten unterschieden werden können. Der anschließende Teil widmet sich der Auswahl und Zusammenstellung von Texten. Im letzten Teil werden konkrete Tipps, Ressourcen und Datenbanken vorgestellt, die zur Textfindung und -zusammenstellung hilfreich sein können. 1 Welche Texte können für theoretische Arbeiten verwendet werden?

Anders als im Fall von Dokumenten oder Quellen (vgl. Kapitel 5.2.1) handelt es sich bei „Texten“ um eine medial engere Kategorie, da hier hauptsächlich schriftliche und zumeist wissenschaftliche Publikationen gemeint sind. Selbstverständlich bedeutet das nicht, dass man zur Darstellung eines bestimmten Forschungsgebiets ausschließlich auf wissenschaftliche Texte zurückgreifen muss  – schließlich gibt es zahlreiche weitere Dokumente, die für bestimmte Frage- und Themenstellungen relevant sind und die auch entsprechend zu berücksichtigen sind (z. B. Videomaterial, Zeitungsartikel, ggf. auch Werbematerialien, Lehrwerke und Lernmaterialien etc.). Im Folgenden wird der Schwerpunkt jedoch auf wissenschaftlichen Texten liegen, da man auch hier zwischen verschiedenen Arten von Texten unterscheiden muss, die es zusammen zu stellen gilt, wenn es um die Erstellung einer theoretischen Arbeit geht. Prinzipiell ist dabei zwischen primären Texten (auf der Basis empirischer Arbeiten) und sekundären Texten (Zusammenfassungen und Überblicksdarstellungen) zu unterscheiden. Empirische Studien aus der Fremdsprachenforschung (Aufsätze und Monographien)

Empirische Studien bzw. ihre Publikation in Aufsätzen und Büchern stellen Primärtexte dar, wenn es um die Erfassung des status quo eines spezifischen Forschungsthemas innerhalb der Fremdsprachenforschung geht. Welcher Art die jeweiligen empirischen Studien sind, nämlich ob eher quantitativ-nomologisch oder qualitativ-interpretatorisch, ist dabei zunächst irrelevant. Jede Publikation empirischer Daten zu einem bestimmten Thema vermag auf je spezifische Weise Licht auf bestimmte Aspekte zu werfen, die in den gewählten Gegenstandsbereich fallen (vgl. auch Grotjahn 1999). Empirische Studien aus anderen Fachbereichen (Aufsätze und Monographien)

Da der Gegenstandsbereich der Fremdsprachenforschung sich häufig überlappt mit anderen Fachbereichen, ist es notwendig, auch weitere empirische Arbeiten zu berücksichtigen, die

134

5. Forschungsverfahren

den gewählten Gegenstandsbereich zu erhellen vermögen (z. B. Arbeiten aus anderen Fachdidaktiken, der Psychologie, Soziologie, Pädagogik). Diese stellen zwar in Bezug auf ihre unmittelbare empirische Evidenz ebenfalls Primärtexte dar, sind jedoch meist von denen der Fremdsprachenforschung zu unterscheiden, insofern sie sich nicht unmittelbar dem Lernen und Lehren von neuen Sprachen widmen. Sie können deshalb als affine primäre Texte verstanden werden. Man trifft hier mitunter auf andere forschungsgeschichtliche und wissenschaftssoziologische Gegebenheiten, die das Lesen solcher Publikationen mitunter erschweren bzw. die eine eingehende Beschäftigung mit den jeweiligen fachspezifischen Voraussetzungen erfordern, damit man den entsprechenden Beitrag in seinem Entstehungskontext nachvollziehen und einordnen kann. Viele Arbeiten in der Psychologie etwa basieren auf Daten, die in experimentellen Forschungsdesigns gewonnen wurden und die nicht ohne weiteres auf den Gegenstandsbereich Fremdsprachenlernen und -lehren übertragen werden können. Eine Beschäftigung mit experimentellen Designs, Datengewinnung und Interpretation ist dabei oft unabdingbar (z. B. Bierhoff/Petermann 2014). Bei der Verwendung affiner primärer Texte aus anderen Fachbereichen ist immer auch Vorsicht und Augenmaß geraten, im Idealfall auch Austausch mit Forschenden der betreffenden Disziplinen, wenn man im Rahmen einer ­Textsichtung für ein Projekt in der Fremdsprachenforschung auf dergleichen Forschungsergebnisse stößt. Wer eine Arbeit verfasst, die sich auf Modelle und Studien anderer Fächer bezieht, ist wahrscheinlich gut beraten, direkten Kontakt mit FachvertreterInnen zu suchen (z. B. durch den Besuch von Vorträgen auf Konferenzen, Seminarbesuche, schriftlicher Kontakt). Überblicksdarstellungen in der Fremdsprachenforschung und in affinen Fachbereichen

Von Darstellungen empirischer Studien sind solche zu unterscheiden, die sich zwar auf empirische Arbeiten beziehen, diese jedoch in einem Überblick zusammenfassen mit dem Ziel, den Forschungsstand in einem bestimmten Gegenstandsbereich darzustellen. Das Spektrum der Texte reicht von der kompakten Darstellung in Handbüchern und Lexika (wie Burwitz-Melzer et al. 2016; Surkamp 2010) bis hin zu differenzierten Forschungsüberblicken in Monographien (z. B. Ellis 2008). Dabei wird häufig auch auf einige der oben als „affine primäre Texte“ bezeichneten Publikationen Bezug genommen, so dass diese Gruppe von Texten bereits eine interdisziplinäre Tendenz aufweist. Sie stellen insofern sekundäre Texte dar und können sowohl ihren Schwerpunkt im Bereich der Fremdsprachenforschung als auch in anderen Fachbereichen haben. Von besonderer Bedeutung für diese sekundären Texte (und deshalb für Forschende immer bei der Lektüre und Arbeit mit ihnen zu bedenken) ist, dass hier eine zusätzliche interpretatorische Dimension zu berücksichtigen ist, da die jeweiligen Autorinnen und Autoren ihrerseits primäre Texte zusammenfassen, gruppieren, auswerten und in einem Zusammenhang darstellen. Zu bedenken ist außerdem, dass zahlreiche primäre Texte auch Anteile aufweisen, die in die Gruppe der sekundären Texte fallen können. Dies verhilft einerseits zu einer strukturierten Darstellung und vermittelt einen konzisen Überblick über einen bestimmten Forschungsbereich aus einem bestimmten Zeitraum, die man als LeserIn sicherlich zu schätzen weiß. Andererseits handelt es sich bei der Strukturierung aber natürlich um eine Form der Interpretation, die ggf. für die eigene Arbeit überdacht werden muss. Forschungsüberblicke finden sich nicht nur in Handbüchern, Lexika oder sonstigen übergreifenden Darstellungen, sondern auch in jeder Veröffentlichung empirischer Befunde; und

5.2.2 Textzusammenstellung (für theoretische Arbeiten)

135

häufig finden wir hier eindeutige interpretatorische Tendenzen, die die jeweiligen Verfasserinnen und Verfasser aufgrund der eigenen Sichtweisen und Forschungsinteressen entsprechend zusammengestellt und dargelegt haben. Solche Forschungsüberblicke in primären Texten erfordern deshalb dieselbe Lesehaltung wie sekundäre Texte, insofern hier zwischen primären Textanteilen (Darstellung und Auswertung eigener empirischer Forschung) einerseits und sekundären Teilen (der Interpretation anderer primärer Texte durch die jeweiligen Verfasserinnen und Verfasser) andererseits unterschieden werden muss (s. Kapitel 6.3). Theoretische Arbeiten

Zu unterscheiden von primären und sekundären Texten sind solche, die sich eher beiläufig und z.T. auch nicht systematisch auf empirische Forschung beziehen, sondern die den Anspruch erheben, theoretische Fragestellungen und Zusammenhänge zu erkunden und zu entwickeln, indem sie beispielsweise Diskurse bündeln, kritisch hinterfragen und neu perspektivieren. Theoretische Arbeiten in der Fremdsprachenforschung basieren zudem ihrerseits meist auch auf theoretischen Schriften aus anderen Fachbereichen. So wurde z. B. bei der Arbeiten von Hallet (2002) und Hu (2003) auf kulturwissenschaftliche Schriften (z. B. Bhabha 1994), in der Arbeit von Schmenk (2002) auf Titel aus dem Bereich der Gender Studies zurück gegriffen (z. B. Butler 2000), für die Arbeiten von Küster (2003), Breidbach (2007) und Schmenk (2008) wurden bildungstheoretische Schriften herangezogen (z. B. Humboldt 1995; Meyer-Drawe 1990). 2 Auswahl und Zusammenstellung von Texten

Theoretische Arbeiten erfordern eine breite Rezeption von primären und sekundären Texten sowie eingehende Lektüren theoretischer Arbeiten, um sowohl den Gegenstandsbereich zugleich möglichst weiträumig und intensiv zu „erlesen“, als auch um den Blickwinkel auf bestimmte Themen und Fragestellungen zu erweitern und theoretisch zu fundieren. Theoretische Forschungsprojekte in der Fremdsprachenforschung nehmen i. d. R. ihren Anfang in Studien zu einem bestimmten Gegenstandsbereich in der Erforschung des Lehrens und Lernens von Sprachen. Bei dem Thema „Didaktik des bilingualen Unterrichts“ (Breidbach 2007) sind das entsprechend Studien aus dem Bereich CLIL oder dem bilingualen Lernen und Lehren, bei gender (Schmenk 2002) Studien zur Rolle und Bedeutung des Geschlechts beim Fremdsprachenlernen und -lehren, bei „pluraler Bildung“ (Küster 2003) Studien zum interkulturellen Lernen sowie zum fremdsprachlichen Literaturunterricht. Da es inzwischen eine kaum noch überblickbare Fülle wissenschaftlicher Publikationen zu allen erdenklichen Themen und Problemstellungen der Fremdsprachenforschung gibt, ist eine Vorauswahl unumgänglich und stellt eine entscheidende Weichenstellung dar. Das erste Kriterium ist hier normalerweise die Sprache bzw. Herkunft der jeweiligen Publikationen. Aus welchen Sprach- und Kulturräumen kann und will man Forschungsergebnisse für die eigene Arbeit nutzen? Hier gilt es abzuwägen zwischen der Tatsache, dass die deutschsprachige Bildungs- und Sprachenlandschaft zwar in gewisser Weise singulär ist (vor allem aufgrund der spezifischen Bildungssysteme und Institutionen), dass jedoch zahlreiche vergleichbare Forschungs- und Anwendungsbereiche in anderen europäischen Regionen wie auch außerhalb des europäischen Raums vorliegen. Dennoch kann man nicht alles lesen, was thematisch

136

5. Forschungsverfahren

in den eigenen Interessensbereich zu fallen scheint (zeitliche wie auch sprachliche Grenzen besitzt nun einmal jede/r). Ein gangbarer (wenn auch nicht gänzlich befriedigender) Weg ist es, eine möglichst umfangreiche Sammlung deutschsprachiger Publikationen zusammenzustellen und dann die englischsprachige Literatur gezielt zu sichten (s. u.). Da mittlerweile auch im deutschen Sprachraum zunehmend englischsprachige Texte rezipiert und veröffentlicht werden, scheint eine Sichtung und Sammlung von primären und sekundären Texten, die auf Englisch verfasst wurden, unumgänglich. Hinzu kommt, dass auch Forschungsarbeiten anderer Herkunft oft auf Englisch publiziert werden (z. B. aus den skandinavischen Ländern), so dass man mit den Wissenschaftssprachen Deutsch und Englisch durchaus viele verschiedene Herkunftsorte von Forschungsergebnissen berücksichtigen kann. Daneben ist nicht nur bei Arbeiten im Bereich der romanischen Sprachen eine Sichtung von Publikationen in französischer und/oder spanischer Sprache sinnvoll. In der Sprachenwahl der Texte liegt einerseits immer ein limitierendes Moment, das man letztlich nicht aufheben kann, zum anderen ermöglicht sie u. U. ein größere Differenziertheit und Breite der Diskussion. Eine zweite Entscheidung betrifft dann die Auswahl derjenigen Arbeiten, die man für das eigene Forschungsprojekt tatsächlich berücksichtigen möchte. Aufgrund der oben erwähnten Publikationsmenge in vielen Bereichen der Fremdsprachenforschung gilt es hier, mindestens drei Kriterien systematisch zu berücksichtigen. Qualitative Merkmale der Auswahl: Variation von Forschungsdesigns und -ergebnissen

Um einen spezifischen Forschungsdiskurs überblicken und erfassen zu können, also die Voraussetzungen für die Abfassung einer theoretischen Arbeit zu schaffen, sollten bei der Textzusammenstellung möglichst verschiedenartige primäre Texte ausgewählt werden. Das gilt sowohl für die Forschungsmethodologie und das Design der Studien (qualitative wie auch quantitative Designs, Daten von unterschiedlichen Populationen und ggf. aus unterschiedlichen Lern- und Lehrkontexten und Regionen) als auch für die Ergebnisse (um die Bandbreite der Forschungsresultate zu erfassen). Bei Schmenk (2002) wurden Studien aus dem englisch- und deutschsprachigen Raum berücksichtigt, die sich mit dem Geschlecht von Fremdsprachenlernenden und -lehrenden beschäftigen. Hier war zu beobachten, dass bereits diese erste Sichtung zeigte, dass verbreitete und in sekundären Texten übereinstimmend attestierte „Wahrheiten“ über das Geschlecht nicht haltbar sind. Die Fülle der unterschiedlichen und bisweilen inkonsistenten Resultate empirischer Forschungsarbeiten zum Geschlecht wird in sekundären Texten zugunsten konsistenter Aussagen etwa über das bessere Lernergeschlecht nicht kenntlich gemacht bzw. nicht erwähnt. Quantitative Entscheidungen zur Textzusammenstellung: Wie viele Texte sind nötig, wie viele hinreichend?

Hat man nach dem ersten Kriterium eine Liste von Texten zusammengestellt, gilt es nach dem zweiten Kriterium zu entscheiden, mit wie vielen Texten man sich für das jeweilige Arbeitsvorhaben tatsächlich genauer beschäftigen sollte bzw. kann. Für den bzw. die Forschende ist es schon nach einer ersten Sichtung nach Kriterium 1 der qualitativen Variation möglich, Tendenzen der Forschung zu erkennen und einen Überblick über die Forschungslage zu geben. Damit lässt sich ein spezifischer Forschungsdiskurs zumindest oberflächlich beschreiben

5.2.2 Textzusammenstellung (für theoretische Arbeiten)

137

(im Falle von Schmenk [2002] ist das z. B. der Überblick über die Forschungsergebnisse von Untersuchungen des Lernerfolgs der Geschlechter: Sind weibliche oder männliche Lernende „besser“ oder erfolgreicher?). Um einen Forschungsdiskurs genauer zu durchdringen, bedarf es jedoch einer weit intensiveren Beschäftigung mit einzelnen primären (auch sekundären) Texten. Hier geht es nun um das Kriterium der Quantität: Wie viele Arbeiten kann man tatsächlich im Detail untersuchen? Diese Frage lässt sich letztlich nur im Einzelfall beantworten, jedoch ist zumindest zu bedenken, dass man für bestimmte Argumentationsmuster jeweils verschiedene Texte untersuchen muss, damit man Gemeinsamkeiten und Unterschiede sowie die Muster selbst exakter bestimmen kann, die in Forschungsarbeiten erkennbar sind. Schmenk (2002) unterscheidet verschiedene Faktoren, die im Zusammenhang mit dem Lernergeschlecht untersucht und mit diesem korreliert worden sind, wie etwa Motivation und Lernstile. Für jeden dieser Faktoren wurden verschiedene Einzelstudien herangezogen, um anhand von deren Ergebnissen sowie den Argumentationen ihrer VerfasserInnen nachzuzeichnen, welche Rolle bzw. welcher Effekt jeweils dem Geschlecht der Lernenden attestiert wird und inwiefern es mit den jeweils untersuchten Faktoren korreliert bzw. in welchen argumentativen Zusammenhang die VerfasserInnen das Geschlecht stellen, wenn sie davon ausgehen, dass es mit anderen Faktoren korreliert. Da es in diesem Fall eine deutliche Tendenz gab, Argumentationen nach demselben Muster aufzubauen, wurden nur wenige Arbeiten knapp skizziert. Generell ist eine Beschränkung auf wenige Texte bei eingehenderen Untersuchungen von Texten dann möglich, wenn sich eine Tendenz zu gleichförmigen Argumentationsfiguren abzeichnet. Im Fall von gender war das die Neigung, bestimmte Einflussfaktoren als binär zu konzipieren (z. B. holistische vs. analytische kognitive Stile oder integrative vs. instrumentelle Motivation) und diese dann unmittelbar mit einem Geschlecht zu assoziieren (männlich-weiblich), was zu einerseits stark polarisierten geschlechtsspezifischen Lerner- und Lernbildern führt, sich andererseits jedoch in Bezug auf die zugrunde liegende Lerntheorie als problematisch erweist (da z. B. Motivation eher als Kontinuum zu verstehen ist und zudem nicht als statisches Merkmal von Lernenden angesehen werden kann; vgl. Schmenk 2002: 48 – 61). Qualitative Entscheidungen zur Textzusammenstellung: Welche Texte warum?

Das letztlich entscheidende Kriterium zur Textauswahl ist bedingt durch den ausgewählten theoretischen Rahmen der Arbeit. Da Fremdsprachenforschende in der Regel nicht bereits über umfangreiche Kenntnisse etwa philosophischer Debatten verfügen, ist neben der Lektüre und Arbeit mit primären und sekundären Texten auch eine vertiefte Lektüre theoretischer Arbeiten notwendig. Selbst wenn man von Beginn an eine theoretische Frage- oder Problemstellung im Kopf hat, die man gern im Rahmen der Fremdsprachenforschung genauer verfolgen oder anwenden möchte, wird man im Laufe der Lektüre von primären und sekundären Texten meist feststellen, dass weitere Aspekte zu bedenken, die theoretischen Hintergründe zu differenzieren und ggf. auch zu modifizieren sind. Diese theoretischen Überlegungen sind schließlich ausschlaggebend sowohl für die Untersuchung von primären und sekundären Texten als auch für weitere Überlegungen, Vorschläge und Kritik im Rahmen des spezifischen Forschungsdiskurses der Fremdsprachenforschung. Theoretische Arbeiten weisen deshalb immer auch den Charakter von Diskursanalysen auf, wenn es um die möglichst präzise Er-

138

5. Forschungsverfahren

fassung eines spezifischen Forschungsgegenstands geht. Dies stellt die Voraussetzung dar für das Entwickeln eigener Theorien und Modelle wie auch für andere theoretische Studien zu Aspekten des Fremdsprachenlehrens und -lernens. So entwickelt Breidbach (2007) anhand seiner differenzierten Untersuchung von Überlegungen zur Begründung und Praxis des bilingualen Unterrichts sowie von Bildungsdiskursen unter postmodernen Bedingungen eine reflexive Didaktik für den bilingualen Sachfachunterricht, die sowohl fachwissenschaftliche als auch allgemeinpädagogische und bildungstheoretische Dimensionen berücksichtigt. Schmenk (2002) verhilft die Orientierung an den Gender Studies u. a. zu einer Klassifikation von Geschlechtsbegriffen in der Fremdsprachenforschung (sex versus gender, gender als Substantiv vs. gender als Verb), die für die Auswahl von primären Texten zur eingehenden Analyse herangezogen wird (vgl. Referenzarbeit Schmenk 2002). Die größte Herausforderung besteht für VerfasserInnen von theoretischen Arbeiten sicherlich darin, sich Einblick in solche Theorien zu verschaffen, die nicht aus der Fremdsprachenforschung stammen. Um in der Lage zu sein, Kerntexte zu identifizieren, zentrale Diskussionspunkte zu kennen und sich selbst auch kritisch damit auseinander setzen zu können, ist häufig ein Selbststudium in entsprechenden Fachbereichen und deren Theoriebildung unvermeidlich, ebenso wie sehr viel Lesen und Wiederlesen sowie Kommunizieren mit FachvertreterInnen. Im Laufe der Lektüre kommt man dann an den Punkt, an dem man Kerntitel kennt und wiedererkennt, weil auf diese immer wieder in verschiedenen Arbeiten verwiesen wird. (Für die Heuristik und Korpuserstellung vgl. außerdem die Hinweise in Kapitel 5.1.2). 3 Ressourcen und Datenbanken

Deutschsprachige Publikationen der Fremdsprachenforschung sind inzwischen in verschiedenen Apparaten erfasst und deshalb vergleichsweise gut zugänglich (vgl. 5.2.1). Für den Bereich der englischsprachigen Forschungslandschaft ist die Suche von Texten aufgrund der hohen Anzahl von Publikationen sowie der unterschiedlichen Orte und Kontinente der Publikationen schwieriger. Die folgenden Datenbanken können dabei sehr hilfreich sein (vgl. auch Angaben zu Datenbanken Kap. 5.2.1):

• Linguistics and Language Behavior Abstracts (LLBA), abrufbar über viele Bibliotheksserver. Datenbasis mit verschiedenen Suchfunktionen für Zeitschriften. Die Einträge erfassen zahlreiche englischsprachige Publikationen aus den Bereichen Sprache und Linguistik. • RIC (Educational Resources Information Center), kostenloser Zugriff über http://eric. ed.gov/. Datenbasis mit zahlreichen Suchfunktionen für Zeitschriften und andere Pulikationen (Sammelbände, Monographien etc.) mit den Themenschwerpunkten Erziehung und Bildung. • MLA International Bibliography, abrufbar über viele Bibliotheksserver. Datenbasis mit zahlreichen Suchfunktionen für Zeitschriften. Die Einträge erfassen zahlreiche englischsprachige Publikationen aus den Bereichen Literatur, Film, Linguistik, angewandte Linguistik und Didaktik. • IFS (Informationszentrum Fremdsprachenforschung), kostenloser Zugriff über http://www. uni-marburg.de/ifs.

5.2.2 Textzusammenstellung (für theoretische Arbeiten)

139

5.2.2 Textzusammenstellung für theoretische Arbeiten

Forschungslandschaft wissenschaftliche Publikationen (Texte), Dokumente, Videos, Lehrmaterialien etc. theoretisches Erkenntnisinteresse Erfassen und Durchdringen eines Themas bzw. einer Fragestellung der Fremdsprachendidaktik Interdisziplinarität erweiterte Perspektiven durch Ansätze aus Bezugswissenschaften (z.B. Philosophie, Pädagogik, Kulturwissenschaften, Psychologie) bibliographische Recherche primäre (empirische) Texte sekundäre (zusammenfassende) Texte theoretische Texte

LLBA, RIC, MLA, IFS etc.

Begrenzungskriterien theoretischer Rahmen, Sprach(en), Gegenstandsbereich, Vielfalt der dargestellten Methoden und Ergebnisse Auswahlentscheidung inhaltliche Tendenzen erkennbare Argumentationsmuster

Textzusammenstellung © 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

140

5. Forschungsverfahren

Neben diesen Datenbasen gibt es auch die Möglichkeit, Bibliographien über folgende Ressourcen zusammenzustellen:

• USA: Library of Congress (http://www.loc.gov), ca. 14 Millionen Einträge, nicht nur in englischer Sprache

• Kanada: Canadian National Catalogue (Amicus) (http://amicus.collectionscanada.ca/aaweb/aalogine.htm) • Australien: National Library of Australia, (http://catalogue.nla.gov.au/) • Großbritannien: British Library Public Catalogue (http://catalogue.bl.uk/primo_library/ libweb/action/search.do?dscnt=1&dstmp=1 394 914 136 152&vid=BLVU1&fromLogin=​ true) ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen versehen. Burwitz-Melzer, Eva/Mehlhorn, Grit/Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.) (2016). Handbuch Fremdsprachenunterricht, 6. Auflage. Tübingen: Francke. Bierhoff, Hans-Werner/Petermann, Franz (2014). Forschungsmethoden der Psychologie. Göttingen: Hogrefe. Bhabha, Homi (1994). The Location of Culture. New York: Routledge. *Breidbach, Stephan (2007). Bildung, Kultur, Wissenschaft. Reflexive Didaktik für den bilingualen Sachfachunterricht. Münster: Waxmann. Butler, Judith (2000). Gender Trouble. Feminism and the Subversion of Identity. 3. Aufl. 2007. New York: Routledge. Ellis, Rod (2008). The Study of Second Language Acquisition. Oxford: Oxford University Press. Grotjahn, Rüdiger (1999). Thesen zur empirischen Forschungsmethodologie. In: Zeitschrift für Fremdsprachenforschung 10 [H. 1], 133 – 158. *Hallet, Wolfgang (2002). Fremdsprachenunterricht als Spiel der Texte und Kulturen. Intertextualität als Paradigma einer kulturwissenschaftlichen Didaktik. Trier: WVT. *Hu, Adelheid (2003). Schulischer Fremdsprachenunterrichts und migrationsbedingte Mehrsprachigkeit. Tübingen: Narr. Humboldt, Wilhelm von (1995). Schriften zur Sprache. Hrsg. V. Michael Böhler. Stuttgart: Reclam. *Küster, Lutz (2003). Plurale Bildung im Fremdsprachenunterricht. Interkulturelle und ästhetische Aspekte von Bildung an Beispielen romanistischer Fachdidaktik. Frankfurt/M.: Lang. Meyer-Drawe, Käte (1990). Illusionen von Autonomie. Diesseits von Ohmacht und Allmacht des Ich. München: Kirchheim. *Schmenk, Barbara (2002). Geschlechtsspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. Tübingen: Stauffenburg. [Referenzarbeit, s. Kapitel 7] *Schmenk, Barbara (2008). Lernerautonomie. Karriere und Sloganisierung des Autonomiebegriffs. Tübingen: Narr. Surkamp, Carola (2010). Metzler Lexikon Fremdsprachendidaktik. Stuttgart: Metzler.

5.2.3 Beobachtung

141

»»  Zur Vertiefung empfohlen Gee, James Paul/Handford, Michael (Hg.) (2012). The Routledge Handbook of Discourse Analysis. London: Routledge. In diesem Band werden Formen und Aufgaben von Diskursanalysen dargestellt. Zahlreiche Beispiele und verschiedene Formen von Diskursanalysen werden detailliert erläutert. Für theoretische Arbeiten bietet der Band eine Reihe von methodischen Ideen zum Umgang mit Texten mit dem Zweck, Diskurse zu analysieren. Jorgensen, Marianne & Phillips. Louise J. (2002). Discourse Analysis as Theory and Method. London: Sage. In diesem Band geben die Verfasserinnen einen Überblick über Theorien und Methoden von Diskursanalysen, die sich hauptsächlich auf neuere poststrukturalistische Theorien stützen. Wer eine theoretische Arbeit verfassen will, die sich zur Aufgabe macht, Forschungsdiskurse in ihrer Entstehung zu begreifen sowie Tendenzen in bestimmten Diskursen darzustellen, findet in diesem Band wertvolle Tipps und Hintergründe für den Umgang mit Texten.

5.2.3 Beobachtung Karen Schramm/Götz Schwab 1 Begriffsklärung

Im Gegensatz zu Befragungen (s. Kapitel 5.2.4), welche insbesondere zur Erforschung innerer Aspekte wie Einstellungen, Meinungen und Gefühle geeignet sind, richten sich Beobachtungen auf äußerlich wahrnehmbares Verhalten. Beobachtet werden können beispielsweise die fremdsprachliche Interaktion oder Produktion mit ihren verbalen Handlungen, also den sprachlichen Äußerungen, mit ihren nonverbalen Handlungen wie beispielsweise Zeigen, Nicken usw. und mit ihren begleitenden aktionalen Handlungen wie beispielsweise dem Umgang mit Gegenständen. Nicht direkt beobachtbar sind dagegen diesen Prozessen zugrundeliegende Kognitionen und Emotionen sowie auch die fremdsprachliche Rezeption. Da Ansichten, wie sie in Befragungen kundgetan werden, und tatsächliches Verhalten, wie es beobachtet werden kann, in einigen Fällen divergieren, ist in einigen Untersuchungen die Kombination von Befragungen und Beobachtungen von besonderem Interesse. Im Forschungsprogramm Subjektive Theorien (s. Kapitel 4.2) ist beispielsweise nach einer kommunikativen Validierung von Interviewdaten auch eine zweite Phase der explanativen Validierung durch Beobachtung der handelnden Subjekte vorgesehen (Scheele/Groeben 1998: 24 – 29). Beobachtungen basieren zu einem gewissen Anteil immer auch auf dem Vorwissen der Beobachtenden. Im Gegensatz zu anderen Erhebungsmethoden ist für die Beobachtung charakteristisch, dass sich dabei Erhebungs- und Interpretationsprozesse stark mischen, denn Beobachtung ist per se durch Selektion, Abstraktion und Klassifikation charakterisiert. Wichtig erscheint es deshalb, die verschiedenen Herangehensweisen an Beobachtungen aus einer emischen von solchen aus einer etischen Forschungsperspektive zu unterscheiden (s. Kapitel 2; Watson-Gegeo 1988: 579 – 582, Markee/Kasper 2004: 493 – 495).

142

5. Forschungsverfahren

Dient die Beobachtung einer Rekonstruktion der Innenperspektive der Akteur_innen, also einer emischen Zielsetzung, dann sind die Vertrautheit mit den beobachteten Forschungspartner_innen sowie ein umfassendes Kontextwissen zentral für die Datenerhebung. Aus der emischen Perspektive, die insbesondere für die Ethnographie konstitutiv ist (s. dazu genauer Abschnitt 3), geht es beim Beobachten um ein Fremdverstehen, um ein Sich-Hineinversetzen in die Kultur der Forschungspartner_innen. So laufen Forscher_innen aufgrund der Bedeutung des Vorwissens für die Informationsaufnahme Gefahr ethnozentrischer bzw. „zu weit gehende[r] Interpretationen […], wenn der Beobachter dem Beobachteten sein eigenes Sinnverständnis unterlegt“ (Lamnek 2010: 501) – genau dies gilt es jedoch aus emischer Perspektive zu vermeiden. Eine etisch motivierte Beobachtung ist dagegen nicht am Fremdverstehen interessiert, sondern setzt ein bestimmtes theoretisches Verständnis des zu beobachtenden Untersuchungsgegenstands bereits voraus und wendet es konsequent auf ihn an. Zur Qualitätssicherung legen Beobachtungsstudien aus etischer Perspektive deshalb in der Regel Wert darauf, mithilfe von Beobachtungsleitfäden, von Beobachtungstraining mit entsprechendem Feedback und von Reliabilitätsüberprüfungen einen hohen Grad an intersubjektiver Übereinstimmung zu erreichen bzw. zu dokumentieren. Somit läuft diese Herangehensweise an Beobachtungen wiederum Gefahr, andere Sinnstrukturen als die theoretisch bereits modellierten nicht zu erfassen – und insbesondere andere Sinnstrukturen als die der Beobachteten anzuwenden, sodass die Forschungsergebnisse aus deren Sicht nicht valide sein könnten. Unter dem Begriff Beobachtung werden insgesamt so unterschiedliche Formen der Datenerhebung wie die teilnehmende Beobachtung ethnographischer Feldforscher_innen (Abschnitt 3), die Unterrichtsbeobachtung auf der Grundlage von Beobachtungsbögen (Abschnitt 4) und die Audio- und Videographie von Unterrichts- oder Lernprozessen (Abschnitt 5) zusammengefasst. Bevor diese im Folgenden einzeln vorgestellt werden, sollen in Abschnitt 2 einige übergreifende Aspekte zur Unterscheidung verschiedener Arten von Beobachtung thematisiert werden. 2 Arten der Beobachtung

Man unterscheidet zunächst zwischen der ungesteuerten (auch: unstrukturierten, unsystematischen) Beobachtung und der gesteuerten (auch: strukturierten, systematischen Beobachtung auf der Grundlage von im Vorfeld festgelegten Beobachtungsschwerpunkten (s. Lamnek 2010: 509 – 510, Ricart Brede 2014: 138 – 139), wobei es sich nicht um eine Dichotomie, sondern vielmehr um eine graduelle Unterscheidung handelt. Die strukturierte Beobachtung basiert nach Lamnek (2010: 509) auf „einem relativ differenzierten System vorab festgelegter Kategorien“, die unstrukturierte Beobachtung dagegen auf „mehr oder weniger allgemeine[n] Richtlinien, d. h. bestenfalls grobe[n] Hauptkategorien als Rahmen der Beobachtung“ (ebd.). Bezogen auf Fremdsprachenunterricht können beide Formen mit oder ohne Vorbereitung auf die jeweilige Unterrichtsstunde (z. B. Rezeption der lehrerseitigen Unterrichtsplanung oder gemeinsame Planung der Stunde seitens Lehrperson und Forschenden) erfolgen (Ziebell/ Schmidjell 2012: 37 – 40). Eine weitere terminologische Unterscheidung ist die zwischen teilnehmender und nichtteilnehmender Beobachtung:

5.2.3 Beobachtung

143

Der Unterschied zwischen teilnehmender und nicht-teilnehmender Beobachtung besteht darin, dass bei der teilnehmenden Beobachtung der Beobachter selbst Element des zu beobachtenden sozialen Feldes wird, wohingegen bei der nicht teilnehmenden Beobachtung der Beobachter gleichsam von außen her das ihn interessierende Verhalten beobachtet. (Lamnek 2010: 511)

Die nicht-teilnehmende Beobachtung in der Referenzarbeit von Schwab (2009) fand beispielsweise durch eine Kamera im vorderen Teil des Klassenzimmers in der Nähe des Fensters statt. In der Forschungsliteratur werden in der Regel vier verschiedene Ausprägungen auf einem Kontinuum des Partizipationsgrads von complete participant über participant-as-observer, observer-as-participant und complete observer unterschieden (vgl. Tab. 1), die im Folgenden in enger Anlehnung an Johnson/Christensen (2012: 209) erläutert werden. complete participant

Der/ die Forscher_in wird Mitglied der untersuchten Gruppe und teilt den Gruppenmitgliedern nicht mit, dass sie untersucht werden.

participant-as-observer

Der/die Forscher_in verbringt als Insider_in ausgedehnte Zeit mit der Gruppe und teilt den Gruppenmitgliedern mit, dass sie untersucht werden.

observer-as-participant

Der/die Forscher_in verbringt begrenzte Zeit mit der Beoachtung von Gruppenmitgliedern und teilt ihnen mit, dass sie untersucht werden.

complete observer

Der/die Forscher_in beobachtet die Gruppenmitglieder als Außenseiter_in und teilt den Beobachteten dies nicht mit.

Tabelle 1: Rollen bei der Feldforschung (zusammengestellt und übersetzt aus Johnson/Christensen 2012: 209)

Die Rolle als complete participant läuft auf eine verdeckte Beobachtung hinaus und erscheint deshalb aus forschungsethischen Gründen nicht akzeptabel, da datenschutzrechtliche Aspekte grundsätzlich eine offene Beobachtung erforderlich machen (zu Fragen der Offenlegung des Untersuchungsinteresses und zu Fällen von Täuschung über das Untersuchungsinteresse, s. Kapitel 4.6). Eine Beobachterrolle als participant-as-observer nimmt dagegen in Kauf, dass die Gruppenmitglieder von der Beobachtung wissen und sich deshalb unter Umständen weniger natürlich verhalten, vertraut aber darauf, dass sich mit zunehmender Gewöhnung an den oder die Beobachter_in und mit wachsendem Vertrauen die Natürlichkeit ihres Verhaltens wieder einstellt. Ein observer-as-participant dagegen verbringt deutlich weniger Zeit mit den Gruppenmitgliedern und ist deshalb in geringerem Maße durch Identifikation und in stärkerem Maße durch Distanz charakterisiert. Schließlich wird ein complete observer die Gruppe vollkommen von außen und in verdeckter Weise beobachten, um das Beobachterparadoxon bzw. die Reaktivität der Erhebungsmethode zu umgehen – aufgrund datenschutzrechtlicher Vorgaben handelt es sich um einen abstrahierten Pol des Kontinuums, der in dieser Form praktisch nicht vorkommen sollte. Weiterhin wird mit dem Begriffspaar online/offline unterschieden, ob die Beobachtung im Moment des Geschehens selbst erfolgt (online) oder auf Basis von Audio- und Videoaufzeichnungen im Anschluss an das Geschehen (offline), wobei in letzterem Fall ein iteratives

144

5. Forschungsverfahren

Beobachten möglich ist. Oftmals werden aber auch beide Verfahren miteinander verbunden, indem z. B. bei Filmaufnahmen nebenher Notizen erstellt werden (z. B. Schwab 2009). Typischerweise sind Beobachtungen im authentischen Feld angesiedelt. Seltener, weil auch deutlich kostenaufwändiger ist die Unterrichtsbeobachtung in einer Laborsituation: Hier stehen technisch entsprechend ausgerüstete Laborklassenzimmer zur Verfügung, in der zahlreiche Kameras aus unterschiedlichen Perspektiven den Unterricht dokumentieren, beispielsweise können in der Decke installierte Kameras von oben die Schreibprozesse der Schüler_innen dokumentieren. Für die Beobachtung von einzelnen Personen, beispielsweise Lernenden im Lernprozess oder Lehrpersonen bei der Unterrichtsplanung, ist dagegen der Verzicht auf Feldbedingungen einfacher zu realisieren, so dass in diesen Fällen zwischen den Vorteilen der Natürlichkeit des Feldes und Ungestörtheit des Labors abzuwägen ist. Schließlich werden auch die Fremd- und die Selbstbeobachtung unterschieden, wobei die Fremdbeobachtung im Folgenden im Zentrum des Kapitels steht, während die Selbstbeobachtung vor allem mit der Aktionsforschung (s. Kapitel 4.2) verbunden ist und der Introspektion nahesteht (s. Kapitel 5.2.5). 3 Teilnehmende Beobachtung in der Ethnographie

Die teilnehmende Beobachtung ist zentrales Erhebungsverfahren der Ethnographie, welche sich jedoch auch anderer im Feld zugänglicher Daten wie beispielsweise Dokumente, alltagskultureller Materialien, Gespräche, Interviews, Gruppendiskussionen, Audio-/Videoaufnahmen oder Fotos bedient (s. van Lier 1990, Atkinson/Hammersley 1994, Friebertshäuser/ Panagiotopoulou 2013: 309 – 312). Mittels einer länger andauernden Teilnahme, für die Dörnyei (2007: 131) einen Zeitraum von mindestens sechs bis zwölf Monaten angibt, suchen Ethnograph_innen die Lebenswelt bzw. die Innenperspektive einer (sozio-) kulturellen Gruppe zu erforschen: Im Zentrum der ethnographischen Neugierde steht […] die Frage, wie die jeweiligen Wirklichkeiten praktisch ‚erzeugt‘ werden; es geht ihr also um die situativ eingesetzten Mittel zur Konstitution sozialer Phänomene aus der teilnehmenden Perspektive. Ein derartiges Erkenntnisinteresse ist nicht identisch mit dem alltäglichen Blick der Teilnehmer. Während diese üblicherweise daran interessiert sind, ihre handlungspraktischen Probleme zu lösen, konzentriert sich der ethnographische Blick auf jene Aspekte der Wirklichkeit, die diese gleichsam als selbstverständlich voraussetzen, nämlich die Praktiken zu ihrer ‚Erzeugung‘, und fragt, wie es die Teilnehmer schaffen, sich selbst und anderen gegenüber soziale Fakten zu schaffen. (Lüders 2013: 390)

Bei der teilnehmenden Beobachtung nehmen Ethnograph_innen am Alltag der Forschungspartner_innen teil, indem sie im Feld eine dort akzeptierte Rolle übernehmen, und sie wachsen auf diese Weise gewissermaßen in die ‚fremde‘ Gruppe hinein. Dabei ergibt sich ein für die teilnehmende Beobachtung charakteristisches Spannungsfeld von (für das Verstehen notwendiger) Identifikation auf der einen Seite und (für das Berichten notwendiger) Distanz auf der anderen Seite (s. einführend Lamnek 2010: 574 – 581). Mit Blick auf die ethnographische Erforschung der vermeintlich vertrauten Schulwirklichkeit betont Breidenstein (2012:40; Hervorhebung im Original), dass sie „so zu beobachten [ist], als sei sie fremd, um neu nach grundlegenden Merkmalen und Funktionsweisen dieser Praxis fragen zu können“ und auch die „Skurrilität und Absonderlichkeit solcher Praktiken“ (ebd.) in den Blick zu bekommen.

5.2.3 Beobachtung

145

Essentiell ist für die teilnehmende Beobachtung in der Ethnographie das Anfertigen von stichwortartigen Feldnotizen und von darauf aufbauenden Beobachtungsberichten, in denen die Feldforscher_innen ihre Eindrücke „nachträglich sinnhaft verdichten, in Zusammenhänge einordnen und textförmig in nachvollziehbare Protokolle gießen“ (Lüders 2013: 396). Zu beachten ist, dass sich in solchen Beobachtungsprotokollen Beschreibungen und Interpretationen mischen (Friebertshäuser/Panagiotopoulou 2013: 313) und dass die vertiefte Reflexion durch die Verschriftlichung der Beobachtungen auch auf die Feldkontakte zurückwirkt (Legewie 1995: 192). Ein Forschungstagebuch dient vielen Ethnograph_innen darüber hinaus für die Dokumentation und Selbstreflexion. Die sprachdidaktisch motivierte Studie von Heath (1983) stellt ein frühes und prototypisches Beispiel einer solchen ethnographischen Vorgehensweise dar.2 Auf der Grundlage einer langjährigen teilnehmenden Beobachtung am Alltagsleben von zwei Arbeitergemeinden in den Südstaaten der USA, die sie als Trackton and Roadville bezeichnet, charakterisiert die Forscherin die oralen und literalen Sprachpraktiken der jeweiligen Bewohner_innen. Feldnotizen, Forschertagebuch und Audioaufnahmen dienen ihr beispielsweise dazu, die kulturell divergierenden Vorstellungen von einer gelungenen mündlichen Erzählung in beiden Gemeinden herauszuarbeiten. Mit mehreren solchen aufschlussreichen Detailanalysen zeichnet sie ein umfassendes Bild der kulturell bedingten Unterschiede in den sprachlichen Praktiken beider Gemeinden. Auf dieser Grundlage untersucht sie, auf welche Herausforderungen Kinder aus beiden Arbeitergemeinden mit ihren unterschiedlichen sprachlichen Repertoires stoßen, wenn sie die Schule mit ihren mittelstandsorientierten bildungssprachlichen Anforderungen besuchen. Ihren Ansatz, die Lehrpersonen für einen solchen ethnographischen Blick zu sensibilisieren, charakterisiert Heath folgendermaßen: In Part I of the book, the reader moves with me, the ethnographer, as unobtrusively as possible in the worlds of Trackton and Roadville children. In Part II of the book, my role as ethnographer is intrusive, as I work with teachers to enable them to become participant observers in their own domains and to use the knowledge from the ethnographies of Trackton and Roadville to inform their motivations, practices, and programs of teaching. (Heath 1983: 13)

Als aktuelles Beispiel für eine zweitsprachendidaktisch motivierte ethnographische Beobachtung lässt sich die Dissertation von Waggershauser (2015) zu literalen Praktiken von russischsprachigen Zweitschriftlernenden anführen. Die Forscherin begleitet fünf Teilnehmende für die Dauer ihres Integrationskurses mit Alphabetisierung in ihrem Alltag außerhalb des Kurses und erstellt ein umfangreiches Korpus von literalen Artefakten wie beispielsweise Gesprächsstützen, Kochrezepten oder Wegskizzen. Auf diese Weise kann sie Einblicke in den sozialen Umgang mit Schrift der Kursteilnehmenden erarbeiten, die wertvolle Grundlagen für eine funktional ausgerichtete Schreibdidaktik in Alphabetisierungskursen bieten.

2 Für einen Überblick über deutschsprachige Ethnographie in der Erziehungswissenschaft, s. Friebertshäuser/Panagiotopoulou (2013: 304).

146

5. Forschungsverfahren

4 Einsatz von Beobachtungsbögen

Der Einsatz von Beobachtungsbögen zur Erforschung von Fremdsprachenunterricht hat eine lange Tradition. Ein frühes Kategoriensystem zur Beobachtung von Unterricht (im allgemeinen) ist das FIAC3 von Flanders, der bereits 1960 das Potential einer systematischen Beobachtung der Beiträge von Lehrenden und Lernenden bzw. ihrer Redeanteilen für die Lehrerbildung erkannte; eine fremdsprachenspezifische Adaption erfolgte durch Moskovitz (1971) mit dem FLINT4-Beobachtungssystem. Auch das COLT5 von Fröhlich/Spada/Allen (1985) zur Beobachtung kommunikativen Fremdsprachenunterrichts ist als frühes und besonders verbreitetes Instrument aus der Vielzahl von Beobachtungsinstrumenten hervorzuheben. Bei explorativ-interpretativen Arbeiten und in der Aus- und Weiterbildung von Lehrpersonen6 mittels Hospitationen ist der Einsatz offener Beobachtungsbögen verbreitet. Diesen Fall illustriert das Beispiel in Abbildung 1: Die Fragen auf dem Beobachtungsbogen zum freien Sprechen fordern dazu auf, eine große Bandbreite an Phänomenen zu beobachten. Sie erfordern an vielen Stellen hohe Interpretationsleistungen und sie sehen offene Antworten vor. Hinführung/Einstieg

• Wie geschieht die Hinführung zum Thema? • Wie wird die Sprachhandlungssituation, in der frei gesprochen werden soll, eingeführt? Inhaltliche und sprachliche Vorbereitung

• Wie werden die TN inhaltlich und sprachlich auf das freie Sprechen vorbereitet? • Wie erarbeitet die KL inhaltliche und sprachliche Hilfen für das freie Sprechen? Arbeitsform

• Welche Arbeitsformen werden eingesetzt, in denen freies Sprechen möglich wird (z. B. Simulation, Rollenspiele, Diskussionen usw.?) Korrekturverhalten

• Lässt die KL die TN frei sprechen, ohne sie zu unterbrechen und zu korrigieren? • Wann und wie wird korrigiert? Erweiterung der Sprechfertigkeit

• Entwickeln die TN spürbar die Bereitschaft und Fähigkeit, das neu Gelernte in der simulierten Sprachhandlungssitatuion angemessen einzusetzen?

• Woran ist dies zu beobachten? • Verwenden die TN die neu erworbene Lexik und die neuen Stukturen im freien Sprechen? 3 4 5 6

Das Akronym FIAC steht für Flanders System of Interaction Categories. Das Akronym FLINT steht für Foreign Language Interaction. Das Akronym COLT steht für Communicative Orientation of Language Teaching. Nicht als Forschungsmethode, sondern als Untersuchungsgegenstand und als Impuls für entsprechende Gruppendiskussionen wählt Hochstetter (2011) Beobachtungsbögen. In ihrem mehrstufigen Projekt hat sie Videoaufzeichnungen des Einsatzes neu entwickelter Bewertungsbögen zur Sprechleistung den beteiligten Lehrkräften zur nachträglichen vergleichenden Bewertung gezeigt.

5.2.3 Beobachtung

147

Lernziel(e)

• Welches Lernziel/Welche Lernziele werden im Rahmen dieser Unterrichtseinheit mit Blick auf das freie Sprechen erreicht?

• Woran ist das zu beobachten? Sprachlernstrategien

• Gibt es Anregungen, Aufgaben, Unterstützung für autonomes Weiterlernen und die Anwendung außerhalb des Unterrichts?

• Welche?

Abbildung 1: Fragen auf einem Beobachtungsbogen zum freien Sprechen (zusammengestellt aus Ziebell/ Schmidjell 2012: 58)

Quantitativ ausgerichtete Forschungsarbeiten arbeiten dagegen bei Beobachtungen – sei es auf der Grundlage von im Feld bzw. Klassenzimmer auszufüllenden Beobachtungsbögen, auf der Grundlage von Videos oder auf der Grundlage von Transkriptionen – entweder mit Kodierungen oder mit Beurteilungen: Kodierende Beobachtungsverfahren zielen darauf ab, das Auftreten und ggf. die Dauer bestimmter Ereignisse oder Verhaltensweisen zu erfassen und festzuhalten. Die erzeugten Daten geben Aufschluss über die Häufigkeit, Verteilung oder zeitlichen Anteile bestimmter Verhaltens- oder Interaktionsmerkmale. Demgegenüber geht es bei Schätzverfahren (oft auch englisch als „Ratings“ bezeichnet) um eine Einschätzung oder Beurteilung des Beobachtungsgegenstandes, indem anhand von Schätzskalen die Ausprägung bestimmter Merkmale (z. B. bestimmter Qualitätsdimensionen) eingestuft wird. (Pauli 2012: 47; vgl. einführend auch Appel/Rauin 2015).

Darüber hinaus sind bei quantitativ orientierten Beobachtungen Zeitstichproben (timesampling) und Ereignisstichproben (event-sampling) zu unterscheiden (s. auch Kapitel 4.3). Eine Kodierung nach dem Prinzip des time-sampling bedeutet, dass das Videomaterial in

Abbildung 2: Beoachtungsbogen zur Klassenzimmerorganisation (Strube 2014: 98)

148

5. Forschungsverfahren

bestimmten Intervallen, beispielsweise in Abständen von 30 Sekunden oder von 3 Minuten, kodiert wird (s. z.B. das oben genannte klassische FLINT-Beobachtungssystem von Moskovitz 1971). Die Zahl der Schülermeldungen ließe sich z. B. in solchen Intervallen erfassen. Als Ereigniskodierung werden dagegen Fälle bezeichnet, in denen Kodierer_innen bestimmte Phänomene  – zumeist auf der Grundlage abstrakter Beschreibungen solcher Phänomene und konkreter Ankerbeispiele sowie auch extensiven Kodiertrainings – erkennen und entsprechend vermerken. Das Auftreten von Gruppenarbeit wäre ein Beispiel für eine Ereigniskodierung, wobei hier die zeitliche Dauer des Ereignisses durchaus miterfasst werden kann (zur Entwicklung eines Beobachtungssystems s. Ricard Brede et al. 2010, Pauli 2012: 50 – 58). Eine weitere Unterscheidung betrifft das Inferenzniveau. Niedrig-inferente Analyse­ entscheidungen erfordern vergleichsweise wenig Schlussfolgerungen auf seiten des/der Beobachter_in. Die oben beispielhaft erwähnten Schülermeldungen und Sozialformen sind Beispiele für niedrige Inferenzniveaus. Ein hohes Inferenzniveau liegt dann vor, wenn die Analysenentscheidungen anspruchsvollere Interpretationen erfordern, wie beispielsweise bei der Bestimmung der Fehlerart oder des korrektiven Feedbacks (s. Beispiel unten in Abbildung 3). Die Abbildungen 2 und 3 aus einer Untersuchung von Strube (2014) zum Erwerb mündlicher Kompetenzen in Niederländischkursen durch Teilnehmer_innen mit wenig Schulerfahrung zeigen Beispielbögen für Ereigniskodierungen. Der Beobachtungsbogen in Abbildung 2 ist auf größere pädagogische Aspekte wie inhaltlicher Fokus, Sozialformen und Materialien bezogen. Auch wenn dieser Bogen von der Forscherin auf der Grundlage von Transkripten ausgefüllt wurde, so zeigt er doch den Fall vergleichsweise niedrig-inferenter Ereigniskodierungen, die auch zeitgleich mit dem Unterrichtsgeschehen, also direkt im Klassenzimmer erfasst werden könnten. Das zweite Beispiel in Abbildung 3 zu korrektivem Feedback illustriert dagegen den Fall einer geradezu mikroskopischen Ereigniskodierung, die vergleichsweise hoch-inferent und nur mit entsprechendem Zeitaufwand und auf der Grundlage von Transkripten durchführbar ist.

Abbildung 3: Beobachtungsbogen zu korrektivem Feedback im Klassenzimmer (Strube 2014: 104)

5.2.3 Beobachtung

149

Die beiden Beobachtungsbögen stellen nur eine Auswahl von Erhebungsinstrumenten der Dissertation von Strube (2014) dar, in der sie auf der Grundlage von Transkripten von 33 Stunden Unterricht umfassende, detailreiche Analysen der Unterrichtskommunikation vornimmt, parallel dazu lernersprachliche Entwicklungen im lexikalischen und morphosyntaktischen Bereich beschreibt und aus der Verbindung beider Analysen Hypothesen zur Lernförderlichkeit bestimmter Klassenzimmer-Charakteristika aufstellt. 5 Erhebung von Audio- und Videodaten

Die Erhebung von Audio- und Videodaten erlaubt die wiederholte Beobachtung zu beliebig vielen Zeitpunkten und bietet damit enormes Potential für Analysen von Unterricht und Lernprozessen. Aufgrund von Fragen des Feldzugangs, datenschutzrechtlicher und ethischer Aspekte müssen solche Aufnahmen langfristig und detailliert vorbereitet werden (s. dazu genauer Schramm 2014). In technischer Hinsicht sind bei der Vorbereitung audiographischer Aufnahmen insbesondere unterschiedliche Arten von Mikrofonen zu prüfen, die für Aufnahmen von Plenumsunterricht vs. Partner- und Gruppenarbeit geeignet sind; denkbar ist allerdings auch der Einsatz von einfacheren Aufnahmegeräten im Alltag (z. B. Smartphones), wie die zweitsprachendidaktisch motivierten Studien von Levine (2008) oder Pietzuch (2015) illustrieren, bei denen die Forschungspartner_innen Sprachaufnahmen in ihrem Alltagsleben machten. Dass auch allein auf der Grundlage von Audioaufnahmen bahnbrechende Forschungsergebnisse zu erzielen sind, zeigen die die bis heute grundlegende Untersuchung von Sinclair/ Coulthard (1975) zu typischen Interaktionsmustern im lehrerzentrierten Unterricht und die als klassisch zu bezeichnende Arbeit von Wong-Fillmore (1979) zu Strategien von Kindern beim L2-Erwerb Englisch. Bei Videoaufnahmen ist zu klären, mit wie vielen Kameras (und entsprechend Mikrofonen) gearbeitet werden soll und wie diese unter Berücksichtigung der Lichtverhältnisse und insbesondere des Untersuchungsgegenstands positioniert werden sollen. In der Regel wird vom Fenster weg und mithilfe eines Stativs, ggf. mit Kameraschwenks, gefilmt, doch für geübte Kameraleute kommt auch der Einsatz beweglicher Kameras in Frage. Insbesondere bei größeren Forschungsprojekten findet oft ein Kameraskript Einsatz, das im Vorfeld der Untersuchung Details zu diesbezüglichen Entscheidungen festlegt und somit die Einheitlichkeit der Aufnahmen in einem Projekt absichert (s. bspw. Ricart Brede 2011: Anhang). Wird bei den Aufnahmen mit mehreren Kameras gearbeitet, ist bei der Aufbereitung und Analyse die Synchronisierung in Split-Screen-Formaten von Interesse. Bei der Erforschung eines fremdsprachlichen Kurses für Sprecher_innen von Gebärdensprache ist es beispielsweise unerlässlich, mit zwei synchronisierten Videoaufnahmen zu arbeiten, um die Interaktion von frontaler Lehrperson und Lernergruppe dokumentieren zu können. Die Referenzarbeit von Schmidt (2007: 190 – 192) illustriert den Fall, dass Partnerarbeiten am Computer videographiert wurden. Dazu wurde per Zufallssampling regelmäßig jeweils ein Paar bei der Bearbeitung von Softwareübungen videographiert. Ergänzend wurde mittels einer Bildschirmaufzeichnungssoftware (Camtasia) dokumentiert, wie die Schüler_innen die Übungen am Bildschirm bearbeiteten. Zudem wurde auch der größere Unterrichtskontext videographisch und mittels Feldnotizen dokumentiert.

150

5. Forschungsverfahren

Für die Aufbereitung und Analyse von Videodaten stehen inzwischen zahlreiche Softwarepakete zur Verfügung, welche teils auch mehrere Audio- und Videospuren gleichzeitig darstellen können (z. B. Transana). Einige Beispiele sind:

• Anvil (http://www.anvil-software.org), • Interact (s. http://www.mangold-international.com/de/software/interact), • Observer (http://www.noldus.com/human-behavior-research/products/the-observer-xt), • Transana (http://www.transana.org) und • Videograph (http://www.dervideograph.de). Die videogestützte Erforschung von Fremdsprachenunterricht hat ungefähr seit der Jahr­ tausendwende einen regelrechten Boom erlebt (s. Überblick in Schramm/Aguado 2010), sodass sich inzwischen verschiedene Ansätze herausgebildet haben. Schramm (2016) unterscheidet diesbezüglich drei Typen videogestützter Forschung zu fremdsprachendidaktischen Fragen: Erstens untersuchen in pragmalinguistischer Tradition stehende Videointeraktionsanalysen in deskriptiver Absicht den (Fremdsprachen-)Unterrichtsdiskurs (s. beispielsweise die Referenzarbeit von Schwab 2009, Méron-Minuth 2009; s. auch Kapitel 5.3.6). Im Unterschied dazu zieht die methodentriangulatorische Videographie ausgehend von Videoaufnahmen auch weitere Daten (wie beispielsweise videobasiertes Lautes Erinnern, Interviews oder Fragebögen) heran, um in Anlehnung an ethnographische Vorgehensweisen die Innenperspektive der Akteur_innen zu rekonstruieren (z. B. Feick 2016). Drittens ist die quantifizierende, modellbildende videobasierte Unterrichtsforschung, die u. a. durch die TIMSS-Studien und verwandte Fachdidaktiken (z. B. Riegel/Macha 2013) inspiriert wurde, an kausalen Zusammenhängen zwischen Aspekten der Unterrichtsqualität und den Lernergebnissen interessiert (z. B. Helmke et al. 2008). 6 Fazit

Für die Beforschung und Untersuchung von fremdsprachendidaktischen Untersuchungsfeldern, insbesondere zur Erforschung der fremdsprachlichen Klassenzimmerinteraktion, stellt die Beobachtung ein zentrales Erhebungsinstrumentarium dar. Bei teilnehmenden Beobachtungen im Feld, bei der nicht-teilnehmenden Beobachtung mittels mehr oder wenig strukturierter Beobachtungsbögen und bei audio- und videographischen Aufzeichnungen ist gleichermaßen bereits im Vorfeld genau zu bedenken, wie und in welcher Form die Beobachtung vorgenommen werden kann und soll. Dies bedeutet auch darüber nachzudenken, welche Auswirkungen der Beobachtungsprozess auf die eigentliche Forschungsintention hat. Entscheidend ist dabei u. a., wie invasiv der oder die Forschende ist und wie gegenstandsangemessen das Vorgehen ist. Aus ethischer Sicht scheint es von zentraler Relevanz, die Vorgehensweise klar und deutlich mit den Forschungssubjekten abzusprechen und allen Beteiligten gegenüber offen darzulegen (z. B. auch den Schulbehörden oder Eltern). Wichtig ist darüber hinaus, die Beobachtungsmodalitäten beim Publizieren der Ergebnisse deutlich und umfassend darzustellen.

151 5.2.3 Beobachtung

Erhebung

5.2.3 Beobachtung emische Forschungsperspektive

unstrukturiert

Feldnotiz

Forschungstagebuch

ethnographisches Beobachtungsprotokoll

quantifizierende Kodierung / Schätzung

participant-as-observer

complete observer

strukturiert

offener Beobachtungsbogen

nicht-teilnehmend

oberserver-as-participant

complete participant

teilnehmend

Gefahr ethnozentrischer Interpretationen (oder fehlender Distanz) im Feld

im Labor

etische Forschungsperspektive

Gefahr der Ausblendung nicht-modellierter Sinnstrukturen © 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Auswertung

152

5. Forschungsverfahren

››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin/Schramm, Karen/Vollmer, H. Johannes (Hg.) (2010). Fremdsprachliches Handeln beobachten, messen und evaluieren. Neue methodische Ansätze der Kompetenzforschung und Videographie. Frankfurt a. M.: Lang. Appel, Johannes/Rauin, Udo (2015). Methoden videogestützter Beobachtungsverfahren in der Lehrund Lernforschung. In: Daniela Elsner/Britta Viebrock (Hg.). Triangulation in der Fremdsprachenforschung. Frankfurt a. M.: Lang, 59 – 79. Atkinson, Paul/Hammersley, Martin (1994). Ethnography and participant observation. In: Denzin, Norman K./Lincoln, Yvanna S. (Hg.). Handbook of Qualitative Research. London: Sage, 248 – 261. Breidenstein, Georg (2012). Ethnographisches Beobachten. In: De Boer, Heike/Reh, Sabine (Hg.), 27 – 44. De Boer, Heike/Reh, Sabine (Hg.) (2012). Beobachtung in der Schule. Beobachtung lernen. Wiesbaden: Springer VS. Dörnyei, Zoltán (2007). Research Methods in Applied Linguistics. Oxford: Oxford University Press. *Feick, Diana (2016). Autonomie in der Lernendengruppe. Entscheidungsdiskurs und Mitbestimmung in einem DaF-Handyvideoprojekt. Tübingen: Narr. *Flanders, Net A. (1960). Interaction Analysis in the Classroom: A Manual for Observers. Ann Arbor, MI: University of Michigan Press. Friebertshäuser, Barbara/Panagiotopoulou, Argyro (2013). Ethnographische Feldforschung. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 4. durchgesehene Auflage. Weinheim: Beltz Juventa, 301 – 322. *Fröhlich, Maria/Spada, Nina/Allen, Patrick (1985). Differences in the communicative orientation of L2 classrooms. In: TESOL Quarterly 19, 27 – 57. *Heath, Shirley Brice (1983). Ways with Words. Language, Life, and Work in Communities and Classrooms. Cambridge: Cambridge University Press. *Helmke, Tuyet/Helmke, Andreas/Schrader, Friedrich-Wilhelm/Wagner, Wolfgang/Nold, Günter/Schröder, Konrad (2008). Die Video-Studie des Englischunterrichts. In: DESI-Konsortium (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz, 345 – 363. Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Johnson, Burke/Christensen, Larry (2012). Educational Research. Quantitative, Qualitative, and Mixed Approaches. 4. Auflage. Thousand Oaks, CA: Sage. Lamnek, Siegfried (2010). Qualitative Sozialforschung. 5. überarbeitete Auflage. Weinheim: Beltz. Legewie, Heiner (1995). Feldforschung und teilnehmende Beobachtung. In: Flick, Uwe/v. Kardorff, Ernst/Keupp, Heiner/v. Rosenstiel, Lutz/Wolff, Stephan (Hg.). Handbuch Qualitative Sozialforschung. Grundlagen, Konzepte, Methoden und Anwendungen. 3. neu ausgestattete Auflage. Weinheim: Psychologie Verlags Union, 189 – 192. *Levine, Glenn (2008). Exploring intercultural communicative competence through L2 learners’ intercultural moments. In: Schulz, Renate/Tschirner, Erwin (Hg). Communicating Across Borders: Developing Intercultural Competence in German as a Foreign Language. München: iudicium, 191 – 216. Lüders, Christian (2013). Beobachten im Feld und Ethnographie. In: Flick, Uwe/Kardorff, Ernst von/ Steinke, Ines (Hg.). Qualitative Forschung. Ein Handbuch. 10. Auflage. Reinbek b. Hamburg: Rowohlt, 384 – 401.

5.2.3 Beobachtung

153

Markee, Numa/Kasper, Gabriele (2004). Classroom talks: An introduction. In: The Modern Language Journal 88, 491 – 500. *Méron-Minuth, Sylvie (2009). Kommunikationsstrategien von Grundschülern im Französischunterricht. Tübingen: Narr. Moskowitz, Gertrude (1971). Interaction analysis – a new modern language for supervisors. In: Foreign Language Annals 5, 211 – 221. Pauli, Christine (2012). Kodierende Beobachtung. In: De Boer, Heike/Reh, Sabine (Hg.), 45 – 63. *Pietzuch, Anja (2015). Hochqualifizierte in Integrationskursen – eine fallstudienorientierte Analyse zu Zweitspracherwerb, Identität und Partizipation. München: iudicium. *Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen. Freiburg i.B.: Klett Fillibach. Ricart Brede, Julia (2014). Beobachtung. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/ Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh (UTB), 137 – 146. Ricart Brede, Julia/Knapp, Werner/Gasteiger-Klicpera, Barbara/Kucharz, Diemut (2010). Die Entwicklung von Beobachtungssystemen in der videobasierten Forschung am Beispiel von Qualitätsanalysen vorschulischer Sprachfördereinheiten. In: Aguado, Karin/Schramm, Karen/Vollmer, Helmut J. (Hg.), 257 – 275. *Riegel, Ulrich/Macha, Klaas (Hg.) (2013). Videobasierte Kompetenzforschung in den Fachdidaktiken. Münster: Waxmann. Scheele, Birgit/Groeben, Norbert (1998). Das Forschungsprogramm Subjektive Theorien. Theoretische und methodologische Grundzüge in ihrer Relevanz für den Fremdsprachenunterricht. In: Fremdsprachen lehren und lernen 27, 12 – 32. *Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Schramm, Karen (2014). Besondere Forschungsansätze: Videobasierte Unterrichtsforschung. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 243 – 254. Schramm, Karen (2016). Unterrichtsforschung und Videographie. In: Burwitz-Melzer, Eva/Mehlhorn, Grit /Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.). Handbuch Fremdsprachenunterricht. 6. vollständig neu bearbeitete Auflage. Tübingen: A. Francke, 587 – 592. Schramm, Karen/Aguado, Karin (2010). Videographie in den Fremdsprachendidaktiken – Ein Überblick, in: Aguado, Karin/Schramm, Karen/Vollmer, Helmut J. (Hg.). Fremdsprachliches Handeln beobachten, messen und evaluieren. Neue methodische Ansätze der Kompetenzforschung und Videographie. Frankfurt a. M.: Lang, 185 – 214. *Schwab, Götz (2009). Fremdsprachenunterricht und Konversationsanalyse. Landau: Verlag empirische Pädagogik. [Referenzarbeit, Kapitel 7] *Sinclair, John McH./Coulthard, Richard M. (1975). Towards an Analysis of Discourse. The English Used by Teachers and Pupils. Oxford: Oxford University Press. *Strube, Susanna (2014). Grappling with the Oral Skills. The Learning and Teaching of the Low-Literate Adult Second Language Learner. Utrecht: Landelijke Onderzoekschool Taalwetenschap. van Lier, Leo (1990). Ethnography: Bandaid, Bandwagon, or Contraband? In: Brumfit, Christopher/Mitchell, Rosamond (Hg.). Research in the Language Classroom. London: Modern English Publications, 33 – 53. *Waggershauser, Elena (2015). Schreiben als soziale Praxis. Eine ethnographische Untersuchung erwachsener russischsprachiger Zweitschriftlernender. Tübingen: Stauffenburg.

154

5. Forschungsverfahren

Watson-Gegeo, Karen Ann (1988). Ethnography in ESL: Defining the essentials. In: TESOL Quarterly 22, 575 – 592. *Wong-Fillmore, Lily (1979). Individual differences in second language acquisition. In: Fillmore, Charles/Kempler, Daniel/Wang, William S.-Y. (Hg.). Individual Differences in Language Ability and Language Behavior. New York: Academic Press, 203 – 228. Ziebell, Barbara/Schmidjell, Annegret (2012). Unterrichtsbeobachtung und kollegiale Beratung. Berlin: Langenscheidt.

»»  Zur Vertiefung empfohlen Aguado, Karin/Schramm, Karen/Vollmer, H. Johannes (Hg.) (2010). Fremdsprachliches Handeln beobachten, messen und evaluieren. Neue methodische Ansätze der Kompetenzforschung und Videographie. Frankfurt a. M.: Peter Lang. Dieser Sammelband präsentiert fünf Beiträge zur Videographie in der Fremdsprachendidaktik. Hier finden sich sowohl ein Überblick über den Forschungsstand als auch spezialisierte Beiträge zu Fragen der Erhebung, der Transkription und der Entwicklung von Beobachtungssystemen. Lamnek, Siegfried (2010). Qualitative Sozialforschung. 5. überarbeitete Auflage. Weinheim: Beltz [Kapitel 11: Teilnehmende Beobachtung, 498 – 581]. In diesem Handbuch qualitativer Sozialforschung wird das Thema teilnehmende Beobachtung anhand zahlreicher Beispiele aus der Soziologie ausführlich behandelt. Zur ersten Orientierung über Begrifflichkeiten finden auch fremdsprachendidaktisch interessierte Leser_innen hier eine systematische Terminologie-Einführung mit anschaulichen Übersichten. Wajnryb, Ruth (1992). Classroom Observation Tasks: A Resource Book for Language Teachers and Trainers. Cambridge: Cambridge University Press. In diesem Arbeitsbuch erhalten Lehrkräfte und noch unerfahrene Forschende eine verständliche Anleitung, wie Unterrichtsprozesse beobachtet und analysiert werden können, um daraus konkrete Schlüsse für die eigene Praxis zu ziehen. Anhand zahlreicher Aufgaben werden gezielt Beobachtungskompetenzen erlernt, ohne dass man sich auf bestimmte theoretische Interpretationsansätze und Forschungsmethoden festlegen muss. Watson-Gegeo, Karen Ann (1988). Ethnography in ESL: Defining the essentials. TESOL Quarterly 22, 575 – 592. Dieser Artikel arbeitet die wichtigsten Charakteristika ethnographischer Forschung heraus und fragt nach dem Potenzial ethnographischer Forschung für das Fach English as a Second Language. Die prägnante Darstellung der theoretischen Hintergründe und der Etappen des ethnographischen Forschungsprozesses lassen diesen Artikel als einführende Lektüre besonders geeignet erscheinen. Ziebell, Barbara/Schmiedjell, Annegret (2012). Unterrichtsbeobachtung und kollegiale Beratung. Berlin: Langenscheidt. Diese für den Bereich Deutsch als Fremdsprache konzipierte Fernstudieneinheit führt u. a. in Techniken der Unterrichtsbeobachtung, in die Beobachtung ausgewählter Aspekte im Unterrichtshandeln und in die Beobachtung von Lehrerverhalten ein. Dazu bietet es neben verständlichen Einführungstexten auch zahlreiche Beobachtungsbögen und Aufgaben mit Lösungsvorschlägen sowie auch Videobeispiele an.

5.2.4 Befragung

155

5.2.4 Befragung Claudia Riemer 1 Begriffsklärung und Ausgangslage

In der empirischen Fremdsprachenforschung werden mündliche und schriftliche Befragungsmethoden zur Datenerhebung sehr häufig eingesetzt, auch in der überwiegenden Zahl der für diesen Band als Referenzen fungierenden empirischen Forschungsarbeiten. Vielfach wird an vorhandenen forschungsmethodischen und -methodologischen Diskussionen aus den Sozialwissenschaften, der Erziehungswissenschaft und Psychologie angeknüpft, zunehmend stehen auch fachinterne Ausführungen zur Verfügung (vgl. exemplarisch Daase/Hinrichs/Settinieri 2014 für Befragung allgemein; Dörnyei 2010, Zydatiß 2012 für die schriftliche Befragung; Trautmann 2012 für qualitative Interviews). Die Gründe für diese große Beliebtheit sind vielfältig: Mit Blick auf das allgemeine Erkenntnisinteresse der Erforschung des Lehrens und/ oder Lernens von Fremd- und Zweitsprachen, bietet es sich häufig an, hierfür gerade die Protagonisten – die Lehrenden und Lernenden – selbst mit ihrer Binnensicht zu Wort kommen zu lassen. Es hat aber auch damit zu tun, dass viele Untersuchungsgegenstände (wie etwa Erfahrungen, Einstellungen, Motivationen oder Haltungen von Lehrenden und Lernenden) nicht aus der Außenperspektive beobachtbar sind und dann eine Operationalisierung in Form von Selbstauskünften befragter Personen sinnvoll ist. Es spielt aber sicher auch eine Rolle, dass Befragungsmethoden an alltäglichen kommunikativen Erfahrungen des Fragens und Antwortens anknüpfen und daher insbesondere Forschungsnovizen hier weniger methodische Zugangshürden antizipieren; einen Fragebogen zu entwickeln oder ein Interview durchzuführen erscheint zunächst eine leicht(er) zu bewältigende Aufgabe zu sein. Wie bei anderen Datenerhebungsmethoden auch, spielt die Qualität des Erhebungsinstruments die entscheidende Rolle für die Qualität von Befragungsdaten. Befragungsdaten sind allerdings das Ergebnis von Selbstauskünften (engl. self reports) und daher mit der generellen Problematik verbunden, dass ihre Zuverlässigkeit eingeschränkt ist. Dies hängt u. a. von der Bereitschaft und Fähigkeit der Befragten zu wahrheitsgemäßen und relevanten Aussagen ab; auch Erinnerungsfehler, sozial erwünschte Antworten, Gefälligkeitsaussagen und Einflüsse persönlicher Antworttendenzen (engl. response set), wie z. B. die Akquieszenz (Ja-Sage-Tendenz), sind nie auszuschließen. Möglichst unverfälschte Daten durch Befragung zu erheben, muss daher durch die jeweiligen Verfahren so weit es nur geht sichergestellt werden. Ein Beispiel für gute Reflexion der Effekte sozialer Erwünschtheit bei Fragebogenbefragungen sowie deren Berücksichtigung bei der Fragebogenkonstruktion findet sich in der Studie von Özkul (2011: 94 – 95), die Berufswahlmotive von Lehramtsstudierenden untersucht. Zu unterscheiden sind schriftliche (Fragebogen) und mündliche Formen (Interview) der Befragung sowie der Grad ihrer Standardisierung. Fragebögen werden gewöhnlich dann eingesetzt, wenn größere Probandengruppen erfasst werden sollen und/oder die Anonymität schon in der Befragungssituation gewahrt bleiben soll. In der Regel sind Fragebögen stark standardisiert. Die Erhebung der Fragebogendaten selbst sowie deren Aufbereitung und Auswertung ist relativ unaufwändig – was allerdings auf die Erstellung eines geeigneten Fra-

156

5. Forschungsverfahren

gebogens nicht zutrifft. Interviews haben den Vorteil, dass für viele Befragten der mündliche Modus einfacher ist und Befragte sich intensiver mit den Fragen auseinandersetzen; ihre Anonymität kann allerdings frühestens während der Datenaufbereitung (Transkription) hergestellt werden. Interviews werden als Einzelinterviews oder als Gruppeninterviews bzw. Gruppendiskussionen durchgeführt, was im Vergleich zu schriftlichen Befragungen einen erheblich größeren Zeitaufwand für die Datenerhebung (und auch für die darauf folgende Transkription und Datenanalyse) erforderlich macht und daher in der Regel den Umfang der Probandengruppen einschränkt. Beide Formen sind im Rahmen qualitativer und quantitativer Forschungsansätze einsetzbar, wobei sich der jeweils erforderliche bzw. erwünschte Grad der Standardisierung unterscheidet. Die Standardisierung von Befragungen umfasst verschiedene Aspekte: die Geschlossenheit der Fragen, die Festlegung der Fragenreihenfolge sowie die Gestaltung der Befragungssituation. Standardisierte Befragungen (auch als „strukturierte“ Befragung bezeichnet) sind typisch für einen zugrundegelegten quantitativen, hypothesentestenden Forschungsansatz und sehen v. a. geschlossene Fragen in festgelegter Reihenfolge sowie eine exakte Kontrolle der Datenerhebungssituation vor (gleiche Bedingungen für alle Probanden, gleiches Verhalten der Interviewer, u. a. gleiche Befragungshilfen sowie Verzicht auf Nachfragen sowie individualisierte Erläuterungen). Offene bzw. semi-offene Befragungen verfolgen einen qualitativen, hypothesengenerierenden Forschungsansatz und sind nur minimal oder gar nicht standardisiert. Sie sehen v. a. offene Fragen und keine festgelegte Fragereihenfolge vor (diese ergibt sich aus dem Gesprächsverlauf und wird v. a. durch den Befragten bestimmt); die Rahmenbedingungen für die Datenerhebungssituation werden in der Regel nicht kontrolliert (Eingehen auf Wünsche der Befragten z. B. in Bezug auf Ort und Zeit, Nachfragen und Erläuterungen des Interviewers möglich). Bei Befragungen können unterschiedliche Arten von Fragen gestellt werden (vgl. Porst 2014: 53 – 69). Offene Fragen, die häufig W-Fragen sind (z. B. „Warum lernen Sie Deutsch als Fremdsprache?“), sind von den Befragten mit eigenen Worten zu beantworten, was die Tiefgründigkeit und Vielseitigkeit der Antworten erhöht  – aber auch vom Grad der Verbalisierungsfähigkeit und Bereitschaft des Befragten zu relevanten Antworten abhängt. Bei geschlossenen Fragen (z. B. „Wie stark interessieren Sie sich für Deutsch als Fremdsprache?“) müssen die Befragten aus einer begrenzten Zahl vorgegebener Antworten auswählen (z. B. „sehr stark, stark, wenig, überhaupt nicht“); auch Mehrfachauswahloptionen (multiple choice) sind möglich (z. B. „Welche Sprachen haben Sie in der Schule gelernt? Antwortoptionen: Englisch, Französisch, Spanisch, Latein, Türkisch“). Halboffene Fragen erlauben neben der Auswahl aus vorgegebenen Antworten eine weitere freie Antwort (s. letztes Beispiel, weitere Antwortoption: „sonstige“). Geschlossene Fragen haben den Vorteil, dass sie schnell auszuwerten, auf einer Nominal-, Ordinal- oder Intervallskala zu quantifizieren sind (vgl. dazu näher Kapitel 5. 3. 10) und die Daten miteinander vergleichbar sind. Sie unterliegen allerdings immer dem Risiko, dass sich Befragte nicht in den Fragen wiederfinden und daher beliebig antworten, teilweise Antworten auslassen oder im schlimmsten Fall den Fragebogen abbrechen – was entweder „fehlende Werte“ für die statistische Auswertung bedeutet bzw. die Güte der Befragung insgesamt verringert. Allein aus diesem Grund bieten sich halboffene und offene Fragen als Ergänzung zu geschlossenen Fragen an.

5.2.4 Befragung

157

Der standardisierte Fragebogen mit vorrangig geschlossenen Fragen mit Antwortoptionen stellt die klassische Form der Befragung im Rahmen eines quantitativen Forschungsansatzes dar, während das offene bzw. semi-offene Interview ein gängiges Instrument qualitativer Forschung ist. Offene Fragen in schriftlichen Befragungen sind in der Regel nicht geeignet, die Ziele qualitativer Forschung hinreichend abzubilden. Häufig werden in der Fremdsprachenforschung sowohl standardisierte Fragebögen als auch qualitative Einzelinterviews (z. B. bei Biebricher 2008 im Rahmen einer quasi-experimentell angelegten Interventionsstudie zum extensiven Lesen; s. Kapitel 7) bzw. unterschiedliche Interviewverfahren (z. B. Gruppendiskussion und Einzelinterview in der Studie von Tassinari 2010, die Lehrkräfte und Experten zum autonomen Lernen befragt; s. Kapitel 7) im Rahmen von mixed-methods-Designs eingesetzt. Fragebögen können außerdem vor Einzelinterviews zur Abfrage von reinen Faktenfragen und demographischen Angaben eingesetzt werden – sie können so zur Entlastung der Gesprächssituation (und zur Umfangreduktion bei der Datenaufbereitung) beitragen. Ein Beispiel dazu findet man bei Ehrenreich 2004 (s. Kapitel 7), die mittels eines Kurzfragebogens wichtige kontextuelle und biographische Rahmenbedingungen abfragt, bevor sie Untersuchungsteilnehmer dann mittels Interview zu einem Assistant-Teacher-Auslandsaufenthalt befragt. Auf das Forschungsthema zugeschnittene Fragebogenerhebungen können das kontrastive Sampling für eine qualitative mündliche Befragung unterstützen (zum Sampling vgl. auch Kapitel 4.3). Aber auch mit anderen Erhebungsverfahren werden Befragungsverfahren kombiniert, um unterschiedliche Perspektiven zu gewinnen (z. B. Kombination von strukturierter Unterrichtsbeobachtung mit Befragungen von Lehrenden zu ihren Überzeugungen qua qualitativem, leitfadengestützten Interview und Gruppendiskussion bei Hochstetter 2011; s. Kapitel 7) oder ergänzende Informationen zu erhalten (z. B. Ergänzung der zentralen Methode der Unterrichtsbeobachtung/ Videographie durch strukturierte Fragebögen, retrospektives Interview, Lerntagebuch und Gruppendiskussion bei Schmidt 2007; s. Kapitel 7). Solche mehr-methodischen Designs verfolgen Triangulationsansätze, die mit besonderen Herausforderungen bei der Datenanalyse sowie dem Ergebnisabgleich konfrontiert sind (vgl. dazu Kapitel 4.4). 2 Fragebogen

Der Einsatz von Fragebögen ist mit einer Reihe von Vorteilen verbunden: Befragungen können mittels Fragebögen sehr exakt vorstrukturiert werden; Fragen können klar festgelegt werden und präzise formuliert werden. Fragebögen sind relativ leicht und räumlich wie zeitlich flexibel einsetzbar; große Mengen an Daten können mit überschaubarem Aufwand erhoben werden. Sie können auf Papier ausgeteilt werden und nach kurzer Zeit wieder eingesammelt werden. Alternativ können sie auf postalischem oder elektronischem Wege versandt und erhoben werden; darüber hinaus kann bei elektronisch unterstützten Befragungen mittels Einsatz von Fragebogensoftware sichergestellt werden, dass alle Fragen beantwortet werden. Die Anonymität der Befragten kann bewahrt werden. Die gewonnenen Daten sind vergleichbar und – abhängig vom Grad ihrer Standardisierung – leicht quantifizierbar und quantitativen Analyseverfahren zuzuführen. Aber: Wenn Fragebögen zu schnell erstellt und eingesetzt werden, geht dies meistens zu Lasten der Datenqualität, was die Güte von Fragebogenstudien erheblich einschränken kann. So fordert u. a. Dörnyei (2010: XIII) für die Fremdsprachenfor-

158

5. Forschungsverfahren

schung, dass der Einsatz von Fragebögen besser forschungsmethodisch und -methodologisch reflektiert und vorbereitet werden muss, als dies in vielen Studien der Fall ist. Skalentypen

Fragen können als geschlossene oder offene Fragen gestellt werden. In standardisierten Fragebögen überwiegen die geschlossenen Fragen, für die Antwortoptionen in Form unterschiedlicher Skalen vorgegeben sind (zu ausführlichen Erläuterungen zum Skalenniveau, vgl. auch Porst 2014: 71 – 97). Offene Fragen haben oft den Charakter eines Annex und werden häufig von den Untersuchungsteilnehmern gar nicht beantwortet – oder spielen bei der Datenanalyse keine wichtige Rolle. Oft enthalten Fragebögen gar keine Fragen, auf die die Befragten mittels vorgegebener oder (seltener) freier Antworten reagieren sollen. Häufig zu finden sind Rating-Skalen, insbesondere so genannte Likert-Skalen, die positiv oder negativ formulierte Statements vorBeispiel 1: Item aus dem Fragebogen zur Messung der fremdsprachenspezifischen Angst von Horwitz/Horwitz/Cope (1986: 129) 1. I never feel quite sure of myself when I am speaking in my foreign language class. Strongly agree – Agree – Neither agree nor disagree – Disagree – Strongly disagree Beispiel 2: Item aus dem Fragebogen zur Messung der integrativen und i­nstrumentellen Orientierung zum Fremdsprachenlernen von Gardner (1985: 179) 1. Studying French can be important for me only because I’ll need it for my future career.

Strongly ­Disagree

Moderately Disagree

Slightly Disagree

Neutral

Slightly Agree

Moderately Agree

Strongly Agree

Beispiel 3: Item zur Messung von Einstellungen zu Computer-Sprachlernprogrammen von Schmidt (2007: Online-Anhang 3, Abschlussfragebogen Schülerinnen)

Wörterbuch Englisch-Deutsch

sehr hilfreich

eher hilfreich

wenig hilf- nicht hilfreich reich









Beispiel 4: Item zur Messung der Häufigkeit der Computerbenutzung von Schmidt (2007: Online-Anhang 2, Anfangsfragebogen für Lehrende)

Wie oft surfen Sie im Internet?

sehr oft

oft

manchmal selten

(Mehr als dreimal pro Woche)

(Ein bis zwei Mal pro Woche)

(Ein bis zwei Mal pro Monat)

(Höchstens einmal pro Monat)









Abbildung 1: Skalentypen im Fragebogen

nie



5.2.4 Befragung

159

halten, die den Befragten zur (Selbst-)Einschätzung auf einer vorgegebenen, anzukreuzenden Ratingskala vorgelegt werden (vgl. Porst ebda, Dörnyei 2010: 26 – 33). Mittels solcher Items werden z. B. Einstellungen, Haltungen und Erfahrungen operationalisiert. Empfohlen werden fünf bis neun Skalenpunkte, wobei zu berücksichtigen ist, dass bei einer hohen Anzahl mit pseudodifferenzierten Antworten zu rechnen ist. Die Anzahl der skalierten Ankreuzmöglichkeiten kann gerade oder ungerade sein; beides ist in der Forschung üblich. Zu bedenken ist aber stets, dass eine ungerade Anzahl Unschärfen bei der Datenerhebung (und späteren Datenauswertung) ergeben kann, weil Untersuchungsteilnehmer die Mittelposition einer Skala unterschiedlich interpretieren. Wenn sie die Mittelposition ankreuzen, kann dies bedeuten, dass sie keine Meinung dazu haben – aber evtl. auch, dass sie die Frage uninteressant finden; evtl. sind sie aber wirklich neutral. Alternativ könnte bei einer ungeraden Anzahl eine zusätzliche Antwortkategorie, wie die Option „weiß nicht“/„nicht zutreffend“ vorgegeben werden. Eine gerade Anzahl wiederum zwingt die Befragten, sich für eine Seite zu entscheiden, auch wenn sie vielleicht unentschieden sind. Die Punkte auf den Ratingskalen werden mittels geeigneter Begriffe sprachlich festgelegt (vgl. Bsp. 1 für eine 5stufige Skala, Bsp. 2 für eine 7stufige Skala in anderer Zustimmungsrichtung, Bsp. 3 für eine 4stufige Skala, die die Befragten zu einer Antwortrichtung zwingt); alternativ können auch Piktogramme, wie z. B. Smileys für Skalenpunktmarkierungen verwendet werden (z. B. für den Einsatz von Likert-Skalen bei Kindern; vgl. Dörnyei 2010: 28 – 29). Schwieriger ist die Benennung der Skalenpunkte bei Häufigkeitsangaben, da Angaben wie „selten“ oder „häufig“ unterschiedlich interpretiert werden können (vgl. Beispiel 4 für eine häufig anzutreffende Lösung). Als Alternative bieten sich ausschließlich endpunktbenannte Skalen an, da so die Gleichabständigkeit der Zwischenstufen besser erreicht wird, insbesondere wenn die Benennung vieler Zwischenstufen nicht uneindeutig möglich ist. Der Grad der Gleichabständigkeit der Skalen ist eine wesentliche Voraussetzung für die Art der Quantifizierung der mit solchen Items gewonnenen Daten. In der Regel sind Likert-Skalen nicht äquidistant; daher sind damit gewonnene Daten im strengen Sinn keine intervallskalierten Daten, sondern ordinale bzw. rangskalierte Daten, die nicht allen statistischen Verfahren zugänglich sind (vgl. Kapitel 5. 3. 10). Erstellung eines Fragebogens

Eine schriftliche Befragung ist nur so gut wie ihr Fragebogen – und ein Fragebogen ist nur so gut wie seine Items. Im Vergleich zu den Vorteilen einer Fragebogenbefragung in Bezug auf den Zeitaufwand der Erhebung und Auswertung ist nicht zu unterschätzen, welcher Aufwand bei der Erstellung eines Fragebogens zu leisten ist. Entscheidende Schritte sind die Formulierung sowie Zusammenstellung der Items. Gerade bei Untersuchungsgegenständen, für die es noch keine geprüften Verfahren gibt, und bei abstrakten Konstrukten, wie z. B. Einstellungen, Meinungen oder anderen Persönlichkeitsvariablen, sind Multi-Items gegenüber Einfach-Items vorzuziehen, d. h. mehrere, gewöhnlich vier bis zehn Items werden in Annäherung an das zu erfassende Konstrukt formuliert (zur Verwendung von Multi-Items, vgl. Dörnyei 2007: 103 – 104, Dörnyei 2010: 23 – 26). Es gibt keine harten Regeln für die Itemformulierung – und vorhandene Empfehlungen bleiben in gewisser Weise immer abstrakt. Aus der Vielzahl von Methodeneinführungen (vgl.

160

5. Forschungsverfahren

Daase/Hinrichs/Settinieri 2014: 105, Dörnyei 2007: 108 – 109, Dörnyei 2010: 40 – 46, Meyer 2013: 91, Porst 2014: 20 – 31, 98 – 118) können jedoch einige Faustregeln abgeleitet werden, da sie insbesondere Forschungsnovizen vor vermeidbaren Fehlern bewahren können; alle Regeln sind besonders sorgsam zu beachten, wenn die Sprache des Fragebogens nicht die L1 der Befragten ist. Faustregeln für die Formulierung von Fragebogenitems • Items sind kurz und in einfacher, verständlicher Sprache zu formulieren (in der Regel weniger als 20 Worte), die von allen Beteiligten in gleicher Weise verstanden werden. • Uneindeutige Wörter (wie z. B. „gut“, „einfach“, „manchmal“, „oft“, „viel(e)“), unklare Wörter (z. B. „jung“, „Nachbarschaft“) oder mehrdeutige Wörter (wie z. B. „modern“, „Heimat“, „Stress“) sollen vermieden werden – denn jeder Befragte kann etwas anderes darunter verstehen. • Unklare Begriffe sind – so sie nicht vermieden werden können – zu definieren. • Allgemeine Fragen sind zugunsten konkreter Fragen zurückzustellen. • Suggestivfragen jeder Art und hypothetische Fragen sind zu vermeiden. • Doppelte Verneinungen sind zu vermeiden, denn sie führen zu Missverständnissen. • Jedes Item darf nur einen Aspekt behandeln. • Items dürfen die Befragten nicht überfordern – sie sollen aber auch nicht trivial sein. • Items sollen nicht auf Informationen zielen, über die die Befragten möglicherweise nicht verfügen. • Der räumlich-zeitliche Bezug von Items soll immer klar und eindeutig sein. • Zustimmende und ablehnende Antwortmöglichkeiten sollen balanciert sein; Items sollen so formuliert sein, dass sich abwechselnd positive und negative Antworten für den Befragten ergeben. • Antwortoptionen sollen hinreichend erschöpfend und überschneidungsfrei sein. • Und noch eine wichtige Regel: Bei der Formulierung von Items sollte man im Blick behalten, dass sie die Übersetzung in andere Sprachen nicht unnötig erschwert (z. B. Vermeidung indirekter Sprache und metaphorisierter Ausdrücke). Abbildung 2: Faustregeln für die Erstellung von Fragebogenitems

Zur Festlegung der Items gehört neben der Formulierung der Fragen oder Statements auch die der Auswahl der Skalentypen (s. o.) bzw. Antwortoptionen. Bei Faktenfragen (z. B. nach demographischen Variablen wie Alter, Bildungslaufbahn, Geschlecht) sind geeignete Antwortoptionen festzulegen, z. B. im Multiple-Choice-Format. Statements müssen entsprechende Rating-Skalen zugeordnet werden, wobei begründete Entscheidungen getroffen werden müssen, was die Anzahl der Zwischenstufen betrifft und ob diese gerade oder ungerade sein soll. Auch sollte bedacht werden, dass es bei Mehrfachantworten die häufige Tendenz gibt, dass Befragte die ersten (primacy-effect) oder letzten Antwortkategorien (recency-effect) vermehrt ankreuzen (dieser Effekt verstärkt sich bei standardisierten mündlichen Befragungen). Bei der Anordnung der Fragen ist zu beachten, dass sie der Aufmerksamkeitsspanne des Befragten entspricht. Zum Einstieg in den Fragebogen sollten möglichst inhaltliche und

5.2.4 Befragung

161

themenbezogene, motivierende Items vorgesehen werden, die von den Untersuchungsteilnehmern leicht beantwortet werden können und sie persönlich betreffen. Auf diese Weise soll eine Bindung des Befragten erreicht werden (vgl. auch die „Regeln für die Einstiegsfrage“ bei Porst 2014: 139 – 146). Die zentralen Items für die Fragestellung sollen in den ersten zwei Dritteln des Fragebogens gestellt werden. Generell gilt hierfür die Empfehlung, dass Items logisch in Themenblöcken geordnet werden sollen; Multi-Items sowie Items zu sehr nah verwandten Konstrukten sollten jedoch randomisiert werden (z. B. bei testähnlichen Messungen von Persönlichkeitseigenschaften), um Gedächtniseffekte zu vermeiden. Es empfiehlt sich darüber hinaus, unaufwendige Fragen eher an das Ende des Fragebogens zu stellen (z. B. demographische Fragen und leicht abrufbare Faktenfragen). Heikle Fragen, die möglicherweise Befürchtungen von Befragten in Bezug auf Sanktionen wecken könnten oder tabuisierte Themenbereiche betreffen (das kann z. B. auch eine Frage nach dem Einkommen sein) sollten in das hintere Drittel des Fragebogens gerückt werden, um ihren vorzeitigen Ausstieg unwahrscheinlicher zu machen. Nicht unterschätzt werden sollten mögliche Ausstrahlungseffekte von Fragen auf die Folgefragen. Am Ende des Fragebogens sollte den Befragten gedankt werden und die Möglichkeit zu inhaltlichen Ergänzungen und methodischen Anmerkungen gegeben werden; ggfs. sollte angeboten werden, unter Achtung datenschutzrechtlicher Regelungen, Informationen über die Ergebnisse der Studie zu erhalten oder sich für Folgebefragungen (auch mündlicher Art) zur Verfügung zu stellen. Weitere Parameter für einen guten Fragebogen sind mit der Gestaltung des Fragebogens verbunden: Länge (als Faustregel gilt eine optimale Länge von nicht über vier Druckseiten für den Frageteil und eine Gesamtbearbeitungszeit von unter 30 Minuten (vgl. Dörnyei 2010: 13), gutes und professionell wirkendes Layout mit einem optisch ansprechenden und das Thema erläuternden Deckblatt, genaue Erläuterungen zum Ausfüllen des Fragebogens (z. B. Hinweise, wie die Skalen anzukreuzen sind, dass es keine richtigen oder falschen Antworten gibt, dass Ehrlichkeit wichtig ist) – und v. a.: nicht zu viel Text in lesbarer Schriftgröße pro Seite (es soll Spaß machen, den Fragebogen auszufüllen!). Viele genaue Hinweise und Beispiele dazu sind in den Einführungen von Dörnyei (2010) und Porst (2014) zu finden. Bei nicht direkter, auch elektronischer Administration darf ein einladendes Anschreiben mit der Bitte um Teilnahme und Zusicherung der Wahrung der datenschutzrechtlichen und forschungsethischen Regelungen sowie Regelungen guter wissenschaftlicher Praxis (vgl. dazu Kapitel 4.6) nicht fehlen. Wird der Fragebogen durch den Forscher selbst verteilt, spielt darüber hinaus das persönliche Auftreten eine wichtige Rolle. Qualitative schriftliche Befragung

Schriftliche Befragungsverfahren werden in der qualitativen Fremdsprachenforschung nur recht selten verwendet. Sie bieten sich aber dann an, wenn subjektive Erfahrungen in größerer Breite erhoben werden sollen und/oder Sonderformen von Introspektion schriftlich erfolgen können. Ein bekanntes Beispiel stellt das Tagebuch, häufig in der Form eines Sprachlerntagebuchs, dar (vgl. Bailey/Ochsner 1983), das im Rahmen bekannter Einzelfallstudien zur Erforschung von Emotionen und Lernerkognitionen zur Anwendung kam (vgl. exemplarisch Bailey 1983, Schmidt/Frota 1986). Sprachlerntagebücher scheinen insbesondere dann ergiebige Datenquellen zu sein, wenn sie von erfahrenen Lernenden bzw. Fremdsprachen-

162

5. Forschungsverfahren

forschern geschrieben werden (die Autoren in den oben genannten Studien waren auch die Tagebuchschreiber!). Ein anderes Beispiel ist das Instrument der mittels eines relativ offenen Frageimpulses erhobenen schriftlichen Sprachlernbiographie, die in der deutschen Sprachlehrforschung zur Untersuchung von Lernervariablen eingesetzt wird (vgl. exemplarisch Edmondson 1997, Riemer 2011). 3 Interview

Zu unterscheiden sind quantitative von qualitativen Interviews. Quantitative, strukturierte Interviews spielen in der deutschen wie internationalen Fremdsprachenforschung keine große Rolle. Sie sind eine Sonderform der standardisierten Befragung, für die die oben genannten Regeln und Grundlagen der Fragebogenbefragung gelten; Frageformulierungen und Antwortoptionen sind vorgegeben. Die Durchführung eines strukturierten Interviews ist eine mündliche Administration eines vorgegebenen Fragebogens; allerdings mit dem Vorteil, dass die direkte (oder telefonische) mündliche Befragung das Risiko vermindert, dass Items ausgelassen oder viel zu flüchtig durchgegangen werden. Aus Gründen der notwendigen Gleichbehandlung geschieht dies allerdings um den Preis einer recht künstlichen Gesprächssituation, bei der keine Spielräume für Frageanpassungen, Nachfragen oder auf den jeweiligen Untersuchungsteilnehmer bezogene Erläuterungen bestehen. Qualitative Interviews

Qualitative Interviews sind zentrale Datenerhebungsmethoden in qualitativen Forschungsansätzen, da sie dem Ziel der Erhebung möglichst reichhaltiger und tiefgründiger Daten gut entsprechen. Die Untersuchungsteilnehmer sollen in möglichst natürlich gehaltenen Gesprächen zur ausführlichen Darlegung ihrer Erfahrungen, Meinungen, Überzeugungen und auch ihres Wissens angeregt werden. Widersprüchlichkeit, Vagheit und auch Nicht-Wissen können in den Antworten zum Ausdruck gebracht werden. Während geschlossene Befragungen darauf setzen (müssen), von den Untersuchungsteilnehmern auf vorgegebene Items möglichst lückenlos ehrliche Einschätzungen zu bekommen, wollen qualitative Interviews die Befragten dazu bringen, selbst Auskünfte darüber zu geben, was und warum etwas für sie relevant ist. Die Tiefe und Breite der Antworten soll nicht eingeschränkt werden. Für qualitative Interviews gilt das Prinzip der Offenheit; den Untersuchungsteilnehmern wird Raum für Elaborationen, Klarstellungen und Erklärungen und damit die Option zu tiefgründigeren und glaubwürdigeren Auskünften gegeben. Nicht ausgeschlossen werden kann dabei allerdings, dass für den Untersuchungsgegenstand irrelevante oder nur oberflächliche Informationen gewonnen werden. Dieses Risiko zu minimieren, stellt ein wesentliches Ziel der Interviewgestaltung seitens des Interviewers dar. Daten, die aus qualitativen Befragungen resultieren, sind nur eingeschränkt vergleichbar, da die Offenheit der Fragestellung unterschiedliche Schwerpunktsetzungen und auch unterschiedliche Breite und Tiefe der Berichte erlaubt. In den empirischen Disziplinen in den Sozialwissenschaften wurde eine Reihe unterschiedlicher Interviewformate entwickelt, die auf einem Kontinuum semi-offener bis maximal offener Verfahren angesiedelt werden können. So gibt es Interviewformen, die nur sehr wenige Steuerungselemente haben (z. B. narratives Interview, Gruppendiskussion), andere (wie z. B.

5.2.4 Befragung

163

das leitfadengestützte Interview oder das Experteninterview) strukturieren die Erhebungssituation etwas stärker vor – aber in keiner Weise so umfangreich, wie dies bei strukturierten Interviews der Fall ist. Die Steuerung der Gesprächssituation erfolgt während des Gesprächs und ist weniger von einem Instrument wie dem Leitfaden, sondern stark von den Strategien des Interviewers zur (zurückhaltenden) Lenkung des Gesprächs abhängig. Es werden viele unterschiedliche Interviewvarianten unterschieden (vgl. z. B. Friebertshäuser/Langer 2010, Helfferich 2011: 35 – 46, Kvale 2007: 67 – 77), von denen im Folgenden die gängigsten etwas genauer erläutert werden. Das Leitfadeninterview

Das Leitfadeninterview ist eine häufig anzutreffende, semi-offene Form des qualitativen Interviews. Die wesentlichen Aspekte des Untersuchungsgegenstands und der Forschungsfrage(n) werden vorab in Stichworten und (offenen) Fragen festgehalten. Durch die Entscheidung für diese etwas stärker vorstrukturierte mündliche Befragung kann gewährleistet werden, dass die interessierenden Aspekte des Untersuchungsgegenstands zur Sprache kommen – sie werden durch entsprechende Impulsfragen des Interviewers eingebracht. Dabei muss allerdings in Kauf genommen werden, dass die erhobenen Daten etwas stärkeren Elizitierungs­charakter haben, was mit der reinen Lehre der qualitativen Forschungsmethodologie nicht völlig im Einklang steht. Die Leitfragen sollen aus diesem Grund so offen gehalten sein, dass die Untersuchungsteilnehmer ausreichend Möglichkeit haben, eigene Sinnzusammenhänge zu elaborieren bzw. eigene Schwerpunkte zu setzen. Der Leitfaden sollte daher nicht zu umfangreich sein und eher als Orientierung und weniger als ein strikter Ablaufplan gehandhabt werden (zum Dilemma der „Leitfadenbürokratie“ vgl. die frühen Ausführungen von Hopf 1978). Fragenreihenfolge und exakte Formulierungen werden nicht vorgegeben, sondern sollen sich möglichst harmonisch in den Gesprächsfluss, der v. a. durch den Untersuchungsteilnehmer bestimmt wird, einfügen. Die Befragten sollen zu möglichst ausführlichen Antworten ermutigt werden; auch sollte ihnen der Raum für offene Erzählungen gegeben werden. Nachfragen sind ein wichtiges Instrument der Gesprächslenkung (s. u.). Wie offen ein Leitfadeninterview tatsächlich ist, hängt von der Gestaltung durch den Interviewer ab bzw. von seiner Fähigkeit, den Befragten in ein Gespräch zu verwickeln, das diesen zu tiefgründigen Aussagen ermuntert. Dabei ist stets zu beachten, dass Fragen per se Aufforderungscharakter an die Interviewten haben und der Fragestil eine motivierte Teilnahme des Interviewten fördern soll. Es ist eine Kunst, die ‚richtigen‘ Fragen zum richtigen Zeitpunkt zu stellen. Fehler dabei sind unvermeidbar (was jeder Forschende spätestens bei der Transkription und Auswertung der Interviews feststellen wird); es kommt aber darauf an, mit Fragen in der Gesprächssituation bewusst und kontrolliert umgehen zu können. Faustregeln für Leitfäden sowie Fragen in offenen und semi-offenen Interviews (vgl. Dörnyei 2007: 136 – 138, Helfferich 2011: 102 – 114, Kvale 2007: 60 – 65) Leitfäden • sollen nicht zu lang sein, d. h. es sollen nicht zu viele Fragen vorgesehen werden; • sollen formal so gestaltet sein, dass sich Interviewer während des Interviews leicht darin zurechtfinden: Fragen sollen auf keinen Fall vorgelesen werden;

164

5. Forschungsverfahren

• sollen thematische Sprünge vermeiden; • können vorformulierte Fragen, Aufrechterhaltungsfragen und Nachfragen enthalten, auf die der Interviewer im Bedarfsfall zurückgreifen kann;

• im Leitfaden vorgesehene Einzelfragen sollen immer zugunsten spontan gelieferter Erzählungen zurückgestellt werden;

• müssen zu Beginn des Interviews um Erlaubnis für die Aufzeichnung des Gesprächs bitten; • sollten die Möglichkeit einer selbstreflexiven Abschlussäußerung des Untersuchungsteilnehmers eröffnen (z. B. „Möchten Sie noch etwas sagen, wonach ich nicht gefragt habe?“).

Fragen • sind stets verständlich, widerspruchsfrei und möglichst kurz zu halten (keine Fremdwörter oder Fachausdrücke). Diese Regel ist doppelt zu beachten, wenn die Sprache des Interviews nicht die L1 der Befragten ist; • sollen nicht nur mit ja oder nein zu beantworten sein; • sollen nicht als geschlossene Fragen gestellt werden; • sollen nicht zu viele Aspekte auf einmal ansprechen; • Insbesondere Nachfragen sollen möglichst nicht mit „warum“, „wieso“, „weshalb“ beginnen, da sie als indirekte Kritik verstanden werden können oder zu vorschnellen Ursache-WirkungsZusammenhängen einladen; • Insbesondere erzählgenerierende Fragen sind daraufhin zu prüfen, ob sie Präsuppositionen, also Vorannahmen, enthalten; • Aufrechterhaltungsfragen sollen keine neuen inhaltlichen Impulse liefern, sondern zu weiteren Elaborationen führen (z. B. „Können Sie das etwas genauer erzählen?“, „Wie war diese Situation für Sie?“) oder die Erzählung voranbringen (z. B. „Wie ist es dann weitergegangen?“); • Steuerungsfragen können das Gespräch wieder zum Thema zurückführen, indem z. B. ein bereits gefallenen Stichwort aufgegriffen oder ein vorher fallengelassenes Thema wieder eingebracht wird; • Nachfragen sorgen für die Tiefgründigkeit und Reichhaltigkeit der Daten, indem z. B. um Erläuterungen und Beispiele gebeten wird (z. B. „Ich bin unsicher, ob ich das richtig verstanden habe; können Sie das bitte noch einmal erklären?“, „Können Sie bitte ein Beispiel geben?“), Zusammenhänge hergestellt werden (z. B. „Wie kommen Sie jetzt auf diesen Punkt?“) sowie die Genauigkeit oder Vollständigkeit überprüft wird (z. B. „Ich versuche mal zusammenzufassen, was Sie bisher gesagt haben …“; „Sie haben also aus folgenden Gründen damals mit dem Lernen der deutschen Sprache begonnen …?“); • Themen, die vom Interviewten nicht selbstständig angesprochen werden, sollten behutsam eingebracht werden; • Besondere Vorsicht ist bei Tabu-Fragen angezeigt. Abbildung 3: Faustregeln für die Erstellung von Fragebögen

In den Sozialwissenschaften werden weitere Interviewvarianten unterschieden, die in der Regel ebenfalls Leitfäden vorsehen und daher den semi-offenen Verfahren zuzuordnen sind. Ihre Unterschiede liegen weniger in ihrer methodischen Ausrichtung, die je nach Begründungs-

5.2.4 Befragung

165

zusammenhang auch flexibel gehandhabt werden kann, sondern eher in ihrer Zielsetzung (z. B. Untersuchung von spezifischen Problemlagen) und Berücksichtigung hervorgehobener Teilnehmergruppen (z. B. Experten). Auch in der Fremdsprachenforschung finden einige dieser Varianten zunehmend Verwendung. Das problemzentrierte Interview

Das problemzentrierte Interview (vgl. die ausführlichen und praxisorientierten Ausführungen bei Witzel 2000) konzentriert sich auf eine thematisch festgelegte „gesellschaftlich relevante Problemstellung“, deren „objektive Rahmenbedingungen“ vorab zur Kenntnis genommen werden (ebda: 2). Es beginnt mit einer erzählgenerierenden, offen gehaltenen und vorformulierten Einstiegsfrage an den Untersuchungsteilnehmer, ist dann im weiteren Verlauf aber dialogisch geprägt. Der Interviewer fragt detailliert und problembezogen nach, er sondiert, bilanziert und bringt weitere Themen ein, die vorab in einem Leitfaden fixiert werden. Um die Vergleichbarkeit der Interviews zu erhöhen, können gegen Ende des Gesprächs Fragen gestellt werden, die zentrale Aspekte des Themas betreffen, aber im Gesprächsverlauf nicht angesprochen wurden. Bereits vor Beginn des Interviews werden relevante demographische Variablen mit einem Kurzfragebogen eingeholt. Das fokussierte Interview

Als Variante kann das in den Sozialwissenschaften bereits länger zum Einsatz kommende fokussierte Interview (vgl. Merton/Kendall 1993) gelten, das sich thematisch auf ausgewählte Aspekte einer gemeinsamen Erfahrung der Untersuchungsteilnehmer bezieht, deren subjektive Sichtweisen und Reaktionen erhoben werden sollen. Fokussiert wird die nicht konstruierte, erlebte spezifische Erfahrung der Untersuchungsteilnehmer in Bezug auf den gewählten Gegenstand. Die Aufforderung, sich an ein bestimmtes Ereignis zu erinnern, bzw. ein Gesprächsstimulus eröffnet das Interview. Dies kann beispielsweise – auf den Fremdsprachenunterricht bezogen – eingesetzte Lehr-Lern-Materialien betreffen, welche vorab zur Konstruktion eines Gesprächsleitfadens einer Inhaltsanalyse unterzogen wurden. Der weitere Gesprächsverlauf wird nicht durch den Interviewer strikt gesteuert, der Leitfaden dient lediglich als Orientierungsrahmen. Von diesen an Leitfäden orientierten Interviewformen sind offenere Formen zu unterscheiden: das narrative Interview und die Gruppendiskussion. Das narrative Interview

Das narrative Interview setzt im Unterschied zu den leitfadengestützten Interviews nicht darauf, dass Themensetzungen und Impulse durch den Interviewer in das Gespräch eingebracht werden (können). In Idealform stellt es den Typ eines maximal offenen Interviews dar, der den Zielen und forschungsmethodologischen Erwägungen qualitativer Forschung am besten entspricht. Es stellt eine stärker monologisch geprägte, erzählgenerierende Interviewform dar, die in ihrem Hauptteil daraus besteht, dass auf der Grundlage einer vorformulierten Erzähl­ aufforderung durch den Interviewer der Befragte eine längere selbstgestaltete und selbstreflexive Stegreiferzählung produziert, die durch inhärente Gestalterschließungs-, Konden-

166

5. Forschungsverfahren

sierungs- und Detaillierungszwänge idealerweise konzise und reichhaltig ausfällt. Im zweiten Teil des Interviews, in dem Nachfragen zur Haupterzählung gestellt werden, sowie im dritten Teil, dem Bilanzierungsteil, bringt sich der Interviewer stärker ein (vgl. die praxisorientierten Ausführungen zum narrativen Interview bei Lucius-Hoene/Deppermann 2004). Das narrative Interview kommt insbesondere seit der Konjunktur soziokultureller Ansätze in der Fremdsprachenforschung häufiger zur Anwendung (vgl. exemplarisch Ohm 2004). Da narrative Interviews (insbesondere für die Stegreiferzählung) an die Untersuchungsteilnehmer hohe Verbalisierungs- und Reflexionsanforderungen stellen, die in vielen Fällen nicht vorausgesetzt werden können (z. B. aufgrund von Alter, Sprachkompetenz, Bildungshintergrund), werden in der Praxis häufig unterschiedliche Mischformen von Leitfadeninterview und narrativem Interview eingesetzt. Diese sehen dann z. B. längere Erzählphasen der Befragten vor. Wie eine dem Erkenntnisinteresse folgende sinnvolle Mischform aus erzählgenerierendem Interview und leitfadengestütztem, fokussiertem und problemzentriertem Interview aussehen kann, verdeutlicht die Studie von Ehrenreich (2004, insb. 150 – 156; s. Kapitel 7), die Erfahrungen längerer Auslandsaufenthalte angehender Englischlehrender untersucht. Die Gruppendiskussion

Die Gruppendiskussion (seltener als Gruppeninterview bezeichnet; engl. focus group interview) stellt eine Sonderform der qualitativen mündlichen Befragung dar (vgl. Barbour 2007, Daase/Hinrichs/Settinieri 2014: 115 – 119, Dörnyei 2007: 144 – 146), in der Gruppen (empfohlen werden mindestens sechs, maximal acht bis zwölf Personen) gemeinsam eine bis zwei Stunden über ein festgelegtes Thema diskutieren. Damit die Gesprächssituation nicht von gruppendynamischen Prozessen sowie stillschweigender Übereinkunft dominiert wird, sollten die Untersuchungsteilnehmer nicht Teil einer Realgruppe sein; das Gesprächsthema sollte sie aber als gruppenspezifisches Problem betreffen. Der Interviewer hat die Funktion eines Gesprächseröffners und Moderators, nach einer offen gestellten Einstiegsfrage sollte er sich stark zurückhalten und nur noch Zuhörersignale geben; Steuerung und Vorstrukturierung spielen insgesamt eine marginale Rolle. Gruppendiskussionen erlauben im Idealfall ökologisch valide und reichhaltige Daten; sie sind als Verfahren relativ unaufwändig, was aber nicht auf den Aufwand der zeitlichen Organisation, Datenaufbereitung und -analyse zutrifft. Dörnyei (2007: 145) empfiehlt die Erhebung von mindestens vier bis fünf Gruppendiskussionen, um einen ausreichend großen Datenkorpus zu erhalten. Alternativ kommen Gruppendiskussionen als ergänzende Methode auch im Rahmen von mixed-methods-designs zum Einsatz (vgl. Barbour 2007). Ein Beispiel hierfür stellt die Studie von Hochstetter (2011; s. Kapitel 7) zur diagnostischen Kompetenz von Englischgrundschullehrenden dar, bei der ergänzend zu Leitfadeninterviews sog. Gruppengespräche zur Gewinnung von individualisierten Aussagen von Lehrkräften zum reflexiven Abschluss einer längeren Untersuchungsphase durchgeführt werden. Tassinari (2010; s. Kapitel 7) setzt u. a. Gruppendiskussionen mit Experten (hier: Lehrkräften) ein, um kollektive Orientierungen zur Validierung eines entwickelten Modells autonomen Fremdsprachenlernens einschließlich seiner Deskriptoren zu erheben.

5.2.4 Befragung

167

Retrospektive Interviews

Eine Sonderform der mündlichen Befragung stellen retrospektive Interviews dar, mit denen Befragte im Nachgang zu einer Situation oder Handlung (z. B. Befragung von Lehrkräften zu Korrekturen im Fremdsprachenunterricht) aufgefordert werden, sich laut zu erinnern und dabei Erläuterungen und Interpretationen zu liefern. Solche Verfahren können von einer medialen Untersützung stark profitieren (im Idealfall mittels videographierten Auszügen oder zumindest Audioaufnahmen oder Gesprächstranskripten). Dabei erhobene Daten unterliegen wie alle introspektiven Daten methodologischen Einschränkungen, insbesondere was die Gedächtnisleistung und Verbalisierungsfähigkeit der Befragten betrifft. Retrospektive Interviews sind zu unterscheiden von Erhebungen, bei denen simultan zu mentalen oder interaktiven Handlungen Gedanken und Emotionen von Untersuchungsteilnehmern durch Lautes Denken an die Oberfläche gebracht werden sollen (vgl. hierzu Kapitel 5.2.5). Das Experteninterview

‚Quer‘ zu den aufgeführten Formen von Interviews liegt die in letzter Zeit verstärkt verwendete Form des Experteninterviews. In diesem Rahmen (vgl. Bogner/Littig/Menz 2014, Meuser/Nagel 2009, Meyer 2013: 37 – 57) werden Untersuchungsteilnehmer befragt, die für den gewählten Untersuchungsgegenstand als besonders kompetent gelten und soziale Repräsentanten des entsprechenden Handlungsfelds mit Gestaltungs- und Entscheidungsfunktionen sind. Ziel ist die Erhebung von Expertenwissen (Fakten-, Prozess- und Deutungswissen). Es wird u. a. zur Untersuchung organisationsstruktureller Themen (z. B. Lehrerbefragung zu Aspekten der Schulentwicklung) eingesetzt. Der Interviewer führt einen themenfokussierten Dialog und orientiert sich dabei in der Regel stark an einem Leitfaden; aber auch offenere Erzählimpulse durch den Interviewer sind möglich. Experteninterviews können als Einzelinterviews oder auch im Rahmen von Gruppendiskussionen durchgeführt werden. Zugangsprobleme bei der Rekrutierung von Untersuchungsteilnehmern sowie Steuerung und Status- bzw. Rollenklärung im Rahmen der Interviewdurchführung stellen besondere Herausforderungen dar. Interviewerverhalten

Wie bereits deutlich wurde, kommt dem Interviewer in Bezug auf die Vorbereitung und Gestaltung des Interviews eine besondere Verantwortung zu. Ein Interview unterliegt nicht den Kommunikationsregeln eines Alltagsgesprächs (vgl. Helfferich 2011: 46 – 48), bei dem die Beteiligten unterschiedliche Rollen abwechselnd übernehmen; es sollte aber gleichzeitig möglichst „natürlich“ sein – dies sind Anforderungen, die immer in einem gewissen Widerspruch bleiben. Die notwendigen Kompetenzen bringen unerfahrene Interviewer in der Regel nicht mit, sie müssen durch Training und v. a. Probe-Interviews eingeübt werden; auch die Beobachtung der Interviewführung erfahrener Forscher kann dies unterstützen. Schwerpunkte dabei sollten die Gestaltung der Intervieweröffnung sein (z. B. Was sind geeignete Eingangsfragen?), die Aufrechterhaltung des Gesprächsflusses inkl. der Fähigkeit, unter Zeitdruck passende Formulierungen zu finden (z. B. für Nachfragen und Vertiefungsfragen) sowie die Beendigung des Interviews (z. B. Sicherstellung, dass alles Wichtige aus Sicht der

168

5. Forschungsverfahren

Untersuchungsteilnehmer und auch in Bezug auf das Erkenntnisinteresse gesagt wurde). Eine besondere Herausforderung stellt das sogenannte „aktive Zuhören“ dar. Dies setzt eine Gesprächshaltung voraus, bei der der Interviewer eigene Mitteilungen, Bewertungen und Deutungen bei sich behält und sich völlig auf den Interviewpartner konzentriert, dem die Zeit und Ruhe für die Elaboration seiner persönlichen Sichtweisen gewährt und durchgängig Interesse daran signalisiert wird. Das Einbringen von Zuhörersignalen und Paraphrasen, das Ertragen auch längerer Pausen, und dann erst das Nachfragen sind hierfür förderlich (vgl. Helfferich 2011: 90 – 95). Insbesondere in leitfadengestützten Interviews ist darauf zu achten, dass nicht unbewusst durch das ‚interne Abhaken‘ des Leitfadens ein geschäftsmäßiger Stil entsteht (z. B. „Gut, danke. Ich habe da noch eine weitere Frage …“). 4 Stolpersteine

Es gilt der Grundsatz: Jede Befragung beinhaltet Befragungsfehler, die teilweise unvermeidlich sind, teilweise erst bei der Datenanalyse sichtbar werden. Aus solchen Fehlern kann man selbst (und auch die scientific community) für Folgeuntersuchungen lernen, sie sollten nicht verschwiegen und bei der Datenanalyse durchgängig reflektiert werden. Da es sich bei Befragungsdaten um Selbstauskünfte handelt, kann nie ganz ausgeschlossen werden, dass die Güte der Daten durch Selbstdarstellungseffekte (Wer gibt schon gern vermeintlich Negatives über sich preis?), schlichtes Nicht-Wissen, Über- oder Unterforderung, Unkonzentration, mangelnde Ausdrucksmöglichkeiten u. v. a. m. eingeschränkt ist. Typische Schwachstellen bei schriftlichen Befragungen

Trotz aller Sorgfalt bei der Erstellung ist die Pilotierung von Fragebögen notwendig. Wird darauf verzichtet, ist dies als forschungsmethodischer Mangel festzuhalten. Schwerpunkt der Überprüfung sollten die typischerweise auftretenden methodischen Schwächen wie die folgenden sein: Frageformulierungen, Positionseffekte (z. B. Ausstrahlungseffekte von sensiblen Fragen auf andere Fragen, bei Auswahlantworten werden häufig die erstaufgeführten Elemente gehäuft angekreuzt), Neigung von Untersuchungsteilnehmern, eher positiv, neutral oder negativ zu bewerten (engl. response set) – aber auch das Einsammeln von Rückmeldungen zum Layout und Länge sowie zur Administration des Fragebogens. Zum Stolperstein kann auch das Sampling der Untersuchungsteilnehmer werden (vgl. Kapitel 4.3). Wenn v. a. auf freiwillige Teilnahme durch Selbstselektion gesetzt wird (z. B. Meldung auf Aushänge und breite Versendung von Anfragen), kann dies Rücklaufverzerrungen bedeuten und das Ergebnis der Untersuchung insgesamt verfälschen, wenn nicht nachgewiesen werden kann, dass die zustande gekommene Stichprobe hinreichend repräsentativ ist. Auch wenn geringe Rücklaufquoten in den Sozialwissenschaften als normal gelten, so sollten doch – allein aus Gründen der Minimierung von Rücklaufverzerrungen gerade bei überschaubaren Teilnehmergruppen (z. B. Lernende oder Lehrende bestimmter Schulen) – keine Mühen gescheut werden, durch persönlichen Einsatz möglichst viele Teilnehmer zu bewegen, an der Befragung teilzunehmen. Nicht ausreichend große Stichproben werden auch dann zum Problem, wenn quantitative Datenanalysen (hier: Statistik) geplant sind: Eine Mindestgrenze von 50 auswertbaren Fragebögen bzw. bei multivariaten Verfahren von 100 Fragebögen wird als Faustregel angesehen (vgl. Dörnyei 2010: 62 – 63). Dass auch bei postalischer Versendung von

169 5.2.4 Befragung

5.2.4 Befragung

Fragebogen

individuell ↪ Leitfaden: ja / nein ↪ problemzentriert / fokussiert / narrativ

Interview

Gruppendiskussion (focus group interview)

Kontrolle der Erhebungssituation: hoch ─ gering ↪ Erhebung und Erhebungsinstrumente: standardisiert ─ nicht standardisiert ↪ Grad der Standardisierung der Fragen und Items: geschlossen ─ semi-offen ─ offen

größere Personengruppen schriftlich und mündlich anonym

mehrere Personen begrenzte Zeit ein Thema

Experteninterview themenfokussierter Dialog mit Repräsentantinnen des Handlungsfeldes

Prinzipien guter Interviewführung

!

+

reichhaltige, tiefgründige Daten, ausführliche Darlegung von Meinungen, Erfahrungen etc.

+

Strukturiertheit der Befragung, Festlegung der Fragen, präzise Formulierungen, Flexibilität im Einsatz Items ↪ Formulierung ↪ Reihenfolge der Fragen ↪ Antwortoptionen

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

170

5. Forschungsverfahren

Fragebögen gute Rücklaufquoten erreicht werden können, zeigt die Studie von Özkul (2011) zur Untersuchung der Berufswahlmotive von Anglistik-Lehramtstudierenden: Bei über 2500 verschickten (teilstandardisierten) Fragebögen konnten über 1700 Untersuchungsteilnehmer gewonnen werden; allerdings können Rücklaufverzerrungen aufgrund der unausgewogenen Beteiligung der Studierenden unterschiedlicher Bundesländer (Niedersachsen und Bayern sind überrepräsentiert) nicht ausgeschlossen werden. Typische Schwachstellen bei mündlichen Befragungen

Bereits oben wurde ausgeführt, wie wichtig das Training des Interviewerverhaltens und das Führen von Probeinterviews sind. Trotz bester Vorbereitung wird die Rolle des Interviewers in der konkreten Interviewsituation aber immer ambig bleiben und permanent ad hoc-Entscheidungen verlagen, die retrospektiv betrachtet als Fehler erscheinen. Interviewer sollen eine gute Gesprächsatmosphäre herstellen und – je nach spezifischem Format – mehr oder weniger ausgeprägt Zurückhaltung wahren, aber auch steuernd eingreifen sowie „auf Augenhöhe“ mit den Befragten kommunizieren. Nichtsdestotrotz bleibt die Situation asymmetrisch und die Rollenbeziehung zwischen Interviewer und Befragtem komplex; persönliche Merkmale des Interviewers (Alter, Geschlecht, Sprache, akademischer und kultureller Hintergrund, unbewusst repräsentierter Habitus qua Auftreten und Kleidung) verstärken dies. Auch solche Aspekte müssen bei der Interpretation der Daten reflektiert werden. Ein Aspekt semi-offener Interviews sollte im Vorfeld eines Interviews gesondert beachtet werden: Oft sind Leitfäden viel zu lang  – auch der Leitfaden muss sorgfältig erstellt und pilotiert werden. Eine gute Möglichkeit, wie Leitfäden sinnvoll erstellt werden können, liefert Helfferich (2011: 161 – 169) mit dem von ihr vorgeschlagenen SPSS-Prinzip (Sammeln – Prüfen – Sortieren – Subsumieren). Die von ihr vorgeschlagene Form des Leitfadens listet nicht einfach gruppierte Leitfragen auf, sondern weist inhaltlich bedeutsame Bezugspunkte aus und hält Vorformulierungen von allgemeinen Leitfragen, konkreten Fragen für Nachfragephasen sowie Aufrechterhaltungs- und Steuerungsfragen bereit, auf die während des Interviews zurückgegriffen werden kann. Und damit es gar nicht zum Stolperstein wird, sollte der Umgang mit technischen Geräten zum Datenmitschnitt gut geübt werden; es sollten immer Geräte-Alternativen vorgehalten werden, damit technische Störungen nicht zum Datenverlust führen. Nach der Aufnahme sollten sofort Sicherheitskopien angefertigt werden. Bei der Auswahl von Geräten ist zu erwägen, wie sehr sie aufgrund ihrer Größe störend wirken können. Weitere wichtige Parameter sind die Qualität der Ton- oder Videoaufnahme sowie die Dateiformate (So ist es günstig, wenn Daten in Form von wav-Dateien aufgenommen werden, die bei vielen Transkriptionssoftwares ohne Umformatieren und damit verbundenem Qualitätsverlust sofort eingesetzt werden können). Bei der Analyse qualitativer Interviewdaten (vgl. Kapitel 5.3.3 – 5.3.8) ist zu beachten, dass Tiefe und Reichhaltigkeit der Daten nicht durch (vorschnelle) Kategorisierung und Deduktion verloren gehen (vgl. Riemer 2007) – dies würde die Mühe der Datenerhebung konterkarieren!

5.2.4 Befragung

171

››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Bailey, Kathleen M. (1983). Competitiveness and Anxiety in Adult Second Language Learning: looking at and through the diary studies. In: Seliger, Herbert W./Long, Michael H. (Hg.). Classroom Oriented Research in Second Language Acquisition. Rowley: Newbury House, 67 – 103. Bailey, Kathleen M./Ochsner, Robert (1983). A methodological review of the diary studies: windmill tilting or social science? In: Bailey, Kathleen M./Long, Michael H./Peck, Sabrina (Hg). Second Language Acquisition Studies. Rowley, MA: Newbury House, 188 – 198. Barbour, Rosaline (2007). Doing Focus Groups. Los Angeles: Sage. *Biebricher, Christiane (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Bogner, Alexander/Littig, Beate/Menz, Wolfgang (2014). Interviews mit Experten. Eine praxisorientierte Einführung. Wiesbaden: Springer VS. Daase, Andrea/Hinrichs, Beatrix/Settinieri, Julia (2014). Befragung. In: Settinieri, Julia/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 103 – 122. Doff, Sabine (Hg.) (2012). Fremdsprachenunterricht empirisch erforschen: Grundlagen – Methoden – Anwendung. Tübingen: Narr. Dörnyei, Zoltán (2007). Research Methods in Applied Linguistics. Oxford: University. Dörnyei, Zoltán (with contributions from Tatsuya Taguchi) (2010). Questionnaires in Second Language Research. Construction, Administration, and Processing. Second edition. New York: Routledge. *Edmondson, Willis J. (1997). Sprachlernbewußtheit und Motivation beim Fremdsprachenlernen. In: Fremdsprachen Lehren und Lernen 26, 88 – 110. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Das assistant-Jahr als ausbildungsbiographische Phase. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Friebertshäuser, Barbara/Langer, Antje (2010). Interviewformen und Interviewpraxis. In: Friebertshäuser, Barbara /Langner, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. vollständig überarbearbeitete Auflage. Weinheim: Juventa, 379 – 396. *Gardner, Robert C. (1985): Social Psychology and Second Language Learning. The Role of Attitudes and Motivation. London: Arnold. Helfferich, Cornelia (2011). Die Qualität qualitativer Daten. Manual für die Durchführung qualitativer Interviews. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. *Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Hopf, Christel (1978). Die Pseudo-Exploration. Überlegungen zur Technik qualitativer Interviews in der Sozialforschung. In: Zeitschrift für Soziologie 7, 97 – 115. *Horwitz, Elaine K./Horwitz, Michael B./Cope, Joann (1986). Foreign language classroom anxiety. In: Modern Language Journal 70, 125 – 132. Kvale, Steinar (2007). Doing Interviews. Los Angeles: Sage. Lucius-Hoene, Gabriele/Deppermann, Arnulf (2004). Rekonstruktion narrativer Identität. Ein Arbeitsbuch zur Analyse narrativer Interviews. 2. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. Merton, Robert K./Kendall, Patricia L. (1993). Das fokussierte Interview. In: Hopf, Christel/Weingarten, Elmar (Hg.). Qualitative Sozialforschung. 3. Auflage. Stuttgart: Klett-Cotta, 171 – 204. Meuser, Michael/Nagel, Ulrike (2009). Das Experteninterview – konzeptionelle Grundlagen und methodische Anlage. In: Pickel, Susanne/Pickel, Gert/Lauth, Hans-Joachim/Jahn, Detlef (Hg.). Methoden der

172

5. Forschungsverfahren

vergleichenden Politik- und Sozialwissenschaft. Neue Entwicklungen und Anwendungen. Wiesbaden: VS Verlag für Sozialwissenschaften, 465 – 479. Meyer, Horst O. (2013). Interview und schriftliche Befragung. München: Oldenbourg. Ohm, Udo (2004). Zum Zweitspracherwerb von wirklichen Menschen im richtigen Leben. In: Deutsch als Zweitsprache 4, 47 – 64. *Özkul, Senem (2011). Berufsziel Englischlehrer/in. Berufswahlmotive der Lehramtsstudierenden in Anglistik/ Amerikanistik. München: Langenscheidt. [Referenzarbeit, Kapitel 7] Porst, Rolf (2014). Fragebogen. Ein Arbeitsbuch. 4. erweiterte Auflage. Wiesbaden: Springer VS. Riemer, Claudia (2007). Entwicklungen in der qualitativen Fremdsprachenforschung: Quantifizierung als Chance oder Problem?. In: Vollmer, Helmut J. (Hg.). Synergieeffekte in der Fremdsprachenforschung. Empirische Zugänge, Probleme, Ergebnisse. Frankfurt/M.: Lang, 31 – 42. *Riemer, Claudia (2011). Warum Deutsch (noch) gelernt wird – Motivationsforschung und Deutsch als Fremdsprache. In: Barkowski, Hans/Demmig, Silvia/Funk, Hermann/Würz, Ulrike (Hg.). Deutsch bewegt. Entwicklungen in der Auslandsgermanistik und Deutsch als Fremd- und Zweitsprache. Baltmannsweiler: Schneider-Verlag Hohengehren, 327 – 340. *Schmidt, Richard W./Frota, Sylvia Nagem (1986). Developing basic conversational ability in a second language: a case study of an adult learner of Portuguese. In: Day, Richard R. (Hg.). Talking to Learn: Conversation in Second Language Acquisition. Rowley, MA: Newbury House, 237 – 326. *Schmidt, Torben (2007). Gemeinsames Lernen mit Selbstlernsoftware im Englischunterricht. Eine empirische Analyse lernprogrammgestützter Partnerarbeitsphasen. Tübingen: Narr. (Anhang der Studie online, passwortgeschützt) [Referenzarbeit, Kapitel 7] *Tassinari, Giovanna (2010). Autonomes Fremdsprachenlernen. Komponenten, Kompetenzen, Strategien. Frankfurt/M.: Lang. [Referenzarbeit, Kapitel 7] Trautmann, Matthias (2012). Führen und Auswerten qualitativer Interviews – Grundlagenbeitrag. In: Doff, Sabine (Hg.) (2012), 218 – 231. Witzel, Andreas (2000). Das problemzentrierte Interview. In: Forum Qualitative Sozialforschung/Forum Qualitative Social Research 1(1), Art. 22,. [http://nbn-resolving.de/urn:nbn:de:0114-fqs0 001 228] (5. 3. 2015). Zydatiß, Wolfgang (2012). Fragebogenkonstruktion im Kontext des schulischen Fremdsprachenlernens – Grundlagenbeitrag. In: Doff, Sabine (Hg.), 115 – 135.

»»  Zur Vertiefung empfohlen Bogner, Alexander/Littig, Beate/Menz, Wolfgang (2014). Interviews mit Experten. Eine praxisorientierte Einführung. Wiesbaden: Springer VS. Die Monographie liefert viele grundlegende Hinweise und Tipps zur Durchführung sogenannter Experteninterviews. Sie weist auf Unschärfen sowie Varianten dieser Interviewform in der Sozialforschung hin und behandelt Zugangsfragen, die Vorbereitung und Durchführung der Erhebung sowie Fragen der Auswertung. Anders als in vielen Methodenhandreichungen in den Sozialwissenschaften beschäftigt sie sich auch mit Herausforderungen von Interviews in der Fremdsprache. Daase, Andrea/Hinrichs, Beatrix/Settinieri, Julia (2014). Befragung. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 103 – 122. Der Artikel in einer auf Deutsch als Fremd- und Zweitsprache fokussierten forschungsmethodischen Einführung behandelt die Grundlagen von empirischen Befragungsverfahren mit Schwerpunkt auf

5.2.5 Introspektion

173

Fragebogen, Interview und Gruppendiskussion. Er richtet sich an Leser mit wenigen Vorkenntnissen und bietet Aufgaben und dazugehörige Lösungsvorschläge. Dörnyei, Zoltán (with contributions from Tatsuya Taguchi) (2010). Questionnaires in second language research. Construction, administration, and processing. Second edition. New York: Routledge. Mit dieser Monographie liegt eine gut lesbare und fachspezifische Einführung in die forschungsmethodischen und -methodologischen Grundlagen von Fragebogenstudien vor. Schwerpunkte liegen auf Fragen der Konstruktion von Fragebögen sowie ihrem Einsatz, aber auch auf der Auswertung von Fragebogendaten. Viele hilfreiche Tipps und Beispiele werden gegeben. Helfferich, Cornelia (2011). Die Qualität qualitativer Daten. Manual für die Durchführung qualitativer Interviews. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. Die Monographie liefert gutes Handwerkszeug für alle, die vor der Herausforderung stehen, ein qualitatives Interview durchzuführen. Anders als in vielen eher forschungsmethodologisch orientierten Einführungen stehen hier Fragen der praktischen Interviewdurchführung (u. a. Vorbereitung und Organisation des Interviews, Gestaltung der Gesprächssituation, Strategien des Interviewers) im Vordergrund, wofür viele nützliche Hinweise und Reflexionsanlässe gegeben werden. Das Manual liefert auch Material für die Durchführung von Workshps zum Interviewer-Training. McDonough, Jo/McDonough, Steven (1997). Research methods for English language teachers. London: Arnold (daraus insbesondere: Chapter 11 „Asking Questions“, 171 – 188). In diesem Kapitel einer insgesamt für Forschungsnovizen empfehlenswerten Einführung werden wesentliche Grundlagen und Einsatzgebiete für Fragebögen und Interviews in der Fremdsprachendidaktik erläutert. Porst, Rolf (2014). Fragebogen. Ein Arbeitsbuch. 4. erweiterte Auflage. Wiesbaden: Springer VS. Die ausführliche und mit vielen Beispielen versehene Einführung in die Fragebogenkonstruktion bietet sich hervorragend als Ergänzung zur stärker fachspezifischen Einführung von Dörnyei (2010) an. Viele Hinweise betreffen auch das strukturierte Interview bzw. sind auf dieses übertragbar.

5.2.5 Introspektion Lena Heine/Karen Schramm 1 Begriffsklärung

Der Begriff Introspektion wird in der Fremdsprachenforschung für die Bezeichnung von Datenerhebungsverfahren verwendet, bei denen Forschungspartner_innen durch lautes Aussprechen Einblicke in ihre Gedanken und Emotionen gewähren, die der Beobachtung normalerweise unzugänglich sind. Nach einem weiten Begriffsverständnis zählen hierzu alle Formen von Interviews und Tagebuchdaten, die ohne gezielten Bezug auf eine konkrete Handlung erhoben werden (vgl. Ericsson/Simon 1993: 49 – 62, Heine 2005, Knorr 2013: 32 für Terminologiediskussionen); in der Fremdsprachenforschung herrscht jedoch ein engeres Verständnis vor, so dass hier solche Verfahren als introspektiv bezeichnet werden, bei denen gezielt Daten bezüglich einer bestimmten (mentalen oder interaktionalen) Tätigkeit erhoben werden (z. B. Strategien beim Übersetzen, fremdsprachliche Schreibprozesse, Vorgehen beim

174

5. Forschungsverfahren

Lösen von Grammatikaufgaben, mündliche Kommunikations- und Kompensationsstrategien etc.). So kommt es, dass die Fremdsprachenforschung insbesondere Lautes Denken und retrospektive Verfahren wie stimulated recall und Lautes Erinnern unter introspektive Verfahren subsumiert. Bei diesen Verfahren werden während bzw. direkt im Anschluss an eine zu untersuchende Tätigkeit Daten erhoben (Heine 2013: 14, vgl. auch Dörnyei 2007: 147).7 Lautes Denken kann dabei in Anlehnung an Knorr/Schramm (2012: 185) definiert werden als „die aus dem Arbeits- oder Kurzzeitgedächtnis erfolgende simultane, ungefilterte Verbalisierung einer Person von Gedanken während einer (mentalen, interaktionalen oder aktionalen) Handlung“. Durch das unreflektierte laute Aussprechen von solchen Gedanken, die den Forschungspartner_innen beim Ausführen einer Tätigkeit durch den Kopf gehen, wird möglichst ohne Beeinflussung der betreffenden Tätigkeit versucht, Einblick in die mentalen Abläufe zu erhalten. Eng verwandt damit ist das Laute Erinnern, bei dem die Verbalisierung allerdings nicht simultan, sondern erst im Anschluss an die zu untersuchende Tätigkeit erfolgt; damit liegt kein unmittelbarer Zugang zu den Gedanken während der Tätigkeit mehr vor, da Erinnerungen aus dem Langzeitgedächtnis abgerufen werden, welche mit generellen Einstellungen, Selbstbild etc. verknüpft sind. Um dennoch so viele Gedanken aus der Erhebungssituation wie möglich zu reaktivieren, wird Lautes Erinnern häufig auf der Grundlage eines Videoimpulses bezüglich der zu untersuchenden Handlung (videobasiertes Lautes Erinnern) verwendet. Es kann grundsätzlich aber auch auf der Grundlage anderer Impulse (wie audiographischer oder visueller Daten sowie Tastaturprotokollen) oder aber auch ohne jeglichen Impuls erfolgen. Einen zweiten Typ retrospektiver Datenerhebung stellen neben dem Lauten Erinnern Befragungen dar, die im Anschluss an eine konkrete Handlung auf die entsprechenden mentalen Aktivitäten der Forschungspartner_innen abzielen. Die genannten drei introspektiven Verfahren – Lautes Denken, Lautes Erinnern und retrospektive Befragungen – sollen im Folgenden genauer beleuchtet werden. 2 Lautes Denken

Das Laute Denken basiert auf der Annahme, dass die Aktivierung von Gedächtnisinhalten in vielen Fällen unmittelbar mit einer verbalen Form assoziiert ist, die laut ausgesprochen werden kann (s. Abb. 1). Bringt man Forschungspartner_innen dazu, Inhalte des Arbeitsgedächtnisses während des Ausführens einer bestimmten Tätigkeit zu verbalisieren, so greift man auf die innere Sprache (inner speech) zu, die – anders als die private Sprache (private speech) im Wygotskianischen Sinne – nicht selbstadressiert ist, so dass idealiter durch das laute Aussprechen auch keine Reflexion des eigenen Vorgehens angestoßen wird. Durch diese spontanen Äußerungen entsteht ein Verbalprotokoll, das typischerweise aus fragmentarischen und syntaktisch unverbundenen verbalen Daten besteht. Aus ihm kann rekonstruiert werden, worauf die Versuchsperson zu verschiedenen Zeitpunkten jeweils ihre Aufmerksamkeit gerichtet hat. 7 In Einzelfällen wird der Begriff Introspektion nicht als Oberbegriff, sondern mit Bezug auf das simultane Vorgehen als Pendant zum Begriff Retrospektion benutzt (vgl. Heine 2005).

5.2.5 Introspektion

175

Abbildung 1: Lautes Denken als lautes Aussprechen von verbalen Assoziationen von Gedanken (nach Ericsson/Simon 1987: 33)

Dies bedeutet u. a., dass auf der Grundlage Lauten Denkens nur solche Gedankengänge analytisch rekonstruiert werden können, die im Arbeitsgedächtnis verarbeitet wurden; automatisierte Prozesse sind dagegen nicht zugänglich. Für Datenerhebungen ist es daher von zentraler Wichtigkeit nur solche Aufgaben und Erhebungsstimuli einzusetzen, durch die auch tatsächlich mental zugängliche und potentiell mit einer verbalen Form verbundene Abläufe angeregt werden. So eignen sich beispielsweise stark motorisch geprägte Anforderungen eher weniger, weil hier für eine Verbalisierung erst in einem künstlich hervorgerufenen Suchprozess Worte gefunden werden müssten, die normalerweise nicht mitaktiviert würden. Besser eignen sich Anforderungen, bei denen eine verbale Ebene automatisch aktiv wird, wie etwa das Verfassen von Texten oder das Betrachten von Abbildungen. Beim Lauten Denken ist daneben auch davon auszugehen, dass grundsätzlich viel weniger verbalisiert werden kann als gedacht wird, u. a. weil mehrere Prozesse parallel ablaufen. Die Möglichkeiten der quantitativen Auszählung von Phänomenen in Lautdenkdaten werden durch diesen Aspekt relativiert. Ein Risiko für die Validität von Daten Lauten Denkens besteht weiterhin darin, dass Forschungspartner_innen bewusst oder unbewusst Informationen kommunizieren, die durch die Erhebungssituation generiert worden sind, etwa indem sie angenommenen Erwartungen seitens des Forschenden zu entsprechen versuchen (Rossa 2012 spricht in diesem Zusammenhang von „Konfabulation“) und damit ihre Gedanken gegenüber einer stillen Bearbeitung verändern. Die Referenzarbeit von Arras (2007) illustriert die zentralen Komponenten einer Datenerhebung durch Lautes Denken: den sorgfältig formulierten Impuls zum Lauten Aussprechen, das Training darin, die Rückmeldung der/des Forschenden zu der Trainingsphase und das zurückhaltende Eingreifen während des Lauten Denkens (s. dazu genauer Heine/Schramm 2007). Arras (2007: 499) dokumentiert auch die von ihr verwendeten Instruktionen zum Verfahren des Lauten Denkens. Aufgrund der Tatsache, dass sie das Laute Denken audiographisch dokumentiert, bittet sie ihre Forschungspartner_innen, ebenfalls zu verbalisieren, welches Material (z. B. Lernertext oder Bewertungsrichtlinien) sie jeweils fokussieren; so vermischen sich in diesem Fall Lautdenkdaten mit Kommentierungen durch die Forschungspartner_innen. Da Forschende in der Regel bemüht sind, solche Konfundierungen zu vermeiden, wäre im Fall von videographischen Dokumentationen eine Aufforderung zum

176

5. Forschungsverfahren

Zeigen auf fokussierte Textstellen vorteilhafter als die Aufforderung zur verbalen Kommentierung. In der Regel wird in der forschungsmethodischen Diskussion zusätzlich vor dem Training auch die Darbietung eines (Video-)Beispiels oder ein Modellieren des Lauten Denkens seitens des/der Forschenden empfohlen (s. Heine/Schramm 2007: 178, Bowles 2010: 117). Weiterhin ist bei fremdsprachendidaktischen Studien mit Lernenden – anders als bei Arras Testbewertenden – die Wahl der Verbalisierungssprache(n) genau zu reflektieren, denn da Studien in der Fremdsprachenforschung in der Regel mit mehrsprachigen Individuen arbeiten, stehen auch immer mindestens zwei Sprachen für eine Verbalisierung zur Verfügung, die sich jedoch im Beherrschungs- und Automatisierungsgrad und der Art der Verknüpfung mit konzeptuellen Inhalten unterscheiden können (vgl. Heine 2014). U.a. ist davon auszugehen, dass Mehrsprachige auch gedanklich zwischen ihren Sprachen wechseln. Wird nun eine Sprache für die Verbalisierung vorgegeben, kann dies zu Suchprozessen beim lauten Aussprechen und damit zu Veränderungen der ablaufenden Gedanken führen. In Arras’ (2007: 188) Studie erwiesen sich alle vier Probandinnen als „sehr geeignet für das Laut-Denk-Verfahren“. Dies ist jedoch nicht generell für alle Forschungspartner_innen zu erwarten, da verschiedene Menschen ihre Gedanken offenbar unterschiedlich stark mit verbalen Formen verknüpfen. So zeigen die Ergebnisse in Heine (2010), dass dieselbe LautdenkAnforderung für manche Individuen sehr natürlich, für andere dagegen schwer sein kann und dass Lautes Denken von einer hohen Dynamik geprägt ist, was den Grad der Reaktivität der Methode anbelangt – streckenweise weitgehend automatisiert verbalisierende Personen, die völlig versunken in die Aufgabe sind und sich nicht auf das laute Aussprechen konzentrieren, können zu anderen Zeitpunkten durchaus wieder mehr Aufmerksamkeit auf die Tatsache lenken, dass sie sich in einer Erhebungssituation befinden, und dann wieder verstärkt metakognitive und an die/den Forscher_in adressierte Äußerungen einfließen lassen, die sie bei einer stillen Bearbeitung der Anforderung nicht hätten denken müssen. Es lassen sich damit kaum grundsätzliche Pauschalaussagen vom Typ „Lautes Denken ist keine reaktive Methode“ (wie etwa Bowles 2010 es versucht) oder „Probandin X ist ein verbaler Typ und verbalisiert immer automatisiert“ machen. Dies deutet darauf hin, dass die mittels dieser Methode erhobenen Daten stets genau betrachtet und in der jeweiligen Auftretenssituation kritisch eingeschätzt werden müssen. 3 (Videobasiertes) Lautes Erinnern

Beim Lauten Erinnern verbalisieren Forschungspartner_innen nicht simultan, sondern werden im Anschluss an die zu untersuchende Tätigkeit gebeten, sich in die jeweilige Situation zurückzuversetzen und sich an ihre Gedanken dabei zu erinnern. Hier erfolgt die Verbalisierung der Kognitionen damit nicht direkt aus dem Arbeitsgedächtnis, sondern diese müssen zuvor aus dem Langzeitgedächtnis aktiviert werden. Dieser Prozess kann während der Ausführung einer durch Lautes Erinnern immer wieder unterbrochenen Handlung erfolgen (bspw. beim Lesen das Stoppen nach jedem dritten Absatz, on-line retrospection) oder nach Beendigung der Handlung (bspw. nach der Lektüre eines gesamten Textes, off-line retrospection). In der Regel wird mit Blick auf die Gefahr einer abnehmenden Erinnerungsfähigkeit empfohlen, das Laute Erinnern möglichst noch am selben Tag der zu untersuchenden Handlung, spätestens aber innerhalb von 24 Stunden durchzuführen.

5.2.5 Introspektion

177

Wie auch beim Lauten Denken wird beim Lauten Erinnern in der Regel eine Demonstration, möglicherweise auch ein Training, sowie eine Reflexion bezüglich der Verbalisierungssprache(n) und eine standardisierte Instruktion empfohlen (vgl. Knorr/Schramm 2012: 192 – 195). Werden Prozessdaten wie Audio- und Videoaufnahmen oder Tastaturprotokolle als Stimulus für die Erinnerung verwendet (vgl. Gass/Mackey 2000), können die Forschungspartner_innen entweder selbst die gesamte Prozessdokumentation an für sie relevanten Stellen zur Verbalisation ihrer Erinnerungen stoppen oder es kann eine Auswahl an Stellen zum Lauten Erinnern herausgegriffen werden, wobei entweder die Versuchspersonen selbst oder der/die Forscher_in eine Auswahl treffen. Eine Auswahl bietet sich besonders für langwierige Handlungen an, stellt alle Beteiligten aber vor zeitliche Herausforderungen, da die Retrospektion wie oben erwähnt möglichst bald nach Abschluss der zu untersuchenden Kognitionen durchgeführt werden sollte. Abzuwägen sind dabei auch die Möglichkeiten einer forscherseitigen, gezielten Auswahl mit Blick auf das Untersuchungsinteresse auf der einen Seite und die Auswahl seitens der Forschungspartner_innen bzw. deren Eigentümerschaft (ownership) der Daten auf der anderen Seite. Letztere ist aus ethischen Gründen zu empfehlen, wenn die Forschungspartner_innen Wert auf die selbstbestimmte Auswahl legen. Sie führt darüber hinaus erfahrungsgemäß aber auch zu reichhaltigeren Daten, da die Betroffenen wissen, an welchen Stellen besonders intensive mentale Vorgänge stattfanden. Ein Beispiel für den Einsatz videostimulierten Lauten Erinnerns in einer DaF-Studie zu Handy-Videoprojekten ist unter methodischer Perspektive in Feick (2012) aufbereitet. Obwohl das Laute Erinnern auf die Wiedergabe der Kognitionen zum vergangenen Zeitpunkt der Handlung (there and then responses) zielt, mischen sich in der Praxis durchaus aber nachträgliche Reflexionen (here and now responses) mit den erinnerten Gedanken, was analytisch zu identifizieren und zu berücksichtigen ist (vgl. Knorr/Schramm 2012). Andere Untersuchungen richten ihr Augenmerk gerade auf die Reflexionen, die sich im Rückblick ergeben, so beispielsweise Raith (2011) bei der Untersuchung von Lehrkompetenzen von Englischreferendaren. Er nutzt Tagebücher der angehenden Lehrkräfte, um deren Reflexionen bezüglich bestimmter Unterrichtsereignisse zu erfassen, und wertet diese  – wie auch die Interviews mit den Betroffenen  – inhaltsanalytisch im Sinne einer Datentriangulation zu Validierungszwecken aus. Derartige Studien zur reflection-on-action im Gegensatz zu der durch Lautes Erinnern angezielten (aus dem Langzeitgedächtnis reaktivierten) reflectionin-action fallen zwar unter einen weiten, nicht aber den hier gewählten engen Begriff von Introspektion. 4 Retrospektive Befragung

Unter dem (engen) Begriff der Introspektion wird neben dem Lauten Denken und dem Lauten Erinnern auch die retrospektive Befragung von Forschungspartner_innen im Hinblick auf ihre Kognitionen in Bezug auf eine spezifische Handlung subsumiert.8 Die Referenzarbeit von Arras (2007) illustriert eine solche retrospektive Befragung, die in Triangulation mit 8 Befragungen, die sich nicht auf eine spezifische Handlung (die in der Regel nicht länger als 24 Stunden zurückliegt), sondern allgemein auf Erfahrungen mit einer bestimmten Art von Handlung beziehen (s. als Beispiel die Referenzarbeit bzw. Interviewstudie von Ehrenreich 2004), sind diesem engen Begriffsverständnis nicht zuzurechnen (vgl. auch Kapitel 5.2.4 zur Befragung).

178

5. Forschungsverfahren

den oben erwähnten Laut-Denk-Daten vorgenommen wurde. Die Autorin charakterisiert die Interviews, die sie jeweils einen Tag nach dem Lauten Denken durchführte, als problemzentrierte semistrukturierte Interviews von 90 – 140 Minuten mit dem Ziel, zum einen „zu besonders relevanten oder unklar gebliebenen Stellen des Laut-Denken-Protokolls weitere bzw. erhellende Informationen zu erhalten“ und zum anderen „anhand [der] Notizen aus den Laut-Denken-Sitzungen Fragen zu Besonderheiten zu stellen, um auch in dieser Hinsicht weitere Informationen oder Verifikation von Hypothesen zu erhalten“ (Arras 2007: 189 – 190). Auch Eckerth (2002) setzt retrospektive Interviews ein, mit denen interaktive Aufgabenbearbeitungsdaten trianguliert werden. Bei dem von ihm verwendeten Mehr-Methoden-Ansatz mussten über Nacht Transkripte der Prozessdaten erstellt werden, da diese als Stimulus für die retrospektiven Befragungen dienten. Eine andere Form der retrospektiven Befragung setzte Haudeck (2008) ein, die bei einer Untersuchung von Wortschatzstrategien von Englischlernern der Klassenstufen 5 und 8 innovative Audio-Tagebücher zum Einsatz bringt. Die elf offenen Fragen in ihrem Leitfaden des Audio-Tagebuchs (Haudeck 2008: 116) beziehen sich größtenteils konkret auf gerade erfolgte Vokabellernprozesse, wie beispielsweise die folgenden: „Wähle aus den Wörtern, die du heute gelernt hast, zwei aus und beschreibe, wie du versucht hast, sie dir einzuprägen.“ oder „Welche konntest du dir nur schwer merken? Was hast du dann gemacht?“. Auf dieser Grundlage konnte Haudeck (2008) ergiebige retrospektive Daten erheben und analysieren. 5 Potenzial introspektiver Daten

Die drei thematisierten introspektiven Datenerhebungsverfahren des Lauten Denkens, des Lauten Erinnerns und der retrospektiven Befragung sind in zahlreichen fremdsprachendidaktischen Studien zu kognitiven Prozessen mit einem hohen Grad an forschungsmethodischer Reflexion eingesetzt worden und haben substanzielle Ergebnisse erbracht, so dass pauschale, letztlich behavioristisch geprägte Bedenken gegenüber der Introspektion lange schon als unangemessen gelten können (zur Reaktivität der Methode s. bspw. Leow/Morgan-Short 2004 oder Bowles 2010). Introspektion hat sich für ein breites Spektrum an Forschungsfragen insbesondere als Teil von Mehrmethodendesigns als sinnvoll erwiesen, insbesondere wenn vielschichtige Zusammenhänge in komplexen Situationen untersucht werden sollen. Dennoch ist auch von pauschalen Positivurteilen bezüglich der Validität introspektiver Verfahren Abstand zu nehmen; vielmehr zeichnet sich ab, dass die durch Introspektion erhobenen reichhaltigen Datensätze im Detail zu analysieren sind und stets auch von einer streckenweisen Beeinflussung der Forschungspartner_innen durch die Datenerhebung auszugehen ist (vgl. Heine 2013). Diese kann wohl – selbst bei sorgfältig durchgeführter Erhebung – kaum vermieden werden und muss stattdessen bei der Analyse der Datensätze soweit wie möglich identifiziert und diskutiert werden. Notwendig hierfür ist ein grundlegendes Verständnis unterliegender kognitiver Prozesse und des Zusammenhangs zwischen Denken und Sprechen. Aktuelle forschungsmethodische Beiträge zur Introspektion wenden sich zunehmend der Frage zu, inwieweit die kognitionstheoretischen Postulate bezüglich der introspektiven Datenerhebungsverfahren aus einem soziokulturellen Paradigma oder der Perspektive der embodied cognition neu zu überdenken sind (z. B. Sasaki 2008, Feick 2013, Heine 2013, Knorr

179 5.2.5 Introspektion

5.2.5 Introspektion Lautes Erinnern stimulated recall

retrospektive Befragung

Ziel: Einblicke in normalerweise unzugängliche Gedanken und Emotionen Lautes Denken

Beantwortung von Interviewfragen zur Handlung (reflectionon-action), nach der Handlungssituation

OfflineRetrospektion

Verbalisierung von reflection-in-action aus dem Langzeitgedächtnis, nach der Handlung oder die Handlungssituation unterbrechend Online-/ OfflineRetrospektion

Verbalisierung von innerer Sprache aus dem Arbeitsgedächtnis, simultan zur Handlungssituation

inner speech

Introspektion im engeren Sinne Introspektion im weiteren Sinne

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

! Wahl der Impulse, Training der Methode, Wahl der Verbalisierungssprache, individuelle Unterschiede

Interviews

180

5. Forschungsverfahren

2013, Schnell 2013). Daneben wird auch verstärkt die theoretische Basis der Introspektion in Hinblick darauf ausgearbeitet, dass für den Bereich der Fremdsprachenforschung mehrsprachige und dynamische Modelle des mentalen Lexikons notwendig sind, um die verbalen Daten adäquat erheben und interpretieren zu können (vgl. Heine 2013, Heine 2014). ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.) (2013). Introspektive Verfahren und qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt a. M.: Lang. *Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen n der Fremdsprache am Beispiel der Prüfung Test Deutsch als Fremdsprache (TestDaF). Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Bowles, Melissa (2010). The Think-Aloud Controversy in Second Language Research. New York: Routledge. Dörnyei, Zoltán (2007). Research Methods in Applied Linguistics. Oxford: University Press. *Eckerth, Johannes (2002). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr. Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. [Referenzarbeit, s. Kapitel 7] Ericsson, K. Anders/Simon, Herbert A. (1987). Verbal reports on thinking. In: Færch, Claus/Kasper, Gabriele (Hg.). Introspection in Second Language Research. Clevedon: Multilingual Matters, 24 – 53. Ericsson, K. Anders/Simon, Herbert A. (1993). Protocol Analysis. Verbals Reports as Data. Revised edition. Cambridge, MA: MIT Press. *Feick, Diana (2012). Videobasiertes Lautes Erinnern als Instrument zur Untersuchung fremdsprachlicher Gruppenaushandlungsprozesse. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 202 – 212. *Feick, Diana (2013). „Sehen Sie sich Ines an.“ Zur sozialen Situiertheit des Videobasierten Lauten Erinnerns. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 54 – 73. Gass, Susan M./Mackey, Alison (2000). Stimulated Recall Methodology in Second Language Research. Mahwah, NJ: Lawrence Erlbaum Associates. *Haudeck, Helga (2008). Fremdsprachliche Wortschatzarbeit außerhalb des Klassenzimmers. Eine qualitative Studie zu Lernstrategien und Lerntechniken in den Klassenstufen 5 und 8. Tübingen: Narr. Heine, Lena (2005). Lautes Denken als Forschungsinstrument in der Fremdsprachenforschung. In: Zeitschrift für Fremdsprachenforschung 16/2, 163 – 185. *Heine, Lena (2010). Problem Solving in a Foreign Language. Berlin: Mouton de Gruyter. Heine, Lena (2013). Introspektive Verfahren in der Fremdsprachenforschung: State-of-the-Art und Desiderata. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 13 – 30. Heine, Lena (2014). Introspektion. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/GültekinKarakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Ferdinand Schöningh, 123 – 135. Heine, Lena/Schramm, Karen (2007). Lautes Denken in der Fremdsprachenforschung: Eine Handreichung für die empirische Praxis. In: Vollmer, Helmut Johannes (Hg.). Synergieeffekte in der Fremdsprachenforschung. Frankfurt a. M.: Lang, 167 – 206.

5.2.5 Introspektion

181

Knorr, Petra (2013). Zur Differenzierung retrospektiver verbaler Daten: Protokolle Lauten Erinnerns erheben, verstehen und analysieren. In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 31 – 53. Knorr, Petra/Schramm, Karen (2012). Datenerhebung durch Lautes Denken und Lautes Erinnern in der fremdsprachendidaktischen Empirie. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 184 – 201. Leow, Ronald P./Morgan-Short, Kara (2004). To think aloud or not to think aloud: The issue of reactivity in SLA research methodology. In: Studies in Second Language Acquisition 26(1), 35 – 57. *May, Lyn (2011). Interaction in a Paired Speaking Test: The Rater’s Perspective. Frankfurt am Main: Lang. *Raith, Thomas (2011). Kompetenzen für aufgabenorientiertes Fremdsprachenunterrichten. Tübingen: Narr. *Rossa, Henning (2012). Mentale Prozesse beim Hörverstehen in der Fremdsprache. Eine Studie zur Validität der Messung sprachlicher Kompetenzen. Frankfurt am Main: Lang. Sasaki, Tomomi (2008). Concurrent think-aloud protocol as a socially situated construct. In: International Review of Applied Linguistics in Language Teaching 46(4), 349 – 374. Schnell, Anna Katharina (2013). Lautes Denken im Licht der Embodied Cognition: neue Grenzen, neue Möglichkeiten in der Schreibprozessforschung? In: Aguado, Karin/Heine, Lena/Schramm, Karen (Hg.), 92 – 115.

»»  Zur Vertiefung empfohlen Bowles, Melissa (2010): The Think-Aloud Controversy in Second Language Research. New York: Routledge. In dieser Monographie wird ein Überblick zum Stand der Forschung zum Lauten Denken in der (englischsprachigen) Fremdsprachenforschung gegeben, wobei vor allem auf Fragen der Validität der Methode fokussiert wird. Heine, Lena/Schramm, Karen (2007). Lautes Denken in der Fremdsprachenforschung: Eine Handreichung für die empirische Praxis. In: Vollmer, Helmut Johannes (Hg.). Synergieeffekte in der Fremdsprachenforschung. Frankfurt a. M.: Lang, 167 – 206. Dieser Beitrag bietet einen Überblick über Fragen und Herausforderungen, die sich bei einer LautDenk-Studie im Vorfeld der Datenerhebung und während des Lautens Denkens ergeben. Weiterhin erfolgen detaillierte Überlegungen zur Transkription und einige Hinweise zur Auswertung von LautDenk-Daten. Knorr, Petra/Schramm, Karen (2012). Datenerhebung durch Lautes Denken und Lautes Erinnern in der fremdsprachendidaktischen Empirie. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 184 – 201. In diesem forschungsmethodischen Artikel werden zwei der hier thematisierten introspektiven Erhebungsverfahren, das Laute Denken und das Laute Erinnern, ausführlich dargestellt. Nach einer kurzen Begriffsklärung behandeln die Autorinnen Aspekte wie Instruktion, Demonstration, Training, Impulsdarbietung, Datenaufzeichnung, Verbalisierungssprache und Transkription ausführlich und reflektieren abschließend kurz die Grenzen beider Erhebungsverfahren.

182

5. Forschungsverfahren

5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung Verena Mezger/Christin Schellhardt/Yazgül Şimşek 1 Zur Unterscheidung von Erheben und Erfassen

Basis für die Analyse von Lernersprache (s. dazu Kapitel 5.3.7) ist immer die komplexe sprachliche Einheit, der Text. Dieser kann im Zusammenhang der nachfolgenden Ausführungen sowohl medial mündlich als auch schriftlich verfasst und/ oder dokumentiert worden sein. Somit beziehen wir uns hier auf eine sehr weite Definition des Begriffes „Text“, wie z. B. Linke/ Nussbaumer/Portmann (1991: 245): „Ein Text ist eine komplex strukturierte, thematisch wie konzeptuell zusammenhängende sprachliche Einheit, mit der ein Sprecher eine sprachliche Handlung mit erkennbarem kommunikativem Sinn vollzieht“. Im Folgenden werden die verschiedenen Möglichkeiten thematisiert, Texte von Lernenden zu erhalten, zu dokumentieren und für die Analyse vorzubereiten. Dabei unterscheiden wir grundsätzlich zwischen Erhebung und Erfassung von Lernersprache: Charakteristisch für die Erhebung ist die Tatsache, dass Forscher gezielt eine Situation schaffen, in der Lernende Sprache produzieren müssen, z. B. in einem Experiment oder in einem Sprachtest im Rahmen eines Forschungsprojekts wie z. B. DESI (siehe DESI-Konsortium 2008, Klieme/Beck 2007). Dabei ist die Produktion von Sprachdaten i. d. R. stark kontrolliert und gesteuert. Zur Erhebung gehören auch Techniken wie das sogenannte stimulated recall bzw. das stimulusbasierte Laute Erinnern, wobei authentische Aufnahmen des Unterrichts den Lernenden vorgespielt und zur Reflexion über ihre Sprachfähigkeiten und Lernprozesse genutzt werden (vgl. Kapitel 5.2.5). Erhebung wird von uns somit synonym mit dem in der Linguistik üblichen Begriff der Elizitierung verwendet. Ein Beispiel für die Erhebung von Lernerdaten liefert Eckerth (2003) in seiner Studie zu aufgabenbasierten Interaktionen. Den Kern seines Datenmaterials bilden forscherseitig initiierte Aufnahmen von Lerner-Lerner-Interaktionen während der gemeinsamen Lösung einer Aufgabe. Tests, die vor und nach der interaktiven Aufgabenlösung individuell mit den Lernenden durchgeführt wurden, und retrospektive Interviews ergänzen das ­Korpus. Im Gegensatz dazu bezeichnet die Erfassung von Lernersprache, dass der Forscher auf Produkte zugreift, die im Unterricht ohnehin entstehen, z. B. Klassenarbeiten oder Schülerpräsentationen (vgl. auch Kapitel 5.2.7). Ein Beispiel für die Erfassung von Lernersprache stellt die Arbeit von Méron-Minuth (2009) dar. Sie ist longitudinal angelegt und beobachtet die Schülerinnen und Schüler einer Klasse, die Französisch als erste Fremdsprache lernen. Der Unterricht wird in regelmäßigen Abständen über den Zeitraum von vier Jahren in Form von Videoaufnahmen dokumentiert. Diese Videoaufnahmen geben den Unterrichtsverlauf in seiner natürlichen Form wieder und die Forscherin bleibt in der Rolle der Beobachterin. Um die erfassten Daten zu ergänzen, werden aber auch zusätzlich Forscher- und Lehrerprotokolle erhoben. Die Studie von Dauster (2007) zum Frühen Fremdsprachenlernen Französisch kombiniert beide Verfahren: Sie greift zum einen auf einen Datensatz von 90 erfassten Unterrichtsstun-

5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung

183

den, zum anderen auf 23 für die Studie erhobenen mündliche Kurztests (sog. Père-Noël-Erhebungen) zurück. Grenzfälle zwischen Erheben und Erfassen ergeben sich dann, wenn Forscher Lehrkräfte darum bitten, in ihrem regulären Unterricht bestimmte lernersprachliche Produkte erstellen zu lassen oder, wie z. B. Bechtel (2003), den eigenen (Hochschul-) Unterricht auf die Erhebung bestimmter Daten hin ausrichten. Bei allen (Misch-) Formen von Erheben und Erfassen sind ethische Fragen, insb. die informierte Einwilligung der Lernenden, zu berücksichtigen (s. Kapitel 4.6). 2 Verfahren des Erhebens und Erfassens

Bei Erheben und Erfassen ist von grundsätzlicher Relevanz, ob es sich um schriftliche oder mündliche Daten handelt. Die Erfassung mündlicher Daten in Form von Ton- oder Videoaufnahmen ermöglicht, vom Forscher ungesteuert, eine Dokumentation natürlicher Unterrichtssituationen. Sie beinhaltet aber generell das Problem, dass der entsprechende Probandenkreis durch die Anwesenheit fremder Personen und technischer Geräte in seinem Handeln dahingehend beeinflusst werden kann, dass er sich beobachtet fühlt und sich möglicherweise entsprechend anders verhält (zum Phänomen des sogenannten Beobachterparadoxons vgl. Bergmann 2001, s. auch Kapitel 5.2.3). Formen der Erhebung, wie beispielsweise die videographische Dokumentation mündlicher Präsentationen, Diskussionen oder Rollenspiele, sind mündliche Diskursarten, die sowohl von der Lehrperson natürlich eingesetzt und vom Forscher beobachtet und erfasst werden können, als auch vom Untersuchenden selbst innerhalb einer Lernergruppe gesteuert einsetzbar sind. Der Fokus auf bestimmte Diskursarten ist häufig eng mit dem Forscherinteresse an bestimmten sprachlichen Strukturen verbunden, die in dieser Diskursart vermehrt zu erwarten sind. So wie bei der Gewinnung mündlicher Sprachdaten sollte auch bei der Erhebung bzw. Erfassung von schriftlichen Texten unbedingt beachtet werden, welche Textsorten sich für das Untersuchungsziel eignen und inwieweit das Wissen über Textmuster und Genres in die Forschungsfrage integriert werden soll. Dementsprechend wird für die erfolgreiche Erhebung einer bestimmten Textsorte eine Methode mit einer präzisen Aufgabenstellung gewählt, die für den Schreiber möglichst einen der Textsorte angemessenen Kontext aufbaut. So müsste z. B. bei einer E-Mail dem Probanden vorgegeben werden, an wen er schreiben soll (z. B. einen Freund oder den Vertreter einer Institution). Erst dann wird er in der Lage sein, adäquate sprachliche Mittel aus seinem Repertoire auszuwählen. Weiterhin ist bei der Erhebung von Texten in einer Fremdsprache ebenfalls der mögliche Einfluss kulturell bedingter kommunikativer Praktiken aus der Erstsprache zu bedenken und bei der Konzeption der Aufgabenstellung und der Analyse zu beachten.9 Ein weiterer Aspekt, der bei der Erhebung und Erfassung von Texten – unabhängig von der Textsorte – zu beachten wäre, ist die Frage danach, ob und wie Arbeitsprozesse bei der Entstehung von Texten festgehalten werden können. Die Erhebung oder Erfassung kann z. B. durch 9 Dies gilt auch für die Erhebung mündlicher Daten. Routinen der Gesprächsorganisation – sequenzielle Organisation von Bewertungen (vgl. Günthner 1993 u. 2001, Casper-Hehne 2008), Komplimente, Begrüßungen und ähnliche Routinen – sind potentielle Schablonen, die aus der Herkunftskultur übernommen werden können.

184

5. Forschungsverfahren

ein Portfolio mit allen Textentwürfen und -überarbeitungen oder durch Videoaufnahmen des Schreibprozesses ergänzt werden. Den Probanden sind dann entsprechende Anweisungen zu erteilen (wie etwa „Bitte nichts ausradieren, sondern durchstreichen.“). Insbesondere bei der Entstehung von Texten am PC oder beim Umgang mit Lernsoftware können für den Forscher sowohl non-verbale als auch verbale Kanäle relevant sein, so dass Videoaufnahmen nötig werden, die sowohl die Interaktionen der Lernenden als auch das Geschehen auf dem Bildschirm erfassen; vgl. dazu die Hinweise in der Referenzarbeit von Schart (2003) und in der Untersuchung von Schmitt (2007). Im Folgenden sollen einige Aufgaben, die in der neueren Forschung eingesetzt wurden, beispielhaft besprochen werden. Dies soll verdeutlichen, dass ein Szenario erforderlich ist, um Probanden einen möglichst natürlichen kommunikativen Kontext nahezulegen. So ist es möglich, auch in Bezug auf die sprachlichen Repertoires der Probanden möglichst aussagekräftige Daten zu erhalten. Bei den einzelnen Instrumenten der Datenerhebung sind zunächst die jeweiligen Aufgabenstellungen und die dafür jeweils geeigneten Stimuli relevant, wobei unter Stimulus der Anlass zu verstehen ist, den man dem Probanden gibt, damit er diesem Input entsprechend eine Handlung ausführen kann. Setzt man beispielsweise eine Bildergeschichte als Stimulus ein, kann die Aufgabe entweder lauten, dass der Proband die einzelnen Bilder in allen Einzelheiten wiedergeben soll (Reproduktion des Stimulus) oder dass er eine Geschichte erzählen soll (Aufbau eines Szenarios mit Hilfe des Stimulus). Innerhalb eines eher freieren Rahmens wie im zweiten Fall können die entstehenden Texte erhebliche Unterschiede in der Textstruktur und in den Inhalten aufweisen, was eine Auswertung und Analyse unter Umständen erschweren kann. Andererseits führt die größere Freiheit bei der Umsetzung der Aufgabe dazu, dass die Aufgaben von Probanden als natürlichen kommunikativen Zwecken ähnlicher wahrgenommen und die Lösungen entsprechend den eigenen Kompetenzen und Interessen produziert werden. Die Textsorten, die im Rahmen solch variabler Szenarien erhoben werden können, gehen auch über Erzählungen und Bildbeschreibungen hinaus; Berman und Verhoeven (2002) erheben beispielsweise auch expositorische Texte: Im sogenannten Spencer Project wird Schülerinnen und Schülern ein vierminütiger Stummfilm als Stimulus gezeigt, der unterschiedliche negative Schulereignisse (Mobbing, Spicken u. Ä.) szenisch darstellt. Anschließend sollen die Schüler die zweiteilige Frage beantworten, ob sie auch schon einmal Derartiges erlebt haben (Erhebung eines narrativen Textes) und was sie denn von derartigen Verhaltensweisen und Vorkommnissen halten (Erhebung eines expositorischen Textes). Innerhalb eines ähnlich freien Rahmens erheben Cantone und Haberzettl (2009) einen argumentativen Text, indem sie Probanden bitten, ihre Meinung zum Thema „Handyverbot in der Schule“ schriftlich zu formulieren. Je nachdem, wie das Szenario ausgestaltet wird, lassen sich unterschiedliche Textsorten erheben, an denen jeweils unterschiedliche sprachliche Merkmale untersucht werden können (weitere Beispiele für ein Erhebungsinstrument mit ähnlich freier Aufgabenstellung vgl. Knapp 1997 und Petersen 2012). Vergleichbare Szenarien lassen sich auch zunächst als mündliche Rollenspiele einführen, an die sich dann die Schreibaufgabe anschließt (vgl. Mayr/Mezger/Paul 2010). Macht man zusätzlich Audio- oder Videoaufnahmen solcher Rollenspiele, sind auch Analysen möglich, die die dialogischen Lösungen der Lernenden zu den schriftlichen Sprachprodukten in Beziehung

5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung

185

setzen. Dabei muss allerdings bedacht werden, dass komplexe Szenarien nicht in jeder Lerngruppe gleichermaßen gut umsetzbar sind, da Probanden Schwierigkeiten haben können, sich in Situationen hineinzuversetzen, mit denen sie in ihrem Alltag nicht vertraut sind. In solchen Fällen sind Ausweichlösungen zu finden, wie beispielsweise eine Inszenierung, in der man die Situation von Dritten spielen lässt (vgl. das Forschungsprojekt OLDER10). Hinweise zur Durchführung

Bei der Gewinnung von Daten, besonders im Schulkontext, sind einige rechtliche und organisatorische Hinweise zu beachten, die für das Gelingen des Projektes von entscheidender Bedeutung sein können. Hat der Forschende sich für eine Forschungsfrage und einen dazugehörigen Erhebungskontext entschieden, sollte zunächst ein detaillierter Ablaufplan erstellt werden. Besonders bei der Arbeit in Schulen ist zu beachten, dass dazu oftmals Genehmigungen bei Schulbehörden oder anderen dafür zuständigen Einrichtungen einzuholen sind. Diese sollten mit genügend Vorlaufzeit beantragt werden. Bei minderjährigen Probanden ist zudem eine Einverständniserklärung der Eltern vonnöten, genauso wie von allen Teilnehmenden die Genehmigung, die erhaltenen Daten für wissenschaftliche Zwecke verwenden und veröffentlichen zu dürfen. Führt man die Erhebung/Erfassung nicht selbst oder nicht alleine durch, ist darauf zu achten, die Mitarbeitenden entsprechend zu schulen. Gerade, wenn den Probanden eine Aufgabe gestellt wird, sollten die Formulierungen und das Szenario möglichst immer gleich sein (also auch schriftlich ausformuliert), um später eine maximale Vergleichbarkeit der Daten zu gewährleisten. Zudem sollte die Durchführung, falls möglich, vorher getestet und geübt werden. Eine solche Pilotierung verschafft dem Forschenden die Möglichkeit, Instrumente und Anweisungen auf ihre Funktionalität zu überprüfen und eventuell fehlende oder unklare Informationen zu überarbeiten. Grundsätzlich sollten alle Arbeitsmaterialien ausreichend vorhanden und technische Geräte auf ihre Funktionstüchtigkeit getestet werden. Es ist wichtig, sich auch auf den Fall vorzubereiten, dass die Geräte ausfallen könnten. Nach der Erhebung/Erfassung muss sichergestellt werden, dass die Daten schnell und in unterschiedlichen Formaten gesichert werden. Rechtzeitig sollte über Form und Art der Anonymisierung der gewonnenen Daten nachgedacht werden; diese ist auch bei der Lagerung der Originaldaten zu beachten. 3 Aufbereitung der gewonnenen Daten Datenbanken und Transkriptionssoftware

Bevor man beginnt, die gewonnenen Daten zu analysieren, müssen sie zunächst gesichert und verarbeitet werden. Gegenüber Kopien bietet sich das Scannen zur Datensicherung schriftlicher Texte besonders an, da sie somit digitalisiert sind und unter Umständen in den späteren Analyseprozess eingebunden werden können. Für eine detaillierte Analyse kann es jedoch auch notwendig sein, die Lernertexte in der vorgelegten Form möglichst originalgetreu 10 Forschungsprojekt OLDER = Orale und literale Diskursfähigkeiten – Erwerbsmechanismen und Ressourcen, unter der Leitung von Uta M. Quasthoff (2002ff); Projektbeschreibung unter http://home.edo.uni-​ dortmund.de/~older/Kurzbeschreibung.html (02. 09. 2015).

186

5. Forschungsverfahren

abzutippen. Bei Audio- und Videoaufnahmen gestaltet sich die Datensicherung schwieriger. Hier ist zunächst zu empfehlen, die Dateien auf mehreren Datenträgern (z. B. externe Festplatte, Server) zu sichern und diese dann weiter zu verarbeiten. Bei größeren Datenmengen empfiehlt sich der Gebrauch von Datenbanken. Dies gilt insbesondere für die meist umfangreichen Meta-Datensätze, wie z. B. Angaben zu Alter, Sprachlerndauer und Erhebungskontext. Mit Hilfe der heutzutage einfach zu erstellenden Datenbanken kann man die Daten nach präzise auf das Forschungprojekt abgestimmten Kriterien durchsuchen. Ein solches Datenbanksystem stellt die kommerzielle Datenbanksoftware FileMaker dar, die Waggershauser (erscheint) in ihrer ethnographischen Untersuchtung russischer Zweitsprachenlernender bespielsweise dazu nutzt, im Alltag von Integrationskursteilnehmenden erfasste literale Artefakte zusammen mit ihren entsprechenden Beobachtungsnotizen digital aufzubereiten. Durch umfassende einfache und kombinierte Suchabfragen und Gestaltungsmöglichkeiten können umfangreiche Informationen ausgewertet werden. Das Programm erlaubt den In- und Export von Daten in gängigen Datenformaten und ist somit flexibel. Die sehr aufwändige Arbeit des Transkribierens (siehe Kapitel 5.3.6 sowie auch Mempel/ Mehlhorn 2014) kann durch die Nutzung von Transkriptionssoftware erleichtert werden, die zu großen Teilen auch frei zugänglich ist. Allen gemeinsam ist die Einbindung eines Audiooder Videopanels und eines Texteditors in einer Benutzeroberfläche. Die verschiedenen Programme unterscheiden sich unter anderem hinsichtlich der bearbeitbaren Datenformate, der Kompatibilität mit anderen Programmen, den Ausgabeformaten und der Möglichkeit der Einbindung in Analyseprogramme (vgl. Moritz 2011: 28). Im Folgenden sollen einige in der fremdsprachendidaktischen Forschung eingesetzte Transkriptionsprogramme vorgestellt werden. Darüber hinaus bietet das Gesprächsanalytische Informationssystem GAIS Informationen und Hinweise von der Aufnahme der eigenen Daten bis hin zur Korpuserstellung.11 Das Transkriptionsprogramm F4 bzw. F5 unterstützt das Transkribieren von Audio- oder Videodateien. Das Audiopanel ermöglicht die einfache Handhabung des Datenmaterials durch eine variable Abspielgeschwindigkeit und frei wählbare Rückspulintervalle. Das Einfügen von Zeitmarken ermöglicht den schnellen Rückbezug zum Datenmaterial. Dieses Programm ist inbesondere für grobe Transkiptionen geeignet. Bei FOLKER handelt es sich um eine Transkriptionssoftware, welche von Thomas Schmidt für das Projekt „Forschungs- und Lehrkorpus gesprochenes Deutsch“ des Instituts für deutsche Sprache Mannheim (IDS) entwickelt wurde. Es stellt eine Benutzeroberfläche zur Transkription ausschließlich auditiver Daten nach der Transkriptionskonvention GAT212 dar. Dabei hat der Nutzer die Wahl zwischen der für GAT typischen Segmentschreibung oder der Partiturnotation. Die Implementierung eines Audioplayers sowie die Darstellung des Sprachsignals durch ein Oszillogramm ermöglichen eine präzise Auswahl von Zeitmarken und zu transkribierender Segmente. Die weitere Bearbeitung des Datenmaterials durch linguistische Annotationen ist allerdings nicht vorgesehen (vgl. Schmidt/Schütte 2011: 5). Andere Programme stellen sogenannte Mehrzweckeditoren dar, die nicht nur eine Oberfläche zur Transkription anbieten, sondern gleichzeitig die technischen Rahmenbedingungen 11 Siehe http://prowiki.ids-mannheim.de/bin/view/GAIS/ (01. 09. 2015). 12 Für Informationen zu GAT2 siehe Kapitel 5.3.6 und Selting/Auer 2009.

5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung

187

zu weiteren Analysen bereitstellen. Im Folgenden werden die am weitesten verbreiteten Mehrzweckeditoren vorgestellt. ELAN ist das Transkriptions- und Annotationsprogramm des Max-Planck-Instituts für Psycholinguistik der Universität Nijmegen und wurde speziell zur Verarbeitung und Analyse multimodaler Daten entwickelt (vgl. Tacchetti 2013: iv). Die Transkription wird gemäß der HIAT-Konventionen durchgeführt (vgl. Moritz 2011: 29, Rehbein et al. 2004 sowie Kapitel 5.3.6). ELAN stellt über die reine Transkriptionsoberfläche hinaus eine Struktur zur linguistischen Analyse bereit, mittels derer beliebig viele Spuren für Annotationen angelegt werden können, die voneinander abhängig sein oder auf einander bezogen werden können (vgl. Tacchetti 2013: 16). Das CHILDES-System wurde im Rahmen des CHILDES-Projektes unter Leitung von Brian MacWhinney entwickelt. Dabei handelt es sich um ein dreiteiliges System, welches zur Transkription, Analyse und Korpusverwaltung Werkzeuge zur Verfügung stellt. Für die Erstellung der Transkripte und Annotation des Sprachmaterials wird die Transkriptionskonvention CHAT genutzt. Die in CHAT erstellten Transkripte können mittels des CLAN-Analyse Werkzeugs in die Datenbank aufgenommen werden (vgl. MacWhinney 2000: 9). EXMARaLDA ist ebenfalls ein System verschiedener Werkzeuge zur Transkription und Annotation gesprochener Sprache sowie der Korpuserstellung und -abfrage. Es besteht aus dem Partitur Editor, der mit dem implementierten Audioplayer sowie dem integrierten Oszillogramm die Transkription des Datenmaterials sowohl nach den verschiedenen gängigen Transkriptionskonventionen sowie beliebig viele Annotationen ermöglicht. Der Corpus Manager (COMA) unterstützt die Erstellung von Korpora aus EXMARaLDA-Transkripten und die Anreicherung der Sprachdaten mit den unterschiedlichsten Metadaten. COMA ermöglicht aber auch die Erstellung von Korpora, die aus mit FOLKER, ELAN oder CHAT hergestellten Transkriptionen bestehen (vgl. Schmidt 2010: 9 – 10). Mittels des Suchwerkzeugs EXAKT lassen sich Korpora nach sprachlichen Phänomenen in den transkribierten und annotierten Spuren durchsuchen (vgl. Schmidt 2010). Zur Aufbereitung von Videomaterial ist das Programm Transana besonders geeignet. Dafür hält die an der Universität Wisconsin-Madison entwickelte Analysesoftware ausführliche Bearbeitungs- und Verwaltungsmöglichkeiten bereit. Audiofiles und Videos können in für die Analyse relevante Clips geschnitten werden und anschließend je nach Bedarf passend zusammengestellt werden. Die Option einer Team-Version ermöglicht eine direkte und einfache Zusammenarbeit von Projektgruppen. Während die genannte Transkriptionssoftware in der Regel für linguistische Fragestellungen genutzt werden, bietet sich für das thematische Kodieren von inhaltlichen Aspekten der Lernersprache das Programm MAXQDA an. In den neueren Versionen kann man die Videotranskripte durch Zeitmarken mit den Videofilmen verknüpfen. Korpuserstellung und -verwaltung

Sind die gewünschten Daten elizitiert und verarbeitet worden, kann man sie zu einem Korpus zusammenstellen. Bei einem Korpus handelt es sich prinzipiell um eine „[e]ndliche Menge von konkreten sprachlichen Äußerungen, die als empirische Grundlage für sprachwiss[enschaftliche] Untersuchungen dienen.“ (Bußmann 2008: 378). Dabei bilden Größe, Inhalt, Be-

188

5. Forschungsverfahren

ständigkeit und Repräsentativität die wichtigsten Kriterien zum Aufbau eines eigenen Korpus (vgl. Scherer 2006: 5 – 10). Wie das eigene Korpus konkret beschaffen ist, hängt vor allem von der eigenen Fragestellung ab (vgl. Bußmann 2008: 378, Scherer 2006: 56). Unter Berücksichtigung der Parameter, die man im Rahmen der Untersuchung miteinander vergleichen möchte, kann die Bildung von sogenannten Subkorpora nützlich sein. Dabei handelt es sich um Teile des Gesamtkorpus, die anhand ausgewählter Metadaten extrahiert wurden. Möchte man beispielsweise die Lernprogression von Lernenden des Englischen im Rahmen des Fremdsprachenunterrichts untersuchen und liegen Daten von Lernenden vor, die unterschiedlich lange Unterricht in dieser Sprache erhalten haben, dann könnte die Dauer des Fremdsprachenunterrichts ein wesentliches Kriterium zur Bildung von Subkorpora sein. Grundsätzlich sollte kritisch überlegt werden, ob sich der Aufwand der Einrichtung von Teilkorpora für die Beantwortung der Forschungsfrage lohnt (vgl. Scherer 2006: 57). Prinzipiell kann ein Korpus sowohl in digitaler als auch in analoger Form erstellt und ausgewertet werden (diskutiert in Scherer 2006: 57). Der Nutzen, den ein computerverarbeitetes Korpus bietet, muss gegen den Aufwand der Digitalisierung abgewogen werden. Für eine computergestützte Verarbeitung der Korpusdaten spricht grundsätzlich die Möglichkeit der mehrfachen Speicherung und damit der Sicherung der Daten und Analysen. Darüber hinaus bietet ein gut zugängliches Korpus durch unkomplizierte Suchabfragen die Möglichkeit Forschungsfragen zu variieren oder zu erweitern (s. dazu genauer Kapitel 5.3.8). Unabhängig von der Digitalisierung von Korpora können die enthaltenen Daten in Primär-, Sekundär- und Tertiärdaten unterschieden werden (vgl. Draxler 2008: 13). Primärdaten sind sprachliche Rohdaten. Dabei kann es sich um Ton- oder Videoaufnahmen gesprochener Sprache oder um Scans handschriftlich verfasster Texte handeln. Sekundärdaten hingegen sind alle Verarbeitungsstufen dieser sprachlichen Rohdaten. Damit sind die Transkriptionen mündlicher oder schriftlicher Texte gemeint sowie alle Arten von linguistischen Annotationen. Bei Tertiärdaten handelt es sich um alle Metadaten bezüglich der einzelnen Texte des Korpus, wie Entstehungskontext, intendierte Textsorte, Entstehungszeit, Sprache usw. sowie bzgl. der Textproduzenten, wie Alter, Geschlecht, Lernerbiographie usw. Mithilfe von Metadaten können die im Korpus vorhandenen Sprachdaten dokumentiert und damit für andere Nutzer nachvollziehbar gemacht werden. Zum anderen können Metadaten für die Zusammenstellung von Subkorpora nach einzelnen Kriterien herangezogen werden (vgl. Lemnitzer/ Zinsmeister 2010: 48). Primärdaten sind grundsätzlich unveränderlich, während Sekundärdaten immer wieder verändert und überarbeitet werden können. So können Transkriptionen schrittweise erweitert bzw. spezifiziert werden oder es können immer neue Annotationsebenen hinzugefügt werden (vgl. Draxler 2008: 13). Im Folgenden wird am Beispiel von EXMARaLDA gezeigt, wie ein digitales Korpus erstellt werden kann. Mithilfe des EXMARaLDA Corpus-Managers (Coma) können EXMARaLDATranskripte mit Metadaten versehen werden und zu Korpora zusammengestellt werden. Anhand dieser Metadaten können die Daten in Coma durchsucht werden und zu Teilkorpora zusammengestellt werden13.

13 Ausführliche Anleitungen zum zur Arbeit mit dem Corpus-Manager Coma und zum Erstellen von Korpora sind online verfügbar.

5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung

189

Abbildung 1: Datenansicht im Corpus Manager (Quelle: Online-Hilfe für Coma)

Zum Erstellen eines Korpus aus EXMARaLDA-Transkripten stellt das Tool einen Assistenten bereit, der in sechs Schritten durch die Korpuserstellung führt. Zunächst gilt es den Speicherort der zu erstellenden Coma-Datei auszuwählen und damit gleichzeitig den Ordner zu bestimmen, in dem sich die korpusrelevanten Transkripte befinden. Anschließend werden die Dateien ausgewählt, die für das zu erstellende Korpus relevant sind und die in einem weiteren Schritt segmentiert werden sollen. Daraufhin können Metadaten, die bereits in den Transkripten enthalten sind, für die Korpusdatei ausgewählt oder bewusst davon ausgeschlossen werden. Ebenso kann auch mit den an der Kommunikation beteiligten Personen verfahren werden. Die erzeugte Datei kann anschließend in Coma geöffnet werden. Im Reiter „Daten“ können Metadaten zu Gesprächsereignissen, Sprechern, Transkripten und Aufnahmen eingegeben und selektiert werden. Auf der linken Seite werden alle im Korpus befindlichen Kommunikationen dargestellt. Auf der rechten Seite werden alle in den Korpusdaten beteiligten Personen aufgeführt. Durch Auswahl einzelner können Metadaten zu Kommunikationen oder Personen angelegt werden. Abbildung 1 zeigt in der Mitte die für die Kommunikation „Rudi Völler: Wutausbruch“ eingetragenen Metadaten, die an dieser Stelle auch bearbeitet werden können. Ferner sind hier auch Verknüpfungen zwischen Kommunikationen und Personen möglich. Durch die Nutzung von Filtern kann die Anzeige der Korpusdateien eingeschränkt werden. Hat man das Korpus entsprechend eines oder mehrerer Parameter gefiltert, können über das Einkaufswagen-Symbol die ausgewählten Datensätze in den Korpus-Korb abgelegt werden, wo diese dann als Teilkorpora gespeichert werden können. Wie auch die Entscheidung für eine Methode zur Datengewinnung hängt die Auswahl und Art der Zusammensetzung eines Lernerkorpus von der Fragestellung ab, die an die

... sichern und aufbereiten.

anonymisieren - Siglen ✓ transkribieren - Konventionen ✓ annotieren - Kriterien ✓

z.B. IDS

erstellen verwalten auswerten analysieren ggf. bereitstellen

Tertiärdaten Zusatzinformationen und Metadaten

digital analog

Korpus

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

! Einverständniserklärung(en), Datenschutzvereinbarung, Vorlaufzeit, Schulung, Pilotierung

schriftlich: Textprodukte, Portfolios Aufgabenstimulus

mündlich: Audio/Videoaufnahmen Beobachtungsparadoxon

Erhebung (auch: Elizitierung) gezielter digitalisieren - Ablagesystem ✓ dokumentieren - Datenbank ✓ Sprachproduktion in stark kontrollierter nutzbar machen - Korpus ✓ Situation → Experiment, Test, stimulated recall Primärdaten Audio, Video, Scans, Kopien Erfassung sprachlicher Produkte Sekundärdaten der Unterrichtsrealität Transkript, Annotation → Klassenarbeiten, Vorträge

Daten gewinnen, ...

5.2.6 Erheben und Erfassen von Lernersprache incl. Korpuserstellung

190 5. Forschungsverfahren

5.2.6 Erheben und Erfassen von Lernersprache und Korpuserstellung

191

Daten des Korpus gestellt wird (vgl. Lüdeling 2008: 121). Faktoren, wie der Sprachstand der Lernenden, ihre L1, die Aufgabenstellung oder Umstände und Entstehungskontext der Daten können als Parameter zur Korpuszusammenstellung herangezogen werden (vgl. Lüdeling 2008: 122, Granger 2002: 9). Diese Kriterien sollten in den Metadaten dokumentiert sein, um die Erstellung des Korpus transparent und damit für jeden nachvollziehbar zu machen und gleichzeitig die Bildung von Teilkorpora nach anderen Parametern zu ermöglichen. Hilfreich dabei ist eine ausreichend intensive Dokumentation der Metadaten der Textproduzenten, zum Beispiel mittels Fragebogen. Für die Erstellung von Metadaten gibt es verschiedene Standards, die die Bildung von Teilkorpora oder auch den Austausch von Korpora vereinfachen (siehe dazu Lemnitzer/Zinsmeister 2010: 48ff). Bezüglich der Durchführung der an die Korpuserstellung anschließenden Datenanalyse gibt es neben inhaltlichen auch zahlreiche technische Aspekte zu berücksichtigen (Näheres dazu in Kapitel 5.3.7 und 5.3.8). Wünschenswert für die weitere Entwicklung der fremdsprachendidaktischen Forschung ist die Bereitstellung solch aufwändig erarbeiteter Korpora, damit auch andere Forschende diese für weitere Untersuchungen und andere Fragestellungen nutzen können; beispielsweise wurden von Ricart Brede (2011) nach der Publikation einer videobasierten Studie umfangreiche Transkripte bereitgestellt. ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Bechtel, Mark (2003). Interkulturelles Lernen beim Sprachenlernen im Tandem. Eine diskursanalytische Untersuchung. Tübingen: Narr. Bergmann, Jörg R. (2001). Das Konzept der Konversationsanalyse. In: Brinker, Klaus/Antos, Gerd/ Heinemann, Wolfgang/Sager, Svend F. (Hg.). Text- und Gesprächslinguistik: Ein internationales Handbuch zeitgenössischer Forschung. 2. Halbband. Berlin: de Gruyter, 919 – 927. *Berman, Ruth A./Verhoeven, Ludo (Hg.) (2002). Cross-linguistic perspectives on the development of text-production abilities in speech and writing. In: Written Language and Literacy (Special Issue) 5.1 / 5.2. Bußmann, Hadumod (2008). Lexikon der Sprachwissenschaft. Stuttgart: Alfred Kröner. *Cantone, Katja Francesca/Haberzettl, Stefanie (2009). „Ich bin dagegen warum sollte man den kein Handy mit nehmen“ – zur Bewertung argumentativer Texte bei Schülern mit Deutsch als Zweitsprache. In: Schramm, Karen/Schroeder, Christoph (Hg.). Empirische Zugänge zu Spracherwerb und Sprachförderung in Deutsch als Zweitsprache. Münster: Waxmann, 43 – 66. *Casper-Hehne, Hiltraud (2008). Russisch-deutsche Interaktion in der Schule: Empirische Untersuchungen zu Linguistik und Didaktik interkultureller Unterrichtskommunikation. In: Zielsprache Deutsch H. 3, 2 – 26. *Dauster, Judith (2007): Frühes Fremdsprachenlernen Französisch. Möglichkeiten und Grenzen der Analyse von Lerneräußerungen und Lehr-Lern-Interaktion. Stuttgart: ibidem. DESI-Konsortium (Hg.) (2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz. Draxler, Christoph (2008). Korpusbasierte Sprachverarbeitung. Eine Einführung. Tübingen: Narr. *Eckerth, Johannes (2003). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr.

192

5. Forschungsverfahren

Granger, Sylviane. (2002). A Bird’s-eye view of learner corpus research. In: Grange, Sylviane/Hung, Joseph/Petch-Tyson, Stephanie. (Hg.). Computer Learner Corpora, Second Language Acquisition and Foreign language Teaching. Amsterdam: Benjamnis, 3 – 33. *Günthner, Susanne (1993). Diskursstrategien in der Interkulturellen Kommunikation. Analysen deutsch-chinesischer Gespräche. Tübingen: Niemeyer. Günthner, Susanne (2001). Kulturelle Unterschiede in der Aktualisierung kommunikativer Gattungen. In: Informationen Deutsch als Fremdsprache 28, 15 – 32. Klieme, Eckhard/Beck, Bärbel (Hg.) (2007). Sprachliche Kompetenzen. Konzepte und Messung. DESIStudie (Deutsch Englisch Schülerleistungen International). Weinheim: Beltz. *Knapp, Werner (1997). Schriftliches Erzählen in der Zweitsprache. Tübingen: Niemeyer. Lemnitzer, Lutz/Zinsmeister, Heike (2010). Korpuslinguistik. Eine Einführung. Tübingen: Narr. Linke, Angelika/Nussbaumer, Markus/Portmann, Paul R. (1991). Studienbuch Linguistik. Tübingen: Niemeyer. Lüdeling, Anke (2008). Mehrdeutigkeiten und Kategorisierung: Probleme bei der Annotation von Lernerkorpora. In: Walter, Maik/Grommes, Patrick (Hg.). Fortgeschrittene Lernervarietäten. Korpuslinguistik und Zweitspracherwerbsforschung. Tübingen: Niemeyer, 119 – 140. MacWhinney, Brian (2000). The CHILDES Project: Tools for Analyzing Talk. 3. Auflage. NJ: Lawrence Erlbaum Associates. *Mayr, Katharina/Mezger, Verena/Paul, Kerstin (2010). Spracharbeit statt Strafarbeit. Zum Ausbau von Sprachkompetenz mit Kiezdeutsch im Unterricht. In: IDV-Magazin 82, 159 – 187. Mempel, Caterina/Mehlhorn, Grit (2014). Datenaufbereitung. Transkription und Annotation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Einführung in empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 147 – 166. *Méron-Minuth, Sylvie (2009). Kommunikationsstrategien von Grundschülern im Französischunterricht. Eine Untersuchung zu den ersten vier Lernjahren. Giessener Beiträge zur Fremdsprachendidaktik. Tübingen: Narr. Moritz, Christine (2011). Die Feldpartitur. Multikodale Transkription von Videodaten in der Qualitativen Sozialforschung. Wiesbaden: VS Verlag. *Petersen, Inger (2012). Entwicklung schriftlicher Argumentationskompetenz bei Oberstufenschüler/ innen und Studierenden mit Deutsch als Erst- und Zweitsprache. Vortrag beim Symposium „Mehrsprachig in Wissenschaft und Gesellschaft“ Bielefeld, 07. 02. 2012 [Online: http://www.uni-bielefeld. de/Universitaet/Studium/Studienbegleitende%20Angebote/Punktum/060_wir_ueber_uns/tagungen/ tagung_2012/PPP/praesentation_petersen.pdf] (11. 09. 2015). *Quasthoff, Uta M. (Projektleitung) (2002ff): Forschungsprojekt OLDER = „Orale und literale Diskursfähigkeiten – Erwerbsmechanismen und Ressourcen“. Projektbeschreibung [Online: http://home.edo. uni-dortmund.de/~older/Kurzbeschreibung.html] (11. 09. 2015). Rehbein, Jochen/Schmidt, Thomas/Meyer, Bernd/Watzke, Franziska/Herkenrath, Annette (2004). Handbuch für das computergestützte Transkribieren nach HIAT. [Online http://www.exmaralda.org/files/ azm_56.pdf] (11. 09. 2015). *Ricart Brede, Julia (2011). Videobasierte Qualitätsanalyse vorschulischer Sprachfördersituationen. Inauguraldissertation an der Pädagogischen Hochschule Weingarten. Freiburg i. Br.: Fillibach *Schart, Michael (2003): Projektunterricht  – subjektiv betrachtet. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Scherer, Carmen (2006). Korpuslinguistik. Kurze Einführung in die Germanistische Linguistik. Heidelberg: Universitätsverlag Winter. *Schmitt, Reinhold (Hg.) (2007): Koordination. Analysen zur multimodalen Interaktion. Tübingen: Narr.

5.2.7 Erfassen von unterrichtsbezogenen Produkten

193

Schmidt, Thomas (2010). EXMARaLDA EXAKT. Manual Version 1.0. [Online: http://s3.amazonaws. com/zanran_storage/www1.uni-hamburg.de/ContentPages/109 154 423.pdf] (11. 09. 2015). Schmidt, Thomas/Schütte, Wilfried (2011). FOLKER. Transkriptionseditor für das „Forschungs- und Lehrkorpus gesprochenes Deutsch“ (FOLK). Transkriptionshandbuch. [Online: http://agd.ids-mann​ heim.de/download/FOLKER-Transkriptionshandbuch.pdf] (11. 09. 2015). Selting, Margret/Auer, Peter (2009). Gesprächsanalytisches Transkriptionssystem 2 (GAT2). In: Gesprächsforschung 10, 353 – 402 [Online: www.gespraechsforschung-ozs.de ] (11. 09. 2015). Tacchetti, Maddalena (2013). User Guide for ELAN Linguistic Annotator. [Online: http://www.mpi.nl/ corpus/manuals/manual-elan_ug.pdf] (18. 10. 2013). *Waggershauser, Elena (2015). Schreiben als soziale Praxis. Eine ethnographische Untersuchung erwachsener russischsprachiger Zweitschriftlernender. Tübingen: Stauffenburg. »»  Zur Vertiefung empfohlen Mempel, Caterina/Mehlhorn, Grit (2014). Datenaufbereitung: Transkription und Annotation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.): Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh. Dieses Kapitel bietet FremdsprachendidaktikerInnen einen hervorragenden ersten Überblick über die Theorieabhängigkeit von Transkriptionskonventionen und die entsprechende Software. Neben der Transkription verbaler Daten werden auch die phonetische Transkription und die Transkription nonverbaler Kommunikation sowie die Aufbereitung von Transkripten für Vorträge thematisiert.

5.2.7 Erfassen von unterrichtsbezogenen Produkten Daniela Caspari

Die verschiedenen Erhebungsverfahren dienen i. d. R. dazu, Texte und Dokumente zu gewinnen, mit denen eine zuvor definierte Forschungsfrage bearbeitet werden soll. In diesem Kapitel wird für das umgekehrte Vorgehen plädiert, nämlich von Texten bzw. Dokumenten auszu­ gehen, die nicht extra erhoben werden müssen, sondern bereits vorhanden sind. Gemeint sind damit halboffizielle und private Dokumente, die tagtäglich in Lehr-/Lernsituationen bzw. in ihrem direkten Umfeld (z. B. Fachkonferenz, Fachseminarleitertreffen) entstehen. Während in Kapitel 4.1 zwischen (wissenschaftlichen) Texten und (anderen) Dokumenten unter­schieden wird, werden die beiden Begriffe im Folgenden synonym verwendet. Bezeichnet werden damit die vor, während und nach dem Unterricht tagtäglich in großer Zahl entstehenden sog. unterrichtsbezogenen Produkte, z. B. Unterrichtsplanungen, Tafelbilder, Hospitationsnotizen, Blog-Einträge, Kurz-Präsentationen, Gedichte, Plakate, Podcasts, Portfolios, Rollenspiele usw. Alle diese, von Lerner_innen, Lehrer_innen, Referendar_innen, Eltern und anderen Akteur_innen in den unterschiedlichen institutionellen Lehr-/Lernkontexten verfassten Texte können als Dokumente gesammelt und unter den verschiedensten Fragestellungen in der fremdsprachendidaktischen Forschung untersucht werden. Bislang ist jedoch außerhalb der

194

5. Forschungsverfahren

historischen Forschung (s. Kapitel 5.2.1 Dokumentensammlung), die sich zwangsläufig auf überlieferte Dokumente stützen muss, nur punktuell, z. B. im Rahmen der Fehlerforschung oder bei der Erforschung kreativer Verfahren, darüber nachgedacht worden, welches Potenzial für die Erforschung des Fremdsprachenunterrichts in ihnen steckt. Da diese Dokumente bereits existieren, besteht das Ziel dieses Kapitels nicht darin, bestimmte Erhebungsverfahren zu beschreiben, sondern es will dafür werben, dass die genannten unterrichtsbezogenen Produkte in ihrem Wert für die Forschung erkannt und dementsprechend genutzt werden. Dabei wird man zumeist von einer Forschungsfrage aus entsprechende Dokumente gezielt sammeln; es ist allerdings – anders als sonst im Forschungsprozess üblich – auch möglich, dass man erst über die Dokumente verfügt und anschließend eine dazu passende Forschungsfrage entwickelt oder ein Forschungsinteresse auf die vorhandenen Produkte hin konkretisiert. 1 Eingrenzung und Abgrenzung unterrichtsbezogener Produkte

Unter unterrichtsbezogenen Produkten werden im Folgenden die unterschiedlichsten Formen schriftlicher, mündlicher, graphischer und multimodaler Texte verstanden, die in unterrichtlichen Arrangements oder in direktem Zusammenhang mit ihnen entstehen. Die erfassten Texte können die von Lerner_innen, Lehrpersonen, Ausbilder_innen oder anderen direkt am Lehr-/Lernprozess beteiligten Akteur_innen erstellt werden. Sie können in Vorbereitung auf den Unterricht (z. B. vorbereitende Hausaufgaben oder Stundenplanungen), während des Unterrichts im Klassenzimmer oder an außerschulischen Lernorten (z. B. kreative Texte, Standbilder, Interviews, Chateinträge) oder nach dem Unterricht (z. B. Lehrertagebücher, nachbereitende Hausaufgaben) entstehen. Zu unterrichtsbezogenen Produkten zählen ebenfalls Texte, die als intendiertes Ergebnis von unterrichtlichen Lernprozessen erhoben werden (z. B. Klassenarbeiten oder Abiturprüfungen incl. der Kommentare und Beurteilungen). Ebenfalls dazu zählen Texte, die von (angehenden) Lehrkräften oder Ausbilder_innen in Zusammenhang mit der Vor- und Nachbereitung von Unterricht bzw. in der Diskussion über das Fach und seinen Unterricht entstehen (z. B. Alternativaufgaben, Beurteilungsraster). Die folgenden Übersichten sollen – ohne Anspruch auf Vollständigkeit – die Fülle und die Vielfalt dieser unterrichtsbezogenen Lerner_innen- und Lehrer_innentexte verdeutlichen. Die vorgenommene Einteilung der Lerner_innentexte sortiert nach Medium (mündlich – schriftlich) und Textsorte bzw. Genre des Produktes, an zwei Stellen auch nach der didaktischen Funktion. Die Lehrer_innentexte unterscheiden nach Entstehungsort und nach der Funktion. Innerhalb der Rubriken wurde – wenn möglich – nach steigender Komplexität angeordnet. Neben der Verwendung unterschiedlicher Kategorien besteht eine Unschärfe darin, dass viele Textsorten nicht eindeutig definiert sind und dass Mehrfachzuordnungen möglich sind. Für die Zielsetzung, (forschenden) Lehrkräften und Forscher_innen die Vielfalt und Fülle der vorliegenden bzw. möglichen Produkte bewusst zu machen, erscheint dieser Systematisierungsvorschlag jedoch ausreichend.

5.2.7 Erfassen von unterrichtsbezogenen Produkten

195

Beispiele für Lerner_innentexte

mündlich – monologisch – Beschreibungen (Bilder, Personen, Wege) – Erzählungen – Märchen – Witze – Statements – Berichte – Argumentationen – Reden mündlich – dia- bzw. multilogisch – Gespräche, z. B. während Partner- und Gruppenarbeit, im Tandem – Diskussionen (auch: Einzelbeiträge) – Interviews, Umfragen – Rollenspiele – Debatten – mdl. Sprachmittlung mündlich – theatral – Standbilder – Spielszenen – Sketche – Rezitationen mündlich – medial unterstützt – Referate, Präsentationen

schriftlich – graphisch gestaltet – Bilder (mit/ohne Text) – Fotos, Collagen (mit/ohne Text) – Plakate, Wandzeitungen – Handouts, Handzettel, Flugblätter, Flyer schriftlich – Schreiben über Texte – Zusammenfassungen – Analysen, Interpretationen, Charakteristiken etc. – Kommentare – Rezensionen schriftlich – das Lernen dokumentieren – ausgefüllte Übungs- und Aufgabenblätter, z. B. zu Wortschatz, Grammatik, Sprachmittlung (auch aus Prüfungen) – Portfolios (EPS, themen- oder aufgabenbezogene Portfolios) – Lerner_innentagebuch, Logbuch – von Lerner_innen selbst erstellte Tests und Aufgaben schriftlich – literarische bzw. literarisierende Texte – Geschichten (unterschiedliche Genres, mit/ ohne sprachliche oder inhaltliche Vorgaben) – Filmskripte/Treatments – Gedichte – Lieder – Tagebucheinträge – Essays

196

5. Forschungsverfahren

Beispiele für Lerner_innentexte

schriftlich – kleine Formen – Notizen – Listen, Tabellen – Statistiken (auch: Fehlerstatistik) – Mindmaps, Cluster – Wörterbilder, Wörternetze – Grammatikregeln – Beispielsätze – Slogans – SMS – Rätsel (z. B. Kreuzworträtsel)

schriftlich – multimodal – Comics, Bildergeschichten – Bildergeschichte, Fotoromane – Buchumschläge (z. B. Klappentext) multimedial – multimodal – Videos, Video-Clips – Podcasts – Chat- oder Blogeinträge – Wikis – Webseiten

schriftlich – Sach- und Gebrauchstexte – Aufschriften, Beschriftungen – Formulare, Fragebögen – E-Mails, Briefe, Postkarten (untersch. Adressaten, untersch. Funktionen) – Blog-Einträge – Einladungen – Kochrezepte – Lebenslauf – Beschreibungen (Bilder, Personen) – Artikel, z. B. Zeitungsartikel – Leserbriefe Tabelle 1: Unterrichtsbezogene Lerner_innentexte

Selbstverständlich können die allermeisten dieser Textsorten ebenfalls gezielt erhoben werden, z. B. um den Sprachstand von Lerner_innen (vgl. Kapitel 5.2.6) oder den Erfolg bestimmter Unterrichtsverfahren zu erfassen. Auch für Studien im Rahmen der Lehrerforschung werden viele der hier genannten Dokumente erhoben, um z. B. bestimmte Einstellungen oder Entwicklungen von Lehrkräften zu verfolgen. In diesen Fällen wurde zuvor ein Forschungsprojekt mit Fragestellung und Design entwickelt, der Impuls für die Erhebung geht von den Forscher_innen aus und die Erhebungssituation und die zu erhebenden Produkte werden zielgerichtet auf das Forschungsinteresse bzw. die Forschungsfrage hin ausrichtet. Diese Texte entstehen somit in einer gezielt gestalteten Situation, auch wenn diese Situation im natürlichen Kontext (Regelunterricht, reguläre Prüfungen, Fortbildungsveranstaltung etc.) geschaffen wird. Bei einer Erfassung (zum Unterschied zwischen Erhebung und Erfassung s. auch Kapitel 5.2.6), um die es in diesem Kapitel geht, werden die Produkte dagegen ohne vorgängige Forscher_innenabsicht erstellt und erst im Nachhinein für Forschungszwecke genutzt (Natürlichkeit des Feldes). Dies könnte z. B. in der Form geschehen, dass ein/e Lehrer_in die im Laufe des Berufslebens oder in der Zeit der Begleitung einer Lerngruppe gesammelten ‚schönsten Schülerarbeiten‘ selbst auswertet bzw. zur Verfügung stellt. Oder in der Form, dass ein/eine Teilnehmer_in einer Fortbildungsreihe am Ende seine Kolleg_innen darum bittet, ihm die im Verlauf der Fortbildung entstandenen Unterrichtsmaterialien (anonym) zur Auswertung

5.2.7 Erfassen von unterrichtsbezogenen Produkten

197

Beispiele für Lehrer_innentexte

Texte und Materialien im bzw. für den Unterricht – Arbeitsaufträge – Lernaufgaben, Prüfungsaufgaben, Tests (auch mit Lerner_innen gemeinsam erstellt) – Tafelbilder, Folien, PP- bzw. Prezi-Präsentationen – Arbeitsblätter – Unterrichtsplanungen (auch ins Internet gestellt) Reaktion auf Lerner_innenprodukte – schriftl. Feedback, Reaktionen auf Fehler – schriftl. Kommentierungen von Lerner_innentexten – Beurteilungsraster

Aus-/ Weiterbildung, Reflexion – Protokolle von Besprechungen, Konferenzen oder Fort-/Weiterbildungen (z. B. über Lehrmaterialien, Unterrichtskonzeptionen, Bewertungskriterien) – Beiträge in Blogs oder Foren – Tagebücher – schriftl. Kommentierungen von fremdem Unterricht (z. B. bei Hospitationen, Prüfungen) – Portfolio (z. B. in Ausbildung, Weiterbildung) – Fachseminarplanungen – Prüfungsleistungen (z. B. Praktikumsberichte, Masterarbeiten, Prüfungsarbeiten in der 2. Phase) Info-Materialien – Schulcurricula – Schulhomepage (z. B. Darstellung des Faches) – Flyer (z. B. Infos für Fremdsprachenwahl)

Tabelle 2: Unterrichtsbezogene Lehrer_innentexte

zu geben. Eine andere Möglichkeit könnte darin bestehen, dass die für einen Wettbewerb eingereichten Schülerarbeiten dazu anregen, sie unter anderen als den Wettbewerbskriterien systematisch auszuwerten. Diesen Beispielen ist gemein, dass das Material jeweils ohne Forschungsabsicht entstanden ist. Natürlich gibt es auch Mischformen zwischen Erhebung und Erfassung in dem Sinne, dass die Erhebung von in einer natürlichen Situation entstehenden Produkten zuvor geplant wird. Dies ist bspw. dann der Fall, wenn Lehrkräfte (z. B. im Rahmen eines Aktionsforschungsprojektes) in ihrem Unterricht bestimmte Lernerprodukte erstellen lassen oder wenn Forscher_innen alleine oder in Zusammenarbeit mit Lehrer_innen Unterrichtsarrangements erstellen, in denen bestimmte Textsorten entstehen. Der zentrale Unterschied zu klassischen Erhebungssituationen besteht hier in der ‚Natürlichkeit‘ der Situation: Die gewünschten Texte könnten in der entsprechenden (Unterrichts-) Situation genauso gut auch unabhängig von einer Forschungsabsicht entstehen. Der zentrale Unterschied zur klassischen Erfassung besteht darin, dass die Entstehung der Produkte von der Forscher_in oder im Einvernehmen mit ihm/ihr intendiert ist. Obwohl in zahlreichen Forschungsarbeiten unterrichtsbezogene Produkte herangezogen werden, meist als eine von mehreren Datenformen, wurden sie unter forschungsmethodischer Hinsicht bislang lediglich in der historischen Forschung betrachtet (vgl. die entsprechenden Überlegungen in Kapitel 5.2.1). In aktuellen forschungsmethodischen Handbüchern werden sie dagegen bislang so gut wie nicht beachtet: Lediglich in der Aktionsforschung (s.

198

5. Forschungsverfahren

Kapitel 4.2, z. B. Burns 2010) und im Zusammenhang mit Triangulationsverfahren in der ethnographischen Forschung (z. B. Nunan/Bailey 2009: 213) werden solche unterschiedlichen, im Kontext des Unterrichts entstehenden Produkte überhaupt als potenzielle Forschungsdaten aufgelistet. Angesichts dieser Situation erscheint es sinnvoll, sich zunächst mit den Produkten selbst zu beschäftigen. 2 Möglichkeiten der Systematisierung

Aus den Tabellen 3 und 4 wird ersichtlich, dass es nicht einfach ist, eine einheitliche Klassifizierung unterrichtsbezogener Produkte vorzunehmen, weil sie anhand einer Reihe von Dimensionen näher beschrieben und systematisiert werden können: Autorenschaft

Wer produziert die Texte, Lerner_innen, Lehrer_innen, andere Akteur_innen?

Textsorten/ Genres

Welche Textsorten bzw. Genres werden erfasst?

Umfang

Wie umfangreich sind die Texte? (Länge, Dauer)

Medium

In welchem Medium liegen die Texte vor: mündlich, schriftlich, graphisch, multimodal?

Entstehungskontext

Ist der Entstehungskontext bekannt? Welche Details sind bekannt oder können nachträglich rekonstruiert werden (z. B. genaue Aufgabenstellung, beteiligte Personen, zur Verfügung gestellt Zeit, Hilfsmittel)

Zeitpunkt

Wann wurden die erfassten Produkte erstellt?

Ort

Fand die Textproduktion innerhalb des Unterrichts oder an außerunterrichtlichen bzw. außerschulischen Lernorten statt?

Art

Handelt es sich um einen offiziellen, halboffiziellen oder privaten Text? (vgl. Kapitel 5.2.1)

Anlass

Wurde die Textproduktion von den Verfasser_innen verlangt bzw. erwartet (z. B. gemeinsame Aufgabenentwicklung), wurde sie angeregt (z. B. Wettbewerbsbeitrag) oder entstand sie aus Eigenmotivation der Verfasser_innnen (z. B. Tagebuch)?

Erfassungskontext

Wurden die Produkte gezielt gesucht und oder lagen sie bereits vor? Von wem wurden sie zusammengestellt? Nach welchen Kriterien?

Natürlichkeit vs. Planung

Werden bzw. wurden die Produkte unabhängig von der Absicht, sie als Forschungsdaten zu verwenden, erstellt? Oder wird bzw. wurde der Unterricht bzw. die Situation unter Berücksichtigung des Forschungsinteresses gestaltet?

Ziele

Welche Ziele werden bzw. wurden mit den Texten in Bezug auf die Lehr-/ Lernsituation verfolgt und welche Ziele in Bezug auf die Forschungssituation?

Realisierung

Wer führt den Unterricht bzw. die Situation durch: Der bzw. die üblichen Akteur_innen (z. B. die Lehrkraft mit ihrer gewöhnlichen Lerngruppe) oder die Forscher_innen?

Tabelle 3: Dimensionen unterrichtsbezogener Produkte

5.2.7 Erfassen von unterrichtsbezogenen Produkten

199

Für die Analyse und Interpretation der Texte ist nicht nur die Kenntnis dieser Kontextdaten von Bedeutung, sondern ebenfalls, wie stark die Lerner_innen und Lehrkräfte inhaltlich, sprachlich und durch die jeweiligen Textsortenkonventionen festgelegt sind. Selbstverständlich hängt der Grad der Steuerung im Einzelfall von der konkreten Situation und der expliziten oder impliziten Zielsetzung bzw. Aufgabenstellung ab. So gibt es z. B. bei den Rollenspielen durch die Art der Vorgaben ein Kontinuum von inhaltlich und sprachlich sehr eng geführten bis zu sehr freien Formen. Trotzdem ist es sinnvoll, hier grundsätzlich zwischen stärker vorgegebenen und eher freien Textsorten sowie zwischen sprachlich eher imitativen bzw. reproduktiven sowie sprachlich produktiven bzw. kreativen Formen zu unterscheiden. Bei der folgenden Einteilung wird eine sehr weite Definition von Textsorte im Sinne von Regeln für die Produktion und für das Produkt in einer bestimmten Lehr-/Lernsituation zu Grunde gelegt. eher freie mündliche Textsorten

z. B. Unterrichtsgespräche (im Plenum, in Kleingruppen), Tandemgespräche, Rollenspiele ohne/mit wenigen Vorgaben, Rollengespräche, Gespräche beim gemeinsamen Lösen einer Aufgabe, Features

stärker vorgegebene mündliche Textsorten

z. B. Lehrwerks-Dialoge mit engen Vorgaben, Debatten, Sprachmittlungsaufgaben, Bildgeschichten

eher freie schriftliche Textsorten

z. B. Lerntagebücher mit offenen Impulsen, E-Mails, kreative Texte ohne formale Vorgaben, Essays, Portfolios

stärker vorgegebene schriftliche Textsorten

z. B. Einsetz- und Umformungsübungen, Inhaltsangaben, Charakteristiken, Erörterungen, Briefe, Gedichte, commentaire de texte, Sprachmittlungsaufgaben, Bildgeschichten

eher freie multimodale Textsorten

z. B. medial gestützte Präsentationen, Video-Clips, Kurzfilme, Fotoromane

stärker vorgegebene multimodale Textsorten

z. B. Nachrichten

Tabelle 4: Beispiele für eher freie und eher vorgegebene Textsorten

Selbstverständlich können je nach Forschungsfrage für die Auswahl und Systematisierung vorliegender Texte weitere Kriterien relevant sein, z. B. Themen und Inhalte, Funktion der Texte in der ursprüngliche Situation, Original-Fassung oder korrigierte bzw. überarbeitete Version, Endprodukt oder Produkt innerhalb eines (Überarbeitungs-)Prozesses (z. B. Portfolio). Gerade wenn die Produkte nicht nach vorher festgelegten Kriterien erstellt worden sind, ist es wichtig, sie vor der bzw. für die Analyse und Interpretation möglichst genau zu beschreiben.

200

5. Forschungsverfahren

3 Forschungsinteresse

Der große Gewinn der Arbeit mit unterrichtsbezogenen Texten liegt darin, dass diese nicht gezielt für Forschungszwecke verfasst wurden, sondern in natürlichen Kontexten entstanden sind. Das heißt, dass es keine durch Design und Instrumente sonst notwendigerweise einhergehenden Beeinflussungen, Begrenzungen und Artefakte gibt, sondern dass sie das Resultat authentischer Lehr-/Lern- bzw. Aus- und Weiterbildungssituationen in der Gegenwart oder der Vergangenheit sind. Aus diesem Grund können sie einen direkten und unverfälschten Einblick in die Realität der unterschiedlichsten fremdsprachenbezogenen Lehr- und Lernkontexte geben. Die Beschäftigung mit unter realen Praxisbedingungen entstandenen Produkten ist sowohl deswegen interessant, weil sie in einem umfassenden Sinn authentisch sind. Sie ist auch deswegen aufschlussreich, weil das Wissen über die Wirklichkeit des Fremdsprachenunterrichts und anderer fremdsprachenbezogener Lehr-/Lernsituationen noch immer sehr begrenzt ist. Bislang gibt es noch immer viel zu wenige empirische Studien, die nicht oder nur wenig arrangierten Fremdsprachenunterricht oder gar alltägliche Aus- und Fortbildungssituationen untersuchen. Im günstigsten Fall spiegeln unterrichtsbezogene Produkte eine große Bandbreite an unterschiedlichen Realisierungsformen einer Situation oder eines Themas, z. B. die unterschiedlichen Formate und Aufgabenstellungen, die Lehrer_innen für Klassenarbeiten in einer fünften Englischklasse wählen, oder die unterschiedlichen Formen, mit denen Schulen für Russisch, Chinesisch oder andere seltener gelernte Fremdsprachen werben. Wählt man nicht gerade Wettbewerbsbeiträge oder Produkte, die beim Elternabend oder beim Tag der Offenen Tür präsentiert werden, dürfte die Qualität der Produkte von sehr unterschiedlicher Qualität sein. Systematisch erfasst, liefern sie sowohl best practice- als auch worst practiceBeispiele. Auf jeden Fall aber gewähren sie Einblicke in professionelle Lern-, Lehr- und Aushandlungsprozesse, wie sie wirklich stattfinden. Im Unterschied zu den in Kapitel 5.2.6 beschriebenen Lerner_innenprodukten, die mit dem Ziel erhoben werden, sprachliche Lernstände bzw. sprachliche Fortschritte von Lerner_innen festzustellen, ermöglichen die erfassten Produkte, Einblick in komplexe Situationen, Prozesse und Ergebnisse des Unterrichts zu gewinnen. Gerade für die so genannten schwer messbaren Kompetenzen (vgl. Hu/Leupold 2008) und für Zielsetzungen, die über den Spracherwerb im engen Sinne herausgehen, wie z. B. die Anwendung von Strategien oder die Bereitschaft, sprachliche Risiken einzugehen, dürften unterrichtsbezogene Produkte über ein großes Forschungspotenzial verfügen. Sie ermöglichen sowohl, Lernprodukte in einzelnen Dimensionen (z. B. Inhalt, Textsortenadäquanz, sprachliche Leistung, Kreativität) als auch in ihrer Komplexität zu erfassen. Untersucht man Portfolios oder Gruppenhefter, die die unterschiedlichen Etappen einer Texterstellung enthalten, so können z. B. inhalts-und sprachbezogene Entscheidungen beim gemeinsamen Lösen einer Aufgabe nachgezeichnet oder die Genese bestimmter Lernergebnisse nachverfolgt werden. Und bei der Untersuchung von Lesetagebüchern z. B. kann nicht nur nachverfolgt werden, ob und wie Lerner_innen diese Aufgabe bewältigen, sondern auch, welche Aspekte sie im Einzelnen notieren. Die Untersuchung unterrichtsbezogener Lerner_innenprodukte ermöglicht ebenfalls Lerner_innen- (und Lehrer_innen-) Interessen zu identifizieren und Einblicke in die Organisation von Lernprozessen zu gewinnen. Nicht zuletzt erlaubt sie, Wissensstände über die unterschiedlichsten, im Unterricht ver-

5.2.7 Erfassen von unterrichtsbezogenen Produkten

201

handelten oder in den Unterricht eingebrachten Themen zu erheben. Dies wurde bislang lediglich für den bilingualen Sachfachunterricht erforscht, ist aber nicht zuletzt aufgrund der heftigen Kritik am vermeintlichen Verlust von Inhalten im kompetenzorientierten Unterricht von großem Interesse. Falls Lehrkräfte diese Produkte erforschen, kann eine Analyse und Auswertung der Texte ihrer Lerner_innen nach anderen als bewertungsrelevanten Kriterien zu neuen Einsichten führen, sind sie es doch i. d. R. gewohnt, sie lediglich unter dem Gesichtspunkt der Korrektur und Notengebung zu betrachten. Viele der hier genannten Aspekte von Lerner_innentexten werden bei der üblichen Korrektur nicht beachtet, obwohl sie möglicherweise ein neues Bild von den Leistungen und Potenzialen der Lerner_innen zeichnen. Das Gleiche gilt für Lehrer_innentexte. Zwar ermöglicht die Lehrerforschung bereits vielfältige Einblicke in die unterschiedlichsten Aspekte des Lehrer_innen-Seins aus der Sicht der Beteiligten. Jedoch ist es nicht dasselbe, ob die Entstehung von mündlichen oder schriftlichen Lehrer_innentexten zu Forschungszwecken geplant und damit auch die Forschungsabsicht bekannt ist, oder ob Lehrkräfte in ihren beruflichen Alltagssituationen Texte erstellen, die erst im Nachhinein zu Forschungszwecken verwendet werden. Denn erfahrungsgemäß ist es fast unmöglich, den Faktor der (von den Lehrkräften vermuteten) professionellen oder sozialen Erwünschtheit auszuschalten, wenn sie im Voraus um ihr Einverständnis gefragt werden. Werden sie jedoch erst im Nachhinein um Erlaubnis gebeten, die entstandenen Texte (z. B. Unterrichtsplanungen oder die Kommentierung von schriftlichen Lerner_innentexten) zu Forschungszwecken nutzen zu dürfen, kann es sein, dass sie Bedenken haben, weil diese Texte unter Alltagsbedingungen längst nicht immer so gestaltet worden sind, wie es dem Anspruch der Lehrpersonen an sich selbst entspricht. Um diesen Bedenken Rechnung zu tragen, könnte neben der Einhaltung der üblichen forschungsethischen Standards (s. Kapitel 4.6) die Möglichkeit, die Erlaubnis im Nachhinein zurückziehen zu können, die Bereitschaft erhöhen. 4 Forschungsmethodische Überlegungen

Auch wenn m.W. bislang noch keine Forschungsarbeiten vorliegen, die ausschließlich auf der Grundlage von erfassten Texten entstanden sind, so geben Lerner_innen- und Lehrer_innentexte, die in (weitgehend) authentischen Lehr-/Lernsituationen entstanden sind, Hinweise auf das Potenzial für die fremdsprachendidaktische Forschung sowie auf forschungsmethodische Herausforderungen. Als Beispiel sei die Dissertation von Peuschel (2012) aus dem universitären Fremdsprachenunterricht genannt, die insgesamt vier radiodaf-Projekte mit insgesamt 47 Teilnehmer_innen als Beobachterin begleitete. Diese Projekte richten sich an studentische DaF-Lerner_innen, die weitgehend selbstbestimmt einzelne Radiobeiträge bzw. ganze Sendungen erstellen und aufnehmen, die anschließend in einem Freien Radio ausgestrahlt werden. Die Forschungsarbeit verfolgt das Ziel, Erkenntnisse zum sprachlichen Lernen in einem solchen Projekt mit Beobachtungen zur Realisierung von gesellschaftlicher Teilhabe der Lerner_innen während ihres Lernprozesses zu verbinden. Die Basis bilden insgesamt 87 Tonaufnahmen (Beiträge der Sendungen und Probeaufnahmen) und 95 schriftliche Texte (schriftliche Vorlagen für die gesprochenen Radiobeiträge, Notizen, Stichpunkte und Vorversionen dieser Vorlagen sowie Übersetzungen bzw. Übersetzungsversuche von einzelnen Texten). Dazu kommen Beobach-

202

5. Forschungsverfahren

tungsprotokolle sowie aus zwei der vier Projekte Interviews und Lerner_innentagebücher. Im Mittelpunkt der Auswertungen stehen jedoch die mündlichen und schriftlichen Lerner_innenprodukte, die „einen Zwischenstatus zwischen natürlichen und elizitierten Daten“ haben (Peuschel 2012: 67, unter Verweis auf Larsen-Freeman/Long 1994: 26 ff.). Die Verfasserin betont dabei die Natürlichkeit und Authentizität der Produkte, da diese auch ohne ihre Studie entstanden seien (Peuschel 2012: 68). An dieser Forschungsarbeit kann man gut die Herausforderungen der Arbeit mit einem solchen Textkorpus erkennen. Zum einen stellen sich Fragen der Sicherung und Aufbereitung der Daten (im Folgenden Peuschel 2012: 72 – 83, vgl. auch Kapitel 5.2.6). Dazu zählen das Sampling, die Transkription der gesprochenen Texte, die Digitalisierung von handschriftlichen Lerner_innenprodukten (hierzu hat die Verfasserin ein eigenes Transliterationssystem entwickelt, das Korrekturen, Ergänzungen, Auslöschungen etc. abbildet) sowie die Erstellung einer Datenbank. Zum anderen stellen sich Fragen der Auswertung und der Ergebnisdarstellung. Die Verfasserin wählt das ethnografische Verfahren der dichten Beschreibung (Geertz 1995), mit dem die erfassten Produkte in drei Schritten rekonstruiert und analysiert werden. Dabei wird ähnlich wie beim hermeneutischen Zirkel (vgl. Kapitel 5.3.2) beständig zwischen übergreifenden Strukturen und Details der Dokumente hin- und hergewechselt. Besondere Sorgfalt verlangt bei diesem Projekt der Umgang mit den verschiedenen Versionen der Lerner_innenprodukte, damit die sprachlichen Entwicklungsverläufe nachvollzogen werden können, ohne sie ausschließlich an der zielsprachigen Norm zu messen. Insgesamt zeigt die Studie von Peuschel (2012), dass die sorgfältige Analyse von Lerner_innenprodukten detaillierte Einblicke in individuelle und kollaborative Prozesse der Texterstellung, in Entwicklungsverläufe bei der Textproduktion sowie in die Zusammenhänge zwischen sprachlicher Tätigkeit und Teilhabeoptionen erlaubt. An dem Beispiel wird deutlich, dass es je nach Fragestellung und Art der erfassten Produkte angemessene Verfahren der Aufbereitung, Analyse und Interpretation zu finden gilt. Anregungen für die Zusammenstellung und Aufbereitung lassen sich in diesem Handbuch vor allem in den Kapiteln 5.2.1 (Dokumentensammlung), 5.2.2 (Textzusammenstellung) sowie 5.2.6 (Erheben und Erfassen von Lernersprache und Korpuserstellung) finden. Anregungen für die Auswahl und die Analyse bzw. Interpretation finden sich vor allem in den Kapiteln 4.3 (Sampling), 5.3.2 (Hermeneutische Verfahren), 5.3.3 (Grounded Theory und Dokumentarische Methode), 5.3.4 (Inhaltsanalyse) sowie 5.3.5 (Typenbildung). Für den Umgang mit den erfassten Dokumenten gelten prinzipiell die gleichen Regeln wie für jede andere Forschung, d. h. auch die üblichen Gütekriterien (vgl. Kapitel 2) und forschungsethischen Prinzipien (vgl. Kapitel 4.6). Allerdings ergeben sich aus der Tatsache, dass es sich um Produkte handelt, die zunächst ohne Forschungsabsicht entstanden sind, spezielle Fragen. Zum Beispiel stellt sich die Frage, wie man mit Produkten umgeht, zu denen man nachträglich keine Erlaubnis der Verfasser_innen mehr einholen kann, denn es muss auf jeden Fall ausgeschlossen werden, dass die Verwendung ihnen auf irgendeine Weise schaden könnte. Es stellt sich ebenfalls die Frage, welche Kontextdaten notwendig sind, um die Produkte der Forschungsfrage entsprechend angemessen einordnen und interpretieren zu können, und wie man damit umgeht, wenn dies im Nachhinein nicht bzw. nicht vollständig möglich ist. Außerdem stellt sich die Frage, wie man die Art und die Anzahl der Dokumente erhält, die für die Bearbeitung der Forschungsfrage notwendig sind.

5.2.7 Erfassen von unterrichtsbezogenen Produkten

203

Daher erscheint es einfacher, wie in dem dargestellten Beispiel als Forscher_in in den entsprechenden Situationen anwesend zu sein. Jedoch wirft dies nicht nur die (theoretische) Frage auf, ob es sich dann noch um erfasste Produkte oder nicht doch um Erhebungssituationen im natürlichen Kontext handelt. Sondern es stellt sich vor allem die (praktische) Frage, ob man dann noch von unbeeinflussten, authentischen Dokumenten sprechen kann. Denn unbestreitbar verändert die Anwesenheit der Forscher_in die Situation und damit auch die Produkte, wobei dies im Fall der Lehrer_innenprodukte deutlich stärker der Fall sein dürfte als bei Lerner_innenprodukten. Eine andere Möglichkeit bestünde darin, als Forscher_in Einfluss auf die Entstehung der Produkte zu nehmen, z. B. indem man den Unterricht oder die Lehrkräftefortbildung, in der diese Produkte entstehen, mit plant. Aber auch hierbei steigt die Gefahr einer gewollten oder ungewollten Beeinflussung dieser Produkte. Daher sollten die möglichen Nachteile unvollständiger Kontextdaten oder zu weniger bzw. ungeeigneter Produkte sorgfältig gegen eine mögliche Einflussnahme auf die Produkte abgewogen werden. Aber selbst im Fall einer solchen Steuerung bzw. Beeinflussung durch die Forscher_in ist im Vergleich zu einer klassischen Erhebungssituation weiterhin der Vorteil einer deutlichen höheren Authentizität gegeben, weil die Produkte in den allen Beteiligten vertrauten, üblichen Situationen entstehen. Andere Fragen stellen sich, wenn die unterrichtsbezogenen Produkte vorliegen, bevor eine Forschungsfrage entwickelt worden ist. In dieser Situation ähnelt das Vorgehen der Forscher_in dem Vorgehen in historischen und ethnographischen Forschungsansätzen. Es gilt, zunächst die Produkte sorgfältig und umfassend zu sichten, um zu erkennen, welches Potenzial in ihnen erkennbar ist und was an ihnen besonders interessant für die fremdsprachendidaktische Forschung ist. Nach einer vorläufigen Formulierung der Forschungsfrage ist ein zirkuläres Vorgehen zu empfehlen, d. h. sich erneut in die Produkte zu vertiefen, um ihr Potenzial für die Beantwortung der Forschungsfrage zu überprüfen. Anschließend gilt es, die für die Beantwortung der Forschungsfrage angemessenen und für die Produkte gleichermaßen geeigneten Verfahren zu bestimmen, mit denen die erfassten Produkte gesichert, ausgewertet und interpretiert werden können, sowie diese vor ihrer Anwendung zu erproben. Weitere Fragen stellen sich, wenn die erfassten Produkte nur einen Teil der in einem Forschungsprojekt verwendeten Daten und Texte darstellen, wie z. B. in der Studie von KimesLink (2013) zum Umgang mit literarischen Texten im Englischunterricht der gymnasialen Oberstufe. Anhand von vier Fallstudien untersucht sie, wie die Rezeption von und Interaktion mit literarischen Gegenständen stattfindet und welche Ergebnisse dabei erzielt werden. Ein Hauptaugenmerk gilt der Wirkung der Aufgaben und unterrichtlichen Verfahren, mit denen Lehrkräfte die Textarbeit steuern (vgl. Kimes-Link 2013: 10 – 11). Um die sechs bis 19 Unterrichtsstunden umfassenden Einheiten in ihrer Komplexität rekonstruieren zu können, setzt sie eine Vielzahl von Erhebungsmethoden ein, durch die gleichzeitig eine Daten- und Perspektiventriangulation ermöglicht wird: Ton- und Videoaufzeichnungen des Unterrichts, Feldnotizen der Forscherin, ausgewählte schriftliche Arbeiten von Schüler_innen (Hausaufgaben, Arbeitsblätter, während des Unterrichts verfasste Texte, Klassenarbeiten), fotografierte Tafelbilder sowie retrospektive Interviews mit den Lehrkräften und Schüler_innen (Kimes-Link 2013: 98 – 105). Die Tafelbilder stellen sich „im Sinne eines breiten Datensatzes“ (Kimes-Link 2013: 103) als gute Ergänzung zu den Videoaufnehmen heraus, den schriftlichen Schüler_in-

204

5. Forschungsverfahren

nenprodukten kommt die Funktion zu, „weiteren Aufschluss über die Verstehensprozesse der Lernenden“ zu liefern (Kimes-Link 2013: 104). In der rekonstruktiven Analyse der Unterrichtseinheiten erhalten die Schüler_innentexte denn auch eine große Rolle: In allen vier Unterrichtsreihen werden jeweils mehrere unterschiedliche schriftliche Schülerarbeiten analysiert und in den retrospektiven Interviews werden die Schüler_innen zu ihnen befragt. Auch inhaltlich liefern sie einen bedeutenden Beitrag zur Beantwortung der Forschungsfrage, denn anhand der Analyse kann im Detail aufgezeigt werden, welche Funktion der jeweiligen Aufgabe bzw. dem jeweiligen Verfahren für den Prozess der literarischen Auseinandersetzung zukommt und welche Analyse- und Interpretationsleistungen die Schüler_innen jeweils erbringen. In Kombination mit der Analyse des Unterrichtsdiskurses kann Kimes-Link nachzeichnen, was die Lehrkraft davon aufgreift bzw. was davon nicht für den weiteren Lehr-/ Lernprozess verfügbar gemacht wird. So ermöglichen die Analyse und Interpretation der Lerner_innentexte es, die Eignung bestimmter methodischer Verfahren für das literarische Verstehen der Schüler_innen festzustellen (vgl. Kimes-Link 2013: 352 – 366). Durch die Analyse des Unterrichtsdiskurses über die Schülerarbeiten wird darüber hinaus deutlich, wie das Potenzial dieser Texte besser genutzt werden könnte (vgl. Kimes-Link 2013: 366 – 368). An der Studie von Kimes-Link (2013) wird neben dem forschungsmethodischen Potenzial einer solchen Fülle von erfassten und erhobenen Texten und Dokumenten zugleich die große Herausforderung im Umgang mit ihnen deutlich: Es muss jeweils sehr genau überlegt und transparent gemacht werden, welche Texte und Dokumente im Einzelnen ausgewählt werden, wie die unterschiedlichen Textsorten ausgewertet und interpretiert werden, wie sie aufeinander bezogen werden und welchen Textsorten dabei welche Funktion bzw. welcher Stellenwert zukommt. Dies verlangt neben einer breiten forschungsmethodischen Kenntnis und der Fähigkeit, die jeweiligen Analysen und Interpretationen jeweils funktional in die Gesamtauswertung einfließen zu lassen, nicht zuletzt einen enormen Dokumentationsaufwand, damit die Leser_innen die einzelnen Forschungsentscheidungen auch tatsächlich im Detail nachvollziehen können. Eine große Vielzahl unterschiedlicher Daten, Texte und Produkte kann tatsächlich zu „einem ganzheitlicheren Verständnis der Komplexität der beobachteten Lehr- und Lernsituationen und ihrer Bedingungsfaktoren“ führen, wie Freitag-Hild (2010: 158) in ihrer ähnlich angelegten Studie zum interkulturellen Lernen mit Migrationsliteratur im Englischunterricht bilanziert. Jedoch besteht bei einer so großen Menge an Texten und Dokumenten grundsätzlich die Gefahr, dass das Erkenntnispotenzial der einzelnen Quellen nicht ausgenutzt wird oder dass forschungsethisch nicht unproblematische „Datenfriedhöfe“ (s. Kapitel 3.3) entstehen. So konnte Kimes-Link „[a]ufgrund der Datenfülle“ (2013: 111) nur vier von sieben der so aufwändig dokumentierten Unterrichtsreihen in ihrer Studie darstellen. Dies zeigt, dass gerade bei einer Kombination von „erhobenen“ und „erfassten“ Texten und Dokumenten im Vorfeld sorgfältige forschungsmethodische und -ökologische Überlegungen anzustellen sind. ››  Literatur Burns, Anne (2010). Doing Action Research in English Language Teaching. A Guide for Practitioners. New York: Routledge.

5.2.8 Testen

205

Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. ‚British Fictions of Migration‘ im Fremdsprachenunterricht. Trier: WVT. Geertz, Clifford (1995). Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme. 4. Auflage. Frankfurt/M.: Suhrkamp. Hu, Adelheid /Leupold, Eynar (2008). Schwer messbare Kompetenzen. In: Tesch, Bernd/Leupold, Eynar/ Köller, Olaf (Hg.) (2008). Bildungsstandards Französisch: konkret. Sekundarstufe I: Grundlagen, Aufgabenbeispiele und Unterrichtsanregungen. Berlin: Cornelsen Scriptor: 64 – 74. Kimes-Link, Ann (2013). Aufgaben, Methoden und Verstehensprozesse im englischen Literaturunterricht der gymnasialen Oberstufe. Eine qualitativ-empirische Studie. Tübingen: Narr. Nunan, David/Bailey, Kathleen M. (2009). Exploring Second Language Classroom Research. A Comprehensive Guide. Boston, MA: Heinle. Peuschel, Kristina (2012). Sprachliche Tätigkeit und Fremdsprachenlernprojekte. Fremdsprachliches Handeln und gesellschaftliche Teilhabe in „radiodaf“-Projekten. Baltmannsweiler: Schneider Verlag Hohengehren.

5.2.8 Testen Claudia Harsch 1 Begriffsklärungen

Tests werden in der Fremdsprachenforschung zur Erhebung, Messung und Beurteilung fremdsprachlicher Lernerleistungen eingesetzt. Sie gehören dem rationalistischen Paradigma an (s. Kapitel 2 und 3.3 in diesem Band; auch Cohen/Manion/Morrison 2011) und werden oft in Experimentaldesigns, in Prä-Posttestdesigns (s. etwa die Studie von Biebricher 2008, unten) oder Interventionsstudien verwendet (s. etwa die Studie von Marx 2005, unten). Tests können in der Fremdsprachenforschung einer Reihe von Zwecken dienen, etwa der punktuellen Kompetenzmessung, der Individualdiagnose, der Auswahl, der längsschnittlichen Untersuchung von Kompetenzentwicklung, dem Bildungsmonitoring, der Evaluation von Lehrmethoden und Lernerfolg, der Erforschung von Effekten bestimmter Interventionen oder der Untersuchung von Einflüssen und Zusammenhängen bestimmter Faktoren in Lehr- und Lernkontexten. Der Untersuchungszweck bestimmt, ob Tests als Kompetenztests, Lernerfolgskontrollen, Diagnosetests oder Einstufungstests entwickelt und eingesetzt werden. Für eine detaillierte Ausführung zu Formen und Funktionen von Sprachtests darf auf Grotjahn (2010) verwiesen werden. Je nach Einsatzbereich, sei es eine landesweite Untersuchung oder das eigene fremdsprachliche Klasszimmer, werden large-scale von small-scale Tests unterschieden. Oft werden in kleineren Untersuchungen, etwa innerhalb einer Lernergruppe, informelle Tests eingesetzt, wohingegen in groβangelegten Studien, bei denen es darum geht, generalisierbare Ergebnisse zu erhalten, formale Tests zum Einsatz kommen. Diese werden auch als standardisierte Tests bezeichnet, die einer Reihe von Qualitätsanforderungen genügen müssen (s. unten); standardisierte Tests werden im Unterschied etwa zu selbst erstellten Vokabel- oder Grammatiktests auf der Basis eines theoretischen Konstrukts entwickelt. Je nachdem, welche Berechtigungen und Folgen ein Test nach sich zieht, spricht man von high-stakes vs. low-stakes Tests. An

206

5. Forschungsverfahren

high-stakes Tests, ebenso wie an standardisierte Tests, werden in der Regel hohe formale, inhaltliche und ethische Anforderungen gestellt.14 Die verschiedenen Testarten verlangen unterschiedliche Konstrukte und Inhalte: Während eine Lernerfolgskontrolle auf die Bereiche und Inhalte ausgerichtet ist, die in einem bestimmten Zeitraum in einem bestimmten Kontext gelehrt wurden, ist ein Kompetenztest nicht curricular orientiert, unabhängig von einem spezifischen Lehr-/ Lernkontext und erfasst handlungsbezogene Sprachkompetenzen. Diagnosetests wiederum müssen in der Lage sein, detaillierte Aspekte so zu erfassen, dass Rückschlüsse auf Stärken und Schwächen der Lernenden gezogen werden können; hier ist eine relativ große Anzahl an Testaufgaben (Items) nötig, um zu verlässlichen Ergebnissen zu kommen. Ein Einstufungstest hingegen hat zum Ziel, mit relativ geringem Aufwand die Probanden zu bestimmen, die zu einem bestimmten Programm zugelassen werden; hier sind Tests denkbar, die mit Indikatoren arbeiten (z. B. CTests oder Vokabeltests), die sich als gute Prädiktoren für eine Klassifizierung von Lernenden erwiesen haben, die aber nicht ausgelegt sind, Handlungskompetenzen zu erfassen. Neben diesen grundsätzlichen Einteilungen in verschiedene Testarten gibt es weitere Begrifflichkeiten, die hier kurz erläutert werden sollen. Tests können formativ oder summativ eingesetzt werden, wobei formatives Testen den lernfördernden und entwickelnden Aspekt in den Vordergund rückt, während summative Tests auf das fokussieren, was Lernende zu einem bestimmten Zeitpunkt beherrschen. Die Ausrichtung eines Tests auf eine bestimmte Bezugsgruppe oder auf inhaltlich-qualitative Kriterien bestimmt, ob ein Test als norm- oder kriterienorientiert klassifiziert wird; dies wiederum wird beeinflusst vom Einsatzzweck: Ein Test zur Lernerfolgskontrolle etwa kann normorientiert eingesetzt werden, wenn es darum geht, die 10 % Leistungsstärksten einer Lernergruppe zu identifizieren; ist der Lernerfolg hingegen durch das Erreichen eines bestimmten Standards oder Kriteriums bestimmt, so ist der Test kriterienorientiert. All diese Klassifizierungen schlieβen sich nicht gegenseitig aus, vielmehr sind sie auf einem Kontinuum angeordnet und Überschneidungen sind denkbar (z. B. Harsch 2012). Die folgende Tabelle gibt einen Überblick über die hier genannten Begriffe: Testzwecke (Auswahl)

• punktuelle Kompetenzmessung • Individualdiagnose • längsschnittliche Untersuchung von Kompetenzentwicklung • Bildungsmonitoring • Evaluation von Lehrmethoden • Erforschung von Interventionseffekten • Untersuchung von Einflüssen und Zusammenhängen bestimmer Faktoren in Lehr- und Lernkontexten

Einsatz

• large-scale – landesweite Untersuchungen wie etwa DESI oder der Ländervergleich

• small-scale – etwa das eigene Klassenzimmer 14 Hier darf auf die Qualitätsstandards der internationalen Testgesellschaften verwiesen werden, vgl. etwa Association of Language Testers in Europe (ALTE 2001), European Association of Language Testing and Assessment (EALTA 2006), oder International Language Testing Association (ILTA 2007).

5.2.8 Testen

207

large-scale – formale, standardisierte Tests

– operationalisieren ein theoretisches Konstrukt – müssen Gütekriterien genügen – formal erprobt (pilotiert) – generalisierbare Ergebnisse bei repräsentativer Stichprobe small-scale – kleine Stichprobe, oft das eigene Klasszimmer

– keine generalisierbaren Ergebnisse Auswirkungen

• high-stakes Tests ziehen Berechtigungen nach sich • low-stakes Tests haben i. d. R. keine an sie gebundenen Berechtigungen

Testarten

• Kompetenztest

erfasst handlungsbezogene Sprachkompetenzen, unabhängig von Curricula und spezifischen Lehr-/Lernkontexten

• Lernerfolgskontrolle

ist ausgerichtet auf die Bereiche und Inhalte, die in einem bestimmten Zeitraum in einem bestimmten Kontext gelehrt wurden

• Diagnosetest

erfasst durch groβe Anzahl von Aufgaben detaillierte Aspekte, ermöglicht Rückschlüsse auf Stärken und Schwächen der Lernenden

• Einstufungstest

bestimmt mit geringem Aufwand Zulassung zu einem bestimmten Programm, oft mittels Indikatoren

formativ / summativ

• formative Beurteilung: lernfördernd und entwickelnd • summative Tests: Fokus auf Können zu einem bestimmten Zeitpunkt

norm- / kriterienorientiert

• normorientiert: Ausrichtung eines Tests auf eine bestimmte Bezugsgruppe

• kriterienorientiert: Ausrichtung auf inhaltlich-qualitative Kriterien

Tabelle 1: Übersicht Begrifflichkeit zum Testen

Eine Besonderheit von Tests sei hier erwähnt: In der Fremdsprachenforschung kommt Tests eine duale Rolle zu. Sie können als Forschungsinstrument zur Datenerhebung und Leistungsmessung dienen. Sie können aber auch zum Gegenstand der (interdisziplinären) Forschung werden, wenn es darum geht, neu entwickelte Instrumente auf ihre Güte hin zu überprüfen und sie zu validieren (Testanalyse und ‑validierung, z. B. Bachman/Palmer 2010, Lienert/ Raatz 1998), oder Auswirkungen von Tests zu untersuchen (prädiktive, systemische Validität, z. B. Weir 2005; Washback-Studien, vgl. etwa Green 2007, Wall 2005). 2 Gütekriterien

Da in beiden Einsatzbereichen die Güte der Testinstrumente eine zentrale Rolle spielt, sollen hier die wichtigsten Qualitätskriterien aufgelistet werden (Bachman 2004, Bachman/Kunnan 2005, Douglas 2010, Grotjahn 2007). Die bekanntesten Kriterien umfassen Reliabilität und Validität. Reliabilität bezieht sich auf die Messkonsistenz oder Zuverlässigkeit der Messung und wird in der Regel statistisch geprüft, etwa durch den Index Cronbachs Alpha. Relia-

208

5. Forschungsverfahren

bilität umfasst auch Aspekte der Bewerterkonsistenz, welche ebenfalls statistisch ermittelt wird (s. etwa die Studien von Harsch/Martin 2012, 2013). Objektivität bezieht sich auf die Unabhängigkeit der Beurteilung vom Beurteiler oder dem Beurteilungsinstrument, und ist eine Voraussetzung für Reliabilität, ebenso wie Reliabilität als Voraussetzung der Validität betrachtet wird. Validität bezieht sich auf die Frage, ob ein Test das misst, was er zu messen vorgibt, ob er also die Kompetenzen und Fähigkeiten erfasst, auf die hin er ausgelegt wurde. Validität wird zunehmend von einer qualitativen Warte aus diskutiert und untersucht (z. B. Kane 2001, Messick 1989, Weir 2005 oder die Validierungsstudie von Rossa 2012, die unten vorgestellt wird). Die Validierung eines Tests zieht sich idealiter durch den gesamten Testentwicklungsprozess und den eigentlichen Testeinsatz, um in jeder Phase empirische Belege sammeln zu können (s. unten). Manche Forscher beziehen auch die Auswirkungen von Tests in die Validitätsforschung mit ein. Die Konsequenzen und Auswirkungen von Tests auf die Kontexte, in denen sie zum Einsatz kommen, werden im Bereich der so genannten consequential validity (Weir 2005) oder auch systemischen Validität untersucht. Dem Kriterium der Praktikabilität kommt insofern Bedeutung zu, als dass Testentwicklung ein ressourcenintensives Vorhaben ist, so dass begrenzte Ressourcen Auswirkungen auf die Testgüte haben können. Praktikabilität spielt aber auch beim Einsatz von Tests eine Rolle, denn die Durchführung der Tests muss praktikabel und die Beantwortung der Testaufgaben machbar sein. Vermehrt werden auch ethische Aspekte als Qualitätskriterium diskutiert (vgl. etwa den ILTA Code of Ethics 2007 oder McNamara/Roever 2006); Testethik umfasst Aspekte der Testentwicklung ebenso wie die des Testeinsatzes und des Nutzens von Testergebnissen. Hier sollten, wie bei allen anderen Forschungsinstrumenten zur Datengewinnung, die geltenden Standards der Forschungsethik zur Anwendung kommen (s. Kapitel 4.6). 3 Testentwicklung und -analyse

Im Folgenden werden zentrale Schritte der Testentwicklung und -analyse näher beleuchtet, da sie eine unmittelbare Auswirkung auf die Güte der Testinstrumente haben. Auch wenn in der fremdsprachlichen Forschung oft bestehende und bereits validierte Tests als Forschungsinstrumente eingesetzt werden, ist dennoch Grundlagenwissen im Bereich der Testentwicklung und -analyse nötig, um das geeignete Instrument auszuwählen15. Testentwicklung und Testanalyse gehören einem iterativen, zyklischen Prozess an, der im Idealfall mit der Bedarfsanalyse beginnt; hier werden Einsatzzweck, Zielgruppe und zu testende Bereiche (Konstrukte) bestimmt, ehe das eigentliche Testentwicklungsprojekt geplant werden kann. Sind Fragen der Praktikabilität und der Zuständigkeiten in der Testentwicklung geklärt, muss der Test in so genannten Spezifikationen zunächst charakterisiert und beschrieben werden. Insbesondere der Definition des zugrunde liegenden Konstrukts kommt besondere Bedeutung zu, ist dies doch die Grundlage der weiteren Testentwicklung und Validierung. Auf Basis der Spezifikationen können das Konstrukt operationalisiert und Testaufgaben konstruiert werden. Diese müssen in einem weiteren Schritt pilotiert werden; die statistische und qualitative Analyse (s. unten) der Pilotdaten liefert erste Hinweise zur Güte und sollte idealiter zur Revision derjenigen Testaufgaben führen, die den Gütekriterien nicht genügen. In dieser Phase können qualitative Experteneinschätzungen zur Inhalts- und 15 Vgl. auch die Checkliste zur Auswahl bestehender Testinstrumente in Harsch 2012: 161 – 162.

5.2.8 Testen

209

Konstruktvalidierung der Testaufgaben eingesetzt werden, ebenso wie Verfahren der Introspektion (s. Kapitel 5.2.5), um mentale Prozesse der Testprobanden zu untersuchen und so zur kognitiven Validierung beizutragen. Revidierte Aufgaben sollten neu pilotiert und reanalysiert werden. Genügen die Tests den Gütekriterien, können sie zum Einsatz kommen (s. unten). Die Daten der eigentlichen Testdurchführung müssen wiederum einer statistischen und qualitativen Analyse standhalten, um zu verlässlichen Ergebnisrückmeldungen zu kommen. Nun können sich Validierungsstudien anschlieβen, etwa um kriterienbezogene Validität im direkten Vergleich zu bereits validierten Testinstrumenten zu untersuchen, oder um Impact- und Washback-Effekte zu erforschen. Tests, die regelmäßig zum Einsatz kommen, sollten fortlaufend auf ihre Güte und ihre Effekte hin evaluiert und ggf. revidiert werden. Testanalysen umschließen i. d. R. qualitative und quantitative Aspekte (z. B. Bachman 2004, Bortz/Döring 2002, Lienert/Raatz 1998). Statistische Itemanalysen können mittels der klassischen Testtheorie oder mittels der Item-Response-Theory (IRT) ausgeführt werden, wobei nur letztere relativierbare Aussagen in Bezug auf die Schwierigkeiten der Testaufgaben zulassen. Klassische Analysen hingegen beziehen sich immer nur auf die Probandengruppe, die den Test auch tatsächlich abgelegt hat. Regelmäßig werden Testaufgaben klassisch auf ihre Reliabilität, ihre Lösungshäufigkeiten und ihre Diskriminanz untersucht, ebenso wie auf die Funktionalität ihrer Distraktoren und auf etwaigen Bias, die Begünstigung oder Benachteiligung bestimmter Gruppen. IRT-Analysen untersuchen diese Aspekte ebenfalls, doch sie haben den Vorteil, dass sie Probandenfähigkeiten und Aufgabenschwierigkeiten auf derselben Skala abbilden; allerdings benötigt man für sie hinreichend große Stichproben (s. auch Kapitel 5. 3. 11). Testaufgaben, die produktive Fertigkeiten erfassen, verlangen zusätzlich die Konstruktion von Bewertungskriterien und die Untersuchung der Bewerterreliabilitäten. Bei der Konstruktion der Bewertungskriterien und -raster können theoretische Modelle oder empirische Lernerleistungen als Basis genutzt werden (Fulcher 1996); die Bewertungsraster müssen erprobt und validiert werden (vgl. die Validierungsstudie von Harsch/Martin 2012). Bei der Untersuchung der Bewerterreliabilität können IRT-Analysen (Multifacetten-Modelle, Eckes 2011) wertvolle Hilfe leisten, da sie Bewerterstrenge, Aufgabenschwierigkeiten und Probandenfähigkeiten berücksichtigen (z. B. die Studie von Harsch/Rupp 2011). Dazu können qualitative Studien zum Bewerterverhalten treten, um die Güte und Validität der Auswertung zu evaluieren (z. B. Lumley 2005 oder Arras 2007). 4 Einsatz von Tests als Untersuchungsinstrument

Im Folgenden wird anhand von Forschungsarbeiten dargestellt, wozu Tests als Untersuchungsinstrumente in der Fremdsprachenforschung eingesetzt werden können. Dabei werde ich auf zwei Bereiche eingehen, den der Interventionsstudien und den Bereich der standardisierten Leistungsmessungen. Die Referenzarbeit von Biebricher (2008) und die Arbeit von Rumlich (2012) illustrieren Interventionsstudien mit (quasi-) experimentalen Prä-/Posttest-Designs. In diesem Untersuchungsdesign helfen Tests, Effekte von Interventionen festzustellen. Dabei werden Tests vor und nach der Intervention eingesetzt, um Leistungsunterschiede zu messen. Hier ist zu beachten, dass vergleichbare Tests zum Einsatz kommen müssen, um Effekte der Intervention,

210

5. Forschungsverfahren

und nicht etwa Einflüsse der unterschiedlichen Tests zu messen. Dabei kann es helfen, standardisierte und bereits kalibrierte Testinstrumente zu wählen, deren Schwierigkeiten bekannt sind und die ein vergleichbares Konstrukt messen. Bei Biebricher (2008) etwa kommen erprobte und validierte standardisierte Testaufgaben aus dem Cambridge Proficiency EnglishTest PET zur Prä- und Posttestung zum Einsatz, um die Auswirkungen extensiven Lesens auf die Lese- und Sprachkompetenz von Realschülern zu untersuchen; diese werden während der Intervention durch nicht-standardisierte Leseproben begleitet. In einem ähnlichen quasi-experimentellen Design untersucht Rumlich (2012) die Auswirkung bilingualen Unterrichts in einer Longitudinalstudie. Zu drei Messzeitpunkten setzt er erprobte Tests ein, unter anderem die C-Tests aus der KESS-Studie und zwei Schreibaufgaben aus VERA6. Die Referenzarbeit von Marx (2005) illustriert ein Studiendesign, das zwei balancierte Gruppen vergleicht (nur die Experimentalgruppe erhält eine Intervention). Hierbei liegt der Fokus lediglich auf dem Vergleich des Lernstands zwischen den beiden Gruppen, und nicht wie oben auf dem Lernzuwachs, sodass eine Prä-/Posttestung entfallen kann. Da in beiden Gruppen dieselben informellen Lernerfolgstests parallel eingesetzt werden, sind die Ergebnisse direkt vergleichbar. Kommen selbst entwickelte Tests zum Einsatz, ist deren Gütebestimmung wichtig (s. oben). Es gilt dabei, die oben erwähnten Schritte der Testentwicklung zu beachten, um von einem theoriegeleiteten Konstrukt zu einem validen und reliablen Messinstrument zu kommen. Biebricher (2008) dokumentiert eine gelungene C-Test-Entwicklung, ausgelegt auf ihre Studienzwecke und die Zielgruppe hin. Bei allen Testeinsätzen muss beachtet werden, dass diese in der Zielgruppe zunächst pilotiert werden sollten, selbst wenn standardisierte und kalibrierte Tests ausgewählt wurden, wie dies zum Beispiel von Biebricher (2008) oder Rumlich (2012) berichtet wird. Kommen selbst entwickelte Tests zum Einsatz, ist die Pilotierung umso wichtiger, will man doch sicherstellen, dass die Tests das intendierte Konstrukt valide messen und dass die Testversionen der Prä- und Posttestung vergleichbare Ansprüche stellen. Biebricher (2008) etwa schaltet ihrer Hauptuntersuchung eine Pilotphase und eine Vorstudie vor, um die Testinstrumente in ihrer Zielgruppe auf ihre Reliabilität und Eignung zu prüfen. Bei Prä-/Posttest-Designs sollte bedacht werden, dass nicht derselbe Test zu beiden Messzeitpunkten eingesetzt wird, um nicht Interventionseffekte mit dem Lernzuwachs zu konfundieren, der alleine durch das wiederholte Ablegen desselben Tests erzielt wird. Dazu kann es hilfreich sein, zwei vergleichbare Testversionen, etwa auf Basis der Pilotierung, zu erstellen, und diese zu beiden Zeitpunkten in einem gekreuzten Design einzusetzen: In beiden Gruppen (Experimental- und Kontrollgruppe) kommen zu jedem Messzeitpunkt beide Versionen zum Einsatz, doch jeder Schüler bearbeitet je eine andere Version zu den beiden Zeitpunkten. Wenn beide Versionen so genannte Ankeritems enthalten (Testaufgaben, die in beiden Versionen vorkommen), können die Testergebnisse verlinkt werden. Bei genügend großer Stichprobe leisten IRT-Analysen (s. oben) wertvolle Hilfe. Um Veränderungen im Leistungszuwachs zu verschiedenenen Messzeitpunkten und in verschiedenen Gruppen zu untersuchen, werden i. d. R. statistische Signifikanztests und Varianzanalysen (ANOVA) durchgeführt. Nicht nur Tests, auch die Zusammensetzung und Auswahl der Untersuchungsgruppen kann die Forschungsergebnisse beeinflussen. Um SchülerInnen in vergleichbar leistungsstarke Untersuchunggruppen (in Experimentaldesigns Experimental- und Kontrollgruppen

5.2.8 Testen

211

genannt) einzuteilen, können Einstufungstests hiflreiche Dienste leisten. Hier nutzt etwa Biebricher (2008) die erwähnten selbst entwickelten C-Tests zur Gruppeneinteilung. Aber auch wenn es darum geht, Probanden auszuwählen, die sich in ihrer Leistungsstärke unterscheiden, können C-Tests zum Einsatz kommen, wie Rossa (2012) exemplifiziert: Er nutzt die in der DESI-Studie erprobten C-Test, um leistungsstarke und leistungsschwache SchülerInnen auszuwählen, deren Hörverstehensprozesse er dann duch Lautes Denken untersucht und vergleicht. Die Testinstrumente in Interventionsstudien werden in der Regel flankiert durch weitere, auch qualitative Instrumente, um die Testdaten anzureichern und quantitative Befunde erklären zu können. Marx (2005) etwa nutzt retrospektive Befragungen (s. Kapitel 5.2.4); Biebricher (2008) setzt neben Fragebögen Beobachtungen (s. Kapitel 5.2.3), Leitfadeninterviews und impulsgestützte Stellungnahmen sowie nicht-standardisierte Leseproben ein. Der Forschungsbereich der standardisierten Leistungsuntersuchungen soll hier durch die large-scale Schulleistungsstudie Deutsch-Englisch Schülerleistungen International (DESI; DESI-Konsortium 2008) und den KMK-Ländervergleich (Köller/Knigge/Tesch 2010) illustriert werden. Bei DESI wurden Sprachkompetenztests in einem Längsschnittdesign summativ zum Systemmonitoring für den Sprachunterricht eingesetzt, begleitet durch Fragebögen und Unterrichtsvideografie: „Als bundesweit repräsentative Untersuchung und durch ihre breitgefächerte Anlage ermöglicht die Studie differenzierte Aussagen über Lehr-Lernprozesse und den Erwerb sprachlicher Kompetenzen, die für Unterrichtspraxis, Lehrerbildung und Bildungspolitik gleichermaßen wichtig sind.“ (Klieme 2008: 1). Hierzu wurden die Kompetenztests und Fragebogeninstrumente auf Basis von Curriculumanalysen und theoretischen Konstrukten entwickelt, pilotiert und validiert, ehe sie zum Einsatz kamen (Beck/Klieme 2007). Die repräsentative Stichprobe erlaubt Rückschlüsse auf die Gesamtheit der Schülerinnen und Schüler in der neunten Jahrgangsstufe. Diese Generalisierbarkeit ist auch für den KMK-Ländervergleich gegeben, der dem Bildungsmonitoring dient. Den Rahmen des Bildungsmonitoring bilden die 2003 bzw. 2004 verabschiedeten Bildungsstandards der KMK, die die „Gleichwertigkeit der schulischen Ausbildung und die Schulabschlüsse in den Ländern“ (Köller/Knigge/Tesch 2010: 9) sicherstellen sollen. Folgerichtig wurden die Bildungsstandards in kompetenzorientierte Testaufgaben operationalisiert, die am IQB Berlin pilotiert, validiert und normiert wurden (s. hierzu auch die Ausführungen unten in Abschnitt 6). Der Ländervergleich überprüft nun, inwieweit die Bildungsstandards in den Ländern auch erreicht werden. Dabei ist zu beachten, dass solche großangelegten Schulleistungsstudien nicht den Anspruch erheben, Aussagen bezogen auf individuelle Lernende oder deren individuelle Lernfortschritte zu treffen. Es geht vielmehr um generalisierbare Rückschlüsse auf die Gesamtheit der Lernenden im Schulsytem. Testeinsatz und Durchführung

Die folgenden Ausführungen wenden sich wieder den small-scale Studien zu, denn FremdsprachenforscherInnen werden Tests meist in Studien einsetzen, die vergleichsweise klein angelegt sind; große Schulleistungsstudien werden i. d. R. durch Testinstitute durchgeführt. Ist das Forschungsdesign geplant, die Konstrukte bestimmt, und die Testinstrumente und Bewertungsschemata entwickelt, erprobt und auf ihre Güte hin analysiert, können sie einge-

212

5. Forschungsverfahren

setzt werden. Alternativ können existente Tests zum Einsatz kommen, wenn sie auf ihre Passung für ein bestimmtes Forschungsvorhaben geprüft sind und Nutzungsrechte eingeholt werden konnten. Vor jedem Einsatz eines existenten Testinstruments ist zu prüfen, ob der Einsatzbereich, in dem ein bestimmter Test verwendet werden soll, auch mit den Zwecken, Bereichen und Zielgruppen vereinbar ist, für die der Test ursprünglich validiert wurde. Andernfalls riskiert man, nicht-valide Daten zu erheben. Sind Konstrukte, Kontexte, Zwecke und Ziele vereinbar, muss eine geeignete Stichprobe gefunden und Genehmigungen zur Datenerhebung eingeholt werden. Gerade bei Untersuchungen an Schulen müssen gesetzliche Regelungen (etwa Elterngenehmigungen) beachtet werden, die je nach Bundesland variieren. Der Testeinsatz selbst, soll er unter standardisierten Bedingungen ablaufen, erfordert eventuell die Schulung von Testleitern und das Erstellen von Testleiterskripten, die helfen den Ablauf am Testtag zu regeln. Werden Hörverstehens- oder Hör-/Sehverstehenstests eingesetzt, müssen geeignete Abspielgeräte bereitgestellt werden. Die Durchführung mündlicher Tests sollte durch geschulte Personen durchgeführt werden; die Lernerleistungen sollten idealiter für spätere Analysen aufgezeichnet werden. Ist dies nicht möglich, müssen sie simultan während der Erhebung bewertet werden; dies könnte jedoch die Transparenz und Nachvollziehbarkeit der Bewertung beeinflussen. Die Bewertung produktiver Leistungen erfordert ein Bewertertraining. Hier haben sich so genannte Benchmark-Texte bewährt, Lernerleistungen also, die ein bestimmtes Kriterium und Niveau illustrieren. Sie können beispielsweise aus den Pilotierungen gewonnen werden. Generell muss die Auswertung der Tests geplant und organisiert werden, ebenso wie die Dateneingabe, Bereinigung und Aufbereitung, bevor die Daten analysiert werden können. Es empfiehlt sich, den teilnehmenden Probanden (Lernenden wie Lehrenden) (ggf. vorläufige) Ergebnisse zeitnah rückzumelden. Hierfür sollten die Ergebnisse in einer für die Teilnehmer nützlichen Weise aufbereitet werden. Für Rückmeldung und weitere Auswertungen muss entschieden werden, wie die Daten ausgewertet und aufbereitet werden sollen. Dies hängt wiederum vom Zweck der Untersuchung und den Forschungsfragen ab, ebenso wie von der Gröβe der Stichprobe. Bei groβen Stichproben werden Testdaten i. d. R. IRT-skaliert (s. oben). Die resultierende Kompetenzskala kann ggf. in Kompetenzniveaus eingeteilt werden über so genannte Standard-Setting Verfahren (s. z.B. Cizek/Bunch 2007 für einen Überblick über verschiedene Methoden). Oft werden Fremdsprachentests dabei an den Gemeinsamen europäischen Referenzrahmen (Europarat 2001) angebunden; das Manual for Relating Examinations to the CEFR (Council of Europe 2009) gibt Hilfestellung bei der Durchführung. Ein Beispiel für solch eine Anbindungsstudie findet sich in Harsch/Pant/Köller (2010). 5 Testinstrumente als Untersuchungsgegenstand

Wie oben angedeutet, kommt Tests in der Fremdsprachenforschung eine duale Bedeutung zu – sie werden oft vor ihrem eigentlichen Einsatz zum Gegenstand der Forschung. Dieser Bereich soll hier knapp anhand von Validierungsstudien, begleitender Forschung in der Testentwicklung und Impact-/Washback-Studien dargestellt werden. Den Bereich der Validierungsstudien soll die Arbeit von Rossa (2012) illustrieren. Er untersucht die Konstruktvalidität der Hörverstehenstestaufgaben aus der DESI-Studie. Mittels

5.2.8 Testen

213

5.2.8 Testentwicklung

zur Erhebung, Messung und Beurteilung fremdsprachlicher Lernleistungen und Lernstände Bedarfsanalyse

Validierung als begleitender Prozess von Bedarfsanalyse bis Testevaluation

Planung

Spezifikation Konstruktdefinition

Operationalisierung: Konstruktion der Items/tasks und Bewertungskriterien Pilotierung Analyse Revision

Testeinsatz Testauswertung

Testevaluation

Zwecke

Gütekriterien

Kompetenztests, Diagnosetests, Lernerfolgskontrollen, Einstufungstests etc.

Reliabilität, Validität, Objektivität, Praktikabilität, Testethik

Grafik nach: Council of Europe (2011) Manual for Language Test Development and Examining, fig. 15, S. 47 http://www.coe.int/t/dg4/linguistic/ManualLanguageTest-Alte2011_EN.pdf)

214

5. Forschungsverfahren

introspektiver Verfahren (s. Kapitel 5.2.5) elizitiert er mentale Prozesse von Testprobanden, wobei er kompetente und weniger kompetente Lerner vergleicht; die Gruppenzuteilung erfolgt mittels der DESI C-Tests. Die Referenzarbeit von Arras (2007) kann ebenfalls dem Bereich der Validierungsstudien zugeordnet werden. Sie erforscht Beurteilerstrategien und Prozesse bei der Bewertung schriftlicher Leistungen im TestDaF. In ihrer Studie werden introspektive Erhebungsverfahren eingesetzt, um Beurteilungsvalidität zu untersuchen. Die begleitende Forschung in der Testentwicklung wird am Beispiel der Studien von Harsch/Rupp (2011) und Harsch/Martin (2012, 2013) illustriert, die die Testentwicklung zur Evaluation der Bildungsstandards am IQB Berlin, insbesondere die Entwicklung der Schreibaufgaben und die Validierung der Bewertungsskalen, begleitete. Der Bereich der Impact-/Washback-Studien gewinnt zunehmende Bedeutung, um die Auswirkungen von Tests in ihren bildungs- und sozialpolitischen Kontexten zu untersuchen. Eine Übersicht über solche Studien findet sich in Taylor/Weir (2009). Green (2007) und Wall (2005) beispielsweise untersuchen die Auswirkungen von high-stakes Tests auf Fremdsprachenunterricht in verschiedenen Kontexten. 6 Potenzial des Einsatzes von Testinstrumenten

Testinstrumente sind in zahlreichen Studien erfolgreich eingesetzt worden, um empirische Daten zur Leistungsmessung zu gewinnen. Selbstredend erfordern Testentwicklung und Testeinsatz ein ausreichendes Maß an Sachwissen und Expertise, um verantwortungsvoll mit Tests und ihren Auswirkungen umzugehen, sei es in der Forschung, im Klassenzimmer oder in der Bildungspolitik. Dieser Bereich der assessment literacy erfährt zunehmend Aufmerksamkeit, scheint es doch gerade hier großen Bedarf unter allen an der Beurteilung Beteiligten zu geben (z. B. Fulcher 2012). Zur Förderung der assessment literacy bieten Standardwerke zu Testen und Beurteilung einen ersten Einstieg (etwa Bachman/Palmer 2010, Dlaska/Krekeler 2009, Douglas 2010, Fulcher 2010); die Internetseite von Glenn Fulcher (http://languagetesting.info) bietet aktuelle Informationen zu Beurteilen und Testen. Darüber hinaus bieten Gesellschaften wie ALTE (www.alte.org), EALTA (www.ealta.eu.org) oder ILTA (www.ilta.org) regelmäßig Fortbildungsangebote in Form von Sommerschulen und Workshops an. Standardisierte Testverfahren haben gegenüber anderen Formen der Leistungserhebung den Vorteil, vergleichbare und verlässliche Daten zu erheben, die bei geeigneter Stichprobengröße und -zusammensetzung Aussagen auf Populationen und Vergleiche über Bezugsgruppen hinweg ermöglichen. In Interventionsstudien sind reliable und valide Testdaten eine der Voraussetzungen, um Effekte von Interventionen zu evaluieren. Tests erlauben auch die Untersuchung des Einflusses bestimmter Faktoren auf die Kompetenzentwicklung, sowie die Erforschung der Struktur von Kompetenzen, etwa über Regressionsanalysen und Strukturgleichungsmodelle (vgl. Kapitel 5. 3. 11). Diese empirisch basierten Studien sind in der deutschen Fremdsprachenforschung, wie überhaupt in der deutschen Bildungspolitik, ein relatives Novum und werden teils kritisch rezipiert. Bei aller berechtigten Kritik (etwa gegen extensives Testen, das alleine nicht zur Verbesserung des Unterrichts führt) muss jedoch das Potential guter Tests als Forschungs- und Evaluationsinstrument erkannt werden: Zur Erhebung reliabler valider empirischer Daten zu bestimmten Messzeitpunkten sind Tests unerlässlich; zudem ermöglichen standardisierte Tests Vergleichbarkeit und Gerechtigkeit

5.2.8 Testen

215

dadurch, dass derselbe kalibrierte und validierte Maßstab an alle Testteilnehmer angelegt wird. Werden Tests um qualitative Instrumente und Zugänge ergänzt, wie dies häufig in der Interventions- und testbegleitenden Forschung geschieht, so erlauben solche mixed-methods Forschungsdesigns (s. Kapitel 3.3; Creswell/Plano Clark 2007) eine umfassendere Sicht auf die Forschungsfragen, als dies mit rein quantitativen oder rein qualitativen Designs möglich wäre. ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Arras, Ulrike (2007). Wie beurteilen wir Leistung in der Fremdsprache? Strategien und Prozesse bei der Beurteilung schriftlicher Leistungen in der Fremdsprache am Beispiel der Prüfung Test Deutsch als Fremdsprache (TestDaF). Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Association of Language Testers in Europe (2001). ALTE principles of good practice for ALTE examinations. [Online: http://alte.columnsdesign.com/setting_standards/code_of_practice.] (16. 02. 2015) Bachman, Lyle F. (2004). Statistical analyses for language assessment. Cambridge: Cambridge University Press. Bachman, Lyle F./Kunnan, Anthony J. (2005). Statistical analyses for language assessment. Workbook and CD. Cambridge: Cambridge University Press. Bachman, Lyle F./Palmer, Adrian S. (2010). Language assessment in practice. Oxford: Oxford University Press. Beck, Bärbel/Klieme, Eckhard (Hg.) (2007). Sprachliche Kompetenzen. Konzepte und Messungen DESIStudie. Weinheim: Beltz. *Biebricher, Christine (2008). Lesen in der Fremdsprache. Eine Studie zu Effekten extensiven Lesens. Tübingen: Narr. [Referenzarbeit, s. Kapitel 7] Bortz, Jürgen/Döring, Nicola (2002). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 3. überarbeitete Auflage. Berlin: Springer. Cizek, Gregory J./Bunch, Michael B. (2007). Standard-setting. A guide to establishing and evaluating performance standards on tests. Thousand Oaks: Sage. Cohen, Louis/Manion, Lawrence/Morrison, Keith (2011). Research Methods in Education. 7. Auflage. London: Routledge. Council of Europe (2009). Relating language examinations to the Common European Framework of Reference for Languages (CEF). A Manual. Straßburg: Language Policy Division. Creswell, John W./Plano Clark, Vicky L. (2007). Designing and Conducting Mixed Methods Research. Thousand Oaks: Sage. *DESI-Konsortium (Hg.) (2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz. Dlaska, Andrea/Krekeler, Christoph (2009). Sprachtests. Leistungsbeurteilungen im Fremdpsrachenunterricht evaluieren und verbessern. Hohengehren: Schneider. Douglas, Dan (2010). Understanding Language Testing. London: Hodder Education. Eckes, Thomas (2011). Introduction to Many-Facet Rasch Measurement. Analyzing and Evaluating Rater-Mediated Assessments. Frankfurt a. M.: Lang. Europarat (2001). Gemeinsamer Europäischer Referenzrahmen für Sprachen: Lernen, Lehren, Beurteilen. Berlin: Langenscheidt.

216

5. Forschungsverfahren

European Association for Language Testing and Assessment (2006). Guidelines for Good Practice in Language Testing and Assessment. [Online: http://www.ealta.eu.org/guidelines.htm.] (16. 02. 2015) Fulcher, Glenn (1996). Does thick description lead to smart tests? A data-based approach to rating scale construction. In: Language Testing 13, 208 – 238. Fulcher, Glenn (2010). Practical Language Testing. London: Hodder Education. Fulcher, Glenn (2012). Assessment Literacy for the Language Classroom. In: Language Assessment Quarterly 9, 113 – 132. *Green, Anthony (2007). Washback to learning outcomes: a comparative study of IELTS preparation and university pre-sessional language courses. In: Assessment in Education: Principles, Policy & Practice 14, 75 – 97. Grotjahn, Rüdiger (2007). Qualitätsentwicklung und -sicherung: Gütekriterien von Tests und Testaufgaben. In: Der Fremdsprachliche Unterricht Französisch 88, 44 – 46. Grotjahn, Rüdiger (2010). Sprachtests: Formen und Funktionen. In: Hallet, Wolfgang/Königs, Frank G. (Hg.). Handbuch Fremdsprachendidaktik. Seelze-Velber: Kallmeyer, 211 – 215. Harsch, Claudia (2012). Der Einsatz von Sprachtests in der Fremdsprachenforschung: Tests als Untersuchungsgegenstand und Forschungsinstrument. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 150 – 183. *Harsch, Claudia/Martin, Guido (2012). Adapting CEF-descriptors for rating purposes: Validation by a combined rater training and scale revision approach. In: Assessing Writing 17, 228 – 250. *Harsch, Claudia/Martin, Guido (2013). Using descriptors as the basis for analytic rating  – improving level-specific writing assessment. In: Assessment in Education: Principles, Policy & Practice 20, 281 – 307. *Harsch, Claudia/Pant, Hans Anand/Köller, Olaf (Hg.) (2010). Calibrating Standards-based Assessment Tasks for English as a First Foreign Language. Standard-setting Procedures in Germany. Münster: Waxmann. *Harsch, Claudia/Rupp, André A. (2011). Designing and scaling level-specific writing tasks in alignment with the CEFR: a test-centered approach. In: Language Assessment Quarterly 8, 1 – 33. International Language Testing Association (2007). ILTA guidelines for practice. [Online: http://www. iltaonline.com/index.php?option=com_content&view=article&id=182:ilta-code-of-ethics-and-guide​ lines-for-practice-as-pdf-files&catid=3] (09. 03. 2015). Kane, Michael (2001). Current Concerns in Validity Theory. In: Journal of Educational Measurement 38, 319 – 342. *Klieme, Eckhard (2008). Systemmonitoring für den Sprachunterricht. In: DESI-Konsortium (Hg.) (2008). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz, 1 – 10. *Köller, Olaf/Knigge, Michael/Tesch, Bernd (Hg.). (2010). Sprachliche Kompetenzen im Ländervergleich. Münster: Waxmann. Lienert, Gustav/Raatz, Ulrich (1998). Testaufbau und Testanalyse. 6. Auflage. Weinheim: Beltz. Lumley, Tom (2005). Assessing second language writing: the rater’s perspective. Frankfurt: Lang. *Marx, Nicole (2005). Hörverstehensleistungen im Deutschen als Tertiärsprache. Zum Nutzen eines Sensibilisierungsunterrichts im „DaF-nE“. Baltmannsweiler: Schneider Hohengehren. [Referenzarbeit, s. Kapitel 7] McNamara, Tim/Roever, Carsten (2006). Language testing: The social dimension. London: Blackwell. Messick, Samuel A. (1989). Validity. In: R. L. Linn (Hg.). Educational Measurement. 3. Auflage. Washington DC: The American Council on Education and the National Council on Measurement in Education, 13 – 103. *Rossa, Henning (2012). Mentale Prozesse beim Hörverstehen in der Fremdsprache. Eine Studie zur Validität der Messung sprachlicher Kompetenzen. Frankfurt a. M.: Lang.

5.2.8 Testen

217

*Rumlich, Dominik (2012). Die Studie ‚Development of North Rhine-Westphalian CLIL students‘. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 169 – 178. *Taylor, Lynda/Weir, Cyril J. (Hg.) (2009). Language Testing Matters: Investigating the wider social and educational impact of assessment – Proceedings of the ALTE Cambridge Conference, April 2008. Cambridge: Cambridge ESOL and Cambridge University Press. *Wall, Dianne (2005). The Impact of High-Stakes Examinations on Classroom Teaching: A Case Study Using Insights from Testing and Innovation Theory. Cambridge: Cambridge ESOL and Cambridge University Press. Weir, Cyril (2005). Language Testing and Validation. Oxford: Palgrave. »»  Zur Vertiefung empfohlen Bachman, Lyle F. (2004). Statistical analyses for language assessment. Cambridge: Cambridge University Press. Bachman, Lyle F./Kunnan, Anthony J. (2005). Statistical analyses for language assessment. Workbook and CD. Cambridge: Cambridge University Press. Diese beiden Bände geben eine sehr gute Einführung in die statistische Testanalyse. Das workbook (mit CD) ergänzt die Monographie um praktische Beispiele und Übungen an realen Datensätzen. Bachman, Lyle F./Palmer, Adrian S. (2010). Language assessment in practice. Oxford: Oxford University Press. Diese Monographie ist eines der Standardwerke in der Testliteratur; sie diskutiert alle wesentlichen Aspekte des Designs, der Entwicklung und des Nutzens von Sprachtestes und Sprachbeurteilung. Insbesondere die Ausführungen zum Assessment Use Argument sind bemerkenswert, da sie die Testnutzung und den Einsatz von Beurteilung in den Mittelpunkt rücken. Dlaska, Andrea/Krekeler, Christoph (2009). Sprachtests. Leistungsbeurteilungen im Fremdsprachenunterricht evaluieren und verbessern. Hohengehren: Schneider. Dieses Buch wendet sich speziell an Lehrkräfte und Studierende, die für das Klassenzimmer Sprachtests entwickeln, verbessern und evaluieren möchten. Ausgerichtet auf die Unterrichtssituation werden Qualitätskriterien vorgestellt und anhand von Beispielen erläutert. Douglas, Dan (2010). Understanding Language Testing. London: Hodder Education. Dieser Band bietet eine kurze und leicht verständliche Einführung in die Natur, Entwicklung, Analyse und den Einsatz von Sprachtests. Harsch, Claudia (2012). Der Einsatz von Sprachtests in der Fremdsprachenforschung: Tests als Untersuchungsgegenstand und Forschungsinstrument. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 150 – 183. In diesem forschungsmethodischen Artikel werden Sprachtests in ihrer dualen Funktion als Forschungsinstrument und Untersuchungsgegenstand der Testforschung und -evaluation ausführlich dargestellt. Ausgehend von Qualitäts- und Gütekriterien diskutiert die Autorin Aspekte der Testanalyse, der weiterführenden Forschung zur Validierung, zur Bildung von Kompetenzniveaus und zur Evaluation der Auswirkungen von Tests. Der Beitrag bietet u. a. eine Checkliste, die die Analyse und Auswahl angemessener Tests für die eigene Forschung erleichtern soll. Darüber hinaus werden die grundsätzlichen Schritte des Testeinsatzes in Forschungsprojekten praxisorientiert beschrieben.

218

5. Forschungsverfahren

Kunnan, Anthony J. (Hg.) (2013). The Companion to Language Assessment. Oxford: WileyBlackwell. Dieses vier Bände umfassende Werk gibt einen aktuellen Überblick über das Gebiet der Sprachbeurteilung und -bewertung. Das Referenzwerk deckt 140 Aspekte der Beurteilung in einer Vielzahl von Kontexten ab. Es wendet sich an Forschende, Praktiker und Lehrkräfte auf dem Gebiet des fremdsprachlichen Lehrens und Beurteilens.

 Aufbereitung und Analyse von Dokumenten,

5.3

Texten und Daten Karen Schramm

Nicht erst dann, wenn wichtige Etappen des Forschungsprozesses wie die Gewinnung von Dokumenten, Texten oder Daten geschafft sind, stellt sich für den erfolgreichen Abschluss eines fremdsprachendidaktischen Forschungsprojekts die Frage nach einer zielführenden Aufbereitung und Analyse der Daten: Sie sollte bereits bei der Design-Erstellung Berücksichtigung finden. Das Methodenspektrum ist diesbezüglich ähnlich breit gefächert wie auch in Bezug auf die Gewinnung von Dokumenten, Texten und Daten (Kapitel 5.2). Es reicht von der Analyse historischer Quellen und von interpretativen Vorgehensweisen in Bezug auf deren Inhalte, Bedeutungen, Muster und Beziehungen (z. B. hermeneutische Verfahren, Grounded Theory, Dokumentarische Methode und Inhaltsanalyse) über Möglichkeiten der Typenbildung zu interpretativen Vorgehensweisen in Bezug auf linguistische Aspekte (z. B. diskursanalytische Auswertungsmethoden, Analysen von Lernersprache und Korpusanalysen) bis zu statistischen Verfahren (z. B. deskriptive und inferentielle Statistik oder exploratorische und konfirmatorische Faktorenanalyse). Aufbereitung

Die zuvor notwendige Aufbereitung ist dabei keinesfalls als mechanisches Vorgehen zu verstehen, sondern bereits als interpretativer Teil des Auswertungsprozesses. Sie sollte deshalb in diesem Sinne reflektiert und begründet werden. Beispielsweise stellt sich bei der Aufbereitung mündlicher Daten in Form von Transkripten die Frage nach einer zielführenden Genauigkeit: Sollten bei Interviews beispielsweise Phänomene der Mündlichkeit wie dialektale Färbung, Reparaturen oder sprachliche Fehler originalgetreu transkribiert oder sollte lieber eine geglättete Version erstellt werden? Erfordert die Transkription einer videografierten Unterrichtssequenz beispielsweise die genaue Dokumentation der Intonation, wie sie im Deutschen bei den Interjektionen (wie dem zustimmenden oder ablehnenden „hmhm“) bedeutungsunterscheidend ist, und welche nonverbalen und aktionalen Handlungen sollen bei der Transkription Berücksichtigung finden? Diese Beispiele zeigen, dass Transkriptionen kein simples, medial schriftliches Abbild mündlicher Daten sind, sondern dass diesbezüglich vor dem Hintergrund des Analyseziels und -verfahrens zahlreiche Entscheidungen begründet zu

5.3 Aufbereitung und Analyse von Dokumenten, Texten und Daten

219

treffen sind. Genauere Ausführungen zu der Vielzahl an Transkriptionsprogrammen wurden bereits in Kapitel 5.2.6 behandelt; im Zusammenhang mit diskursanalytischen Auswertungsmethoden wird in Kapitel 5.3.6 auch die Frage nach Transkriptionssystemen gestellt, die in unterschiedlichen theoretischen Schulen entwickelt wurden  – und damit noch einmal den interpretativen Charakter einer Datenaufbereitung illustrieren. Dieser trifft, wenn auch in geringerem Maße, ebenfalls auf die Aufbereitung von quantitativen Daten sowie von Dokumenten und Texten zu. Allgemeine Fragen der Datenaufbereitung betreffen u. a. die digitalen Möglichkeiten der Speicherung und Abfrage in projektspezifischen oder sogar öffentlich zugänglichen Datenbanken. Hier sind z. B. die Bereitstellung von Transkript-Korpora oder die Digitalisierung von historischen Quellen von Interesse. Als Beispiele für spezifische Aspekte der Datenaufbereitung sind für die Fremdsprachendidaktik u. a. Übersetzungen und Transliterationen relevant. Bei der Arbeit mit Übersetzungen ist beispielsweise zu überdenken, ob sich eine aufbereitende Übersetzung nicht eher nachteilig auf die Analyse  – beispielsweise das Erkennen latenter Sinnstrukturen  – auswirkt. Digitale Transliterationen handschriftlicher Produkte erweisen sich ebenfalls als non-triviales Unterfangen, wenn Bearbeitungsspuren, nicht eindeutig erkennbare Buchstaben von Schreibanfänger_innen, graphische Elemente o. ä. eine dem Untersuchungsgegenstand angemessene Aufbereitung erfahren sollen. Forschungen, die nicht-lateinische Alphabetschriften (wie die kyrillische oder griechische) oder nicht-alphabetische Schriften (wie chinesische Schriftzeichen) involvieren, können ebenfalls zielführende Aufbereitungen zu Zwecken der Analyse oder der Präsentation erfordern. Analyse

Bei der Analyse bedienen sich historische und theoretische Forschungen (Kapitel 3.1 und 3.2) grundsätzlich interpretativer Verfahren; in Bezug auf empirische Studien (Kapitel 3.3) lassen sich dagegen bei der Datenanalyse interpretative und statistische Vorgehensweisen unterscheiden. Die Analyse historischer Quellen (Kapitel 5.3.1) orientiert sich an aus der Geschichtswissenschaft übernommenen Verfahren wie der historischen Diskursanalyse oder der Quellenkritik, während für hermeneutische Verfahren (Kapitel 5.3.2) in Orientierung an philosophische und philologische Traditionen die Auslegung von Texten ausschlaggebend ist. Diese Analyseverfahren sind verwandt mit interpretativen Verfahren zur Analyse empirischer Daten wie der Grounded Theory und der Dokumentarischen Methode (Kapitel 5.3.3) oder der Inhaltsanalyse (Kapitel 5.3.4), welche von der Fremdsprachendidaktik vorrangig aus den Sozial- und Verhaltenswissenschaften übernommen bzw. für eigene Zwecke adaptiert wurden. Sie stellen beispielsweise Überlegungen zu Kodiervorgängen oder zu Zusammenfassungen ins Zentrum; dabei ist eine gängige Unterscheidung die zwischen datenexpandierenden und datenreduzierenden Verfahren. Auch Überlegungen zu Typenbildung (Kapitel 5.3.5) sind vorrangig von diesen Bezugswissenschaften inspiriert. Allerdings handelt es sich hierbei im Gegensatz zu den gerade genannten Verfahren um ein Vorgehen, das auf bereits ausgewertete Daten angewendet wird, um auf einer höheren Ebene ‚Ordnung zu schaffen‘.

220

5. Forschungsverfahren

Auch von der wichtigen Bezugsdisziplin der Linguistik sind zahlreiche in der Fremdsprachendidaktik eingesetzte Analyseverfahren stark beeinflusst. Der Pragmalinguistik entlehnt sind diskursanalytische Verfahren wie die Interaktionsanalyse und die Funktionale Pragmatik (Kapitel 5.3.6), die u. a. zum Gesprächsverhalten von Lehrpersonen (z. B. mündliches Korrekturverhalten, Fragetypen) oder zu Interaktionen in Partner- und Gruppenarbeiten Aussagen treffen können. Die Analyse von Lernersprache orientiert sich eng an phonetischen, grammatikalischen, lexikalischen und text-/diskurslinguistischen Bezugsarbeiten und ist insbesondere durch die Tradition der Zweitspracherwerbsforschung geprägt (Kapitel 5.3.7). Und auch korpuslinguistische Studien mit fremdsprachendidaktischer Intention sind klar mit Blick auf die wichtige Bezugsdisziplin der Sprachwissenschaft zu verorten (Kapitel 5.3.8). Neben dieser Vielfalt interpretativer Auswertungsverfahren stehen die statistischen Vorgehensweisen, die in der Fremdsprachendidaktik bislang eine vergleichsweise geringe Beachtung erfahren haben (Kapitel 5.3.9). Wichtige Impulse hierzu erhält die Fremdsprachendidaktik insbesondere aus den Sozial- und Bildungswissenschaften, der Psychologie und der empirischen Bildungsforschung. Das Kapitel 5. 3. 10 stellt die entsprechenden Grundlagen deskriptiver und inferentieller Statistik dar, während das Kapitel 5. 3. 11 komplexere statistische Verfahren wie die explorative und konfirmatorische Faktorenanalyse erläutert. Die in der fremdsprachendidaktischen Forschung eingesetzten Analyseverfahren sind also äußerst breit gefächert – und die Orientierung über diese Vielfalt stellt nicht nur für Noviz_innen eine Herausforderung dar. Der konkrete Einsatz eines solchen Verfahrens erfordert einen gewissen Grad an methodischer Spezialisierung; hierbei kann die Beratung durch Mentor_innen und Peers äußerst wertvolle Unterstützung bieten.

5.3.1 Analyse historischer Quellen Dorottya Ruisz/Elisabeth Kolb/Friederike Klippel

Für die historische Arbeit kommen alle für die Fremdsprachendidaktik relevanten schriftlichen, bildlichen oder gegenständlichen Dokumente in Frage wie z. B. Fachzeitschriften, Lehrpläne, Schulbücher oder Fotografien. Die Sammlung dieser Quellen geschieht im zyklischen heuristischen Prozess des Suchens und Findens; dabei werden Forschungsfrage(n) und Quellenbasis sukzessive präzisiert (siehe Kapitel 5.2.1 und 5.2.2). Wenn ein zu analysierendes Quellenkorpus vorliegt, das neue Erkenntnisse zu den Forschungsfragen verspricht, folgen gemäß der klassischen historischen Methode die Schritte der Kritik und der Interpretation der Quellen, also die intensive Arbeit an den Texten selbst. Im Folgenden wird dieses Vorgehen in vier Abschnitten geschildert: 1. Quellenkritik, die sich mit der Qualität und Zuverlässigkeit der Quellen auseinandersetzt, 2. Diskurs und Diskursanalyse, die Rekonstruktion von Prozessen der sozialen Kommunikation, 3. Kontext, in den die Quellen eingebettet sind, 4. Interpretation, die Auslegung und Erklärung der Quellen.

5.3.1 Analyse historischer Quellen

221

1 Quellenkritik

Generell unterscheidet man eine äußere und eine innere Quellenkritik (vgl. Rüsen 2008: 123 ff.). Die äußere Quellenkritik betrifft die Umstände der Quellenentstehung und Quellenüberlieferung; sie prüft die Echtheit und Vollständigkeit der Quellen. In diesem Zusammenhang ist wichtig, in welchem Publikationsorgan (bei gedruckten Quellen) ein Text erschienen ist und wer der Verfasser ist. Zudem wird man sich genau ansehen, um welche Art von Quelle es sich handelt: offizielle Dokumente, wissenschaftliche oder journalistische Texte, (auto)biographische Texte oder persönliche Dokumente (z. B. Tagebuch, Korrespondenz), Lehrmaterialien und Lehrerhandreichungen, Rezensionen, Schülerarbeiten, etc., da die Zuverlässigkeit je nach Quellenart sehr variieren kann. Die innere Quellenkritik bezieht sich auf Kriterien wie Zeitnähe, Ergiebigkeit und Aussagekraft im Hinblick auf die Forschungsfragen. Für das Kriterium der Zeitnähe ist zu berücksichtigen, dass bestimmte Quellengattungen, wie etwa Lehrpläne, eine lange Entstehungszeit besitzen und daher auch durchaus selbst dann Relevanz besitzen können, wenn sie außerhalb des eigentlichen Untersuchungszeitraums veröffentlicht wurden. Deswegen kann es notwendig sein, den eigentlichen Untersuchungszeitraum für diesen Bereich zu erweitern (so bei Ruisz 2014: Abschnitt 1.3). Das Kriterium der Ergiebigkeit ist relevant, da oft nicht alle existierenden bildungsgeschichtlichen Quellen des Untersuchungszeitraumes gesichtet werden können und daher eine sinnvolle Auswahl getroffen werden muss. Für die Referenzarbeit von Doff (2002; siehe Kapitel 7) bedeutet dies zum Beispiel, dass in erster Linie nur die Fachzeitschriften studiert wurden, „die insbesondere für die Entwicklung des höheren Mädchenschulwesens von Bedeutung gewesen sind“ (Doff 2002: 16). Dort fand die Forscherin die für ihre Forschung relevanten Quellen. Das Kriterium der Aussagekraft ist mehr oder weniger erfüllt, je nachdem, in welchem Ausmaß eine einzelne Quelle zu Antworten im Hinblick auf die Forschungsfragen führt. Zur inneren Quellenkritik gehört auch, dass die dem Geschriebenen zugrundeliegenden Ideologien zu beachten sind. Beispielsweise ist bei Zeitschriften zu bedenken, dass sie oftmals bestimmte sprachen- oder bildungspolitische Positionen vertraten, wie etwa im späten 19. Jahrhundert im Falle der beiden Zeitschriften Die Neueren Sprachen (pro Neusprachenreform) und Zeitschrift für französischen und englischen Unterricht (contra Neusprachenreform), so dass man diese Ausrichtungen bei der Quellenkritik im Auge behalten muss. Des Weiteren wird quellenkritisch vorgegangen, wenn das in den Quellen Geäußerte mit bereits vorhandenen Erkenntnissen zum Untersuchungszeitraum und mit anderen Informationsquellen verglichen wird, um die Zuverlässigkeit eines Verfassers zu beurteilen oder seine Motive zur Darstellung aus einer bestimmten Perspektive aufzudecken. Außerdem können allein auf der Basis derartiger Vergleiche Angaben dazu gemacht werden, ob die Behauptungen und Argumentation des jeweiligen Autors für die Zeit und den gegebenen Kontext repräsentativ oder eher eine Randerscheinung sind. Insofern wird deutlich, dass die Quellen nicht für sich selbst sprechen, sondern im Kontext der Zeit und auf dem Hintergrund des bereits vorhandenen historischen Wissens analysiert werden müssen.

222

5. Forschungsverfahren

2 Diskurs und Diskursanalyse

Bei der Diskursanalyse oder -forschung handelt es sich um eine Forschungsmethode, zu der eine Reihe von Ansätzen gezählt werden: So gibt es unter anderem linguistische, geschichtswissenschaftliche und wissenssoziologische Ausrichtungen der Diskursforschung; häufig wird auf Foucault und seine Aussagen zu historischen Wissensordnungen und Machtstrukturen verwiesen (vgl. zu den Ansätzen der Diskursanalyse Keller 2011: 13 – 64; zu praktischen Anwendungen Keller et al. 2010). In der Diskursanalyse werden die sozialen Kommunikationsprozesse der Teilnehmer nachvollzogen. Da es in der historischen Forschung um die Rekonstruktion vergangener kommunikativer Wirklichkeit geht, ist die Diskursanalyse eine passende Ergänzung zur klassischen historischen Methode (Haslinger 2006, Landwehr 2008) und wurde deswegen in einer Reihe von Arbeiten zur Geschichte der Fremdsprachendidaktik angewendet (z. B. in Ostermeier 2012; Kolb 2013; Ruisz 2014). Grundlage der Diskursanalyse ist der Diskursbegriff. Ein Diskurs wird durch wiederholte, gesellschaftlich legitimierte oder institutionalisierte Aussagen zu einem Themenkomplex gebildet. In der praktischen Forschungsarbeit lässt sich am besten mit dem teilweise inflationär gebrauchten Diskursbegriff arbeiten, wenn explizit auf dessen Bedeutungskomponenten hingewiesen wird (Keller 2011: 34, 68). Mit Diskurs kann zunächst die Gesamtheit der Aussagen gemeint sein, die den Untersuchungsgegenstand betreffen. Dieser gesellschaftliche Gesamtdiskurs spielt sich zum Beispiel in Politik, Alltag und den Medien – auf den Diskursebenen – ab. Auf diesen Ebenen werden jeweils von einzelnen Gruppen der Gesellschaft Spezialdiskurse geführt. Die Spezialdiskurse wiederum bestehen aus einzelnen Texten, Textstellen und Wörtern, den so genannten Diskursfragmenten.16 Diskursfragmente mit dem gleichen Thema werden jeweils einem Diskursstrang zugeordnet (Jäger 2009: 117; zum Themenbegriff s. Höhne 2010: 428 – 429). Die Diskursteilnehmer sind individuelle oder kollektive Akteure, die sowohl produktiv als auch rezeptiv am Kontext mitwirken (van Dijk 1988: 2). Dabei können sie unterschiedliche Meinungen vertreten, die durch die Bevorzugung bestimmter Unterthemen und unterschiedlicher Argumentationen erkennbar werden (Haslinger 2006: 40-41). Ausführlich wird in der Arbeit von Kolb dargelegt, welche Akteure (nämlich individuelle Fremdsprachendidaktiker und meist anonyme Vertreter der Bildungsverwaltung) und welche Themen (die kulturellen Sachthemen des Englischunterrichts) in der Diskursanalyse untersucht werden (Kolb 2013: 37 – 45). Damit sind die Diskursebenen klar benannt. Ausgehend von dem Thema des Gesamtdiskurses werden in dem Quellenmaterial verschiedene Diskursstränge ausfindig gemacht, voneinander unterschieden und nach ihren Aussagen analysiert. Besonders aufschlussreich zur Aufzeichnung geschichtlicher Entwicklungen sind sowohl Kontinuitäten als auch Brüche in der Argumentation. Diese lassen sich besonders gut auswerten, wenn ein längerer Zeitraum untersucht wird. Bei Kolb (2013) wird dieselbe Textsorte (Lehrpläne) von 1975 bis 2011 untersucht: So zeigen beispielsweise Formulierungen, die mehr oder weniger identisch zu verschiedenen Zeiten auftauchen, die traditionelle Fortschreibung dieser Dokumente an; die Veränderung der Reihenfolge der Lehrplaninhalte deutet auf einen Bruch hin (vgl. Kolb 16 Dabei wird unter ‚Wort‘ die sprachliche Konvention verstanden, „die zur Bezeichnung eines Sachverhalts oder Gegenstands benutzt wird“ (Jordan 2009: 123 – 124). Es geht also um die Bezeichnung eines Konzepts oder einer Idee hinter dem ‚Wort‘.

5.3.1 Analyse historischer Quellen

223

2013: 191 – 193). Auch Doff arbeitet Brüche in der Entwicklung des Mädchenschulwesens zum Beispiel in Bezug auf die Anforderungen an die Lehrkräfte heraus (vgl. Doff 2002: Kapitel 4). 3 Kontext

Für die Diskursanalyse ist nicht nur die Untersuchung von Texten, Textstellen und Wörtern relevant, sondern darüber hinaus der weitere Zusammenhang, in welchem diese entstanden sind. Wenn beispielsweise Doffs Dissertation mit der Erörterung der ideengeschichtlichen Grundlagen für Weiblichkeit und Bildung im 19. Jahrhundert beginnt (Doff 2002: 25 – 58) oder Lehbergers Studie zum Englischunterricht im Nationalsozialismus zunächst die Einbindung der gesamten Lehrerschaft in das Herrschaftssystem behandelt (Lehberger 1986: 13 – 22), dann geschieht dies in der Absicht, den sozialen, geistigen oder politischen Kontext zu charakterisieren. Ohne diesen wären die darauf folgenden Ausführungen zur eigentlichen Frage nach dem Fremdsprachenunterricht unvollständig und würden möglichweise falsch verstanden werden. Die Relevanz der Verknüpfung zwischen einem gerade zu untersuchenden Text und weiteren Quellentexten zur Rekonstruktion des Kontexts sei an einem konkreten Beispiel verdeutlicht. Aus der Tatsache, dass in einer neuphilologischen Zeitschrift der Nachkriegszeit für einen Fremdsprachenunterricht plädiert wird, der den Vorstellungen der amerikanischen Besatzer zur Demokratisierung des deutschen Schulwesens entspricht, könnte man auf eine Neuausrichtung des Faches nach 1945 schließen. Erst das Heranziehen weiterer Quellen verrät zum Teil Gegenteiliges (so in Ruisz 2014: Abschnitt 4.1.2). Zum einen müssen also biographischer Hintergrund und andere Publikationen der jeweiligen Autoren betrachtet werden, so dass deren Motive und Absichten sowie ihre Stellung in ihrer Berufsgruppe oder innerhalb der Gesellschaft erschlossen werden können. Zum anderen ist die eingehende Kenntnis weiterer zeitgenössischer Texte zu ähnlichen Themen die Voraussetzung dafür, dass die Bedeutung und Reichweite eines einzelnen Schriftstücks ausgemacht werden kann. Obwohl die Intertextualität eine tragende Rolle spielt, muss einschränkend angefügt werden, dass eine Distanzierung von der Gegenwart und ein Eintauchen in den historischen Kontext nicht perfekt gelingen kann, da sowohl die Forschungsfragen als auch das individuelle Vorwissen der Forscher und der Forschungsstand fest in der aktuellen Gegenwart verankert sind. Daher verweist Kolb in ihrer Dissertation auf die Subjektivität qualitativer Textauslegung, die durch das Offenlegen der Vorannahmen und der Methoden der Textinterpretation kontrolliert werden sollte (Kolb 2013: 29 – 30). Es ist für die historische Forschung wichtig, die relative Fremdheit von Konzepten und Ideen der Vergangenheit zu beachten (Rittelmeyer 2006: 3). Nach Skinners Arbeiten im Rahmen der Cambridge School wird diese Fremdheit als „essential variety“ bezeichnet (Skinner 1969: 52). Historisches ist eben fremd, und es ist nicht legitim, eine „essential sameness“ anzunehmen (ebd.: 52). Für die Forschungspraxis bedeutet dies, dass der historisch-soziale Kontext, in dem ein Diskursfragment entstanden ist, gründlich zu erforschen ist; somit ist ein Quellentext stets im jeweiligen historischen Zusammenhang intertextuell zu studieren (Overhoff 2004: 325, 328). Nach Skinners Terminologie wird dieser historische Kontext als „ideological context“ oder einfach als „ideology“ bezeichnet (Skinner 1966: 287, 313, 317; Overhoff 2004: 326).

224

5. Forschungsverfahren

Ein weiterer Ansatz, in dem ebenfalls das Augenmerk auf die Eigenheiten der Entstehungszeit der analysierten Diskursfragmente gelenkt wird und in dem der Fokus auf dem Ideologiebegriff liegt, ist die Critical Discourse Analysis, kurz CDA (vgl. dazu van Leeuwen 2009, O’Halloran 2010; zur Adaption der CDA für eine fremdsprachendidaktische Arbeit siehe Ruisz 2014). Dieser Ansatz kommt aus der Linguistik, wird jedoch inzwischen in verschiedenen Disziplinen verwendet (für die Geschichtswissenschaft etwa Wodak et al. 1990; für die Erziehungswissenschaft Rogers 2011). Die CDA beruht auf der Grundannahme, dass sich die Machtstrukturen der Gesellschaft in der Sprache abbilden (O’Halloran 2010: 121) und somit auch in den Äußerungen Einzelner kein Spielraum für Ideologiefreiheit besteht (Kress 1985: 30; Fowler 1991: 92). Eine gründliche Quellenanalyse lässt somit auf die Ansichten und Absichten des Verfassers schließen. In diesem Zusammenhang gehört die Herausarbeitung der Bedeutung der von den Textverfassern verwendeten Begriffe zur Untersuchung des Kontexts (Klafki 1971: 141 – 142, Rittelmeyer 2006: 46). Die in den Quellentexten verwendeten Begriffe sollten aus ihrer Zeit heraus verstanden werden; die heutige Begriffsbedeutung darf nicht auf sie projiziert werden (dazu Klippel 1994: 28 – 30). Dies fängt schon bei Bezeichnungen an, die vermeintlich völlig eindeutig sind, wie etwa ‚Lesen‘. Doch sind in den Sprachlehren des 18. Jahrhunderts gerade die Abschnitte zur Aussprache mit „Vom Lesen“ überschrieben (etwa bei König 1755). Auch haben etwa Schulformen im Verlauf der letzten Jahrhunderte immer wieder Bezeichnungen getragen, etwa ‚Realschule‘ oder ‚Handelsschule‘, hinter denen sich andere Schulkonzepte verbergen, als wir sie heute für diese Bezeichnungen kennen. Zum Teil ergeben sich sogar abhängig von der jeweiligen Situation und dem jeweiligen Diskursteilnehmer unterschiedliche Bedeutungen. Deswegen muss zum Beispiel geprüft werden, ob die amerikanischen Besatzer unter ‚politischer Bildung‘ im Fremdsprachenunterricht das Gleiche verstanden wie die einheimischen Bildungspolitiker (Ruisz 2015). Das kontextuelle Vorgehen führt des Weiteren auch dazu, dass erkannt werden kann, was in einer Quelle nicht erwähnt wird. Die Nicht-Erwähnung mag zum einen darin begründet sein, dass bestimmte Konzepte oder Verfahren in einer Zeit als so selbstverständlich gelten, dass sie nicht erwähnt werden müssen. Zum anderen lässt sich aus dem Nicht-Gesagten auch schlussfolgern, welche Aussagen öffentlich nicht akzeptabel waren oder mit Absicht gemieden wurden. In dieser Weise kann die Erschließung des Kontexts zu den Werten und Grundannahmen einer Zeit sowie zu den Motiven und Absichten der am Diskurs teilnehmenden Akteure führen, die stets von bestimmten Interessen geleitet sind, wie Klafki schreibt: Man trifft auf pädagogische Sachverhalte nicht wie auf ein neutrales Material, pädagogische Sachverhalte sind vielmehr immer von der [Kursivsatz im Original] Art, daß Menschen sie aus irgendeinem Interesse, mit irgendeiner Zielsetzung hervorbringen oder hervorgebracht haben oder daß Menschen zu ihnen aus bestimmten Interessen heraus, mit bestimmten Zielsetzungen und Vorstellungen Stellung nehmen. (Klafki 1971: 127)

4 Interpretation – zwischen Hermeneutik und Analytik

Die vorliegenden Quellen werden also im Kontext gedeutet oder interpretiert. Neben der Beachtung des Kontexts sind textimmanente Verfahren der Interpretation zentral. Historisches

5.3.1 Analyse historischer Quellen

225

Wissen entsteht nicht nur, indem Zusammenhänge zwischen Texten hergestellt, sondern auch indem die einzelnen Texte im Hinblick auf die Forschungsfragen gedeutet werden. Dabei sind subjektive Deutungsmuster zu vermeiden; vielmehr ist darauf zu achten, dass die Interpretation der Quellen intersubjektiv nachvollziehbar ist. Als übergeordnete Forschungsstrategie bieten sich hermeneutische Verfahren an. Bei der Hermeneutik, der Auslegung von Texten, geht es um das Verstehen der Quellen (Lengwiler 2011: 58; s. auch Kapitel 5.3.2). Bezogen auf die Interpretation bedeutet dies, dass Sinnzusammenhänge und Argumentationslinien im erhobenen Quellenmaterial herauszuarbeiten sind (Rüsen 2008: 119, 131). Wenn es sich um eine große Anzahl von Texten handelt, sind diese zunächst zusammenzufassen und zu verdichten, damit diese der Forschung leichter zugänglich werden. Zum Beispiel werden zum Kernthema der Arbeit von Doff (2002) die Funde leicht lesbar dargestellt (v. a. in Kapitel 5), so dass sich weitere Forschungsarbeiten anschließen lassen. Im Zuge eines hermeneutischen Verstehensprozesses sind die Quellentexte also vor allem aus sich selbst heraus zu verstehen. In dieser Weise beschreibt der Historiker Koselleck das ‚Vetorecht der Quellen‘: Streng genommen kann uns eine Quelle nie sagen, was wir [Historiker] sagen sollen. Wohl aber hindert sie uns, Aussagen zu machen, die wir nicht machen dürfen. Die Quellen haben ein Vetorecht. Sie verbieten uns, Deutungen zu wagen oder zuzulassen, die aufgrund eines Quellenbefundes schlichtweg als falsch oder als nicht zulässig durchschaut werden können. (Koselleck 1979: 206)

Trotz dieses ‚Vetorechts‘ verleitet reines ‚Verstehen‘ dazu, sich intuitiv in die Quellen hineinzuversetzen (Lengwiler 2011: 59 – 62). Deswegen muss die Interpretation geordnet ablaufen, wobei die Unterscheidung zwischen Makro- und Mikroanalyse hilfreich ist (Landwehr 2008: 113 – 124). Beim makroanalytischen Vorgehen werden der Inhalt und die Struktur des vorliegenden Textes erarbeitet. Mikroanalytisch wird hingegen vorgegangen, wenn Argumentation, Rhetorik und Stil untersucht werden. Wie in vielen diskursanalytischen Arbeiten werden auch in Kolbs Dissertation (Kolb 2013) beide Analyseverfahren kombiniert: Auch wenn der Schwerpunkt auf der Herausarbeitung der inhaltlichen Aussagen zu kulturellen Sachinhalten des Englischunterrichts in Lehrplänen und fremdsprachendidaktischen Veröffentlichungen liegt, wird an ergiebigen Stellen auch die rhetorische und stilistische Gestaltung im Detail untersucht. So dienen beispielsweise häufig verwendete Metaphern dazu, die diskursiven Positionen in der Anspielung auf positive oder negative Konnotationen in andere Diskursstränge einzubinden und umso eindrücklicher vorzubringen (Kolb 2013: 283 – 286). Dabei sind im Prozess des ‚hermeneutischen Zirkels‘ (Gadamer 61990 [1960]: 270 – 312) auch immer wieder die Forschungsfragen zu überprüfen und eventuell anzupassen. In der historischen Forschung zur Fremdsprachendidaktik gilt die Hermeneutik als übergeordnete Forschungsstrategie (so in Doff 2002; Doff 2008; Kolb 2013; Ostermeier 2012; Ruisz 2014). Der Grund hierfür ist offensichtlich: Historische Forschung hat zumeist die Quellen im Blick, die zunächst ‚verstanden‘ werden müssen. Im Allgemeinen ist derzeit in der Geschichtswissenschaft der Trend zu beobachten, dass man sich hermeneutischen Verfahren zuwendet (vgl. Lengwiler 2011: 85, 87). In diesem Zusammenhang spielt der so genannte linguistic turn eine Rolle, durch den ein gesteigertes Interesse an Texten entstanden ist, in welchem

226

5. Forschungsverfahren

das Subjekt sprachlich zum Ausdruck bringt, wie es seine Umgebung wahrnimmt (Lengwiler 2011: 87; Jordan 2009: 189). Dass dieser hermeneutische Ansatz jedoch die Forschungsstrategie der ‚Analytik‘ nicht ausschließt, ist eindeutig. Bei der Analyse von Diskursen konzentriert man sich auf die sprachlichen Äußerungen historischer Personen und Institutionen, die in einem jeweiligen Kontext eingebunden sind (Lengwiler 2011: 87 – 90; Jordan 2013: 192-193) – das ist der Punkt, an dem es dann neben dem ‚Verstehen‘ doch ergänzend auf die ‚Erklärungen‘ der Wissenschaft ankommt; nur so kann die Qualität der historischen Untersuchung gesichert werden. Die Analytik orientiert sich nicht nur an den Quellentexten, also der Empirie, sondern auch am theoretischen Erkenntnisinteresse (Rüsen 2008: 145; Lengwiler 2011: 94 – 95, 272). Es sind die Kausalitäten zwischen den geschichtlichen Ereignissen und Handlungen der Diskursteilnehmer zu erklären. Forschungsarbeiten, die sich rein auf das ‚Verstehen‘ der Quellen beschränken, lassen neue Erklärungen für die gelieferten Quellendeutungen vermissen. Wenn zum Beispiel erkannt wird, dass die amtlichen Verlautbarungen der US-amerikanischen Besatzungsmacht für den Englischunterricht im Bayern der Nachkriegszeit nur wenig ergiebig sind, ist dies ein Befund, der weiterer Erklärungen bedarf; der Leser möchte erfahren, warum es sich so verhielt (s. Ruisz 2014: Abschnitt 3.2.3). Für die Analyse von Quellen bieten sich also sowohl hermeneutische als auch ergänzende analytische Verfahren an. Übergeordnet bleibt dabei stets die klassische historische Methode mit den Schritten der Heuristik, Kritik und Interpretation. In diesem methodischen Gerüst ist die begründete Auswahl unterschiedlicher Analyse- und Interpretationstechniken angebracht, um zu einem möglichst umfassenden Verständnis der Quellen und ihres Kontextes zu gelangen. Diese Mühe lohnt sich, zumal in der Geschichte des Fremdsprachenunterrichts noch etliche Forschungslücken zu schließen sind. »»  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Doff, Sabine (2002). Englischlernen zwischen Tradition und Innovation. Fremdsprachenunterricht für Mädchen im 19. Jahrhundert. München: Langenscheidt-Longman. [Referenzarbeit, s. Kapitel 7] *Doff, Sabine (2008). Englischdidaktik in der BRD 1949 – 1989. Konzeptuelle Genese einer Wissenschaft im Dialog von Theorie und Praxis. München: Langenscheidt. Fowler, Roger (1991). Critical Linguistics. In: Malmkjær, Kirsten (Hg.). The Linguistics Encyclopedia. London: Routledge, 89 – 93. Gadamer, Hans Georg (61990 [1960]). Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik. Tübingen: Mohr. Haslinger, Peter (2006) Diskurs Sprache, Zeit, Identität. Plädoyer für eine erweiterte Diskursgeschichte. In: Eder, Franz X. (hg.) Historische Diskursanalysen. Genealogie, Theorie, Anwendungen Wiesbaden: VS Verlag für Sozialwissenschaften, 27–50. Höhne, Thomas (2010). Die thematische Diskursanalyse – dargestellt am Beispiel von Schulbüchern. In: Keller et al., 423 – 453. Jäger, Siegfried (2009). Kritische Diskursanalyse. 5. Auflage. Münster: Unrast.

227 5.3.1 Analyse historischer Quellen

Anwendung historische Fremdsprachenforschung

5.3.1 Quellenanalyse Heuristik

Kritik

Historische Methode historische Frage und Gegenwartsbezug

innere Kritik: Zeitnähe, Aussagekraft, Zuverlässigkeit

äußere Kritik: Echtheit, Vollständigkeit, Autorschaft

Erstellung eines Textkorpus Auswahl für die Feinanalyse

Verfahren

Interpretation

Auslegung und Erklärung der Quellen

Aufdecken von Zusammenhängen

hermeneutische und analytische Verfahren Analyse des historischen Kontexts Diskursanalyse: Rekonstruktion von Prozessen der sozialen Kommunikation im Diskurs Makro- und Mikroanalysen

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

228

5. Forschungsverfahren

Jordan, Stefan (2009). Theorien und Methoden der Geschichtswissenschaft. 2. Auflage 2013. Paderborn: Schöningh. Keller, Reiner (2011). Diskursforschung. Eine Einführung für SozialwissenschaftlerInnen. 4. Auflage. Wiesbaden: VS Verlag für Sozialwissenschaften. Keller, Reiner/Hirseland, Andreas/Schneider, Werner/Viehöver, Willy (Hg.) (2010). Handbuch Sozialwissenschaftliche Diskursanalyse. Forschungspraxis. Bd. 2. 4. Auflage. Opladen: VS Verlag für Sozialwissenschaften. Klafki, Wolfgang (1971). Hermeneutische Verfahren in der Erziehungswissenschaft. In: Ders. (Hg.). Funk-Kolleg Erziehungswissenschaft. Bd. 3. Frankfurt/M.: S. Fischer, 126 – 153. *Klippel, Friederike (1994). Englischlernen im 18. und 19. Jahrhundert. Die Geschichte der Lehrbücher und Unterrichtsmethoden. Münster: Nodus. *Kolb, Elisabeth (2013). Kultur im Englischunterricht: Deutschland, Frankreich und Schweden im Vergleich (1975 – 2011). Heidelberg: Carl Winter. König, Johann (1755). Der getreue englische Wegweiser. 6. Auflage. Leipzig: Jacobi. Koselleck, Reinhart (1979). Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt/ M.: Suhrkamp. Kress, Gunther R. (1985). Ideological structures in discourse. In: van Dijk, Teun Adrianus (Hg.). Handbook of discourse analysis. Discourse analysis in society. Bd. 4. London: Academic Press, 27 – 42. Landwehr, Achim (2008). Historische Diskursanalyse. Frankfurt am Main: Campus-Verlag. *Lehberger, Reiner (1986). Englischunterricht im Nationalsozialismus. Tübingen: Stauffenburg. Lengwiler, Martin (2011). Praxisbuch Geschichte. Einführung in die historischen Methoden. Zürich: Orell Füssli. O’Halloran, Kieran (2010). Critical discourse analysis. In: Malmkjær, Kirsten (Hg.). The Routledge Linguistics Encyclopedia. 3. Auflage. London: Routledge, 121 – 126. *Ostermeier, Christiane (2012). Die Sprachenfolge an den höheren Schulen in Preußen (1859 – 1931). Ein historischer Diskurs. Stuttgart: ibidem-Verlag. Overhoff, Jürgen (2004). Quentin Skinners neue Ideengeschichte und ihre Bedeutung für die historische Bildungsforschung. In: Jahrbuch für historische Bildungsforschung 10, 321 – 336. Rittelmeyer, Christian (2006). Einführung in die pädagogische Hermeneutik. Darmstadt: Wissenschaftliche Buchgesellschaft. Rogers, Rebecca (Hg.) (2011). An introduction to critical discourse analysis in education. New York: Routledge. *Ruisz, Dorottya (2014). Umerziehung durch Englischunterricht? US-amerikanische Reeducation-Politik, neuphilologische Orientierungsdebatte und bildungspolitische Umsetzung im nachkriegszeitlichen Bayern (1945 – 1955). Münster: Waxmann. *Ruisz, Dorottya (2015). Social education as reeducation: The implementation of US-American policies in the English language classrooms of Bavaria (1945 – 1951). In: Paul, Heike/Gerund, Katharina (Hg.). Die amerikanische Reeducation-Politik nach 1945: Interdisziplinäre Perspektiven auf „America’s Germany“. Bielefeld: transcript, 161 – 184. Rüsen, Jörn (2008). Historische Orientierung. Über die Arbeit des Geschichtsbewußtseins, sich in der Zeit zurechtzufinden. 2. Auflage. Schwalbach/Ts: Wochenschau Verlag. Skinner, Quentin (1966). The ideological context of Hobbes’s political thought. In: The Historical Journal 9, 286 – 317. Skinner, Quentin (1969). Meaning and understanding in the history of ideas. In: History and Theory 8 (1), 3 – 53. van Dijk, Teun Adrianus (1988). News analysis. Case studies of international and national news in the press. Hillsdale, NJ: Erlbaum.

5.3.2 Hermeneutische Verfahren

229

van Leeuwen, Theo (2009). Critical discourse analysis. In: Mey, Jacob (Hg.). Concise encyclopedia of pragmatics. 2. Auflage. Amsterdam: Elsevier, 166 – 169. Wodak, Ruth/Nowak, Peter/Pelikan, Johanna/Gruber, Helmut/de Cillia, Rudolf/Mitten, Richard (1990). „Wir sind alle unschuldige Täter!“ Diskurshistorische Studien zum Nachkriegsantisemitismus. Frankfurt/M.: Suhrkamp.

»»  Zur Vertiefung empfohlen Lengwiler, Martin (2011). Praxisbuch Geschichte. Einführung in die historischen Methoden. Zürich: Orell Füssli. Dieser Band bietet einen Einstieg in die Methoden der Geschichtswissenschaft. Die zentralen theoretischen Forschungsansätze werden leserfreundlich vorgestellt und die Arbeitstechniken des Historikers praxisnah beschrieben. Landwehr, Achim (2009). Historische Diskursanalyse. 2. Auflage. Frankfurt am Main: CampusVerlag. In dieser Monographie argumentiert der Autor, dass sich die Diskursanalyse als Methodik für die historische Forschung eignet, und stellt dar, wie diese forschungsmethodische Vorgehensweise für historische Arbeiten angewendet werden kann. Rüsen, Jörn (2008). Historische Orientierung. Über die Arbeit des Geschichtsbewußtseins, sich in der Zeit zurechtzufinden. 2. Auflage. Schwalbach/Ts: Wochenschau Verlag. In dem Kapitel „Historische Methode“ (S. 116 – 149) wird der Leser in die Grundlagen historischen Arbeitens eingeführt. Die Regulative der Forschung ‚Heuristik‘, ‚Kritik‘ und ‚Interpretation‘ sowie die Forschungsstrategien der ‚Hermeneutik‘ und ‚Analytik‘ werden klar beschrieben. Overhoff, Jürgen (2004). Quentin Skinners neue Ideengeschichte und ihre Bedeutung für die historische Bildungsforschung. In: Jahrbuch für historische Bildungsforschung 10, 321 – 336. In diesem Aufsatz erläutert der Verfasser Quentin Skinners außerordentlichen Beitrag zur neuen Ideengeschichte. Anhand von Beispielen wird die Bedeutung des historischen und diskursiven Kontexts aufgezeigt und erklärt, wie ideengeschichtlich geforscht werden kann.

5.3.2 Hermeneutische Verfahren Laurenz Volkmann 1 Hermeneutik als Kunst des Verstehens

Die Hermeneutik ist ursprünglich als Kunst der Auslegung von religiösen Texten und Übersetzungstexten sowie philosophischen und literarischen Werken zu verstehen. Als Entschlüsselungskunst bezieht sie sich auf Texte, deren Bedeutung nicht unmittelbar evident erscheint und deren Tiefenschichten es aufzudecken gilt. Seit der Antike erweiterten sich die Herangehensweisen hermeneutischer Ansätze: zunächst über die Kirchenväter (Augustin), die Philosophen der Aufklärung (Friedrich Schlegel, Johann Gottfried Herder, Friedrich Schleiermacher) bis zu den Haupttheoretikern der Hermeneutik Wilhelm Dilthey, Martin Heidegger und vor allem

230

5. Forschungsverfahren

Hans-Georg Gadamer – im Verbund mit phänomenologischen Richtungen (Edmund Husserl, Clemens Brentano). Die Lehre von der Deutung und Interpretation tradierter religiöser, juristischer, philosophischer und literarischer Schriften versteht sich heute als die Anbahnung von Verstehens- und Auslegungsprozessen, welche vor allem auf die Sinnerkundung menschlicher Existenz und Handlungen allgemein ausgerichtet sind (zur Einführung vgl. Ahrens 2004, Hunfeld 1990, Rittelmeyer 2010). Somit bezieht sich die Hermeneutik nicht mehr allein und im Sinne der im 19. Jahrhundert etablierten philologischen Interpretations- und Analyseverfahren auf kanonisierte, bedeutungsvolle Kunstformen und gesellschaftliche Überlieferungen. Hermeneutische Verfahren charakterisiert vor allem das Bemühen, manifest-latente Sinngehalte aufzuspüren. Entsprechend gleichen diese Herangehensweisen einer detektivischen Spurensuche, dem Entschlüsseln eines Rätsels (Klein 2010: 263). Prägend für die geisteswissenschaftliche Forschung im 20. Jahrhundert waren die Arbeiten des Heidelberger Philosophen Hans-Georg Gadamer (1900 – 2002), der mit seinem Hauptwerk Wahrheit und Methode (1960/1965) ein eigenes Forschungs- und Methodenideal entwickelte. Gadamer propagierte das geisteswissenschaftliche Paradigma der „Interpretations-Kunst“ und erklärte die Hermeneutik als „ein Können, das besondere Feinheit des Geistes verlangt“ (Gadamer 1965: 290). In der Tradition Gadamers gelangt das hermeneutische Paradigma zum Tragen, wenn Forscher/innen Lebenswelten und Kulturpraxen in einem dialektischen Wechselspiel zwischen Beobachter/Interpreten und „Text“ (Medien, Personen, Praxen) erkunden, wenn es sich dabei um Prozesse der Ko-konstruktion von Bedeutung handelt, in denen die subjektive Perspektive hinterfragt wird. Diese breit angelegte Definition verdeutlicht, dass das hermeneutische Interaktionsparadigma auch in der Erforschung des Fremdsprachenunterrichts, des Fremdsprachenlernens und bei Fragen interkultureller Sinnbildung grundsätzliche Bedeutung aufweist: Denn die jeweils bei Prozessen der Bedeutungsaushandlung Beteiligten – wie Betrachter, Lernende, Lehrende, „Texte“ (wie Medien, Literatur, kulturelle Artefakte usw.) – sind stets als historisch situierte Elemente eines eingehender zu erkundenden, jeweils nur partiell zu beschreibenden Prozesses der Verstehensentfaltung zu verstehen. Ein derartiger Prozess der Bedeutungsaufklärung kann eben keinesfalls eine allgemeine, transkulturelle, sich intersubjektiv stets gleich formierende Gültigkeit beanspruchen. Als Wissenschaftstradition ging die Hermeneutik unmittelbar ein in ein fremdsprachendidaktisches Bildungsverständnis, welches – philologisch orientiert – auf die Vermittlung kanonischer Werke setzte und eine ästhetisch-literarische Bildung akzentuierte. Vor allem die Literatur- und Kulturdidaktik greift hermeneutische Ansätze der Rezeptionsästhetik auf (Bredella 2010: 18 – 30), indem sie sich von einem rein textimmanent ausgerichteten oder gar autorenzentrierten Verständnis von Textinterpretation und -analyse gelöst hat und Texterschließung primär als dialogische, offene Interaktion zwischen Rezipient/in und „Text“ versteht (im Sinne eines erweiterten, semiotisch zu bezeichnenden Textbegriffs bezieht sich die hermeneutische Herangehensweise zunehmend auch auf kulturelle Texte, Kulturen oder kulturell Andere). Es entwickelte sich zugleich der für deutschsprachige Länder bedeutsame Forschungsstrang der Auseinandersetzung mit dem Fremdverstehen – also einer philosophisch akzentuierten Auseinandersetzung mit dem Thema interkulturelles Lernen unter besonderer Berücksichtigung des Zugangs zum Fremden durch Literatur und/oder Medien. Dabei tritt in hermeneutischer Tradition der Bildungswert literarisch-ästhetischer Herangehensweisen hervor.

5.3.2 Hermeneutische Verfahren

231

Hermeneutische Zugriffe sind nicht nur für kultur- und literaturdidaktische Forschungen von großer Relevanz, sondern auch für qualitativ-empirische Untersuchungen (vgl. etwa im Überblick bei Bortz/Döring 2006). Bei der Aufbereitung, Darstellung und Analyse empirisch gewonnener Daten kommen Grundmuster der Hermeneutik (siehe unten) zur Anwendung, vor allem wenn es um kritische Herangehensweisen unter Berücksichtigung von Subjektivität, Voreingenommenheit und Interessenshintergrund empirischer Forschungsprojekte geht (vgl. Kapitel 5.3.3, 5.3.4, 5.3.5). 2 Hermeneutische Deutungsmethoden / Vorgehensweisen

Die hermeneutische Methodik wird in der Regel äußerst komplex definiert, beispielsweise wenn gefordert wird, dass das „Forschungsmaterial in einem zirkulären, irritationsgeleiteten, deutungsoffenen und mehrperspektivischen Erkenntnisgang über verschiedene Sinnschichten entschlüsselt wird“ (Klein 2010: 263). Zudem sind je nach Forschungsinteresse, Forschungsmaterial und der Frage der Berücksichtigung anderer Faktoren wie historisch-kultureller Kontexte eine Vielzahl von Herangehensweisen zu unterscheiden, wie dies bei Rittelmeyer geschieht, der im Wesentlichen sechs Interpretationsmethoden vorstellt (2010: 237 – 247). Diese sollen im Folgenden in starker Adaption kurz erläutert und mit Beispielen fremdsprachendidaktischer Fragestellungen illustriert werden: Die strukturale Interpretation: Gemeint ist damit die textimmanente Analyse und Interpretation eines in sich abgeschlossenen „Textes“, in seiner Gesamtheit wie in Einzelteilen (dies entspricht der traditionellen philologischen, analytischen, textimmanenten Interpretation). Diese stark literaturwissenschaftlich geprägten Analyseverfahren können auch in fachdidaktischen Publikationen zum Tragen kommen – beispielhaft beim Hinterfragen von Textintentionen, beim Aufdecken von persuasiven Argumentationsfiguren und dem Herausarbeiten des Interessegeleitetseins der in der eigenen Studie verarbeiteten Sekundärliteratur. Dazu gehört auch die Reflexion über die narrativen Erklärungsmuster der eigenen Studie. Analytische Verfahren als textimmanente Interpretation einzelne Texte der Fremdkultur spielen in der fremdsprachlichen Didaktikforschung allerdings eher eine untergeordnete Rolle. Die komparative Interpretation: Hierbei werden Texte mit anderen Texten zum gleichen Thema oder aus dem gleichen oder anderen Textgenre verglichen, um Besonderheiten wie Gemeinsamkeiten prägnant herauszuarbeiten. Zum Tragen kommen komparatistische Ansätze vor allem bei „Metastudien“ (vgl. Schmenk 2009), also Forschungsüberblicken mit Hinsicht auf eine bestimmte Fragestellung; gleichfalls wären sie bei Vergleichen von Interviewaussagen oder anderen Datenmengen zu berücksichtigen (s. Kapitel 5.4.3.). Die experimentelle Interpretation: Sie akzentuiert die spekulative, erprobende, alternative Deutungsmuster durchspielende Herangehensweise an Texte. Erhofft wird eine neue, ungeahnte Perspektive auf bestimmte Fragestellungen oder Interpretationsansätze. Experimentelle Elemente werden wirksam, wenn ungewöhnliche, bisher nicht beachtete oder gedanklich nicht gewagte Fragestellungen an Datenmaterialen herangetragen werden – auch im Sinne eines „Gegen-den-Strich-Lesens“ oder der Übernahme einer Advocatus-diaboliPosition, um erstarrte Denkmuster aufzubrechen oder aufzudecken (vgl. etwa die Studie von Delanoy (2002a), in welcher der Forscher seinen eigenen Unterricht selbstkritisch reflektiert und gerade Elemente des Konflikts oder studentischen „Widerstehens“ (vgl. Delanoy 2002a:

232

5. Forschungsverfahren

9) hervorhebt, um innovative Erkenntnisse über unterrichtliche Verstehensprozesse zu erlangen). Die psychologisch-mimetische Interpretation: Hier geraten vor allem affektive, auf (tiefen-) psychologische Vorprägungen des Beobachters/Lesers ausgerichtete Reaktionen auf den Text in den Vordergrund. Diese Herangehensweise folgt rezeptionsästhetischen Fragestellungen: „Was stellt dieser Text mit mir an?“ „Wie passt er in mein Vorverständnis bzw. auf welche Weise stellt er mein Vorverständnis in Frage?“ In Forschungskontexten bedeutet dies die Fähigkeit, sich von Forschungsthemen bzw. -gegenständen auch „überraschen“ und selbst in Frage stellen zu lassen. Auch hier weist die Studie von Delanoy (2002a) paradigmatische Züge auf, zielt sie doch im hermeneutischen Sinn ab auf eine sukzessive „Distanzierung von eigenen ‚Vorurteilen‘ und ein Betreten eines qualitativ anderen Erfahrungsraums“ (Delanoy 2002a: 59): Wenn die Reaktionen der Studierenden auf bestimmte Texte gegenüber der vorgefassten Interpretation des Forschers differieren, wird dies weniger als defizitäre Deutung abgewertet denn als erhellender Respons, welcher ein dialogisches Bedeutungsaushandeln in Gang setzt. Die kontextuelle Interpretation: Hierbei ist der zu interpretierende Text in seiner Einbettung in andere Kontexte zu verstehen, als Teil eines soziokulturellen Diskurses, der weit über Texte, Gegenstände usw. hinausgeht und vor allem Wertvorstellungen, Ideologien und Normen beinhaltet, die der jeweils zu deutende Text verhandelt. Deutlich wird die Bedeutung kontextueller Interpretationen beispielsweise in Studien zur Rezeption fremdkultureller Texte – in ihrer Studie zur Fremdwahrnehmung amerikanischer Indianerkulturen (indigenous people) kann Grimm (2009) etwa aufzeigen, wie stark negativ bestimmte tradierte Hetero­ stereotype die Auseinandersetzung mit Indianerkulturen im deutschsprachigen Kulturraum vorgeformt haben. Die kulturanalytische Interpretation: Diese Deutungsrichtung bewegt sich in Richtung der kritischen Aufdeckung und „Entlarvung“ der soziohistorischen Konstellationen, in welchen der jeweilige Text situiert ist, und erkundet beispielhaft die Frage, wie ein Text sich hierzu affirmativ, oppositionell oder subversiv verhält. Die kulturanalytische Interpretation kann durchaus in eine emanzipatorische, auf bildungspolitische Veränderung drängende Richtung deuten, wie in den oben angesprochenen Studien auf unterschiedliche Weise akzentuiert wird. Die Grunddeutungsmethode ist dabei die des hermeneutischen Zirkels, der paradigmatisch bei der Interpretation von historischen Quellen zur Anwendung kommt: Das sich spiralförmig bewegende Deuten eines Textes unternimmt zunächst den Versuch, ein Grundverständnis, eine allgemeine Einordnung des Textes zu etablieren. Ausgehend davon werden die einzelnen Elemente des Textes analysiert und die daraus gewonnenen Einsichten gelangen anschließend wieder mit dem Gesamttext in einen sinnerhellenden Verständniszusammenhang. Im sequenziellen Wechselspiel des wiederholten Berücksichtigens von Teilen und Ganzem entsteht dabei sukzessive ein tieferes, durchdringendes Verständnis des Textes in seiner Gesamtheit wie in seinen Teilen (vgl. auch Bortz/Döring 2006: 303, Garz 2010: 356; speziell Baacke 1993). Das Verfahren des hermeneutischen Zirkels birgt jedoch auch die Gefahr des Zirkelschlusses mit sich selbst in sich – wenn die Interpretation zur self-fulfilling prophecy gerät: Der/die Forschende glaubt im Gegenstand etwas zu erkennen, welches sich im Auge des Betrachters dann in den Einzelteilen des Gegenstandes spiegelt; die am Gegenstand erkannten Eigenschaften werden dann auch in anderen Gegenständen erkannt und zunehmend

5.3.2 Hermeneutische Verfahren

233

als Bestätigung der Eingangswahrnehmung gedeutet. Das durch Vorwissen bzw. Vorurteile geprägte Wissen wird lediglich bestätigt. Es stellt sich hierbei die Grundsatzproblematik jeglicher Forschungstätigkeit, nämlich wie mit dem eigenen Vorwissen umzugehen ist: Wie ist es selbstreflexiv zu thematisieren und zu beachten? Wie affiziert die eigene Beobachtungsperspektive den Forschungsvorgang? Wie in der fremdsprachendidaktischen Forschung mit den Gefahren des hermeneutischen Trugschlusses auf unterschiedliche Weise umgegangen wird, sei anhand zweier prägnanter Beispiele illustriert: In ihrer Überblicksstudie zur Rolle der Konstruktion von binärer Geschlechteropposition in fachdidaktischen Publikationen der letzten Jahrzehnte kann Barbara Schmenk (2009) nachweisen, wie die oben beschriebene Forschungsfigur der self-fulfilling prophecy fremdsprachendidaktische Studien geformt hat, da diese den Unterschied zwischen der sozial konstruierten Kategorie gender und der biologisch vorgegebenen Kategorie sex unbeachtet ließen. [K]ritikwürdig ist hier nicht nur, dass gender nicht als sozial konstruiert verstanden wird, sondern etwas Grundlegenderes: Es sind nicht Verhalten, Eigenschaften oder soziale Praktiken der Probanden, deren soziale Konstituiertheit Forscher nicht genügend berücksichtigen, sondern es sind die Geschlechtsbilder der Forschenden, die einen bestimmten hegemonialen Geschlechterdiskurs immer wieder reproduzieren, indem sie von diesem hervorgebrachte ‚Wahrheiten‘ in ihren Arbeiten fortwährend bestätigt sehen. (Schmenk 2009: 230 [Hervorhebung im Original])

Das Ausbrechen aus dem Circulus vitiosus der eigenen Vorannahmen oder Vorurteile erscheint entsprechend als eine wesentliche Prämisse für fremdsprachendidaktische Forschung, wie sich dies am Beispiel Gender, aber auch mit Bezug auf Ethnie, Alter, Motivation, Begabung usw. erläutern ließe (vgl. auch Ertelt-Vieth 1999). Während Schmenk derartige, die Forschungsergebnisse auf verfälschende Weise präfigurierenden Denkmuster aufdeckt, geht Werner Delanoy den genau entgegengesetzten Weg, indem er fremdsprachliche Unterrichtssituationen (hier ein selbst gehaltenes literatur- und kulturdidaktisches Seminar) vor allem daraufhin untersucht, inwieweit die Perspektive der Lehrperson bzw. des partizipierenden Unterrichtsforschers von Vorannahmen bestimmt ist. Er begreift seine Auseinandersetzung mit der Praxis als explorative Studie, bei der gerade jene Momente kritisch-selbstreflexiv ausgeleuchtet werden, in denen die eigenen theoretischen Konzepte mit der praktischen Erfahrung, vor allem dem Respons der Lernenden, in den Konflikt geraten und ein intensives Nachdenken erforderlich machen. Mit Gadamer erkennt Delanoy (2002a: 40) gerade das „Enttäuschtwerden“, die Diskrepanz zwischen Erwartung und Erfahrung, als den Impuls, der „neue Einsichten möglich sowie für neue Lernprozesse offen macht“. Dadurch ergibt sich ein Klären der eigenen Forscherperspektive, welche ein theoretisch-konzeptuelles „retheorising and reformulating auf der Grundlage einer reflektierten Betrachtung“ (ibid.: 55) von eigenem, aber auch von fremdem Unterricht anstrebt. Da Fragen des menschlichen Verstehens zum Schlüsselproblem wissenschaftlichen Forschens und Erkenntnisgewinns gehören, gelangen hermeneutische Verfahren – oftmals ohne als solche identifiziert zu werden – in allen Wissenschaftsdisziplinen zum Tragen (zur Bedeutung für erziehungs- und bildungswissenschaftliche Fragestellungen vgl. die Überblicke bei Bortz/Döring 2006, Garz 2010, Klein 2010, Rittelmeyer 2010). Prinzipielle Gemeinsamkeiten finden sich gerade zu den für empirische Verfahrensweisen bedeutsamen Bezugswissenschaf-

234

5. Forschungsverfahren

ten der anthropologischen und ethnologischen Forschung (s. Kapitel 5.3.1, 5.3.3). Wie diese (etwa bei Vertretern der Chicagoer Schule und des symbolischen Interaktionalismus) betont die Hermeneutik, dass Sinn jeweils in der Interaktion situativ ausgehandelt wird, dass alle Daten bereits Auslegungen darstellen und dass jede Präsentation komplexer Wirklichkeiten gleichzeitig und unvermeidbar eine Deutung von Handlungen, Äußerungen und Dokumenten ist. Hermeneutische Verfahrensweisen gleichen dabei dem Geertz’schen Paradigma der dichten Beschreibung einer „Vielfalt komplexer, oft übereinander gelagerter oder ineinander verwobener Vorstellungsstrukturen, die fremdartig und zugleich ungeordnet und verborgen sind“ (Geertz 1983: 15). Sie gilt es, mit größtmöglicher Sorgfalt und Präzision – gleichsam in archäologischer Feinarbeit – aufzudecken und zu deuten. Die oben genannten kontextorientierten und kritischen Herangehensweisen der Hermeneutik zeigen zudem eine evidente Nähe zu – und verbinden sich zugleich deutlich mit – kritischen Formen der Diskursanalyse (Foucault 1972, Fairclough 1992), kulturwissenschaftlichen Ansätzen der race, class and gender studies und der kritischen Stereotypenforschung. 3 Das hermeneutische Schlüsselthema: Verstehen des Anderen

Die Hermeneutik hat vor allem mit ihrer bei Gadamer paradigmatisch diskutierten Schlüsselproblematik des Verstehens des Anderen ihre Bedeutung für die Fremdsprachendidaktik erhalten. Denn das Andere, welches bei Gadamer zunächst der andere literarische Text oder die andere Person war und in der Alteritätsforschung in vielfachen Manifestationen (Gender, Ethnie usw.) untersucht wird, wurde in der Fremdsprachendidaktik als das fremdsprachlich und kulturell Andere fokussiert  – vom Text über das Individuum bis zu Gemeinschaften. Zentral geraten hier Prozesse des Fremdverstehens in den Vordergrund, von den eher kulturwissenschaftlich ausgerichteten Vertretern der Alteritätsforschung und Xenologie (der „Lehre“ vom Fremden, vgl. im Überblick Wierlacher/Albrecht 2008) über die Grundproblematiken interkulturellen und transkulturellen Lernens und der dabei zu vermittelnden Kompetenzen (vgl. Bredella et al. 2000) bis zu philosophisch-erkenntnistheoretischen wie erkenntnispraktischen Fragestellungen der fremdsprachendidaktischen Forschung im Bereich des Fremdverstehens primär durch (literarische) Texte (vgl. Bredella 2010, Bredella et al. 2000, Bredella/ Delanoy 1996; Nünning/Bredella/Legutke 2002). Zentral für die Diskussion im Bereich des Fremdverstehens ist Gadamers Denkfigur der Horizontverschmelzung, zu der es beim hermeneutischen Verstehensprozess mit Bezug auf den (textuellen) Anderen geht: Im Verstehen geschieht eine „Verschmelzung der Horizonte“ (Gadamer 1965: 359; vgl. die Diskussion bei Hellwig 2005). Neuere hermeneutische Ansätze verstehen diese Horizontverschmelzung weniger als harmonisches Erlangen einer erweiterten Verstehensebene, sondern vielmehr als offenen, nur begrenzt lenkbaren, vorhersehbaren und beendbaren Langzeitprozess der Interaktion (v. a. Delanoy 2002a). Dieser Prozess des Erfahrens und Verstehens ist potenziell dann besonders fruchtbar und gewinnbringend, wenn es zu einem „Enttäuscht-Werden“ bisheriger Erfahrungen kommt. Erst in der Irritation eröffnet sich die Möglichkeit neuer Einsichten – bisweilen nicht vorhersehbare Lernprozesse werden ausgelöst und erweitern sukzessive bisherige Verstehens- und Handlungshorizonte. Werner Delanoy beschreibt den hermeneutischen Ansatz in der Tradition Gadamers als zentriert auf das „Kennenlernen neuer Positionen“; dies führt zu „neuen Sichtweisen, Hinterfragen

5.3.2 Hermeneutische Verfahren

235

der eigenen Horizonte, der eigenen Verstehensvoraussetzungen“; die Konfrontation mit dem Anderen birgt die Chance in sich, „die eigene Verstehens- und Handlungsmöglichkeit (selbst) kritisch zu erweitern“ (alle Zitate bei Delanoy 2002a: 15). Lothar Bredella hat in diesem Zusammenhang einflussreich auf das Wechselspiel von Außen- und Innenperspektive beim Prozess des Fremdverstehens aufmerksam gemacht: Der Erkenntnis- und Bildungsprozess, der letztlich Rückkoppelungen auf die Veränderung des eigenen Vorverständnisses hat, stellt sich damit als komplexe Wechselbeziehung von Perspektivenübernahme, Perspektivenwechsel und Perspektivenkoordination dar (Bredella 2010: xxiv). Bredella und andere verweisen dabei auf die Gefahren einer Reduktion des Fremden auf vertraute Verstehensschemata, gelangen jedoch zu der Einsicht, dass Kulturen nicht allein aus sich selbst heraus verstehbar sind, sondern auch von außen, aus der Distanz, wenn hermeneutische Prinzipien – Bewusstmachung habitualisierter Vorstellungen, Dialog, Prozessartigkeit, Interaktion, Offenheit  – berücksichtigt werden. 4 Die privilegierte Rolle der Literatur beim Fremdverstehen

Bei Gadamer (wie auch in den Forschungsarbeiten von Lothar Bredella, Karlheinz Hellwig, Hans Hunfeld und Ansgar Nünning) erhält die Literatur einen privilegierten Status im Kontext des Verstehens. Werke herausragender Qualität, so eine hermeneutische Grundannahme und zugleich ein ethischer Anspruch, regen besonders zu verlangsamten, reflektierenden Wahrnehmungsprozessen an. Ihre semiotische Dichte sowie ihre künstlerisch kreierten Unbestimmtheiten produzieren eine intrikate Appellstruktur, welche Lesende und auch Lernende dazu auffordert, Bedeutung zu interferieren – die Rezeption fremdsprachiger oder fremdkultureller Texte stelle beim Prozess der Horizontverschmelzung bzw. bei der sukzessiven Horizontaushandlung einen „gesteigerte[n] Fall hermeneutischer Schwierigkeit, d. h. von Fremdheit und Überwindung derselben“ (Gadamer 1965: 365) dar. Das Potenzial der literarischen Kunst, die enigmatische, irritierende Ambivalenz ihres Verweisens durch Leer- und Unbestimmtheitsstellen wird in der von Gadamer beeinflussten Rezeptionsästhetik (v. a. bei Iser 1976) besonders hervorgehoben. Die Literaturdidaktik hat seit den 1970er und 1980er Jahren die von der Rezeptionsästhetik ausgehenden Impulse einer Bedeutungsverlagerung vom Text auf den individuellen Leser hin verstärkt aufgegriffen (vgl. Hellwig 2005). Die Appelle zur Verstehenserweiterung, die von literarischen Texten ausgehen, lassen die individuelle Reaktion der Lernenden in den Mittelpunkt treten und hinterfragen die Vorstellung von sich objektiv gerierenden, universalen Deutungsarten oder Musterinterpretationen zu Gunsten eines subjektiven und erfahrungsorientierten Literaturverständnisses. Hermeneutisch orientierte Didaktiker/innen halten die Literatur als besonders geeignet, um Einblicke in fremdkulturelle Lebenswelten zu erlangen. Die Identifikation von Schülern/ innen mit den Protagonisten/innen von Ich-Erzählungen oder das kurze schauspielerische Schlüpfen in die Rolle der kulturell differenten Dramenfigur erlauben so das Probehandeln in fiktiven Welten, eine intensive Teilhabe an der textuellen Fremdheit. Neue Sichtweisen eröffnen sich in der Konfrontation mit fremden Perspektiven, welches wiederum interkulturell wertvolle Prozesse der Empathie, Toleranz und Achtsamkeit gegenüber dem Anderen anbahne.

236

5. Forschungsverfahren

Das emphatische Wertschätzen fremdkultureller Literaturwelten sollte in Forschungskontexten durchaus von gewissen Caveats begleitet werden, aus denen sich wichtige Forschungsfragen ergeben (vgl. Donnerstag 1995: 328): (1) Die Fähigkeit und Bereitschaft, an alternativen Welten imaginativ teilzuhaben, ist stark abhängig vom eigenen Weltwissen und erfordert beim Lesen durchaus eine höhere Bereitschaft, auf die Offenheit, Suggestivität und Komplexität der textuell geschaffenen Welt einzugehen. Visuell-auditive Präsentationen erscheinen in der Regel einfacher zugänglich und entlasten den Rezeptionsprozess. Eine wichtige Forschungsfrage wäre entsprechend, wie unterschiedlich medial encodierte Texte bei Lernenden jeweils unterschiedliches Vorwissen oder verschiedene Decodierungsstrategien ansprechen und wie derartige „Genrekompetenzen“ und literacies zu fördern wären. (2) Literarische Texte fordern zur verlangsamten, entschleunigten Verarbeitung auf, zu einer intensiveren Verarbeitung der Textoberfläche. Dies erscheint Lernenden, die visuell-auditive Stimuli gewohnt sind, nicht nur als Anreiz, sondern auch als Problem beim Schaffen von Sinnkohärenz. Es wäre hier beispielweise zu untersuchen, welche gattungspezifischen Textstrategien die Rezeption besonders erschweren bzw. affektive Rezeptionsblockaden entstehen lassen (und wie didaktisch darauf zu reagieren wäre). (3) Dazu kommen bei fremdsprachlichen Texten besonders erschwerte Formen der Sprachverarbeitungsprozesse gegenüber muttersprachlich automatisierten Strategien. Lexis, Idiomatik, konnotative Bedeutungen wie kulturelle Anspielungen können Anreize zur Entschlüsselung liefern, aber ebenso als unüberwindliche Verstehensbarrieren wirken. Die affektive Wirkfunktion bestimmter Textsorten (Jugendliteratur, Fantasy usw.) wäre hier gerade mit Bezug auf die jeweilige sprachliche wie kulturelle Komplexität hin eingehender zu untersuchen, gerade bei der in der Literaturdidaktik stark geführten Diskussion um den „Schulkanon“ im Bereich Roman, Drama, aber auch Film (vgl. Bredella 2010, Legutke et al. 2002). 5 Forschungsbeispiele

Als beispielhaft für die heuristische Ausrichtung einer Vielzahl literatur- und kulturdidaktischer Arbeiten, welche Vorschläge für die Erweiterung des fremdsprachlichen „Schulkanons“ bieten, kann die Studie von Nancy Grimm (2009) gelten. Auf Basis der in Fachpublikationen geführten Debatte zur Erweiterung des literarischen Kanons im Englischunterricht der Oberstufe (Stichwort „geheimer Kanon“), einer umfangreichen Lehrwerkanalyse und stichpunktartigen Schülerbefragungen verdeutlicht Grimm die Notwendigkeit, tradierte, auf erheblichen Vorurteilen fußende Einschätzungen ethnischer Minderheiten in den USA, hier vor allem der indigenen Bevölkerung, durch didaktisch aufbereitete Vorschläge zu „alternativen“ Texten auszubalancieren. Während diese Arbeit stärker noch in der philologischtextinterpretierenden Tradition verankert ist, fokussiert die Studie von Britta Freitag-Hild (2010), bei ähnlicher Intention (nämlich alternative, stärker an Minderheitenautoren und -themen orientierte Texte vorzuschlagen), vor allem die gegenwärtige literaturdidaktische Diskussion um inter- und transkulturelles Lernen; dabei geraten die Komplexe des Fremdverstehens und der Perspektivenübernahme – in der Diskussion von Fallbeispielen und beim Auswerten entsprechender Unterrichtseinheiten  – vor allem im Zusammenhang mit dem Erstellen konkret umzusetzender Aufgabendesigns bzw. Lernaufgaben in den Vordergrund. Interessant ist diese Studie, weil sie unmittelbar auf den eher theoretisch akzentuierten For-

5.3.2 Hermeneutische Verfahren

237

schungen zum Fremdverstehen durch Literatur (Bredella 2010, Nünning 2000) aufbaut. Die dort ausgeführten Lernziele der Perspektivenübernahme, Perspektivenkoordination und Empathiefähigkeit mit Hilfe der Literatur, insbesondere der „Minoritätenliteratur“, werden von der Forscherin in konkrete Aufgabentypologien umgesetzt, deren Wirksamkeit wiederum in einer empirischen Studie überprüft wird. Die Fragentaxonomie erstreckt sich dabei von eher Einfühlungsvermögen in der pre-reading phase fördernden Hypothesenbildungen zum zu lesenden Text über Aufgaben zur Selbstwahrnehmung bis zu produktiven Übungen im Bereich der Perspektivenübernahme und negotiation of perspectives. Freitag-Hild kann somit nachweisen, dass die Kernthese des hermeneutischen Fremdverstehens-Ansatzes, wie sie bei Bredella theoretisch entwickelt wurde, vor allem im Rahmen kreativ-produktiver Herangehensweisen umsetzbar ist und dass sie im Rahmen üblicher empirischer Verfahren untersuchbar erscheint (Analyse von Lernerprodukten, teilnehmende Beobachtung, Datentriangulation usw.). Als weitere exemplarische Studie sei die Dissertation von Birgit Schädlich (2009) genannt, die sich auf das literarische Lernen konzentriert, hier im Kontext literaturwissenschaftlicher Seminare an der Universität. Die qualitativ-empirische Interviewstudie untersucht am Beispiel des Fachs Französisch die Zusammenhänge zwischen Lehrerausbildung im akademischen Kontext und Anforderungen des Berufsfeldbezugs, indem sie Lehramtsabsolvent/innen nach dem Status quo ihrer Ausbildung fragt und die dabei konstatierte „Rückständigkeit“ des Wissenschaftsbetriebs mit Berufsfeldinteressen, bildungspolitischen Vorgaben und aktuellen Paradigmen in Forschung und Lehre kontrastiert. Sie kann deutliche Defizite universitärer Ausbildung herausarbeiten und eine stärker an „Handlungswissen“ orientierte Ausbildung vorschlagen (zu verbessern seien Aspekte wie mangelnder forschender Habitus, geringer Berufsfeldbezug, Rückgriff auf traditionelle Kulturbegriffe). Als wesentliche weitere Referenzpublikation sei der Aufsatz von Burwitz-Melzer (2001) genannt, welcher Einblicke in die Forschungsmethodik der Verfasserin bietet. Er beschreibt die wissenschaftstheoretischen Grundlagen einer diskursanalytisch, interaktionsanalytisch und hermeneutisch orientierten Fallstudie zur Arbeit mit fiktionalen Texten im Englischunterricht der Sekundarstufe I. Insbesondere Fragestellungen der Datentriangulation sowie zu möglichen Untersuchungsfeldern werden hier präzise und für ähnliche Studien applizierbar aufgefächert. Neben diesen eher literaturdidaktisch ausgerichteten Arbeiten sei nochmals auf die Referenzarbeit von Barbara Schmenk (2009) verwiesen, eine „Metastudie“, welche sowohl die Theoriediskussion wie auch empirische Forschungsarbeiten zum geschlechtsspezifischen Fremdsprachenlernen kritisch sichtet und dabei auf Grundlage der neueren Gender-Forschung aufzeigen kann, wie die Prämissen eines dominanten Geschlechterdiskurses die Fachdidaktikforschung nicht allein affizieren, sondern sogar Forschungsergebnisse präfigurieren. 6 Hermeneutische Ansätze und ihre Implikationen

Hermeneutische Ansätze betonen die Notwendigkeit qualitativer Verfahren und setzen in der Regel auf qualitativ perspektivierte Triangulation, auch bei der Auswertung quantitativer Daten. Hermeneutische Verfahren können jedoch auch, wie beispielsweise bei Schmenk (2009) eindrucksvoll bezeugt, ein Korrektivum für die in quantitativen Engführungen erstellten

Das Potential literarischer Texte Einblicke geben Identifikationen anbieten Rollenwechsel ermöglichen fiktive Welten eröffnen

struktural komparativ experimentell psychologisch-mimetisch kontextuell kulturanalytisch

textuelle Interpretationsmethoden

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Gefahr von Zirkelschlüssen

Grundverständnis, allgemeine Einordnung

Analyse von Einzelelementen

verändertes Grundverständnis

neue Einzelelemente

der/die/das Andere verstehen

Zirkularität („der hermeneutische Zirkel“), Irritation, Offenheit der Deutungen, Multiperspektivität, dichtes Beschreiben

Grundmuster hermeneutischer Erkennstnisgewinnung

Prozesse der Verstehensentfaltung erkunden / Textdeutungen

5.3.2 Hermeneutische Verfahren

238 5. Forschungsverfahren

5.3.2 Hermeneutische Verfahren

239

Forschungsaussagen darstellen, indem sie die derartigen Forschungen zugrunde liegenden, soziokulturell bedingten Vorannahmen infrage stellen und gegebenenfalls dekonstruieren. Sie können gerade im Bereich des interkulturellen Lernens dazu auffordern, eigenes stereotypes Denken sowie generell das Denken in binären Hierarchiemustern zu hinterfragen. Wie die ethnographische Herangehensweise fordert die Hermeneutik dazu auf, Selbstreflexivität und dialogische Interaktionsmuster walten zu lassen, den Einfluss des Beobachters auf das Beobachtete zu beachten, ebenso wie die Veränderung des Forschungsfeldes im Verlauf der intensivierten Interaktion mit dem Feld. Forschungsthemen, Aufgaben und Desiderate der Forschung sind in Publikationen von Delanoy (2002b), Nünning/Bredella/Legutke (2002) und Burwitz-Melzer (2001) sehr eingehend dargelegt. Grundsätzlich betont Werner Delanoy den Theorie-Praxis-Dialog als Zentralaufgabe der Literatur- und Kulturdidaktik. Er verweist auf die starke Theorielastigkeit der Forschung zur Literatur- und Kulturdidaktik, welche oftmals heuristisch ausgerichtete Prinzipien für den Unterricht entwickelt und dazu tendiert, der Praxis bzw. Lehrerschaft rückständige Herangehensweisen vorzuwerfen (fossilisierter Kanon, Lehrerzentriertheit, Favorisieren von Musterinterpretationen, Abneigung gegenüber stärkerer Schülerzentrierung beim Umgang mit Literatur usw.). Diese Einstellung verbindet sich bisweilen mit einer Abneigung gegenüber der Empirie, wie sie sich in Positionen manifestiert, welche literarisch-ästhetische Bildung als unvereinbar mit empirisch zu messenden Kompetenzrastern verstehen. Zentrales Untersuchungsfeld der Hermeneutik bleibt der (Verstehens-)Prozess bei der Interaktion zwischen Text und Leser im Fremdsprachenunterricht und die Frage nach Zusammenhängen, Bedingungen und Konsequenzen von Leseakten. Selbstverständlich müssen dabei Aspekte aus pädagogischen, psychosozialen, literatur- und kulturdidaktischen Komplexen mit berücksichtigt werden. Hier gilt es, Rückkoppelungseffekte zwischen Empirie und Praxis auszulösen: für Empfehlungen zur Auswahl und zum Einsatz von Literatur und Texten überhaupt, für die Gestaltung von Unterrichtsmaterialien und Tasks, zur Vorbereitung, Planung und Durchführung von Unterricht, und auch zur (Weiter-)Qualifizierung von Lehrkräften (vgl. eingehender die Vorschläge zu Forschungsfeldern bei Burwitz-Melzer 2001: 140 – 45, Delanoy 2002a: 166, Delanoy 2002b: 86 – 88; zum Methodenrepertoire Burwitz-Melzer 2001: 145, Klein 2010: 271). Zusammengefasst kann aus der Perspektive der hermeneutischen Forschung eine Reihe von handlungsleitenden kritischen Fragestellungen bei der Aufbereitung, Darstellung und Analyse von Daten zum Tragen kommen: – Beachte ich als ForscherIn meine subjektive Perspektive, mein Interessegeleitetsein, meine Verankerung in bestimmten historischen, sozialen, bildungs- und forschungspolitischen Diskursmustern? Wie „hinterfrage“ ich meine eigene Position und meine methodischen Verfahren und wie lege ich diese selbstreflexiv und für meine LeserInnen nachvollziehbar offen? – Beachte ich dabei, auch in der Darstellung, welche Stimmen und Positionen ich ausblende bzw. nicht beachte? Bedenke ich die Gründe für diese Akte von Exklusion? Lasse ich andere, meinen Ansatz möglicherweise radikal in Frage stellende Positionen in meine Reflexionen oder meine Argumentationsstruktur einfließen, indem ich z. B. Advocatusdiaboli-Perspektiven durchdenke?

240

5. Forschungsverfahren

– Beachte ich immer wieder die Gefahr des hermeneutischen Trugschlusses, der darin besteht, dass unhinterfragt akzeptierte Vorannahmen oder vorläufig erstellte Hypothesen meine weitere Auseinandersetzung mit den Daten vorprägen und meine Vor-Urteile letztlich nur bekräftigen? Betrachte ich mein „Gesamtnarrativ“ durchaus auch einmal im Überblick kritisch, mit dem Ziel, unterschwellig wirkende Vorannahmen zu revidieren und zu differenzierten Ergebnissen zu kommen, bei denen eventuell auch ungelöste Probleme und vorläufige Ergebnisse weiter existieren? – Richte ich bei historisch ausgerichteten Arbeiten meinen Blick auch auf die historisch-sozialen Kontexte der Entstehungsgeschichte von Texten und versuche diese aus sich heraus zu verstehen (vgl. Kapitel 5.3.1 zur Analyse historischer Quellen)? Bin ich mir bewusst, dass meine Perspektive entscheidend von gegenwärtigen Erkenntnissen über die Vergangenheit geprägt ist? – Beachte ich bei der Untersuchung von Verstehensprozessen im Fremdsprachenunterricht den individuell sehr unterschiedlich ausprägten Erfahrungs- und Wissenshorizont der Lernenden, z. B. bei affektiven Komponenten, dem interkulturellen Moment sowie bei der Passung von Themen, Inhalten, Texten, Methoden, Kompetenzen und Lernzielen? Es gilt nach wie vor die Feststellung von Eva Burwitz-Melzer, die besonderen Forschungsbedarf im Bereich der Frage nach dem Stellenwert interkultureller Inhalte erkennt, „wobei allerdings auf Grund des Mangels an empirischer Forschung bis heute ungeklärt ist, was eigentlich im Unterricht bei der Behandlung solcher Themen und Inhalte passiert, welche Lernziele genau ins Auge gefasst werden können und sollen, und wie diese methodisch sinnvoll umzusetzen sind bzw. in den bereits bestehenden kommunikativ ausgerichteten Fremdsprachenunterricht zu integrieren sind“ (Burwitz-Melzer 2001: 139). ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Ahrens, Rüdiger (2004). Hermeneutik. In: Nünning, Ansgar (Hg.). Metzler Lexikon Literatur- und Kulturtheorie. Ansätze – Personen – Grundbegriffe. 3. Auflage. Stuttgart: Metzler, 252 – 255. Baacke, Dieter (1993). Ausschnitt und Ganzes. In: Baacke, Dieter/Schulze, Theodor (Hg.). Aus Geschichten lernen. Zur Einübung pädagogischen Verstehens. München: Juventa, 87 – 125. Bortz, Jürgen/Döring, Nicola (2006). Historische Entwicklung des qualitativen Ansatzes. In: Bortz, Jürgen/Döring, Nicola (Hg.). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4. Auflage. Heidelberg: Springer, 302 – 308. Bredella, Lothar (2010). Das Verstehen des Anderen. Kulturwissenschaftliche und literaturdidaktische Studien. Tübingen: Narr. Bredella, Lothar (1997). Minderheitenliteratur und interkulturelles Lernen. In: Der fremdsprachliche Unterricht Englisch 31/ H. 27, 26 – 31. Bredella, Lothar/Delanoy, Werner (Hg.) (1996). Challenges of Literary Texts in the Foreign Language Classroom. Tübingen: Narr.

5.3.2 Hermeneutische Verfahren

241

Bredella, Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar (Hg.) (2000). Wie ist Fremdverstehen lehr- und lernbar? Vorträge aus dem Graduiertenkolleg „Didaktik des Fremdverstehens“. Tübingen: Narr. * Burwitz-Melzer, Eva (2001). A lesson is a lesson is a lesson? – Forschungsmethodik für den Englischunterricht mit fiktionalen Texten und interkulturellen Lerninhalten. In: Müller-Hartmann, Andreas/ Schocker-v. Ditfurth, Marita (Hg.). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 137 – 162. * Delanoy, Werner (2002a). Fremdsprachlicher Literaturunterricht. Theorie und Praxis als Dialog. Tübingen: Narr. Delanoy, Werner (2002b). Literaturdidaktik und fremdsprachlicher Literaturunterricht: Theorie und Praxis als Dialog. In: Legutke et. al, 55 – 98. Donnerstag, Jürgen (1995). Lesestrategien und Lesetechniken. In: Ahrens, Rüdiger/ Bald, Wolf-Dietrich/ Hüllen, Werner (Hg.). Handbuch Englisch als Fremdsprache. Berlin: Schmidt, 327 – 329. * Ertelt-Vieth, Astrid (1999). Eigen- und Gegenbilder in interkultureller Kommunikation: Ein Fallbeispiel zur prozessorientierten Symbolanalyse. In: Zeitschrift für Fremdsprachenforschung 10/1, 97 – 131. Fairclough, Norman (1992). Discourse and Social Change. Cambridge: Polity. * Freitag-Hild, Britta (2010). Theorie, Aufgabentypologie und Unterrichtspraxis inter- und transkultureller Literaturdidaktik. British Fictions of Migration im Fremdsprachenunterricht. Trier: WVT. Foucault, Michel (1972). L’ordre du discours. Paris: Gallimard [1998. Die Ordnung des Diskurses. Frankfurt: Fischer]. Gadamer, Hans-Georg (1960/1965). Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik. 3. Auflage. Tübingen: Mohr. Garz, Detlef (2010): Objektive Hermeneutik. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. Auflage. Weinheim & München: Juventa, 249 – 262. Geertz, Clifford (1983). Dichte Beschreibung: Beiträge zum Verstehen kultureller Systeme. Frankfurt am Main: Suhrkamp. * Grau, Maike (2001). Forschungsfeld Begegnung: Zum Entstehungsprozess einer qualitativen Fallstudie. In: Müller-Hartmann, Andreas/Schocker-v. Ditfurth, Marita (Hg.). Qualitative Forschung im Bereich Fremdsprachen lehren und lernen. Tübingen: Narr, 62 – 83. * Grimm, Nancy (2009). Beyond the ‚Imaginary Indian‘. Zur Aushandlung von Stereotypen, kultureller Identität und Perspektiven in/mit indigener Gegenwartsliteratur. Heidelberg: Winter. Hellwig, Karlheinz (2005). Bildung durch Literatur. Individuelles Sinnverstehen fremdsprachiger Texte. Eine literaturdidaktische Tour d’Horizon. Frankfurt am Main: Lang. Hunfeld, Hans (1990). Literatur als Sprachlehre. Ansätze eines hermeneutisch orientierten Fremdsprachenunterrichts. Berlin: Langenscheidt. Iser, Wolfgang (1976). Der Akt des Lesens. Theorie ästhetischer Wirkung. München: Fink. Jauß, Hans-Robert (1994). Wege des Verstehens. München: Fink. Klein, Regina (2010). Tiefenhermeneutische Analyse. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. Auflage. Weinheim & München: Juventa, 263 – 280. Legutke, Michael K./Richter, Annette/Ulrich, Stefan (Hg.) (2002). Arbeitsfelder der Literaturdidaktik. Bilanz und Perspektiven. Lothar Bredella zum 65. Geburtstag. Tübingen: Narr. Nünning, Ansgar (2000). Intermisunderstanding. Prolegomena zu einer literaturdidaktischen Theorie des Fremdverstehens. In: Bredella, Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar (Hg.), 84 – 132.

242

5. Forschungsverfahren

Nünning, Ansgar/ Bredella, Lothar/Legutke, Michael K. (2002). Ansgar Nünning im Gespräch mit Lothar Bredella mit einer Einführung von Michael K. Legutke. In: Legutke et al., 99 – 125. Rittelmeyer, Christian (2010). Methoden hermeneutischer Forschung. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. 3. Auflage. Weinheim, München: Juventa, 235 – 248. *Schädlich, Birgit (2009). Literatur Lesen Lernen. Literaturwissenschaftliche Seminare aus der Perspektive von Lehrenden und Studierenden. Eine qualitativ-empirische Studie. Tübingen: Narr. *Schmenk, Barbara (2009): Geschlechterspezifisches Fremdsprachenlernen? Zur Konstruktion geschlechtstypischer Lerner- und Lernbilder in der Fremdsprachenforschung. 2. Auflage. Tübingen: Stauffenburg. Volkmann, Laurenz (2000). Interkulturelle Kompetenz als neues Paradigma der Literaturdidaktik? Überlegungen mit Beispielen der postkolonialen Literatur und Minoritätenliteratur. In: Bredella, Lothar/Meißner, Franz-Joseph/Nünning, Ansgar/Rösler, Dietmar (Hg.). Wie ist Fremdverstehen lehrund lernbar? Vorträge aus dem Graduiertenkolleg „Didaktik des Fremdverstehens“. Tübingen: Narr, 164 – 190. Wierlacher, Alois/Albrecht, Corinna (2008). Kulturwissenschaftliche Xenologie. In: Nünning, Ansgar/ Nünning, Vera (Hg.). Einführung in die Kulturwissenschaften. Stuttgart: Metzler, 280 – 306. »»  Zur Vertiefung empfohlen Berensmeyer, Ingo (2010). Methoden hermeneutischer und neohermeneutischer Ansätze. In: Nünning, Vera/Nünning, Ansgar (Hg.). Methoden der literatur- und kulturwissenschaftlichen Textanalyse. Ansätze, Grundlagen. Modellanalysen. Stuttgart: Metzler, 29 – 50. Der Beitrag mit literatur- und kulturwissenschaftlichem Fokus liefert eine knappe Einführung in die zugrunde liegende Theorie der Methode, stellt die Methode vor und liefert eine Musterinterpretation zu Shakespeares Sonett 73. Eine abschließende Kritik ordnet die Methode in die neuere Theoriediskussion ein. Bredella, Lothar (2010). Das Verstehen des Anderen. Kulturwissenschaftliche und literaturdidaktische Studien. Tübingen: Narr. Diese Publikation stellt eine Zusammenfassung verschiedener, überarbeiteter Publikationen Bredellas dar und bietet eine gute Einführung in das Denken des für hermeneutische Positionen in der Fremdsprachendidaktik so bedeutungsvollen Forschers. Es finden sich hier sowohl essenzielle Überlegungen zu Grundzügen der Didaktik des Fremdverstehens als auch zahlreiche Diskussionen literarischer Fallbeispiele. Delanoy, Werner (2002). Literaturdidaktik und fremdsprachlicher Literaturunterricht: Theorie und Praxis als Dialog. In: Legutke et al. (Hg.), 55 – 98. Für eine hermeneutische Fremdsprachendidaktik, die den Prinzipien der Selbstreflexion und der dialogischen, offenen Interaktion verpflichtet ist, stellt dieser auf den Gedanken Gadamers und auch Bredellas aufbauende Aufsatz einen wichtigen Beitrag dar. Er nennt zahlreiche Forschungsprinzipien und mögliche Forschungsgebiete. Nünning, Ansgar/Bredella, Lothar/Legutke, Michael K. (2002). Ansgar Nünning im Gespräch mit Lothar Bredella mit einer Einführung von Michael K. Legutke. In: Legutke et al. (Hg.), 99 – 125. Dieser höchst anregende Beitrag vermittelt einen ersten Einblick in die Didaktik des Fremdverstehens mit Hilfe literarischer Texte und liefert Perspektiven für künftige Forschungsfragen und Forschungsdesigns. Zu einem ersten Überblick sei diese Diskussion zwischen einem didaktisch stark

5.3.3 Grounded Theory und Dokumentarische Methode

243

interessierten Literaturwissenschaftler und einem literaturwissenschaftlich höchst gebildeten Literaturdidaktiker sehr empfohlen.

5.3.3 Grounded Theory und Dokumentarische Methode Karin Aguado

Ziel des vorliegenden Beitrags ist die Darstellung und Diskussion ausgewählter methodischmethodologischer Verfahren, die ursprünglich zur Untersuchung von Fragestellungen der qualitativen Sozialforschung entwickelt worden sind, sich in jüngster Vergangenheit jedoch auch bei empirisch arbeitenden Fremdsprachendidaktiker/innen zunehmend großer Beliebtheit erfreuen. Es handelt sind zum einen um die Grounded Theory-Methode bzw. -Methodologie (im Folgenden mit GTM abgekürzt)17 und zum anderen um die Dokumentarische Methode (im Folgenden mit DM abgekürzt) sowie um allgemein-rekonstruktive Verfahren. Gemeinsam ist allen Verfahren zunächst einmal ihre Verwurzelung in der Ethnomethodologie  – einer Forschungsrichtung innerhalb der Soziologie, die die Methoden, Verfahren und Techniken untersucht, mit denen die Angehörigen einer sozialen Gemeinschaft ihre alltäglichen Aktivitäten und Handlungen organisieren und steuern. Nach Bergmann (1988: 3) dient die ethnomethodologische Vorgehensweise dazu „zu rekonstruieren, wie wir die Wirklichkeit (…) in unserem tagtäglichen Handeln und im sozialen Umgang miteinander als eine faktische, geordnete, vertraute, verlässliche Wirklichkeit hervorbringen.“ Zu den zentralen Merkmalen ethnographischer Ansätze zählen Ganzheitlichkeit, interpretativer Zugang und Reflexivität im Hinblick auf den Forschungsprozess – allesamt Charakteristika, die auch für die hier vorgestellten Verfahren kennzeichnend sind. Grundsätzlich gilt in der qualitativen Forschung der Grundsatz, dass die Forschungsmethode vom Gegenstand bestimmt wird bzw. ihm anzupassen ist. Die zentrale Gemeinsamkeit der im Folgenden behandelten Verfahren besteht mithin darin, Prozesse, Ereignisse, Situationen und Handlungen aus einer emischen Perspektive zu beschreiben und zu verstehen, d. h. sie aus der Innensicht der untersuchten Akteure zu rekonstruieren, und zwar mittels der beiden empirischen Basismethoden Beobachtung und Befragung. Gleichzeitig gehen Vertreter dieser Verfahren von der Prämisse aus, dass es keine subjekt- bzw. standortunabhängige Forschung gibt. Daraus folgt zwecks Erfüllung des Gütekriteriums der Transparenz bzw. der Nachvollziehbarkeit, dass diese Subjektivität in Bezug auf sämtliche Phasen des Forschungsprozesses zu dokumentieren und zu reflektieren ist. Anhand ausgewählter Referenzarbeiten soll gezeigt werden, wie die konkrete Anwendung der verschiedenen Verfahren in der fremdsprachenlehr-/-lernbezogenen Forschungspraxis im 17 Im vorliegenden Text wird kein Versuch unternommen, die Bezeichnung des hier behandelten Verfahrens der GT ins Deutsche zu übersetzen. Es wird sogar davon abgeraten, es zu tun, weil dies unweigerlich zu unangemessenen Verkürzungen dieser komplexen Forschungsstrategie führen würde. In der Vergangenheit unternommene Vorstöße führten zu Bezeichnungen wie „gegenstandsbegründete“, „gegenstandsbasierte“, „gegenstandsbezogene“ oder auch „datengestützte“ Theoriebildung, wobei keine von ihnen den Kern des Verfahrens trifft bzw. alle grundsätzlich zu kurz greifen. Aus diesem Grund wird für die Beibehaltung der englischsprachigen Originalbezeichnung Grounded Theory plädiert.

244

5. Forschungsverfahren

Idealfall aussehen kann. Schon an dieser Stelle sei vorweggenommen, dass in der qualitativen Forschung heute kaum ein methodisches Verfahren in Reinform angewendet wird, sondern häufig durch spezifische Anpassungen sowie durch Kombinationen mit anderen Verfahren gekennzeichnet ist. 1 Grounded Theory: Entstehung, Ziele, Spezifika18

Im Zusammenhang mit der Frage, ob es sich bei der Grounded Theory (GT) um eine Forschungsmethode, um eine Forschungsmethodologie oder um eine Forschungsstrategie handelt, ist zunächst einmal sowohl inhaltlich als auch terminologisch zwischen Prozess bzw. Weg (= Grounded Theory-Methode bzw. -Methodologie) und Produkt bzw. Ziel (= Grounded Theory) zu unterscheiden. Da der Fokus des vorliegenden Handbuchs im Bereich der Verfahren der empirischen Fremdsprachenforschung liegt und es sich bei im Folgenden dargestellten Verfahren nicht um eine einheitliche Methode handelt, sondern stattdessen verschiedene Varianten bzw. Entwicklungen koexistieren, werde ich im weiteren Verlauf dieses Beitrags nicht von Methode, sondern von Methodologie (GTM) sprechen. Mit ihrer Monographie The Discovery of Grounded Theory. Strategies for Qualitative Research haben die beiden Soziologen Barney G. Glaser und Anselm L. Strauss im Jahr 1967 das Konzept des von ihnen gemeinsam entwickelten Verfahrens für eine datengeleitete Theoriegenerierung veröffentlicht. Ihr Ziel war es, nicht nur generell eine Lanze für eine qualitative empirische Herangehensweise an wissenschaftliche Fragestellungen zu brechen und eine Alternative zu den bis dato bevorzugt angewendeten quantitativ-deduktiven Vorgehensweisen zu entwerfen. Sie wollten darüber hinaus eine Ergänzung zu rein deskriptiven qualitativen Ansätzen anbieten. Gründe dafür waren die aus ihrer Sicht überfällige Hinterfragung sogenannter Grand Theories, im Rahmen derer sie selbst sozialisiert worden waren wie z. B. der Symbolische Interaktionismus oder der Kritische Rationalismus, und die Ermutigung des wissenschaftlichen Nachwuchses, sich von diesen mächtigen Theorien zu emanzipieren und in der eigenen empirischen Arbeit neue Wege einzuschlagen. Das zentrale innovative Merkmal der in der Sekundärliteratur (z. B. von Mey/Mruck 2011: 12) als programmatisch bezeichneten Veröffentlichung von Glaser/Strauss ist zusammengefasst die Eröffnung der Möglichkeit, systematisch erhobene Daten nicht nur zu beschreiben und anhand vorgegebener Kategorien zu analysieren, sondern sie selbst zur Konzept- und Theoriebildung zu nutzen. Es scheint, als habe die qualitativ arbeitende scientific community auf eine solche Herangehensweise gewartet, denn die GTM wurde mit Begeisterung aufgenommen und hat sich in den vergangenen vier Jahrzehnten fest in der qualitativen Forschung etabliert, wobei festzuhalten ist, dass sie in mehreren Varianten oder Interpretationen ko-existiert. So gibt es sowohl im internationalen Vergleich als auch hinsichtlich der verschiedenen wissenschaftlichen Disziplinen, die sich ihrer bedienen, z.T. unterschiedliche Entwicklungen und Schwerpunktsetzungen, auf die weiter unten noch einzugehen sein wird. 18 Da es im Rahmen des vorliegenden Beitrags nicht möglich ist, die gesamte Entwicklung, die allmählich sich entwickelnde Kontroverse zwischen Barney G. Glaser und Anselm L. Strauss sowie die Weiterentwicklungen der GTM durch die zweite Generation nachzuzeichnen, sei an dieser Stelle auf den kontinuierlich aktualisierten Grounded Theory Reader hingewiesen, dessen aktuelle Ausgabe von Mey/Mruck im Jahr 2011 herausgegeben worden ist.

5.3.3 Grounded Theory und Dokumentarische Methode

245

Im Unterschied zu anderen Forschungsstrategien handelt es sich bei der GTM um ein komplexes, ganzheitliches Verfahren, das sowohl zur Gewinnung als auch zur Analyse und zur Interpretation von Daten dient. Es integriert also die genannten drei Forschungsphasen bzw. -ebenen miteinander, die klassische Trennung entfällt: D.h. man wartet mit der Aufbereitung, Analyse und Interpretation nicht, bis alle Daten erhoben sind, sondern beginnt unmittelbar nach der ersten Datenerhebung mit der Auswertung, deren Ergebnisse dann das weitere Vorgehen bestimmen, wie z. B. die Auswahl der als nächstes zu erhebenden Daten. Diese Vorgehensweise ist konstitutiv für die GTM und bringt für Forschende den großen Vorteil mit sich, schon gleich zu Beginn des Forschungsprozesses sehr nah an den Daten zu arbeiten, d. h. sich mit ihnen vertraut zu machen sowie erste Kodierungen und Kategorisierungen vorzunehmen. So verringert sich auch das Risiko, sogenannte Datenfriedhöfe zu produzieren, da im weiteren Forschungsprozess idealiter nur solche Daten erhoben werden, von denen begründet angenommen wird, dass sie für die jeweilige Arbeit – also für das eigene Erkenntnisinteresse, die Beantwortung der Forschungsfrage(n) und das Erreichen des übergeordneten Forschungsziels – relevant und nützlich sind. Von der theoretischen Sensibilität über das theoretische Sampling bis zur theoretischen Sättigung

Zu Beginn ihrer gemeinsamen Arbeit forderten Glaser und Strauss von Forschenden, die mit dem GTM-Ansatz arbeiten wollten, den völligen Verzicht auf jegliche Lektüre einschlägiger Literatur und daraus möglicherweise resultierenden theoretischen Begriffsbildungen. Stattdessen hielten sie das Vorhandensein einer theoretischen Sensibilität für notwendig und hinreichend. Sie meinten damit die Fähigkeit, im Datenmaterial theoretisch relevante Kategorien sowie zwischen ihnen bestehende Beziehungen entdecken zu können.19 Während Glaser bis heute an dieser Position festhält, hat Strauss (in seinen Publikationen zusammen mit Corbin) im Laufe der Zeit seine Einstellung zur Einbeziehung vorhandener Forschungsliteratur geändert bzw. aktualisiert. Glaser zufolge sollte im Vorfeld einer empirischen Arbeit nicht einmal ein Forschungsbericht angefertigt werden, weil die Kenntnis und Einbeziehung von Literatur zu einer Kontamination der zu bildenden Kategorien führen könnte und so das eigentliche Ziel der GTM – nämlich eine Theorie aus den Daten emergieren zu lassen – verfehlt würde. Zu dieser Emergenz könne es aber nur dann kommen, wenn Forschende die Daten unvoreingenommen und ohne störendes Vorwissen betrachten. Daher sollten erst bei Vorliegen der zentralen Kategorien der zu bildenden GT überhaupt andere Informationsquellen konsultiert werden. Wenngleich Glasers Position theoretisch prinzipiell nachvollziehbar ist, ist sie gleichzeitig nicht nur unrealistisch und ineffizient, sondern aus heutiger Sicht auch unwissenschaftlich und somit inakzeptabel. Die Rezeption und Verarbeitung vorhandener Fachliteratur spielt für jeden Forschungsprozess eine zentrale Rolle – und sie schützt vor unangenehmen Überraschungen oder vermeintlichen Neuentdeckungen. Ferner ist unbestritten, dass empirische Beobachtungen nicht nur von fachlichem Vorwissen, sondern auch von subjektiven Erfahrungen und Erwartungen beeinflusst werden, und so gehört es inzwischen zum 19 Es handelt sich hierbei um eine sehr abstrakte und nicht näher spezifizierte Eigenschaft oder Kompetenz, bei der sich nicht nur viele Forschungsanfänger/innen fragen, ob und wie man sie erwerben kann oder ob es sich eher um ein Persönlichkeitsmerkmal handelt, über das man entweder verfügt oder nicht.

246

5. Forschungsverfahren

wissenschaftlichen Standard, Vorwissen jeglicher Art entsprechend zu dokumentieren und hinsichtlich seines Stellenwerts zu evaluieren (für ein typisches Beispiel vgl. Ehrenreich 2004, Abschnitt BI.1.3, in dem die Forscherin explizit ihr ausbildungs- und berufsbiographisch geprägtes Vorwissen benennt und hinsichtlich seiner Rolle für die empirische Untersuchung reflektiert. So beschreibt sie die aus ihrer vorhandenen Vertrautheit mit dem Forschungsfeld resultierenden Auswirkungen auf das Verhältnis zu den Befragten sowie auf die Kommunikationsstruktur und die Gesprächsinhalte). Das zuvor bereits angedeutete methodische Vorgehen der GTM bei der Datengewinnung wird als Theoretical Sampling bezeichnet. Damit ist die im Rahmen der Theorieentwicklung kontinuierlich erfolgende Erhebung weiterer Daten gemeint, deren Funktion die Gewinnung eines möglichst breiten Variationsspektrums ist. Die methodisch-methodologische Begründung für das theoretische Sampling ist die im Rahmen der qualitativen Forschung gegebene Problematik der Bestimmung einer Grundgesamtheit und die daraus resultierende Unmöglichkeit der Ziehung einer repräsentativen Stichprobe. Stattdessen wird eine sukzessive Differenzierung und Verfeinerung der bereits gewonnenen, grundsätzlich als vorläufig zu betrachtenden Erkenntnisse angestrebt. Die weiteren Daten werden nach der größten Relevanz für den untersuchten Gegenstand ausgewählt, wobei generell eine maximale Heterogenität und ein möglichst großer Kontrast zwischen ihnen anzuvisieren sind. Im Unterschied zu allen strikt sequentiell angelegten hypothesentestenden oder hypothesengenerierenden Verfahren geht die GTM also zyklisch20 vor, d. h. die Erhebung weiterer Daten, ihre unmittelbare Kodierung und Analyse sowie der kontinuierliche Vergleich mit bereits kodierten und analysierten Daten zum Zweck der Bildung theoretischer Konzepte werden so lange betrieben, bis der Forscher/die Forscherin an einem Punkt angelangt ist, den Glaser und Strauss theoretische Sättigung nennen: Wenn sich also herausstellt, dass die Erhebung und Analyse von weiteren Daten keinen neuen Erkenntnisgewinn mehr bringen, die Kategorien bereits maximal dicht und ihre Beziehungen untereinander identifiziert und benannt sind, gilt die bis dahin aufgestellte Theorie als vorläufig gesättigt. Hinsichtlich der Güte dieser Theorie sei hier die Position von Mey/Mruck zitiert: „Nicht die Zahl der Fälle, sondern die Systematik ihres Einbezugs und der Vergleiche macht die Qualität einer GT aus“ (Mey/Mruck 2011: 29). Gleichzeitig muss an dieser Stelle eingeräumt werden, dass es ein sehr hoch gestecktes Ziel ist, im Rahmen einer einzelnen Studie Sättigung erreichen zu wollen. In diesem Zusammenhang interessant und sehr sinnvoll erscheint mir daher der Vorschlag von Dey (1999), hier von Hinlänglichkeit (sufficiency) anstatt von Sättigung (saturation) zu sprechen. Die skizzierte Iterativität ist für eine begründete und valide Theoriegenerierung also unverzichtbar, wobei mittels GTM in der Regel die Formulierung von Theorien mittlerer Reichweite (vgl. dazu Merton 1949) anstrebt wird. Dabei ist festzuhalten, dass die meisten auf diese Weise gewonnenen Theorien immer nur Teil-Theorien, Entwürfe oder Skizzen sind, denn: „The published word is not the final one, but only a pause in the never-ending process of generating theory“ (Glaser/Strauss 1967: 40).

20 Vielfach wird in deutschsprachigen Publikationen hier die meiner Ansicht nach unangemessene Bezeichnung ‚zirkulär‘ verwendet. Dieser Terminus impliziert jedoch nicht die gewünschte dynamische Entwicklung und verfehlt damit den Kerngedanken der GTM.

5.3.3 Grounded Theory und Dokumentarische Methode

247

Offenes, axiales und selektives Kodieren

Um Kategorien entwickeln zu können, müssen die vorhandenen Daten zunächst kodiert werden. Dazu stehen in der GTM drei chronologisch aufeinander folgende Kodierverfahren zur Verfügung:21 Das erste Verfahren – das offene Kodieren – umfasst das detaillierte Zeile für Zeile-Lesen der Daten, und zwar zwecks Beantwortung der allgemeinen Frage: Worum geht es hier? Hier ist ein maximal freier Umgang mit den Daten das Ziel, d. h. es sollen sämtliche Ideen und Assoziationen sowie deren Erläuterung notiert und mit groben, vorläufigen Kodes versehen werden. Bei der Benennung wird zwischen soziologischen Konstrukten auf der einen Seite und natürlichen Kodes (auch in-vivo-Kodes genannt, weil sie dem Material direkt entnommen sind) auf der anderen Seite unterschieden. In dem sich nun anschließendem Verfahren  – dem axialen Kodieren  – geht es um die systematische Bildung, Differenzierung und Verfeinerung der gewonnenen von Kategorien und deren zunehmende Abstraktion. Dazu werden die zuvor ermittelten Kodes anhand des von Strauss (1987) und Strauss/Corbin (1990) entwickelten Kodierparadigmas systematisch auf Bedingungen, Verbindungen und Konsequenzen überprüft. D.h. beim axialen Kodieren stehen die Kategorien im Zentrum und werden systematisch hinsichtlich ihrer Relationen zu anderen Kategorien beleuchtet und verdichtet. Im letzten Schritt – dem selektiven Kodieren – geht es um die Ermittlung der Kernkategorie als Grundlage für die angestrebte Theoriebildung. Die mittels des axialen Kodierens gewonnenen Kategorien werden zwecks Bestimmung von Oberkategorien abermals systematisch klassifiziert, d. h. die praktische Vorgehensweise ist prinzipiell identisch mit dem zweiten Kodierschritt, das Resultat weist allerdings einen zunehmend höheren Abstraktionsgrad auf (vgl. Strauss/Corbin 1990: 117). Für die sich nun anschließende Formulierung der zu generierenden Theorie werden sämtliche interpretativen Schritte miteinander integriert. Abschließend ist die gewonnene Theorie einer Überprüfung an Daten zu unterziehen. Im Hinblick auf die Qualität der Theoriebildung betont Muckel (2011) zum ersten die Wichtigkeit des wiederholten genauen Lesens der erhobenen Daten sowie deren permanenter Vergleich. Zum zweiten stellt sie hinsichtlich der Kategorienbildung folgendes fest: Außerdem werden die entwickelten Kategorien umso besser (dichter, prägnanter, integrativer), je mehr es den Forschenden gelingt, u. a. zwischen zwei Einstellungen/Haltungen den Daten gegenüber zu wechseln [Hervorhebung im Original]: Zum einen sollte versucht werden, eigenen Interpretations- und Lesartenideen nachzugehen und sie in verschiedenen Datenausschnitten zu belegen. Zum anderen sollte man immer wieder eine Gegenbewegung dazu antreten und sozusagen fragen, ob etwas auch anders sein könnte, als es gerade erscheint. Diese beiden Haltungen einzunehmen – also Belege und Widersprüche in den Daten [Hervorhebung im Original] zu suchen – schleift Kategorien, indem sie gleichzeitig präzisiert und pluralisiert werden, und das macht sie gut. (Muckel 2011: 351).

Aus seiner Perspektive sicherlich folgerichtig, aus aktueller methodologischer Warte betrachtet jedoch nicht haltbar ist Glasers Plädoyer dafür, den mittels der GTM gewonnenen Erkenntnissen auch ohne nochmalige Überprüfung zu trauen. Als Argument führt er die Verlässlichkeit der Methode des ständigen Vergleichens an. Strübing spricht hier kritisch von einem 21 Die folgenden Ausführungen beziehen sich auf die von Strauss (1987) bzw. Strauss/Corbin (1990) vorgeschlagene und allgemein etablierte Vorgehensweise.

248

5. Forschungsverfahren

„objektivistischen Methodenglauben“ (Strübing 2011: 272) auf Seiten Glasers, der davon ausgehe, dass eine richtige Methodenanwendung automatisch zu korrekten Ergebnissen führe. Glaser vs. Strauss – Varianten der GTM

Es besteht in der einschlägigen Forschungsszene Einigkeit darüber, dass es aktuell mindestens zwei Varianten der GTM gibt, und zwar zum einen die von Barney Glaser und seinen Schüler/ innen vertretene, größtenteils mit der Originalversion aus dem Jahr 1967 übereinstimmende Variante und zum anderen die von Anselm Strauss und seinen Schüler/innen entwickelte Variante, die sich z. T. deutlich von der ursprünglichen Version unterscheidet. Wie zuvor bereits angedeutet, gingen die beiden Begründer der GTM relativ bald nach ihrer bahnbrechenden Publikation in methodisch-methodologischer Hinsicht jeweils eigene Wege, die sich im Laufe der Zeit immer weiter voneinander entfernten. Der endgültige Bruch wurde durch die von Strauss/Corbin im Jahr 1990 veröffentlichte Monographie Basics of Qualitative Research ausgelöst, in Bezug auf die Glaser (1992) seinen ehemaligen Ko-Autoren Strauss der „Verfälschung“ des ursprünglich gemeinsam entwickelten methodisch-methodologischen Ansatzes beschuldigte. Zusammenfassend und auf den Punkt gebracht, könnte man es so formulieren: Während Glaser eine eher streng-puristische Position vertritt, an der ursprünglichen Version der seinerzeit entwickelten Strategie festhält und sich gegen jegliche Veränderung sperrt, vertreten Strauss und seine Schüler/innen eine eher pragmatische, nützlichkeitsbezogene Position mit Blick auf mögliche Weiterentwicklungen und Aktualisierungen des ursprünglichen Ansatzes.22 Es ist unbestritten, dass Glaser und Strauss im Hinblick auf ihre forschungsmethodologische Reflektiertheit eine nicht zu unterschätzende Pionierfunktion zukommt. Dass sie bereits in den 1960er Jahren so stark den Prozess des Forschens fokussierten, war innovativ und für die heutige qualitative Forschung von zentraler Bedeutung: So führten sie das für die GTM konstitutive Prinzip „Stop and memo!“ ein, durch das der Prozess der Datenkodierung regelmäßig und systematisch unterbrochen werden soll, um den eigenen Analyse- und Erkenntnisprozess durchgängig zu dokumentieren und zu reflektieren. Auch dass die beiden Forscher der datengeleiteten bottom up-Vorgehensweise gegenüber dem theoriegeleiteten top down-Verfahren Priorität einräumten, war wegweisend. Die aus meiner Sicht wichtigste Errungenschaft für die qualitative Forschung ist die Einführung des Prinzips „Analyse von Anfang an“ und somit das Aufbrechen der – vielfach heute noch üblichen – strikten Linearität des Forschungsprozesses.23

22 Strübing (2011) vertritt  – im Unterschied zu Mey/Mruck 2009  – daher die Position, dass es sich bei den beiden divergierenden Konzeptionen der GTM wissenschafts- und erkenntnistheoretisch „um zwei grundverschiedene Verfahren qualitativer Sozialforschung handelt“ (Strübing 2011: 273). Entsprechend schlussfolgert er, „dass Forschende, die sich auf Grounded Theory berufen, nicht umhin können, sich für die eine oder die andere der beiden Varianten zu entscheiden.“ (Strübing 2011: 262). Hinzuzufügen ist hier, dass inzwischen Vertreter/innen der zweiten Generation aktiv und engagiert die Weiterentwicklung der GTM verfolgen, so z. B. Charmaz (2000) oder Clarke (2005), die an der Entwicklung postmoderner, konstruktivistischer Varianten der GTM arbeiten. 23 Ein gutes und sehr illustratives Beispiel stellt hier die Arbeit von Muckel (2011) dar.

5.3.3 Grounded Theory und Dokumentarische Methode

249

2 Dokumentarische Methode Entwicklung, Ziele, Merkmale

In der Wissenssoziologie wird angenommen, dass jede gesellschaftliche Gruppe in Abhängigkeit von ihren spezifischen sozialen, ökonomischen oder kulturellen Gegebenheiten im Rahmen eines gemeinsamen Erfahrungsraums eigene Denkstrukturen hervorbringt. Ziel der Dokumentarischen Methode (im Folgenden mit DM abgekürzt) ist die empirische Rekonstruktion solcher Strukturen, d. h. es handelt sich um ein Verfahren, mit dessen Hilfe Alltagshandlungen Bedeutung und Kohärenz zugeschrieben werden. Bonnet (2012: 293) bezeichnet die DM daher auch als „kontrolliertes Fremdverstehen“. Die Methode geht auf Karl Mannheim (1922) zurück, der zwischen konjunktivem und kommunikativem Wissen unterschied, wobei ersteres als atheoretisches und implizites Erfahrungswissen zu verstehen ist, das im Unterschied zum explizierbaren und reflexiv verfügbaren kommunikativen Wissen die alltägliche Handlungspraxis weitgehend unbemerkt anleitet. Mannheim hat insgesamt drei Typen des Sinns menschlicher Handlungen identifiziert, und zwar den objektiven Sinn, den Ausdruckssinn und den dokumentarischen Sinn. Beim objektiven Sinn geht um die gesellschaftliche Bedeutung, die eine Handlung aufgrund ihres Auftretens innerhalb einer sozialen Institution erhält. Der Ausdruckssinn bezeichnet den subjektiv gemeinten Sinn, also die mit einer kommunikativen Handlung ausgedrückte Absicht. Beim dokumentarischen Sinn geht es schließlich um das den Akteuren zumeist nicht bewusste Handlungswissen und die diesem Wissen zugrundeliegenden Ursachen. Die dokumentarische Analyse fokussiert also auf die Rekonstruktion des konjunktiven Erfahrungsraums: „Indem man sie [= maximal interaktiv oder metaphorisch dichte Textstellen, K. A.] als Sinnkonstruktionen interpretativ rekonstruiert (Oberflächenstruktur), ergeben sich gleichzeitig Verweise auf Haltungen, Wissensbestände, Gefühle oder Überzeugungen, durch die ihr Zustandekommen erklärt werden kann (Tiefenstruktur)“ (Bonnet 2012: 292). Gruppendiskussionen und Interviews als ideale Datenquellen für die DM

Das klassische, prototypische Setting für die DM sind Gruppendiskussionen und zwar deshalb, weil sich die durch einen konjunktiven Erfahrungsraum erworbenen gemeinsamen Orientierungen in solchen Interaktionen am besten materialisieren. Ralf Bohnsack hat in den 1980er Jahren ein Verfahren zur Auswertung von Gruppendiskussionen entwickelt, indem er die DM von Mannheim durch Methoden der Textinterpretation von Fritz Schütze (1983) und Oevermann et al. (1979) ergänzte. Bohnsack (1991) unterscheidet insgesamt vier Arbeitsschritte: 1. Formulierende Interpretation: Dabei werden die in den Interaktionen behandelten Themen chronologisch nachvollzogen und mittels der von den Akteuren selbst verwendeten Sprache paraphrasiert und als Fließtext wiedergegeben. 2. Reflektierende Interpretation: Hierbei geht es um den dokumentarischen Sinngehalt des Gesagten. Im Fokus stehen interaktional dichte Passagen, in denen konjunktive Erfahrungen aktualisiert werden. Neben der Analyse sprachlicher und diskursstruktureller Merkmale sind die Modi der Themenentfaltung von besonderer Bedeutung. So eröffnen narrative Passagen eher den Zugang zum atheoretischen, unbewussten Wissen der Akteure, während argumentative Passagen mehr Einblick in das theoretische, bewusste Wissen ermöglichen. 3. Zusammenfassende Fallbeschreibung: In die-

250

5. Forschungsverfahren

sem Schritt werden alle zuvor erarbeiteten Einzelinformationen zusammengefasst, wobei die chronologische Entfaltung des Diskurses (= Diskursdramaturgie) von besonderer Bedeutung ist. 4. Typenbildung (s. Kapitel 5.3.5): Im Anschluss an die Rekonstruktion und den Vergleich werden die Orientierungsrahmen der Einzelfälle ermittelt. Ziel ist die Identifizierung von Typen und somit die Erstellung von Typologien. Die Typenbildung ist dann erreicht, wenn es zu einer Sättigung der Kontraste gekommen ist, d. h. wenn keine neuen Merkmale mehr gewonnen werden. Alternativ zu Gruppendiskussionen können  – um eine ähnliche interaktive Dichte zu erreichen sowie um das implizite Wissen der Beteiligten zu ermitteln – narrative oder episodische Interviews durchgeführt werden. Während narrative Interviews dazu dienen, „über Erzählungen das Geschehen im Erfahrungsraum selbst zugänglich zu machen“ (Bonnet 2012: 293), können episodische Interviews dazu genutzt werden, das eigentheoretische episodische und semantische Wissen der Akteure zu ermitteln und zu vergleichen. Episodische Interviews erscheinen ideal für die Anwendung der DM geeignet, denn sie bestehen sowohl aus offenen Erzählaufforderungen zwecks Ermittlung episodischen Wissens als auch aus präzisierenden, argumentativ orientierten Passagen, im Rahmen derer semantisches Wissen elizitiert werden kann und auch Nachfragen möglich sind. 3 G  TM, DM und verwandte rekonstruktive Verfahren in der empirischen Fremdsprachenforschung

Illustrative Beispiele dafür, dass strikt-puristische Herangehensweisen à la Glaser in der aktuellen qualitativen Fremdsprachenforschung einen außerordentlich schweren Stand haben, sind die Referenzarbeiten von Ehrenreich (2004) und Schart (2003). Mehrmethodische, z.T. sogar paradigmenübergreifende Herangehensweisen sind inzwischen gängige Praxis – entscheidend ist dabei, dass sie nachvollziehbar begründet werden. Die Umsetzung der zentralen qualitativen Gütekriterien Offenheit, Flexibilität und Transparenz wird in beiden genannten Arbeiten aufs Vorbildlichste demonstriert. Zwar bleibt Ehrenreich in ihrer genauen Verortung im GTM-Paradigma insgesamt etwas vage – sie bezieht sich auf Glaser/Strauss (1967)24 – , aber sie diskutiert die sich im Rahmen der GTM bietenden Möglichkeiten ausführlich und weiß sie begründet zu nutzen. Ausgehend von der vorläufigen, eher gerichteten und verkürzten Fragestellung „In welcher Hinsicht/Ist das Fremdsprachenassistenten-Jahr ertragreich für angehende Fremdsprachenlehrer?“ (Ehrenreich 2004: 131) hat sie anhand der ersten Interviewdaten bzw. im Anschluss an die Pilotierung ihres Leitfadens und der Ergänzung der Impulsfragen ihre Forschungsfrage merklich ausdifferenziert25 und dabei insbesondere den subjektiven Bedeutungszuschreibungen der befragten Akteure einen 24 Vgl. dazu die oben zitierte Einschätzung von Strübing (2011). 25 Die Forschungsfragen lauten schließlich: „1) Wie stellt sich ein Auslandsaufenthalt als Fremdsprachenassistent in einem englischsprachigen Land aus der Perspektive der Beteiligten dar. Durch welche internen und externen Rahmenbedingungen wird dieser Aufenthalt strukturiert? 2a) Wie bewerten die Beteiligten Ertrag und Auswirkung ihres Auslandaufenthaltes als deutsche/r FremdsprachenassistentIn in einem englischsprachigen Land? 2b) Wie sind Ertrag und Auswirkung ihres Auslandaufenthaltes als deutsche/r FremdsprachenassistentIn in einem englischsprachigen Land im Licht der Lehrerbildung zu bewerten? 3) Welche Implikationen birgt die Gegenüberstellung dieser beiden Perspektiven im Blick auf die Ausbildungsinhalte und Struktur der Fremdsprachenlehrerbildung?“ (Ehrenreich 2004: 199).

5.3.3 Grounded Theory und Dokumentarische Methode

251

höheren Stellenwert zugeordnet: Der eigentliche Forschungsgegenstand konstituierte sich somit erst im Forschungsprozess (vgl. dazu auch Schädlich 2009: 147), und zwar empirisch begründet durch gleich zu Beginn durchgeführte Datenanalysen. Was das Sampling betrifft, so geht Ehrenreich kriteriengeleitet vor. Die Auswahlkriterien sind: Geschlecht, Herkunftsbundesland, Zielland, Ausbildungsphase zum Zeitpunkt der Interviews, subjektive Bewertung der Fremdsprachenassistenz, Aufenthaltsdauer. Darüber hinaus erfolgt die Auswahl ihrer 22 Interviewpartner – wie in den meisten qualitativen Studien – nach deren Bereitschaft und nicht nach der von der GTM favorisierten Methode des theoretischen Sampling. Hier wird deutlich, dass methodologisch durchaus plausible Überlegungen in der Forschungsrealität aus pragmatischen Gründen nicht ohne weiteres umgesetzt werden können und die Forschenden daher Alternativlösungen entwickeln müssen. In GTM-orientierten Forschungen werden Daten primär mittels teilstrukturierter, problemorientierter, narrativ-fokussierter Interviews mit variabel einzusetzenden Leitfäden gewonnen (Ehrenreich 2004, Schart 2003), die – wenn sie unterschiedliche Perspektiven erheben – in der Auswertung z.T. auch miteinander trianguliert werden (vgl. z. B. Schädlich 2009). Diese Interviews werden zumeist durch kontextualisierende schriftliche Befragungen zu biographischen Hintergrunddaten flankiert. Wie zuvor bereits angedeutet, geht auch Schart (2003), der in seiner qualitativen Interviewstudie das subjektive Verständnis untersucht, das Lehrende für Deutsch als Fremdsprache von Projektunterricht haben, mehrmethodisch vor, um verstehend die handlungsleitenden Überlegungen der befragten Personen nachzuvollziehen. In Studien, die mit der DM arbeiten, werden zwar ebenfalls Daten verbaler Handlungen der untersuchten Personen analysiert, diese werden aber in der Regel nicht eigens für Untersuchungszwecke produziert, sondern entstammen alltäglichen Interaktionen. So wurden in der rekonstruktiven Fallstudie von Tesch (2010) insgesamt fast 30 Stunden regulären Französischunterrichts in drei Gymnasialklassen der neunten und zehnten Jahrgangsstufe mit 21 bis 29 Schüler/innen hinsichtlich des Umgangs mit kompetenzorientierten Lernaufgaben beobachtet. Die anschließende detaillierte Beschreibung und Analyse ausgewählter Unterrichtsstunden ermöglichte Einsichten in die soziale Dimension fremdsprachenunterrichtlicher Interaktionen sowie Erkenntnisse über unterrichtsbezogene Rahmenorientierungen von Lehrenden und Lernenden und somit über ihr implizites handlungsleitendes Wissen. Im Anschluss an die vollständige Transkription und die inhaltlich zusammenfassende Beschreibung aller audiographierten Unterrichtsstunden26 wurden aus jeder Stunde eine oder mehrere typische Sequenzen ausgewählt, die eine „besondere metaphorische Dichte“ (Tesch 2010: 179) aufwiesen. Weitere Auswahlkriterien waren die dominante Interaktionsrichtung sowie dominante Interaktionsinhalte. Die Daten wurden mittels der beiden zentralen Analyseschritte „Formulierende Interpretation“ und „Reflektierende Interpretation“ bearbeitet. Zunächst wurden also der Diskursverlauf nachgezeichnet und die Äußerungen der Beteiligten zusammenfassend paraphrasiert, d. h. grob interpretiert. Damit war die Grundlage für den nächsten Analyseschritt – die reflektierende Interpretation – geschaffen, bei der es nun darum ging, die zuvor reformulierten Aussagen der Akteure „als Propositionen und als Ausdruck von Rahmungen zu erkennen, die mit anderen Propositionen verglichen […] und in Bezie26 Die ebenfalls erstellten Videographien wurden nicht transkribiert, sondern lediglich zum Zweck der Validierung verwendet. Die handschriftlich notierten Gespräche mit Lehrer/innen vor und nach den beobachteten Unterrichtsstunden wurden sporadisch in die Analyse einbezogen.

252

5. Forschungsverfahren

hung gesetzt werden können“ (Tesch 2010: 183). Dazu wurden die Daten diskursanalytisch im Hinblick auf explizite und implizite Verknüpfungen untersucht und mit ähnlichen Fällen verglichen, um „typische Handlungspraxen“ (ebd.) zu ermitteln. Auch in der DM spielt also die Technik des Vergleichens eine zentrale Rolle. Die methodisch an der GTM orientierte Arbeit von Ehrenreich illustriert die vielfältigen Möglichkeiten der Gewinnung von Auswertungskategorien: Sie erfolgt sowohl auf der Basis eigenen Vorwissens, durch die Auseinandersetzung mit der Forschungsliteratur und entlang des zuvor erstellten Interviewleitfadens als auch datenbasiert, d. h. durch die Auswertung der ersten Interviewdaten. Dabei wird dem von Strauss/Corbin (1990) aufgestellten ‚Kodierparadigma‘ aufgrund seiner Plausibilität, ihrer Strukturiertheit sowie ihrer direkten Anwendbarkeit gegenüber den eher allgemeinen, abstrakten ‚Kodierfamilien‘ von Glaser der Vorzug gegeben. Schädlich (2009: 160) geht in ihrer Interviewstudie zur Rekonstruktion der subjektiven Wahrnehmungen von Lehrveranstaltungen zur französischen Literaturwissenschaft durch Lehrende und Studierende so vor, dass sie zwar dem Prinzip des theoretischen Kodierens der GTM folgt, sich in der konkreten Auswertungsarbeit jedoch an Mayrings (1993) Vorgehen der strukturierten Inhaltsanalyse (s. Kapitel 5.3.4) orientiert und mit zuvor festgelegten Ordnungskriterien arbeitet. Somit haben wir auch hier ein Beispiel eines mehrmethodischen Designs, im Rahmen dessen die für das eigene Forschungsziel jeweils am besten erscheinenden Verfahren aus verschiedenen methodisch-methodologischen Ansätzen miteinander kombiniert werden. Wie zuvor bereits dargestellt, geht es auch bei der DM – ähnlich wie bei der GTM – darum, Prozesse der Konstruktion sozialer Realität bzw. sozialen Sinns zu rekonstruieren und somit intersubjektiv nachvollziehbar zu machen. Unterrichtliche bzw. unterrichtsbezogene Interaktionen sind komplexe Ereignisse, die mit der DM in idealer Weise untersuchbar ist, da sie die Aufdeckung impliziter Wissensbestände ermöglicht. Voraussetzung für die Anwendung der DM ist, dass die mit ihr betrachteten bzw. befragten Personen Angehörige des konjunktiven Erfahrungsraums sind, dessen Handlungswissen rekonstruiert werden soll. Bonnet (2009) und Tesch (2010) gehören zu den ersten Fremdsprachendidaktikern, die die DM zur Untersuchung unterrichtlicher Interaktionen und damit zur Rekonstruktion des größtenteils unbewussten handlungsleitenden Wissens der Akteure nutzten. Die besondere Leistung der DM liegt Tesch zufolge „in der genauen Beschreibung empirisch ermittelter impliziter Orientierungen und in der Bestimmung typischer Ausprägungen in den verschiedenen Schulformen und Klassenzusammensetzungen“ (Tesch 2010: 366). Kritisch anzumerken ist in Bezug auf die DM zum einen, dass sie – per definitionem – nur Daten von Personen zu analysieren gedacht ist, die über einen ähnlichen, d. h. konjunktiven Erfahrungsraum verfügen. Somit ist der Anwendungsbereich dieses methodischen Ansatzes grundsätzlich stark eingeschränkt. Hier wird deutlich, wie sehr der mögliche Erkenntnisgewinn von der jeweils gewählten Methode bestimmt wird. Zum anderen ist an der Vorgehensweise der DM der überraschend unreflektierte Umgang mit der Paraphrasierung von Originalaussagen der Forschungsteilnehmer/innen und der damit einhergehende Verlust an Nähe zu den Primärdaten zu kritisieren. So werden bei dem von der DM vorgesehenen ersten Analyseschritt nicht die Äußerungen der Forschungsteilnehmer/innen analysiert und interpretiert, sondern die von den Forschenden daraus abgeleiteten Paraphrasen. Insofern stellt sich

5.3.3 Grounded Theory und Dokumentarische Methode

253

5.3.3 Grounded Theory und Dokumentarische Methode

Rekonstruktion von Prozessen aus emischer Perspektive Theoriebildung aus Daten Grounded Theory-Methodologie

theoretisches Sampling theoretische Sättigung offenes, axiales, selektives Kodieren

ganzheitliche, interpretative, reflexive Prozesse

aus Daten entwickelte Theorie

theoretische Sensibilität

nalysen,Verglei ch, en, A K ung a t eb eg or erh i en

Heterogenitä male t , g axi röß ,m te ng

ng du bil en

t tras on rK

ktive spe er

Prozess Ereignis

aus emisc rung her die P Ko

ng / Befr htu a ac

Beo b

Analys eu nd

Diffe ren zie ru

we ite re Da t

ng gu

Erfahrungs- und Alltagswissen gesellschaftlicher Gruppen



Gruppendiskussionen, Interviews

Rekonstruktion des konjunktiven Erfahrungsraumes und der darin enthaltenen Denkstrukturen durch → formulierende Interpretation → reflektierende Interpretation → zusammenfassende Fallbeschreibung → Typenbildung

Gütekriterien: Offenheit, Transparenz, intersubjektive Nachvollziehbarkeit © 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Typologie

Dokumentarische Methode

254

5. Forschungsverfahren

z. B. die Frage, inwiefern hier tatsächlich die Binnensicht der Proband/innen Gegenstand der Analyse ist. Allerdings ist zu berücksichtigen, dass grundsätzlich jegliche Verarbeitung von Primärdaten (so z. B. auch die Zusammenfassung in der qualitativen Inhaltsanalyse) immer zugleich eine Interpretation darstellt. Selbst der Transkriptionsprozess – also ein Verfahren der Datenaufbereitung – ist ein interpretativer Prozess, da er notwendigerweise selektiv ist, und jede Selektion eine gewisse Deutung beinhaltet bzw. voraussetzt. D.h. der hier formulierte methodisch-methodologische Einwand betrifft auch andere qualitative Analyseverfahren, ist also nicht spezifisch für die DM. Dennoch gilt es, sich dessen bei der Entscheidung für diese Methode bewusst zu sein und reflektiert damit umzugehen. Eine weitere mögliche Kritik bezieht sich auf die von der DM explizit angestrebte Typenbildung, die zwar in vielen Fällen ein gewünschtes Ziel empirischer Forschung (quantitativen und qualitativen Zuschnitts) sein kann, sich jedoch nicht für alle Gegenstände oder Erkenntnisinteressen als gleichermaßen wichtig oder sinnvoll erweist. So kann es insbesondere im Falle von noch wenig erforschten Fragestellungen vollkommen ausreichend sein, sich zunächst einmal auf die Deskription zu beschränken. Auch kann bei der qualitativen Untersuchung eines komplexen Einzelfalls die Aufdeckung von Mustern oder die Bildung von Typen ggf. überhaupt nicht erstrebenswert oder zielführend sein. Es ist also vom jeweiligen Erkenntnisinteresse abhängig, ob auf eine Typenbildung abgezielt wird oder nicht – die Methode sollte darüber nicht entscheiden. 4 Fazit

Zusammenfassend ist festzustellen, dass mittels der dargestellten qualitativen Ansätze hochrelevante lehr-lernbezogene Einsichten in die Wahrnehmungen, Erfahrungen und Interpretationen der ‚betroffenen‘ Akteure – also Lehrende, Studierende, Lernende – gewonnen werden können. So belegt die von Schart (2003) vorgenommene detaillierte Rekonstruktion subjektiver Wahrnehmungen von DaF-Lehrenden in Bezug auf die Sozialform Projektunterricht, wie wichtig reflexive und erfahrungsorientierte Modelle in der Aus- und Fortbildung von Lehrenden sind. Ähnliches gilt für die Interviewstudie von Ehrenreich (2004), die anschaulich zeigt, dass ausbildungsbezogene Auslandaufenthalte spezifische Lerngelegenheiten sind, die nicht nur vorbereitet und strukturiert, sondern auch reflektiert werden müssen, wenn sie denn ihren Zweck erreichen sollen. Rekonstruktive, die emische Perspektive einnehmende Verfahren ermöglichen also Einblicke in konzeptbildende und handlungsleitende Prozesse, deren Potential bisher nur in Ansätzen in der fremdsprachendidaktischen Forschung genutzt wurde. Abschließend würde ich Bonnet (2012: 286) zustimmen, wenn er feststellt, dass „qualitativ-rekonstruktive Ansätze […] einen unverzichtbaren Beitrag zur Theoriebildung in der Fremdsprachenforschung leisten“. Ob es – wie er weiter annimmt – jedoch zutrifft, dass sie mit quantitativ-hypothesenprüfenden Verfahren integriert werden können, um die Nachteile beider Ansätze zu überwinden, muss sich in der Forschungspraxis erst noch zeigen. ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert.

5.3.3 Grounded Theory und Dokumentarische Methode

255

Bergmann, Jörg R. (1988). Ethnomethodologie und Konversationsanalyse. Kurseinheit 1. Hagen: Fernuniversität Hagen. Bohnsack, Ralf (1991). Rekonstruktive Sozialforschung. Einführung in Methodologie und Praxis qualitativer Sozialforschung. Opladen: Leske + Budrich. Bonnet, Andreas (2009). Die Dokumentarische Methode in der Unterrichtsforschung. Ein integratives Forschungsinstrument für Strukturrekonstruktion und Kompetenzanalyse. n: Zeitschrift für Qualitative Forschung 10(2), 219 – 240 Charmaz, Kathy (2000). Grounded theory: Objectivist and constructivist methods. In: Denzin, Norman K./Lincoln, Yvonna S. (Hg.), Handbook of qualitative research (2. Aufl.). Thousand Oaks: Sage, 509 – 535. Clarke, Adele E. (2005). Situational analysis: Grounded theory after the postmodern turn. Thousand Oaks, CA: Sage. Dey, Ian (1999). Grounding Grounded Theory: Guidelines for Qualitative Inquiry. London: Academic Press. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung. Eine qualitative Interviewstudie zum ausbildungsbiographischen Ertrag des assistant-Jahres. München: Langenscheidt. [Referenzarbeit, s. Kapitel 7] Glaser, Barney/Strauss, Anselm (1967). The discovery of grounded theory. Strategies qualitative research. Chicago: Aldine. Mannheim, Karl (1922). Die Strukturanalyse der Erkenntnistheorie. Berlin: Reuter & Reichard. Mayring, Philip (2010). Qualitative Inhaltsanalyse. Grundlagen und Techniken. 11., aktualisierte und überarbeitete Auflage. Weinheim und Basel: Beltz. Merton, Robert K. (1949). Social Theory and Social Structure. New York: Simons & Schuster. Mey, Günter/Mruck, Katja (2011). Grounded-Theory-Methodologie: Entwicklung, Stand, Perspektiven. In: Mey, Günter/Mruck, Katja (2011), 11 – 48. Mey, Günter/Mruck, Katja (Hg.) (2011). Grounded Theory Reader. Wiesbaden: VS Verlag für Sozialwissenschaften. Muckel, Petra (2011). Die Entwicklung von Kategorien mit der Methode der Grounded Theory. In: Mey, Günter/Mruck, Katja (Hg.), 333 – 352. Oevermann, Ulrich/Allert, Tilman/Konau, Elisabeth/Krambeck, Jürgen (1979). Die Methodologie einer „objektiven Hermeneutik“ und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In: Soeffner, Hans-Georg (Hg.), Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart: Metzler, 352 – 434. *Schädlich, Birgit (2009). Literatur Lesen Lernen. Literaturwissenschaftliche Seminare aus der Perspektive von Lehrenden und Studierenden. Eine qualitativ-empirische Studie. Tübingen: Narr. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider. [Referenzarbeit, s. Kapitel 7] Schütze, Fritz (1983). Biographieforschung und narratives Interview. In: Neue Praxis 13(3), 283 – 293. Strauss, Anselm (1987). Qualitative analysis for social scientists. Cambridge, UK: Cambridge University Press. Strauss, Anselm/Corbin, Juliet (1990). Basics of Qualitative Research. Newbury Park; London: Sage. Strübing, Jörg (2011). Zwei Varianten von Grounded Theory? Zu den methodologischen und methodischen Differenzen zwischen Barney Glaser und Anselm Strauss. In: Mey, Günter/Mruck, Katja (Hg.), 262 – 277. *Tesch, Bernd (2010). Kompetenzorientierte Lernaufgaben im Fremdsprachenunterricht. Konzeptionelle Grundlagen und eine rekonstruktive Fallstudie zur Unterrichtspraxis (Französisch). Frankfurt/Main: Lang.

256

5. Forschungsverfahren

»»  Zur Vertiefung empfohlen Bonnet, Andreas (2012). Von der Rekonstruktion zur Integration: Wissenssoziologie und dokumentarische Methode in der Fremdsprachenforschung. Grundlagenbeitrag. In: Doff, Sabine (Hg.). Fremdsprachenunterricht empirisch erforschen. Grundlagen  – Methoden  – Anwendung. Tübingen: Narr, 286 – 305. In seinem Grundlagenbeitrag skizziert Bonnet das Anliegen, die zentralen Begriffe sowie die methodische Vorgehensweise der DM und ihre besondere Eignung für fremdsprachendidaktische Forschungen, in deren Mittelpunkt die Untersuchung unterrichts- und kompetenzrelevanter Phänomene steht. Mey, Günter/Mruck, Katja (Hg.) (2011). Grounded Theory Reader. Wiesbaden: VS Verlag für Sozialwissenschaften. In diesem Sammelband haben die beiden Herausgeber eine Reihe einschlägiger Aufsätze zusammengestellt, die den aktuellen Diskussionsstand zur GTM widerspiegeln. Dabei handelt es sich z. T. um Übersetzungen aus dem Englischen, z. T. um überarbeitete und aktualisierte Fassungen früherer Publikationen. Nohl, Arnd-Michael (2012). Interview und dokumentarische Methode. Anleitungen für die Forschungspraxis. 4., überarbeitete Auflage. Wiesbaden: Verlag für Sozialwissenschaften. In dieser Handreichung wird anschaulich dargestellt, wie mittels der Dokumentarischen Methode Interviews ausgewertet werden können, wobei besonderes Augenmerk auf die Anwendung der formulierenden und reflektierenden Interpretation gelegt wird. Truschkat, Inga/Kaiser, Manuela/Reinartz, Vera (2005). Forschen nach Rezept? Anregungen zum praktischen Umgang mit der Grounded Theory in Qualifikationsarbeiten. Forum Qualitative Sozialforschung 6 (2) Art. 22, Mai 2005. Die Autorinnen richten sich in ihrem praxisbezogenen Beitrag insbesondere an wenig erfahrene Forscher/innen, denen sie eine Reihe von wertvollen Hinweisen und Ratschlägen rund um den Sampling-Prozess liefern. Dabei illustrieren sie gut nachvollziehbar alle zentralen Begrifflichkeiten der GTM.

5.3.4 Inhaltsanalyse Eva Burwitz-Melzer/Ivo Steininger

Bei der Inhaltsanalyse handelt es sich um ein kodifiziertes und kodifizierendes Forschungsverfahren, das kommunikative Texte im weitesten Sinne systematisch untersucht und auswertet. Inhaltsanalysen können als quantitatives wie auch als qualitatives Verfahren eingesetzt werden. Wie bei kaum einer anderen Forschungsmethode lässt sich die allmähliche Ablösung des quantitativen Verfahrens durch das qualitative ab der Mitte des 20. Jahrhunderts in der Forschungsliteratur vornehmlich der USA und Deutschlands gut verfolgen. Heute wird vor allem die qualitative Inhaltsanalyse sehr häufig und in ganz unterschiedlichen Kontexten eingesetzt, aber es gibt zunehmend auch Arbeiten, die beide Analyseverfahren miteinander kombinieren. Für die Fremdsprachenforschung stellt vor allem die qualitative Inhaltsanalyse eine gewinnbringendes Forschungsmethode dar, wenn Kommunikationsmaterial

5.3.4 Inhaltsanalyse

257

(Texte, Hypertexte, Videosequenzen, bildliches oder musikalisches Material) theorie- und/ oder datengeleitet untersucht und ausgewertet werden soll. Im Folgenden werden beide Verfahren erklärt und in den Kontext der Fremdsprachenforschung gestellt. Zu zwei zentralen Methoden der qualitativen Inhaltsanalyse werden Beispiele aus aktuellen Studien der Fremdsprachenforschung vorgestellt. 1 Grundlagen der Inhaltsanalyse Grundlagen der quantitativen Inhaltsanalyse

Die Anfänge der Inhaltsanalyse sind in den Kommunikationswissenschaften auf den Beginn des 20. Jahrhunderts in den Kommunikationswissenschaften zu datieren (vgl. Mayring 2002: 114, Kuckartz 2012: 27 – 8). Vorrangig in den USA der 1920er Jahre entwickelt, zielte die quantitative Inhaltsanalyse auf die Untersuchung großer Datenmengen in Massenmedien (vgl. Krippendorff 2004). Die Erfindung des Radios und die Kriegsberichterstattung in den 1940er Jahren brachten inhaltsanalytische Studien hervor, die die politischen Aspekte dieser Forschungsmethode in den Mittelpunkt der Aufmerksamkeit rückten. Die Begrifflichkeit der Inhaltsanalyse entwickelte sich zusammen mit der zunehmenden Forschungstätigkeit: Begriffe wie content analysis, sampling unit, category oder inter-coder-reliability stammen aus dieser regen Publikationszeit (vgl. Kuckartz 2012: 28). Im Fokus des Interesses der damaligen Publikationen war die quantitative Auswertung27 sprachlichen Materials (vgl. Mayring 2000: 469):

• Häufigkeitsanalysen (bestimmte Textelemente werden gezählt). • Indikatorenanalysen (bestimmte Textelemente werden als Indikatoren für übergeordnete Konzepte ausgewertet).

• Valenz- und Intensitätsanalysen (im Vorfeld entwickelte Skalen werden genutzt, um Texte entsprechend einzuordnen).

• Kontingenzanalysen (kontextuelle Zusammenhänge von Textelementen werden untersucht). In den folgenden Jahrzehnten wuchs das Interesse an der quantifizierenden Inhaltsanalyse, die sich zunehmend auch statistischer Verfahren bediente, um sozial- und kommunikationswissenschaftliche Aspekte in unterschiedlichen Medien zu untersuchen. Dabei wurde ganz bewusst und programmatisch auf die Erforschung von Phänomenen an der Oberfläche der Texte gezielt, da dies als objektives Forschungsverfahren galt. Kuckartz zitiert hierzu Berelson: „Content analysis is a research technique for the objective, systematic and quantitative description of the manifest content of communication“ (Berelson 1952: 18 in Kuckartz 2012: 28). Allerdings beschwor diese sehr einseitige Ausrichtung der Forschungsmethode auch Kritik herauf: Kritisiert wurde an den rein quantitativen Analyseschritten, dass implizite und subtile Aspekte unterhalb der Textoberfläche und Aspekte der Interpretation zu kurz kämen, so dass beispielsweise der Kontext, Sinnstrukturen, besondere Einzelfälle oder aber Elemente, 27 Für einen Überblick zu Vorgehensweisen der quantitativen Auswertung der Inhaltsanalyse (auch als empirische Inhaltsanalyse bezeichnet) siehe Kromrey (2009: 300 – 325).

258

5. Forschungsverfahren

die an der Textoberfläche nicht auf den ersten Blick wahrnehmbar sind, übersehen würden (vgl. Mayring 2002: 114 und Kuckartz 2012: 35). Viele Forscher konzipierten deshalb die qualitative Inhaltsanalyse als eine Art „Erweiterung“ oder „Präzisierung“ (Kuckartz 2012: 35) des Verfahrens. Wenn Dörnyei die Unterschiede zwischen quantitativer und qualitativer Inhaltsanalyse herausarbeitet, beschreibt er genau diese zusätzliche Dimension: Another way for distinguishing quantitative and qualitative content analysis is by referring to the former as ‚manifest level analysis‘, because it is an objective and descriptive account of the surface meaning of the data, and the latter as ‚latent level analysis‘, because it concerns a second level, interpretive analysis of the underlying deeper meaning of the data. (Dörnyei 2007: 245 – 6) Grundlagen der qualitativen Inhaltsanalyse

An den Problemen der quantitativen Inhaltsanalyse setzt die qualitative Inhaltsanalyse an. Sie will sich nicht auf die oberflächlichen manifesten Textinhalte bei der Analyse beschränken, sondern bezieht auch Elemente der Interpretation mit ein (vgl. Kuckartz 2012: 28). Charakteristisch für die qualitative Inhaltsanalyse sind die Bildung von Kategorien, auf die in der Analyse fokussiert wird, sowie eine Kategorisierung des gesamten Datenmaterials. Dabei ist der „Zuordnungsprozess von Kategorien und Textstellen als Interpretationsakt“ zu verstehen, den man „durch inhaltsanalytische Regeln kontrollieren möchte“ (Mayring 2008: 10). Die konsequente und systematische Nutzung des jeweils aufgestellten Kategoriensystems stellt dabei ein Unterscheidungskriterium von freieren Formen der Textinterpretation (z. B. hermeneutischen Verfahren, s. Kapitel 5.3.2) dar. Für die heutige qualitative Inhaltsanalyse sind auch Faktoren wie die Anerkennung von Gütekriterien, wie z. B. die inter-coder-reliability von zentraler Bedeutung, falls in einem Forschungsprojekt mehrere Kodierende das Datenmaterial analysieren (vgl. Kuckartz 2012: 39). Ihrem Ursprung in den Kommunikationswissenschaften gemäß versteht die qualitative Inhaltsanalyse einen Text stets als eingebettet in ein Kommunikationsmodell. Nicht der Text für sich allein genommen ist dabei von Interesse, sondern vielmehr die aus dem Text heraus geschlossenen Zusammenhänge zur kommunikativen Absicht, in der Fragen nach dem Verhältnis zwischen Sender und Empfänger, Medium, Textmerkmale und Gestaltung, Wirkungsabsicht sowie Wirkung auf die Adressaten relevant sind (vgl. Mayring/Brunner 2010: 325). Dass es dabei oft auch um das Aufdecken versteckter Botschaften und nicht offen geäußerter Mitteilungen gehen kann, versteht sich von selbst. Gerade deshalb ist die qualitative Inhaltsanalyse für komplexe Untersuchungsfelder interessant, da mit ihrer Hilfe vielschichtige Datensammlungen wie z. B. Lehrer-/Lernertexte (bzw. unterrichtliche Produkte im weiteren Sinne, s. Kapitel 5.2.7) oder Transkriptionen von Audio- bzw. Videomaterial von Unterricht oder Interviewsequenzen sehr gut analysiert werden können. Forschungen im Bereich der Fremdsprachendidaktik verwenden häufig eine qualitative Inhaltsanalyse, da das Suchen nach Themen in schriftlichen oder mündlichen Lehrer- oder Schüleräußerungen oder in Interviews über Unterricht, sowie das Auffinden von Mustern, das Kategorisieren und Interpretieren dieser Funde helfen, viele Forschungsfragen zum Fremdsprachenunterricht gegenstandsangemessen zu analysieren und zu beantworten. Grundsätzlich lassen sich zwei Grundformen der qualitativen Inhaltsanalyse unterscheiden, die deduktive und die induktive Analyse (vgl. Mayring 2008 und Kuckartz 2012: 59 – 63),

5.3.4 Inhaltsanalyse

259

wobei die Differenzierung über den Zeitpunkt der Kategorienbildung und die Anbindung an die theoretischen Grundlagen bzw. die empirischen Daten erfolgt: Im deduktiv orientierten Ansatz wird das Datenmaterial entlang vorab systematisierter Kategorien geordnet und strukturiert, so dass theoretische Vorannahmen und Erklärungsmodelle an das Material herangetragen werden können. Im induktiv orientierten Ansatz dient erst das Datenmaterial selbst dazu, Kategorien zu bilden, die Struktur eines Erklärungsmodells aus den systematisierten Zusammenhängen abzuleiten und mit der Theorie vereinbar zu machen. Gerade der zweite Ansatz zeigt eine Nähe zu den Kodiervorgängen der Grounded Theory (siehe Kapitel 5.3.3), die ebenfalls darauf zielen, Erklärungsmodelle datengeleitet und datenbasiert zu generieren (vgl. Kuckartz 2012: 66 – 8). In zahlreichen Veröffentlichungen der letzten zehn Jahre finden sich deshalb Erläuterungen zur Kategorienbildung der qualitativen Inhaltsanalyse in Zusammenhang mit den Kodiervorgängen der Grounded Theory (vgl. Dörnyei 2007, Friedman 2012, Kuckartz 2012)28. Für den Kontext der fremdsprachendidaktischen Forschung sind – je nach Forschungsgegenstand – beide Vorgehensweisen denkbar und erfolgversprechend. Kuckartz verweist auch auf mögliche Mischformen der deduktiv-induktiven Kategorienbildung, die zunächst theoriegeleitet vorgehen, dann jedoch die Vorab-Kategorien am empirischen Material modifizieren und ergänzen (vgl. Kuckartz 2012: 69). 2 Vorgehensweisen der qualitativen Inhaltsanalyse Vor der Datenanalyse

Bevor wir auf das Analyseverfahren zu sprechen kommen, sind noch einige Bemerkungen zu Datensammlung und Transkription wichtig: Analyseverfahren der qualitativen Inhaltsanalyse sind an kein bestimmtes Verfahren der Datensammlung gebunden (vgl. Kuckartz 2012: 76), denn hier gelten die Grundregeln des gegenstandsangemessenen und für die Beobachteten transparenten Verfahrens der Sammlung. Alle Methoden der qualitativen Inhaltsanalyse arbeiten sprachbezogen, d. h. sie sind für unterschiedliche verbale Daten nutzbar, Unterrichtsdiskurse und Schülermaterialien können ebenso erfolgreich mit ihnen analysiert werden wie Filme, fiktionale Texte oder andere Kulturprodukte (vgl. Kuckartz 2012: 76). Die Aufbereitung der Daten folgt auf die Datensammlung im Forschungsfeld. Das verwendete Transkriptionssystem sollte auf die Forschungsfragen und das Erkenntnisinteresse abgestimmt sein. Gerade bei der Transkription von Videosequenzen können sensible Daten wie nonverbale Aspekte der Interaktion und Kommunikation nur durch ein entsprechend ausgerichtetes Transkriptionssystem in textuelle Elemente überführt werden (vgl. Kowal/ O’Connell 2000). Die qualitative Inhaltsanalyse

Im deutschsprachigen Raum hat sich die qualitative Inhaltsanalyse in der Sozialwissenschaft zu einem kodifizierten Forschungsstil entwickelt, als dessen prominenteste Vertreter Philipp Mayring (1983, 2000, 2002, 2008) und Udo Kuckartz (1999, 2012) zu nennen sind. Viele Forscherinnen und Forscher aus dem Bereich der Fremdsprachenforschung haben sich dieses 28 Eine Studie aus der Fremdsprachenforschung, die nach einem solchen Mischverfahren vorgeht und als Beispiel noch vorgestellt werden wird, stammt von Ehrenreich (2004).

260

5. Forschungsverfahren

Paradigma in einer seiner Varianten in den letzten zehn Jahren zu eigen gemacht, um ihre Unterrichts- oder Interviewdaten zu analysieren (vgl. Burwitz-Melzer 2003, Schart 2003, Ehrenreich 2004, Hochstetter 2011). Auch im internationalen, insbesondere im englischsprachigen Forschungsraum wird die qualitative Inhaltsanalyse im Kontext von second language classroom research häufig in verschiedenen Varianten angewandt (vgl. hierzu Dörnyei 2007, Nunan/Bailey 2009, Mackey/Gass 2012). Gemeinsam sind diesen fremdsprachendidaktischen Forschungsarbeiten in der Regel komplexe Fragestellungen, die sich auf einen komplexen unterrichtlichen Gegenstand beziehen und eine mehrstufige Datensammlung erfordern, die sehr unterschiedliche Datensätze wie Unterrichtsmaterialien, Lehrwerke, Videomitschnitte von Unterricht, Einzel- oder Gruppeninterviews etc. umfassen können. Hier kann die qualitative Inhaltsanalyse gegenstandsangemessen in der induktiven, der deduktiven Form oder in einer Mischform aus beidem helfen, einzelne Datensätze zu strukturieren und zu analysieren. Dabei steht nicht immer ein ‚Aufräumen‘ im Mittelpunkt des Forscherinteresses, sondern es geht vor allem darum, die im Datenmaterial enthaltenen Übereinstimmungen, Widersprüche, unterschiedlichen Perspektivierungen und Gewichtungen klar herauszuarbeiten. Deduktive Kategorienbildung

Ob eine theoriegeleitete, also deduktive qualitative Inhaltsanalyse durchgeführt wird, hängt in hohem Maße davon ab, wie gut das Forschungsgebiet bereits erschlossen ist. Ist der Gegenstandsbereich bereits gut vorstrukturiert, kann dies bei der Formulierung von Hypothesen helfen. Stehen Hypothesen fest, können Forschungsfragen und eine Vorabbildung von Kategorien noch vor der ersten Lektüre der Daten erfolgen, weil bereits feste theoretische Bezugspunkte vorliegen (vgl. Kuckartz 2012: 59 – 60). Kuckartz verweist auf das besondere Problem der Abgrenzung der Kategorien, die vorab gebildet werden; ihre Trennschärfe und Differenziertheit sorgen für die Reliabilität der Studie. Es empfiehlt sich deshalb gerade bei theoriegeleiteter Kategorienbildung die Reliabilität, also die Belastbarkeit und Trennschärfe der Kategorien, durch eine Übereinstimmung zwischen den Kodierenden zu überprüfen, falls in einer Gruppe geforscht wird. Forscher und Forscherinnen, die allein arbeiten, sollten an dieser Stelle entweder Kollegen und Kolleginnen zu Rate ziehen oder besonders sorgfältig vorgehen und mehrere Korrekturschleifen einplanen, um die Qualität zu sichern (vgl. Kuckartz 2012: 59 – 60). Stellt sich im Laufe der Datenlektüre und -analyse heraus, dass die Trennschärfe und Genauigkeit der Kategorien nicht in ausreichender Form gegeben ist, kann man durch eine Bildung neuer induktiv gewonnener Kategorien gegensteuern und die vorab gebildeten Kategorien sinnvoll ergänzen. Schrittfolgen der deduktiven Inhaltsanalyse

1. 2. 3. 4. 5. 6. 7.

Fragestellung formulieren und Material festlegen; Hypothesen formulieren; Kategorien theoriegeleitet strukturieren; Regeln für die Zuordnung/die Codierung formulieren; Material schrittweise durchgehen; Phänomene entlang der Kategorien überprüfen; Zwischendurch überprüfen, ob die Kategorien trennscharf und ausreichend sind;

5.3.4 Inhaltsanalyse

261

8. Ist dies der Fall, das Material vollständig codieren; 9. Ist dies nicht der Fall, neue induktive Kategorien formulieren; 10. Interpretation der Ergebnisse hinsichtlich Fragestellung und theoretischer Erkenntnis. (vgl. hierzu auch Mayring 2000 und Kuckartz 2012) Abbildung 1: Schrittfolgen der deduktiven Inhaltsanalyse

Induktiv ausgerichtete Kategorienbildung

Die Bildung von Kategorien am gesammelten Datenmaterial kann als vorrangiges Unterscheidungskriterium der induktiven Inhaltsanalyse gesehen werden. Man folgt dabei dem „Grundgedanken, dass die Verfahrensweisen der zusammenfassenden Inhaltsanalyse genutzt werden, um schrittweise Kategorien aus einem Material zu entwickeln“ (Mayring 2000: 472). Es wird zunächst das Ziel der Kategorienbildung auf der Basis der Forschungsfragen definiert. Wenn klar ist, was mit der Kategorienbildung erreicht werden soll, müssen der Grad der Differenziertheit und der Abstraktion der zu bildenden Kategorien festgelegt werden. Dies ist das Grundgerüst, das bereits vor der induktiven Kategorienbildung feststehen sollte. Dann wird mit der ersten Textstelle, die herangezogen werden soll, mit der Kategorienbildung begonnen, indem Zeile für Zeile direkt am Text ein Phänomen benannt wird, das mit Stift oder auch elektronisch markiert wird (vgl. Kuckartz 2012: 63). Dabei kann es sich bei der Markierung um einen bestimmten Begriff, einen kurzen Satz, ein Argument etc. handeln. So wird nach und nach das gesamte Material gesichtet und strukturiert. Fällt dasselbe Phänomen wieder auf, bekommt es dieselbe Kodemarkierung; handelt es sich um ein neues Phänomen, wird eine neue Kategorie eingeführt. Nachdem etwa 10 bis zu maximal 50 % des Datenmaterials untersucht wurde, gilt es, das Kategoriensystem zu überprüfen. Dabei kommt es

Abbildung 2: Phasenmodell der induktiven Inhaltsanalyse, aus Mayring (2000: 472).

262

5. Forschungsverfahren

darauf an, Kategorien hinsichtlich ihrer logischen Beziehung untereinander sowie hinsichtlich einer etwaigen Überschneidung und Dopplung zu kontrollieren (vgl. Kuckartz 2012: 63). Im Falle einer daraus resultierenden Veränderung des Kategoriensystems ergibt sich ein erneuter Durchgang des Anfangsmaterials. Ansonsten folgt der am Kategoriensystem ausgerichtete kodierende Durchgang des Gesamtmaterials.29 3 Zwei Beispiele für qualitative Inhaltsanalysen

Im Folgenden wird die Vorgehensweise der qualitativen Inhaltsanalyse an zwei Beispielarbeiten dargestellt, die für die Forschung im Bereich der Fremdsprachendidaktik als gegenstandsangemessen bezeichnet werden können. Es versteht sich von selbst, dass dies keine erschöpfende Darstellungen sein können, denn es gibt zum einen mehr Varianten (vgl. Mayring 2008, Kuckartz 2012), zum anderen wandeln Forscherinnen und Forscher in explorativen Studien die Varianten häufig gegenstandsangemessen und begründet ab. Um eine solche Form handelt es sich im ersten Beispiel, in dem die qualitative Inhaltsanalyse in Verbindung mit Grundzügen der Grounded Theory als Mischverfahren genutzt wird. Bei der ersten Varianten handelt es sich um die inhaltlich strukturierende Inhaltsanalyse, die sich auch in der Forschungsliteratur als ein zentrales Verfahren finden lässt (vgl. Mayring 2008, Kuckartz 2012, Schart 2003). Die beiden in diesem Kapitel vorgestellten Arbeitsbeispiele werden jeweils nur grob umrissen und in Hinsicht auf einen Forschungsaspekt bzw. ein Analyseverfahren untersucht, wobei die erste Studie dafür genutzt wird, die im vorangegangenen Abschnitt vorgestellten Phasen der qualitativen Inhaltsanalyse zu konkretisieren. Bei beiden Studien handelt es sich um sehr komplexe Arbeiten mit mehreren Forschungsfragen, die nach dem Prinzip der mixed methods bzw. qualitativ vorgehen. Sie können hier nur mit dem Fokus auf die jeweils gewählte qualitative Inhaltsanalyse dargestellt werden. Kategorisierendes und sequentiell vorgehendes Mischverfahren

Susanne Ehrenreich (2004) untersucht in ihrer Studie Auslandsaufenthalt und Fremdsprachenlehrerbildung den Ertrag des Fremdsprachenassistenten-Jahres für Fremdsprachenlehrende (vgl. ebd.: 19). Als Datensätze wurden dafür teilstrukturierte Leitfadeninterviews und Kurzfragebögen generiert (vgl. ebd.: 149 – 156). Die Untersuchungsgruppe setzt sich aus zweiundzwanzig Assistenten zusammen, die durch die Kurzfragebögen vorinformiert und ausgewählt wurden (vgl. ebd.: 159 – 162). Entsprechend des kategorisierenden Ansatzes wurden die Daten unter dem Aspekt der „fallübergreifenden Theoriebildung ausgewertet“ (ebd.: 170). Mit dem sequentiell orientierten Paradigma sollte innerhalb der Studie allerdings auch der „Rekonstruktion der Struktur des Einzelfalles“ zugearbeitet werden (ebd.). Im Auswertungsdesign, dem eine computergestützte Analyse der qualitativen Daten zu29 Sowohl für die deduktive als auch die induktive Inhaltsanalyse gilt, dass im Anschluss an die Kodierung des Gesamtmaterials quantitative Analysen durchgeführt werden können. Eine Quantifizierung qualitativer Daten (vgl. Dörnyei 2007: 269 – 70) wird durch die Nutzung sogenannter QDA (Qualitative Datenanalyse Software) ermöglicht, mit der Daten, Kategoriensysteme und Kodiervorgänge zu verwalten sind. Anhand der Datenbank können numerische Werte genutzt werden, um damit in Form von Häufigkeitsverteilungen, Korrelationen und Antikorrelationen statistisch zu arbeiten (vgl. ebd.). Für einen Überblick zum computergestützten Arbeiten mit qualitativen Daten siehe Kuckartz (1999, 2012: 132 – 164).

5.3.4 Inhaltsanalyse

263

Abbildung 3: Beispielausschnitt des Kategoriensystems aus Ehrenreich (2004: 176)

grunde liegt, wurden insgesamt fünf Teilschritte verfolgt (vgl. ebd.: 173): Auf eine (a) materialbezogene (induktive) Kategorienbildung erfolgte die (b) „Konstruktion und Erprobung des Kategoriensystems“ (ebd.), daran schlossen sich (c) Einzelfallanalysen, (d) „synoptische Themenanalyse“ (ebd.) und (d) kategorisierende Analysen mit dem Ziel der Theoriebildung an. Die Abbildung zeigt einen Ausschnitt aus dem Kategoriensystem der Studie, das mit der Software MAXQDA angelegt und verwaltet wurde. Das Programm bietet die Möglichkeit, die Zuweisungen von Kodes und Textpassagen in einer Datenbank zu archivieren und stellt damit auch Ansatzpunkte für quantitative Analysen, wie bspw. Häufigkeitsverteilungen und Korrelationen, bereit. Kategorien, wie sie hier zu sehen sind, wurden im ersten Schritt aus der Sichtung des Materials und in Bezug auf die theoretischen Grundlagen des Forschungsbereichs gebildet (siehe hierzu das Phasenmodell in Abb. 1). Im zweiten Schritt wurde das angelegte Kategoriensystem auf alle Datensätze bezogen, wobei sich die entwickelte Hierarchie bestätigte und lediglich „eine zusätzliche Hauptkategorie […] aus methodologischen Erwägung“ hinzugefügt wurde (ebd.: 175). Für die letzten Schritte dienten Kategorien dann dazu, die Einzelfälle auf das Erkenntnisinteresse zu beziehen und kontextuelle Zusammenhänge herauszuarbeiten, sowie die Perspektive auf Gemeinsamkeiten zu stärken, indem auf fallübergreifende Theorieelemente fokussiert wurde. Analysiert wurden diese, indem mittels des sogenannten text retrieval des Programms „Kombinationen von Kategorien bzw. die entsprechenden Textsegmente […] sowohl textimmanent als auch textübergreifend“ miteinander verglichen wurden (ebd.: 178). Mit diesen Schritten zeigt die Vorgehensweise der Studie starke Anlehnung an die Kodiervorgänge der Grounded Theory. Kodiervorgänge, die computergestützt mit MAXQDA vorgenommen werden, sind zunächst Zuweisungen bzw. Ordnungsprozesse. Im Programm wird eine Struktur von Kodes, die Kategorien repräsentieren, angelegt (siehe Abb. 2). Innerhalb dieser Struktur findet sich ein System von Kategorien und Sub-Kategorien (Subsumtion von Kategorien, siehe Abb. 1), ein sogenannter Kodebaum. In Abbildung 3 setzt sich dieser zum Beispiel aus der Kategorie Kulturvergleich mit den dazugehörigen Subkategorien Gemeinsamkeiten/ kult. Unterschiede zusammen, die wiederum differenziert werden in Themen/Konzepte und subj. Interpretation. Genutzt wird dieses Kategoriensystem, um die textuellen Daten zu kodieren. In einem weiteren Fenster des Programms findet sich bspw. der Interviewtext, der mittels der Kategorien kodiert werden kann (siehe Abb. 3). Im Programm werden zumeist Paragraphen mit Kodierungen versehen. Diese stellen dann sogenannte Kodings dar und können auch mehrere Para-

264

5. Forschungsverfahren

graphen verbinden. Konkret bedeutet dies, dass im Datenmaterial (hier der Interviewtext) ein Phänomen erkannt werden muss, dass auf eine der etablierten Kategorien bezogen werden kann. Das Phänomen in den Daten wird als kategorial relevant erkannt und ihm wird eine entsprechende Kodierung zugewiesen. Diese Zuweisung stellt einen Akt der Interpretation dar, denn der der Forschende entscheidet, welcher Kategorie das entsprechende Phänomen zugeordnet werden soll. Die Regeln, an die sich diese Zuordnung zu halten hat, werden in sogenannten Kodiermemos festgehalten. Dort wird definiert, unter welchen Umständen ein Phänomen einer Kategorie zugeordnet werden kann, sprich wann Daten zu Kodings einer Kategorie werden. Das Programm fungiert dabei lediglich als Datenbank, die es ermöglicht, Kodes (im Sinne von Kategorien und Subkategorien) entsprechenden Kodings zuzuweisen und diese auch über verschiedene Datensätze hinweg aufzurufen (text retrieval).

Abbildung 4: Beispielausschnitt einer Kodierung eines Interviewtextes (Ehrenreich 2004: 177)

Kodieren bedeutet, das Datenmaterial nach themengleichen Passagen zu durchsuchen. Phänomene, die in diesen Passagen enthalten sind, stellen Repräsentationen der Kategorien im Datenmaterial dar.30 Wie diese Kategorien im System zu strukturieren sind, wird dabei durch den Gegenstand bzw. die Fragestellung vorgegeben, dienen sie doch dazu, Muster auf dem beforschten Feld interpretativ zu (re)konstruieren. Kodings können dabei im Grad der Abstraktion variieren: kodierte Phänomene können explizit auf eine Kategorie verweisen, indem das Enthaltene eine Repräsentationsform der Kategorie darstellt, oder in ihnen ist implizit etwas enthalten, das auf einer entsprechend höheren Abstraktionsstufe auf die Kategorie verweist. Bei der Präsentation der Forschungsergebnisse sind diese Kodiervorgänge so nachzuzeichnen, dass sie intersubjektiv nachvollziehbar sind. Kodings müssen daher stets in den Kontext der zugehörigen Kategorien und Kodierregeln eingeordnet werden und der Forschende legt die zugrundeliegenden Interpretationsstufen dar. Schwerpunktsetzungen innerhalb des Kategoriensystems ergeben sich sowohl aus der theoretischen Relevanz der entsprechenden Kategorie für das beforschte Feld als auch aus deren Auftreten im empirischen Material.

30 Für eine ausführliche Darstellung der Wandlung von in den Daten enthaltenen Phänomenen zu Kodes und zu Theorielementen innerhalb der Kodiervorgänge der Grounded Theory siehe Steininger (2014: 107 – 120).

5.3.4 Inhaltsanalyse

265

Die inhaltlich strukturierende Inhaltsanalyse

Die inhaltlich strukturierende Inhaltsanalyse ist aus heutiger Sicht die wohl häufigste Form der qualitativen Inhaltsanalyse in der deutschen empirischen Fremdsprachenforschung. Sie zielt auf eine Strukturierung und Reduktion der gesammelten Daten ab, die deduktiv oder induktiv oder in einer Mischform aus beiden Verfahren kategorisiert werden können. Häufig werden die Kategorien in einem mehrstufigen Verfahren erstellt, das zunächst grobe Hauptkategorien zum Beispiel nach den Themen eines Interviewleitfadens aufstellt, die dann in mehreren Arbeitsschritten am Datenmaterial verfeinert und ausdifferenziert werden (vgl. Kuckartz 2012: 77). So kann eine Themenmatrix erstellt werden, die als Grundlage für weitere Strukturierungen dient. Als Themen können Einzelaspekte einer Fragestellung dienen, aber auch methodische Aspekte, Aspekte einer Evaluation etc. Die letzte Kodierphase unterzieht dann das gesamte Datenmaterial dem endgültig ausdifferenzierten Kategoriensystem. Ist dieser Schritt abgeschlossen, kann eine Fallmatrix erstellt werden, die Aufschluss über Differenzen und Übereinstimmungen zwischen den einzelnen Fällen der qualitativen Untersuchung gibt. Zusammen mit der Themenmatrix stellt die Fallmatrix eine Profilmatrix aller Daten dar, ist also eine Komprimierung und Reduktion der Daten auf die im Sinne der Forschungsfrage relevanten Erkenntnisse (vgl. Kuckartz 2012: 77). Die Profilmatrix ist wichtig für die Erstellung einer abschließenden Betrachtung der Untersuchung; man kann sie themenorientiert lesen, also alle Fälle miteinander vergleichen, oder fallorientiert analysieren, also einen Fall unter Berücksichtigung der Bandbreite der Themen betrachten. Ein Beispiel aus der aktuellen empirischen Fremdsprachenforschung soll hier zur Erläuterung dienen: In ihrer Studie Diagnostische Kompetenzen im Englischunterricht der Grundschule untersucht Johanna Hochstetter das Beobachtungsverhalten von Lehrkräften im Englischunterricht mehrerer Grundschulen und befragt sie anschließend auch zu ihren Einstellungen zu den benutzten Beobachtungsbögen (vgl. Hochstetter 2011). Für die zweite Forschungsfrage zu den Einstellungen wählt die Forscherin eine leitfadengestützte teilstrukturierte Interviewform, die durch ihre Schwerpunktsetzung bereits eine gewisse thematische Vergleichbarkeit aller Interviews herstellt (vgl. Hochstetter 2011: 88). Hochstetter (ebda.) spricht die besondere Eignung dieses Analyseverfahrens an, „weil die Inhaltsanalyse eine Auswertung an deduktiv und induktiv gewonnenen Kategorien zulässt. […] So kann gezielt nach Äußerungen im Text gesucht werden, die sich auf Einstellungen beziehen, es können aber zusätzlich induktiv weitere Kategorien aus dem Datenmaterial gewonnen und systematisch in die Analyse einbezogen werden. Der Fokus der Analyse liegt auf den Themen, die die Lehrkräfte ansprechen und nicht auf dem Verlauf der Interviews […]“ (ebda.). Die Studie, in der deduktiv, induktiv und mit MAXQDA unterstützt Kategorien erstellt wer­ den, gibt mit der Analyse der Interviews einen guten thematischen Überblick über die offen angesprochenen und im Gespräch jeweils auch latent vorhandenen Einstellungen der Lehrkräfte, die sich auf die aktuell beobachteten Stunden, aber auch auf ganz allgemeine, nicht direkt erfragte Überzeugungen beziehen. So tritt z. B. zutage, dass die Tendenz zu externalen Kausalattributionen von Schülermeinungen bei den meisten Lehrkräften sehr stark ist, die Haltung zu formativer, pädagogischer Leistungsüberprüfung aber in vielen Fällen negativ vorherrscht, weil sie als problematisch für die Lernenden angesehen wird (vgl. Hochstetter 2011: 212 – 214). Erst im Vergleich der Lehrkräfte untereinander werden die einzelnen thema-

266

5. Forschungsverfahren

tischen Aspekte in ihrer Ausdifferenziertheit fassbar. Die Studie zeigt, wie eine Themenmatrix zu einem komplexen fremdsprachendidaktischen Kontext erarbeitet und auch nach Bedarf erweitert werden kann und wie die einzelnen Fälle vor diesem Hintergrund mit Unterschieden und Übereinstimmungen wahrgenommen werden. 4 Fazit

Die qualitative Inhaltsanalyse kann als eigenständiges Verfahren gelten, das mit seiner Kodifizierung eine Abfolge von Analyseschritten bereithält, die als Rahmen für Forschungsansätze in der Fremdsprachendidaktik angesehen werden können. Bereits vor der empirischen Wende in den Fremdsprachendidaktiken im letzten Drittel des 20. Jahrhunderts stellten Lehrwerkanalysen einen wichtigen Teil der Forschung dar. Diese waren den später entwickelten qualitativen Inhaltsanalysen ähnlich und folgten zumeist dem deduktiven Ansatz auf der Basis vorab definierter Kategorien (vgl. Heuer/Müller 1973 und 1975; einen Überblick zur Erforschung von „Völkerbildern“ in Sprachlehrwerken geben Grothuesmann/Sauer 1991). Die inhaltliche und analytische Auseinandersetzung mit Texten ist somit Grundlage für eine Vielzahl von qualitativen Forschungsdesigns in der Fremdsprachendidaktik. Daher sind Aspekte wie die Arbeit mit Textsegmenten, Kodes und dazugehörigen Kategorien, die von diesen illustriert werden, auch in Mischformen in vielen Studien präsent. Für die Fremdsprachendidaktik bedeutet eine kategorisierende Analyse von Texten das Herausarbeiten von Bedeutungsstrukturen auf komplexen Feldern. Unabhängig von der Fragestellung des Forschers oder der Forscherin müssen Kodierungen so dargestellt werden, dass sie intersubjektiv nachvollziehbar sind; dadurch vergrößert sich zunächst die (erklärende) Textmenge, erst im zweiten Schritt kann mittels Kategorien Komplexität reduziert werden. ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. *Burwitz-Melzer, Eva (2003). Allmähliche Annäherungen: Fiktionale Texte im interkulturellen Fremdsprachenunterricht der Sekundarstufe I. Tübingen: Narr. Dörnyei, Zoltàn (2007). Research Methods in Applied Linguistics. Oxford: Oxford UP. *Ehrenreich, Susanne (2004). Auslandsaufenthalt und Fremdsprachenlehrerbildung: Das „assistant“Jahr als ausbildungsbiographische Phase. Berlin: Langenscheidt. Friedman, Debra A. (2012). How to collect and analyse qualitative data. In: Mackey, Alison/ Gass, Susan M. (Hg.). Research Methods in Second Language Acquisition. A Practical Guide. West Sussex: Wiley-Blackwell, 180 – 200. Grothuesmann, Heinrich/Sauer, Helmut (1991). Völkerbilder in fremdsprachenunterrichtlichen Lehrwerken. Ein Literaturbericht. In: Zeitschrift für Fremdsprachenforschung 2, 66 – 92. Heuer, Helmut/Müller, Richard Matthias (Hg.) (1973). Lehrwerkkritik  – ein Neuansatz. Dortmund: Lensing. Heuer, Helmut/Müller, Richard Matthias (Hg.) (1975). Lehrwerkkritik 2 – Landeskunde, Illustrationen, Grammatik. Dortmund: Lensing.

267 5.3.4 Inhaltsanalyse

5.3.4 Inhaltsanalyse

qualitativ

kodifizierte und kodifizierende Untersuchung von Texten quantitativ

interpretative Analyse der Texttiefenstruktur durch Überführung sprachlicher Phänomene in Kodes mittels Abstraktion Kategorie X

Kode 1, Kode 2, Kode 3

Kategorie Y

deduktiver Ansatz

Vergrößerung des Kategoriensystems durch Entwicklung aus den Daten

induktiver Ansatz

Kode 4, Kode 5, Kode 6

Kodierung der Daten auf der Basis von bestehenden Kategorien

Text

statistische Analyse von Elementen der Textoberfläche durch: Häufigkeitsanalyse Indikatorenanalyse Valenzanalyse Intensitätsanalyse Kontingenzanalyse

Einbettung der Elemente in Kommunikationsmodelle und Erarbeitung der Texttiefenstruktur mittels interpretativer Verfahren

interpretative Vertiefung

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Quantifizierung

268

5. Forschungsverfahren

*Hochstetter, Johanna (2011). Diagnostische Kompetenz im Englischunterricht der Grundschule: Eine empirische Studie zum Einsatz von Beobachtungsbögen. Tübingen: Narr. [Referenzarbeit, Kapitel 7] Kowal, Sabine/O’Connell Daniel C. (2000). Zur Transkription von Gesprächen. In: Flick, Uwe/von Kardorff, Ernst/Steinke, Ines (Hg.). Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, 437 – 447. Krippendorff, Klaus (2004). Content analysis. An introduction to its methodology. London: Sage Publications. Kromrey, Helmut (2009). Empirische Sozialforschung. 12. überarbeitete und ergänzte Auflage. Stuttgart: Lucius & Lucius. Kuckartz, Udo (1999). Computergestützte Analyse qualitativer Daten. Eine Einführung in Methoden und Arbeitstechniken. Wiesbaden, Opladen: Westdeutscher Verlag. Kuckartz, Udo (2012). Qualitative Inhaltsanalyse: Methoden, Praxis, Computerunterstützung. Weinheim: Beltz-Juventa. Mackey, Alison/Gass, Susan M. (2012) (Hg.). Research Methods in Second Language Acquisition. A Practical Guide. West Sussex: Wiley-Blackwell. Mayring, Philipp (1983). Qualitative Inhaltsanalyse. Grundlagen und Techniken. Weinheim: Beltz. Mayring, Philipp (2000). Qualitative Inhaltsanalyse. In: Flick, Uwe/von Kardorff, Ernst/Steinke, Ines (Hg.). Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, 468 – 475. Mayring, Philipp (2002). Einführung in die Qualitative Sozialforschung. Weinheim: Beltz. Mayring, Philipp (2008). Neuere Entwicklungen in der qualitativen Forschung und der Qualitativen Inhaltsanalyse. In: Mayring, Philipp/Gläser-Zikuda, Michaela (Hg.). Die Praxis der Qualitativen Inhaltsanalyse. Weinheim: Beltz, 7 – 19. Mayring, Philipp/Brunner, Eva (2010). Qualitative Inhaltsanalyse. In: Friebertshäuser, Barbara/Langer, Antje/Prengel, Annedore (Hg.). Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim: Juventa, 323 – 333. Nunan, David/Bailey, Kathleen (2009). Exploring Second Language Classroom Research: A Comprehensive Guide. Boston: Heinle. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet: Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Baltmannsweiler: Schneider Verlag Hohengehren. [Referenzarbeit, Kapitel 7] Steininger, Ivo (2014). Modellierung literarischer Kompetenz. Eine qualitative Studie im Fremdsprachenunterricht der Sekundarstufe I. Tübingen: Narr.

»»  Zur Vertiefung empfohlen Aguado, Karin (2012). Die Qualitative Inhaltsanalyse in der empirischen Fremdsprachenforschung: Grenzen, Potentiale, Desiderate. In: Aguado, Kerstin/Heine, Lena/Schramm, Karen (Hg.). Introspektive Verfahren und Qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt: Peter Lang, 119 – 135. Bei diesem Text handelt es sich um eine knappe Einführung in das Thema Qualitative Inhaltsanalyse, die ihre zentralen Merkmale und ihr Potenzial gerade für den Fremdsprachenunterricht herausstellt. Es werden auch kritische Meinungen aus der Sekundärliteratur vorgestellt und diskutiert. Gut geeignet als Einstieg in dieses Forschungsthema. Gläser-Zikuda, Michaela (2012). Qualitative Inhaltsanalyse in der Bildungsforschung – Beispiele aus diversen Studien. In: Aguado, Kerstin/Heine, Lena/Schramm, Karen (Hg.). Introspektive

5.3.5 Typenbildung

269

Verfahren und Qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt: Peter Lang, 136 – 159. Dieser Artikel ist als kurzer Informationseinstieg in ein anspruchsvolles Forschungsthema durchaus geeignet. Die Autorin geht auch auf Mischformen aus qualitativer und quantitativer Inhaltsanalyse ein und liefert anschauliche Beispiele aus Studien im Kontext der Bildungsforschung. Neuendorf, Kimberly A. (2002). Content Analysis Guidebook. London: Sage Publications. Dieses Werk wird zur eingehenden Vertiefung empfohlen, denn es stellt umfassend und ausführlich verschiedene Kontexte und Verfahrensweisen der quantitativen und qualitativen Inhaltsanalyse vor. Die Autorin wendet sich an fortgeschrittene Studierende der Kommunkationswissenschaften, der Psychologie und Sozialwissenschaften, das Buch ist also nicht primär auf den Fremdsprachenunterricht ausgerichtet. Mit seiner gründlichen Einführung, kurzen historischen Darstellung und zahlreichen Arbeitsbeispielen kann es aber wertvolle Anregungen geben, wie man die Inhaltsanalyse in verschiedenen Berufs- und Lebenswelten zur Forschung nutzen kann.

5.3.5 Typenbildung Michael Schart 1 Begriffsklärung

Menschen ordnen die Erfahrungen, die sie mit und in ihrer Lebenswelt gewinnen, nach charakteristischen, wiederkehrenden Wahrnehmungs- und Verhaltensmustern (Schütz 1993). Diese „anthropologische Basistechnik“ (Kuckartz 2010: 554) macht sich auch die Wissenschaft zunutze, wenn sie soziale Phänomene mit Blick auf das Typische untersucht. Insbesondere im Umfeld der qualitativen Sozialforschung sind Verweise auf typische Handlungen, Denkmuster oder soziale Konstellationen weit verbreitet. Hierbei handelt es sich jedoch zumeist um Beschreibungen, die auf einer alltäglichen Deutung des Begriffes Typ beruhen. Bohnsack (2010: 48) bezeichnet sie daher auch als „Typenbildungen des Common Sense“. Ein wissenschaftliches Verständnis des Begriffes hingegen muss auf ein methodisch kontrolliertes Vorgehen rekurrieren. Mit einer solchen systematischen Bildung von Typen, die sich auf der Grundlage der Analyse von empirischen Daten vollzieht, beschäftigt sich dieses Kapitel. Sowohl in der quantitativen als auch in der qualitativen Sozialforschung gilt die Konstruktion von Typologien als ein effektives Verfahren, um umfangreiches Datenmaterial zu reduzieren, zu verdichten und schließlich in eine übersichtliche Ordnung zu bringen. Die Zielsetzung besteht darin, im untersuchten Gegenstandsbereich Strukturen und Zusammenhänge zu identifizieren und diese dann als unterschiedliche Typen zu interpretieren. In der quantitativen Forschung kommen in diesem Prozess explorative statistische Verfahren wie beispielsweise Clusteranalysen zum Einsatz, mit denen in den Daten typische Muster bzw. Korrelationen zwischen Merkmalsträgern oder Merkmalsausprägungen aufgedeckt werden können (vgl. Tippelt 2010: 119). Auch in der qualitativen Sozialforschung, die im Mittelpunkt der folgenden Betrachtung stehen wird, bezieht sich der Begriff der Typenbildung im Kern auf eine Methode der Daten-

270

5. Forschungsverfahren

analyse, mit der ein komplexes soziales Phänomen einer Deutung zugänglich gemacht werden soll (s. auch Kapitel 5.3.4). In einem konkreten Forschungsdesign können typenbildende Verfahren in unterschiedlichen Funktionen eingesetzt werden. „Der Anspruch reicht von der Beschreibung und deskriptiven Gliederung eines Untersuchungsfeldes bis hin zur Hypothesengenerierung bzw. Theorieentwicklung auf der Grundlage eher induktiver oder aber abduktiver Prozesse“ (Nentwig-Gesemann 2013: 300). Seit Max Weber zu Beginn des 20. Jahrhunderts seine Überlegungen zu einer verstehenden Soziologie mithilfe von idealtypischen Konstruktionen ausformulierte (z. B. Weber 1988 [1922]: 190 – 214), wurden gerade in der deutschsprachigen empirischen Sozialforschung eine ganze Reihe typenbildender Verfahren entwickelt (siehe z. B. Kuckartz 2012; Kelle/Kluge 2010; Nohl 2013). Diese grenzen sich zwar in Einzelaspekten deutlich voneinander ab, verfolgen jedoch die gemeinsame, grundlegende Strategie, das gesamte Datenmaterial in eine klassifikatorische Ordnung zu bringen, um dann vor dieser Folie das soziale Phänomen zu beschreiben und zu erklären. Im Prozess der Typenbildung werden einzelne Daten aus den untersuchten Fällen zu neuen Einheiten zusammengesetzt. Die so entstandenen Gruppen zeichnen sich dadurch aus, dass die in ihnen versammelten Elemente eine möglichst hohe Ähnlichkeit aufweisen (interne Homogenität), während verschiedene Gruppen untereinander durch möglichst deutliche Kontraste gekennzeichnet sind (externe Heterogenität) (Kelle/Kluge 2010: 85-86). Die interne Homogenität eines einzelnen Typus bzw. die externe Heterogenität zwischen den verschiedenen Typen in einer Typologie ergeben sich durch je spezifische Konstellationen von Merkmalen. Somit besteht ein wichtiger Schritt der Analyse bei der Typenbildung darin, relevante Merkmale zu benennen und zu begründen, anhand derer die zu gruppierenden Elemente verglichen und kontrastiert werden können. Mit Bildung von Typologien ist der Anspruch verbunden, die enge Bindung an das Singuläre der einzelnen Fälle zu überwinden und empirisch begründete, fallübergreifende Aussagen über einen Gegenstandsbereich zu treffen. Hieraus leitet sich eine besondere Stellung dieses Ansatzes innerhalb der qualitativen Sozialforschung ab, denn typenbildende Verfahren schlagen eine Brücke zwischen detaillierten Einzelfallanalysen, wie sie etwa in ethnografischen Ansätzen praktiziert werden, und Vorgehensweisen, die – beispielsweise im Sinne der Grounded Theory  – auf die Formulierung von Theorien abzielen (vgl. Kuckartz 2010: 555). Der Begriff der Typenbildung lässt sich daher nicht auf eine Analysetechnik reduzieren, sondern er ist zugleich auch mit methodologischen und methodischen Implikationen verbunden, die den gesamten Forschungsprozess betreffen. Die folgenden Abschnitte werden diese Zusammenhänge eingehender thematisieren. Angesichts der Vielzahl von Ansätzen kann es in diesem Beitrag nicht darum gehen, einen detaillierten Leitfaden für den Ablauf der Typenbildung vorzustellen (siehe dazu z. B. Kelle/ Kluge 2010). Stattdessen sollen deren grundlegende Prinzipien aufgezeigt und einige zentrale Kontroversen nachgezeichnet werden. In der empirischen Fremdsprachenforschung spielen typenbildende Verfahren bislang eher eine untergeordnete Rolle. Gleichwohl können sie – und das soll im Folgenden an einigen Studien verdeutlicht werden – auch bei der Erforschung fremdsprachlicher Lehr- und Lernprozesse erkenntnisreiche Perspektiven eröffnen. So bietet sich ihr Einsatz bei qualitativen Untersuchungsdesigns immer dann an, wenn im Anschluss an Beschreibungen von Einzel-

5.3.5 Typenbildung

271

fällen die Datenanalyse zu generalisierenden Aussagen über das erforschte Phänomen zusammengeführt geführt werden soll (wie z. B. über das didaktische Konzept „Projektunterricht“ in Schart 2003). Die Studien von Haudeck (2008) und Roche (2006) demonstrieren, wie die Typenbildung genutzt werden kann, um verschiedene Verhaltensweisen in Gruppen von Lernenden (z. B. Lernstrategien, Lerntechniken oder Lernstile,) zu identifizieren und zu beschreiben. Und Roters (2012) Studie zur Reflexionskompetenz von Studierenden in der Lehrerausbildung zeigt, dass sich aus Typisierungen Hinweise für die konkrete Gestaltung von Bildungsprogrammen ableiten lassen. 2 Merkmalsräume als Grundlage der Typenbildung

Typologien beruhen immer auf der Konstruktion eines Merkmalsraums, wie ihn die Abbildungen 1 und 2 schematisch darstellen. Dieser muss zwar nicht zwingend in dieser Form einer Kreuztabelle veranschaulicht werden, aber solche Visualisierungen erleichtern es Forschenden zum einen, den Auswertungsprozess zu strukturieren – vor allem wenn der betreffende Merkmalsraum mehr als zwei Dimensionen umfasst. Zum anderen stellen sie eine sinnvolle Möglichkeit dar, die Grundlagen und Ergebnisse einer Typenbildung anschaulich zu präsentieren. Bei den Abbildungen 1 und 2 wird dieser Merkmalsraum von nur zwei Dimensionen gebildet, d. h. die beiden Merkmale (auch: Kategorien oder Variablen) Form und Färbung lassen jeweils nur zwei Merkmalsausprägungen (auch: Subkategorien) zu, anhand derer die einzelnen Elemente der Systematik zugeordnet werden können. Dieses Prinzip wird sowohl bei quantitativen als auch bei qualitativen Analyseprozessen angewendet. Die Vier-Felder-Matrix von Abbildung 1 zeigt eine Typologie, bei der sich alle gebildeten Typen trennscharf voneinander unterscheiden lassen. Zugleich weisen diese Typen auch intern keine Varianzen auf. Solche Typologien sind bei sozialen Phänomenen nur dann zu erwarten, wenn man relativ eindeutige Kategorien wählt (z. B. Geschlecht, Muttersprache

Abbildung 1: Zweidimensionaler Merkmalsraum, Typologie mit merkmalshomogenen Typen

Abbildung 2: Zweidimensionaler Merkmalsraum, Typologie mit merkmalsheterogenen Typen

272

5. Forschungsverfahren

u. ä.) oder den Vergleich auf quantifizierbare Variablen reduziert (z. B. erreichte Punktzahl in einem Test, Anzahl besuchter Unterrichtsstunden u. ä.). Auf diese Weise entstehen merkmalshomogene (auch: monothetische) Typen, wie sie sich in Abbildung 1 finden.31 Dagegen münden typenbildende Verfahren, die auf das Erfassen komplexerer Strukturen und Zusammenhänge abzielen, eher in merkmalsheterogenen (auch: polythetischen) Typen, wie sie in Abbildung 2 dargestellt werden. Hier sind – im Unterschied zu den vier merkmalshomogenen Typen aus Abbildung 1 – die einzelnen Elemente innerhalb einer Gruppe keineswegs identisch. Sie werden vielmehr aufgrund deutlicher Ähnlichkeiten zum gleichen Typ gezählt. Tritt dabei der Fall ein, dass einzelne Elemente der idealen Ausprägung der verglichenen Merkmale sehr nahe kommen, können diese als Optimalfall (oder auch Prototypen) ihrer jeweiligen Gruppe gelten. Sie repräsentieren dann ihren Typ, ohne jedoch mit ihm identisch zu sein (vgl. Nentwig-Gesemann 2013: 301; Kelle/Kluge 2010: 105). Durch den Vergleich der Abbildungen 1 und 2 lässt sich erkennen, dass die Zusammenfassung von Elementen zu Typen anhand von unterschiedlichen Merkmalsausprägungen in der qualitativen Forschung keine Aufgabe darstellt, die ausschließlich formalisiert erfolgen kann. Notwendig ist vielmehr die eingehende Interpretationsleistung der Forschenden. Ein sehr anschauliches Beispiel dafür bietet die Arbeit von Roche (2006), in der beschrieben wird, wie der Analyseprozess mehrere Interpretationsschleifen von der Typologie zu den Daten (in diesem Fall Einträge in Lernerjournalen) und wieder zurück durchläuft. Auf dem Weg von den Einzelfällen zu einer Typologie müssen eine Reihe von methodischen und methodologischen Entscheidungen getroffen werden, die im Folgenden anhand von drei zentralen Fragen der Typenbildung umrissen werden. 3 Zentrale Fragen der Typenbildung Woher kommen die Vergleichsdimensionen?

Im vorangegangen Abschnitt wurde betont, dass die Definition eines Merkmalsraums die Grundlage für den Vergleich darstellt. Damit ist jedoch noch nicht die für den Forschungsprozess maßgebliche Frage beantwortet, woher die Merkmale oder Kategorien stammen, anhand derer Daten verglichen werden können. Die verschiedenen Varianten typenbildender Verfahren finden darauf sehr unterschiedliche Antworten. So werden in einigen Ansätzen die Merkmale bereits vor dem Beginn des Vergleichs definiert, indem man sie beispielsweise direkt aus einer Theorie oder der Forschungsfrage ableitet (siehe z. B. die „typenbildende Inhaltsanalyse“ bei Kuckartz 2012: 115 – 131; s. Kapitel 5.3.4). Dabei bleibt zunächst unbeachtet, ob sich die einzelnen Merkmalskombinationen anhand konkreter Fälle auch tatsächlich empirisch nachweisen lassen. Diese Herangehensweise kann dazu führen, dass so genannte künstliche Typologien entstehen, in denen einzelne Felder des Merkmalsraums im Verlauf des Typisierungsprozesses unbesetzt bleiben. Aber auch dieses Ergebnis stellt natürlich 31 Eine andere Möglichkeit, solche „reinen Typen“ hervorzubringen, geht auf Max Webers Konstruktion von Idealtypen zurück. Bei deren Bildung werden einzelne Merkmalsausprägungen gedanklich überhöht, andere dagegen ausgeblendet, so dass man „theoretische Konstruktionen unter illustrativer Benutzung des Empirischen“ erhält (Weber 1988 [1922]: 205). Im Unterschied zu den in den Abbildungen 1 und 2 dargestellten Realtypen besteht bei solchen Idealtypen nur noch bedingt ein Zusammenhang mit empirischen Daten bzw. realen Fällen.

5.3.5 Typenbildung

273

einen Erkenntnisgewinn über das beforschte Phänomen dar. Denn Felder, die nicht gefüllt werden können, stehen dann für einen Typ, der zwar logisch plausibel erscheint, sich aber in den Daten nicht nachweisen lässt (vgl. Lofland et al. 2006: 148). So stößt beispielsweise Roche (2006) bei seinem Versuch, eine zunächst auf der Basis theoretischer Überlegungen zu Lernstilen konstruierte Typologie mit konkreten Lernerdaten zu füllen, mehrfach auf diese Schwierigkeit. Bei einer anderen Herangehensweise an die Typenbildung wird die Vorabauswahl von Vergleichsdimensionen dagegen grundsätzlich abgelehnt. Ausgangspunkt für die Konstruktion eines Merkmalsraums bilden in diesem Fall zunächst immer nur die Daten selbst, weshalb man auf diesem Weg zu sogenannten natürlichen Typologien kommt. Ein Beispiel dafür stellt die dokumentarische Methode dar, deren Vertreterinnen und Vertreter ihr Vorgehen auch als praxeologische Typenbildung bezeichnen, weil es sich an „der impliziten Logik der erforschten Praxis“ (Nohl 2013: 38) orientiert. Es wird eine „abduktive Erkenntishaltung“ (Nentwig-Gesemann 2013: 307) angestrebt, um Hypothesen über das Untersuchungsfeld allein aus dem empirischen Material heraus mit Hilfe abduktiver Schlüsse zu gewinnen. Die Entscheidung über die Vergleichsdimensionen des Merkmalsraums ist also mit grundsätzlichen methodologischen Überlegungen verknüpft. Es geht zum einen um die Frage, inwieweit Forschende ihr Vorwissen (in Form von Theoriewissen, eigenen Erfahrungen mit dem zu erforschenden Phänomen etc.) im Forschungsprozess ausblenden oder sich von diesem distanzieren können. Zum anderen wird diskutiert, ob die Generierung von neuartigen Typologien im Sinne eines explorativen Vorgehens überhaupt möglich sei, wenn man die Vergleichsdimensionen bereits vorab festlege und damit die einzelnen Elemente theoriegeleitet zu Typen anordne (siehe z. B. die Kritik bei Bohnsack 2010: 487 an einem theoriegeleiteten Vorgehen). Eine vermittelnde Position nehmen Kelle/Kluge (2010: 18 – 27) ein. Sie bezeichnen die Annahme, dass Kategorien und Konzepte gleichsam aus dem Datenmaterial emergieren könnten, als „induktivistisches Selbstmissverständnis“ der qualitativen Methodenlehre. Der kreative und spielerische Umgang mit den Daten, wie er für induktive oder abduktive Vorgehensweisen typisch ist, sei für das Generieren von Typologien zwar notwendig, aber zugleich auch riskant und vage. Wissenschaftliches Wissen, so die Argumentation bei Kelle/ Kluge, entstehe immer aus der Kombination von bereits Bekanntem und Neuem. Sie sprechen sich daher für eine beständige Integration von empirischen und theoretischen Arbeitsschritten aus, wobei das Vorwissen der Forschenden einfließen sollte. Entscheidend sei dabei, dass sich Forschende auf abstrakte Konzepte bzw. empirisch gehaltlose Kategorien32 beschränkten. Nur diese könnten als „theoretische Heuristiken“ bei der Typenbildung dienen, weil sie den Blick auf das Neue in den Daten nicht verstellten (Kelle/Kluge 2010: 63). Während also die Kategorien in diesem vermittelnden Ansatz theoriegeleitet formuliert werden, entstehen die Subkategorien des Merkmalsraums in der Auseinandersetzung mit dem Datenmaterial. 32 Kelle/Kluge (2010: 63) nennen als Beispiel das Konzept „Rollenerwartung“, das noch keine konkreten Aussagen darüber enthalte, wie sich die Rollenerwartungen in einem zu untersuchenden Feld gestalten. Die Wahrnehmung der Forschenden bei der Analyse werde somit zwar gelenkt, aber der empirische Gehalt entstehe erst durch die intensive Beschäftigung mit den Daten.

274

5. Forschungsverfahren

Dieses Vorgehen lässt sich beispielshaft an der Studie von Haudeck (2008) nachvollziehen. Am Beginn ihrer Untersuchung zu Lernstrategien und Lerntechniken beim Vokabellernen formuliert Haudeck aufgrund theoretischer Prämissen Oberkategorien, anhand derer sie die Lernerdaten (Einträge in Lerntagebüchern) zunächst grob systematisiert. Die eigentliche Typologie nimmt indes erst durch die induktiv aus dem Datenmaterial gewonnenen Kategorien ihre Gestalt an. Und auch bei Haudeck finden sich die oben erwähnten Rücküberprüfungen zwischen Kategorien und Texten, um die Zuordnung abzusichern. Roters (2012) orientiert sich in ihrer vergleichenden Studie zur Reflexionsfähigkeit von angehenden Fremdsprachenlehrerinnen und -lehrern in Deutschland und den USA ebenfalls an dem von Kelle/Kluge (2010) beschriebenen Modell. Sie entwickelt einen Merkmalsraum für die Typisierung von studentischen Reflexionen, indem sie zunächst Daten aus den beiden Ländern getrennt analysiert. Dabei fließen theoretisches Vorwissen ebenso ein wie Dokumentenanalysen und Experteninterviews. Durch die Gegenüberstellung der länderspezifischen Analyse kommt Roters zu einer sechsstufige Typologie, anhand der sie verschiedene Reflexionsniveaus von Novizen charakterisieren und hochschuldidaktische Empfehlungen für ein reflexives Professionalisierungskonzept in der Lehrerbildung formulieren kann. Zusammenfasend lässt sich sagen, dass eine Antwort auf die Eingangsfrage dieses Abschnitts, die keine Variante der Typenbildung ausgrenzt, unspezifisch ausfallen muss: Die einzelnen Vergleichsdimensionen des Merkmalsraums können offensichtlich auf dem Vorwissen der Forschenden beruhen oder ebenso erst im Prozess der Datenauswertung entstehen. Sie lassen sich von der Forschungsfrage ableiten oder können vom Forschungsinstrument – etwa den Fragen eines Interviewleitfadens – beeinflusst sein. Welches Vorgehen bevorzugt wird, hängt letztlich vom untersuchten Gegenstand und den Forschungsfragen ab. Für die wissenschaftliche Qualität einer Typologie indes ist ausschlaggebend, ob die Konstruktion des Merkmalsraums eingehend reflektiert, nachvollziehbar dargestellt und begründet wird. Was wird typisiert?

Am Beginn einer Typenbildung sollte nicht nur Gewissheit darüber bestehen, wie man zu den Kategorien gelangt, anhand derer die empirischen Daten verglichen werden. Ebenso wichtig ist es, eine Vorstellung davon zu besitzen, worauf sich dieser Vergleich konkret beziehen soll. Traditionell wird von einer Parallelität zwischen Fällen und typisierten Elementen ausgegangen. Die Individuen werden bei der Datenerhebung (etwa durch Interviews, Beobachtung u. ä.) als einzelne Fälle behandelt und dann auch in dieser Form typisiert. Sowohl Haudeck (2008) als auch Roche (2006) wählen in ihren Studien diesen Weg. Lernstrategien, Lerntechniken oder Lernstile bleiben somit eng mit den Lernenden verknüpft, auf deren Daten die Bildung der Typologie beruht. Ebenso ist dies der Fall bei Roters (2012), die ihre Typisierung von Reflexionsniveaus auf einzelne Studierende bezieht. Für viele Forschungsinteressen erscheint es aber weitaus sinnvoller zu sein, eine größere Gruppe von Individuen als Einzelfall zu betrachten, etwa wenn die Lernatmosphäre in unterschiedlichen Klassen untersucht werden soll und deshalb u. a. Gruppendiskussionen als Forschungsinstrument zum Einsatz kommen. Die Typenbildung kann auch derart konzipiert werden, dass sie sich auf Ereignisse und Situationen konzentriert oder unterschiedliche Denk-

5.3.5 Typenbildung

275

figuren und Handlungsmuster innerhalb eines sozialen Kontextes ins Zentrum der Analyse rückt. In all diesen Beispielen können zwar Daten von einzelnen Personen die Datengrundlage schaffen, doch im Verlauf des Analyseprozesses ergibt sich eine immer größere Distanz zwischen den ursprünglichen Einzelfällen und den typisierten Elementen. Ein Beispiel für diesen Ansatz liefert die Studie von Schart (2003), die sich subjektiven Unterrichtstheorien von DaF-Lehrenden widmet. Auch in dieser Arbeit werden nicht die befragten Individuen selbst typisiert, sondern die Argumentationslinien, denen die Lehrenden folgen, wenn sie ihre Sicht des Projektunterrichts beschreiben. Ebenso lässt sich in diesem Zusammenhang die Studie von Ertelt-Vieth (2005) anführen. Die Autorin bezieht sich zwar nicht explizit auf die Typenbildung, ihr Prozess der Datenanalyse weist jedoch deutliche Ähnlichkeiten mit dem hier beschriebenen Vorgehen auf. Bei ihrer Untersuchung von deutschrussischem Schüleraustausch richtet Ertelt-Vieth ihr Augenmerk auf Elemente, die das gegenseitige Verständnis erschweren (sogenannte Lakunen) und typisiert diese nach einer Reihe von Kriterien. Sie kommt dadurch zu verschiedenen Typen von Lakunen, die nicht mehr fest mit den untersuchten Einzelfällen verknüpft sind. Bei einer solchen weiten Definition der zu typisierenden Elemente, ist es unvermeidlich, dass die Daten einzelner Fälle verschiedenen Typen zugeordnet werden. Man erhält multidimensionale Typologien. Deren Überschneidungen sind jedoch nur dann bedenklich, wenn sich am Ende ein Großteil der Fälle in vielen Typen wiederfindet. Dann stellt sich zwangsläufig die Frage nach dem Sinn der Typisierung (vgl. Richards 2009: 182). Ein großer Vorteil der Trennung von Einzelfall und typisierten Elementen liegt darin, dass sich neue Möglichkeiten der Datenanalyse ergeben. Es lassen sich beispielsweise systematisch und empirisch begründet Modellfälle oder Modelltypen entwickeln, die eine neue Perspektive auf das betreffende soziale Phänomen erschließen. So verdeutlicht Schart (2003: 212) die extremen Gegensätze zwischen den typischen Argumentationslinien in seiner Studie, indem er auf der Grundlage seiner Daten einen fiktiven Dialog zwischen zwei hypothetischen Lehrenden konstruiert (siehe dazu auch Kuckartz 2012: 130). Auch wenn in einem konkreten Forschungsprojekt das Verhältnis zwischen den Einzelfällen und den Elementen der Typisierung sehr unterschiedlich gehandhabt werden kann, ist für alle Ansätze der Typenbildung in der qualitativen Sozialforschung jedoch charakteristisch, dass ein genaues Verständnis der Einzelfälle als zwingend erforderlich betrachtet wird. Hierin unterscheidet sich die Typenbildung von Analyseverfahren wie etwa der Grounded Theory, bei der einzelne Fälle im Verlauf des Forschungsprozesses nur eine untergeordnete Rolle spielen (vgl. Nohl 2013: 29f). Bleiben die einzelnen Fälle als Ausgangspunkt der Typenbildung unverstanden, so geben Lofland et al. (2006: 149) zu bedenken, könne das gesamte Verfahren leicht in einer sterilen Übung enden. Die Typenbildung darf also nicht als ein Ersatz für die Interpretation der Einzelfälle missverstanden werden. Sie kann nur funktionieren, wenn sich Forschende zugleich auch um ein tiefes Verständnis der einzelnen Fälle bemühen. Ein letzter Aspekt, der mit Blick auf das Verhältnis von Fall und Typus erwähnt werden muss, betrifft die Verteilung der Fälle bzw. Elemente in einer Typologie. Kommt es zu einer Typologie, in der viele typisierte Elemente mehrfach vertreten sind, muss deren Erklärungskraft bezweifelt werden. Auch die entgegengesetzte Tendenz erscheint problematisch, denn können viele Elemente gar nicht erst typisiert werden, sind die Vergleichsdimensionen dem empirischen Material nicht angemessen gewählt (vgl. Lofland et al. 2006: 149).

276

5. Forschungsverfahren

Wann beginnt und wann endet die Typenbildung im Forschungsprozess?

Die bis hierhin geschilderten Prinzipien und Kontroversen vermitteln eine Vorstellung davon, weshalb die Typenbildung mehr darstellt als eine reine Technik der Datenanalyse. Die Entscheidung für dieses Verfahren kann sich – je nach gewähltem Ansatz – auf den gesamten Forschungsprozess auswirken. Daher fällt es auch sehr schwer, eine befriedigende Antwort auf die Frage zu finden, die diesem Abschnitt voransteht. Tendenziell erscheint es für quantitative Untersuchungen eher unproblematisch zu sein, den Beginn der Typenbildung erst relativ spät im Forschungsprozess einsetzen zu lassen. So können auch bereits erhobene und analysierte Daten nachträglich einem explorativen Verfahren wie der Clusteranalyse unterzogen werden, um sie nach typischen Mustern zu befragen. Für die qualitative Forschung hingegen ist ein solches Vorgehen eher selten realisierbar. Hier beginnt die Typenbildung, wie Kelle/Kluge (2010) überzeugend darstellen, bereits bei der Auswahl der Einzelfälle (s. Kapitel 4.3 Sampling), deren Zusammensetzung das Ergebnis der Typisierung entscheidend beeinflusst. Selbst wenn man sich auf den zentralen Bereich der Typenbildung konzentriert, also nur den Vergleich und die Gruppierung der Daten sowie die Formulierung der Typen betrachtet, findet man keine klare Antwort darauf, an welchem Punkt die Typenbildung einsetzen sollte. Kuckartz (2012) beispielsweise betont, dass die eingehende Analyse der Einzelfälle eine grundlegende Voraussetzung dafür darstelle, um mit dem Vergleich beginnen zu können. Dem steht, wie bereits weiter oben erwähnt, die Dokumentarische Methode mit ihrer Strategie entgegen, die Rekonstruktion der Einzelfälle und deren Vergleich parallel zu vollziehen. Diese Praxis beruht auf der Idee, dass die Besonderheiten der Einzelfälle gerade durch die kontinuierliche, gegenseitige Kontrastierung hervortreten. Zugleich ist mit dieser Herangehensweise die Hoffnung verbunden, der Befangenheit, in der sich die Forschenden durch ihr Vorwissen und ihre Erwartungen befinden, die Wirkungskraft zu nehmen. Der Vergleich als eine „durchgängige Analysehaltung“ (Nohl 2013: 15) erfüllt somit nicht nur eine erkenntnisgenerierende, sondern auch eine erkenntniskontrollierende Funktion. Die konkrete Ausgestaltung des Vergleichs bei der Typenbildung ergibt sich jedoch nicht nur aus solchen methodologischen Überlegungen. Eine nicht zu unterschätzende Rolle spielen auch die technischen Arbeitsmittel, die Forschenden zur Verfügung stehen. Seit den 1990er Jahren wachsen mit zunehmend umfangreicheren und leistungsfähigeren Computerprogrammen auch die Möglichkeiten der Datenanalyse. Diese Entwicklung verlieh gerade der Typenbildung eine besondere Dynamik, denn hierdurch ergaben sich die notwendigen Mittel und Wege, diese „wirklich transparent, methodisch kontrolliert und intersubjektiv nachvollziehbar“ (Kuckartz 2012: 153) zu gestalten. Ein relativ frühes Einsetzen von Quervergleichen zwischen den Einzelfällen stellt daher aus technischer Sicht inzwischen kein Problem mehr dar, weil QDA-Software ein kontinuierliches Springen von den kodierten Elementen zu den Kontexten erlaubt, denen sie entstammen. Bleibt schließlich die Frage, wann genau die Typenbildung ihren Abschluss findet. Einig sind sich die verschiedenen Ansätze darin, dass es mit Blick auf die wissenschaftliche Qualität einer Studie nicht ausreicht, diese in der Beschreibung eine Typologie enden zu lassen. Die Darstellung von empirischen Regelmäßigkeiten bei einem sozialen Phänomen markiert zwar einen wichtigen Zwischenschritt, ihr muss jedoch zwingend die Erklärung dieser Zusammenhänge folgen. Denn der gesamte Prozess beruht letztlich auf dem Anspruch, über das

5.3.5 Typenbildung

277

5.3.5 Typenbildung

Beschreibung und Gliederung eines Untersuchungsfeldes, Hypothesengenerierung bzw. Theorieentwicklung

Daten / Fälle Leitfrage: Welche Zusammenhänge und Muster lassen sich beschreiben? Vergleichsdimensionen festlegen Merkmalsraum konstruieren Einzelfälle und Daten zuordnen Quelle der Vergleichsdimension Gegenstand des Vergleichs Verhältnis zur Einzelfallanalyse Ergebnisse/Endpunkt der Typenbildung Typologie Daten in klassifikatorischer Ordnung Typ 1

Typ 2

Typ 3

Typ 4

interne Homogenität und externe Heterogenität der gebildeten Typen © 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

278

5. Forschungsverfahren

Typische zu einer Generalisierung zu gelangen und mit den Typologien zur Theorieentwicklung beizutragen. Das kann auf sehr unterschiedliche Art und Weise erfolgen. Im Umfeld der Dokumentarischen Methode beispielsweise wird ein zweistufiges Verfahren gewählt, um die Erkenntnisse über den untersuchten Kontext zu verallgemeinern. Der sinngenetischen, eng an den Daten orientierten Typenbildung folgt eine soziogenetische Typenbildung, bei der als Vergleichsdimensionen soziologische und soziodemografische Kategorien wie Milieu oder Geschlecht hinzugezogen werden (vgl. Nentwig-Gesemann 2013). Dass ein solcher Blickwinkel auf die Daten auch in der Fremdsprachenforschung zu interessanten Einsichten führen kann, lässt sich beispielsweise an der Studie von Schart (2003) verfolgen. Deren Analyse verdeutlicht, wie das didaktische Denken von Lehrenden im Bereich Deutsch als Fremdsprache von den unterschiedlichen Studienabschlüssen der Befragten geprägt ist. Ein anderes mögliches Vorgehen stellt Kuckartz (2012) dar. Er plädiert dafür, die auf qualitativer Datenanalyse beruhende Typologie in ein quantifizierendes Verfahren zu überführen. Welchen Weg Forschende auch wählen: Als Ergebnis der Typenbildung sollten sie verdeutlichen, weshalb es sinnvoll erscheint, das betreffende soziale Phänomen gerade in dieser Weise zu interpretieren. Sie müssen sich und auch den Rezipienten ihrer Studie Klarheit darüber verschaffen, was eigentlich das Neuartige an ihren Typen darstellt und in wie fern die konstruierte Typologie als heuristisches Instrument auch in anderen sozialen Kontexten Anwendung finden kann (vgl. Kuckartz 2010: 565; Richards 2009: 182). ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Bohnsack, Ralf (2010). Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. 8., durchges. Aufl. Opladen: Budrich. Bohnsack, Ralf/Nentwig-Gesemann, Iris/Nohl, Arndt-Michael (2013) (Hg.). Die dokumentarische Methode und ihre Forschungspraxis. 3., aktualisierte Aufl. Wiesbaden: Springer VS. *Ertelt-Vieth, Astrid (2005). Interkulturelle Kommunikation und kultureller Wandel: eine empirische Studie zum russisch-deutschen Schüleraustausch. Tübingen: Narr. *Haudeck, Helga (2008). Fremdsprachliche Wortschatzarbeit außerhalb des Klassenzimmers. Eine qualitative Studie zu Lernstrategien und Lerntechniken in den Klassenstufen 5 und 8. Tübingen: Narr. Kelle, Udo/Kluge, Susann (2010). Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. 2., überarbeitete Aufl. Wiesbaden: Springer VS. Kuckartz, Udo (2010). Typenbildung. In: Mey, Günter/Mruck, Katja (Hg.). Handbuch qualitative Forschung in der Psychologie. Wiesbaden: VS Verlag, 553 – 568. Kuckartz, Udo (2012). Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Weinheim: Beltz Juventa. Lofland, John/Snow, David/Anderson, Leon/Lofland, Lyn H. (2006). Analysing Social Settings. A Guide to Qualitative Observation and Analysis. 4th edition. Belmont: Wadsworth. Nentwig-Gesemann, Iris (2013). Die Typenbildung in der dokumentarischen Methode. In: Bohnsack, Ralf/Nentwig-Gesemann, Iris/Nohl, Arndt-Michael (Hg.). Die dokumentarische Methode und ihre Forschungspraxis. 3., aktualisierte Aufl. Wiesbaden: Springer VS, 297 – 322.

5.3.5 Typenbildung

279

Nohl, Arnd-Michael (2013). Relationale Typenbildung und Mehrebenenvergleich. Neue Wege der Dokumentarischen Methode. Wiesbaden: Springer VS. Richards, Lyn (2009). Handling qualitative data. A practical guide. 2nd ed. London: SAGE. *Roche, Thomas (2006). Investigating Learning Style in the Foreign Language Classroom. Berlin: Langenscheidt. *Roters, Bianca (2012). Professionalisierung durch Reflexion in der Lehrerbildung: Eine empirische Studie an einer deutschen und einer US-amerikanischen Universität. Münster: Waxmann. *Schart, Michael (2003). Projektunterricht – subjektiv betrachtet. Eine qualitative Studie mit Lehrenden für Deutsch als Fremdsprache. Hohengehren: Schneider. [Referenzarbeit, s. Kapitel 7] Schütz, Alfred (1993). Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende Soziologie. 6. Aufl. Frankfurt/M.: Suhrkamp. Tippelt, Rudolf (2010). Idealtypen konstruieren und Realtypen verstehen – Merkmale der Typenbildung. In: Ecarius, Jutta/Schäffer, Burkhard (Hg.). Typenbildung und Theoriegenerierung. Methoden und Methodologien qualitativer Bildungs- und Biographieforschung. Opladen: Budrich, 115 – 126. Weber, Max/Winckelmann, Johannes (1988 [1922]). Gesammelte Aufsätze zur Wissenschaftslehre. 7. Aufl. Tübingen: Mohr. »»  Zur Vertiefung empfohlen Bohnsack, Ralf/Nentwig-Gesemann, Iris/Nohl, Arndt-Michael (2013) (Hg.). Die dokumentarische Methode und ihre Forschungspraxis. 3., aktualisierte Aufl. Wiesbaden: Springer VS. Im Umfeld der dokumentarischen Methode wurde die Typenbildung zu einem methodologisch umfassend begründeten und methodisch elaborierten Verfahren weiterentwickelt. Der Band dokumentiert den Stand der Diskussion und gibt Beispiele für die Umsetzungen in die Forschungspraxis. Kelle, Udo/Kluge, Susann (2010). Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. 2., überarbeitete Aufl. Wiesbaden: Springer VS. Die Arbeit zählt inzwischen zur Standardliteratur zum Thema. Mit ihrem Stufenmodell einer empirisch begründeten Typenbildung versuchen die Autoren, die verschiedenen Methoden und Modelle von Typenbildung in der qualitativen Sozialforschung in einen gemeinsamen methodologischen Rahmen zu stellen und damit Forschenden ein hilfreiches Werkzeug an die Hand zu geben. Kuckartz, Udo (2012). Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Weinheim: Beltz Juventa. In dieser Arbeit wird die typenbildende qualitative Inhaltsanalyse als eine von drei Basismethoden für die inhaltsanalytische Auswertung qualitativer Daten vorgestellt. Die Darstellung zeichnet sich dadurch aus, dass enge Bezüge zur Forschungspraxis hergestellt werden, wobei der Analyse mit Hilfe von QDA-Software besondere Aufmerksamkeit gilt.

280

5. Forschungsverfahren

5.3.6 Diskursanalytische Auswertungsmethoden Götz Schwab/Karen Schramm 1 Begriffsklärung

Unter dem Begriff der Diskursanalyse werden verschiedene pragmalinguistisch fundierte Verfahren zur Auswertung sozialer Interaktionen gefasst. Nach van Lier (1996: 4) kann die Bedeutung solcher Interaktionen im Fremdsprachenunterricht nicht einfach als selbstverständlich vorausgesetzt werden, „but the interaction itself must be meticulously described and understood.“ Der Begriff Interaktion umfasst die beiden Aspekte inter (lat. zwischen) und actio (lat. Handlung, Tätigkeit) und wird von Henrici folgendermaßen definiert: Unter Interaktion sollen im Folgenden sprachliche und nichtsprachliche Handlungen verstanden werden, die zwischen mindestens zwei Gesprächspartnern stattfinden und mindestens einen Beitrag (’turn’) der jeweiligen Partner umfassen, der inhaltlich an den jeweils anderen gerichtet ist. (Henrici 1995: 25; Hervorhebung im Original)

Goffman (z. B. 1981) hat für solche Interaktionen den zentralen Begriff der Begegnung (encounter) geprägt und impliziert damit, was House (1991: 405) als „wechselseitige Beeinflussung von Individuen oder Gruppen“ bezeichnet. Demnach hat die Forschung zu Interaktion grundlegend das Gegenüber im Blick  – unabhängig von der Frage, ob als direkter Adressat oder nur als passiver Zuhörender. Es sind alle Partizipientinnen und Partizipienten im Analyseprozess zu berücksichtigen, was gerade für die Unterrichtsforschung bedeutsam ist, da die Kommunikation in der Regel in größeren Gruppen, beispielsweise Schulklassen, stattfindet (Schwab 2011). Eine einseitige Reduktion auf bestimmte Teilnehmende (z. B. nur die Lehrperson) ist nach diesem Verständnis nicht angemessen, sondern verzerrt den Blick auf den Interaktionsprozess als Ganzes. Auch wenn der Fokus auf bestimmte Teilnehmende der Interaktion gelegt wird (z. B. Schülerinnen und Schüler mit Migrationshintergrund oder Erzieherinnen und Erzieher in der ersten Phase ihrer Ausbildung), so muss doch immer das Gesamtgefüge in den Analyseprozess eingeschlossen werden (vgl. bspw. Hoshii/Schumacher 2010 zur Konstellation bei der fremdsprachendidaktisch motivierten Videokonferenz). In der Unterrichtsforschung haben neben der Funktionalen Pragmatik insbesondere die Interaktionsanalyse und die ihr zuzuordnende Gesprächsanalyse größere Bedeutung gewonnen. Die Gesprächsanalyse geht auf die Konversationsanalyse zurück, versteht sich aber als weitergefasster Ansatz, welcher z. B. „durch Prozeduren der interaktionalen Soziolinguistik, der discursive psychology und der grounded theory“ (Deppermann 2001: 10; Hervorhebung im Original) ergänzt wird und weniger eng gefasst ist als die traditionelle (ethnomethodologische) Konversationsanalyse (Deppermann 2001; vgl. hierzu auch Henne/Rehbock 2001). Beide diskursanalytischen Forschungstraditionen, sowohl (a) die Interaktionsanalyse als auch (b) die Funktionale Pragmatik, untersuchen Interaktionsabläufe in allen Bereichen des öffentlichen (z. B. Podiumsdiskussion, Fernsehinterview) und privaten Lebens (z. B. Familiendebatte, Arztbesuch), werden aber im Folgenden begrenzt auf institutionelle Lernorte wie Kindergarten, Schule oder Hochschule behandelt. Gemeinsam ist ihnen der Fokus auf die Handlungsebene, insbesondere die Qualität und Ausgestaltung der sprachlichen Äußerun-

5.3.6 Diskursanalytische Auswertungsmethoden

281

gen: Beide Methoden eignen sich für ein tiefergehendes Verständnis der Sprachhandlungen, die z. B. Lernende und Lehrende in der Klassenzimmer-Interaktion ausführen, wenngleich die Ansätze methodologisch aus unterschiedlichen theoretischen Traditionen stammen und differente Herangehensweisen aufweisen. Während die Interaktionsanalyse stark durch die soziologische Forschung und Ethnomethodologie beeinflusst wurde (Deppermann 2001), ist die Funktionale Pragmatik deutlich linguistischer geprägt. (a) Interaktionsanalyse impliziert ein umfassenderes Verständnis von Gesprächen als dies z. B. bei der Konversationsanalyse suggeriert wird, da neben verbalen und non-verbalen Aspekten auch die Rolle des Visuell-Räumlichen von Sprachhandlungen verdeutlicht wird (Deppermann/Schütte/Ernst o. J.). In der englischsprachigen Literatur wird allerdings eher der Begriff discourse analysis als übergeordneter Begriff verwendet (z. B. Nunan 1993 oder Schiffrin/Tannen/Hamilton 2003), unter welchem neben interaktionsanalytischen teilweise auch konversationsanalytische Ansätze firmieren (z. B. Schiffrin 1994). Innerhalb der Diskursanalyse unterscheiden Ellis/Barkhuizen (2005) überdies zwischen interactional analysis und interaction analysis. Während interactional analysis dem deutschen Begriff Interaktionsanalyse entspricht, ist mit Letzerem ein im Vorfeld festgelegtes Beobachtungsraster gemeint, wie z. B. das von Flanders (1978) entwickelte FIAC (Flanders’ Interaction Analysis Categories) oder das Beobachtungsprotokoll von Brophy/ Good (1976) zur Lehrer-Schüler-Interaktion (s. Kapitel 5.2.3 zur Beobachtung). Ein etwas anderes, aber nichtsdestotrotz einflussreiches Modell von discourse analysis haben die britischen Linguisten John Sinclair und Malcolm Coulthard in ihrem Buch Towards an Analysis of Discourse (1975) entwickelt. Basierend auf einem sprechakttheoretischen Verständnis von (Unterrichts-)Interaktion stellen sie ein Analysemodell zur Beschreibung sprachlicher Handlungen vor, in dessen Mittelpunkt der sogenannte IRF-exchange (initiation-response-feedback33), zu Deutsch pädagogischer Austausch (z. B. Schwab 2009), steht. Diese dreischrittige Sequenz bildet das kommunikative Rückgrat des lehrerzentrierten Plenumunterrichts – in der Regel operationalisiert durch (1) Lehrerfrage, (2) Schülerantwort und (3) Feedback zur Schülerantwort (vgl. hierzu auch Becker-Mrotzek/Vogt 2001: 15 – 24). (b) Die Funktionale Pragmatik bezieht dagegen bei der analytischen Modellierung von Unterrichtsinteraktionen im Gegensatz zur Interaktions- und Konversationsanalyse die mentale Dimension der Interaktantinnen und Interaktanten explizit mit ein. In sogenannten Handlungsmustern wird das Zusammenspiel sprecher- und hörerseitiger mentaler Operationen und Entscheidungen mit interaktionalen Handlungsschritten (Pragmemen) in einem zweckgerichteten Ensemble rekonstruiert (s. einführend Becker-Mrotzek/Vogt 2001, Weber/Becker-Mrotzek 2012). So wird beispielsweise der oben beschriebene interaktionsanalytische IRF-pattern unter Einbezug von lehrpersonseitigen Einschätzungen und schülerseitigem Wissensabruf als Handlungsmuster „Aufgabe stellen – Aufgabe lösen“ in nicht nur drei Schritten, sondern als Zusammenspiel von 19 Pragmemen zum Zwecke des akzelerierten Wissenserwerbs modelliert (Ehlich/Rehbein 1986). Ein weiterer wichtiger 33 Manche Autorinnen und Autoren sprechen anstelle von feedback auch von evaluation und damit einem IRE exchange bzw. IRE structure (vgl. Walsh 2006: 46).

282

5. Forschungsverfahren

Unterschied zur Interaktions- und Konversationsanalyse besteht in der Annahme, dass Handlungsmuster gesellschaftlich ausgearbeitet und vermittelt sind. 2 Merkmale von Interaktionsanalyse und Funktionaler Pragmatik

Grundlegend für diskursanalytische Ansätze ist die Annahme, dass sprachliches Handeln und Lernprozesse gleichermaßen in sozialen Interaktionen sichtbar werden. Diese Grundannahme impliziert auch ein Verständnis von Lernen, welches den Erwerbsprozess nicht allein auf mentale Vorgänge des Einzelnen begrenzt, sondern vielmehr als interaktives Unterfangen beschreibt, bei dem alle Beteiligten eine Rolle spielen und somit den Prozess beeinflussen. Das sozio-kulturelle Verständnis von Kognition als mediated mind (Vygotsky 1978) unterstreicht diesen Gedanken des sozialen Charakters von Lernen. Auch der Erwerb einer Sprache muss im Kontext von interaktionalen Handlungenprozessen betrachtet werden, d. h. Prozessen, bei denen Menschen sich Sprache in der Begegnung mit anderen aneignen. Die Analyse von Interaktionen und Handlungsmustern im Fremdsprachenunterricht hat also demnach eine zweifache Orientierung. Zum einen werden die sprachlichen Handlungen en detail beschrieben und interpretiert; zum anderen wird versucht, das Lernen selbst in seiner interaktionalen Verortung zu beschreiben und hieraus Schlüsse für den Spracherwerb zu ziehen. Um dies zielführend umzusetzen, müssen bei der Analyse einige Prinzipien berücksichtigt werden, die im Folgenden aufgezeigt und erklärt werden (vgl. Ehlich/Rehbein 1986, Becker-Mrotzek/Vogt 2001, Deppermann 2001, Seedhouse 2004, Dalton-Puffer 2007, Schwab 2009, Weber/Becker-Mrotzek 2012). (a) Empirische Datengrundlage: Interaktionsanalyse und Funktionale Pragmatik basieren auf Daten, die in natürlichen Settings gewonnen werden. In der Regel sind dies Video- und/ oder Audiomitschnitte. Das schließt vorherige Absprachen (sogenannte Untersuchungsskripts) mit den Forschungssubjekten aus; vielmehr sollte das Unterrichtsgeschehen möglichst natürlich und unbeeinflusst von den Forschenden vonstatten gehen. Dabei geht man bei der Datenerhebung von einer nicht-teilnehmenden Beobachtung aus (s. Kapitel 5.2.3 zur Beobachtung), bei der die Forschenden nicht verdeckt, sondern für alle Akteure sichtbar mitschneiden. Mit observer’s paradox (Labov 1972) bezeichnet man das sich daraus ergebende Dilemma, dass Forschende bei Interaktionen anwesend sind, bei denen sich die Interaktantinnen und Interaktanten aber so verhalten sollen, als ob sie unbeobachtet wären. Häufig wird jedoch in Forschungsberichten konstatiert, dass sich der Zustand natürlichen Verhaltens recht schnell einstellt, gerade bei jüngeren Personen. (b) Emische Perspektive: Mit emischer Perspektive ist ein grundsätzliches Verständnis ethnographischer Arbeiten angesprochen, bei welchem das Handeln der Beteiligten aus deren Perspektive betrachtet wird (Seedhouse 2004). Nicht die Sichtweise der von außen beobachtenden Forscher (etische Perspektive) ist ausschlaggebend, sondern das Verständnis der Partizipientinnen und Partizipienten selbst. Ziel der Analyse muss sein, die ureigene Handlungslogik der Interaktantinnen und Interaktanten zu ergründen. Dies geht aus interaktionsanalytischer Perspektive nur, wenn man sich konsequent und permanent der Frage stellt „[W]hy that now?“ (Schegloff/Sacks 1973: 299), d. h., warum Akteure in einer konkreten Situation so und nicht anders handeln. Aus funktional-pragmatischer Per-

5.3.6 Diskursanalytische Auswertungsmethoden

283

spektive steht hingegen die Rekonstruktion der Handlungsziele der Beteiligten im Vordergrund, die sie in gesellschaftlich etablierten Handlungsmustern verfolgen. (c) Detail- und Materialtreue: Beide Ansätze implizieren, dass sämtliche Interpretationen und Deutungsvorschläge vom Material ausgehen, wobei die Konversationsanalyse sich hier deutlich von der Funktionalen Pragmatik unterscheidet und theoretische Überlegungen grundsätzlich hintan stellt. Nur was in den Daten sichtbar ist, sollte Berücksichtigung finden. A priori Annahmen, theoriegeleitet oder auf Alltagswissen beruhend, müssen zunächst außen vor bleiben. Dabei sollte eine Aufnahme immer Vorrang vor der Verschriftlichung (Transkription) haben. Allerdings sollte nie vergessen werden, dass auch ein Videomitschnitt immer nur einen Ausschnitt der Wirklichkeit darstellt. (d) Sequentialität von Interaktionen/Handlungsmuster: Die Interaktionsanalyse geht davon aus, dass Gespräche einer sequentiellen Ordnung folgen. Das bedeutet, Äußerungen bauen auf das unmittelbar zuvor Gesagte auf und werden in einem zeitlichen Kontinuum positioniert. In dieser Zeitlichtkeit ist auch der Analyseprozess zu sehen (‚Zeile für Zeile‘). Ein einzelner Redebeitrag (turn) steht also niemals unabhängig von anderen Äußerungen. Vielmehr hat jeder Beitrag einen bestimmenten Platz innerhalb einer Sequenz. Deppermann (2001) spricht daher auch von der Sequenzanalyse, d. h. der Untersuchung von sich fortschreibenden Sequenzen, die einer inhärenten Ordnung unterliegen. Sacks (1984: 22) hat dies mit „order at all points“ ausgedrückt. Gespräche gelten demnach auch dann noch als geordnet, wenn der subjektive Eindruck von einem vielstimmigen Durcheinander dominiert – was in einem Klassenzimmer ja immer wieder der Fall sein kann. Im Gegensatz dazu betont die Funktionale Pragmatik den zweckgebundenen Zusammenhalt verschiedener Pragmeme in einem Handlungsmuster. Die Sequentialität von Interaktionen wird auch bei der funktionalpragmatischen Analyse berücksichtigt; jedoch wird mit dem Konzept des Musterdurchlaufs die Linearität der Interaktion in eine zugrundliegende nicht-lineare Ordnung gebracht und zusätzlich auch der möglicherweise iterative Charakter von Handlungseinheiten (also die Möglichkeit mehrfacher Musterdurchläufe) erfasst. (e) Kontextualität: In enger Verbindung zur Sequentialität von Interaktionen steht der Begriff der Kontextualität, der nur für die Interaktionsanalyse zentral ist und in der Funktionalen Pragmatik nicht zu den grundlegenden Prinzipien gehört. Nach diesem Prinzip sind Sprachhandlungen immer aus ihrer unmittelbaren Situiertheit zu verstehen, d. h. im Kontext der sequentiellen Entfaltung einer Interaktion zu deuten (context-shaped). Dadurch sind sie gleichzeitig context-renewing: Jeder Beitrag, jede Äußerung schafft wiederum einen erweiterten, wenn nicht neuen Kontext (vgl. Seedhouse 2004). Partizipientinnen und Partizipienten realisieren das u. a. mithilfe linguistischer Mittel (z. B. deiktische Ausdrücke wie ‚er‘, ‚dieses‘ oder ‚dort‘), paralinguistischer Ressourcen (z. B. Intonation bei der Verabschiedung der Klasse) oder non-verbaler Handlungen (z. B. Proxemik oder Zeigen auf bestimmte Gegenstände oder Personen). Solche contextualization cues (Gumperz 1982) werden von den Interaktantinnen und Interaktanten permanent benutzt und gedeutet, um einem Gespräch den kontextuellen Rahmen zu geben, den man als Außenstehende(r) leicht als gegeben ansieht, ohne zu bemerken, wie er doch erst durch die Sprachhandlungen der Akteure zum Leben erweckt wird. Ein schönes Beispiel stellt die zielsprachliche Begrüßung am Anfang des Fremdsprachenunterrichts dar. Damit

284

5. Forschungsverfahren

wird der Kontext ‚zielsprachliche Interaktion‘ umgehend etabliert (context-shaped). Die zielsprachliche Erwiderung der Schülerinnen und Schüler manifestiert das und fungiert somit als context-renewing. (f) Offenheit gegenüber Methodentriangulation: Im Gegensatz zu einem rein konversationsanalytischen Verständnis attestieren wir den hier vorgestellten Ansätzen eine grundsätzliche Offenheit gegenüber anderen Methoden. „Methodenpurismus“ (Deppermann 2001: 15) wird besonders dann schwierig, wenn über die Gesprächsstruktur hinaus auch spracherwerbsspezifische Prozesse untersucht werden sollen. Als eine aktuelle Weiterentwicklung der hier vorgestellten (videobasierten) Interaktionsanalysen beschreibt Schramm (2016) die (triangulative) Videografie, die mittels weiterer (meist introspektiver und/oder befragender) Datenerhebungsmethoden den ethnographischen bzw. emischen Charakter der Untersuchung verstärkt. So untersucht Feick (2015) am Beispiel mexikanischer Lernender soziale Autonomie im DaF-Projektunterricht. Zusätzlich zu den Besprechungen der Projektgruppen erhebt sie Protokolle videobasierten Lauten Erinnerns der Gruppenteilnehmenden und kann auf diese Weise die Transkripte der Gruppengespräche um die individuellen (in der Gruppensituationen unausgesprochenen) Gedanken ergänzen, um auf dieser methodentriangulativen Basis eine fremdsprachendidaktisch motivierte diskursanalytische Untersuchung der Entscheidungsfindungen vorzunehmen. (g) Quantifizierbarkeit und Offenheit gegenüber videobasierter Unterrichtsforschung: Grundsätzlich lassen sich die interpretativ ausgewerteten Interaktionsdaten auch quantifizieren und damit für statistische Auswertungen nutzen. Beispielsweise verbindet Dauster (2007) bei der Untersuchung von Französischunterricht an Grundschulen qualitative Analysen von Unterrichtsmitschnitten mit einer Quantifizierung des erhobenen Datenmaterials, welches kodiert (z. B. nach Redeanteilen, Länge der Äußerungen) und statistisch ausgewertet wird. Ebenfalls vielversprechend erscheinen Designs zur Untersuchung von mehreren Variablen, bei denen (mindestens) eine Variable interaktionsanalytisch und andere Variablen mit anderen Verfahren ausgewertet werden, um Zusammenhänge zu untersuchen. So kombinieren beispielsweise Keßler/Schwab (2015) eine psycholinguistische Methode der individuellen Bestimmung mündlicher Sprachentwicklung (Processability Theory) mit interaktionaler Unterrichtsforschung (Conversation Analysis for Second Language Acquisition), um das Verhältnis zwischen Produkt und Prozess beim Fremdsprachenerwerb besser beschreiben zu können. Auch die Untersuchung von Eckerth (2003) illustriert einen solchen Mehrmethoden-Ansatz: Hier werden qualitative Verfahren der Unterrichtsbeobachtung (Audioaufnahmen von Lerner-Lerner-Interaktionen) und retrospektive Interviews mit quantitativen Daten (Sprachstandstests) in Verbindung gebracht. Prominentestes Beispiel für eine weitreichende videobasierte Unterrichtsforschung, die sich inferenzstatistischer Verfahren zur Modellbildung bedient, ist vermutlich die DESI-Videostudie (Helmke et al. 2008), in der Basiskodierungen von 105 transkribierten Englischstunden im Zusammenspiel mit zahlreichen anderen Variablen ausgewertet werden.

5.3.6 Diskursanalytische Auswertungsmethoden

285

3 Vorgehensweisen bei der Aufbereitung und Auswertung der Daten

Diskursanalytische Vorgehensweisen folgen keinem a priori genau festgelegten Verlaufsplan, sondern orientieren sich am Datenmaterial selbst. In solch einem Verfahren muss es stets darum gehen, was das Datum zeigt bzw. an interpretativen Deutungsmöglichkeiten bietet. Die eigentliche Theoriebildung ist diesem Prozess nachgestellt und verlangt daher eine zirkuläre Vorgehensweise (s. Kapitel 5.3.2), wobei Forschende immer wieder die einzelnen Schritte transparent machen und – wann immer möglich – im Sinne einer Forschendentriangulation mit Kolleginnen und Kollegen und diskutieren (s. Kapitel 4.4). Auch sollten die einzelnen Schritte nicht strikt voneinander getrennt werden. So ist es z. B. sinnvoll, zügig mit der Aufbereitung des Materials (Transkription) und ersten, zunächst vorläufigen Analysen zu beginnen. Dies ermöglicht bei weiteren Erhebungen einen fokussierten Blick auf bestimmte Phänomene, welche sich als besonders relevant herausgestellt haben (z. B. auffällige Proxemik, sprachliche Besonderheiten oder störendes Verhalten Einzelner). Sollten sich im Laufe der Analyse weitere Auffälligkeiten zeigen, so können diese in den Untersuchungsprozess miteinbezogen werden. Zur Verdeutlichung haben wir die wichtigsten Schritte in Abbildung 1 zusammengefasst und nachstehend erläutert. Nicht berücksichtigt haben wir dabei die ursprüngliche Entscheidung hinsichtlich des inhaltlichen Rahmens und der Zielsetzung eines Forschungsvorhabens. Hierbei wäre neben einer grundsätzlichen Entscheidung für die Methodologie insbesondere die Intention eines solchen Vorhabens zu berücksichtigen.

Abbildung 1: Diskursanalytische Arbeitsschritte

286

5. Forschungsverfahren

Datenaufbereitung

Audio- oder videografierte Gesprächsdaten (s. Kapitel 5.2.3) müssen für diskursanalytische Auswertungen grundsätzlich verschriftet, d. h. transkribiert werden.34 Eine Transkription basiert in der Regel auf einer Transkriptionskonvention, die sich an der Standardorthografie orientiert, aber auch non-verbale und parasprachliche Elemente einbeziehen kann. Inwieweit darüber hinaus eine phonetische Umschreibung nötig ist, hängt neben dem Datum selbst vor allem von der Zielsetzung des Vorhabens ab. Im deutschsprachigen Kontext finden die Transkriptionssysyteme GAT und HIAT besonders häufig Verwendung (vgl. Mempel/Mehlhorn 2014). Mit GAT bzw. GAT 2 (Gesprächsanalytisches Transkriptionssytem) (Selting et al. 2009) können ausgehend von einer sequentiellen Darstellung (Zeile für Zeile) mit unterschiedlicher Genauigkeit (Minimal-, Basis- oder Feintranskript) verbale und non-verbale Gesprächsdaten (also auch deren paralinguistische Merkmale, z. B. Prosodie) verschriftlicht werden, ohne dass ein besonderer Schriftsatz (z. B. IPA-Lautschrift) verwendet werden muss. Das grundlegende Inventar der zu verwendenden Zeichen und Regeln ist im Anhang dieses Beitrags beigefügt. Mittlerweile werden in gesprächsanalytischen Arbeiten immer häufiger auch sogenannte multimodale Analysen durchgeführt (z. B. Schmitt 2011). Hierbei finden neben den Transkripten auch (Stand-)Bilder (screenshots) aus den Videos Berücksichtigung. Das System der Halbinterpretativen Arbeitstranskription (HIAT) ist dagegen eher mit funktionalpragmatischen Untersuchungen verknüpft (Rehbein et al. 2004). Charakteristisch für HIAT ist u. a. die Partiturschreibweise, mit der die Simultaneität von verbalen, non-verbalen und aktionalen Handlungen detailgenau abgebildet wird. Das in Abbildung 2 abgedruckte Transkriptbeispiel zeigt fünf Partiturflächen, in denen 17 Segmente und der Beginn eines 18. Segments nummeriert sind. Bei den meisten Segmenten handelt es sich um Äußerungen, die in den Verbalspuren der Lehrerin mit dem Pseudonym LIAB und des Schülers mit dem Pseudonym AIASG abgebildet sind. In Partiturfläche 5 ist jedoch auch eine Spur für nonverbale Kommunikation (NVK) zu erkennen, in der das lehrerinnenseitige Gestikulieren einer ziehenden Bewegung und ein zweisekündiges Nicken notiert wurden. Betonungen wurden gemäß der HIAT-Konventionen mit einer Unterstreichung, Reparaturen mit „/“ und Abbrüche mit „…“ markiert. Bei „Hmhm“ (Segment 16 in Partiturfläche 5) wurde der fallendsteigende Intonationsverlauf angegeben, um den bestätigenden Charakter der Interjektion zu dokumentieren.

34 Hierfür gibt es mittlerweile eine Reihe an Computerprogrammen, die Forschende bei dieser Arbeit unterstützen (s. Kapitel 5.2.6). Diese Programme bieten überdies bereits Applikationen, welche bei der Analyse der Daten helfen.

5.3.6 Diskursanalytische Auswertungsmethoden

287

Abbildung 2: Ausschnitt aus dem Transkript „Wuschelbär“ (Schramm 2006)

Datenanalyse

An dieser Stelle kann keine ausführliche Darstellung aller möglichen Aspekte diskursanalytischer Transkriptauswertungen erfolgen. Hierfür empfehlen wir z. B. Ehlich/Rehbein (1986), Deppermann (2001), Becker-Mrotzek/Vogt (2001) oder Seedhouse (2004). Für die Interaktionsanalyse gilt jedoch grundlegend, dass „[d]ie detaillierte Sequenzanalyse […] das Herzstück der Gesprächsanalyse [ist]“ (Deppermann 2001: 53). Hier geschieht die wichtigste Arbeit, an deren Ende eine in sich stringente Interpretation des vorhandenen Datenmaterials steht. Für Neulinge der Interaktionsanalyse stellt sich immer wieder die Frage, wo überhaupt begonnen werden kann, nachdem man erste Erhebungen gemacht hat. Deppermann schreibt hierzu: Üblicherweise sucht man Passagen aus, die auffällige, neuartige etc. Phänomene enthalten, klare Fälle (‚clear cases‘) einer Gesprächspraktik zu sein scheinen oder offenbare Verdeutlichungsleistungen (‚displays‘) der Interaktionsteilnehmer beinhalten. (Deppermann 2001: 52; Hervorhebung im Original)

Solch ein phänomenologischer Zugang entwickelt sich am Material selbst (data-driven) und impliziert im Gegensatz zu einem theoriegeleiteten Vorgehen (theory-driven) den Vorrang der konkreten Praxis über die Theorie. Nachdem eine erste Sequenz beschrieben und analysiert wurde, werden weitere, vergleichbare Stellen gesucht und, basierend auf den ersten Erkenntnissen, untersucht. Im Laufe der weiteren Analyse ergibt sich eine Kollektion an Sequenzen, die auf ein bestimmtes Interaktionsmuster hinweist. Dies nennt man eine Gesprächspraktik. Im Kontext der schulischen Interaktion gehört der pädagogische Austausch respektive IRF-

288

5. Forschungsverfahren

exchange (initiation – response – feedback) (Sinclair/Coulthard 1975) sicherlich zur bekanntesten interaktionalen Praktik im schulischen Umfeld. Funktionalpragmatische Transkriptanalysen beginnen in Abhängigkeit von der Forschungsfrage häufig mit der Segmentierung der fortlaufenden Interaktion in über- und untergeordnete Handlungseinheiten, wobei sowohl inhaltliche Aspekte als auch sprachliche Gliederungssignale Berücksichtigung finden. Entscheidender Motor der Analyse ist die Frage nach dem Zweck sprachlicher Handlungen; unter dieser Perspektive werden die Illokutionen der einzelnen Äußerungen bestimmt und die involvierten mentalen Handlungsschritte rekonstruiert. Fremdsprachenunterrichtsspezifische Beispiele sind das verständnissichernde Handeln oder die didaktische Frage (display questions). Auch größere Formen wie Erzählungen im Morgenkreis der Grundschule sind Gegenstand der Analyse und können auf funktionalpragmatischer Basis beispielsweise präzise von Berichten oder Beschreibungen abgegrenzt und in Bezug auf ihren Zweck in zahlreiche Untertypen wie Leidens-, Sieges-, Klatsch- oder Angebergeschichten unterteilt werden. Auch die Frage, wie Institutionen das sprachliche Handeln beeinflussen oder überformen, wird thematisiert und beispielsweise das Erzählen in der Schule im Vergleich zum Erzählen vor Gericht, im Krankenhaus oder auf dem Sozialamt untersucht. Ein wichtiges Charakteristikum diskursanalytischer Interpretationen ist ihre Überprüfbarkeit an den entsprechenden Transkripten. Das Gütekriterium der intersubjektiven Nachvollziehbarkeit wird dadurch erfüllt, dass die Leserinnen und Leser am Material selbst die Interpretation nachvollziehen und bei Bedarf im Anhang der Forschungsarbeit den Transkriptausschnitt in seinem Kontext situiert nachlesen können. Theoriebildung

Ausgehend von der Datenanalyse kommt es zur Theoriebildung, die auf einer Zusammenführung der Interpretationen mit der einschlägigen Literatur beruht. Hierbei geht es vor allem um die Abstraktion und Verallgemeinerung der gewonnenen Erkenntnisse, welche wiederum auf den Transkriptdaten basieren. Da bei diskursanalytischen Untersuchungen im Vorfeld keine Hypothesen gebildet werden, muss es an dieser Stelle darum gehen, die Forschungsfragen zu beantworten und in einen größeren Forschungskontext zu stellen. Während gesprächsanalytische Arbeiten versuchen, sogenannte Gesprächspraktiken herauszuarbeiten (vgl. Deppermann 2001), gilt es bei der Funktionalen Pragmatik, Handlungsmuster zu eruieren. Hierbei geht es jeweils um übergeordnete (Sinn-)Strukturen, welche für bestimmte Gesprächsabläufe konstituierend sind. So untersuchte z. B. Méron-Minuth (2009: 11), „wie sich eine Gruppe von Grundschülerinnen und -schülern in einem immersiv angelegten Fremdsprachenunterricht kommunikationsstrategisch einbringt“ und ihre Anliegen mit ihren zielsprachlichen Mitteln realisiert. Basierend auf transkribierten Videoaufzeichnungen sowie Protokollen der beteiligten Lehrpersonen als auch Protokollen zu den videografierten Stunden analysierte sie das umfangreiche Korpus. In dieser Studie konnte eine detaillierte Typologie an Kommunikationsstrategien herausgearbeitet werden, die von Schülerinnen und Schülern im Verlauf ihrer ersten vier Jahre Fremdsprachenunterricht entwickelt und eingesetzt wurden.

5.3.6 Diskursanalytische Auswertungsmethoden

289

4 Beispielanalyse

Im Folgenden soll exemplarisch an der interaktionsanalytischen Referenzarbeit von Schwab (2009) gezeigt werden, wie eine Unterrichtsdiskursanalyse konkret aussehen kann. Nachdem der Feldzugang und damit die Möglichkeit der Datenerhebung mit Lehrperson, Schulleitung, Eltern und Schulbehörde abgeklärt worden war, konnten die ersten Video- und Audioaufnahmen gemacht werden. Die Transkription erfolgte parallel zu den Aufnahmen und ersten Analysen nach der Konvention GAT. Dabei wurden folgende Aspekte als zentral und unterrichtskonstituierend herausgearbeitet: (1) Lehrerinitiative, (2) Schülerinitiative (vgl. auch van Lier 2001). Insbesondere die Konstitution der sogenannten Schülerinitiative im lehrerzentrierten Unterrichtsgespräch erwies sich als auffällig, bedeutungsvoll und bis dahin wenig beforscht. Das Korpus wurde daraufhin gezielt auf dieses Phänomen hin untersucht und es wurden Ankerbeispiele herausgearbeitet respektive zu einer Kollektion verdichtet. In Abbildung 3 ist ein Beispiel aus der Kollektion abgebildet. Es soll exemplarisch analysiert und in den größeren Kontext der Arbeit eingebettet werden. Die hier als Schülerinitiative bezeichnete Gesprächspraktik ist in Zeile 7 sichtbar. Sequentiell positioniert die Schülerin ihren leise artikulierten Beitrag unmittelbar in die kurze Lücke, die sich nach der Lehrerfrage auftut, obschon sie nicht von ihr aufgerufen wurde (self selection). Inhaltlich könnte man die Äußerung als Antwort auf die Frage (ohne direkten Adressaten) kennzeichnen, da sie thematisch an die Frage anschließt und ihren Beitrag in die von der Lehrerin angebotene sequentielle Lücke setzt. Allerdings passiert hier etwas anderes. Die Reaktion der Lehrperson in Zeile 8 (‚mit leichtem Lächeln‘) zeigt die Besonderheit des Schülerbeitrags, mit der die Lehrerin scheinbar nicht gerechnet hat. Dementsprechend wird Rachels Beitrag auch nicht evaluiert, sondern generiert eine neue Sequenz, die kurzerhand eingeschoben wird. Aus einem gewöhnlichen pädagogischen Austausch bzw. IRF-exchange (Sinclair/Coulthard 1975) entwickelt sich ein sogenanntes Nachbarschaftspaar (adjacency pair) mit wechselseitigen Beiträgen (Zeile 7/8 – 9/10), wobei gerade die Schülerin die wichtige Position am Anfang der Sequenz und damit die Initiative übernimmt. Nachbarschaftspaare stellen nach interaktionsanalytischer Auffassung in nicht-institutionellen, alltäglichen Gesprächen die sequentielle Grundstruktur dar und bilden das strukturelle Grundgerüst für informelle Kommunikation. In solchen Situationen adäquat zu agieren ist ein bedeutsames Ziel kommunikativen Unterrichts. Das scheint hier ansatzweise der Fall zu sein, wobei  – wiederum ein typisches Phänomen unterrichtlicher Interaktionswirklichkeit – die Lehrperson in Zeile 13 zum ursprünglichen Modus zurückkehrt und eine neue Frage stellt, nachdem von Rachel kein weiterer Beitrag folgt. Die Analyse weiterer solcher Beispiele verdeutlicht, wie diese Gesprächspraktik einer Schülerinitiative von den Partizipientinnen und Partizipienten in lehrpersonenzentrierte Gesprächsabläufe integriert wird. Lehrpersonen können kommunikative Räume zur Verfügung stellen und damit die interaktionale Kontrolle kurzfristig abgeben. Sie holen sich diese Kontrolle aber immer wieder zurück, um das Unterrichtsgeschehen in ihrem Sinne fortführen zu können (vgl. Zeile 13). Von Schülerseite wird dies im Regelfall akzeptiert. Im Rückgriff auf die einschlägige Literatur zeigt sich, dass diese Gesprächspraktik bisher nur in Ansätzen behandelt wurde (z. B. Garton 2012). Zumeist wird zwischen lehrerzen-

290

5. Forschungsverfahren

Abbildung 3: Exzerpt Schülerinitiative (Schwab 2009: 24) (Legende zu den verwendeten GAT2-Transkriptionskonventionen s. Anhang)

trierten Interaktionen, die allein auf dem pädagogischen Austausch basieren, und schülerzentrierten und damit eher gleichberechtigen Gesprächsformen unterschieden. Eine detaillierte Untersuchung von Unterrichtsgesprächen zeigt hingegen eine weitaus größere Komplexität und vermag überdies Impulse für einen bewussteren und kommunikativer gestalteten Unterricht geben (vgl. Schwab 2014). So wird deutlich, dass mithilfe der Interaktionsanalyse detaillierte Einsichten in unterrichtliche Interaktionsabläufe gewonnen werden können, die mit anderen Methoden kaum auszumachen wären. 5 Potenzial für die Fremd- und Zweitsprachendidaktik

Diskursanalytische Untersuchungen des Fremdsprachenunterrichts verlangen allen Beteiligen viel ab (s. Kapitel 4.6 zur Forschungsethik). Die Forschungspartnerinnen und Forschungspartner – insbesondere die beteiligten Lehrpersonen – müssen eine große Offenheit gegenüber dem Vorhaben mitbringen und auch über einen längeren Zeitraum behalten. Sie müssen bereit sein, sich einer akribischen Analyse ihres Gesprächsverhaltens zu unterziehen, was gerade im Fremdsprachenunterricht, wo auch auf Lehrendenseite Fehler nicht ausbleiben,

le I

n te ra ktio n i n d

e

Von der Deskription zur Interpretation eg

Theoriebildung

rB

ation in Gr unik up m pe m n o K

z ia

Analyse

Linguistik, funktionale Pragmatik Interaktion und mentale Dimension des sprachlichen Handelns in gesellschaftlich etablierten Handlungsmustern, z.B. „Aufgabe stellen Aufgabe lösen“

Forschungstraditionen

Analyse (nicht)sprachlicher Handlungen in sozialer Interaktion

5.3.6 Diskursanalytische Auswertungsmethoden

so

- Daten aus natürlichen Settings (Audio/Video, teilnehmende Beobachtung) - emische Perspektive - Detail- und Materialtreue - Sequentialität bzw. Handlungsmuster - Kontextualität - Offenheit gegenüber Methodentriangulation - Quantifizierbarkeit

eg

nun g m it a n d er en



© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Prinzipien

Soziologie, Ethnomethodologie Konversations-/Gesprächsanalyse: verbale, non-verbale, visuell-räumliche Merkmale sprachlicher Interaktion

ls

na Lerne

291 5.3.6 Diskursanalytische Auswertungsmethoden

292

5. Forschungsverfahren

nicht selbstverständlich ist. Je nach Zielsetzung der Studie ist der eigentliche Gewinn der Untersuchung nicht unbedingt für Lehrpersonen einsichtig – es sei denn, man bezieht sie von vornherein in den Analyseprozess mit ein (z. B. Schwab 2014); das ist aber nicht immer möglich und/oder zielführend. Als diskursanalytische Forschungsdesiderate lassen sich vier zentrale Bereiche nennen. Erstens überwiegt die Zahl der Untersuchungen zum Plenumsunterricht bei weitem und es besteht ein großer Bedarf an der Untersuchung von lernerzentrierten Interaktionen (z. B. bei Partner- und Gruppenarbeit). Zweitens geht es um Möglichkeiten, interaktionale und psycholinguistische Ansätze zu verknüpfen, also den Versuch, Prozess und Produkt des Zweit- und Fremdspracherwerbs in institutionellen Lernumgebungen besser zu verzahnen (vgl. Keßler/Schwab 2015). Drittens sind im Hinblick auf die Verbindung von sprachlichem und fachlichem Lernen auch interdisziplinäre Verknüpfungen diskursanalytischer Verfahren mit anderen fachdidaktischen Vorgehensweisen von Interesse. So zeigen Schramm/Hardy/ Saalbach/Gadow (2013) und Gadow (2016) am Beispiel des wissenschaftlichen Begründens im Sachunterricht der Grundschule das Potenzial, aber auch die terminologischen Herausforderungen einer solchen Theorientriangulation auf. Viertens sind im Sinne einer videobasierten Unterrichtsforschung Möglichkeiten der Quantifizierung diskursanalytischer Interpretationen und der inferenzstatistischen Auswertung zu Zwecken der Modellbildung zu eruieren. Somit bieten diskursanalytische Auswertungsverfahren nicht nur die Möglichkeit einer fokussierten Perspektive auf unterrichtliche Interaktionsabläufe, sondern auch eine Vielzahl an Anknüpfungspunkten an andere Herangehensweisen und Traditionen innerhalb der Erforschung des Fremdsprachenunterrichts. ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Becker-Mrotzek, Michael/Vogt, Rüdiger (2001). Unterrichtskommunikation. Linguistische Analysemethoden und Forschungsergebnisse. Tübingen: Niemeyer. Brophy, Jere E./Good, Thomas L. (1976). Die Lehrer-Schüler-Interaktion. München: Urban & Schwarzenberg. *Dalton-Puffer, Christiane (2007). Discourse in Content and Language Integrated Learning (CLIL) Classrooms. Amsterdam: Benjamins. *Dauster, Judith (2007). Früher Fremdsprachenunterricht Französisch: Möglichkeiten und Grenzen der Analyse von Lerneräußerungen und Lehr-Lern-Interaktion. Stuttgart: Ibidem. Deppermann, Arnulf (2001). Gespräche analysieren  – Eine Einführung in konversationsanalytische Methoden. 2. durchgesehene Auflage. Opladen: Leske und Budrich. Deppermann, Arnulf/Schütte, Wilfried/Ernst, Hannah (o. J.). Datenerhebung. GAIS – Gesprächsanalytisches Informationssystem [Online: http://prowiki.ids-mannheim.de/bin/view/GAIS/Daten​­Erhebung] (16. 09. 2015). *Eckerth, Johannes (2003). Fremdsprachenerwerb in aufgabenbasierten Interaktionen. Tübingen: Narr. *Ehlich, Konrad/Rehbein, Jochen (1986). Muster und Institution: Untersuchungen zur schulischen Kommunikation. Tübingen: Narr. Ellis, Rod/Barkhuizen, Gary (2005). Analysing Learner Language. Oxford: Oxford University Press.

5.3.6 Diskursanalytische Auswertungsmethoden

293

Feick, Diana (2015). Autonomie der Lernendengruppe. Entscheidungsdiskurs und Mitbestimmung in einem DaF-Handyvideoprojekt. Tübingen: Narr. Flanders, Ned A. (1978). Analyzing Teaching Behavior. Reading, Mass. [u. a.]: Addison-Wesley. Gadow, Anne (2016). Bildungssprachliches Handeln von Kindern mit deutscher und anderer Familiensprache. Beschreiben und Erklären im naturwissenschaftlichen Sachunterricht in der Jahrgangsstufe 4. Berlin: ESV. Garton, Sue (2012). Speaking out of turn? Taking the initiative in teacher-fronted classroom interaction. In: Classroom Discourse 1, 29 – 45. Goffmann, Erving (1981). Forms of Talk. Oxford: Blackwell. Gumperz, John J. (Hg.) (1982). Language and Social Identity. Cambridge: Cambridge University Press. Helmke, Tuyet/Helmke, Andreas/Schrader, Friedrich-Wilhelm/Wagner, Wolfgang/Nold, Günter/Schröder, Konrad (2008). Die Video-Studie des Englischunterrichts. In: DESI-Konsortium (Hg.). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Ergebnisse der DESI-Studie. Weinheim: Beltz, 345 – 363. Henne, Helmut/Rehbock, Helmut (2001). Einführung in die Gesprächsanalyse. 4. durchgesehene und bibliographisch ergänzte Auflage. Berlin: Walter de Gruyter. Henrici, Gert (1995). Spracherwerb durch Interaktion? Eine Einführung in die fremdsprachenerwerbsspezifische Diskursanalyse. Baltmannsweiler: Schneider Verlag Hohengehren. *Hoshii, Makiko/Schumacher, Nicole (2010). Videokonferenz als interaktive Lernumgebung – am Beispiel eines Kooperationsprojekts zwischen japanischen Deutschlernenden und deutschen DaF-Studierenden. In: gfl-journal 2, 71 – 91. House, Juliane (1991). Interaktion. In: Bausch, Karl-Richard/Christ, Herbert/Hüllen, Werner/Krumm, Hans-Jürgen (Hg.). Handbuch Fremdsprachenunterricht. 2. unveränderte Auflage. Tübingen: Francke, 405 – 409. *Keßler, Jörg-U./Schwab, Götz (2015). CA meets PT: Language development at the crossroads. In: Baten, Kristof/Buyl, Aafke/Lochtman, Katja/Van Herreweghe, Mieke (Hg.). Theoretical and Methodological Developments in Processability Theory. Amsterdam: John Benjamins, 175 – 204. Labov, William (1972). Sociolinguistic Patterns. Philadelphia, PA: University of Pennsylvania Press. *Mehan, Hugh (1979). Learning Lessons: Social Organization in the Classroom. Cambridge, MA: Harvard University Press. Mempel, Caterina/Mehlhorn Grit (2014). Datenaufbereitung: Transkription und Annotation. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 147 – 166. *Méron-Minuth, Sylvie (2009). Kommunikationsstrategien von Grundschülern im Französischunterricht. Eine Untersuchung zu den ersten vier Lernjahren. Tübingen: Narr. Nunan, David (1993). Introducing Discourse Analysis. Hammondsworth: Penguin English. Rehbein, Jochen/Schmidt, Thomas/Meyer, Bernd/Watzke, Franziska/Herkenrath, Annette (2004). Handbuch für das computergestützte Transkribieren nach HIAT. In: Arbeiten zur Mehrsprachigkeit, Folge B 56 [Online: http://www.exmaralda.org/files/azm_56.pdf] (23. 9. 2015). Sacks, Harvey (1984). Notes on methodology. In: Atkinson, J. Maxwell/Heritage, John (Hg.). Structures of Social Action. Studies in Conversation Analysis. Cambridge: Cambridge University Press, 21 – 27. Schegloff, Emanuel A./Sacks, Harvey (1973). Opening up Closings. In: Semiotica 4, 289 – 327. Schiffrin, Deborah (1994). Approaches to Discourse. Oxford: Blackwell. *Schiffrin, Deborah/Tannen, Deborah/Hamilton, Heidi E. (Hg.) (2003). The Handbook of Discourse Analysis. Malden, MA: Blackwell. Schmitt, Reinhold (Hg.) (2011). Unterricht ist Interaktion! Analysen zur De-facto-Didaktik. Mannheim: Institut für Deutsche Sprache.

294

5. Forschungsverfahren

Schramm, Karen (2006). Transkript Wuschelbär. [Online: http://spzwww.uni-muenster.de/griesha/dpc/ trs/Wuschelbaer.pdf] (22. 09. 2015). Schramm, Karen (2016). Unterrichtsforschung und Videografie. In: Burwitz-Melzer, Eva/Mehlhorn, Grit/Riemer, Claudia/Bausch, Karl-Richard/Krumm, Hans-Jürgen (Hg.). Handbuch Fremdsprachenunterricht. 6., völlig überarbeitete und erweiterte Auflage. Tübingen: Francke, 587–592. *Schramm, Karen/Hardy, Ilonca/Saalbach, Henrik/Gadow, Anne (2013). Wissenschaftliches Begründen im Sachunterricht. In: Becker-Mrotzek, Michael/Schramm, Karen/Thürmann, Eike/Vollmer, Helmut Johannes (Hg.). Sprache im Fach. Sprachlichkeit und fachliches Lernen. Münster u. a.: Waxmann, 295 – 314. *Schwab, Götz (2009). Fremdsprachenunterricht und Konversationsanalyse. Landau: Verlag Empirische Pädagogik. [Referenzarbeit, Kapitel 7] *Schwab, Götz (2011). From dialogue to multilogue: a different view on participation in the English foreign language classroom. In: Classroom Discourse 1, 3 – 19. *Schwab, Götz (2014). LID  – Lehrerprofessionalisierung im Diskurs. Eine Pilotstudie zur gesprächanalytischen Beratung von Englischlehrkräften in der Realschule. In: Pieper, Irene/Frei, Peter/Hauenschild, Katrin/Schmidt-Thieme, Barbara (Hg.). Was ist der Fall. Fallarbeit in Lehrerbildung und Bildungsforschung. Wiesbaden: VS Verlag, 89 – 105. *Seedhouse, Paul (2004). The Interactional Architecture of the Language Classroom: a Conversation Analysis Perspective. Oxford: Blackwell. Selting, Margret/Auer, Peter/Barth-Weingarten, Dagmar/Bergmann, Jörg/Bergmann, Pia/Birkner, Karin/ Couper-Kuhlen, Elizabeth/Deppermann, Arnulf/Gilles, Peter/Günthner, Susanne/Hartung, Martin/ Kern, Friederike/Mertzlufft, Christine/Meyer, Christian/Morek, Miriam/Oberzaucher, Frank/Peters, Jörg/Quasthoff, Uta/Schütte, Wilfried/Stukenbrock, Anja/Uhmann, Susanne (2009). Gesprächsanalytisches Transkriptionssystem 2 (GAT 2). In: Gesprächsforschung – Online-Zeitschrift zur verbalen Interaktion 10, 353 – 402 [Online: www.gespraechsforschung-ozs.de] (22. 09. 2015). Sinclair, John McH./Coulthard, Richard M. (1975). Towards an Analysis of Discourse. The English Used by Teachers and Pupils. Oxford: Oxford University Press. van Lier, Leo (1996). Interaction in the Language Curriculum: Awareness, Autonomy and Authenticity. London: Longman. van Lier, Leo (2001). Constraints and Resources in Classroom Talk: Issues of Equality and Symmetry. In: Candlin, Christopher N./Mercer, Neil (Hg.). English Language Teaching in its Social Context: a Reader. London: Routledge, 90 – 107. Vygotsky, Lev Semyonovich (1978). Mind in Society. Cambridge, MA: Harvard University Press. Weber, Peter/Becker-Mrotzek, Michael (2012). Funktional-pragmatische Diskursanalyse als Forschungs- und Interpretationsmethode [Online: http://www.fallarchiv.uni-kassel.de/wp- content/ uploads/2012/06/weber_mrotzek_diskurs_ ofas.pdf (8. 3. 2015). »»  Zur Vertiefung empfohlen Becker-Mrotzek, Michael/Vogt, Rüdiger (2001). Unterrichtskommunikation. Linguistische Analysemethoden und Forschungsergebnisse. Tübingen: Niemeyer. Hier werden u. a. exemplarisch die Vorgehensweisen der Funktionalen Pragmatik (Ehlich/Rehbein 1986), Konversationsanalyse (Mehan 1979) und Diskursanalyse (Sinclair/Coulthard 1975) dargestellt. Anhand von Gruppendiskussionen oder des fragend-entwickelnden Unterrichts werden Beispielanalysen durchgeführt. Der Fokus liegt allerdings nicht auf dem Fremdsprachen-, sondern dem Deutschunterricht.

5.3.6 Diskursanalytische Auswertungsmethoden

295

Markee, Numa (2000). Conversation Analysis. Mahwah, NJ: Erlbaum. Anhand einiger Beispiele aus dem Zweitsprachunterricht (English as a Second Language) an amerikanischen Hochschulen zeigt der Autor, wie Conversation Analysis for Second Language Acquisition (CA-for-SLA) funktionieren kann. Dabei wird bewusst die Verbindung zwischen Interaktionsanalyse respektive Konversationsanalyse und Zweit-/ Fremdspracherwerb angegangen. Walsh, Steven (2006). Investigating Classroom Discourse. London: Routledge. Der Autor gibt einen Überblick über verschiedene Ansätze der Diskurs- und Konversationsanalyse und stellt einschlägige Studien kurz vor. Darauf basierend entwickelt er das Analyseinstrument SETT (Self Evaluation of Teacher Talk) und stellt es anhand zahlreicher Beispiele ausführlich vor. Weber, Peter/Becker-Mrotzek, Michael (2012). Funktional-pragmatische Diskursanalyse als Forschungs- und Interpretationsmethode [Online: http://www.fallarchiv.uni-kassel.de/wpcontent/​uploads/2012/06/weber_mrotzek_diskurs_ ofas.pdf] (9. 8. 2015). Diese kurze, verständlich geschriebene Einführung in die funktional-pragmatische Diskursanalyse aus dem Online-Fallarchiv Schulpädagogik der Universität Kassel gibt einen umfassenden Überblick über die theoretischen Grundlagen, das methodische Vorgehen und die Kritik, die an der Funktionalen Pragmatik geübt wurde. Auch Fragen der Verbindung mit quantitativen Verfahren und der empirischen Bildungsforschung werden dabei angesprochen.

»»  Anhang

Das gesprächsanalytische Transkriptionssystem (GAT 2) nach Selting et al. (2009) – Komprimierte Darstellung []

Überlappung und Simultansprechen

=

schneller, unmittelbarer Anschluss neuer Sprecherbeiträge oder Segmente (latching).

(.)

Mikropause

( – ), ( – - ), ( – - - )

kurze, mittlere, längere Pausen von ca. 0.25 – 0.75 Sek.; bis ca. 1 Sek.

(3.5)

genaue Zeit bei Pausen von mehr als 1 Sek. Dauer

und_ä h

Verschleifungen innerhalb von Einheiten

:, : :, : : :

Dehnung, Längung, je nach Dauer

/

Abbruch nach Glottalverschluss (Ergänzung G. S.)

°h/h°

einatmen bzw. ausatmen

a k Z E NT

Fokusakzent

a k ! Z E NT !

extra starker Akzent

296

5. Forschungsverfahren

?

hoch steigend

,

mittel steigend

-

gleich bleibend

;

mittel fallend

.

tief fallend

((hustet))

para-/außersprachliche Handlungen/Ereignisse

>

sprachbegleitende para- und außersprachliche Handlungen, Ereignisse und Interpretationen mit Reichweite

()

unverständliche Passage nach Länge

(solche)

vermuteter Wortlaut

( s o l c h e/w e l c h e )

mögliche Alternativen

[...]

bei Auslassung mehrerer Zeilen [Ergänzung der Autoren]

`SO

fallend

´SO

steigend

´` S O

steigend-fallend



kleinere Tonhöhensprünge nach oben



kleinere Tonhöhensprünge nach unten

↑↑

größere Tonhöhensprünge nach oben

↓↓

größere Tonhöhensprünge nach unten



Verweis auf im Text behandelte Transkriptzeile

< < t >>

tiefes Tonhöhenregister

< < h >>

hohes Tonhöhenregister

< < f >>

forte, laut

< < f f >>

fortissimo, sehr laut

< < p >>

piano, leise

5.3.7 Analyse von Lernersprache

< < p p >>

pianissimo, sehr leise

< < a l l >>

allegro, schnell

< < l e n >>

lento, langsam

< < c r e s c >>

crescendo, lauter werdend

< < d i m >>

diminuendo, leiser werdend

< < a c c >>

accelerando, schneller werdend

< < r a l l >>

rallentando, langsamer werdend

297

5.3.7 Analyse von Lernersprache Nicole Marx/Grit Mehlhorn 1 Begriffsklärung

Das Konzept der Lernersprache (interlanguage, Selinker zuerst 1969, veröffentlicht 1972) und die Idee, diese zu analysieren, haben zu einem grundlegenden Perspektivenwechsel in der Fremdsprachenforschung und -didaktik geführt. Das Lernersprachenkonzept entwickelte sich aus unterschiedlichen Forschungstraditionen, wobei v. a. die Kontrastive Analyse (vgl. Fries 1945, Lado 1957 und Weinreich 1953) und die Fehleranalyse (error analysis, u. a. Corder 1967) eine große Rolle spielten. Es wuchs aus dem Verständnis heraus, dass das erfolgreiche Lernen einer neuen Sprache nicht nur durch die Zielsprache an sich sowie den Fleiß des Lernenden beeinflusst wird, sondern auch durch andere Faktoren wie das System der Erstsprache. Da die Lernersprachenanalyse seit den ersten Auseinandersetzungen mit dem Thema eines der wichtigsten Standbeine der Fremdsprachenforschung ist, wird ihr in diesem Werk ein gesondertes Kapitel gewidmet. Lernersprache – im Deutschen auch bekannt als Interimsprache (Raabe 1974) – bezeichnet das individuelle sprachliche System, das Lernende beim Aneignen einer Zielsprache im Verlaufe ihres Sprachlernprozesses aufbauen und das ihren Äußerungen zugrundeliegt (u. a. Selinker 1972, 1992, Corder 1967, 1974, Nemser 1971). Lernersprachen sind somit nicht nur unvollständige Versionen einer langue (i.S. Saussures), sondern dynamische und hoch individuelle Systeme eines jeden Sprechenden. Sie enthalten zu nicht prognostizierbaren Anteilen neben Merkmalen der Zielsprache auch Eigenschaften der Erst- und weiterer Fremdsprachen (vgl. Selinker 1992: 164) sowie Merkmale, die keinem anderen, dem Lernenden bekannten Sprachsystem zugeschrieben werden können. Sie können sich immer weiter in Richtung zielsprachlicher Strukturen entwickeln. Lernersprache ist vor allem durch Dynamik und Individualität gekennzeichnet. Die Dynamik der Lernersprache zeigt sich im kontinuierlichen Prozess des Bildens und Testens von Hypothesen über die Zielsprache (vgl. u. a. Herdina/Jessner 2002, Zhao/Song/Cherrington 2013: 357). Zudem ist jede Lernersprache individuell und stellt ein System dar, das auf be-

298

5. Forschungsverfahren

stimmten – z. T. recht idiosynkratischen – Regeln basiert, die durchgehend überprüft und evtl. korrigiert, erweitert, verworfen oder verfestigt werden. Dies zeigt sich u. a. durch systematische Abweichungen von der Zielsprache (Fehler). Zur Individualität von Lernersprachen gehört auch ihre Instabilität auf Grund persönlicher und situationeller Faktoren. Wer müde, aufgeregt oder desinteressiert ist, wird i. d. R. seine sprachlichen Kompetenzen anders präsentieren als diese tatsächlich sind. Ziel der Lernersprachenanalyse ist es, die Performanz von Lernenden zu untersuchen, um Aufschlüsse über den jeweiligen individuellen Lernstand zu gewinnen und evtl. die Entwicklung der Sprachkompetenzen von Lernenden nachzeichnen zu können. Bei der Untersuchung der Lernersprache müssen v. a. die genannten Merkmale der Dynamik und Individualität beachtet werden. 2 Zu untersuchende Aspekte von Lernersprache

Das wissenschaftliche Interesse an Lernersprache konzentriert sich nicht nur auf Ausprägungen des jeweils untersuchten sprachlichen Systems bei einzelnen Lernenden, sondern auch auf kognitive Prozesse, die beim Lernen und bei der Verwendung einer Sprache eingesetzt werden. Obwohl solche Prozesse nicht einheitlich konzipiert werden, bietet das ursprüngliche Verständnis von Interlanguage einen sinnvollen Anfang für Lernersprachenanalysen. Mit der Analyse von Lernersprache nehmen die meisten Forschenden eine produktionsorientierte Sicht ein: Von Interesse ist das, was der Lernende in der Zielsprache selbst formuliert. Zunächst kann Lernersprache anhand der unterschiedlichen Sprachebenen wie Phonetik/ Phonologie, Orthographie, Morphologie, Syntax, Lexik, textdiskursive Merkmale und Pragmatik untersucht werden. Für die Spracherwerbsforschung ist v. a. das Zusammenwirken der verschiedenen Bereiche sprachlichen Wissens interessant. Aber auch kognitive Prozesse, die für die Entwicklung einer Lernersprache bedeutend sind, können erforscht werden. Selinker (1972: 216 – 217) zufolge sind fünf, sich zum Teil überschneidende kognitive Prozesse von Bedeutung:

• Transfer von der Erstsprache bzw. anderen bereits bekannten Sprachen auf die Zielsprache (sowohl „positiver“, also zu korrekten Äußerungen führender Transfer als auch „negativer“ Transfer oder „Interferenz“, die zu Fehlern in der Zielsprache führt), • Übungstransfer (z. B. durch das häufige Üben einer Struktur im Unterricht), • Fremdsprachenlernstrategien, • Fremdsprachenkommunikationsstrategien, • Übergeneralisierungen zielsprachlicher Einheiten. Hierbei handelt es sich um unterschiedliche Kategorien. Die beobachtbaren sprachlichen Phänomene können als Indizien für viele der o. g. kognitiven Prozesse herangezogen werden (ein Wort aus der L1, das in der L2 verwendet wird, dient z. B. als Indiz für Transfer). Dagegen kann eine Untersuchung der kognitiven Prozesse – hierfür werden eher introspektive Erhebungen, s. u., benötigt – Erklärungen für bestimmte sprachliche Phänomene in der Zielsprache liefern. Viele Untersuchungen zur Lernersprache gehen auf den Zusammenhang von (nur indirekt beobachtbaren) kognitiven Prozessen und (direkt beobachtbaren) sprachlichen Phänomenen ein, wenn sie z. B. die Entwicklung einer Verbalform untersuchen und dabei

5.3.7 Analyse von Lernersprache

299

mögliche Erklärungen für die unterschiedlichen Varianten finden. Als Erläuterung ein Beispiel eines Englisch lernenden Deutschen, der im Laufe eines Kurses unterschiedliche Varianten produziert: Produzierte Aussage

Sprachliche Ebene

Vermutlicher kognitiver Prozess

I *read a good book right now.

Morphologie

Lernstrategie (Vereinfachung); Transfer aus L1 (ich lese zurzeit ein gutes Buch)

I *am reading good books every day.

Übungstransfer (zu häufiges Üben der Verlaufsform)

[What do you like?] ?Good books.

Kommunikationsstrategie (Vermeidung unsicher beherrschter Formen)

Abbildung 1: Varianten einer Verbalform

Innerhalb einzelner sprachlicher Ebenen lassen sich weitere Aspekte von Lernersprache differenzieren, wie im Beispiel oben. Auch schrift- oder diskurslinguistische Phänomene rücken immer häufiger in den Fokus von lernersprachlichen Analysen. Hierzu gehören u. a. die Äußerungskomplexität, z. B. die Anzahl und Art produzierter erweiterter Nominalphrasen oder das Aufkommen von Nominalisierungen. Bei schriftlichen Textproduktionen können auch textdiskursive Merkmale wie Kohäsion und Kohärenz, Anaphorik und Textstruktur sowie schreibstrategische Aspekte wie die Nähe zu einer Textvorlage unter die Lupe genommen werden; bei mündlicher Sprachproduktion spielt z. B. die Flüssigkeit von Äußerungen in Form von typischen Performanz- und Hesitationsphänomenen wie Wiederholungen (z. B. von Pronomen), gefüllten und ungefüllten Pausen und Reduktionen eine wichtige Rolle. Lernersprache kann aus beschreibender oder beurteilender Perspektive untersucht werden (deskriptive vs. normative Analyse). V.a. bei der beurteilenden Analyse sind Vergleichsdaten von L1-Sprechenden sinnvoll, so dass neben Normentsprechungen (i. d. R. korrekten Äußerungen) auch Normabweichungen feststellbar sind. Bei bilingualen Sprechenden sollte ein Vergleich mit Gleichaltrigen der jeweiligen Erstsprache erfolgen. 3 Verfahren zur Analyse von Lernersprache

Bei der Analyse von Lernersprache ist zunächst vorrangig, wie Daten erhoben wurden (vgl. Kapitel 5.2.6). So muss nicht nur die Art der Daten festgestellt werden (z. B. mündliche vs. schriftliche Daten, kürzere Lückenübungen oder längere Texte), sondern auch wie sie erhoben wurden (z. B. einmalig oder mehrfach, mit gesteuerten oder ungesteuerten Elizitationsverfahren, einzeln oder im Dialog, handschriftlich oder elektronisch), was dabei fokussiert wurde (Produkt oder Prozess), und von wem die Daten stammen (z. B. von einer Person oder mehreren), um Analysefehler zu vermeiden. Nach der Datenerhebung, aber noch vor der eigentlichen Analyse erfolgt die Datenaufbereitung, bei der die Daten sorgfältig archiviert, systematisiert und entsprechenden Metadaten zugeordnet werden. Je nach erhobener Datenart erfolgt dies unterschiedlich. Nach

300

5. Forschungsverfahren

heutigem Standard werden mündliche Lerneräußerungen zumindest auditiv aufgezeichnet, oft sogar videographiert und im Anschluss mit Hilfe eines entsprechenden Notationssystems transkribiert; erst auf Basis dieser Transkription werden Daten analysiert. Solche Transkriptionen sollten möglichst mit einer geeigneten Software angefertigt werden, die später auch Annotationen zulässt (vgl. Mempel/Mehlhorn 2014 und Kapitel 5.3.6). Von Vorteil ist hierbei, dass in digitalisierten Korpora in der Regel beliebig viele Annotationsebenen eingefügt werden können (vgl. Kapitel 5.2.6). Auch schriftliche Daten werden meist aufbereitet, um die Analyse zu erleichtern; im einfachsten Fall handelt es sich um die Digitalisierung handschriftlich geschriebener Äußerungen in einem Textverarbeitungsprogramm. Die zu untersuchenden Äußerungselemente und Strukturen müssen als nächstes im ­Datenmaterial identifiziert und isoliert werden. Der Isolierungsprozess ist abhängig von der Art des Erhebungsinstruments, des produzierten Textes, der Transkription, dem Untersuchungsinteresse und dem theoretischen Ansatz des Forschungsprojekts (vgl. Ahrenholz 2014). Die Datenanalyse erfolgt entweder mit bereits vor der Datenerhebung festgelegten Kategorien, oder die Kategorien werden aus dem erhobenen Datenmaterial entwickelt (rationalistische vs. empirische Kategorienbildung). Die Kategorisierungen sollten möglichst konsistent durchgeführt und Zuordnungsentscheidungen bei der Ergebnispräsentation dokumentiert werden. Neben der Entscheidung für eine Herangehensweise wird zwischen unterschiedlichen theoretischen Ansätzen für die Lernersprachenanalyse unterschieden. Für den europäischen Kontext nennt Ahrenholz (2014: 171) drei besonders relevante Ansätze:

• strukturalistisch orientierte Analysen, die u. a. der Steuerung des Spracherwerbs durch universalgrammatische Prinzipien nachgehen (z. B. Clahsen/Meisel/Pienemann 1983),

• die Funktionale Pragmatik, die den Sprachgebrauch in Handlungsmustern einschl. der sozialen Einbettung der Sprachverwendung beschreibt (z. B. Ehlich/Rehbein 1979),

• den funktionalen konzeptorientierten Ansatz, bei dem die lernerseitige Sprachproduktion als Bezugspunkt zur Untersuchung der Realisierung semantischer Grundkonzepte wie Temporalität, Lokalität und Modalität dient (z. B. von Stutterheim 1997). Der theoretische Ansatz bestimmt den Fokus der Analyse, kann in einer Theorietriangulierung (vgl. Kapitel 4.4) aber mit anderen Ansätzen kombiniert werden, um unterschiedliche Perspektiven auf erhobene Daten zu ermöglichen (vgl. z. B. die Untersuchung von Zweitspracherwerbsphasen in Wegener 1995). In der Fremdsprachenforschung gibt es unterschiedliche Methoden zur Lernersprachenanalyse. Wir gehen im Folgenden insbesondere auf die Möglichkeiten der Fehleranalyse, kompetenzbezogener Analysen, Profilanalysen und Ratings ein. Der Tradition der Kontrastiven Analyse folgend wird nach wie vor das Zusammenwirken von Erstsprache, Lernersprache und Zielsprache v. a. anhand von Fehleranalysen untersucht. Hierbei werden häufig nur Ausgangs- und Zielsprache verglichen, obwohl auch drei oder mehrere Sprachen verglichen werden können (z. B. Kärchner-Ober 2009). Auch zur Erläuterung von Informationen zur Lernprogression, erreichten Lernniveaus, möglichen Fossilierungen, interindividuellen Unterschieden u.v.m. werden Fehleranalysen durchgeführt. Bei allen

5.3.7 Analyse von Lernersprache

301

Varianten ist der noch umstrittene Fehlerbegriff von zentraler Bedeutung; Fehler werden i. d. R. als nicht normgerechte Äußerungen definiert. Die typischen Schritte einer linguistischen Fehleranalyse sind Identifizierung, Klassifizierung und Erklärung der einzelnen Fehler. In der Unterrichtspraxis kommen Fehlerkorrektur und -bewertung hinzu; für die Unterrichtsvorbereitung ist die Fehlertherapie und -prophylaxe relevant (vgl. Kuhs 1987). Schon bei der Identifizierung von Fehlern müssen unterschiedliche Überlegungen vollzogen werden, z. B. ob zwischen eindeutigen Fehlern (z. B. ein nicht existentes oder in einem bestimmten Kontext nicht passendes Wort, eine falsche Endung, eine falsch betonte Silbe) und graduellen Abweichungen (z. B. ein in Bezug auf das Register nicht ganz passendes Wort, ein betonter Vokal im Deutschen oder Englischen, der weder als lang noch als kurz klassifiziert werden kann) differenziert werden sollte. Anders als in der Morphologie gibt es gerade im Bereich der Phonetik meist kein „Richtig“ oder „Falsch“; vielmehr befinden sich Segmentalia und Suprasegmentalia in der Lernersprache auf einem Kontinuum zwischen stark abweichender und zielsprachennaher Realisierung. Auf ein ähnliches Problem trifft man bei der Analyse von Texten, weswegen für diese sprachlichen Ebenen oft andere Analyseverfahren wie Ratings herangezogen werden. Nach der Identifizierung werden Fehler nach der Art der Abweichung klassifiziert. Hierfür bestehen bereits mehrere Fehlerkataloge (z. B. Kleppin 1997), so dass man im Normalfall keinen eigenen entwickeln muss. In einem dritten Schritt wird nach Fehlerursachen gesucht – z. B. ein oder mehrere der im Abschnitt 5.3.7.2 genannten kognitiven Prozesse. Hat man die Fehlerkategorien schon vor der Datenerhebung bestimmt, kann eine einfache Fehleranalyse in bestimmten sprachlichen Bereichen mit geringerem Aufwand z. B. als Rating durchgeführt werden. Allerdings soll hier vor einer Versimplifizierung des Prozesses gewarnt werden: Gerade die Bestimmung einer Fehlerursache ist ohne Kombination mit introspektiven Methoden äußerst schwierig, und sogar der erste Schritt, die Fehleridentifikation, kann zu Problemen führen, wenn es sich z. B. um dialektal unterschiedlich ausgeprägte Merkmale handelt. Problematisch ist zudem, dass Fehleranalysen wenig über Fremdsprachenlernprozesse verraten und keine Aussagen zu positivem Transfer geben können. Sprachliche Kreativität, Überproduktionen bestimmter Strukturen sowie Vereinfachungs- und Vermeidungsstrategien werden dabei ebenfalls kaum berücksichtigt. Im Gegensatz zu Fehleranalysen legen kompetenzbezogene Analysen den Schwerpunkt darauf, was Lernende in der Zielsprache bereits ausdrücken können. In der Fremdsprachendidaktik am bekanntesten hierfür sind wohl die Kann-Beschreibungen des Gemeinsamen europäischen Referenzrahmens (GeR) und Erweiterungen wie der FREPA (Candelier et al. 2012), die anhand von Kompetenzlisten versuchen zu ermitteln, in welchem Maße bestimmte Kompetenzen von einzelnen Lernenden bereits gemeistert werden. Für die frühkindliche Spracherwerbsforschung ist diese Art von Analyse das wohl wichtigste Analyseverfahren schlechthin (ein bekanntes Beispiel sind die Screenings der MacArthur Communicative Development Inventories, CDI, u. a. Fenson et al. 2007). Solche Analysen können von der Lehrkraft, vom Lernenden oder von anderen beteiligten Personen – beim Erstspracherwerb z. B. von einem Betreuer – ausgefüllt werden und sind in unterschiedlichem Maße differenziert (vgl. die Frage: „Versteht das Kind das Wort ‚Ameise‘?“ im CDI vs. „Kann das eigene Sprachverhalten mit dem der Sprecher anderer Sprachen vergleichen“ im FREPA). Insgesamt hat die Fremdsprachendidaktik in den letzten Jahren eine Wende von der Fehler- zur Kompetenzfo-

Korpora von Lernersprache ['lɛʁnɐʃpʁaːxə] „das individuelle sprachliche System, das Lernende beim Aneignen einer Zielsprache im Verlaufe ihres Sprachlernprozesses aufbauen und das ihren Äußerungen zugrundeliegt“

© 2016 ⚫ Narr Francke Attempto Verlag GmbH + Co. KG

Fehleranalysen Fehlerklassifikation und -erklärung

Ratings Experteneinschätzungen spezifischer Merkmale

Profilanalysen Lernstadien in Modellen

Kompetenzbezogene Analysen Einordnung auf skalierten Kompetenzbeschreibungen

Sprachebenen (Phonetik, Orthographie, Morphologie, Syntax etc.) und kognitive Prozesse (Transfer, Strategien, Übergeneralisierung etc.) in mündlichen oder schriftlichen lernersprachlichen Datenkorpora deskriptiv oder normativ untersuchen

Rekonstruktion von Erwerbsprozessen an sprachlichen Produkten

5.3.7 Analyse von Lernersprache

302 5. Forschungsverfahren

5.3.7 Analyse von Lernersprache

303

kussierung erfahren, was sich u. a. auch in den Bildungsstandards sowie in Lehrwerken für die Fremdsprachen widerspiegelt; eine ähnliche Entwicklung wäre für die wissenschaftliche Analyse lernersprachlicher Äußerungen wünschenswert. Kompetenzorientiert sind ebenfalls Profilanalysen, die sich dadurch auszeichnen, dass sie anhand bestimmter Kriterien natürliche Sprachaufnahmen analysieren. Oft setzen sie das Ziel, notwendige Förderbereiche herauszustellen. Sie beruhen auf einem stufenweisen Verständnis der Lernersprachenentwicklung und legen unterschiedliche – meist syntaxbasierte – Lernstadienmodelle zugrunde. Weil Profilanalysen spezifischen sprachlichen Elementen nachgehen, konzentrieren sie sich i. d. R. auf einen sprachlichen Bereich wie Grießhabers (2006, 2012) Profilanalyse für Kinder mit Deutsch als Zweitsprache, die syntaktische Strukturen in mündlichen und schriftlichen Produktionen einzelner Lernender kategorisiert, oder auf eine bestimmte Menge quantifizierbarer Elemente wie das Rapid Profile-Verfahren für Englisch als Fremdsprache (zuerst Pienemann/Johnston/Brindley 1988), das elizitierte mündliche Lerneräußerungen kodiert. Wenn hier z. B. im Rahmen eines Elizitationstasks auf die Frage „What is the man doing?“ geantwortet wird: „He read a book.“, können sowohl Aussagen zur Morphologie (inkorrekte Deklination), zum Aspekt, zur Syntax (korrekte Wortfolge) und zur Lexik getroffen werden. Profilanalysen haben den Vorteil, in einem standardisierten Verfahren unterschiedliche Lernende vergleichen zu können und somit in Situationen einsetzbar zu sein, in denen Aufschlüsse über individuellen Lernzuwachs im Kontext einer ähnlichen Situation benötigt werden. Für die Untersuchung kleiner (z. B. phonetischer) Merkmale und großer sprachlicher Einheiten (Texte) bieten sich Verfahren an, die Experteneinschätzungen heranziehen (Ratings). In diesen Verfahren werden mindestens zwei Experten (je nach Untersuchungsaspekt z. B. geschulte Erstprachler oder Schreibexperten) darum gebeten, spezifische Äußerungen, oft auf einer bestimmten Skala, nach ihrer Korrektheit, Verständlichkeit und/oder Angemessenheit einzuschätzen. Bei einer Analyse der phonetischen Ebene von Lernersprache können somit neben akustischen Analysen im digitalen Sprachsignal (z. B. mit dem OpenSource-Programm Praat, vgl. Richter 2008) auch eine perzeptive Bewertung durch trainierte Expertenhörer (oft Erstsprachler), die Abweichungen einschätzen (vgl. Baur/Nickel 2009), herangezogen werden. In Praat kann eine Rating-Skala hinzugefügt werden, um die akustischen Stimuli auch auditiv zu bewerten. Die Triangulierung beider Methoden kann eine Balance zwischen der inhärenten Subjektivität perzeptiver Bewertung und der Einseitigkeit von akustischen Analysen als einzigem Auswertungsinstrument schaffen (vgl. Mehlhorn 2012: 206). Sehr sinnvoll lassen sich Ratings auch in Hinblick auf textlinguistische Aspekte einsetzen, die sich nur schwierig in ein richtig/falsch-Schema einordnen lassen und eher schwer bestimmbare Merkmale wie Angemessenheit, Kohärenz und Kohäsion einbeziehen. Ob eine Ellipse oder eine pronominale Referenz im satzübergreifenden Zusammenhang kohäsionstiftend ist, kann mit den o. g. Verfahren kaum bestimmt werden; stattdessen müssen Experten in der jeweiligen Sprache die Angemessenheit einschätzen. In letzter Zeit finden u. a. wissenschaftssprachliche Aspekte eine besondere Betonung in der Erforschung der Lernersprache. Ratings finden auch in Prüfungen wie dem TestDaF Anwendung; hier wird der Testteil „Schriftlicher Ausdruck“ anhand diverser Kriterien wie „Sind die Sätze im Text miteinander verbunden, d. h. ist der Text kohärent?“ (http://www.testdaf.de/) durch den Prüfer bewertet.

304

5. Forschungsverfahren

Werden Lernerkorpora analysiert, liefern notierte Metadaten Deutungsmöglichkeiten zu Hintergründen und Ursachen für bestimmte Auffälligkeiten. Für die korpusbasierte Sprachbeschreibung können z. B. die Häufigkeit der Verwendung bestimmter Lemmata, Konstruktionen oder grammatischer Formen, die Textlänge und das Auftreten von Chunking (die Verwendung fester Wortgruppen, vgl. Aguado 2008) in Abhängigkeit von Faktoren wie Lerndauer, Alter, Sprachlernerfahrung, Mehrsprachigkeit, Kursart, Sprachumgebung usw. in Bezug auf das Sprachenlernen und Sprachverhalten im Alltag analysiert werden (vgl. Kapitel 5.3.8 Korpusanalyse). Lernerkorpora können mit verschiedenen Methoden ausgewertet werden. So sind z. B. Fehleranalysen und gesprächsanalytische Untersuchungen möglich. Neben qualitativen Beschreibungen von Lernersprachen bieten Korpusanalysen Möglichkeiten der quantitativen Untersuchung, z. B. durch den statistischen Vergleich von Lernerdaten mit erstsprachlichen Vergleichsdaten. So zeigt Nesselhauf (2005) in ihrer lernerkorpuslinguistischen Studie, in welchen Bereichen fortgeschrittene deutsche Lerner des Englischen im Kollokationsgebrauch noch deutlich von Erstsprachlern abweichen. 4 Erforschung von Lernersprache – Perspektiven

Um ein ganzheitliches Bild der Entwicklung von Lernersprache zu erhalten, ist es notwendig, über Fehleranalysen und eine Konzentration auf interlingualen Transfer hinauszugehen (Selinker 1992, passim). Auch die Prozesshaftigkeit der Lernersprachenentwicklung muss stärkere Beachtung finden; Apeltauer (2010: 840) zufolge wird gegenwärtig noch weitgehend die von Lernenden praktizierte Selbststeuerung, die für große individuelle Unterschiede bei der Lernersprachentwicklung mitverantwortlich sein könnte, vernachlässigt, wie z. B. das Elizitieren sprachlicher Daten für die Entwicklung der eigenen Lernersprache bei Gesprächspartnern. Ebenfalls unklar ist, in welchen Situationen und in welchem Ausmaß Transfer (positiver sowie negativer) auftritt und wann sowie von welchen Lernenden bestimmte kognitive Prozesse in den Lernprozess eingehen. Hierbei würden grundlegende sprachlernbiographische Daten (vorgelernte Sprachen, Umfang des erhaltenen Fremdprachenunterrichts, Qualität und Quantität des Zielsprachenkontakts u.v.m.) das Wissen über Lernersprache deutlich vergrößern. ››  Literatur

Forschungsarbeiten, in denen die hier erläuterten Verfahren angewendet werden, sind mit einem Sternchen markiert. Aguado, Karin (2008). Wie beeinflussbar ist die lernersprachliche Entwicklung? Theoretische Überlegungen, empirische Erkenntnisse, didaktische Implikationen. In: Fremdsprache Deutsch 38, 53 – 58. Ahrenholz, Bernt (2014). Lernersprachenanalyse. In: Settinieri, Julia et al. (Hg.), 167 – 181. Apeltauer, Ernst (2010). Lernersprache(n). In: Krumm, Hans, Jürgen/Fandrych, Christian/Hufeisen, Britta/Riemer, Claudia (Hg.). Deutsch als Fremd- und Zweitsprache. Ein internationales Handbuch. 1. Halbband. Berlin: de Gruyter, 833 – 842. *Baur, Rupprecht S./Nickel, Aneta (2009). „Man kann doch sowieso merken, dass wir nicht Deutsch bin“. Phonetische Analysen am ESA-Korpus. In: Ahrenholz, Bernt (Hg.) (2009). Empirische Befunde zu

5.3.7 Analyse von Lernersprache

305

DaZ-Erwerb und Sprachförderung. Beiträge aus dem 3. Workshop Kinder mit Migrationshintergrund. Freiburg i.Br.: Fillibach, 313 – 331. Candelier, Michelle/Camilleri-Grima, Antoinette/Castellotti, Véronique/de Pietro, Jean-Françoise/ Lőrincz, Ildikó/Meißner, Franz-Joseph/Noguerol, Arthur/Schröder-Sura, Anna (2012). FREPA. A ­framework of reference for pluralistic approaches to languages and cultures: competences and resources. Straßburg: Council of Europe Publishing. *Clahsen, Harald/Meisel, Jürgen M./Pienemann, Manfred (1983). Deutsch als Zweitsprache. Der Spracherwerb ausländischer Arbeiter. Tübingen: Narr. *Corder, Steven Pit (1967). The significance of learner’s errors. In: International Review of Applied Linguistics 5, 161 – 170. Corder, Steven Pit (1974). The elicitation of interlanguage. In: International Review of Applied Linguistics. Special issue of IRAL on the occasion of Bertil Malmberg’s 60th birthday, 45 – 58. Ehlich, Konrad/Rehbein, Jochen (1979). Sprachliche Handlungsmuster. In: Soeffner, Hans-Georg (Hg.). Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart: Metzler, 243 – 274. Fenson, Larry/Marchman, Virginia A./Thal, Donna J./Dale, Philip S./Reznick, J. Steven/Bates, Elizabeth (2007). MacArthur-Bates Communicative Development Inventories. User’s guide and technical manual. 2. Auflage. Baltimore: Paul H. Brookes Pub. Co. Fries, Charles Carpenter (1945). Teaching and Learning English as a Foreign Language. Ann Arbor: University of Michigan Press. *Grießhaber, Wilhelm (2006). Endbericht der wissenschaftlichen Begleitung, März 2006. Projekt „Deutsch und PC“. Münster: WWU Sprachenzentrum. Grießhaber, Wilhelm (2012). Die Profilanalyse. In: Ahrenholz, Bernt (Hg.). Einblicke in die Zweitspracherwerbsforschung und ihre methodischen Verfahren. Berlin: de Gruyter, 173 – 193. Herdina, Philip/Jessner, Ulrike (2002). A dynamic model of multilingualism. Perspectives of change in psycholinguistics. Clevedon: Multilingual Matters. *Kärchner-Ober, Renate (2009). The German language is completely different from the English language. Besonderheiten des Erwerbs von Deutsch als Tertiärsprache nach Englisch und einer Nicht-indogermanischen Erstsprache. Tübingen: Stauffenburg. [Referenzarbeit, s. Kap. 7] Kleppin, Karin (1997). Fehler und Fehlerkorrektur. Berlin: Langenscheidt. *Kuhs, Katharina (1987). Fehleranalyse am Schülertext. In: Apeltauer, Ernst (Hg.). Gesteuerter Zweitspracherwerb. Voraussetzungen und Konsequenzen für den Unterricht. München: Hueber, 173 – 205. Lado, Robert (1957). Linguistics across cultures. Applied linguistics for language teachers. Ann Arbor: University of Michigan Press. Mehlhorn, Grit (2012). Phonetik/Phonologie in der L3 – neuere Erkenntnisse aus der Psycholinguistik. In: Deutsch als Fremdsprache 49, 201 – 207. Mempel, Caterina/Mehlhorn, Grit (2014). Datenaufbereitung: Transkription und Annotation. In: Settinieri, Julia et al. (Hg.), 147 – 166. Nemser, William (1971). Approximative systems of foreign language learners. In: International Review of Applied Linguistics 9, 115 – 123. *Nesselhauf, Nadja (2005). Collocations in a learner corpus. Amsterdam: John Benjamins. *Pienemann, Manfred/Johnston, Malcolm/Brindley, Geoff (1988). Constructing an acquisition-based procedure for second languge assessment. In: Studies in Second Language Acquisition 10, 217 – 243. Raabe, Horst (1974). Interimsprache und kontrastive Analyse. In: Raabe, Horst (Hg.). Trends in kontrastiver Linguistik. Bd. 1. Tübingen: Narr, 1 – 50.

306

5. Forschungsverfahren

*Richter, Julia (2008). Phonetische Reduktion im Deutschen als L2. Eine empirische Querschnittsstudie. Baltmannsweiler: Schneider Verlag Hohengehren. Selinker, Larry (1972). Interlanguage. In: International Review of Applied Linguistics 10, 219 – 231. Selinker, Larry (1992). Rediscovering interlanguage. London: Longman. Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh *Stutterheim, Christiane von (1997). Einige Prinzipien des Textaufbaus. Empirische Untersuchungen zur Produktion mündlicher Texte. Tübingen: Niemeyer. *Wegener, Heide (1995). Das Genus im DaZ-Erwerb. Beobachtungen an Kindern aus Polen, Rußland und der Türkei. In: Handwerker, Brigitte (Hg.). Fremde Sprache Deutsch. Grammatische Beschreibung – Erwerbsverläufe – Lehrmethodik. Tübingen: Narr, 1 – 24. Weinrich, Uriel (1953). Languages in contact. Findings and problems. New York: Linguistic Circle of New York. Zhao, Yuqin/Song, Li/Cherrington, Ruth (2013). Interlanguage. In: Byram, Michael/Hu, Adelheid (Hg.). Routledge Encyclopedia of Language Teaching and Learning. London: Routledge, 357 – 359. »»  Zur Vertiefung empfohlen Ahrenholz, Bernt (2014). Lernersprachenanalyse. In: Settinieri, Julia/Demirkaya, Sevilen/Feldmeier, Alexis/Gültekin-Karakoç, Nazan/Riemer, Claudia (Hg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Paderborn: Schöningh, 167 – 181. Der Handbuchartikel skizziert Bereiche sprachlichen Wissens, erläutert Faktoren der lernersprachlichen Entwicklung, diskutiert Fragen der Datenerhebung und -interpretation. Die Analyse gesprochener Lernersprache wird am Beispiel einer mündlichen Erzählung zu der Bilderfolge Cat Story veranschaulicht. Konkrete Übungen zur Lernersprachenanalyse und Lösungsvorschläge erleichtern den Einstieg in diese Thematik. Selinker, Larry (1992). Rediscovering interlanguage. London: Longman. Die Monographie ist ein umfangreicher und gut lesbarer Überblick zur Entstehung und (Weiter-) Entwicklung des Konzepts Lernersprache und deren forschungsmethodischer Perspektiven. Sie geht auf die unterschiedlichen theoretischen Richtungen, die sich mit Lernersprache auseinandersetzen, sowie auf die daraus entstandenen Kontroversen, Erweiterungen und Verzahnungen mit neueren Forschungsergebnissen ein.

5.3.8 Korpusanalyse Cordula Meißner/Daisy Lange/Christian Fandrych 1 Begriffsklärung

Die empirische Auseinandersetzung mit Korpusdaten ist für die eher anwendungsorientierten Disziplinen der Fremdsprachenerwerbsforschung mittlerweile unerlässlich. Untersuchungen

5.3.8 Korpusanalyse

307

auf der Basis breiter Datenkollektionen können dabei in linguistischen, didaktischen, kulturwissenschaftlichen, soziologischen sowie weiteren verwandten Kontexten angesiedelt und mit je spezifischen Fragestellungen verbunden sein. In der Fremdsprachenerwerbsforschung werden Korpora einerseits zum Zweck linguistischer Beschreibungen herangezogen, insbesondere, um Regelmäßigkeiten und Gebrauchsmuster einer Sprache (auch kontrastierend) zu ermitteln oder auch Lernersprache selbst im Hinblick auf verschiedene Aspekte der Sprachverwendung und Kompetenzentwicklung zu analysieren. Andererseits kommen Korpora u. a. in der Lehrmaterial- und Curriculaentwicklung, der Testwissenschaft, der empirischen Unterrichtsforschung sowie als Unterrichtsmedium selbst zur Anwendung. Das folgende Kapitel stellt zentrale Begriffe und Methoden der Korpusanalyse vor und verweist auf entsprechende Analysewerkzeuge. Die Verwendung des Korpusbegriffs ist in den Kontexten linguistischer und didaktischer Forschung nicht immer sehr einheitlich. Man kann Sammlungen von Sprachressourcen bezüglich vielerlei Kriterien voneinander unterscheiden. Auswahl und Zuschnitt solcher Sprachdatensammlungen sollten in erster Linie in Hinblick auf die Erfordernisse des spezifischen Untersuchungsgegenstandes und der konkreten Forschungsfrage(n) erfolgen. Der hier zu Grunde gelegte Korpusbegriff orientiert sich an der in der Korpuslinguistik etablierten und allgemein akzeptierten Definition, welche Korpora als größere, zu einem bestimmten Zweck zusammengestellte Sammlungen authentischer schriftlicher Texte oder gesprochener Äußerungen versteht, die digitalisiert vorliegen und somit elektronisch durchsuchbar sind (Lüdeling/Walter 2010: 315). Unterschieden werden Korpustypen u. a. nach dem Verwendungszweck (Referenzkorpora, Spezialkorpora, Vergleichskorpora, Parallelkorpora, Lernerkorpora), dem Medium (Textkorpora, Korpora mündlicher Sprachdaten, multimodale Korpora) oder der Entstehungszeit ihrer Texte (Korpora der Gegenwartssprache vs. Korpora historischer Sprachstufen). Von besonderem Interesse für die Fremdsprachenerwerbsforschung und -didaktik sind Korpora, die geschriebene (z. B. das ICLE35) oder gesprochene Lerner- bzw. L2-Daten enthalten (z. B. das GeWiss-Korpus36), und die gelegentlich sogar die Kennzeichnung und Klassifizierung von Fehlern beinhalten (z. B. Falko37). In Verbindung mit kontrastiven Analysen können solche Korpora Aufschlüsse über Lernstadien, -schwierigkeiten oder Erwerbshierarchien geben (ausführlicher zu Lernerkorpora und ihrem Einsatz in der Fremdsprachenerwerbs- und didaktischen Forschung vgl. Granger 2008, Lüdeling 2007)38. Lemnitzer/Zinsmeister (2010: 102 – 123) sowie Scherer (2006: 16 – 31) bieten in ihren Einführungen zur Korpuslinguistik jeweils sowohl einen Überblick über verschiedene Korpustypen als auch eine Auflistung entsprechender, international zur Verfügung stehender Korpora. Bei der Beurteilung der Eignung eines Korpus für eine bestimmte Untersuchung sind zudem Kriterien wie Zugänglichkeit und Funktionalitäten, die integrierten Sprachen oder Varietäten, die Korpusgröße und -persistenz (statische oder dynamische Korpora), die 35 International Corpus of Learner English, http://www.uclouvain.be/en-cecl-icle.html (24. 3. 2014). 36 Gesprochene Wissenschaftssprache kontrastiv, https://gewiss.uni-leipzig.de/ (24. 3. 2014). 37 Fehlerannotiertes Lernerkorpus, https://www.linguistik.hu-berlin.de/institut/professuren/korpuslinguistik/forschung/falko (24. 3. 2014). 38 Unter http://www.uclouvain.be/en-cecl-lcbiblio.html (24. 3. 2014) ist eine umfangreiche Bibliographie zu Studien und methodischen Arbeiten im Zusammenhang mit Lernerkorpora (vorrangig im Bezug zum Englischen als Fremdsprache) abrufbar.

308

5. Forschungsverfahren

Ausgewogenheit bzw. Heterogenität der Korpusdaten zu beachten (vgl. Lemnitzer/Zinsmeister 2010: 102 – 107). Für die Auswertung von Korpusdaten gilt, dass alles such- und analysierbar ist, was kodiert ist (Lüdeling/Walter 2010: 316). Dies umfasst neben den Primärdaten wie den Originaltexten oder -kommunikationen (als Audio- oder Videosequenzen) auch Sekundär- und Metadaten. Für die Analyse gesprochener Sprache unentbehrlich sind Sekundärdaten in Form von Transkripten, d. h. Verschriftungen von Audio- oder Videoaufzeichnungen nach zuvor festgelegten Konventionen. Metadaten umfassen beschreibende Angaben zur Korpusentstehung, den Korpusinhalten sowie zu bestimmten Korpusmerkmalen. Sie ermöglichen Vergleiche im Hinblick auf bestimmte Charakteristika der Kommunikationen bzw. Texte und der Sprecher bzw. Autoren. Für spezifischere Analysezwecke können zusätzliche Beschreibungsebenen in Form von Annotationen notwendig sein. Annotationen sind vorab festgelegte oder induktiv durch die Analyse des Datenmaterials gewonnene Kategorien, mit denen dieses nachträglich ausgezeichnet wird. Sie ermöglichen es, die Daten nach den entsprechenden Kategorien zu systematisieren und quantitativ wie qualitativ zu untersuchen (vgl. Abschnitt Qualitative Methoden). 2 Methoden der Korpusanalyse

Im Kern beinhaltet das korpusanalytische Vorgehen das elektronisch gestützte, z. T. automatische Durchsuchen, Sortieren, Zählen, Vergleichen und Interpretieren (größerer Mengen) von sprachlichen Roh- bzw. transkribierten oder durch Annotation aufbereiteten Daten. Entsprechende Analyseschritte können sowohl im Rahmen eines induktiven als auch eines deduktiven Ansatzes Anwendung finden. Während theoriegeleitet (theory-driven) die Korpusdaten nach dem Raster vordefinierter Kategorien auswertet werden, gewinnt man beim datengeleiteten Vorgehen (corpus-driven) erst induktiv aus der Sichtung der Daten (vgl. Tognini-Bonelli 2001) die Analysekategorien. Für das korpusgesteuerte Vorgehen stellt das Korpus somit die Grundlage dar, von der ausgehend die Beschreibungseinheiten formuliert und Gebrauchsregelmäßigkeiten beschrieben werden (Steyer/Lauer 2007: 493). Eine solche Herangehensweise will vermeiden, nur die Daten zu erfassen, die mit zuvor festgelegten Kategorien vereinbar sind (Bubenhofer 2009: 101). Datengeleitet-induktives und deduktives Vorgehen können ergänzend ineinandergreifen: Aus Beschreibungskategorien, die datengeleitet ermittelt wurden, lassen sich Hypothesen ableiten, die wiederum an den Korpusdaten überprüft werden können (vgl. Steyer/Lauer 2007). Im Hinblick auf die fremdsprachendidaktische Forschung findet die Korpusanalyse als Methode Anwendung u. a. zur empirischen Absicherung curricularer Entscheidungen, indem etwa aus Korpora ermittelte Häufigkeiten sprachlicher Strukturen als Kriterium zur Auswahl von Lern- und Lehrinhalten herangezogen werden (Schlüter 2002; Tesch 2000). Darüber hinaus sind Korpora in der Sprachausbildung für stark ausdifferenzierte berufliche bzw. fachliche Bereiche von großer Bedeutung, da sie hier eine bedarfsgerechte Ermittlung curricularer Inhalte ermöglichen. Korpusanalytisches Vorgehen bildet darüber hinaus die Grundlage der korpusbasierten Lehrwerksanalyse (vgl. z. B. Niederhaus 2011) und findet Verwendung im Bereich der Spracherwerbsforschung, bspw. in kontrastiven Untersuchungen von Lerner- und Zielsprachen (vgl. Zeldes/Lüdeling/Hirschmann 2008, Granger/Paquot 2009).

5.3.8 Korpusanalyse

309

Die im Folgenden vorgenommene Unterteilung in quantifizierende Analysemethoden einerseits und qualitative, beschreibend-deutende Herangehensweisen andererseits dient der Übersichtlichkeit der Darstellung, findet sich jedoch in der Forschungspraxis nicht in derart strikter Form. Auch in scheinbar rein quantitative Untersuchungen fließen qualitative Verfahren und Entscheidungen ein. So geht einer quantifizierenden Analyse stets eine qualitative Kategorisierungsentscheidung im Bezug auf die gezählten Einheiten voraus (vgl. Lüdeling 2007). Das qualitative Sichten von Einzelbelegen ist zudem unverzichtbarer Bestandteil zur Validierung von quantitativen Analysen, welche zumeist auf der Formebene ansetzen (müssen) und semantisch begründete Ambiguitäten (Homonymie, Polysemie und kontextspezifische Bedeutungsvarianten) systematisch ausblenden. Vor diesem Hintergrund ist zu betonen, dass die in den folgenden Abschnitten Quantitative Methoden und Qualitative Methoden dargestellten Analyseschritte in der Praxis integrativ Anwendung finden bzw. entsprechend reflektiert werden sollten. Quantitative Methoden

Grundlage quantitativer korpusanalytischer Methoden ist das Zählen von Einheiten. In Korpora können verschiedene Größen gezählt werden, so etwa die laufenden Wörter, also alle einzelnen Wortformenvorkommen (token) oder alle unterschiedlichen Wörter unter Zusammenfassung gleicher Wortformen (types), daneben aber auch etwa häufige Wortkombinationen. Zu beachten ist hierbei, dass die Zählung rein formbasiert erfolgt und homonyme Formen zu fehlerhaften Ergebnissen führen. Eine Aufbereitung der Korpusdaten durch Wortartenannotation und Lemmatisierung ermöglicht es, neben den grammatisch desambiguierten Wortformen auch Lemmata zu zählen. Hierbei kann jedoch vor allem eine kombinierte Auswertung aufschlussreich sein, da sich relevante Unterschiede etwa in Lernerproduktionen auch auf spezifische Wortformen beziehen können (vgl. z. B. die Ergebnisse von Granger/Paquot 2009). Ein Vorgehen im Sinne einer quantitativen Korpusanalyse bedeutet, den Untersuchungsgegenstand in suchbarer und auszählbarer Form zu operationalisieren und dabei theoretische Konzepte in empirische Häufigkeiten zu übersetzen. Die Fragestellung wird dabei so formuliert, dass die Häufigkeit, welche im Korpus unter den in Frage stehenden Bedingungen ermittelt wird, die abhängige Variable darstellt (vgl. Stefanowitsch 2005). Ein Beispiel soll diesen Ansatz verdeutlichen: Zeldes/Lüdeling/Hirschmann (2008) untersuchen, welche Strukturen für den Erwerb des Deutschen als Fremdsprache als schwierig anzusehen sind, indem sie in vergleichbaren wortartenannotierten Erstsprachler- und Lernerkorpora die Vorkommenshäufigkeit aller Wortformentypes und Wortartentag-Abfolgen auszählen. Sie operationalisieren die Schwierigkeit im Erwerb einer Struktur über Abweichungen in der Gebrauchshäufigkeit bei Lernern und Erstsprachlern und interpretieren die in den Lernertexten signifikant mindergebrauchten Einheiten bzw. Strukturen als Bereiche von Erwerbsschwierigkeiten. Zur Durchführung quantitativer Korpusanalysen stehen zahlreiche Softwarewerkzeuge zur Verfügung (vgl. Wiechmann/Fuhs 2006 für einen Überblick). Ihre Anwendung erfolgt in der Regel lokal auf dem Computer des Forschers und setzt voraus, dass das zu untersuchende Korpus ebenfalls lokal zur Verfügung steht. Große öffentlich zugängliche Korpora wie etwa

310

5. Forschungsverfahren

Cosmas Corpus Search, Management and Analysis System/DGD Datenbank für Gesprochenes Deutsch, DWDS Das Digitale Wörterbuch der Deutschen Sprache (für das Deutsche) oder BNC British National Corpus, VOICE Vienna-Oxford International Corpus of English, (für das Englische) sind hingegen oft nur online verfügbar. Die Analysemöglichkeiten sind dann auf das beschränkt, was die Weboberfläche des Korpusbetreibers anbietet (dies umfasst oft vor allem unterschiedlich umfangreiche Konkordanzsuchen). Im Folgenden werden grundlegende Werkzeuge der quantitativen Korpusanalyse vorgestellt, mit denen sich Textsammlungen in ihrer Gesamtheit charakterisieren lassen (Wortlisten, Schlüsselwortanalysen, N-Gramme, Type-Token-Verhältnis), sowie solche, die auf die quantitative Analyse ausgewählter Einheiten abzielen (Quantitative Konkordanzsuche, Kookkurrenzanalyse). Methoden zur quantitativen Korpusbeschreibung

Wortlisten: Um eine Textsammlung quantitativ zu charakterisieren, bieten Wortlisten eine erste Zugriffsmöglichkeit, d. h. Listen aller im Korpus auftretenden Wortformen mit Angabe der Häufigkeit ihres Vorkommens. Sie können für den durch die Korpuszusammenstellung repräsentierten Sprachverwendungsbereich Aufschluss über frequente und weniger frequente Einheiten geben und so etwa bei der Bestimmung von Lernwortschätzen zu Rate gezogen werden. Entscheidend für die Bewertung von Wortlisten ist die der Zählung zugrunde gelegte Wort-Definition, in die u. a. Entscheidungen bzgl. der Art der Grenzmarkierung oder hinsichtlich der Beachtung der Großschreibung einfließen. Bspw. würde die Beachtung der Großschreibung in deutschen Sprachdaten dazu führen, dass Wortvorkommen an Satzanfängen anders behandelt werden als im Satz. Eine Wortdefinition, die Leerzeichen als Grenzsymbole zugrunde legt, würde z. B. bei englischen Daten mit Spatien innerhalb von Komposita dazu führen, dass die Kompositumsbestandteile jeweils separat gezählt werden. Es ist daher zu beachten, wie die Parameter der Wortdefinition in der Korpusanalysesoftware voreingestellt sind bzw. wie sie für die eigene Untersuchung gewählt werden. Unabhängig von der konkreten Korpuszusammensetzung werden in Wortlisten immer wenige hoch- und viele niedrigfrequente Einheiten erscheinen (vgl. Baroni 2009). Die häufigen Einheiten umfassen dabei i. d. R. Funktionswörter. Neben der frequenzbezogenen Sortierung bietet Korpusanalysesoftware für Wortlisten oft auch eine alphabetische sowie eine rückläufige Sortierungsoption an, welche es ermöglichen, gezielt bspw. verschiedene Wortbildungstypen zu untersuchen. Der über frequenzbasierte Wortlisten ermittelte häufigste Wortschatz wird etwa zur Bestimmung von Grund- und Aufbauwortschätzen herangezogen (vgl. Tschirner 2005). Keyword-Analyse: Neben den häufigsten Wörtern eines Korpus können diejenigen von Interesse sein, die es von vergleichsrelevanten anderen Textsammlungen unterscheiden. Solche Wörter lassen sich mittels Keyword-Analysen ermitteln. Die Schlüsselwörter (key words) eines Textes oder einer Textsammlung sind jene, die signifikant häufiger auftreten, als aufgrund ihrer Vorkommenshäufigkeit in einem Referenzkorpus zu erwarten wäre. Grundlage ist dabei der Vergleich der Wortliste des untersuchten Korpus mit der Wortliste eines Referenzkorpus: Bei der statistischen Ermittlung wird für jedes Wort des Spezialkorpus (z. B. akademische Lehrbuchtexte verschiedener Fächer) die Häufigkeit bestimmt und mittels Signifikanztest mit der Häufigkeit der Wörter in einem Referenzkorpus (z. B. einem gemein-

5.3.8 Korpusanalyse

311

sprachlichen Korpus) verglichen. Lassen sich signifikante Unterschiede feststellen, handelt es sich um Schlüsselwörter des Spezialkorpus, im Beispiel also um Einheiten, die typisch für akademische Lehrbuchtexte sind. Durch Schlüsselwortanalysen lässt sich der inhaltlich und stilistisch charakteristische Wortschatz eines Sprachverwendungsbereichs bestimmen. Zu beachten ist hierbei, dass die Aussagekraft einer Keyword-Analyse stark davon abhängt, wie geeignet und ausgewogen das verwendete Referenzkorpus ist. Schlüsselwortanalysen können bspw. bei der Ermittlung domänenspezifischer Wortschätze zur Anwendung kommen. So zieht Paquot (2007) keyness als ein grundlegendes Kriterium heran, um eine produktionsorientierte Wortliste des akademischen Englisch zu erstellen. Sie ermittelt hierzu die Schlüsselwörter eines Korpus akademischer Texte im Vergleich zu einem belletristischen Korpus, aus welchen sie dann nach Häufigkeits- und Verbreitungskriterien die Einheiten ihrer Wortschatzliste gewinnt. Häufige Wortfolgen: Neben den prominenten Einzelwörtern eines Korpus können seine häufigsten Type-Verbindungen oder N-Gramme (N steht für die Anzahl der Types) ermittelt werden. Biber/Conrad/Cortes (2004) charakterisieren mit Hilfe dieses Maßes kontrastiv den mündlichen und schriftlichen Sprachgebrauch in der akademischen Lehre. Type-Token-Verhältnis: Der Type-Token Quotient (engl. type-token ratio, kurz TTR) ist ein Maß zur Beschreibung der Wortschatzvarianz bzw. lexikalischen Vielfalt. Zu seiner Berechnung wird die Anzahl der Types eines Textes oder einer Textsammlung durch die Anzahl der Tokens geteilt. Je näher der Quotient bei 1 liegt, desto größer die lexikalische Vielfalt. Das Maß findet u. a. Anwendung zur Einschätzung des Schwierigkeitsgrades von Texten oder zur Beschreibung des Wortschatzreichtums von Lernertexten, anhand dessen die lexikalische Kompetenz der Schreibenden eingeschätzt werden kann. Zu beachten ist bei der Verwendung des TTR einerseits dessen starke Abhängigkeit von der Textlänge, zum anderen sein rein quantitativer Charakter, welcher die Art der gezählten Wörter unberücksichtigt lässt. Soll in einer Untersuchung etwas über die Sprachkompetenz eines Lerners ausgesagt werden, ist nicht nur die Anzahl verwendeter Types relevant, sondern etwa auch, ob es sich hierbei um Einheiten des Grundwortschatzes handelt oder um spezifischere, niedrigfrequentere Einheiten fortgeschrittener Sprachstände (vgl. Daller/van Hout/Treffers-Daller (2003) für eine diesbezügliche Diskussion des TTR). Methoden zur quantitativen Beschreibung ausgewählter Einheiten in Korpora

Quantitative Konkordanzsuche: Der einfachste Weg, die Häufigkeit einer untersuchten Einheit zu ermitteln, ist die Konkordanzsuche. Nach Eingabe des Suchbegriffs oder der komplexen Suchanfrage erhält man die Anzahl aller Treffer im Korpus und die zugehörigen Belege, die anschließend auf mögliche Fehltreffer geprüft werden sollten. Im Normalfall wird die Konkordanzsuche als Wortformensuche ausgeführt, d. h. bei flektierenden Wortarten sind ggf. alle einzelnen Wortformen einzugeben, die gefunden werden sollen. Die Suche nach Lemmata setzt ein diesbezüglich annotiertes Korpus voraus (z. B. bietet das DWDS eine solche lemmabezogene Abfrage an). Im Abschnitt Qualitative Methoden wird ausführlich auf die Arbeit mit Konkordanzsuchen eingegangen. Kookkurrenzanalyse: Die mit einer untersuchten Einheit typischerweise gemeinsam auftretenden Wörter lassen sich über statistische Zusammenhangsmaße in der Kookkurrenzanalyse

312

5. Forschungsverfahren

ermitteln. Zur Berechnung von Kookkurrenzen bzw. Kollokationen im empirisch-statistischen Sinn sind Entscheidungen hinsichtlich der Spanne zu treffen, in welcher die Kookkurrenzpartner vom Suchwort rechts oder links entfernt auftreten können (collocational span). Neben der Festlegung des Abstandes ist die Wahl des statistischen Zusammenhangsmaßes von Einfluss auf die ermittelten Kookkurrenzen. Während auf die Stärke der Kookkurrenz abzielende Maße wie Mutual Information (MI) niedrigfrequente Wörter mit beschränkter Kombinationsfähigkeit übergewichten, erhalten bei den auf die Sicherheit der Kookkurrenz abzielenden Signifikanzmaßen wie dem t-Wert höherfrequente Wörter mit vielen Belegen für die fragliche Kombination eine stärkere Gewichtung (MI gibt daher eher Auskunft über das lexikalisch/idiomatische Verhalten eines Wortes, der t-Wert eher über sein grammatisches, vgl. Hunston 2002: 74). Analog zu der beschriebenen Ermittlung von Assoziationen zwischen Worttypes lassen sich in entsprechend aufbereiteten Datensammlungen auch Kookkurenzen von einzelnen Wörtern bzw. Lexemen und grammatischen Strukturen errechnen, wie dies etwa unter dem Begriff der Collostructional Analysis verfolgt wird (vgl. Stefanowitsch/Gries 2009). Mittels statistischer Kookkurrenzanalysen können für Fremdsprachenlernende wichtige Einblicke in die Verwendungstypik sprachlicher Ausdrücke gewonnen werden. Über die korpuslinguistisch ermittelten Kookkurrenzpartner lässt sich so bspw. eine inhaltliche Differenzierung von Synonymen vornehmen oder die semantische Prosodie eines Ausdrucks, d. h. eine ihm aus wiederkehrenden Gebrauchsumgebungen zuwachsende konnotative Bedeutung, erfassen (vgl. Hunston 2002). Qualitative Methoden

Vorwiegend qualitativ ausgerichtete Korpusanalysen verfolgen das Ziel bestimmte in den Korpusdaten abgebildete (sprachliche) Phänomene zunächst zu ermitteln, sie zu klassifizieren, einzuordnen und zu interpretieren (Scherer 2006: 36). Konkret kann die qualitative Arbeit mit Korpusdaten dazu dienen, die Komplexität sprachlicher Phänomene zu erforschen, Regelmäßigkeiten und Muster im Sprachgebrauch zu erkennen, diese mit anderen Daten zu vergleichen, aber auch Kategorien zur Aufbereitung des Korpus aufzustellen und diese in weiterführenden (mitunter auch frequenzorientierten) Analysen anzuwenden. Anders als bei der Analyse von vom Kontext abstrahierten sprachlichen Einheiten in quantitativen Untersuchungen liegen qualitativen Auswertungen von Korpora meist umfangreichere Belegausschnitte zu Grunde. Der konkrete Verwendungskontext einer sprachlichen Einheit dient dem Forscher dazu, zu erkennen, wie in bestimmten Beispielen Bedeutungen generiert und welche Lesarten aktualisiert werden (Wynne 2008: 711). Die explorativ-interpretative Arbeit mit Korpusdaten bedient sich einer Anzahl an Methoden, die nicht ausschließlich korpuslinguistisch im engeren Sinn orientiert sein müssen. Im Folgenden sollen einige dieser Methoden benannt und im Hinblick auf verschiedene Anwendungsfelder diskutiert werden.

5.3.8 Korpusanalyse

313

Methoden qualitativer Korpusanalyse auf Grundlage von Volltexten

Volltexte können einerseits einer ersten Orientierung hinsichtlich des Untersuchungsgegenstandes dienen, im Rahmen derer Hypothesen generiert werden. Andererseits lassen sich an kompletten Texten eines bestimmten Genres oder bestimmter Varietäten, einer spezifischen Sprecher- oder Autorengruppe Charakteristika herausarbeiten, klassifizieren und/ oder mit denen anderer Texttypen oder Sprachnutzer vergleichen. Methoden der Text-, Diskurs- oder Konversationsanalyse können im Rahmen von Bedarfsanalysen, kontrastiven Untersuchungen (vgl. Schmied 2009), u. a. zu Lernersprache, oder im Hinblick auf die Erstellung von Curricula oder Lehrmaterialien zur Anwendung kommen. Abgesehen von Untersuchungen zu rein sprachlichen und textuellen Aspekten können je nach Art der Daten aber auch konkrete Inhalte der in den Korpora verfügbaren Texte von Relevanz sein, denen methodisch auf vielfältige Weise nachgegangen werden kann (vgl. hierzu Kapitel 5.3.3 – 5.3.6). Das Sichten vollständiger Texte und Kommunikationen ist häufig Ausgangspunkt für die explorative Erarbeitung von Kategorisierungen für spätere Analysestufen. Ein hermeneutisches Vorgehen bezüglich der manuellen Identifikation und Klassifizierung bestimmter in den Daten abgebildeter Phänomene sowie die rückwirkende und prüfende Anwendung dieser Klassen auf die Datensamples sollte in nachvollziehbaren induktiven und deduktiven Zyklen erfolgen und nach Möglichkeit durch weitere Forscherpersonen validiert werden (vgl. Lüdeling 2007: 38 – 39). Die aus den Auswertungsprozessen gewonnenen Kategorien lassen sich schließlich als Annotationen in das Datenkorpus einbinden und sind insbesondere für diejenigen Untersuchungsaspekte nötig, für die es entsprechende empirisch gewonnene Kategorien oder Standards nicht gibt. Für einzelne Beschreibungsebenen stehen bereits erprobte Tagsets zur Verfügung, an denen sich die manuelle Annotation orientieren kann und die für die jeweiligen Datensamples adaptiert werden können, so zum Beispiel das Stuttgart-Tübingen-TagSet (STTS) für die Wortartenannotation (POS-Tagging). Für die technische Integration induktiv erarbeiteter Annotationen können neben speziell in der Korpuslinguistik genutzten Werkzeugen wie @nnotate39 oder dem Annotation-Panel des EXMARaLDA-Partitureditors auch verschiedene QDA-Tools (Qualitative Data Analysis) verwendet werden, sofern die zur Verfügung stehenden Korpora das Herunterladen ganzer Texte zur Weiterverarbeitung zulassen. Verfügbare Tools zur (halb-)automatischen Annotation sind zum Beispiel der TreeTagger40 oder WebAnno41, das im Rahmen der CLARIN-Initiative42 aufgebaut wurde. Bei der Nutzung derartiger Tagger ist zu beachten, dass die automatisch annotierten Daten einer manuellen Qualitätsüberprüfung unterzogen werden sollten, da insbesondere im Hinblick auf Ambiguitäten bestimmter Wortformen unzuverlässige Kategorisierungen erfolgen können (vgl. hierzu auch die Hinweise von Lüdeling 2007: 32). Bei der Auswahl der Annotationssoftware sollte berücksichtigt werden, ob eine elektronische Weiterverarbeitung oder Verfügbarmachung für weitere Analyseschritte, ggf. mit zusätzlichen Such- oder Analysewerkzeugen, gewährleistet bleibt. 39 http://www.coli.uni-saarland.de/projects/sfb378/negra-corpus/annotate.html (24. 3. 2014). 40 http://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/ (24. 3. 2014). 41 https://code.google.com/p/webanno/ (24. 3. 2014). 42 https://www.clarin.eu/content