< Zurück   INHALT   Weiter >

6.2.3.3 Arten von Fragen und deren Qualität

Lehrerfragen werden insgesamt sehr unterschiedlich gegliedert (z. B. Cecil, 2008; Deckwerth, 1983; Gall & Artero-Boname, 1995; Klinzing & Klinzing-Eurich, 1987; Knapp, 1985; Levin, 2005; Niegemann & Stadler, 2001; Petersen & Sommer, 1999; Sommer, 1981; Steindorf, 2000; Tausch & Tausch, 1980; Wragg & Brown, 2001), wobei sich einige Klassifikationssysteme beispielsweise eher an formalen Merkmalen von Fragesätzen, andere an inhaltlichen Kriterien orientieren (Wunderlich, 1978; Klinzing & Klinzing-Eurich, 1987). Am häufigsten finden sich Klassifikationen nach dem kognitiven Niveau der Frage (Levin, 2005). Neben kognitiv ausgerichteten Fragen werden in einigen Klassifikationssystemen aber auch gefühlsgerichtete sowie ablaufgerichtete/organisatorische Fragen aufgenommen (z. B. Cecil, 2008; Knapp, 1985; Petersen & Sommer, 1999; Sommer, 1981). An dieser Stelle können nur ausgewählte Klassifikationsmöglichkeiten skizziert werden, die für die Arbeit relevant sind. Dazu zählen formale Aspekte der Frage, die Offenheit und das kognitive Niveau der Frage, die Einbettung der Einzelfrage in Fragenkomplexe sowie die Wartezeit nach der Frage.

6.2.3.3.1 Formale Aspekte der Frage

Auf einer eher formalen Ebene lassen sich Fragen nach der Antwortform beispielsweise in Entscheidungsund W-Fragen/Ergänzungsfragen unterteilen (z. B. Knapp, 1985; Rieder 1968; Steindorf, 2000). Allgemein gelten Ergänzungsfragen als hochwertiger als Entscheidungsfragen, „weil sie den Schüler zu größerer geistiger und sprachlicher Aktivität herausfordern“ (Steindorf, 2000, S. 144). Hier ist aber – wie schon bei der Diskussion um Fragen vs. Impulse – anzumerken, dass deren Lernförderlichkeit vom jeweiligen Ziel, der Situation und den Adressaten abhängt und dass es dementsprechend sowohl sinnvolle Entscheidungsals auch Ergänzungsfragen geben kann.

6.2.3.3.2 Offenheit der Frage (Konvergenz vs. Divergenz)

Viele Klassifikationssysteme für Fragen berücksichtigen deren Offenheit/Geschlossenheit bzw. die Konvergenz oder Divergenz der Frage (z. B. Flanders, 1970; Kobarg & Seidel, 2003; Pauli, 2006b). Zum Teil wird dies auch als Enge vs. Weite der Frage beschrieben (Aebli, 1967; Wragg

& Brown, 2001). Diese Unterscheidung geht auf das Intelligenzstrukturmodell nach Guilford (1971) zurück. Er unterscheidet neben „Cognition“ (Erkennen/Wiedererkennen), „Memory“ (Erinnern) und „Evaluation“ (Bewertung), „Divergent Production“ (divergente Produktion) von

„Convergent Production“ (konvergente Produktion). Konvergente Fragen verlangen relativ kurze, spezifische Antworten und haben nur eine bestimmte richtige Antwort. Divergente Fragen sind offener, lassen verschiedene Denkwege und mehrere mögliche richtige Antworten zu, sodass die Schülerinnen und Schüler einen größeren Spielraum haben (Gallagher & Ashner, 1963; Knapp, 1985; Petersen & Sommer, 1999; Sommer, 1981).

Beiden Fragetypen kommt im Unterricht eine berechtigte Funktion zu, je nachdem, ob eher kreative Antworten produziert werden sollen oder aber „regelhaftes, eng strukturiertes, auf

eine bestimmte Lösung orientiertes Denken erforderlich ist“ (Sommer, 1981, S. 30; vgl. auch Knapp, 1985; Tsui, Marton, Mok & Ng, 2004). Im Rahmen der IPN-Videostudie wurde gezeigt, dass Lehrpersonen deutlich mehr geschlossene (64%) als offene (36%) Fragen stellen (Kobarg

& Seidel, 2007).

6.2.3.3.3 Kognitives Niveau und Inhalt der Frage

Es wird davon ausgegangen, dass vor allem das kognitive Niveau der Frage die Tiefe der Informationsverarbeitung beeinflusst (Levin, 2005). Grundlage für die meisten Klassifikationssysteme für Fragen nach kognitivem Niveau ist die Lernzieltaxonomie von Bloom und Kollegen (Bloom et al., 1956, 1976; vgl. Levin, 2005; Klinzing & Klinzing-Eurich, 1982; Lowyck, 1976; Cazden, 1986), auf deren Grundlage Wissens-, Verständnis-, Anwendungs-, Analyse-, Syntheseund Bewertungsfragen unterschieden werden, wobei das kognitive Niveau jeweils steigt (Levin, 2005; vgl. auch 6.2.2.2.3). Ab den Analysefragen wird meist von Fragen höherer Ordnung gesprochen (Klinzing & Klinzing-Eurich, 1982). Kritisiert wird dabei aber oft die Trennschärfe der Niveaustufen und die strenge Hierarchisierung (z. B. Dubs, 1978, 2009; Levin, 2005), weshalb Taxonomien, die auf Bloom aufbauen, die sechs Stufen häufig auch auf zwei oder drei Stufen reduzieren (z. B. Andre, 1979; Dubs, 1978; Measel & Mood, 1972; zsf. Levin, 2005; Sommer, 1981). Dabei werden vorwiegend zwei Arten von Fragen voneinander abgegrenzt: Wissensund Denkfragen, wobei hier zum Teil auch von Fragen mit höherem oder niedrigerem kognitiven Niveau (higher/lower order questions) gesprochen wird (z. B. Cecil, 2008; Flanders, 1970; Frey & Fisher, 2007; Gayle et al., 2006; Knapp, 1985; Niegemann & Stadler, 2001; Petersen & Sommer, 1999, Sommer, 1981). Während Wissensfragen durch Erinnern an bereits Erlerntes beantwortet werden können, konfrontieren Denkfragen die Schülerinnen und Schüler mit neuen Problemen und Situationen. Der Lernende muss also eine Transferleistung erbringen, um die Frage zu beantworten (Knapp, 1985; Petersen & Sommer, 1999; Sommer, 1981). In anderen Klassifikationssystemen wird die Länge der Schülerantworten als Kriterium zur Einschätzung des kognitiven Niveaus herangezogen, indem Langantwortfragen, Kurzantwortfragen und Deep Reasoning-Fragen unterschieden werden (Batzel, 2010; Graesser & Person, 1994; Kobarg & Seidel, 2003; Niegemann & Stadler, 2001). Eine grundsätzliche Herausforderung bei der Kategorisierung von Lehrerfragen nach ihrem kognitiven Niveau besteht darin, dass je nach Vorwissen des Lernenden dieselbe Frage unterschiedliche kognitive Prozesse auslösen kann, weshalb bei der Videoanalyse lediglich die (unterstellte) Absicht der Lehrperson als Kriterium der Einordnung herangezogen werden kann (Batzel, 2010; Gall, 1970).

Bezogen auf Fragen zu Lesetexten werden oftmals textexplizite von textimpliziten Fragen unterscheiden. Textexplizite Fragen können ausschließlich mit erworbenem Wissen aus dem Text beantwortet werden, textimplizite Fragen gehen darüber hinaus. Außerdem können sich Fragen aufbauend auf Kintsch und van Dijk (1978) eher auf die Mikrooder die Makrostruktur des Textes beziehen, sie fokussieren also entweder spezifische Details des Textes oder übergreifende Zusammenhänge (Bean, 1985; Guszak, 1967; Pearson & Johnson, 1978).

Studien, welche die Häufigkeit von Fragen mit unterschiedlichem kognitiven Niveau untersuchen, belegen über Schularten und Klassenstufen hinweg die Dominanz von eher einfachen Reproduktionsfragen gegenüber higher-order-questions (z. B. Galton, Simon & Croll, 1980; Knierim, 2008; Kobarg & Seidel, 2007; Sandoval, 1976; zsf. Gall, 1970; Gayle et al., 2006; Hargie, 1977; Klinzing & Klinzing-Eurich, 1987; Wilen, 1982; Wragg & Brown, 2001), wenn auch die genauen Definitionen und Prozentangaben variieren. So stehen je nach Definition in den einzelnen Studien 4-20 % Fragen höheren kognitiven Niveaus 40-90 % Fragen mit niedrigerem Niveau gegenüber (zsf. Lipowsky, 2009). Für den Leseunterricht in der zweiten, vierten und sechsten Klasse zeigt beispielsweise Guszak (1967), dass vor allem Fragen gestellt werden, die Erinnern und Wiedererkennen erfordern und dass vorwiegend das wörtliche Verstehen geprüft wird. Auch Beobachtungen im amerikanischen Grundschulunterricht belegen, dass vor allem textexplizite Fragen mit nur einer möglichen richtigen Antwort gestellt werden (Block, 2001).

Insgesamt sind die Ergebnisse zur Wirksamkeit des kognitiven Niveaus von Fragen nicht konsistent, was zum Teil auf die sehr unterschiedlichen einbezogenen Fächer und Klassenstufen sowie verschiedene Definitionen von higherund lower-order-questions zurückgeführt werden kann. Entscheidend ist außerdem die Art der Messung des Lernerfolgs bei den Schülerinnen und Schülern (Gall & Rhody, 1987; Klinzing & Klinzing-Eurich, 1982; Lipowsky 2009). In einer früheren Metaanalyse wiesen Redfield und Rousseau (1981) eine sehr hohe Effektstärke von d = 0.73 für Fragen höheren kognitiven Niveaus auf die Schülerleistung nach, wobei der Effekt in einer Folgeanalyse von Samson, Strykowski, Weinstein und Walberg (1987) nicht in dieser Höhe bestätigt werden konnte, sondern nur bei d = 0.26 lag. In einer neueren Zusammenfassung von Forschungsergebnissen (Gayle et al., 2006) wird gezeigt, dass der Großteil der Forschungsarbeiten keinen Einfluss der Art der Frage auf die Schülerleistungen nachweisen konnte bzw. dass die Effekte je nach Studie sehr unterschiedlich sind. Während einige Studien die Überlegenheit von Fragen mit niedrigem kognitivem Niveau unterstützen, sind laut anderen Studien Fragen höherer Ordnung überlegen. Gayle und Kollegen (2006) kommen in ihrer eigenen Metaanalyse auf Basis von 13 Studien zu einer mittleren Effektstärke von d = 0.33 für Fragen im Allgemeinen und vermuten weitere Moderatorvariablen, die den Zusammenhang zwischen kognitivem Niveau und Leistung beeinflussen, aber nicht identifiziert werden konnten. Auch der Effekt von kognitiv anspruchsvollen Fragen auf das Niveau der Schülerantworten wird mit d = 0.41 als moderat eingeschätzt (Gayle et al., 2006).

6.2.2.3.4 Aufeinanderfolge von Fragen

Im Unterricht ist nicht nur die Art und der Inhalt jeder einzelnen Frage bedeutsam, sondern auch deren Aufeinanderfolge (Gall, 1970; Shaver, 1964; Taba, Elzey & Levine, 1964; Wragg & Brown, 2001). So lassen sich beispielsweise Hauptvon Spezialfragen unterscheiden (Knapp, 1985). Niegemann und Stadler (2001) bemessen den Komplexitätsgrad einer Frage auch an der Anzahl an Teilfragen. Ähnlich wie beim Bearbeiten von Aufgaben nachgewiesen werden konnte, dass hier oftmals ein Kleinarbeiten komplexer Probleme stattfindet (vgl. 6.2.2.2.3), ist auch bei Fragen vorstellbar, dass eine komplexe Ausgangsfrage durch die schrittweise Zerlegung in Hilfsfragen und -impulse ihr Anspruchsniveau einbüßt (Lundgren, 1977). Während sich eine horizontale Fragefolge dadurch auszeichnet, dass nacheinander mehrere Fragen mit gleichem oder ähnlichem kognitiven Niveau gestellt werden, nimmt bei aufsteigenden Fragefolgen das Niveau von Frage zu Frage zu, wohingegen es bei absteigenden Fragefolgen sinkt (Knapp, 1985). Eine absteigende Fragenfolge kann aber nicht nur darauf hindeuten, dass Fragen kleingearbeitet werden, sondern auch, dass die Ausgangsfrage zu komplex war, sodass eine Adaptation an das Leistungsniveau der Schülerinnen und Schüler nötig ist (Knapp, 1985).

6.2.3.3.5 Wartezeit nach der Fragestellung

Als ein Qualitätsmerkmal in Zusammenhang mit dem Fragenstellen wird auch sehr häufig die Wartezeit (auch „wait time“ oder „thinking time“) genannt, die den Schülerinnen und Schülern von der Lehrperson gewährt wird (z. B. Aebli, 1967; Cecil, 2008; Gall & Rhody, 1987; Gayle et al., 2006; Heinze & Erhard, 2006; Morgan & Saxton, 1991; Rowe, 1974a, b, 1987; Tobin, 1987; Wilen, 1987; Wragg & Brown, 2001). Dabei wird als Wartezeit 1 meist die Zeit zwischen Lehrerfrage und Schülerantwort bezeichnet, wohingegen mit Wartezeit 2 die Zeit zwischen Schülerantwort und weiteren Handlungen der Lehrperson gemeint ist (Borich, 2007; Ebbens & Ettekoven, 2009; Heinze & Erhard, 2006). Im Folgenden wird ausschließlich auf die Wartezeit 1 eingegangen, da Wartezeit 2 eher zur Qualität des Feedbacks gezählt und daher in Abschnitt 6.2.6.3.1 näher beschrieben wird.

In einer frühen, vielzitierten Studie zeigt Rowe (1974b), dass der Durchschnitt der Wartezeit bei nur 0.9 Sekunden liegt. Diese kurze Wartezeit wurde in der Folgezeit in vielen Studien repliziert (zsf. Heinze & Erhard, 2006; Tobin, 1987). In der DESI-Videostudie wird für die dort videografierten Englischstunden aufgezeigt, dass die Schülerinnen und Schüler auf 49 % der Fragen unmittelbar antworten. Brauchen die Schülerinnen und Schüler länger, so warten die Lehrpersonen nur in 11 % der Fälle, während sie in den restlichen Fällen beispielsweise Hilfestellungen geben oder die Frage selbst beantworten (Helmke et al., 2008b).

Als optimale Wartezeit wird von Rowe (1974b) der Bereich zwischen drei und fünf Sekunden angegeben, wobei drei Sekunden Wartezeit oft als Schwellenwert gelten (Rowe, 1974b; Tobin, 1987). In mehreren Untersuchungen konnte belegt werden, dass eine Verlängerung der Wartezeit beispielsweise zu elaborierteren Schülerantworten, mehr Meldungen sowie zu einer höheren Aufmerksamkeit und Beteiligung der Lernenden führt (zsf. Gage & Berliner, 1996; Heinze & Erhard, 2006; Rowe, 1974b, 1987; Tobin, 1984, 1987). Die Ergebnisse zum Zusammenhang zwischen Wartezeit und Lernerfolg sind aber eher uneinheitlich (Lipowsky, 2009; Tobin, 1987).

Dabei muss berücksichtigt werden, dass Fragen unterschiedlichen kognitiven Niveaus vermutlich auch unterschiedlich lange Wartezeiten erfordern (Heinze & Erhard, 2006; Tobin, 1987), obwohl Gayle und Kollegen (2006) in ihrer Metaanalyse nachweisen, dass die Wartezeit tatsächlich kaum mit dem kognitiven Niveau der Frage in Zusammenhang steht. Tobin (1987) schlussfolgert aus seiner Zusammenfassung des Forschungsstands, dass eine längere Wartezeit für Fragen höheren kognitiven Niveaus eine notwendige, aber nicht hinreichende Bedingung zur Förderung höherwertiger Lernprozesse darstellt. Bezogen auf die kognitive Aktivierung der Schülerinnen und Schüler kann davon ausgegangen werden, dass eine ausreichende Wartezeit gerade in heterogenen Grundschulklassen (vgl. 6.2.1.3.3) von besonderer Bedeutung ist, um auch schwächeren Schülerinnen und Schülern die Gelegenheit zu geben, über die gestellten Fragen nachzudenken.

6.2.3.4 Fazit für die videobasierte Analyse

Durch die Videoanalysen sollen detaillierte Aussagen über die Fragepraxis der Lehrpersonen ermöglicht werden, wobei alle Aspekte, die in den vorherigen Abschnitten beschrieben wurden, berücksichtigt werden. Aufgrund der bisherigen Forschungserkenntnisse werden im Rahmen dieser Arbeit Fragen und Impulse nicht getrennt betrachtet. Formale Aspekte der Fragen werden aber mitkodiert, um in anschließenden Analysen untersuchen zu können, ob bestimmte Frageformen mit einer höheren Qualität einhergehen. Da das Stellen von Fragen auch in Schülerarbeitsphasen eine unterstützende Funktion für die Schülerinnen und Schüler haben kann (Neber, 2006), werden die Lehrerfragen in allen Unterrichtsphasen (öffentlicher Unterricht und Schülerarbeitsphasen) kodiert und es werden sowohl Fragen berücksichtigt, die sich an die gesamte Klasse als auch an einzelne Lernende richten. Für jede Frage wird erfasst, um welche Art von Frage es sich handelt, wobei das kognitive Niveau anhand der Kategorien Wissens-, Denkund Reflexionsfragen erfasst wird. Zur Vollständigkeit des Kategoriensystems werden aber auch organisatorische oder ablaufgerichtete Fragen aufgenommen. Des Weiteren wird kodiert, in welcher Form die Frage gestellt wird (offen vs. geschlossen; Entscheidungsvs. Ergänzungsfrage) und wie viel Wartezeit die Lehrperson den Schülerinnen und Schülern nach der Fragestellung gewährt.

 
< Zurück   INHALT   Weiter >