Empirische Legitimitätsforschung

Bis Maastricht fand die Debatte um die Legitimität der EU ausschließlich unter den politischen Eliten statt (Schrag/Sternberg 2013), wie die EU als solche bis dahin auch als Projekt der Eliten gelten kann. In der öffentlichen und auch in der wissenschaftlichen Wahrnehmung erlangte die Europäische Gemeinschaft ihre Legitimität vor allem auf der Output-Dimension, nämlich ihrer Performanz in der Friedenssicherung und der Wohlstandsmaximierung ihrer Mitgliedsländer (Fuchs 2011, S. 27; Schrag/ Sternberg 2013, S. 14). Während es zahlreiche Studien (Beichelt 2010; Fuchs 2003; Lubbers und Scheepers 2010; Weßels 2007) zu den Einstellungen der Bürger gegenüber der EU gibt, untersuchten bisher wenige die Legitimität der EU auf Bürgerebene. Der Vergleich der Bürger und Eliten auf Einstellungsebene zeigt hohe Zustimmungswerte unter den Eliten und niedrige Zustimmungswerte unter den Bürgern. Für die Frage der Legitimität wären in der logischen Folge der niedrigen Zustimmungswerte zur EU eine ausgeprägte Wahrnehmung der Legitimitätsproblematik und der Demokratiedefizite der EU zu erwarten. Überraschend sind jedoch die Ergebnisse Beichelts (2010) zur Untersuchung der EU-Skepsis der Bürger von EU-Mitgliedsstaaten. Entgegen der theoretischen und empirischen Erwartungen jener Autoren, die von einem Legitimitätsdefizit der EU ausgehen, liegt die EU-Skepsis in Deutschland in den Jahren von 1982 bis 2007 lediglich zwischen 5 und 15 %.2 Zuletzt für das Jahr 2008 konstatieren die empirischen Befunde eine Zustimmung zur EU von beinahe 70 % (Beichelt 2010, S. 5).3

Fuchs (2003) untersuchte ebenfalls mittels Daten des Eurobarometers den Einfluss von systemischer Performanz [1] (output-orientiert) und demokratischer Performanz5 (input-orientiert) auf die generalisierte Unterstützung der Bürger für die EU.6 Das Demokratiedefizit der EU hat folglich in dieser Studie auch nicht die von zahlreichen Autoren (Blondel et al. 1998; Katz und Weßels 1999; Kielmannsegg 1996; Scharpf 1999; Thomassen und Schmidt 1999) angenommene „negative Auswirkung auf die Unterstützung der EU durch die Bürger der Mitgliedsländer“ (Fuchs 2003, S. 50).

Auf der Basis dieser Untersuchungen stellt sich die Frage, ob die These des Legitimitätsdefizits tatsächlich falsch ist und das EU-Legitimitätsproblem lediglich in den wissenschaftlichen Debatten existiert. Statt diese und die damit verbundenen Thesen zum Demokratiedefizit der EU auf der vorliegenden Datengrundlage mittels einer Erhebungsmethode zu verwerfen, gilt es zu prüfen, ob möglicherweise die Defizite der bisherigen Erhebungsmethode zu diesem Ergebnis führen.

2.2.1 Quantitativ vs. qualitativ

Der erste Kritikpunkt an der herkömmlichen Legitimitätsforschung ist die Unschärfe des Begriffs. Ursprünglich mit Blick auf die Nationalstaaten konzipiert (Easton 1965, 1975) hat sich der Begriff der Legitimität nicht modifiziert auch auf politische Ordnungen jenseits des Staates ausgeweitet. Die „Messung von Legitimität und die Erklärung unterschiedlicher Niveaus der Regime-Unterstützung“ (Schmidtke und Schneider 2012, S. 225) stehen weiterhin im Vordergrund, während es kaum „Forschung zu Legitimationsprozessen und -praktiken“ gibt (Schmidtke und Schneider 2012, S. 225). Darüber hinaus sind die Vorstellungen von legitimer Herrschaft stark normativ geprägt. Die Anerkennungswürdigkeit politischer Herrschaft unterliegt dieser normativen Perspektive folgend, die Fuchs (2011) als objektive Legitimität bezeichnet, universalen demokratieoder gerechtigkeitstheoretischen Bewertungsmaßstäben. Vernachlässigt werden durch diese von außen vom Forscher herangetragenen Bewertungskriterien die Legitimitätsansprüche und -urteile der Regierenden und der Regierten selbst, also die tatsächliche Anerkennung der Ordnung (Schmidtke und Schneider 2012, S. 226) bzw. die subjektive Legitimität (Fuchs 2011). Mittels standardisierter Umfragen wie dem Eurobarometer sind Forscher ausschließlich in der Lage, diese normative Perspektive zu messen. Die empirische Perspektive, wie Schmidtke und Schneider (2012, S. 226) die tatsächliche Anerkennung der Ordnung (subjektive Legitimität) bezeichnen, bleibt unberücksichtigt. Gemessen wird also lediglich die geäußerte Positionierung der Befragten innerhalb der wissenschaftlichen Konstruktion von Realität und nicht die tatsächliche Einstellung der Befragten in der Realität selbst. Stattdessen liegt das Forschungsinteresse der empirischen Legitimitätsforschung darin zu hinterfragen, welche normativen Standards den Beurteilungen, ob ein Regime legitim ist oder nicht, zu Grunde liegen (Fuchs 2011, S. 31). Diese Problematik ist eng verbunden mit der Frage nach einem homogenen Verständnis der gemessenen Begriffe, also welche die dahinter liegenden normativen Grundprinzipien sind. Ein weiterer Zusammenhang besteht mit der Frage nach sprachlicher und kultureller Äquivalenz sowie den Phänomenen des Lippenbekenntnisses und der sozialen Erwünschtheit. Diese Probleme sind jedoch nicht nur auf die Legitimitätsforschung beschränkt, sondern betreffen allgemein die politische Kulturforschung, Einstellungsforschung und Forschung zu Werten und Normen, insbesondere dort, wo Einstellungen zu abstrakten Begriffen gemessen werden sollen, wie zum Beispiel zu Legitimität oder auch zu Demokratie.

Bevor die Legitimität der EU auf der Einstellungsebene der Bürger gemessen werden kann, sollte geklärt werden, was die Bürger eigentlich unter Legitimität verstehen und ob dieser Begriff tatsächlich so homogen gebraucht wird, wie es die normative Sichtweise der Politikwissenschaft vorgibt. Möglicherweise liegt hier eine Erklärung für den dargestellten Widerspruch zwischen empirischen Ergebnissen und theoretischer Forschung zur EU-Legitimität, und eine Anpassung der Fragen standardisierter Umfragen an heterogenere Begriffsdefinitionen wäre nötig. Dem Argument folgend soll im empirischen Teil zusätzlich getestet werden, ob der Legitimitätsbegriff der Befragten homogen oder heterogen ist (H0).

Die Probleme der normativen Ausrichtung und homogenen Verwendung von Begriffen weisen zum Phänomen der sprachlichen und funktionalen Äquivalenz. Bereits in national angelegten Studien problematisch, werden Äquivalenzprobleme in Cross country- und Cross culture-Studien ein Hindernis, da weder von einem vergleichbaren Verständnis der Fragen noch einer vergleichbaren Verwendung der genutzten Begriffe und Assoziationen ausgegangen werden kann (Lauth et al. 2009). Standardisierte Umfragen ignorieren jedoch genau diese Unterschiede.

Eine verwandte Herausforderung der Umfrageforschung sind die Unterschiede der subjektiven Verwendung der vorgegebenen Skalen (Wand 2012, S. 1). In der Praxis gehen Forscher davon aus, dass alle Befragten subjektive Skalen in exakt der gleichen Weise interpretieren. Da Befragte aber durchaus in der Interpretation der Skalen differieren, ist diese Vorgehensweise fraglich (Wand 2012). So haben Forschungen der Methoden der Umfrageforschung und der Cross culture-Psychologie ergeben, dass es Länder gibt, in denen die Befragten dazu tendieren, eine Seite der Skalen häufiger zu verwenden als die andere. In anderen Ländern oder Kulturen lässt sich das Phänomen beobachten, dass entweder hauptsächlich die jeweils extremen Pole einer Skala verwendet werden oder hauptsächlich die mittleren Bereiche der Skala (Stegmüller 2011, S. 3). In der Konsequenz kann es also durchaus sein, dass Befragte aus verschiedenen Ländern oder Kulturen verschieden antworten, obwohl sie Vorlieben und Einstellungen teilen. Damit sind die Daten nicht äquivalent und nur schwer vergleichbar.

Eine Methode, mit der heterogenen Verwendung von Ordinalskalen umzugehen, ist das Setzen von Anchoring vignettes (King et al. 2004; King und Wand 2007; Wand 2012). „By observing how each individual rates a common set of vignettes, a researcher may discern differences in scale use and thereby adjust the meaning of each individual's self-evaluation“, wie Wand (2012, S. 1) es beschreibt. Da jedoch Anchoring vignettes der ursprünglichen Umfrage hinzugefügt werden, sind sie in der Anwendung recht aufwendig und nicht weit verbreitet (Pickel et al. 2009). Anchoring vignettes bieten eine Antwort auf das Problem unterschiedlich verstandener und verwendeter Antwortkategorien (King und Wand 2007, S. 46).

Das Problem der sprachlichen und kulturellen Äquivalenz von Begriffen und Konzepten selbst können aber auch die Anchoring vignettes nicht aufheben. Etablierte Lösungsstrategien für diese Problematik sind gewissenhafte Übersetzung und Rückübersetzung der Fragen und Antwortoptionen, Fokusgruppen oder Cognitive debriefing (King und Wand 2007, S. 46). Ziel der Übersetzung und Rückübersetzung ist es zum Beispiel, den Unterschied zwischen sprachlicher und funktionaler Äquivalenz zu identifizieren. Dieses Vorgehen kann jedoch nicht verhindern, dass ein unterschiedliches Verständnis nach wie vor die Antworten beeinflusst (Lauth et al. 2009). Dennoch ignorieren Forscher dieses unterschiedliche Verständnis in unterschiedlichen Untersuchungsfällen und nehmen weitestgehende Ähnlichkeiten an, so dass die erzielten Ergebnisse aussagekräftig werden. Fragebogenrückübersetzung, so kann festgehalten werden, unterscheidet nicht zwischen sprachlicher und kultureller Äquivalenz. In der westlichen Welt hat sich dieses Vorgehen zwar durchaus bewährt. Für Studien, die über Westeuropa und Nordamerika hinausgehen, bietet es jedoch keine geeignete Lösungsstrategie. Konsequenterweise schließen in Folge dessen einige Wissenschaftler diese Länder von ihren Studien aus, was jedoch gravierend die Generalisierbarkeit (Pickel 2006), Übertragbarkeit und Vergleichbarkeit der Ergebnisse einschränkt. Eine bessere Lösung scheint jedoch nicht in Sicht, weshalb Pickel et al. (2009) davon ausgehen, dass die bisherige Vorgehensweise auch in Zukunft dominieren wird.

Ein alternativer Ansatz, um die oben angesprochenen Defizite rein quantitativen Vorgehens zu mildern, sind offene Fragen. Ebenso wie Dalton et al. (2008) im Anschluss an standardisierte Fragen einiger großer Cross national-surveys7 qualitative Daten zum Verständnis von Demokratie[2] gesammelt haben, wäre auch eine vergleichbare Untersuchung zur Frage nach dem Legitimitätsverständnis der Bürger vorstellbar, um die oben angesprochenen Defizite rein quantitativen Vorgehens zu mildern.

Der Bezug auf den Einzelfall ist der Hauptvorzug qualitativer Forschung. Um den subjektiven Sinn menschlichen Handelns zu analysieren ist es notwendig, das Subjekt ins Zentrum der Forschung zu rücken. Durch eine höchstmögliche Offenheit, eine möglichst geringe Beeinflussung durch Fragen und Antwortmöglichkeiten sowie die aktive Artikulation und Formulierung von Meinungen und Einstellungen mit den eigenen Worten sollen die Probleme der sozialen Erwünschtheit und des bloßen Lippenbekenntnisses abgeschwächt werden (Pickel und Pickel 2009). Zusätzlich hat die Äquivalenzproblematik in offenen Interviews weniger Gewicht, weil der Interviewer bei konzeptionellen Widersprüchen die Möglichkeit hat, für ein besseres Verständnis vertiefend nachzufragen. Komplett frei von diesen Einschränkungen ist das qualitative Interview jedoch auch nicht.

Ein spezifisches Problem, mit dem Interviews mit offenen Fragen konfrontiert sind, ist das Problem der vagen Antworten. Des Weiteren kann die Reihenfolge der gestellten Fragen, die häufig während der Erstellung des Interviewleitfadens festgelegt wird, die Antworten beeinflussen. Und schließlich liegt auch beim Kodierer der Interviews eine mögliche Fehlerquelle. Während der Kodierer die Bedeutung der (möglicherweise vagen) Antwort identifiziert, wird den Daten automatisch zusätzliche Variabilität und Subjektivität hinzugefügt und damit die Reliabilität reduziert. Zudem können qualitative Daten nicht auf der Makroebene verglichen werden. Und schließlich ist die Repräsentativität der Daten eingeschränkt, da es, verglichen mit quantitativen Daten, zu zeit- und kostenintensiv ist, auf qualitativem Weg eine ausreichend große Menge an Daten zu sammeln (Pickel 2009; Pickel et al. 2009).

Auch qualitative Forschung, so lässt sich festhalten, kann die Schwächen quantitativer Forschung maximal reduzieren, aber nicht aufheben. Auch wenn Dalton et al. (2008) in der oben genannten Studie die (vermeintlich) eigenen Definitionen der Befragten von Demokratie in ihre Analysen einbeziehen, gelingt es ihnen nicht, soziale Erwünschtheit und Lippenbekenntnisse von tatsächlichen Normen und Werten der Gesellschaften zu unterscheiden und das Problem der sprachlichen und funktionalen Äquivalenz zu lösen.9 Die Einstellungen, Normen und Werte, die sich hinter dem Geäußerten verbergen, bleiben weiterhin nicht messbar. Gleichzeitig bleiben die, gegenüber quantitativer Forschung, nicht unwesentlichen Nachteile bestehen.

2.2.2 Messen vs. Beurteilen

Standardisierte Umfragen geraten auch als Methode der empirischen Legitimitätsforschung ins Kreuzfeuer der akademischen Debatte (Patberg 2013; Zürn 2011a, b, 2013). Ein auf Umfragedaten basierender Akzeptanzbericht könne nicht die Analyse der empirischen Legitimität eines politischen Systems sein, so die Kritik (Patberg 2013). Zudem verfehlen Umfragedaten die Konzeptionalisierung empirischer Legitimität, da es nicht bloß um die Akzeptanz einer politischen Ordnung gehe (Zürn 2013), sondern um die Frage, ob die Art des Herrschaftszugangs und der Herrschaftsausübung mit den allgemein geteilten Überzeugungen übereinstimmt (Beetham und Lord 1999), also auch inwieweit die Wahrnehmungen von der Legitimität und Einstellungen zu einer politischen Ordnung zwischen Herrschenden und Beherrschten kongruent verlaufen. Mit Beetham (1991) argumentiert Patberg (2013), dass es zu kurz greife, lediglich zu messen, „ob die Bürger an die Legitimität ihrer politischen Ordnung glauben, sondern ob die Herrschaft in Übereinstimmung (Hervorhebung im Original) mit den Überzeugungen, Werten und Erwartungen der Bürger ausgeübt werde“ (Patberg 2013, S. 158). Statt des umfragedatenbasierten Akzeptanzberichts, der Legitimitätsforschung als Messung, sollte die Beurteilung, ob sich die institutionelle Struktur und die Performanz eines politischen Systems in Übereinstimmung mit den „normativen Maßstäbe[n] (…) und Erwartungen an politische Herrschaft, welche die Bürger generell und ohne Bezug zum gegenwärtigen Zustand des eigenen politischen Systems hegen“ (Patberg 2013, S. 159), befinden oder nicht, im Zentrum der Forschung stehen. Der zentrale Unterschied zwischen der Legitimitätsforschung als Messung und der Legitimitätsforschung als Beurteilung ist Patberg (2013) folgend das urteilende Subjekt. In der Legitimitätsforschung als Messung sind die Beherrschten das Subjekt, welches über die Legitimität einer politischen Ordnung urteilt, worüber der Forscher berichtet. In der Legitimitätsforschung als Beurteilung wird der Forscher selbst zum beurteilenden Subjekt (Zürn 2013). Bei aller Kritik an der Unterscheidung zwischen „messen“ und „beurteilen“ teilt Zürn (2013) den Einwand Patbergs (2013), dass es „in der empirischen Legitimitätsforschung (…) letztlich um die Legitimität aus der Sicht der Betroffenen“ (Zürn 2013, S. 175) gehen müsse und nicht „um die normative Beurteilung einer Praxis als gut oder schlecht anhand von externen Kriterien, die vom Beobachter bestimmt werden“ (Zürn 2013,

S. 175). Oder mit Patbergs Worten sollte es bei empirischer Legitimitätsforschung darum gehen, dass „[d]ie Legitimität von Herrschaftspraktiken (…) nicht anhand eines theoretisch konstruierten normativen Ideals beurteilt [wird], sondern der Maßstab (…) die empirisch zu ermittelnden normativen Standards der Bürger (…) [sind]“ (Patberg 2013, S. 159). An dieser Stelle ist Patberg (2013) m. E. zu widersprechen, wenn er aus dieser Erkenntnis schlussfolgert, dass eben diese „Beurteilung einer politischen Ordnung als legitim oder illegitim“ dem Modell der Legitimitätsforschung als Beurteilung folgend „nicht dem Bürger, sondern dem Wissenschaftler“ (Patberg 2013, S. 160) obliegt. Patberg (2013, S. 160) zufolge identifiziert der Forscher die normativen Standards der Bürger, rekonstruiert anschließend die existierende Herrschaftsordnung und setzt dann die Wertüberzeugungen der Bürger in Beziehung zu den rekonstruierten Herrschaftspraktiken, beurteilt also, ob eine Übereinstimmung vorliegt oder nicht, ob also die gegebene politische Ordnung als legitim wahrgenommen wird oder nicht. Geht es hier aber um subjektive Legitimität und nicht um objektive Legitimität, sollte doch der Bürger selbst beurteilen, inwieweit seine normativen Maßstäbe mit der existierenden Herrschaftsordnung übereinstimmen und nicht der Forscher, der bei aller Gewissenhaftigkeit eine externe Position einnimmt und von theoretisch konstruierten Idealvorstellungen beeinflusst ist. Insofern ist der Einschätzung Zürns (2013) m. E. zuzustimmen, dass „der Gegenstand der empirischen Legitimitätsforschung (…) der Legitimitätsglaube sein [sollte] – und nicht das, wie bei Markus Patberg, möglicherweise in der Rekonstruktion der Verhältnisse versteckte Gerechtigkeitsempfinden des Forschers“ (Zürn 2013, S. 176). Zürn leitet daraus ein prozessorientiertes Modell der empirischen Legitimitätsforschung ab, auf dessen einer Seite die Autoritätsausübenden mit ihrer Herrschaftspraxis und ihre Rechtfertigungen stehen und auf der anderen Seite die Autoritätsunterworfenen mit der Bewertung dieser Rechtfertigungen anhand ihrer normativen Überzeugungen. Eine zusätzliche Dimension dieses Modells ist der Legitimationsprozess im öffentlich Raum, in dem die Rechtfertigungen und Anforderungen miteinander interagieren (Zürn 2013, S. 178). Datengrundlage dieses Modells wären Umfragedaten, Diskurse und Stellungnahmen auf Seiten der Autoritätsunterworfenen und Analyse der Entscheidungsprozesse sowie Diskurs- und Inhaltsanalysen auf Seiten der Autoritätsausübenden (Zürn 2013, S. 178–179). Die Beurteilung der Übereinstimmung wird in diesem Modell jedoch im Vergleich zu Patberg (2013) vernachlässigt. Empirische Legitimitätsforschung als „Messung“ und „Beurteilung“ durch den Beherrschten selbst erscheint, auf der theoretischen Basis der Legitimitätsforschung (Beetham und Lord 1999; Fuchs 2011), als lohnenswerte Weiterentwicklung der Debatte.

Ein weiterentwickeltes Modell zur empirischen Legitimationsforschung könnte demnach folgendermaßen aussehen (Abb. 1): Zunächst interpretieren die Beherrschten die von ihnen wahrgenommenen Herrschaftspraktiken und schließen damit auf die zu Grunde liegende Herrschaftsordnung. Diese angenommene Herrschaftsordnung wird mit den eigenen normativen Standards verglichen. Stimmen die angenommene Herrschaftsordnung und die normativen Standards überein, entsteht Legitimität. Daraus ergeben sich für den Forscher drei Analyseschritte. Der erste Analyseschritt untersucht die zu Grunde liegenden normativen Standards der Bürger. Im zweiten Analyseschritt wird die Übereinstimmung der normativen Standards mit der Herrschaftsordnung gemessen. Und in einem dritten Schritt gilt es die Gewichtung der normativen Standards, also welche normativen Standards tatsächlich letzten Endes auch legitimitätsstiftend sind, zu analysieren. Die Festlegung der normativen Stan-

Abb. 1 Modell empirischer Legitimitätsforschung. (Quelle: Eigene Darstellung)

dards und die Beurteilung der Übereinstimmung mit der Herrschaftsordnung liegen beim Befragten, während der Forscher lediglich analysiert.

Mittels standardisierter Umfragen wie dem Eurobarometer sind Forscher ausschließlich in der Lage, die normative Perspektive von Legitimität zu messen, die empirische Perspektive, wie Schmidtke und Schneider (2012, S. 226) die tatsächliche Anerkennung der Ordnung (subjektive Legitimität) bezeichnen, bleibt unberücksichtigt. Gemessen wird, sowohl mittels Umfragedaten als auch durch Inhalts- und Diskursanalysen, lediglich die geäußerte Positionierung der Befragten innerhalb der wissenschaftlichen Konstruktion von Realität, nämlich der Analyse der Entscheidungsprozesse, und nicht die tatsächliche Einstellung der Befragten in der Realität selbst. Stattdessen liegt das Forschungsinteresse der empirischen Legitimitätsforschung darin zu hinterfragen, welche normativen Standards den Beurteilungen, ob ein Regime legitim ist oder nicht, zu Grunde liegen (Fuchs 2011, S. 31) und inwieweit diese mit der Herrschaftspraxis übereinstimmen. Dazu bedarf es alternativer Methoden oder wie bereits im Modell Zürns (2013) angeregt, eines Methodenmix.

2.2.3 Mixed methods

Die unterschiedlichen Strategien zur Messung abstrakter Begriffe wie Legitimität oder Demokratie und die Kritik an ihnen spiegeln die generelle Debatte der vergleichenden Politikwissenschaft zu den jeweiligen Vor- und Nachteilen der quantitativen und der qualitativen Methoden wider sowie die Frage nach dem methodischen Königsweg (Jahn 2009; Lauth et al. 2009; Pickel 2006, 2009; Pickel und Pickel 2009).

Qualitative und quantitative Forscher sind sich indes soweit einig, dass nur eine Quantifizierung der Ergebnisse die notwendige Verallgemeinerungsfähigkeit der Aussagen gewährleistet. Einzig über standardisierte Interviews sei es möglich, überhaupt erst zwischen Makroeinheiten vergleichbare Aussagen über Bürger treffen zu können (Pickel et al. 2009). Das Resümee lautet: „Nur durch die standardisierte Umfrageforschung wird eine empirisch fundierte vergleichende Werte-, Einstellungs- und auch Verhaltensforschung überhaupt erst umsetzbar“ (Pickel 2009, S. 303). Die wichtige Aufgabe der qualitativen Forschung sei es, sinnvolle Quantifizierung zu ermöglichen (Pickel und Pickel 2009), indem sie dabei unterstützt, valide Messinstrumente zu erstellen (Coppedge 1999).

So wird auch verstärkt das Potential der verschiedenen Methoden in sogenannten Mixed methods-Designs diskutiert. Die Kombination qualitativer und quantitativer Daten in einer Untersuchung ermöglicht ein besseres Verstehen des Forschungsproblems als eine der beiden methodischen Herangehensweisen es für sich allein leisten kann (Pickel 2009). Auch in der empirischen Legitimitätsforschung wird, wie herausgearbeitet, darüber diskutiert, dass Umfragedaten allein nicht die einzige Datenquelle sein sollten (Schmidtke und Schneider 2012; Zürn 2013). Wenn das Ziel aber nicht bloß ein Nebeneinander quantitativer und qualitativer Methoden sein soll, sondern tatsächliche Integration, liegt eine Umsetzungsmöglichkeit eines Mixed methodsDesigns in einem Nested analysis-Ansatz (Lieberman 2005). Bei diesem Ansatz sind quantitative Large-N-Untersuchungen gut zur Auswahl von Small-N-Untersuchungen in die Tiefe. Sie dienen dazu, den Fokus auf bestimmte Fallstudien und Vergleiche zu lenken oder dazu, aus Small-N Studien generierte Hypothesen zusätzlich zu überprüfen. Small-N-Analysen wiederum können dazu dienen, die Plausibilität der statistisch beobachteten Beziehungen zwischen Variablen zu testen, auf der Basis von Ausreißern und anderen Fällen neue Erkenntnisse zu generieren und bessere Messstrategien zu entwickeln (Lieberman 2005). Ziel der Nested analysis ist also, sowohl qualitative als auch quantitative Forschung zu integrieren und von beiden zu profitieren. Lieberman (2005, S. 437) entwickelt ein Pfadmodell, wie und zu welchen Analysezwecken beide Forschungsansätze kombiniert werden können.

Ein möglicher Pfad zum aufgeworfenen Forschungsproblem wäre, nach der Large-N-Analyse, die, wie im Kap. 2.2. zur „Empirischen Legitimitätsforschung“ mit u. a. Beichelt (2010) dargestellt, keine zufriedenstellenden Ergebnisse geliefert hat, mit einer Small-N-Analyse das zu Grunde liegende Modell weiterzuentwickeln. Die Fallauswahl wäre in diesem Pfad von der Logik bestimmt, sowohl typische Fälle als auch Ausreißer zu untersuchen. Sollte sich aus der Analyse ein kohärentes Modell ergeben, ist dieses erneut durch eine Large-N-Analyse zu testen, um zu generalisierbaren Aussagen zu gelangen.

Als besondere Herangehensweise werden die Mixed model-Studien diskutiert, „in welchen bereits innerhalb der verschiedenen Stufen des Forschungsprozesses beide Ansätze zum Tragen kommen. Es erfolgt also kein Austausch der Ergebnisse parallel zueinander durchgeführter Studien, sondern eine Vermengung innerhalb der Untersuchungsphasen (Fragestellung, Datenerhebung, Datenanalyse)“ (Pickel 2009, S. 309).

  • [1] Operationalisiert wurde die EU-Skepsis in dieser Untersuchung auf der Basis der EurobarometerUmfrage mit der Variable: die Mitgliedschaft in der EU ist eine gute oder schlechte Sache.
  • [2] Die Autoren selbst kommentieren die Ergebnisse ihrer qualitativen Analyse: „It is surprising that a large proportion of the public in developing nations defines democracy in liberal-democratic terms. Even if these are only ‚questionnaire democrats'an interpretation that we reject – it is still remarkable that citizens with limited democratic experience know the ‚correct' answers“ (Dalton et al. 2008, S. 6–7). Während die Existenz von Questionnaire democrats eine durchaus interessante Einsicht ist, erklärt es dennoch nicht, wie Bürger Demokratie verstehen und wie tief demokratische Normen und Werte tatsächlich in den Gesellschaften verwurzelt sind und welche Basis formale demokratische Institutionen in den jeweiligen Ländern letztlich haben.
 
< Zurück   INHALT   Weiter >