< Zurück   INHALT   Weiter >

4.3 Weitere Themen

4.3.1 Missing Data

Alle realen Datensätze sind mehr oder weniger stark vom Problem fehlender Werte (Missing Data) betroffen, das weiter oben im Text auf Seite 100 bereits angesprochen wurde. Dabei lassen sich idealtypisch drei Ausfallmechanismen unterscheiden (grundlegend dazu immer noch Schafer und Graham 2002). Völlig zufällige Ausfälle hängen weder vom wahren Wert der Variablen selbst noch vom Wert anderer Variablen ab. Diese Eigenschaft wird als MISSING COMPLETELY AT RANDOM (MCAR) bezeichnet. Ein (konstruiertes) Beispiel dafür wäre ein unsystematischer Übertragungsfehler beim Eingeben der Fragebögen, durch den einzelne Werte bei einzelnen Befragten verlorengehen. In der Realität häufiger ist der Fall, dass im Rahmen eines komplexen Versuchsplanes bestimmte Fragen nur zufällig ausgewählten Subgruppen von Befragten vorgelegt werden. Bei den übrigen Respondenten fehlen die Antworten. Dies wird auch als „missing by design“ bezeichnet.

Eine zweite Möglichkeit besteht darin, dass die Ausfallwahrscheinlichkeit nicht vom Wert der Variablen selbst, wohl aber vom Wert anderer Variablen beeinflusst wird. So könnte man sich vorstellen, dass die gegen Ende eines Interviews gestellte Frage nach der Beurteilung eines Spitzenpolitikers von politisch interessierten Bürgern häufiger beantwortet wird als von solchen Befragten, die sich weniger stark für Politik interessieren, weil Angehörige der ersten Gruppe eine höhere Motivation haben, ihrer Meinung Ausdruck zu verleihen, während Angehörige der zweiten Gruppe die Befragung unabhängig von ihrer Meinung zu der betreffenden Person nun zügig zu einem Ende bringen möchten. Liegt tatsächlich ein solcher Mechanismus vor, so spricht man davon, dass die Antworten MISSING AT RANDOM (MAR) sind, weil es innerhalb der betreffenden Gruppe vom Zufall abhängt, ob die Frage beantwortet wird oder nicht.

Im dritten Fall schließlich hänget die Wahrscheinlichkeit eines Antwortausfalls vom Wert der Variable ab. Dies betrifft u. a. heikle Fragen, etwa nach der Ablehnung von Juden oder Migranten. Befragte, die sich bewußt sind, dass ihre Einstellungen sozial unerwünscht sind, werden hier häufig die Antwort verweigern. Diese Ausfälle sind MISSING NOT AT RANDOM bzw. NONIGNORABLE (MNAR/NI) und führen zu Verzerrungen.

Diese Dreiteilung ist nützlich, weil sich mit ihrer Hilfe verdeutlichen läßt, wie es zu Ausfällen kommt und mit welchen Konsequenzen dadurch zu rechnen ist. In der Forschungspraxis besteht allerdings zwischen MAR und MNAR/NI ein fließender Übergang. In vielen Fällen läßt sich die Annahme, dass Ausfälle MAR, also innerhalb von Subgruppen zufällig sind, durch die Berücksichtigung zusätzlicher Hintergrundinformationen plausibler machen.

In den gängigen Statistikprogrammen werden Fälle mit einem oder mehreren fehlenden Werten per Voreinstellung bei der Modellschätzung nicht berücksichtigt. Diese Praxis wird als „listwise deletion“ bezeichnet und ist in der Politikwissenschaft in den vergangenen Jahren in die Kritik geraten (King et al. 2001). In vielen Fällen ist das listenweise Löschen aber vergleichsweise unproblematisch. Wenn die Ausfälle MCAR sind, kommt es zu keinerlei Verzerrungen. Selbst unter MAR

halten sich die Verzerrungen aber oft in Grenzen (Allison 2002). In jedem Fall reduziert sich aber durch das listenweise Löschen der Umfang der Stichprobe und damit auch die Präzision der Schätzungen. Insbesondere wenn die Zahl der Variablen groß ist, wie dies bei der Schätzung von Strukturgleichungsmodellen ja häufig der Fall ist, kann dies problematisch sein [1].

Dies zeigt eine einfache Beispielrechnung: Wenn bei 20 Variablen jeweils fünf Prozent der Antworten (ein eher niedriger Wert) völlig zufällig fehlen, ist nach dem listenweisen Löschen nur noch ein gutes Drittel der Fälle vorhanden (0.9520 ≈

0.36). Ein solcher Umgang mit den Daten wäre offensichtlich sehr unökonomisch.

In der Praxis gibt es primär zwei Alternativen zu dieser problematischen Vorgehensweise. Zum einen kann das Modell mit dem bereits oben in Abschn. 4.2.2 angesprochenen FIML-Verfahren geschätzt werden. FIML ist in der Lage, auch unvollständige Fälle zu verarbeiten und somit alle verfügbaren Informationen für die Parameterschätzung zu nutzen. Vorausgesetzt wird dabei, dass die Ausfälle MAR sind. Sowohl LISREL als auch Mplus und Stata bieten die Möglichkeit, Modelle mit kontinuierlichen Variablen durch die Auswahl der entsprechenden Option per FIML zu schätzen. Mplus bietet darüber hinaus eine große Zahl vergleichbarer Möglichkeiten für Modelle mit kategorialen Variablen und für Situationen, in denen die Ausfälle MNAR/NI sind. Grundsätzlich kann die MAR-Annahme durch die Aufnahme von Hilfsvariablen in das Modell plausibler gemacht werden. Auch hier bietet Mplus besonders viele (und besonders komplexe) Möglichkeiten.

Zum anderen besteht die Möglichkeit, die fehlenden Werte zu „imputieren“ d. h. durch plausible Schätzungen zu ersetzen, die sich aus einem Modell des Ausfallprozesses ergeben. Um der zusätzlichen Unsicherheit Rechnung zu tragen, die sich daraus ergibt, dass dieses Modell seinerseits auf Schätzungen basiert, werden heute stets mehrere dieser ergänzten Datensätze generiert, die sich – je nach Grad der Unsicherheit – mehr oder minder stark unterscheiden (MULTIPLE IMPUTATION). Wenn der Anteil der fehlenden Werte nicht übermäßig hoch ist, genügt es in der Regel, zwischen sieben und 13 Datensätze zu erzeugen. Diese werden dann nacheinander getrennt analysiert und die Ergebnisse (Parameterschätzungen und Standardfehler) miteinander kombiniert [2].

Das Verfahren der multiplen Imputation ist mit einem erheblichen numerischen und auch administrativen Aufwand verbunden. Ersterer verliert jedoch durch die Verfügbarkeit immer schnellerer Prozessoren zusehends an Bedeutung, letzterer wird durch moderne Programme wie LISREL, Mplus und Stata, die den Benutzer bei der Verwaltung der imputierten Datensätze unterstützen, auf ein erträgliches Maß reduziert.26 Sehr komfortabel ist die Verwaltung der imputierten Datensätze insbesondere in Stata gelöst, das auch besonders flexible Möglichkeiten zur Konstruktion der Imputationsmodelle bietet und diesem Thema nicht umsonst einen ganzen Band des Handbuches widmet. Die Leichtigkeit, mit der sich multiple Imputationen in moderner Software realisieren lassen, sollte allerdings nicht darüber hinwegtäuschen, dass es sich um ein komplexes Verfahren mit einer Vielzahl potentieller Fehlerquellen handelt. Über besondere Komplikationen, die sich aus dem Zusammenspiel von fehlenden Werten und Strukturgleichungsmodellen ergeben, informieren Graham und Coffman (2012).

  • [1] Die alternative Methode des paarweisen Löschens (pairwise deletion) schließt weniger Fälle aus, wird aber sehr kontrovers diskutiert. Siehe dazu auch Punkt 8, Seite 100
  • [2] Für die Parameterschätzungen wird dabei einfach der Mittelwert über die separaten Analysen gebildet. Die Regel zur Ermittelung der korrigierten Standardfehler berücksichtigt neben den Standardfehlern aus den einzelnen Analysen zusätzlich die Zahl der Imputationen sowie die Variation der Parameterschätzungen über die imputierten Datensätze hinweg. Moderne Programme führen diese Berechnungen automatisch durch
 
< Zurück   INHALT   Weiter >