Post-hoc-Test
Post-hoc-Tests sind Signifikanztests aus der mathematischen Statistik. Mit der einfachen Varianzanalyse, dem Kruskal-Wallis-Test oder dem Median-Test wird nur festgestellt, dass es in einer Gruppe von Mittelwerten signifikante Unterschiede gibt. Die Post-hoc-Tests geben mit paarweisen Mittelwertvergleichen Auskunft, welche Mittelwerte sich signifikant voneinander unterscheiden. Oder sie ermöglichen durch gruppenweise Vergleiche eine Aussage darüber, welche Gruppen-Mittelwerte nicht signifikant verschieden sind.
Übersicht der Post-hoc-Tests
[Bearbeiten | Quelltext bearbeiten]Die Post-hoc-Tests unterscheiden sich in verschiedenen Kriterien, z. B. sind die Stichprobenumfänge in allen Gruppen gleich (balancierter Fall) oder nicht (unbalancierter Fall) oder ist die Varianz in allen Gruppen gleich (Varianzhomogenität) oder nicht (Varianzheterogenität). Die Varianzhomogenität kann mit dem Levene-Test überprüft werden.
Test | Vergleich von | Varianzhomogenität | Stichprobenumfänge |
---|---|---|---|
kleinster signifikanter Unterschied | Mittelwertpaaren | Nein | Ungleich |
Bonferroni-Test auf kleinsten signifikanten Unterschied | Mittelwertpaaren | Ja | Ungleich |
Šidák | Mittelwertpaaren | Nein | |
Tamhane [1] | Mittelwertpaaren | Nein | |
Games-Howell | Mittelwertpaaren | Nein | |
Dunnett's | Mittelwertpaaren | Nein | Bei kleinen Stichprobenumfängen |
Dunnett's | Mittelwertpaaren | Nein | Bei großen Stichprobenumfängen |
Ryan-Einot-Gabriel-Welch | überspannten Mittelwerten | Ja | |
Duncan | überspannten Mittelwerten | Ja | Gleich |
Tukey b | überspannten Mittelwerten | Ja | |
Student-Newman-Keuls | überspannten Mittelwerten | Ja | Gleich |
Tukey | überspannten Mittelwerten | Ja | Gleich |
Hochberg | überspannten Mittelwerten | Ja | |
Gabriel | überspannten Mittelwerten | Ja | |
Scheffé | Mittelwertpaaren | Ja | Ungleich |
Die Tests können teilweise geordnet werden, je nachdem wie konservativ sie sind:
- Konservativ -- Duncan > Scheffé > Tukey > Newman-Keuls > kleinster signifikanter Unterschied -- Nicht konservativ.
Voraussetzungen und Notation
[Bearbeiten | Quelltext bearbeiten]Man geht davon aus, dass bei den Mittelwertvergleichen in Gruppen und bei einem Signifikanzniveau die Alternativhypothese angenommen wurde, d. h., es existieren Unterschiede zwischen mindestens zwei Gruppenmittelwerten. Die Hypothesen für alle folgenden Tests sind
* für die paarweisen Tests: | vs. und |
* für die überspannten geordneten Mittelwerte: | vs. . |
Des Weiteren sei die Anzahl der Beobachtungen in der Gruppe und die Anzahl aller Beobachtungen. Die Tests werden unterschieden in Tests für den balancierten Fall () und für den unbalancierten Fall (die Stichprobenumfänge in den Gruppen können unterschiedlich sein).
Tests für den unbalancierten Fall
[Bearbeiten | Quelltext bearbeiten]Test auf kleinsten signifikanten Unterschied
[Bearbeiten | Quelltext bearbeiten]Im Test auf kleinsten signifikanten Unterschied (least significant difference test, kurz: LSD test), auch Test auf kleinste gesicherte Differenz[2], oder Grenzdifferenztest ist die Teststatistik:
mit
und die Gruppenvarianz der Gruppe .
Der Test auf kleinsten signifikanten Unterschied beruht auf dem Zweistichproben-t-Test, jedoch wird die Varianz mit Hilfe aller Gruppen berechnet.
Bonferroni-Test auf kleinsten signifikanten Unterschied
[Bearbeiten | Quelltext bearbeiten]Im Bonferroni-Test auf kleinsten signifikanten Unterschied ist die Teststatistik identisch zur Teststatistik des Tests auf kleinsten signifikanten Unterschied. Jedoch wird das Signifikanzniveau nach der Bonferroni-Methode korrigiert. Wird die Varianzanalyse mit dem Signifikanzniveau durchgeführt, so wird das korrigierte Signifikanzniveau für die paarweisen Mittelwertvergleiche benutzt:
- .
Die kritischen Werte für das korrigierte Signifikanzniveau finden sich in speziellen Tabellen oder können mit Hilfe der Approximation
bestimmt werden. ist das -Quantil aus der Standardnormalverteilung.
Der Test sollte nur bei nicht zu großem angewandt werden, da sonst das korrigierte Signifikanzniveau zu klein wird und sich Nichtablehnungsbereiche der t-Tests überschneiden. Ist z. B. und , dann ist .
Scheffé-Test
[Bearbeiten | Quelltext bearbeiten]Der Scheffé-Test verlangt eigentlich die Varianzhomogenität in den Gruppen, jedoch ist er gegen die Verletzung dieser Voraussetzung unempfindlich.
Einfacher Scheffé-Test
[Bearbeiten | Quelltext bearbeiten]Der einfache Scheffé-Test prüft vs. mit Hilfe der Teststatistik
- .
Der einfache Scheffé-Test ist ein Spezialfall des allgemeinen Scheffé-Tests für einen linearen Kontrast für zwei Mittelwerte.
Linearer Kontrast
[Bearbeiten | Quelltext bearbeiten]Ein linearer Kontrast einer oder mehrerer Mittelwerte ist definiert als
- mit .
Für den einfachen Scheffé-Test ist der lineare Kontrast:
- .
Zwei Kontraste und heißen orthogonal, wenn gilt
- .
Allgemeiner Scheffé-Test
[Bearbeiten | Quelltext bearbeiten]Für den allgemeinen Scheffé-Test sind die Hypothesen für alle (orthogonalen) Kontraste vs. für mindestens ein Kontrast. Die Teststatistik ergibt sich zu
- .
Die Idee beruht auf der Varianzzerlegung des geschätzten Kontrastes
- ,
da unter Gültigkeit der Nullhypothese gilt: .
Tests für den balancierten Fall
[Bearbeiten | Quelltext bearbeiten]Diese Tests sind für den balancierten Fall gedacht, d. h., der Stichprobenumfang in jeder Gruppe ist gleich . SPSS führt den Test auch durch bei ungleichen Stichprobenumfängen in jeder Gruppe, jedoch wird dann als das harmonische Mittel der Stichprobenumfänge berechnet.
Die Teststatistik ist für die folgenden Tests immer die gleiche
- .
Die kritischen Werte liegen nur tabelliert vor (meist für oder ). Dabei liegen zwischen den Mittelwerten und noch weitere Mittelwerte.
Tukey-Test
[Bearbeiten | Quelltext bearbeiten]Im Tukey-Test ergeben sich die kritischen Werte aus
- ,
d. h., es findet keine Bonferroni-Korrektur statt und die Zahl der überspannten Mittelwerte wird nicht berücksichtigt.
Student-Newman-Keuls-Test
[Bearbeiten | Quelltext bearbeiten]Im Student-Newman-Keuls-Test ergeben sich die kritischen Werte aus
- ,
d. h., es findet keine Bonferroni-Korrektur statt und die Zahl der überspannten Mittelwerte wird berücksichtigt.
Duncan-Test
[Bearbeiten | Quelltext bearbeiten]Im Duncan-Test ergeben sich die kritischen Werte aus
- ,
d. h., es findet eine Bonferroni-Korrektur statt und die Zahl der überspannten Mittelwerte wird berücksichtigt.
Bei der Anwendung des Duncan-Tests ist zu beachten, dass er lediglich gruppenweise Vergleiche durchführt, sodass eindeutige Signifikanzaussagen nicht immer möglich sind.
Beispiel
[Bearbeiten | Quelltext bearbeiten]Bundesland | Anzahl | Median | Mittel | Std.abw. |
---|---|---|---|---|
Sachsen | 1356 | 19,0 | 22,3 | 12,5 |
Brandenburg | 803 | 19,0 | 23,4 | 13,2 |
Mecklenburg-Vorpommern | 491 | 20,0 | 22,1 | 10,3 |
Thüringen | 744 | 21,0 | 24,0 | 13,3 |
Berlin | 998 | 22,0 | 24,4 | 11,9 |
Baden-Württemberg | 3246 | 22,0 | 24,8 | 14,2 |
Bayern | 3954 | 22,0 | 25,4 | 14,2 |
Nordrhein-Westfalen | 5266 | 23,0 | 25,8 | 13,8 |
Hessen | 1904 | 23,0 | 26,3 | 14,3 |
Sachsen-Anhalt | 801 | 23,0 | 26,6 | 14,3 |
Rheinland-Pfalz | 1276 | 24,0 | 26,1 | 13,5 |
Niedersachsen | 2374 | 24,0 | 27,9 | 15,7 |
Hamburg | 528 | 24,5 | 29,3 | 18,9 |
Schleswig-Holstein | 890 | 25,0 | 27,9 | 14,8 |
Saarland | 312 | 26,0 | 26,7 | 11,9 |
Bremen | 194 | 27,0 | 29,2 | 15,8 |
Deutschland | 9527 | 22,0 | 25,5 | 14,0 |
Für die Mietbelastungsquote (= Anteil der Bruttokaltmiete am Haushaltsnettoeinkommen), entnommen aus den CAMPUS Files für den Mikrozensus 2002 des Statistischen Bundesamtes, ergeben sowohl der nicht-parametrische Median-Test als auch die parametrische einfache Varianzanalyse (englisch one-way ANOVA) hochsignifikante Unterschiede in den Medianen bzw. Mittelwerten der Bundesländer. D. h., es gibt also Unterschiede zwischen den Bundesländern in den mittleren Mietausgaben (im Verhältnis zum Einkommen).
Da der Levene-Test die Nullhypothese der Varianzhomogenität ablehnt und die Beobachtungszahlen sich in der Stichprobe deutlich unterscheiden, bleiben nur folgende Testverfahren zur Unterschiedsbestimmung übrig:
- kleinster signifikanter Unterschied
- Bonferroni-Test auf kleinsten signifikanten Unterschied
- Scheffé
Da der Scheffé-Test in SPSS sowohl paarweise Vergleiche durchführt als auch homogene Untergruppen ausgibt, schauen wir uns dessen Ergebnisse an.
Paarweise Vergleiche
[Bearbeiten | Quelltext bearbeiten]Der paarweise Vergleich dient der Aussage über signifikante Unterschiede zwischen den Mittelwerten der einzelnen Gruppen. Im vorliegenden Beispiel werden für die jeweiligen paarweisen Vergleiche für jede Kombination von zwei Bundesländern ausgegeben:
- die Differenz ,
- der Standardfehler,
- der p-Wert (Spalte: Signifikanz), der bei Unterschreitung des vorgegebenen Signifikanzniveaus eine Ablehnung der Gleichheit der Mittelwerte bedeutet, und
- ein 95 %-Konfidenzintervall für die Differenz der Mittelwerte. Enthält das Konfidenzintervall nicht die Null wird die Nullhypothese zum Signifikanzniveau von 5 % abgelehnt.
Bei einem vorgegebenen Signifikanzniveau von 5 % unterscheidet sich nur der Mittelwert Sachsens signifikant von dem Schleswig-Holsteins (p-Wert gleich 2,1 %), bei allen anderen Vergleichen mit Schleswig-Holstein werden keine signifikanten Unterschiede festgestellt.
Gruppenweise Vergleiche
[Bearbeiten | Quelltext bearbeiten]Mittels des gruppenweisen Vergleichs lassen sich detaillierte Aussagen über die Homogenität der Mittelwerte von Gruppen treffen. Aussagen über die signifikanten Unterschiede zwischen den Gruppen erlaubt dieser Vergleich jedoch nur eingeschränkt.
Im vorliegenden Beispiel wird ein iterativer Prozess durchgeführt, um homogene Untergruppen zu finden, d. h. Gruppen, in denen die Nullhypothese der Gleichheit der Mittelwerte nicht abgelehnt wird. Dazu werden die beobachteten Mittelwerte der Größe nach geordnet und es wird eine Folge von Tests durchgeführt.
Überspannte Mittelwerte |
Geprüfte Nullhypothesen | ||||||
---|---|---|---|---|---|---|---|
16 | |||||||
15 | |||||||
14 | |||||||
13 | |||||||
… | Im allgemeinen Fall werden weitere Tests mit immer weniger Gruppen durchgeführt | ||||||
Im Beispiel: | nicht abgelehnt | in zuvor nicht abgelehnter enthalten | abgelehnt |
Im ersten Schritt wird die Nullhypothese getestet und abgelehnt; wir wissen ja schon, dass die Mittelwerte unterschiedlich sind. Dann wird zunächst
- das Bundesland mit dem größten Mittelwert entfernt und die Nullhypothese getestet und
- das Bundesland mit dem kleinsten Mittelwert entfernt und die Nullhypothese getestet.
In beiden Tests werden nur noch Gruppen mit 15 Bundesländern getestet. Wird die Nullhypothese bei einem der Tests abgelehnt (in der Tabelle rot), so werden aus der Gruppe das Bundesland mit dem größten Mittelwert und das Bundesland mit dem kleinsten Mittelwert entfernt und es wird erneut getestet. Damit wird eine Sequenz von zu testenden Nullhypothesen mit einer immer kleiner werdenden Anzahl von Mittelwerten aufgebaut.
Das Verfahren wird abgebrochen, wenn
- entweder die Nullhypothese bei einem der Tests nicht abgelehnt werden kann (in der Tabelle grün) oder
- die betrachtete Nullhypothese bereits Teil einer nicht abgelehnten Nullhypothese ist (in der Tabelle gelb) oder
- nur noch ein Bundesland übrig ist.
Die "grünen" Untergruppen werden von SPSS ausgegeben.
Für das Beispiel ergeben sich zwei homogene Untergruppen mit jeweils 14 Bundesländern. D. h., hier konnte die Nullhypothese der Gleichheit der Mittelwerte nicht abgelehnt werden. Von der homogenen Untergruppe 1 sind Bremen und Hamburg, von der homogenen Untergruppe 2 Sachsen und Mecklenburg-Vorpommern ausgeschlossen. Aussagen darüber, welche Mittelwerte welcher Bundesländer signifikant verschiedenen sind, können in diesem Fall nicht getroffen werden.
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Ajit C. Tamhane: Multiple comparisons in model I one-way ANOVA with unequal variances. In: Communications in Statistics - Theory and Methods. Band 6, Nr. 1, 1977, S. 15–32, doi:10.1080/03610927708827466.
- ↑ Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 373.
Literatur
[Bearbeiten | Quelltext bearbeiten]- Bernd Rönz: Skript: Computergestützte Statistik I. Humboldt-Universität zu Berlin, Lehrstuhl für Statistik, Berlin 2001.