Shapiro-Wilk-Test
Der Shapiro-Wilk-Test ist ein statistischer Signifikanztest, der die Hypothese überprüft, dass die zugrunde liegende Grundgesamtheit einer Stichprobe normalverteilt ist.
Die Nullhypothese nimmt an, dass eine Normalverteilung der Grundgesamtheit vorliegt. Demgegenüber unterstellt die Alternativhypothese , dass keine Normalverteilung gegeben ist. Wenn der Wert der Teststatistik größer ist als der kritische Wert , wird die Nullhypothese nicht abgelehnt und es wird angenommen, dass eine Normalverteilung vorliegt.
Wird alternativ der -Wert des Tests ermittelt, so wird die Nullhypothese in der Regel nicht abgelehnt, wenn der -Wert größer ist als das festgelegte Signifikanzniveau .
Das Testverfahren wurde 1965 von dem Amerikaner Samuel Shapiro und dem Kanadier Martin Wilk veröffentlicht und ist das Ergebnis ihrer ursprünglichen Idee, die graphischen Informationen der Analyse auf Normalverteilung mittels Normalwahrscheinlichkeitsplot in einer Kennzahl zusammenzufassen.
Der Test kann zum Überprüfen von univariaten Stichproben mit 3 bis 5000 Beobachtungen eingesetzt werden. Eine Weiterentwicklung des Tests, der sogenannte Royston's H-Test, ermöglicht die Überprüfung mehrdimensionaler Stichproben auf mehrdimensionale Normalverteilung.
Neben anderen bekannten Tests auf Normalverteilung, wie beispielsweise dem Kolmogorow-Smirnow-Test oder dem Chi-Quadrat-Test, zeichnet sich der Shapiro-Wilk-Test durch seine vergleichsweise hohe Teststärke in zahlreichen Testsituationen aus, insbesondere bei der Überprüfung von kleineren Stichproben mit .
Der Shapiro-Wilk-Test oder Abwandlungen des Tests wie der Ryan-Joiner-Test sind in gängigen kommerziellen und nicht kommerziellen statistischen Softwarepaketen vertreten.
Eigenschaften
[Bearbeiten | Quelltext bearbeiten]Vortest für weitere Testvorhaben
[Bearbeiten | Quelltext bearbeiten]Einige inferenzstatistische Analyseverfahren (wie beispielsweise Varianzanalyse, t-Test oder lineare Regression) setzen voraus, dass die Vorhersagefehler (Residuen) aus einer normalverteilten Grundgesamtheit stammen, dies zumindest bei kleinen Stichprobenumfängen mit . Somit kann der Shapiro-Wilk-Test auf Normalverteilung auch als Vortest für weitere Testvorhaben aufgefasst werden.
Kein allgemeiner Anpassungstest
[Bearbeiten | Quelltext bearbeiten]Während einige Normalitätstests wie der Kolmogorow-Smirnow-Test oder der Chi-Quadrat-Test allgemeine Anpassungstests (Goodness-of-Fit-Tests) darstellen, die im Stande sind eine Stichprobe auf verschiedene hypothetische Verteilungen hin zu testen (einschließlich der Normalverteilung), ist der Shapiro-Wilk-Test einzig auf die Untersuchung hinsichtlich Normalverteilung konzipiert. Im Unterschied zu allgemeinen Anpassungstests, die für gewöhnlich mindestens 50 bis 100 Beobachtungen benötigen, um aussagekräftige Testergebnisse zu erhalten, sind beim Shapiro-Wilk-Test oft weniger Beobachtungen vonnöten.
Eigenschaft als Omnibus-Test
[Bearbeiten | Quelltext bearbeiten]Der Shapiro-Wilk-Test ist ein Omnibus-Test, d. h., er ist lediglich in der Lage festzustellen, ob es eine signifikante Abweichung zur Normalverteilung gibt oder nicht. Er ist nicht im Stande zu beschreiben, in welcher Form die Abweichung auftritt. Er kann z. B. keine Aussage darüber treffen, ob die Verteilung links- oder rechtsschief ist oder ob es sich um eine endlastige Verteilung handelt oder ggf. beides.
Stichprobenumfang bis 5000 Beobachtungen
[Bearbeiten | Quelltext bearbeiten]Ursprünglich war der Test nur im Stande, Stichproben vom Umfang zu untersuchen. Im Jahr 1972 wurde es möglich, den Test durch eine Erweiterung von Shapiro und Francia auch für Stichproben vom Umfang einzusetzen. Danach gab es weitere Anpassungen, die den möglichen Anwendungsbereich weiter vergrößerten. Royston führte 1982[1] eine weitere Verbesserung ein und machte Stichproben der Größe möglich. Rahman und Govidarajulu[2] erweiterten 1997 den Einsatzbereich des Tests auf Stichproben vom Umfang .
Hohe Teststärke
[Bearbeiten | Quelltext bearbeiten]Allgemein ist die Teststärke für sämtliche Normalitätstests bei kleinen Stichprobenumfängen geringer als bei größeren, da hier der Standardfehler relativ groß ist. Erst wenn der Stichprobenumfang größer wird, reduziert sich der Standardfehler und die Teststärke wächst. Der Shapiro-Wilk-Test hat auch bei kleinem Stichprobenumfang eine relativ große Teststärke verglichen mit anderen Tests. Beispielsweise hat der Shapiro-Wilk-Test eine Teststärke von 54 % bei einer Stichprobengröße von 20 Beobachtungen, wenn die tatsächliche Verteilung eine Chi-Quadrat-Verteilung ist, im Vergleich zum D'Agostino-Test von 1970, der eine Teststärke von 29 % aufweist.[3]
Funktionsweise
[Bearbeiten | Quelltext bearbeiten]Die Teststatistik ist ein Quotient, der das Verhältnis zweier Varianz-Schätzer zueinander ausdrückt.
Die Teststatistik berechnet, mittels eines ersten Schätzers im Zähler, wie die Varianz einer Stichprobe aussehen müsste, wenn sie aus einer normalverteilten Grundgesamtheit stammte, und vergleicht diese „erwartete“ Varianz mit einem zweiten Schätzer im Nenner für die tatsächliche Varianz der Stichprobe. Wenn die Grundgesamtheit der Stichprobe in der Tat normalverteilt ist, dann müssten beide Schätzer für die Varianz unabhängig voneinander zu etwa demselben Ergebnis kommen. Je geringer die geschätzten Varianzen also voneinander abweichen, desto wahrscheinlicher ist es, dass die Grundgesamtheit der Stichprobe in Wirklichkeit normalverteilt ist.
Der Shapiro-Wilk-Test basiert demzufolge auf einer Varianzanalyse (ANOVA) der Stichprobe, was auch der Originaltitel der Veröffentlichung An Analysis of Variance Test for Normality (for complete samples) deutlich macht.
Der Schätzer für die Stichprobenvarianz im Nenner ist die übliche korrigierte Stichprobenvarianz .
Die erwartete Varianz für eine aus einer normalverteilten Grundgesamtheit stammende Stichprobe im Zähler (also angenommen ist wahr) wird mittels der Methode der kleinsten Quadrate geschätzt durch die Steigung der Regressionsgeraden im QQ-Diagramm, der die geordneten Beobachtungen einer Stichprobe mit entsprechenden Ordnungsstatistiken aus einer Normalverteilung gegenüberstellt.
Das gewöhnliche lineare Modell wird verstanden als
wobei
- die Steigung der Regressionsgeraden beschreibt und damit der Schätzer im Zähler der Teststatistik ist
- der Schnittpunkt mit der -Achse und der Schätzer für den Mittelwert ist
- die erwarteten Ordnungsstatistiken aus einer Normalverteilung sind
- die Ordnungsstatistiken aus einer Stichprobe sind
- die Störgröße ist, die nichterfassbare Einflüsse darstellt
Mit diesem Ansatz unterscheidet sich der Test von diversen anderen Verfahren, wie beispielsweise dem Jarque-Bera-Test, der prüft, wie groß die Übereinstimmung der Stichprobenverteilung mit spezifischen Eigenschaften des Aussehens der Normalverteilung ist, die charakterisiert wird durch ihre Momente wie Schiefe und Wölbung.
Voraussetzungen
[Bearbeiten | Quelltext bearbeiten]- Die Beobachtungen der Stichprobe müssen unabhängig voneinander sein.
- Die Stichprobe darf nicht kleiner sein als und nicht größer als .
- In der Stichprobe sollten gleiche Werte nicht mehrfach vorkommen. Ist dies der Fall, dann ist es zwar sehr unwahrscheinlich, dass es sich überhaupt um eine kontinuierliche Verteilung handelt. Andererseits können aber Werte aus der Praxis gerundet sein. Das würde zwar auch gegen eine Normalverteilung sprechen, trotzdem könnte man aber die Daten oft dennoch so behandeln als wären sie normal-verteilt. Viele andere Tests sind diesbezüglich weniger empfindlich.
- Die Zufallsvariable muss ein metrisches Skalenniveau besitzen.
Berechnung der Teststatistik
[Bearbeiten | Quelltext bearbeiten]Der Test überprüft die Hypothese, dass eine Stichprobe aus einer normalverteilten Grundgesamtheit entnommen wurde, indem die Teststatistik mit einem kritischen Wert für den Ablehnungsbereich (aus der Verteilung der Teststatistik) verglichen wird.
Aufstellen der Hypothesen und Festlegung des Signifikanzniveaus
[Bearbeiten | Quelltext bearbeiten]Es wird die Nullhypothese aufgestellt, die besagt, dass eine Normalverteilung der Grundgesamtheit vorliegt, und die Alternativhypothese , die besagt, dass keine Normalverteilung vorliegt. Gleichzeitig wird ein Signifikanzniveau gewählt, üblicherweise .
Erstellung der Ordnungsstatistiken
[Bearbeiten | Quelltext bearbeiten]Alle Beobachtungen der Stichprobe werden nach aufsteigender Größe sortiert und jedem Wert wird ein Rangplatz zugeordnet.
So erhält man die Ordnungsstatistiken der Stichprobe mit den Werten . Wobei definiert ist als die -te geordnete Statistik.
Berechnung der Schätzer b2 und s2
[Bearbeiten | Quelltext bearbeiten]mit als der Summe aus Zahlenpaaren der Ordnungsstatistiken jeweils multipliziert mit einem entsprechenden Koeffizienten (auch als Gewicht bezeichnet). Wenn die Anzahl der Beobachtungen in der Stichprobe gerade ist, ist , bei ungerader Anzahl ist . Somit gilt:
wobei die Koeffizienten gegeben sind durch die Komponenten des Vektors
mit stellvertretend für die erwarteten Ordnungsstatistiken einer Normalverteilung
- wobei ungefähr gleich ist mit
die Formel lässt sich herleiten aus der Inversen Normalverteilung mit den Parametern (Ereignisrate) und (Mittelwert)
und der Kovarianzmatrix V bestehend aus den erwarteten Ordnungsstatistiken
Die Koeffizienten sind auch häufig für die ersten 50 Zahlenpaare in Tabellen vieler Statistikbücher zu finden.
Die Varianz sowie dem Mittelwert der Stichprobe werden berechnet durch
Vergleich der Teststatistik mit einem kritischen Wert
[Bearbeiten | Quelltext bearbeiten]Der Wert der Teststatistik wird mit einem kritischen Wert für einen gegebenen Stichprobenumfang und das zuvor festgelegte Signifikanzniveau verglichen. Für die kritischen Werte mit existieren Tabellen, die in vielen Statistikbüchern abgedruckt werden. Kritische Werte für Stichproben mit können mittels Monte-Carlo-Simulation ermittelt werden.
Beurteilung der Ergebnisse
[Bearbeiten | Quelltext bearbeiten]Wenn der Wert der Teststatistik größer ist als der kritische Wert , wird die Nullhypothese nicht abgelehnt. D. h., es wird angenommen, dass eine Normalverteilung vorliegt. Die Teststatistik kann wie ein Korrelationskoeffizient interpretiert werden, der Werte zwischen 0 und 1 annehmen kann, ähnlich dem Bestimmtheitsmaß. Je näher die Teststatistik an 1 liegt, desto weniger Abweichungen zeigt die tatsächliche Varianz von der hypothetischen Varianz unter Annahme von Normalverteilung. Gibt es jedoch statistisch signifikante Abweichungen, d. h., die Teststatistik ist kleiner als der kritische Wert , so wird die Nullhypothese zu Gunsten der Alternativhypothese abgelehnt und es wird angenommen, dass keine Normalverteilung vorliegt. Damit steht der Shapiro-Wilk-Test im Gegensatz zu vielen anderen Normalitätstests, die die Nullhypothese dann ablehnen, wenn die jeweilige Teststatistik größer als der kritische Wert ist.
Auswertung mittels p-Wert
[Bearbeiten | Quelltext bearbeiten]Zusätzlich oder alternativ zur Teststatistik geben viele Computerprogramme den -Wert an.
Der -Wert gibt die Wahrscheinlichkeit an, eine solche Stichprobe zu erhalten, wie sie gezogen wurde, unter der Annahme, dass die Stichprobe tatsächlich aus einer normalverteilten Grundgesamtheit stammt. (Nullhypothese ist wahr)
- Je kleiner der -Wert ist, desto kleiner ist die Wahrscheinlichkeit, dass eine solche Stichprobenziehung bei einer normalverteilten Grundgesamtheit vorkäme.
- Ein -Wert von 0 sagt aus, dass es 0 % wahrscheinlich ist, und ein -Wert von 1, dass es 100 % wahrscheinlich ist, eine solche Stichprobe zu ziehen, wenn sie aus einer Normalverteilung stammte.
- In der Regel wird die Nullhypothese abgelehnt, wenn der -Wert kleiner ist als das vorgegebene Signifikanzniveau.
Die Methode zur Berechnung des -Wertes ist abhängig vom Stichprobenumfang . Für ist die Wahrscheinlichkeitsverteilung von bekannt. Für Stichproben mit wird eine Transformation in die Normalverteilung durchgeführt.
Die Werte für die jeweiligen Stichprobengrößen werden per Monte-Carlo-Simulation errechnet.
Praktisches Beispiel
[Bearbeiten | Quelltext bearbeiten]Die folgenden 10 Beobachtungen () einer Stichprobe werden auf Normalverteilung überprüft:
- 200, 545, 290, 165, 190, 355, 185, 205, 175, 255
Die geordnete Stichprobe lautet:
- 165, 175, 185, 190, 200, 205, 255, 290, 355, 545
Die Anzahl der Stichprobe ist gerade mit , somit werden Zahlenpaare gebildet. Die entsprechenden Gewichte werden einer Tabelle entnommen.
- b = 0,5739(545-165) + 0,3291(355-175) + 0,2141(290-185) + 0,1224(255-190) + 0,0399(205-200) = 218,08 + 59,24 + 22,48 + 7,96 + 0,2 = 307, 96
Für die Stichprobe ist . Demzufolge ist
- .
Der kritische Wert für bei einem Signifikanzniveau von wird einer Tabelle entnommen und lautet .
Da (0,76 < 0,842), fällt in den Ablehnungsbereich, und die Nullhypothese wird abgelehnt. Folglich wird angenommen, dass die Stichprobe keiner normalverteilten Grundgesamtheit entstammt. Die Dichtefunktion der -Teststatistik ist sehr linksschief und der Ablehnungsbereich des Tests fällt ins kleine Ende der Verteilung.
Vor- und Nachteile
[Bearbeiten | Quelltext bearbeiten]Vorteile
[Bearbeiten | Quelltext bearbeiten]- Gegenüber einer eher subjektiven visuellen Überprüfung auf Normalverteilung mittels eines Histogramms oder eines QQ-Diagramms bietet der Shapiro-Wilk-Test als statistischer Signifikanztest die Möglichkeit, eine Betrachtung nach objektiveren Maßstäben vorzunehmen.
- In vielen Testsituationen bietet der Test eine hohe Teststärke, insbesondere bei kleineren Stichproben mit .
- Mittelwert und Varianz der hypothetischen Normalverteilung müssen vorher nicht bekannt sein.
- Viele gängige Statistik-Softwarepakete wie SAS, SPSS, Minitab und R haben den Test implementiert.
Nachteile
[Bearbeiten | Quelltext bearbeiten]Mit dem Test kann für fast jede Verteilung belegt werden, dass es sich um eine Normalverteilung handelt, indem man sehr klein wählt. Eigentlich nimmt man als Nullhypothese das Gegenteil der Aussage, die man zeigen möchte (beispielsweise die Gleichheit der Gruppenmittelwerte bei der Varianzanalyse). Dabei legt man durch die Wahl von fest mit wie hoher Sicherheit die eigentliche Aussage gezeigt werden soll. Hier, beim Shapiro-Wilk-Test, wird aber verhängnisvollerweise das, was eigentlich gezeigt werden soll, als Nullhypothese gewählt, was die Testlogik auf den Kopf stellt. Je höher man die scheinbare Sicherheit mittels schraubt, desto größer ist die Wahrscheinlichkeit für den Fehler 2. Art, also dafür, dass man irrtümlich annimmt, es handele sich um eine Normalverteilung.
Dass man aus dem Nichtverwerfen der Nullhypothese schließt, dass diese zutrifft, ist ein grundlegender Fehler.
- Der Test kann nur für Stichproben zwischen eingesetzt werden.
- Der Test reagiert sehr sensibel auf Ausreißer, sowohl für einseitige als auch beidseitige Ausreißer. Ausreißer können das Verteilungsbild stark verzerren, so dass dadurch die Normalverteilungsannahme fälschlicherweise abgelehnt werden könnte.
- Der Test ist relativ anfällig gegenüber Bindungen (Ties), d. h., wenn es viele identische Werte gibt, wird die Teststärke stark beeinträchtigt. Falls ursprünglich mit gerundeten Daten gearbeitet wurde, lässt sich die Teststärke mit der sogenannten Sheppard-Korrektur verbessern. Die Korrektur von Sheppard produziert ein angepasstes , gegeben durch
mit als Rundungsdifferenz.
- Die Funktionsweise des Tests ist sehr mathematisch und daher nicht leicht zu verstehen.
- Der Test erfordert den Gebrauch von speziellen Koeffizienten, den Gewichten, die nur für kleinere Stichprobenumfänge in Form einer Tabelle vorliegen.
- Bei Berechnung der Teststatistik und der kritischen Werte ohne Computerprogramm ist der Rechenaufwand bei größeren Stichprobenumfängen sehr hoch.
Alternative Verfahren
[Bearbeiten | Quelltext bearbeiten]Andere Signifikanztests
[Bearbeiten | Quelltext bearbeiten]Neben dem Shapiro-Wilk-Test existieren mindestens 40 weitere Normalitätstests bzw. Modifikationen einzelner Tests.[4]
Normalitätstests, die gewissermaßen als Maßstäbe dienen, vergleichen auf die eine oder andere Weise charakteristische Merkmale der modellhaften Standardnormalverteilung mit der Verteilung der Stichprobe. Die Tests unterscheiden sich in der Hinsicht, welche Maßstäbe sie als Vergleichskriterium heranziehen.
Während der Shapiro-Wilk-Test die Technik der Regression und Korrelation einsetzt und die Korrelation hinsichtlich Varianz analysiert, basieren andere Testverfahren auf der Untersuchung der Verteilungsfunktion (z. B. Kolmogorow-Smirnow-Test, Anderson-Darling-Test, Cramér-von-Mises-Test).
Weitere Tests richten ihr Hauptaugenmerk auf den Vergleich von Schiefe- und Kurtosis-Eigenschaften (z. B. D'Agostino-Pearson-Test, Jarque-Bera-Test, Anscombe-Glynn-Test).
Die Teststärke jedes Normalitätstests variiert in Abhängigkeit von Stichprobengröße, tatsächlicher Verteilung und anderen Faktoren wie Ausreißern und Bindungen. Es gibt keinen einzelnen Test, der für alle Situationen die höchste Teststärke aufweist.
Graphische Methoden
[Bearbeiten | Quelltext bearbeiten]Histogramm und Normalwahrscheinlichkeitsplots wie das QQ-Diagramm oder das PP-Diagramm werden häufig als Werkzeuge zur visuellen Überprüfung der Verteilung auf Normalverteilung eingesetzt und können die Aussage eines Signifikanztests entweder bekräftigen oder anfechten.
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ J. P. Royston: An Extension of Shapiro and Wilk's W Test for Normality to Large Samples. In: Journal of the Royal Statistical Society. Series C (Applied Statistics). Band 31, Nr. 2, 1982, S. 115–124, doi:10.2307/2347973, JSTOR:2347973.
- ↑ M. Mahibbur Rahman, Z. Govindarajulu: A modification of the test of Shapiro and Wilk for normality. In: Journal of Applied Statistics. Band 24, Nr. 2, 1997, S. 219–236, doi:10.1080/02664769723828.
- ↑ Edith Seier: Comparison of Tests for Univariate Normality. Department of Mathematics. East Tennessee State University, 2002 http://interstat.statjournals.net/YEAR/2002/articles/0201001.pdf
- ↑ Berna Yazici, Senay Yolacan: A comparison of various tests of normality. In: Journal of Statistical Computation and Simulation. 77, Nr. 2, 2007, S. 175–183, doi:10.1080/10629360600678310
Literatur
[Bearbeiten | Quelltext bearbeiten]- Sam S. Shapiro, Martin Bradbury Wilk: An analysis of variance test for normality (for complete samples). In: Biometrika. Band 52, Nr. 3/4, 1965, S. 591–611, doi:10.1093/biomet/52.3-4.591, JSTOR:2333709.
- D. G. Rees: Essential Statistics. Chapman & Hall, Boca Raton 2000, ISBN 0-412-61280-1.
- Berna Yazici, Senay Yolacan: A comparison of various tests of normality. In: Journal of Statistical Computation and Simulation. Band 77, Nr. 2, 2007, S. 175–183, doi:10.1080/10629360600678310.
- Edith Seier: Comparison of Tests for Univariate Normality. Department of Mathematics. East Tennessee State University, 2002.
- Manfred Precht, Roland Kraft, Martin Bachmaier: Angewandte Statistik. Oldenbourg, 2005.
- J. R. Leslie, M. A. Stephens, S. Fotopoulos: Asymptotic Distribution of the Shapiro-Wilk W for Testing Normality. In: The Annals of Statistics. Band 14, Nr. 4, 1986, S. 1497–1506, doi:10.1214/aos/1176350172, JSTOR:2241484.
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Originaltext zu An Analysis of Variance Test for Normality (for complete samples) von Shapiro und Wilk von JSTOR (englisch) (PDF; 606 kB)
- Analyse der Teststärke verschiedener Normalitätstests von Edith Seier, East Tennessee State University (englisch) (PDF; 132 kB)
- Online-Version des Shapiro-Wilk-Tests (englisch)
- Vorlesungsskript zu Anpassungstests der Humboldt-Universität zu Berlin
- Skript zu Tests auf Poisson-Verteilung bzw. Normalverteilung der Universität Ulm
- Beispiele für statistische Tests von Barbara Bredner
- SAS Anleitung zu Anpassungstests (englisch)
- The Science Citation Index Artikel über An Analysis of Variance Test for Normality von 1985 (englisch) (PDF; 236 kB)