Ausreißer

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Andrews Kurven)
Zur Navigation springen Zur Suche springen
Ein Ausreißer-Messwert. Die blaue Gerade wurde ohne Einbeziehung des Ausreißers erstellt, die violette mit der Einbeziehung.
Der Boxplot auf einem Zahlenstrahl dargestellt.

In der Statistik nennt man einen Messwert, der stark von der gesamten Messreihe abweicht, Ausreißer. Dies passiert, wenn ein Messwert einer Messreihe, die zur Ermittlung der Verteilung einer Zufallsgröße dienen soll, nicht aus dieser, sondern aufgrund eines Störeinflusses aus einer anderen Zufallsgröße stammt. Hierdurch würde die Berücksichtigung dieses Messwertes zu einer Verfälschung führen, da so Stichproben zweier verschieden verteilter Zufallsgrößen gemischt würden. Die robuste Statistik beschäftigt sich mit der Ausreißerproblematik. Auch im Data-Mining beschäftigt man sich mit der Erkennung von Ausreißern. Von Ausreißern zu unterscheiden sind einflussreiche Beobachtungen.

Überprüfung auf Messfehler

[Bearbeiten | Quelltext bearbeiten]

Liegt ein Ausreißer vor, muss überprüft werden ob es sich bei dem Ausreißer tatsächlich um ein verlässliches und echtes Ergebnis handelt oder ob ein Messfehler vorliegt.

Beispiel: So wurde das Ozonloch über der Antarktis einige Jahre zwar bereits gemessen, die Messwerte aber als offensichtlich falsch gemessen bewertet (d. h. als „Ausreißer“ interpretiert und ignoriert) und dadurch nicht in ihrer Tragweite erkannt.[1]

Ausreißertests

[Bearbeiten | Quelltext bearbeiten]

Ein anderer Ansatz wurde u. a. von Ferguson im Jahr 1961 vorgeschlagen.[2] Danach wird davon ausgegangen, dass die Beobachtungen aus einer hypothetischen Verteilung stammen. Ausreißer sind dann Beobachtungen, die nicht aus der hypothetischen Verteilung stammen. Die folgenden Ausreißertests gehen alle davon aus, dass die hypothetische Verteilung eine Normalverteilung ist und prüfen, ob einer oder mehrere der Extremwerte nicht aus der Normalverteilung stammen:

Der Ausreißertest nach Walsh basiert hingegen nicht auf der Annahme einer bestimmten Verteilung der Daten. Im Rahmen der Zeitreihenanalyse können Zeitreihen, bei denen ein Ausreißer vermutet wird, darauf getestet werden und dann mit einem Ausreißermodell modelliert werden.

Unterschiede zu Extremwerten

[Bearbeiten | Quelltext bearbeiten]

Ein beliebter Ansatz ist es, den Boxplot zu nutzen, um „Ausreißer“ zu identifizieren. Die Beobachtungen außerhalb der Whisker werden dabei willkürlich als Ausreißer bezeichnet. Für die Normalverteilung kann man leicht ausrechnen, dass knapp 0,7 % der Masse der Verteilung außerhalb der Whiskers liegen. Bereits ab einem Stichprobenumfang von würde man daher mindestens eine Beobachtung außerhalb der Whiskers erwarten (oder auch Beobachtungen außerhalb der Whiskers bei ). Sinnvoller ist es daher, statt von Ausreißern von Extremwerten zu sprechen.

Multivariate Ausreißer

[Bearbeiten | Quelltext bearbeiten]
Ausreißer rechts unten im Streudiagramm und Boxplots für jede einzelne Variable.

In mehreren Dimensionen wird die Situation noch komplizierter. In der Grafik rechts kann der Ausreißer rechts unten in der Ecke nicht durch Inspektion jeder einzelnen Variable erkannt werden; er ist in den Boxplots nicht sichtbar. Trotzdem wird er eine lineare Regression deutlich beeinflussen.

Andrews’ Kurven

[Bearbeiten | Quelltext bearbeiten]
Andrews’ Kurven mit unterschiedlich eingefärbten Daten

Andrews (1972) schlug vor, jede multivariate Beobachtung durch eine Kurve zu repräsentieren:[3]

Damit wird jede multivariate Beobachtung auf eine zweidimensionale Kurve im Intervalls abgebildet. Aufgrund der Sinus- und Kosinusterme wiederholt sich die Funktion außerhalb des Intervalls .

Für jeweils zwei Beobachtungen und gilt:

Der Ausdruck (1) links neben dem Gleichheitszeichen entspricht (zumindest approximativ) der Fläche zwischen den beiden Kurven, und der Ausdruck (2) rechts ist (zumindest approximativ) der multivariate euklidische Abstand zwischen den beiden Datenpunkten.

Ist also der Abstand zwischen zwei Datenpunkten klein, dann muss auch die Fläche zwischen den Kurven klein sein, d. h., die Kurven der Funktionen und müssen nahe beieinander verlaufen. Ist jedoch der Abstand zwischen zwei Datenpunkten groß, muss auch die Fläche zwischen den Kurven groß sein, d. h., die Kurven der Funktionen und müssen sehr unterschiedlich verlaufen. Ein multivariater Ausreißer würde als Kurve sichtbar sein, die sich von allen anderen Kurven in ihrem Verlauf deutlich unterscheidet.

Andrews’ Kurven haben zwei Nachteile:

  • Wenn der Ausreißer in genau einer Variable sichtbar ist, nimmt der Mensch die unterschiedlichen Kurven umso besser wahr, je weiter vorne diese Variable auftaucht. Am besten sollte sie die Variable sein. D.h., es bietet sich an, die Variablen zu sortieren, z. B. wird die Variable mit der größten Varianz, oder man nimmt die erste Hauptkomponente.
  • Wenn man viele Beobachtungen hat, müssen viele Kurven gezeichnet werden, sodass der Verlauf einer einzelnen Kurve nicht mehr sichtbar wird.

Stahel-Donoho Outlyingness

[Bearbeiten | Quelltext bearbeiten]

Stahel (1981) und David Leigh Donoho (1982) definierten die sog. Outlyingness. "Um die Maßzahl zu erhalten, die aussagt, wie weit ein Beobachtungswert von der Masse der Daten entfernt liegt,[4][5] müssen alle möglichen Linearkombinationen berechnet werden. Das heißt die Projektion des Datenpunktes auf den Vektor , mit ergibt die Outlyingness:

,

Wobei der Median der projizierten Punkte () und die mittlere absolute Abweichung der projizierten Punkte (), als robustes Streuungsmaß angegeben wird. Der Median dient dabei als robustes Lage-, die mittlere absolute Abweichung als robustes Streuungsmaß. ist eine Normalisierung.

In der Praxis wird die Outlyingness berechnet, indem für mehrere hundert oder tausend zufällig ausgewählte Projektionsrichtungen das Maximum bestimmt wird.

Ausreißererkennung im Data-Mining

[Bearbeiten | Quelltext bearbeiten]

Unter dem englischen Begriff Outlier Detection (deutsch: Ausreißererkennung) versteht man den Teilbereich des Data-Mining, bei dem untypische und auffällige Datensätze identifiziert werden. Anwendung hierfür ist beispielsweise die Erkennung von (potentiell) betrügerischen Kreditkartentransaktionen in der großen Menge der validen Transaktionen. Die ersten Algorithmen zur Ausreißererkennung waren eng an den hier erwähnten statistischen Modellen orientiert, jedoch haben sich aufgrund von Berechnungs- und vor allem Laufzeitüberlegungen die Algorithmen davon entfernt.[6] Ein wichtiges Verfahren hierzu ist der dichtebasierte Local Outlier Factor.

Ausreißer lassen sich auch durch den Vergleich mit Prognoseintervallen entdecken.[7]

  • Ausreißerproblem (outlier problem). In: P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 16–18.
  • Vic Barnett, Toby Williams: Outliers in Statistical Data (= Wiley Series in Probability and Mathematical Statistics). 3. Auflage. Wiley, Chichester 1994, ISBN 0-471-93094-6.
  • R. Khattree, D. N. Naik: Andrews Plots for Multivariate Data: Some New Suggestions and Applications. In: Journal of Statistical Planning and Inference. Band 100, Nr. 2, 2002, S. 411–425, doi:10.1016/S0378-3758(01)00150-1.
Wiktionary: Ausreißer – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Karl-Heinz Ludwig: Eine kurze Geschichte des Klimas: Von der Entstehung der Erde bis heute. 2. Auflage. Beck Verlag 2007, ISBN 978-3-406-56557-1, S. 149.
  2. T. S. Ferguson: On the Rejection of outliers. In: Proceedings of the Fourth Berkeley Symposium on Mathematical Statistics and Probability. Band 1, 1961, S. 253–287 (projecteuclid.org [PDF]).
  3. D. Andrews: Plots of high-dimensional data. In: Biometrics. 28, 1972, S. 125–136, JSTOR:2528964.
  4. W. A. Stahel: Robuste Schätzungen: infinitesimale Optimalität und Schätzungen von Kovarianzmatrizen. PhD thesis, ETH Zürich, 1981.
  5. D. L. Donoho: Breakdown properties of multivariate location estimators. Qualifying paper, Harvard University, Boston 1982.
  6. H.-P. Kriegel, P. Kröger, A. Zimek: Outlier Detection Techniques. Tutorial. In: 13th Pacific-Asia Conference on Knowledge Discovery and Data Mining (PAKDD 2009). Bangkok, Thailand 2009 (lmu.de [PDF; abgerufen am 26. März 2010]).
  7. Leying Guan, Rob Tibshirani: Prediction and Outlier Detection in Classification Problems. In: Journal of the Royal Statistical Society Series B: Statistical Methodology. 2022, Band 84, Nummer 2, S. 524–546 doi:10.1111/rssb.12443.