Tschebyscheffsche Ungleichung

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Tschebyschow-Ungleichung)
Zur Navigation springen Zur Suche springen

Die tschebyscheffsche Ungleichung, auch Tschebyscheff-Ungleichung oder Bienaymé-Tschebyscheff-Ungleichung genannt,[1] ist eine Ungleichung in der Stochastik, einem Teilgebiet der Mathematik. Sie ist nach Irénée-Jules Bienaymé und Pafnuti Lwowitsch Tschebyschow benannt; dessen Name findet sich in der Literatur in verschiedenen Schreibungen, unter anderem Tschebyschew, Chebyshev, Čebyšev oder Tschebyscheff.[2] In der tschebyscheffschen Ungleichung wird die Wahrscheinlichkeit, dass eine Zufallsvariable mehr als einen vorgegebenen Schwellenwert von ihrem Erwartungswert abweicht, durch ihre Varianz abgeschätzt.

Sei eine Zufallsvariable mit Erwartungswert

und endlicher Varianz

.

Dann gilt für alle reellen Zahlen :

.

Durch Übergang zum komplementären Ereignis erhält man

.

Güte der Abschätzung

[Bearbeiten | Quelltext bearbeiten]

Die von der tschebyscheffschen Ungleichung angegebenen Grenzen sind scharf in dem Sinne, dass Zufallsvariablen existieren, für die bei der Abschätzung Gleichheit gilt.

Dies ist beispielsweise der Fall für eine diskrete Zufallsvariable mit

und

,

wobei eine echt positive reelle Zahl ist und . Dann ist und , damit folgt die Abschätzung

,

die für mit Gleichheit erfüllt ist, da dann gilt.

Im Allgemeinen sind die Abschätzungen aber eher schwach. Beispielsweise sind sie für trivial. Dennoch ist der Satz oft nützlich, weil er ohne Verteilungsannahmen über die Zufallsvariablen auskommt und somit für alle Verteilungen mit endlicher Varianz (insbesondere auch solche, die sich stark von der Normalverteilung unterscheiden) anwendbar ist. Außerdem sind die Schranken einfach zu berechnen.

Abweichungen ausgedrückt durch die Standardabweichung

[Bearbeiten | Quelltext bearbeiten]

Ist die Standardabweichung von Null verschieden und eine positive Zahl, so erhält man mit eine oft zitierte Variante der tschebyscheffschen Ungleichung:

.

Diese Ungleichung liefert nur für eine sinnvolle Abschätzung, für ist sie trivial, denn Wahrscheinlichkeiten sind stets durch 1 beschränkt.

Verallgemeinerung auf höhere Momente

[Bearbeiten | Quelltext bearbeiten]

Die tschebyscheffsche Ungleichung lässt sich auf höhere Momente verallgemeinern. Man bezeichnet diese verallgemeinerte Ungleichung nicht selten (vereinfachend) ebenfalls als tschebyscheffsche Ungleichung (englisch Chebyshev’s inequality),[3] während sie im Rahmen der Wahrscheinlichkeitstheorie manchmal auch als markoffsche Ungleichung (bzw. als markovsche Ungleichung o. ä., englisch Markov’s inequality) genannt wird.[4][5] Bei einigen Autoren findet man die verallgemeinerte Ungleichung auch unter der Bezeichnung tschebyscheff-markoffsche Ungleichung (bzw. chebyshev-markovsche Ungleichung o. ä.).[6]

Die verallgemeinerte Ungleichung besagt, dass für einen Maßraum und eine messbare Funktion und stets die Ungleichung

.

gilt.

Dies folgt aus

Die oben genannte Version der Ungleichung erhält man als Spezialfall, indem man , und setzt, denn dann ist

.

Mehrdimensionale Tschebyscheffsche Ungleichung

[Bearbeiten | Quelltext bearbeiten]

Die Tschebyscheffsche Ungleichung kann auf mehrdimensionale Zufallsvariable erweitert werden.

Ist X = () eine n-dimensionale Zufallsvariable, die auf den "Mittelpunkt" (μ(x1) / ... / μ(xn) ) zentriert wurde, so gilt für die zentrierte Variable die Mehrdimensionale Tschebyscheffsche Ungleichung:

Exponentielle Tschebyscheff-Ungleichung

[Bearbeiten | Quelltext bearbeiten]

Dass die Verallgemeinerung gleichzeitig für alle positiven Momente gilt, lässt sich beim Beweis der sogenannten exponentiellen Tschebyscheff-Ungleichung[7] ausnutzen. Sei eine reelle Zufallsvariable, die gemäß verteilt ist und eine reelle Zahl. In der Notation von oben setzt man nun , und und erhält

Der Zähler ist die momenterzeugende Funktion von . Die Anwendung der exponentiellen Tschebyscheff-Ungleichung auf eine Summe von unabhängigen und identisch verteilten Zufallsvariablen ist der entscheidende Schritt im Beweis der Chernoff-Ungleichung.

In den meisten Lehrbüchern trägt die Ungleichung lediglich den Namen von Pafnuti Lwowitsch Tschebyschow. Er veröffentlichte seinen Beweis für diskrete Zufallsvariablen im Jahre 1867 simultan in St. Petersburg und in Paris, dort in Joseph Liouvilles Journal Journal de Mathématiques Pures et Appliquées. Ein allgemeinerer Beweis wurde jedoch schon 1853 von Irénée-Jules Bienaymé in dem Aufsatz Considérations a l’appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés veröffentlicht. Dieses wurde sogar direkt vor Tschebyscheffs Veröffentlichung in Liouvilles Journal nochmals in ebendiesem abgedruckt. In einer späteren Veröffentlichung erkannte Tschebyscheff die Erstveröffentlichung von Bienaymé an.[8][9]

  • Die tschebyscheffsche Ungleichung wird beispielsweise beim Beweis des Schwachen Gesetzes der großen Zahlen verwendet.[10]
  • Die Verallgemeinerung auf höhere Momente kann benutzt werden, um zu zeigen, dass aus der -Konvergenz von Funktionenfolgen die Konvergenz im Maß folgt.
  • Für den Median gilt .

Nehmen wir zum Beispiel an, dass die Länge von Wikipedia-Artikeln einen Erwartungswert von 1000 Zeichen mit einer Standardabweichung von 200 Zeichen hat. Aus der tschebyscheffschen Ungleichung kann man dann ableiten, dass mit mindestens 75 % Wahrscheinlichkeit ein Wikipedia-Artikel eine Länge zwischen 600 und 1400 Zeichen hat ().

Der Wert für die Wahrscheinlichkeit wird auf folgende Weise berechnet:

Eine andere Folgerung aus dem Satz ist, dass für jede Wahrscheinlichkeitsverteilung mit Mittelwert und endlicher Standardabweichung mindestens die Hälfte der Werte im Intervall liegen ().

Ein Zufallsereignis tritt bei einem Versuch mit Wahrscheinlichkeit ein. Der Versuch wird -mal wiederholt; das Ereignis trete dabei -mal auf. ist dann binomialverteilt und hat Erwartungswert und Varianz ; die relative Häufigkeit des Eintretens hat somit Erwartungswert und Varianz . Für die Abweichung der relativen Häufigkeit vom Erwartungswert liefert die tschebyscheffsche Ungleichung

,

wobei für die zweite Abschätzung die unmittelbar aus der Ungleichung vom arithmetischen und geometrischen Mittel folgende Beziehung verwendet wurde.

Bei dieser Formel handelt es sich um den Spezialfall eines schwachen Gesetzes der großen Zahlen, das die stochastische Konvergenz der relativen Häufigkeiten gegen den Erwartungswert zeigt.

Die tschebyscheffsche Ungleichung liefert für dieses Beispiel nur eine grobe Abschätzung, eine quantitative Verbesserung liefert die Chernoff-Ungleichung.

Die meisten Autoren führen die tschebyscheffsche Ungleichung als Spezialfall der Markow-Ungleichung

mit und der Funktion ein.[11][12][13] Wie man die Markow-Ungleichung mit schulgemäßen Mitteln aus einem unmittelbar einsichtigen Flächenvergleich folgern und dann daraus diese Fassung der Ungleichung von Tschebyscheff herleiten kann, findet man zum Beispiel bei Wirths.[14]

Für einen direkten Beweis definiert man

Bezeichnet die Indikatorfunktion auf der Menge , so gilt für alle die Ungleichung

Denn ist , so ist die rechte Seite null und die Ungleichung erfüllt. Ist , so hat die linke Seite nach Definition der Mengen mindestens den Wert , und die Ungleichung ist wiederum erfüllt. Mit der Monotonie des Erwartungswertes und seinen elementaren Rechenregeln folgt über die Definition der Varianz

Teilen durch liefert die Tschebyscheff-Ungleichung.[15]

Diese ergibt sich aber auch ohne Erwartungswert-Regeln aus einem einfachen Flächenvergleich, ausgehend von der allgemeingültigen Darstellung (3) auf der Seite Erwartungswert.[16]

Verwandte Resultate

[Bearbeiten | Quelltext bearbeiten]
Wikibooks: Beschreibung mit Beispiel – Lern- und Lehrmaterialien

Einzelnachweise und Anmerkungen

[Bearbeiten | Quelltext bearbeiten]
  1. Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 10. Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6, S. 165, doi:10.1007/978-3-658-03077-3.
  2. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 112, doi:10.1515/9783110215274.
  3. Robert B. Ash: Real Analysis and Probability. 1972, S. 84–85 & S. 227
  4. A. N. Širjaev: Wahrscheinlichkeit. 1988, S. 572
  5. R. G. Laha, V. K. Rohatgi: Probability Theory. 1979, S. 33
  6. Heinz Bauer: Maß- und Integrationstheorie. 1992, S. 128
  7. Matthias Löwe: Große Abweichungen. (PDF; 418 KB) Westfälische Wilhelms-Universität Münster, Institut für Mathematische Stochastik, S. 4;.
  8. Chebyshev, Pafnutii Lvovich. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
  9. V.V. Sazonov: Bienaymé, Irenée-Jules. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
  10. Heinz Bauer: Wahrscheinlichkeitstheorie. 2002, S. 69 ff
  11. Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, S. 110, doi:10.1007/978-3-642-36018-3.
  12. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 122, doi:10.1515/9783110215274.
  13. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg Dordrecht London New York 2011, ISBN 978-3-642-21025-9, S. 288, doi:10.1007/978-3-642-21026-6.
  14. H. Wirths: Der Erwartungswert – Skizzen zur Begriffsentwicklung von Klasse 8 bis 13. In: Mathematik in der Schule 1995/Heft 6, S. 330–343
  15. Ehrhard Behrends: Elementare Stochastik. Ein Lernbuch – von Studierenden mitentwickelt. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-8348-1939-0, S. 229–230, doi:10.1007/978-3-8348-2331-1.
  16. Roland Uhl: Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion. Technische Hochschule Brandenburg, 2023, doi:10.25933/opus4-2986 (PDF). S. 5.