Benutzer:Sigma^2/Statistische Notation
Statistische Grundbegriffe
[Bearbeiten | Quelltext bearbeiten]Merkmal
[Bearbeiten | Quelltext bearbeiten]Merkmal ist ein Grundbegriff der Statistik für Eigenschaften statistischer Einheiten. Z. B. das Merkmal Geschlecht mit den Merkmalsausprägungen (Merkmalsmodalitäten) in , kodiert z. B. als . An statistische Einheiten, die in diesem Zusammenhang Merkmalsträger heißen, z. B. mit 1, ... , N bezeichnet werden und in der Menge zusammengefasst werden, wird das Merkmal (Geschlecht) beobachtet. Dies wird durch eine Funktion modelliert, die jeder statistischen Einheit eine Merkmalsausprägung zuordnet. Die Funktion heißt statistische Variable. Die beobachteten Werte können im Vektor zusammengefasst werden.
Wenn auf der Menge ein Wahrscheinlichkeitsmaß (eine Wahrscheinlichkeitsverteilung) gegeben ist, z. B. mit den Wahrscheinlichkeiten für mit , dann wird die Funktion zur Zufallsvariablen, die die Werte 1,2 und 3 mit einer Wahrscheinlichkeitsverteilung die durch die Wahrscheinlichkeiten
gegeben ist.
Das Merkmal hat einen vierfachen Charakter.
- Losgelöst von einem Kontext mit konkreten statistischen Einheiten kann das Merkmal mit der Menge der Merkmalsausprägungen, die das Merkmal charakterisieren, identifiziert werden.
- Das Merkmal kann als eine Variable im mathematischen Sinn aufgefasst werden, die als Stellvertreter für eine der drei Ausprägungen 1, 2 oder 3 steht.
- Das Merkmal kann als eine reelle Funktion gesehen werden.
- Das Merkmal kann als eine reelle Zufallsvariable gesehen werden
Stichprobe, Stichprobenvariable und Stichprobenraum
[Bearbeiten | Quelltext bearbeiten]In der Statistik werden reelle Zufallsvariablen und Zufallsvektoren typischerweise ohne explizite Angabe des Urbildraums (zugrundeliegenden Wahrscheinlichkeitsraumes) und der Abbildungsvorschrift betrachtet.[1] Der meßbare Raum , in dem die Zufallsvariable oder der Zufallsvektor Werte annimmt, heißt Stichprobenraum.[2] Das Bildwahrscheinlichkeitsmaß von heißt Verteilung von . Eine Realisierung von heißt Stichprobe.
Die Komponenten eines n-dimensionalen Zufallsvektors heißen Stichprobenvariablen. Der Bildbereich heißt auch Stichprobenraum.
- ↑ Hermann Witting: Mathematische Statistik I. Parametrische Verfahren bei festem Stichprobenumfang. Teubner, Stuttgart 1985, ISBN 3-519-02026-2, S. 4.
- ↑ Hermann Witting: Mathematische Statistik I. Parametrische Verfahren bei festem Stichprobenumfang. Teubner, Stuttgart 1985, ISBN 3-519-02026-2, S. 4.
Indizierung versus Parametrisierung
[Bearbeiten | Quelltext bearbeiten]„Unter einer Parametrisierung einer Klasse verstehen wir demgemäß eine bijektive [!] Abbildung von einem Parameterraum auf .“[1] Dabei bezeichnet die „Klasse [...] aller WS-Maße [Wahrscheinlichkeitsmaße] über “[2] Eine Verteilungsklasse ist also nicht einfach eine durch indizierte Verteilungsmenge, sondern erfüllt
- ↑ Hermann Witting: Mathematische Statistik I. Parametrische Verfahren bei festem Stichprobenumfang. Teubner, Stuttgart 1985, ISBN 3-519-02026-2, S. 5.
- ↑ Hermann Witting: Mathematische Statistik I. Parametrische Verfahren bei festem Stichprobenumfang. Teubner, Stuttgart 1985, ISBN 3-519-02026-2, S. 4.
Bezeichnungssysteme für Zufallsvariablen und Zufallsgrößen
[Bearbeiten | Quelltext bearbeiten]Es gibt unterschiedliche Bezeichnungssysteme für Zufallsgrößen und -variablen als messbare Abbildungen von einem Wahrscheinlichkeitsraum in einen Messraum.
Deutschsprachige Bezeichnungen
[Bearbeiten | Quelltext bearbeiten]Oberbegriff (Abbildung in einen allgemeinen Messraum) | Werte in | Werte in | Werte in | Quellen |
Zufallsvariable, Zufallsgröße, zufällige Größe | reelle Zufallsvariable | erweiterte Zufallsvariable, numerische Zufallsvariable | mehrdimensionale Zufallsvariable, Zufallsvektor | Wikipedia (deutschsprachig) |
Zufallsvariable | reelle Zufallsvariable, Zufallsvariable | Zufallsvektor | Klenke (2020)[1] | |
Zufallsgröße, zufällige Größe, Zufallsvariable | Bewersdorff (2018)[2] | |||
Zufallsvariable | reelle Zufallsvariable | erweiterte Zufallsvariable, numerische Zufallsvariable | zufälliger Vektor, Zufallsvektor | Lexikon der Mathematik (2017)[3][4][5] |
Zufallsgröße | reelle Zufallsvariable | Zufallsvariable | Zufallsvektor | Schmidt (2011)[6] |
(eindimensionale) Zufallsvariable | n-dimensionale Zufallsvariable, vektorielle Zufallsvariable, mehrdimensionale Zufallsvariable | Taschenbuch der Statistik (2008)[7] | ||
Zufallsvariable | reelle Zufallsvariable | numerische Zufallsvariable | n-dimensionale Zufallsvariable | Meintrup/Schäffler (2005)[8] |
Zufallsvariable | reelle Zufallsvariable | numerische Zufallsvariable | n-dimensionale Zufallsvariable, -wertige Zufallsvariable | Bauer (2002)[9] |
zufällige Variable, zufälliges Element, zufällige Veränderliche | Zufallsgröße | zufälliger Vektor, Zufallsvektor | Lexikon der Stochastik (1991)[10] | |
zufälliges Element, -wertige zufällige Größe | zufällige Größe | erweiterte zufällige Größe | n-dimensionaler zufälliger Vektor | Širjaev(1988)[11] |
Zufallsgröße | -wertige Zufallsgröße | n-dimensionale Zufallsgröße | Witting (1985)[12] | |
Zufallselement | zufällige Variable | numerische zufällige Variable | Zufallsvektor, zufälliger Vektor | Gänssler/Stute (1977)[13] |
Die deutschsprachige Wikipedia enthielt im Artikel Zufallsvariable – ohne Nachweis – die Begriffe stochastische Variable und stochastische Größe. Hierbei handelt es sich entweder um Ad-Hoc-Erfindungen denkbarer Synonyme durch einen Wikipedia-Autor oder um Ad-Hoc-Erfindungen in nichtwissenschaftlicher Literatur.
Der Begriff Zufallsveränderliche ist in älterer Literatur (vor 1990) zu finden.
Als Beleg für den Begriff zufällige Größe und weitere wahrscheinlichkeitstheoretische Zusammenhänge wird (Stand: 5. September 2022) ein populärwissenschaftliches Buch angeführt.[14] Dort wird durchgängig der Begriff Zufallsgröße verwendet und nur einmal zufällige Größe als mögliches Synonym verwendet.
Einzelnachweise
- ↑ Achim Klenke: Wahrscheinlichkeitstheorie. 4., überarbeitete und ergänzte Auflage. Springer, Berlin 2020, ISBN 978-3-662-62088-5, S. 45, 363, doi:10.1007/978-3-662-62089-2.
- ↑ Jörg Bewersdorff: Glück, Logik und Bluff. Mathematik im Spiel – Methoden, Ergebnisse und Grenzen. 7., verbesserte und erweiterte Auflage. Springer Spektrum, Wiesbaden 2018, ISBN 978-3-658-21764-8, S. 40, doi:10.1007/978-3-658-21765-5.
- ↑ Guido Walz (Hrsg.): Lexikon der Mathematik. 2. Auflage. Band 2. Eig bis Inn. Springer Spektrum, Berlin 2017, ISBN 978-3-662-53503-5, S. 78, doi:10.1007/978-3-662-53504-2.
- ↑ Guido Walz (Hrsg.): Lexikon der Mathematik. 2. Auflage. Band 4. Moo bis Sch. Springer Spektrum, Berlin 2017, ISBN 978-3-662-53499-1, S. 98, doi:10.1007/978-3-662-53500-4.
- ↑ Guido Walz (Hrsg.): Lexikon der Mathematik. 2. Auflage. Band 5. Sed bis Zyl. Springer Spektrum, Berlin 2017, ISBN 978-3-662-53505-9, S. 465, doi:10.1007/978-3-662-53506-6.
- ↑ Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, S. 194.
- ↑ Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, S. 184.
- ↑ David Meintrup, Stefan Schäffler: Stochastik – Theorie und Anwendungen. Springer, Berlin / Heidelberg / New York 2005, ISBN 3-540-21676-6, S. 90.
- ↑ Heinz Bauer: Wahrscheinlichkeitstheorie. 5. Auflage. Walter de Gruyter, Berlin / New York 2002, ISBN 3-11-017236-4, S. 14.
- ↑ P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 511, 519.
- ↑ A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 48, 50, 188.
- ↑ Hermann Witting: Mathematische Statistik I. Parametrische Verfahren bei festem Stichprobenumfang. Teubner, Stuttgart 1985, ISBN 3-519-02026-2, S. 517.
- ↑ Peter Gänssler, Winfried Stute: Wahrscheinlichkeitstheorie. Springer-Verlag, Berlin / Heidelberg / New York 1977, ISBN 3-540-08418-5, S. 18, 328.
- ↑ Jörg Bewersdorff: Glück, Logik und Bluff. Mathematik im Spiel – Methoden, Ergebnisse und Grenzen. 6., aktualisierte Auflage. Springer Spektrum, Wiesbaden 2012, ISBN 978-3-8348-1923-9.
Englischsprachige Bezeichnungen
[Bearbeiten | Quelltext bearbeiten]Oberbegriff (messbare Abbildung von einem Wahrscheinlichkeitsraum in einen Messraum) | Werte in | Werte in | Werte in | Quellen |
random element, random variable | real-valued random variable | multivariate random variable, random vector | engl. Wikipedia | |
random element | random variable | random vector | Kallenberg (2021)[1] | |
random variable | random vector | Proschan/Shaw (2016)[2] | ||
random variable | random vector | Athreya/Lahiri (2006)[3] | ||
random variable | random vector | Loève (1977)[4] |
- Einzelnachweise
- ↑ Olav Kallenberg: Foundations of Modern Probability (= Probability Theory and Stochastic Modelling. Band 99). 3. Auflage. Springer, Cham 2021, ISBN 978-3-03061870-4, S. 83.
- ↑ Michael A. Proschan, Pamela A. Shaw: Essentials of Probability Theory for Statisticians. CRC Preess, Boca Raton 2016, ISBN 978-1-4987-0419-9, S. 39, 46.
- ↑ Krishna B. Athreya, Soumendra N. Lahiri: Measure Theory and Probability Theory. Springer, New York 2006, ISBN 978-0-387-32903-1, S. 191, 192, doi:10.1007/978-0-387-35434-7.
- ↑ Michel Loève: Probability Theory I. 4. Auflage. Springer-Verlag, New York / Heidelberg / Berlin 1977, ISBN 978-1-4684-9466-2, S. 152, 155, doi:10.1007/978-1-4684-9464-8.
Numerische Zufallsvariable und numerische Funktion
[Bearbeiten | Quelltext bearbeiten]Numerische Zufallsvariable
[Bearbeiten | Quelltext bearbeiten]Der Begriff numerische Zufallsvariable für eine Zufallsvariable mit Werten in (eine erweiterte Zufallsvariable) ist eine Analogbildung zu numerische Funktion als Bezeichnung für eine -wertige Funktion.
Numerische Funktion
[Bearbeiten | Quelltext bearbeiten]In der deutschsprachigen maßtheoretischen Literatur ist die Bezeichnung numerische Funktion für eine -wertige Funktion etabliert. Sie geht vermutlich auf Bauer (1964)[1] zurück.
- Die englischsprachige Wikipedia leitet numerical function auf real-valued function weiter.
- Loève (1977)[2] verwendet numerical function im Sinn von Bauer.
- Im englischen Sprachraum ist eine numerical-valued random variable eine skalare oder vektorwertige Zufallsvariable mit Werten in oder , also gerade keine numerische Funktion im Sinn von Bauer.
- Im Französischen ist eine fonction numérique eine Funktion mit Werten in . Die Terminologie scheint auf Bourbaki zurückzugehen. Auch hier besteht keine Übereinstimmung mit der numerischen Funktion im Sinn von Bauer.
Einzelnachweise
- ↑ Heinz Bauer: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie (= Sammlung Göschen. 1216/1216a). Band 1. Walter de Gruyter, Berlin 1964, S. 11. „Das Symbol bedeutet, dass eine Abbildung der Menge in die Menge ist. Im Spezialfall bzw. soll von einer reellen bzw. numerischen Funktion gesprochen werden.“
- ↑ Michel Loève: Probability Theory I. 4. Auflage. Springer-Verlag, New York / Heidelberg / Berlin 1977, ISBN 978-1-4684-9466-2, S. 103, doi:10.1007/978-1-4684-9464-8. „A numerical function on a space is a function on to , defined by assigning to every point a single number , the value of at . If infinite values are excluded, is a finite function or, equivalently, a function on to .“
Verteilungen von Zufallsvariablen
[Bearbeiten | Quelltext bearbeiten]Maßtheoretische Notation
[Bearbeiten | Quelltext bearbeiten]Bei einer maßtheoretischen Formalisierung statistischer Probleme wird eine reelle Zufallsvariable als Funktion auf einem abstrakten Wahrscheinlichkeitsraum gesehen. Das auf induzierte Wahrscheinlichkeitsmaß mit für alle bildet den Wahrscheinlichkeitsraum , wobei die Wahrscheinlichkeitsverteilung von genannt ist.
In der Statistik spielt der abstrakte Wahrscheinlichkeitsraum regelmäßig keine oder nur eine sehr untergeordnete Rolle und es sind Notationen wie
falls eine standardnormalverteilte Zufallsvariable ist, üblich.
In maßtheoretischer Notation müsste, wenn die Wahrscheinlichkeitsverteilung von bezeichnet, obige Gleichung als
oder als
geschrieben werden. Dabei nähert man sich im zweiten Fall der statistischen Notation an, wenn eine der üblichen abkürzenden Schreibweisen
verwendet wird. Es bleibt aber dabei, dass die zwei Wahrscheinlichkeitsmaße und unterschieden werden müssen.
Die Notation von Wittig
[Bearbeiten | Quelltext bearbeiten]Im Buch Mathematische Statistik I von Witting[1] wird diese Unterscheidung nicht konsistent umgesetzt, so wird bei Ereignissen der Form , und allgemeineren Fällen die Notation z. B. auf den S. 4, 6, 7, 15, 18, 19 verwendet. Im Beispiel 1.34, S.37 (Formeln 1.2.49–50) wird eine damit nicht verträgliche Notation verwendet. In (1.2.55) auf S. 39 kann man als abkürzende Notation für verstehen, wobei die Wahrscheinlichkeitsverteilung von auf ist.
Einzelnachweise
- ↑ Hermann Witting: Mathematische Statistik I. Parametrische Verfahren bei festem Stichprobenumfang. Teubner, Stuttgart 1985, ISBN 3-519-02026-2.
Stetige Zufallsvariablen und Verteilungen
[Bearbeiten | Quelltext bearbeiten]Eine reelle Zufallsvariable mit der Verteilungsfunktion und der Verteilung heißt genau dann stetig, wenn absolut stetig ist.
- Eine reelle Zufallsvariable mit stetiger Verteilungsfunktion ist nicht notwendig stetig im Sinn dieser Definition.
- ist genau dann absolut stetig, falls als Maß absolut stetig bezüglich des Lebesgue-Maßes ist, wenn also
- gilt.
- Für eine stetige reelle Zufallsvariable existiert eine Dichtefunktion mit
- .
- Für praktisch relevante Fälle existiert eine Dichtefunktion, die uneigentlich Riemann-integrierbar ist, so dass
- .
- Eine Wahrscheinlichkeitsverteilung heißt stetig, falls die Verteilungsfunktion stetig ist.
- ist genau dann stetig, wenn es keine Stelle mit .
- In maßtheoretischer Terminologie wird zwischen einer absolut-stetigen und einer stetigen Verteilungen unterschieden, wobei alle absolut-stetigen Verteilungen erst recht stetig sind.
- Manchmal wird in der Wahrscheinlichkeitstheorie von absolut-stetigen Zufallsvariablen gesprochen, wenn deren Verteilungsfunktion absolut-stetig ist. Die ergibt zwar ein konsistentere Bezeichnungsweise, ist aber nicht der seit einigen Jahrzehnten in der Statistik verwendeten Terminologie verträglich.
Multivariate Standardnormalverteilung
[Bearbeiten | Quelltext bearbeiten]Ist eine multivariate Standardnormalverteilung, falls die eindimensionalen Randverteilungen Standardnormalverteilungen sind, oder – spezieller –, falls eine Einheitsmatrix ist?
„Die Verteilung wird als (multivariate) Standardnormal-Verteilung bezeichnet.“[1]
- Einzelnachweise
- ↑ Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, S. 298.
Zur Definition des Erwartungswertes
[Bearbeiten | Quelltext bearbeiten]In einer engeren Definition wird der Erwartungswert einer reellen Zufallsvariablen () als reelle Zahl, , definiert. In einer weiteren Definition wird der Erwartungswert einer reellen Zufallsvariablen als erweiterte reelle Zahl, , definiert. Die nächste Erweiterung besteht darin, den Erwartungswert auch für erweiterte Zufallsvariablen () als erweiterte reelle Zahl () zu definieren. In anwendungsnahen Publikationen sind häufig unscharfe oder unvollständige Definitionen zu finden.
Erwartungswert für reelle Zufallsvariable als reelle Zahl (in ) | Doob (1953)[1], Feller (1968)[2], Lexikon der Stochastik (1991)[3], Whittle (2000)[4], Casella/Berger (2002)[5], Kallenberg (2021)[6], Schilling (2021)[7] |
Erwartungswert für reelle Zufallsvariable als erweiterte reelle Zahl (in ) | Loève (1977)[8], Širjaev (1988)[9], Billingsley (1995)[10], Bauer (2002)[11], Meintrup/Schäffler (2005)[12], Athreya/Lahiri (2006)[13] |
Erwartungswert für erweiterte Zufallsvariable als erweiterte reelle Zahl (in ) | Çinlar (2011)[14], Schmidt (2011)[15] |
Erwartungswert einer reellen Zufallsvariablen als reelle Zahl
[Bearbeiten | Quelltext bearbeiten]„Als Erwartungswert (Mittelwert) der Zufallsgröße mit der Verteilungsfunktion bezeichnet man die Größe
ist. Man sagt dann auch, es existiert der Erwartungswert der Zufallsgröße , oder, die Zufallsgröße besitzt den Erwartungswert .“[3]
Definitionen des Erwartungswertes als reelle Zahl lassen sich in vielen Statistikbüchern[5], aber auch in wahrscheinlichkeitstheoretischen Standardwerken[1][2][6] finden.
Erwartungswert einer reellen Zufallsvariablen als erweiterte reelle Zahl
[Bearbeiten | Quelltext bearbeiten]Definition
[Bearbeiten | Quelltext bearbeiten]- „[...] schließen wir auf die Existenz des Grenzwertes , der auch den Wert annehmen kann.“[16]
- „[...] Man sagt, dass der Erwartungswert der zufälligen Größe existiert (oder daß er definiert ist), falls mindestens eine der Größen oder endlich ist [...] In diesem Fall setzt man nach Definition .“[17]
- „[...] Neben dem Erwartungswert sind auch die Größen (falls sie existieren) und [die immer existieren, siehe oben], wichtige zahlenmäßige Charakteristika einer zufälligen Größe . Sie heißen Momente r-ter Ordnung bzw. absolute Momente r-ter Ordnung (r-te Momente) der zufälligen Größe .“[18]
- „Man sagt, daß der Erwartungswert der zufälligen Größe endlich ist, falls sowohl als auch erfüllt ist.“[19]
Analoge Definitionen lassen sich in vielen Büchern zur Wahrscheinlichkeitstheorie und Statistik finden.[20]
Zur Interpretation eines unendlichen Erwartungswert
[Bearbeiten | Quelltext bearbeiten]Es sei eine reelle Zufallsvariable mit dem Erwartungswert , dann gilt (in dem üblichen Sinn, dass für alle gilt). Da alle Realisierungen von kleiner als der Erwartungswert sind, ist in diesem Fall die Interpretation des Erwartungswertes als 'Mittelwert' äußerst fragwürdig und führt zu einer falschen Intuition. Anders als bei einem endlichen Erwartungswert realisiert sich der Erwartungswert nicht 'im Mittel'. Für stochastisch unabhängige und identisch verteilte Stichprobenvariablen mit der Verteilung von gilt
- .
Dies zeigt, dass auch 'für große Stichprobenumfänge' die frequentistische Interpretation eines Erwartungswertes, nämlich , problematisch ist.
Zum Rechnen mit unendlichen Erwartungswertem
[Bearbeiten | Quelltext bearbeiten]Die reellen Zufallsvariablen und seien stochastisch unabhängig. Die Zufallsvariable sei nichtnegativ mit . Für die Zufallsvariable sei . Dann gilt
und
- ,
so dass nicht existiert. Eine formale Anwendung der 'Rechenregel' führt zu dem falschen Schluss . Der maßtheoretische Hintergrund ist, dass der Satz von Fubini nicht unmittelbar auf das Produkt angewendet werden darf, da dieses weder integrierbar noch nichtnegativ ist. Bei der Zerlegung in Positiv- und Negativteil kann jeweils der Satz von Fubini angewendet werden.
Erwartungswert einer erweiterten Zufallsvariablen als erweiterte reelle Zahl
[Bearbeiten | Quelltext bearbeiten]Wenn man für den Erwartungswert die Werte und zulässt, also die Definition eines Erwartungswertes im weiteren Sinn verwendet, dann führt dies zwangsläufig dazu, dass das Konzept der bedingten Erwartung als Zufallsvariable zu einer erweiterten Zufallsvariable führen kann. In der Literatur wird damit nicht einheitlich verfahren. Teils wird die bedingte Erwartung nur für Zufallsvariablen mit endlichem Erwartungswert definiert, teils wird der Erwartungswert auch für erweiterte Zufallsvariablen definiert.
Unscharfe Definitionen des Erwartungswertes
[Bearbeiten | Quelltext bearbeiten]„Es heißt
sofern existent, der Erwartungswert [expectation] von . Speziell heißt
der Erwartungswert von [...]“[21]
Die Definition ist unvollständig, da sie nur zwei Spezialfälle abdeckt. Sie enthält mit der Einschränkung „sofern existent“ eine nicht erklärte Unschärfe. Die Verwendung des Symbols und danach angegebene Rechenregeln, die endliche Erwartungswerte voraussetzen, sind Indizen dafür, dass nur endliche Erwartungswert gemeint sind und die Einschränkung „sofern existent“ vermutlich heißen soll, „als reelle Zahl existent“.
Das Symbol My für den Erwartungswert einer Zufallsvariablen
[Bearbeiten | Quelltext bearbeiten]In der Statistik wird der Erwartungswert häufig mit und – wenn keine Verwechselung möglich ist – mit abgekürzt. Typischerweise wird diese abgekürzte Notation für endliche Erwarungswertes verwendet, so dass gilt. Es gibt aber Autoren, die abkürzend auch dann verwenden, wenn möglich ist.[22][23]
- Einzelnachweise
- ↑ a b Joseph L. Doob: Stochastic Processes. Wiley, New York 1953, ISBN 978-0-471-52369-7, S. 8.
- ↑ a b William Feller: An Introduction to Probability Theory and Its Applications. 3. Auflage. Band I. Wiley, New York / London / Sydney 1968, ISBN 978-0-471-25708-0, S. 221.
- ↑ a b P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 105, Artikel Erwartungswert (expectation).
- ↑ Peter Whittle: Probability via Expectation (= Springer Texts in Statistics). 4. Auflage. Springer, New York 2000, ISBN 978-1-4612-6795-9, doi:10.1007/978-1-4612-0509-8. Whittle startet auf S. 14, unmittelbar vor der axiomatischen Einführung des Erwartungswertes, zunächst mit einem weitgehenden Anspruch: „Note that the values for an expectation have not been excluded as in any sense improper.“ Eine Seite später wird dann eine Beschränkung auf endliche Erwartungswerte durch die Annahme vorgenommen und beibehalten. „This is a convenient restriction, on the whole, and we shall henceforth adopt it, unless the contrary is stated“ (S. 16).
- ↑ a b George Casella, Roger L. Berger: Statistical Inference. 2. Auflage. Duxbury, Pacific Grove 2002, ISBN 0-534-24312-6, S. 55.
- ↑ a b Olav Kallenberg: Foundations of Modern Probability (= Probability Theory and Stochastic Modelling. Band 99). 3. Auflage. Springer, Cham 2021, ISBN 978-3-03061870-4, S. 85.
- ↑ René L. Schilling: Measure, Integral, Probability, & Processes – Probab(ilistically) the Theoretical Minimum. Eigenverlag René L. Schilling, Dresden 2021, ISBN 979-85-9910488-9, S. 51.
- ↑ Michel Loève: Probability Theory I. 4. Auflage. Springer-Verlag, New York / Heidelberg / Berlin 1977, ISBN 978-1-4684-9466-2, S. 153, doi:10.1007/978-1-4684-9464-8.
- ↑ A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 192–193.
- ↑ Patrick Billingsley: Probability and Measure. 3. Auflage. Wiley, New York 1995, ISBN 0-471-00710-2, S. 273.
- ↑ Heinz Bauer: Wahrscheinlichkeitstheorie. 5. Auflage. Walter de Gruyter, Berlin / New York 2002, ISBN 3-11-017236-4, S. 14.
- ↑ David Meintrup, Stefan Schäffler: Stochastik – Theorie und Anwendungen. Springer, Berlin / Heidelberg / New York 2005, ISBN 3-540-21676-6, S. 92, 99.
- ↑ Krishna B. Athreya, Soumendra N. Lahiri: Measure Theory and Probability Theory. Springer, New York 2006, ISBN 978-0-387-32903-1, S. 191, 192, doi:10.1007/978-0-387-35434-7.
- ↑ Erhan Çinlar: Probability and Stochastics (= Graduate Texts in Mathematics. Band 261). Springer, Dordrecht / Heidelberg / London 2011, ISBN 978-0-387-87858-4, S. 57, doi:10.1007/978-0-387-87859-1.
- ↑ Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, S. 298.
- ↑ A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 192.
- ↑ A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 193, Definition 2.
- ↑ A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 193, Bemerkung 2.
- ↑ A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 193, Definition 3.
- ↑ David Meintrup, Stefan Schäffler: Stochastik – Theorie und Anwendungen. Springer, Berlin / Heidelberg / New York 2005, ISBN 3-540-21676-6, S. 92, 99.
- ↑ Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, S. 190.
- ↑ Krishna B. Athreya, Soumendra N. Lahiri: Measure Theory and Probability Theory. Springer, New York 2006, ISBN 978-0-387-32903-1, S. 194, Definiton 6.2.9, doi:10.1007/978-0-387-35434-7.
- ↑ Galen R. Shorack: Probability for Statisticians. Springer, New York 2000, ISBN 0-387-98953-6, S. 46, Definition 4.1.
Existenz und Endlichkeit von Erwartungswerten und Momenten
[Bearbeiten | Quelltext bearbeiten]'Existenz eines Erwartungswertes' bedeutet 'Wohldefiniertheit'
[Bearbeiten | Quelltext bearbeiten]- Für einige Autoren bedeutet 'der Erwartungswert von existiert', dass das mathematische Objekt definiert ist.
'Existenz eines Erwartungswertes' bedeutet 'Existenz als reelle Zahl'
[Bearbeiten | Quelltext bearbeiten]- Für einige Autoren heißt 'der Erwartungswert von existiert', dass der Erwartungswert von als reelle Zahl existiert, also endlich ist.
- Für eine numerische Zufallsvariable wird und definiert. Die Erwartungswerte im weiteren Sinn und sind dann definiert. Eine Festlegung ist: existiert, falls und . ist wohldefiniert (well defined), falls oder gilt.[1] Genauso wird well defined in Athreya/Lahiri (2006)[2] verwendet.
Existenz eines Integral
[Bearbeiten | Quelltext bearbeiten]Existenz eines Integral kann die Existenz im Sinn der Integrierbarkeit (Wert in ) oder der Quasiintegrierbarkeit (Wert in ) bedeuten. Definitionen in denen die Existenz eines Erwartungswertes mit der Existenz des Integrals erklärt werden, sind daher unklar.
Existenz eines Momentes
[Bearbeiten | Quelltext bearbeiten]- Existenz eines Momentes meint häufig die Endlichkeit eines Momentes (Existenz in ).
- Einzelnachweise
- ↑ Alexandr A. Borovkov: Probability Theory. 5. Auflage. Springer-Verlag, London 2013, ISBN 978-1-4471-5200-2, S. 65–66.
- ↑ Krishna B. Athreya, Soumendra N. Lahiri: Measure Theory and Probability Theory. Springer, New York 2006, ISBN 978-0-387-32903-1, S. 193, Definition 6.2.8, doi:10.1007/978-0-387-35434-7.
Bedingtheit
[Bearbeiten | Quelltext bearbeiten]Bedingte Wahrscheinlichkeit
[Bearbeiten | Quelltext bearbeiten]Notationen und Bezeichnungen
[Bearbeiten | Quelltext bearbeiten]- Standardnotation:
- Ältere Notationen: , , , .
- Altere Bezeichnung: relative Wahrscheinlichkeit
Sprech- und Schreibweisen
[Bearbeiten | Quelltext bearbeiten]- Standardformulierung: ist die Wahrscheinlichkeit des Ereignisses unter der Bedingung .[1]
- Für ein Ereignis heißt bedingte Wahrscheinlichkeit von unter .[2]
- Die Formulierung bedingt auf das Ereignis ist grammatisch eigentlich falsch, aber dennoch häufig zu finden. Vermutlich handelt es sich um eine Sprachanpassung an conditioned on.
Definitionen
[Bearbeiten | Quelltext bearbeiten]Es gibt unterschiedlich weite Konzepte der bedingten Wahrscheinlichkeit:
- als Zahl im Intervall [0,1]
- als Zufallsvariable mit Werten im Intervall [0,1]
- als reguläre bedingte Wahrscheinlichkeit unter der Bedingung eines Ereignisses mit Wahrscheinlichkeit Null
- Einzelnachweise
- ↑ P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, bedingte Wahrscheinlichkeit eines Ereignisses (conditional probability of an event), S. 27–28.
- ↑ Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, S. 220.
Bedingte Erwartung und bedingter Erwartungswert
[Bearbeiten | Quelltext bearbeiten]Unterschiedlich weite Konzepte des bedingten Erwartungswertes:
- als reelle Zahl
- als erweiterte reelle Zahl
- als reelle Zufallsvariable
- als erweiterte reelle Zufallsvariable
Definition der bedingten Erwartung als Zufallsvariable
[Bearbeiten | Quelltext bearbeiten]Typischerweise wird die bedingte Erwartung gegeben eine Ereignis-σ-Algebra nur für den Fall definiert, dass endlich ist ( integrierbar ist), z. B. Billingsley (1995)[1], Shorack (2000)[2]. In diesem Fall ist dann auch endlich und damit eine reelle Zufallsvariable.
Es gibt aber einen etwas allgemeineren Ansatz, bei dem eine erweiterte Zufallsvariable sein kann und bei dem nicht notwendig endlich ist. Dies ergibt nur ein dann ein sinnvolles System, wenn gewöhnliche Erwartungswerte unendlich sein können und außerdem Erwartungswerte für erweiterte (numerische) Zufallsvariablen definiert sind, da dann der bedingte Erwartungswert eine erweiterte Zufallsvariable sein kann. Im Satz vom iterierten Erwartungswert,
- ,
steht dann auf der linken Seite der Erwartungswert einer erweiterten Zufallsvariablen und auf auf der rechten Seite der unendliche Erwartungswert einer Zufallsvariablen.
Beispiel
[Bearbeiten | Quelltext bearbeiten]Betrachtet wird die diskrete Zufallsvariable deren Wahrscheinlichkeitsverteilung durch die Wahrscheinlichkeiten
festliegt. Es gilt . Für das Ereignis
und das Ereignissystem
gilt
mit
- .
Es gilt dann
- .
Beispiel
[Bearbeiten | Quelltext bearbeiten]Wenn eine nichtnegative Zufallsvariable mit und ist, lässt sich zwar der bedingte Erwartungswert
als reelle Zahl definieren definieren, aber es gilt
- .
Für
- lässt sich nur als erweiterte Zufallsvariable
definieren.
Beispiel
[Bearbeiten | Quelltext bearbeiten]Wenn Cauchy-verteilt ist, gibt es weitere Einschränkungen. Es lässt sich zwar wie oben definieren, aber kann nicht analog definiert werden, da für die Zufallsvariable sowohl als auch gilt. Somit lässt sich für auch nicht als erweiterte Zufallsvariable definieren.
Das scheinbar allgemeinste Konzept einer bedingten Erwartung als reelle Zufallsvariable oder als erweiterte Zufallsvariable enthält dann eine Einschränkung, wenn für einige definiert werden kann und für andere nicht.
Existenz einer Zufallsvariablen als zufällige bedingte Erwartung
[Bearbeiten | Quelltext bearbeiten]Mit existiert meint Rüschendorf vermutlich existiert als reelle Zahl bzw. ist endlich.
- Einzelnachweise
- ↑ Patrick Billingsley: Probability and Measure. 3. Auflage. Wiley, New York 1995, ISBN 0-471-00710-2, S. 445.
- ↑ Galen R. Shorack: Probability for Statisticians. Springer, New York 2000, ISBN 0-387-98953-6, S. 158 ff.
- ↑ a b Ludger Rüschendorf: Mathematische Statistik. Springer Spektrum, Berlin / Heidelberg 2014, ISBN 978-3-642-41996-6, S. 392.
Bayes-Statistik
[Bearbeiten | Quelltext bearbeiten]Benannt nach Thomas Bayes.
- A-priori-Verteilung[1], Prior-Verteilung[2] (engl.: a priori distribution, prior distribution), Prior-Dichte[2]
- A-priori-Wahrscheinlichkeit[3] (engl.: a priori probability)
- A-posteriori-Risiko[4]
- A-posteriori-Verteilung[4], Posterior-Verteilung[2] (engl.: a posteriori distribution, posterior distribution), Posterior-Dichte[5]
- A-posteriori-Wahrscheinlichkeit[3] (engl.: a posteriori probability)
- bayesianische ... (Adjektiv in Kleinschreibung)
- bayesianische Statistik
- Bayesianische ... (Adjektiv in Großschreibung)
- Bayesianische Erkenntnistheorie (Artikel eher unstatistisch aus philosophischer Richtung, im wesentlichen eine Übersetzung aus der englischen Wikipedia, teils problematische Übersetzungen, z. B. wird 'belief' mit "Glauben" anstelle von "Überzeugung" übersetzt)
- Im Artikel Bayesianische Erkenntnistheorie: Bayesianischer Ansatz, Bayesianischer Ausdruck, Bayesianische Bestätigungstheorie, Bayesianisches Prinzip, Bayesianische Rationalitätsnorm, Bayesianische Wahrscheinlichkeitsinterpretation
- Bayesianer, Bayesianismus im Artikel Bayesianische Erkenntnistheorie
- bayessche, bayesscher, bayessches ... (Adjektiv in Kleinschreibung)
- bayessche Statistik
- bayesscher Wahrscheinlichkeitsbegriff
- bayessches Theorem (Weiterleitung nach Satz von Bayes)
- Bayessche, Bayesscher, Bayessches ... (Adjektiv in Großschreibung)
- Bayessche Entscheidungsfunktion[3][1]
- Bayessche Formel[3]
- Bayessche Schätzung[6][4]
- Bayessche Theorie[4]
- Bayesscher Test[6][4]
- Bayessches Filter
- Bayessches Netz
- Bayessches Prinzip[3]
- Bayessches Risiko[6][4]
- Bayesscher Spamfilter
- Bayessches Theorem (Weiterleitung nach Satz von Bayes)
- Bayesscher Wahrscheinlichkeitsbegriff
- Bayes-...
- Bayes-Entscheidungsfunktion[7]
- Bayes-Hypothesentest[8]
- Bayes-Inferenz[2]
- Bayes-Klassifikator
- Bayes-Konfidenzintervall[8]
- Bayes-Risiko[7]
- Bayes-Schätzer[8]
- Bayes-Spiel
- ungünstigste A-priori-Verteilung[4] (engl.: most unfavourable a priori distribution)
Einzelnachweise
- ↑ a b P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 91.
- ↑ a b c d Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, S. 586.
- ↑ a b c d e P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 22.
- ↑ a b c d e f g P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 92.
- ↑ Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, S. 587.
- ↑ a b c P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 23.
- ↑ a b Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, S. 595.
- ↑ a b c Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, S. 588.
In der Philosophie gibt es den Apriorismus (Lehre einer Erkenntnis unabhängig von Erfahrung) und in diesem Zusammanhang das Apriori, apriorisch, das Aposteriori, aposteriosch. Dies passt nicht gut mit der Bayes-Statistik zusammen, da die A-prori-Verteilung der Bayes-Statistik durchaus erfahrungsbasiert sein kann.