Überprüft

Zufallsvariable

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Diskrete Zufallsvariable)
Zur Navigation springen Zur Suche springen

In der Stochastik ist eine Zufallsvariable (auch zufällige Variable[1], zufällige Größe[2], zufällige Veränderliche[1], zufälliges Element[1], Zufallselement[3], Zufallsveränderliche[4][5]) eine Größe, deren Wert vom Zufall abhängig ist.[6] Formal ist eine Zufallsvariable eine Funktion, die jedem möglichen Ergebnis eines Zufallsexperiments eine Größe zuordnet.[2] Ist diese Größe eine reelle Zahl, so spricht man von einer reellen Zufallsvariablen oder Zufallsgröße[1]. Beispiele für reelle Zufallsvariablen sind die Augensumme von zwei geworfenen Würfeln und die Gewinnhöhe in einem Glücksspiel. Zufallsvariablen können aber auch komplexere mathematische Objekte sein, wie Zufallsfelder, Zufallsbewegungen, Zufallspermutationen oder Zufallsgraphen. Über verschiedene Zuordnungsvorschriften können einem Zufallsexperiment auch verschiedene Zufallsvariablen zugeordnet werden.[2]

Den einzelnen Wert, den eine Zufallsvariable bei der Durchführung eines Zufallsexperiments annimmt, nennt man Realisierung[7] oder im Falle eines stochastischen Prozesses einen Pfad. Bei der Zufallszahlenerzeugung werden Realisierungen spezieller Zufallsexperimente als Zufallszahlen bezeichnet.

Während A. N. Kolmogorow zunächst von durch den Zufall bestimmten Größen sprach[8][9], führte er 1933 den Begriff zufällige Größe ein[10] und sprach später von Zufallsgrößen.[11] Im Jahr 1933 ist auch schon der Begriff Zufallsvariable in Gebrauch.[12] Bereits 1935 ist der Begriff zufällige Variable nachweisbar.[13] Später hat sich (ausgehend vom englischen random variable, das sich gegen chance variable und stochastic Variable durchsetzte[14]) der etwas irreführende Begriff[15] Zufallsvariable durchgesetzt.

Die Grundidee hinter der Zufallsvariable ist es, den Zufall mit Hilfe des Begriffes der Funktion zu modellieren. Dies wird einige Vorteile mit sich bringen. Angenommen, wir betrachten ein Zufallsexperiment, welches nur zwei Ausgänge hat, welche wir mit und notieren. Mit Hilfe der Funktion können wir nun eine „zufällige Variable“ definieren, die berücksichtigt, ob oder eingetroffen ist.

Ein Beispiel einer Zufallsvariable. Die Menge steht für eine beliebige Menge, welche die Zahlen enthält.

Dies geschieht durch die Funktion

wobei die Werte und vom Experiment abhängen, welches man modelliert. Man nennt

  • und Ergebnisse und zusammen bilden sie den Ergebnisraum . Welches dieser Ergebnisse eintritt, wissen wir a priori nicht.
  • und Realisierungen der Zufallsvariable. Wir notieren die Menge, in der sie sich befinden, mit .

In den meisten Fällen wählt man entweder die reellen Zahlen oder eine diskrete Menge wie zum Beispiel oder . Allgemeiner kann aber auch , ein Banach-Raum oder ein topologischer Vektorraum sein.

Eine Zufallsvariable ist somit eine Abbildung der Form .

  • Beispiel (Münzwurf): Wir möchten einen Münzwurf modellieren. Seien und das zufällige Ergebnis des Münzwurfs und . Nun können wir verschiedene Zufallsvariablen bilden, zum Beispiel eine Wette, bei der 1 EUR ausgezahlt wird, wenn Zahl erscheint und sonst nichts. Dann ist die Auszahlungssumme die Zufallsvariable
Wir haben also und gewählt, hätten wir hingegen bei falscher Wette 1 EUR bezahlen müssen, dann hätten wir uns für entschieden.
  • Beispiel (Würfelwurf): Wir möchten einen Würfelwurf modellieren. Seien , dann ist und der Würfel die Zufallsvariable
  • Beispiel (2-facher Münzwurf): Wir möchten den 2-fachen Münzwurf modellieren. Die Ergebnismenge ist , ihre Elemente haben die Form . Wettet man bei zwei Münzwürfen beide Male auf Kopf, so lassen sich beispielsweise folgende Zufallsvariablen untersuchen:
  1. als Auszahlung nach der ersten Wette,
  2. als Auszahlung nach der zweiten Wette,
  3. als Summe der beiden Auszahlungen.

Zufallsvariablen werden üblicherweise mit einem Großbuchstaben bezeichnet (hier ), während man für die Realisierungen die entsprechenden Kleinbuchstaben verwendet (zum Beispiel , , , ).

Im Münzwurf-Beispiel hat die Menge eine konkrete Interpretation. In der weiteren Entwicklung der Wahrscheinlichkeitstheorie ist es oft zweckmäßig, die Elemente von als abstrakte Repräsentanten des Zufalls zu betrachten, ohne ihnen eine konkrete Bedeutung zuzuweisen, und dann sämtliche zu modellierende Zufallsvorgänge als Zufallsvariable zu erfassen.

Häufig verzichtet man auf die Schreibweise und benützt stattdessen die Kurzschreibweise . Dies sollte aber nicht falsch verstanden werden, denn es handelt sich hier nur um eine Abkürzung für respektive für die Menge aller , so dass .

Elemente der Maßtheorie

[Bearbeiten | Quelltext bearbeiten]

Damit man über Wahrscheinlichkeiten sprechen kann, müssen die Räume und noch mit zusätzlichen Strukturen ausgestattet sein. Für brauchen wir

  • ein System , welches alle möglichen Ereignisse enthält,
  • eine Funktion , welche den möglichen Ereignissen aus eine Wahrscheinlichkeit zuordnet.

Aus technischer Sicht verwendet man hierfür die Maßtheorie, was zum Begriff des Wahrscheinlichkeitsraumes führt, wobei eine sogenannte σ-Algebra und ein Wahrscheinlichkeitsmaß ist. Für brauchen wir etwas ähnliches, welches mit der Struktur auf verträglich ist.

Konkret brauchen wir für ein System , welches mit dem System von verträglich ist. Dies führt zum Begriff der Messbarkeit. Es soll gelten

  • für jedes Element muss das Urbild unter der Zufallsvariable, das bedeutet die Menge , ein Ereignis in dem System sein, das bedeutet .

Wenn diese Eigenschaft gilt, dann nennen wir eine -messbare Funktion. Zufallsvariablen erfüllen diese Eigenschaft (für ein und ) und sind messbare Funktionen.

Als Letztes ermöglicht uns die Messbarkeit, das Wahrscheinlichkeitsmaß auf den Raum zu übertragen. Dies führt zum Begriff der Wahrscheinlichkeitsverteilung, welche als sogenanntes Bildmaß unter der Zufallsvariable durch für alle definiert ist.

Als Zufallsvariable bezeichnet man eine messbare Funktion von einem Wahrscheinlichkeitsraum in einen Messraum.

Eine formale mathematische Definition lässt sich wie folgt geben:[16]

Es seien ein Wahrscheinlichkeitsraum und ein Messraum. Eine -messbare Funktion heißt dann eine -Zufallsvariable auf oder einfach nur Zufallsvariable.

Beispiel: Zweimaliger Würfelwurf

[Bearbeiten | Quelltext bearbeiten]
Summe von zwei Würfeln:

Das Experiment, mit einem fairen Würfel zweimal zu würfeln, lässt sich mit folgendem Wahrscheinlichkeitsraum modellieren:

  • ist die Menge der 36 möglichen Ergebnisse
  • ist die Potenzmenge von
  • Will man zwei unabhängige Würfe mit einem fairen Würfel modellieren, so setzt man alle 36 Ergebnisse gleich wahrscheinlich, wählt also das Wahrscheinlichkeitsmaß als für .

Die Zufallsvariablen (gewürfelte Zahl des ersten Würfels), (gewürfelte Zahl des zweiten Würfels) und (Augensumme des ersten und zweiten Würfels) werden als folgende Funktionen definiert:

  1. und

wobei für die borelsche σ-Algebra auf den reellen Zahlen gewählt wird.

In der Regel wird auf die konkrete Angabe der zugehörigen Räume verzichtet; es wird angenommen, dass aus dem Kontext klar ist, welcher Wahrscheinlichkeitsraum auf und welcher Messraum auf gemeint ist.

Bei einer endlichen Ergebnismenge wird meistens als die Potenzmenge von gewählt. Die Forderung, dass die verwendete Funktion messbar ist, ist dann immer erfüllt. Messbarkeit wird erst wirklich bedeutsam, wenn die Ergebnismenge überabzählbar viele Elemente enthält.

Einige Klassen von Zufallsvariablen mit bestimmten Wahrscheinlichkeits- und Messräumen werden besonders häufig verwendet. Diese werden teilweise mit Hilfe alternativer Definitionen eingeführt, die keine Kenntnisse der Maßtheorie voraussetzen:

Reelle Zufallsvariable

[Bearbeiten | Quelltext bearbeiten]

Bei reellen Zufallsvariablen ist der Bildraum die Menge der reellen Zahlen versehen mit der borelschen -Algebra. Die allgemeine Definition von Zufallsvariablen lässt sich in diesem Fall zur folgenden Definition vereinfachen:

Eine reelle Zufallsvariable ist eine Funktion , die jedem Ergebnis aus einer Ergebnismenge eine reelle Zahl zuordnet und die folgende Messbarkeitsbedingung erfüllt:

Das bedeutet, dass die Menge aller Ergebnisse, deren Realisierung unterhalb eines bestimmten Wertes liegt, ein Ereignis bilden muss.

Im Beispiel des zweimaligen Würfelns sind , und jeweils reelle Zufallsvariablen.

Mehrdimensionale Zufallsvariable

[Bearbeiten | Quelltext bearbeiten]

Eine mehrdimensionale Zufallsvariable ist eine messbare Abbildung für eine Dimension . Sie wird auch als Zufallsvektor bezeichnet. Damit ist gleichzeitig ein Vektor von einzelnen reellen Zufallsvariablen , die alle auf dem gleichen Wahrscheinlichkeitsraum definiert sind. Die Verteilung von wird als multivariat bezeichnet, die Verteilungen der Komponenten nennt man auch Randverteilungen. Die mehrdimensionalen Entsprechungen von Erwartungswert und Varianz sind der Erwartungswertvektor und die Kovarianzmatrix.

Im Beispiel des zweimaligen Würfelns ist eine zweidimensionale Zufallsvariable.

Zufallsvektoren sollten nicht mit Wahrscheinlichkeitsvektoren (auch stochastische Vektoren genannt) verwechselt werden. Diese sind Elemente des , deren Komponenten positiv sind und deren Summe 1 ergibt. Sie beschreiben die Wahrscheinlichkeitsmaße auf Mengen mit Elementen.

Komplexe Zufallsvariable

[Bearbeiten | Quelltext bearbeiten]

Bei komplexen Zufallsvariablen ist der Bildraum die Menge der komplexen Zahlen versehen mit der durch die kanonische Vektorraumisomorphie zwischen und „geerbten“ borelschen σ-Algebra. ist genau dann eine Zufallsvariable, wenn Realteil und Imaginärteil jeweils reelle Zufallsvariablen sind.

Numerische oder erweiterte Zufallsvariable

[Bearbeiten | Quelltext bearbeiten]

Der Begriff Zufallsvariable ohne weitere Charakterisierung bedeutet meistens – und fast immer in anwendungsnahen Darstellungen – reelle Zufallsvariable. Zur Unterscheidung von einer solchen wird eine Zufallsvariable mit Werten in den erweiterten reellen Zahlen als numerische Zufallsvariable[17] – entsprechend der Terminologie der numerischen Funktion – oder als erweiterte Zufallsvariable[17] (engl. extended random variable[18]) bezeichnet. Es gibt aber auch eine abweichende Terminologie, bei der Zufallsvariable eine numerische Zufallsvariable bezeichnet und eine reelle Zufallsvariable immer als solche bezeichnet wird.[19]

In der Literatur wird die obige Definition der Zufallsvariable manchmal für den Begriff Zufallselement oder zufälliges Element (resp. englisch random element) verwendet, um reelle Zufallsvariablen von allgemeineren Objekten wie dem Zufallsvektor, dem zufälligen Maß, der Zufallsfunktion, der Zufallsmenge, der Zufallsmatrix usw. zu unterscheiden.

Die Verteilung von Zufallsvariablen, Existenz

[Bearbeiten | Quelltext bearbeiten]

Eng verknüpft mit dem eher technischen Begriff einer Zufallsvariablen ist der Begriff der auf dem Bildraum von induzierten Wahrscheinlichkeitsverteilung. Mitunter werden beide Begriffe auch synonym verwendet. Formal wird die Verteilung einer Zufallsvariablen als das Bildmaß des Wahrscheinlichkeitsmaßes definiert, also

für alle , wobei die auf dem Bildraum der Zufallsvariable gegebene σ-Algebra ist.

Statt werden in der Literatur für die Verteilung von auch die Schreibweisen oder verwendet.

Spricht man also beispielsweise von einer normalverteilten Zufallsvariablen, so ist damit eine Zufallsvariable mit Werten in den reellen Zahlen gemeint, deren Verteilung einer Normalverteilung entspricht.

Eigenschaften, welche sich allein über gemeinsame Verteilungen von Zufallsvariablen ausdrücken lassen, werden auch wahrscheinlichkeitstheoretisch genannt.[20] Für Behandlung solcher Eigenschaften ist es nicht notwendig, die konkrete Gestalt des (Hintergrund-)Wahrscheinlichkeitsraumes zu kennen, auf dem die Zufallsvariablen definiert sind.

Häufig wird deswegen von einer Zufallsvariablen lediglich die Verteilungsfunktion angegeben und der zu Grunde liegende Wahrscheinlichkeitsraum offen gelassen. Dies ist vom Standpunkt der Mathematik erlaubt, sofern es tatsächlich einen Wahrscheinlichkeitsraum gibt, der eine Zufallsvariable mit der gegebenen Verteilung erzeugen kann. Ein solcher Wahrscheinlichkeitsraum lässt sich aber zu einer konkreten Verteilung leicht angeben, indem beispielsweise , als die Borelsche σ-Algebra auf den reellen Zahlen und als das durch die Verteilungsfunktion induzierte Lebesgue-Stieltjes-Maß gewählt wird. Als Zufallsvariable kann dann die identische Abbildung mit gewählt werden.[21]

Wenn eine Familie von Zufallsvariablen betrachtet wird, reicht es aus wahrscheinlichkeitstheoretischer Perspektive genauso, die gemeinsame Verteilung der Zufallsvariablen anzugeben, die Gestalt des Wahrscheinlichkeitsraums kann wiederum offen gelassen werden.

Die Frage nach der konkreten Gestalt des Wahrscheinlichkeitsraumes tritt also in den Hintergrund, es ist jedoch von Interesse, ob zu einer Familie von Zufallsvariablen mit vorgegebenen endlichdimensionalen gemeinsamen Verteilungen ein Wahrscheinlichkeitsraum existiert, auf dem sie sich gemeinsam definieren lassen. Diese Frage wird für unabhängige Zufallsvariablen durch einen Existenzsatz von É. Borel gelöst, der besagt, dass man im Prinzip auf den von Einheitsintervall und Lebesgue-Maß gebildeten Wahrscheinlichkeitsraum zurückgreifen kann. Ein möglicher Beweis nutzt, dass sich die binären Nachkommastellen der reellen Zahlen in [0,1] als ineinander verschachtelte Bernoulli-Folgen betrachten lassen (ähnlich Hilberts Hotel).[22]

Mathematische Attribute für Zufallsvariablen

[Bearbeiten | Quelltext bearbeiten]

Verschiedene mathematische Attribute, die teilweise denen für allgemeine Funktionen entlehnt sind, finden bei Zufallsvariablen Anwendung. Die häufigsten werden in der folgenden Zusammenstellung kurz erklärt:

Eine Zufallsvariable wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt, oder etwas allgemeiner, wenn ihre Verteilung eine diskrete Wahrscheinlichkeitsverteilung ist.[23] Im obigen Beispiel des zweimaligen Würfelns sind alle drei Zufallsvariablen , und diskret. Ein weiteres Beispiel für diskrete Zufallsvariablen sind zufällige Permutationen.

Eine Zufallsvariable wird als konstant bezeichnet, wenn sie nur einen Wert annimmt: für alle . Sie ist ein Spezialfall einer diskreten Zufallsvariable.

Es gilt

,[24]

die Umkehrung gilt im Allgemeinen nicht. Eine Zufallsvariable, die nur die rechte Seite erfüllt, heißt fast sicher konstant.

Zwei reelle Zufallsvariablen heißen unabhängig, wenn für je zwei Intervalle und die Ereignisse und stochastisch unabhängig sind. Das sind sie, wenn gilt: .

In obigem Beispiel sind und unabhängig voneinander; die Zufallsvariablen und hingegen nicht.

Unabhängigkeit mehrerer Zufallsvariablen bedeutet, dass das Wahrscheinlichkeitsmaß des Zufallsvektors dem Produktmaß der Wahrscheinlichkeitsmaße der Komponenten, also dem Produktmaß von entspricht.[25] So lässt sich beispielsweise dreimaliges unabhängiges Würfeln durch den Wahrscheinlichkeitsraum mit

,
der Potenzmenge von und

modellieren; die Zufallsvariable „Ergebnis des -ten Wurfes“ ist dann

für .

Die Konstruktion eines entsprechenden Wahrscheinlichkeitsraums für eine beliebige Familie unabhängiger Zufallsvariable mit gegebenen Verteilungen ist ebenfalls möglich.[26]

Identisch verteilt

[Bearbeiten | Quelltext bearbeiten]

Zwei oder mehr Zufallsvariablen heißen identisch verteilt (bzw. i.d. für identically distributed), wenn ihre induzierten Wahrscheinlichkeitsverteilungen gleich sind. In Beispiel des zweimaligen Würfelns sind , identisch verteilt; die Zufallsvariablen und hingegen nicht.

Unabhängig und identisch verteilt

[Bearbeiten | Quelltext bearbeiten]

Häufig werden Folgen von Zufallsvariablen untersucht, die sowohl unabhängig als auch identisch verteilt sind; demnach spricht man von unabhängig identisch verteilten Zufallsvariablen, üblicherweise mit u.i.v. bzw. i.i.d. (für independent and identically distributed) abgekürzt.

In obigem Beispiel des dreimaligen Würfelns sind , und i.i.d. Die Summe der ersten beiden Würfe und die Summe des zweiten und dritten Wurfs sind zwar identisch verteilt, aber nicht unabhängig. Dagegen sind und unabhängig, aber nicht identisch verteilt.

Austauschbare Familien von Zufallsvariablen sind Familien, deren Verteilung sich nicht ändert, wenn man endlich viele Zufallsvariablen in der Familie vertauscht. Austauschbare Familien sind stets identisch verteilt, aber nicht notwendigerweise unabhängig.

Mathematische Attribute für reelle Zufallsvariablen

[Bearbeiten | Quelltext bearbeiten]

Zur Charakterisierung von Zufallsvariablen dienen einige wenige Funktionen, die wesentliche mathematische Eigenschaften der jeweiligen Zufallsvariable beschreiben. Die wichtigste dieser Funktionen ist die Verteilungsfunktion, die Auskunft darüber gibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert bis zu einer vorgegebenen Schranke annimmt, beispielsweise die Wahrscheinlichkeit, höchstens eine Vier zu würfeln. Bei stetigen Zufallsvariablen wird diese durch die Wahrscheinlichkeitsdichte ergänzt, mit der die Wahrscheinlichkeit berechnet werden kann, dass die Werte einer Zufallsvariablen innerhalb eines bestimmten Intervalls liegen. Des Weiteren sind Kennzahlen wie der Erwartungswert, die Varianz oder höhere mathematische Momente von Interesse.

Stetig oder kontinuierlich

[Bearbeiten | Quelltext bearbeiten]

Das Attribut stetig wird für unterschiedliche Eigenschaften verwendet.

  • Eine reelle Zufallsvariable wird als stetig (oder auch absolut stetig) bezeichnet, wenn sie eine Dichte besitzt (ihre Verteilung absolutstetig bezüglich des Lebesgue-Maßes ist).[27]
  • Eine reelle Zufallsvariable wird als stetig bezeichnet, wenn sie eine stetige Verteilungsfunktion besitzt.[28] Insbesondere bedeutet das, dass für alle gilt.

Verteilungsfunktion

[Bearbeiten | Quelltext bearbeiten]

Eine reelle Zufallsvariable mit der Wahrscheinlichkeitsverteilung hat die Verteilungsfunktion

Wenn eine reelle Zufallsvariable auf dem Ergebnisraum und eine messbare Funktion gegeben ist, dann ist auch eine Zufallsvariable auf demselben Ergebnisraum, da die Verknüpfung messbarer Funktionen wieder messbar ist. wird auch als Transformation der Zufallsvariablen unter bezeichnet. Die gleiche Methode, mit der man von einem Wahrscheinlichkeitsraum nach gelangt, kann benutzt werden, um die Verteilung von zu erhalten.

Die Verteilungsfunktion der transformierten Zufallsvariablen kann mit der Wahrscheinlichkeitsverteilung bestimmt werden

.

Es sei eine reelle Zufallsvariable mit stetiger Verteilungsfunktion . Dann ist die Verteilungsfunktion der Zufallsvariablen durch

gegeben.[29]

Der Erwartungswert einer quasi-integrierbaren Zufallsgröße von nach mit der Verteilung ist

.

Integrierbar und quasi-integrierbar

[Bearbeiten | Quelltext bearbeiten]

Eine Zufallsvariable heißt integrierbar, wenn der Erwartungswert der Zufallsvariable existiert und endlich ist. Die Zufallsvariable heißt quasi-integrierbar, wenn der Erwartungswert existiert, möglicherweise aber unendlich ist. Jede integrierbare Zufallsvariable ist folglich auch quasi-integrierbar.

Standardisierung

[Bearbeiten | Quelltext bearbeiten]

Eine Zufallsvariable nennt man standardisiert, wenn ihr Erwartungswert 0 und ihre Varianz 1 ist. Die Transformation einer Zufallsvariable in eine standardisierte Zufallsvariable

bezeichnet man als Standardisierung der Zufallsvariable .

  • Zeitlich zusammenhängende Zufallsvariablen können auch als stochastischer Prozess aufgefasst werden
  • Eine Folge von Realisierungen einer Zufallsvariable nennt man auch Zufallsfolge oder Zufallssequenz
  • Eine Zufallsvariable erzeugt eine σ-Algebra , wobei die Borelsche σ-Algebra des ist.
  • Es gibt Zufallsvariablen, die weder diskret noch stetig sind. Ein Beispiel ist die Lebensdauer einer Maschine. ist eine Zufallsvariable mit (und daher nicht stetig), weil eine Maschine eine Wahrscheinlichkeit hat, von Anfang nicht zu funktionieren. Außerdem ist für alle (und daher ist nicht diskret).[30] Ein anderes Beispiel ist die Wartezeit eines Autos vor einer Ampel.[31] Man kann in diesen Fällen eine Zerlegung in eine Summe aus einer stetigen und einer diskreten Zufallsvariablen vornehmen.
  • Karl Hinderer: Grundbegriffe der Wahrscheinlichkeitstheorie. Springer, Berlin/ Heidelberg/ New York 1980, ISBN 3-540-07309-4.
  • Erich Härtter: Wahrscheinlichkeitsrechnung für Wirtschafts- und Naturwissenschaftler. Vandenhoeck & Ruprecht, Göttingen 1974, ISBN 3-525-03114-9.
  • Michel Loève: Probability Theory I. 4. Auflage. Springer, 1977, ISBN 0-387-90210-4 (englisch).
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 3-05-500608-9, Zufällige Variable (random variable), S. 511.
Commons: Zufallsvariable – Sammlung von Bildern, Videos und Audiodateien
Wikibooks: Zufallsvariablen – Lern- und Lehrmaterialien
Wikibooks: Funktionen von Zufallsvariablen – Lern- und Lehrmaterialien

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b c d P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 3-05-500608-9, Zufällige Variable (random variable), S. 511.
  2. a b c Jörg Bewersdorff: Glück, Logik und Bluff. Mathematik im Spiel - Methoden, Ergebnisse und Grenzen. 6. Auflage. Springer Spektrum, Wiesbaden 2012, ISBN 978-3-8348-1923-9, S. 39, doi:10.1007/978-3-8348-2319-9 (eingeschränkte Vorschau in der Google-Buchsuche).
  3. Peter Gänssler, Winfried Stute: Wahrscheinlichkeitstheorie. Springer-Verlag, Berlin / Heidelberg / New York 1977, ISBN 3-540-08418-5, Kap. VIII Zufallselemente in metrischen Räumen, doi:10.1007/978-3-642-66749-7.
  4. S. Goldberg: Die Wahrscheinlichkeit. Vieweg, Braunschweig 1960, ISBN 3-663-01040-6, Kap IV. Zufallsveränderliche (Zufallsvariable), doi:10.1007/978-3-663-02953-3.
  5. Pál Révész: Die Gesetze der Grossen Zahlen (= Lehrbücher und Monographien aus dem Gebiete der exakten Wissenschaften. Band 35). Birkhäuser, Basel 1980, ISBN 3-0348-6941-X, Kap. 2 Unabhängige Zufallsveränderliche, doi:10.1007/978-3-0348-6940-9 (Originalausgabe: The Laws of Large Numbers, Budapest 1967, übersetzt von Eva Vas).
  6. Norbert Henze: Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls. Vieweg+Teubner Verlag, 2010, ISBN 978-3-8348-0815-8, doi:10.1007/978-3-8348-9351-2, S. 12.
  7. David Meintrup, Stefan Schäffler: Stochastik. Theorie und Anwendungen. Springer-Verlag, Berlin Heidelberg New York 2005, ISBN 3-540-21676-6, S. 456–457, doi:10.1007/b137972.
  8. Andrei Nikolajewitsch Kolmogorow: Über die Summen durch den Zufall bestimmter unabhängiger Größen. In: Mathematische Annalen. Band 99, 1928, S. 309 ff. (uni-goettingen.de).
  9. Andrei Nikolajewitsch Kolmogorow: Bemerkungen zu meiner Arbeit „Über die Summen durch den Zufall bestimmter unabhängiger Größen“. In: Mathematische Annalen. Band 99, 1930, S. 484 ff. (uni-goettingen.de).
  10. Andrei Nikolajewitsch Kolmogorow: Grundbegriffe der Wahrscheinlichkeitsrechnung. Springer, Berlin 1933.
  11. Boris Gnedenko, Andrei Nikolajewitsch Kolmogorow: Grenzverteilung von Summen unabhängiger Zufallsgrößen. Akademie Verlag, 1959.
  12. Z. Birnbaum, J. Schreier: Anmerkung zum starken Gesetz der großen Zahlen. In: Studia Mathematica. Band 4, 1933, doi:10.4064/sm-4-1-85-89.
  13. Oskar N. Anderson: Einführung in die Mathematische Statistik. Springer, Wien 1935, ISBN 3-7091-5873-7, Kap 2.6 Zufällige Variable, S. 167, doi:10.1007/978-3-7091-5923-1.
  14. Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics. Abschnitt R.
  15. Eine Zufallsvariable ist weder zufällig noch eine Variable, siehe Jürgen Hedderich, Lothar Sachs: Angewandte Statistik: Methodensammlung mit R. 15. Auflage. 2016, ISBN 978-3-662-45690-3, S. 197, doi:10.1007/978-3-662-45691-0.
  16. Karl Hinderer: Grundbegriffe der Wahrscheinlichkeitstheorie. Springer, Berlin 1980, ISBN 3-540-07309-4 (nicht überprüft)
  17. a b Guido Walz (Hrsg.): Lexikon der Mathematik. Band 4 (Moo bis Sch). Springer Spektrum, Berlin 2017, ISBN 978-3-662-53499-1, S. 98.
  18. Galen R. Shorack: Probability for Statisticians (= Springer Texts in Statistics). 2. Auflage. Springer, Cham 2017, ISBN 978-3-319-52206-7, S. 35, doi:10.1007/978-3-319-52207-4.
  19. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2.,durchgesehene Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, S. 194.
  20. Loève: Probability Theory. 4. Auflage. Band 1, Springer 1977, ISBN 0-387-90210-4, S. 172f.
  21. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, Definition 5.6.2.
  22. Olav Kallenberg: Foundations of Modern Probability. 2. Ausgabe. Springer, New York 2002, ISBN 0-387-95313-2, S. 55.
  23. David Meintrup, Stefan Schäffler: Stochastik. Theorie und Anwendungen. Springer-Verlag, Berlin Heidelberg New York 2005, ISBN 3-540-21676-6, S. 90, doi:10.1007/b137972.
  24. Diese Implikation gilt, da .
  25. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3 (Definition 5.8.1)
  26. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. Springer-Verlag, Berlin/ Heidelberg 2009, ISBN 978-3-540-89729-3, Kapitel 11.4.
  27. Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. 11. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1989, Definition 2.3.3.
  28. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, S. 210.
  29. Für ist . Für gilt
    Das letzte Gleichheitszeichen folgt, da die Verteilungsfunktion von als stetig vorausgesetzt ist, woraus folgt.
    Typischerweise werden solche Berechnungen in der Statistik mit etwas Übung ohne expliziten Rückgriff auf die zugrundeliegende Ergebnismenge und damit den zugrundeliegenden Wahrscheinlichkeitsraum durchgeführt, z. B. für den Fall in der Form
  30. Günter Mühlbach: Repetitorium Stochastik: Ein Zugang über Beispiele. 1. Auflage. Carl Hanser Verlag GmbH & Co. KG, 2011, ISBN 978-3-446-47597-7, S. 53.
  31. Matthias Vierkötter: Grundlagen der modernen Finanzmathematik. 2021, ISBN 978-3-662-63062-4, S. 16–17.