Benutzer:Mouhandwoulp
Drafts
[Bearbeiten | Quelltext bearbeiten]Markov-Prozess
[Bearbeiten | Quelltext bearbeiten]Ein Markov-Prozess ist ein stochastischer Prozess, dessen Zukunft allein vom aktuellen Zustand abhängt - und nicht von früheren Zuständen.[1]
Benennung und Schreibweise
[Bearbeiten | Quelltext bearbeiten]Benannt ist der Markov-Prozess nach dem russischen Mathematiker Andrej Andreevič Markov.
Die Schreibweise Markov wird in der englischsprachigen Literatur verwendet[1], die sich auch in der deutschsprachigen Literatur durchsetzt[2][3]. Diese Schreibweise entspricht der gebräuchlichen Transliteration.[4][5] Daneben findet sich auch die Schreibweise Markoff[6][7].
Formale Definition
[Bearbeiten | Quelltext bearbeiten]Eine Familie von Zufallsvariablen auf einem Wahrscheinlichkeitsraum mit Träger heißt Markov-Prozess, wenn für jede beliebige Wahl der , mit gilt: [1][8] falls .
Klassifizierung
[Bearbeiten | Quelltext bearbeiten]Abhängig von der Anzahl der Elemente der Mengen und wird folgende Klassifizierung vorgenommen:[9][10]
diskret | kontinuierlich | |
---|---|---|
diskret | (Zeit-)diskrete Markov-Kette | (Zeit-)diskreter Markov-Prozess |
kontinuierlich | (Zeit-)kontinuierliche Markov-Kette | (Zeit-)kontinuierlicher Markov-Prozess |
Diskret heißt, dass die Menge höchstens abzählbar unendliche viele Elemente enthält.[11]
Die Benennung der einzelnen Klassen ist in der Literatur nicht einheitlich: Manchmal werden die Klassen bei denen kontinuierlich ist, als Markov-Prozess bezeichnet[12], manchmal werden alle Klassen als Markov-Kette bezeichnet[13].
Eigenschaften
[Bearbeiten | Quelltext bearbeiten]Einige Eigenschaften sind für die Zeilen definiert, andere für Spalten, wieder andere sind für jede Klasse neu definiert. Einige Begriffe haben bei unterschiedlichen Voraussetzungen unterschiedliche Eigenschaften. In der Literatur werden häufig nur ausgewählte Klassen betrachtet und für diese Eigenschaften gezeigt.
Alle Klassen
[Bearbeiten | Quelltext bearbeiten]Die Wahrscheinlichkeit von einem in einen anderen Zustand zu gelangen heißt Übergangswahrscheinlichkeit und wird bezeichnet mit .
HINZU: Startwahrscheinlichkeit
Zeit-diskrete Markov-Kette und zeit-diskreter Markov-Prozess
[Bearbeiten | Quelltext bearbeiten]Die Wahrscheinlichkeit in Schritten von einem in einen anderen Zustand zu gelangen heißt n-Schritt-Übergangswahrscheinlichkeit.
HINZU: Übergangsmatrix (möglicherweise unendlichdimensional)
HINZU: Spaltensummen gleich 1
Zeit-diskrete Markov-Kette
[Bearbeiten | Quelltext bearbeiten]HINZU: Irrdeuzible
HINZU: Rekurrent / Transient
HINZU: Null-Rekurrent / positiv rekurrent
HINZU: Homogen
HINZU: Chapman-Kolmogorov-Gleichung
Zeit-kontinuierliche Markov-Kette
[Bearbeiten | Quelltext bearbeiten]HINZU: homogen
HINZU: Chapman-Kolmogorov-Gleichung
WO?
[Bearbeiten | Quelltext bearbeiten]HINZU: Periodisch / aperiodisch
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ a b c Allen, Arnold O.: Probability, Statistics, and Queueing Theory with Computer Science Applications, Academic Press Inc., San Diego, 1990, 2nd ed., Seite 219
- ↑ Georgii, Hans-Otto: Stochastik - Einführung in die Wahrscheinlichkeitstheorie und Statistik, Walter de Gruyter & Co, Berlin, 2009
- ↑ Klenke, Achim: Wahrscheinlichkeitstheorie, Springer Verlag, Berlin, Heidelberg, 2008, 2006, 2. Auflage
- ↑ Kyrillisches_Alphabet#Wiedergabe_mit_lateinischen_Buchstaben
- ↑ Andrej Andreevič Markov
- ↑ Mathar, R.; Pfeifer, D.: Stochastik für Informatiker, Teubner Stuttgart 1990, Seite 175
- ↑ Bauer, Heinz: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie, Walter de Gruyter & Co, Berlin, 1974, 2. Auflage
- ↑ Isaacson, Dean L.: Markov chains, New York [u.a.], 1976, Wiley, Seite 13
- ↑ Allen, Arnold O.: Probability, Statistics, and Queueing Theory with Computer Science Applications, Academic Press Inc., San Diego, 1990, 2nd ed., Seite 220
- ↑ Isaacson, Dean L.: Markov chains, New York [u.a.], 1976, Wiley, Seite 23
- ↑ Diskrete_Mathematik
- ↑ Mathar, R.; Pfeifer, D.: Stochastik für Informatiker, Teubner Stuttgart 1990, Seite 213
- ↑ Isaacson, Dean L.: Markov chains, New York [u.a.], 1976, Wiley
Literatur
[Bearbeiten | Quelltext bearbeiten]- Allen, Arnold O.: Probability, Statistics, and Queueing Theory with Computer Science Applications, Academic Press Inc., San Diego, 1990, 2nd ed., ISBN 0-12-051051-0
- Isaacson, Dean L.: Markov chains, New York [u.a.], 1976, Wiley, ISBN 0-471-42862-0
- Mathar, R.; Pfeifer, D.: Stochastik für Informatiker, Teubner Stuttgart 1990, ISBN 3-519-02240-0