Diskussion:Markow-Kette
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 14 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. Die Archivübersicht befindet sich unter Archiv. |
Unverständlich 1
[Quelltext bearbeiten]Ich finde das Phänomen der Markov Kette hier sehr unanschaulich beschrieben. Beispiele wären gut, Praktische Anwendungen wären gut. Links und Literaturstellen fehlen Benutzer:rho(nicht signierter Beitrag von 62.104.205.64 (Diskussion) 21:33, 15. Dez. 2003 (CET))
da geb ich dir recht. Insbesondere der redirect von Markov-Prozess zu Markov-Kette gefällt mir nicht. Wenn ich die Zeit dazu finde, werde ich einmal bei den stochastischen Prozessen aufräumen.--Benson.by 21:20, 18. Okt 2004 (CEST)
Also wer den Text versteht, der weiss sowieso schon, was Markow-Ketten sind. Ich habe jedenfalls nichts verstanden, auch wenn ich Dipl.Inf. bin. JMS (Diskussion) 14:08, 7. Mär. 2016 (CET)
Es ist auch schlicht falsch (bzw. wird unvollständige Kenntnis als Gesamtbeschreibung dargestellt). "Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben." Nein. Das ist nicht das Ziel von Markov Ketten. Bei Markov Ketten geht es darum Veränderung zu simulieren (auf der Basis der Kenntnis vorheriger Veränderungen). Insbesondere geht es dabei nicht zwingend um zeitliche Veränderung. Zum Beispiel könnte man Markov Ketten aus einem Wörterbuch gewinnen und darauf aufbauend neue Wörter für eine Kunstsprache erzeugen. Zukunftsprognosen sind ein sehr spezieller Anwendungsfall. --2A02:810B:C940:13F4:C16F:8014:3738:F142 13:53, 11. Apr. 2018 (CEST)
- Viereinhalb Jahre später steht dieser Satz immer noch da. --INM (Diskussion) 06:45, 1. Jan. 2023 (CET)
Anschauliches Beispiel
[Quelltext bearbeiten]EIn sehr anschauliches Bsp. wäre das Zählen von "Kopf" bei n-fachem Münzwurf. Vielleicht hat ja jemand die Zeit das Beispiel einzubauen und ein Diagramm zu malen ;-). MFG CK(nicht signierter Beitrag von 80.139.212.80 (Diskussion) 21:49, 27. Dez. 2005 (CET))
MÜNZWURF: Der Zustandsraum S={0,1,2,...} beim Münzwurfbeispiel (zählen wie oft "Kopf" gefallen ist) ist nach oben offen und damit nicht endlich, ist hier aber unter dem Punkt "diskret, endlich" aufgeführt. Kann mir diese Überlegung jemand bestätigen, ich ändere dann den Eintrag --Dertagtraumtanz 10:15, 09. Sep. 2008 (CEST)
Ich finde das Beispiel mit dem Münzwurf eher unpassend, da es doch etwas falsches suggeriert. Bei einem Münzwurf ist die Wahrscheinlichkeit für das zukünftige Ereignis (Kopf/Zahl) eben NICHT vom jetzigen Zustand abhängig, wie es aber üblicherweise bei Markov-Ketten der Fall ist. Wie seht ihr das? --Michael (nicht signierter Beitrag von 128.176.202.132 (Diskussion | Beiträge) 12:48, 29. Sep. 2009 (CEST))
- ich denke, um was es geht, ist nicht das zukünftige Ereignis (Kopf o. Zahl), sondern der zustand (Anzahl Kopf). Der hängt dann vom vorherigen Zustand ab (9->9 oder 9->10). Aber wieso endlich?--141.3.192.210 13:28, 10. Mai 2010 (CEST)
- Ganz mies ist auch, dass zeitdiskrete Markhovketten mit stetigem Zufallsraum gar nicht definiert werden, damit ist der letzte Abschnitt völlig unsinnig. Eine Markhov-Kette mit diskreter Zeit ist eine Folge von Zufallsvariablen mit der Markhov-Eigenschaft. Siehe englische Seite. Hier steht das nirgends. -- 141.89.79.41 15:19, 6. Jan. 2011 (CET)
pij
[Quelltext bearbeiten]Geht die Richtung der Übergangswahrscheinlichkeit nicht von i nach j? --Philipendula 18:18, 2. Mär 2005 (CET)
Benennung
[Quelltext bearbeiten]Es sollte durchweg entweder Anfangsverteilung oder Startwahrscheinlichkeit heißen.(nicht signierter Beitrag von Ragdoll (Diskussion | Beiträge) 18:45, 5. Mär. 2005 (CET))
Ein Markov-Prozess ist doch ein Stochastischer Prozess, welcher die Markov-Eigenschaft erfüllt. Dies könnte etwas deutlicher aus dem Artikel hervorgehen.
Eine Markov-Kette ist dagegen ein Markov-Prozess mit abzählbarem Zustandsraum.
Die Unterscheidung zwischen "diskreter" bzw. "stetiger Zeit" wird durch die Eigenschaft der Parametermenge (i.d.R. für diskret und für stetig) bestimmt.(nicht signierter Beitrag von 80.171.192.97 (Diskussion) 19:14, 5. Okt. 2006 (CEST))
Etwas aufgeraeumt
[Quelltext bearbeiten]Es gab in der Abteilung 'diskrete Zeit' einiges an Konfusion und auch falschen Behauptungen (soweit ich sehe, hat die Regularitaet der Uebergangsmatrix nichts mit der Frage der Irreduzibilitaet oder der Existenz des Grenzwertes zu tun; es gibt regulaere reduzible Matrizen und singulaere irreduzible Matrizen, genau so wie singulaere Matrizen mit stationaerer Verteilung); ich habe mal versucht etwas aufzuraeumen.
Das Problem mit der fehlenden Anschaulichkeit sehe ich auch, wenn ich etwas Zeit haben sollte, versuche ich da noch etwas zu zu schreiben. Ein bisschen etwas habe ich schon zum random walk geschrieben, aber das ist wenig befriedigend und kann auch wieder geloescht werden. Das Problem dabei ist auch, dass der Artikel dann zu schnell lehrbuchartig und weniger lexikal ist, wenn man da zu viel an Beispielen erklaert.
jcreutzig 18:21, 9.4.2006
- Ich werde die Änderungen erstmal zurücksetzen, siehe Diskussion des Benutzers. --chrislb 问题 20:53, 10. Apr 2006 (CEST)
Korrektur?
[Quelltext bearbeiten]sollte das nicht heissen: "und bewegt sich in jedem Schritt aus dem aktuellen Zustand [i] jeweils mit Wahrscheinlichkeit 1 / 2 nach [i + 1] oder bleibt bei zustand [i ]" ? oder gibt es negative zustaende?(nicht signierter Beitrag von 81.173.159.85 (Diskussion) 09:55, 27. Aug. 2006 (CEST))
ist denn das Perron Frobenius Theorem nicht ewähnenswert hier? مبتدئ 18:08, 26. Sep 2006 (CEST)(nicht signierter Beitrag von 217.228.244.165 (Diskussion) 18:06, 26. Sep. 2006 (CEST))
stationär
[Quelltext bearbeiten]Ist ein Spaltenvektor? Sollte die Verteilung nicht als Zeilenvektor von links mit der Übergansgmatrix multipliziert werden? Andernfalls ergibt sich doch zum Beispiel für den 2-dim. Fall: , aber es sollte sein, da von 1 nach 2 geht. (nicht signierter Beitrag von 139.18.183.127 (Diskussion) 18:53, 7. Nov. 2006 (CET))
v statt W
[Quelltext bearbeiten]Es ist m. E. unzweifelhaft, dass in diesem Jahrhundert Markov mit v geschrieben wird. Ich moechte aber nicht so radikal in den Text eingreifen. S. ebenhier, http://de.wikipedia.org/wiki/Kyrillisches_Alphabet#Wiedergabe_mit_lateinischen_Buchstaben. Ich wuerde auf Deutsch Andrej Markov schreiben, und auf die frueher gebraeuchlichen Markoff und Markow verweisen. (nicht signierter Beitrag von 81.173.160.13 (Diskussion) 11:10, 20. Mär. 2007 (CET))
- Ist das noch aktuell? --Thire 18:30, 17. Apr. 2007 (CEST)
Ich hab mal gehört, daß die Schreibweise mit "v" die englische ist, die mit "w" die ursprünglich deutsche Transkription und die mit "ff" die französische. Wenn das stimmt, sollte man aus meiner Sicht also überall ein "w" verwenden und vielleicht oben unter "andere Schreibweisen" dazuschreiben, woher das "ff" und das "v" kommen. Schönen Gruß, Volker(nicht signierter Beitrag von 130.149.105.199 (Diskussion) 15:04, 26. Jan. 2009 (CET))
Soweit ich das sehe kann man die w-Schreibweise löschen. Es ist keine Quelle dafür angegeben, dass das Ding in der Wissenschaft jemals Markow-Kette genannt wurde. In den angegeben Quellen immer mit v. Die Benennung mit Markow-Kette ist also POV/eigene Forschung. Ich vermute, dass die Annahme dahinter steht, dass sich die Schreibweise eines mathematischen Konzepts ändert, wenn sich die Schreibweise desjenigen nachdem es benannt wurde ändert.--Jocme (Diskussion) 21:31, 11. Feb. 2022 (CET)
BITTE SEITE DRINGEND ÜBERARBEITEN
[Quelltext bearbeiten]Es befinden sich viele Fehler im Artikel. Hauptsächlich falsche Zuweisungen. Man sollte z.B. mit der Zustandsmenge konsistent bleiben und nicht zwischen und wechseln. (unbekannter Benutzer :) )(nicht signierter Beitrag von 130.83.2.27 (Diskussion) 10:36, 18. Dez. 2007 (CET))
Modellierung
[Quelltext bearbeiten]Da steht zum Beispiel der Satz: Bei dieser Disziplin werden zu Beginn eines Zeitschrittes die Bedienungen gestartet. Disziplin bezeichnet sehr wahrscheinlich einen Typ von Modellierung; dieser Begriff sollte dann im vorangegangenen Abschnitt erwähnt werden, damit er hier nicht so unvermittelt auftritt. Für einen Laien ist völlig unklar, was das Starten einer Bedienung ist. Dann treten am Ende eines Zeitschrittes Bedienende auf. Was bedeutet das? BASTA-Eigenschaft? Da mag noch ein Artikel fehlen, hier bleibt der Rest unverständlich. Ist BASTA-Eigenschaft äquivalent zu Forderungsankunft vor Bedienender? Ich weiß es nicht. Insgesamt erscheint der Zusammenhang zu den zuvor gegebenen Definitionen nicht klar; wo sind die Übergangswahrscheinlichkeiten?, was hat das mit Markow-Prozessen zu tun? Könnte da bitte jemand etwas Licht ins Dunkel bringen?--FerdiBf 12:01, 9. Mai 2009 (CEST)
für sich alleine ist (η) aber kein Markow-Prozess.
[Quelltext bearbeiten]Könnte jemand noch einen Satz dazu schreiben, wieso die Lampenkonfiguration für sich kein Markow-Prozess ist? --141.3.192.210 13:40, 10. Mai 2010 (CEST)
Verständlichkeit 3
[Quelltext bearbeiten]Das Beispiel mit "Lamplighter" ist eher verwirrend. Besser weglassen. (nicht signierter Beitrag von 84.184.117.16 (Diskussion) 14:29, 19. Feb. 2012 (CET))
Beispiele endlicher Zustandsraum
[Quelltext bearbeiten]" Wir starten also fast sicher im Zustand 1. Multiplikation von links mit der Übergangsmatrix liefert" und ab da wir von rechts mit der Übergangsmatrix M multipliziert. Entweder bitte M transponieren oder "rechts" zu "links" ändern. (nicht signierter Beitrag von 139.14.20.247 (Diskussion) 11:58, 4. Nov. 2015 (CET))
- Ich hab mal "links" zu "rechts" geändert (also da, wo der Daumen links ist ;). Danke! -- HilberTraum (d, m) 14:22, 4. Nov. 2015 (CET)
Ordnung einer Markow-Kette
[Quelltext bearbeiten]In der Einleitung wird von der Ordnung einer Markow-Kette gesprochen. Es sollte erwähnt werden, dass man im allgemeinen 1te Ordnung meint, wenn man von einer Markow-Kette spricht. Das Lamplighterbeispiel habe ich entfernt, da es sich um eine Markowkette zweiter Ordung handelt, wenn man nur den Lampenzustand betrachtet. (nicht signierter Beitrag von Stefran91 (Diskussion | Beiträge) 11:43, 22. Dez. 2015 (CET))
Beispiele: Endlicher Zustandsraum: "[...] fast sicher im Zustand eins [...]"
[Quelltext bearbeiten]Im Artikel in den Beispielen heißt es:
Dazu geben wir die Anfangsverteilung vor in Form des stochastischen Startvektors . Wir starten also fast sicher im Zustand 1
Wenn ich als Startverteilung vorgebe starte ich nicht "fast sicher" sondern 100%ig in diesem Zustand. "Fast sicher" wäre es bei einer Verteilung wie etwa --95.91.242.234 11:25, 2. Jun. 2022 (CEST)