Diskussion:Maximum-a-posteriori-Schätzung
Monte Carlo und MAP
[Quelltext bearbeiten]Was Bayessche Schätzer angeht: Ich verwende MCMC-Verfahren, um die Parameter eine ökonometrischen Modells zu schätzen. Heraus kommen a-posteriori-Verteilungsfunktionen für die Parameter. Was Du vorschlägst sind wohl Punktschätzer. Die Idee ist ähnlich, aber die Durchführung verschieden, dass ist mir aber erst später aufgefallen, als ich in der Vorlesung saß. Was die a-posteriori-Verteilungen angeht: Du willst ihre Dichtefunktion maximieren, oder habe ich das falsch verstanden? Da frage ich mich dann doch, wie man analytisch eine a-posteriori-Dichtefunktion herleiten soll. Ein Beispiel wäre vielleicht wirklich ganz nett. --Smeyen | Disk 22:42, 16. Jan. 2007 (CET)
Frage zur Formulierung
[Quelltext bearbeiten]Relativ weit unten steht Die MAP-Methode maximiert die unbekannten Parameter der unterstellten Verteilung, .... Ist die Formulierung maximiert hier richtig? Wäre es nicht präziser zu sagen, die Methode nähert die Parameter, indem sie deren Wahrscheinlichkeit maximiert?--Lizziemcguire 22:04, 23. Okt. 2007 (CEST)
Glaubenskrieg gefällig?
[Quelltext bearbeiten]"Es ist anzumerken, dass die MAP-Methode genauso wenig wie die ML-Methode Wahrscheinlichkeiten ausrechnet, denn bei einer bereits vorliegenden Stichprobe gibt es keine Wahrscheinlichkeit mehr, die sich ja auf erst kommende Ereignisse bezieht." Das ist natürlich nur die Ansicht der Frequentisten... Der von Lizziemcguire angesprochene Schnitzer sollte aber auf jeden Fall mal korrigiert werden.
Neuformulierung des Artikels
[Quelltext bearbeiten]Ich habe den Artikel umgeschrieben, da er m.E. gravierende Fehler enthielt (z.B. die in der obigen Diskussion aufgeführten Punkte). Ausserdem schien mir dass der Autor die wesentlichen Unterschiede zwischen bayesianischer und frequentistischer Statistik nicht kannte.
Ich habe mich bei meiner Neufassung vor allem am englischen Artikel orientiert. -- Bw234 22:38, 9. Jan. 2011 (CET)
Um etwas spezifischer zu werden was mir an der alten Fassung des Artikels missfiel:
Bei beiden Verfahren wird angenommen, dass die Stichprobenpunkte identisch verteilt sind und unabhängig voneinander gezogen wurden (i.i.d.): Falsch--die Verwendbarkeit der ML oder der MAP-Schätzung kann auch bei abhängigen und nicht identisch verteilten Stichproben durchgeführt werden (wie z.B. bei Markovprozessen).
, d.h. dass sie einer bestimmten Verteilung folgen: Dieser Halbsatz ist recht sinnfrei-- jede Zufallsgröße folgt irgendeiner Verteilung.
Es gibt dabei keine wahre Verteilung, sondern nur (verschiedene) passende oder sinnvolle. Dieser Satz stimmt so nicht. Sowohl in der bayesianischen als auch in der frequentistischen Statistik muss man Verteilungsannahmen treffen. In der frequentistischen Statistik geht man zudem von einer wahren aber unbekannten Verteilung aus. (Halb-)zutreffend ist der Satz jedoch für bayesianische Statistik: hier gibt es tatsächlich keine wahre Verteilung, sondern man ordnet jedem in Frage kommenden Parameterwert eine A-Priori-Wahrscheinlichkeit zu.
Es ist anzumerken, dass die MAP-Methode, genauso wie die ML-Methode, keine Wahrscheinlichkeiten ausrechnet, denn bei einer bereits vorliegenden Stichprobe gibt es keine Wahrscheinlichkeit mehr, die sich ja auf erst kommende Ereignisse bezieht. : Dieser Satz ist nun wieder in der bayesianischen Statistik falsch--man nennt solche Wahrscheinlichkeiten nach der Erhebung der Stichprobe auch A-Posteriori-Wahrscheinlichkeiten.
Die MAP-Methode maximiert die unbekannten Parameter der unterstellten Verteilung, die zu der Stichprobe geführt haben könnten. Siehe Anmerkung von lizziemcguire.
P.S.: Für Korrrekturen an meinem Artikel bin ich übrigens offen-- die Abschnitte Kritik und Vergleich zur Maximum-Likelihood-Methode müssen noch etwas runder werden. -- Bw234 21:11, 10. Jan. 2011 (CET)
Habe einen Abschnitt mit Beispielen eingefügt, sowie die Diskussion umgearbeitet. Noch fehlend: Grafiken zum Veranschaulichen der Beispiele. --Bw234 20:08, 23. Jan. 2011 (CET)
Erläuterung nötig
[Quelltext bearbeiten]Im Artikel steht:
Jetzt sei angenommen, dass ein gewisses Vorwissen über den Anteil der roten Kugeln bekannt ist, das sich in einer -Verteilung ausdrücken lässt. Das entspricht beispielsweise dem Vorwissen, dass schon einmal 4 von 8 gezogenen Kugeln rot waren.
Dieser Bezug ( = Vorwissen „schon mal 4 von 8 gezogenen Kugeln rot“) wird nicht näher erläutert (weder hier noch im Artikel Beta-Verteilung, wenn ich dort nichts überlesen habe). Mir ist er auch nicht klar. Sollte er nicht erläutert werden? Oder gibt es vielleicht irgendwo eine Erläuterung, die man verlinken könnte? --78.54.239.39 11:25, 6. Mär. 2018 (CET)
Sinnloser Satz
[Quelltext bearbeiten]Bayessche Statistiker drücken in der Regel die (A-posteriori-)Information über einen unbekannten Parameter in einer Wahrscheinlichkeitsverteilung aus, und nicht in einem Punktschätzer.
Was ist der Sinn dieses Satzes? Punktschätzer sind doch gerade dafür da, unbekannte Parameter einer Wahrscheinlichkeitsverteilung zu schätzen. Oder ist mit diesem Satz gemeint, dass Bayes’sche Statistiker die A-Posteriori-Information als Wahrscheinlichkeitsverteilung der unbekannten Parameter ausdrücken (statt als ein konkreter Wert bzw. eine Wertekombination der unbekannten Parameter, wie sie der Punktschätzer liefert)? Das klingt mir sinnvoller und „richtiger“. --78.55.89.30 15:54, 8. Mär. 2018 (CET)
Frequentisten mögen keine A-Priori-Verteilungen?
[Quelltext bearbeiten]Allerdings ist für einen streng frequentistischen Statistiker die Verwendung einer A-Priori-Verteilung inakzeptabel.
Warum eigentlich? Was würde einen Frequentisten daran stören, einen Parameter als Zufallsgröße aufzufassen und dann den Modus von dessen bedingter Verteilung zu schätzen? (Das, was Bayes’sche Statistiker „A-Priori-Verteilung“ nennen, ist ja nichts weiter als die unbedingte Wahrscheinlichkeitsverteilung dieser Zufallsgröße.) Mischverteilungen sollten schließlich auch für Frequentisten möglich sein. --78.55.89.30 15:59, 8. Mär. 2018 (CET)
- „inakzeptabel“ ist vielleicht ein bisschen heftig, aber wenn ein „frequentistischer Statistiker“ annimmt, dass der unbekannte Parameter eine Zufallsgröße ist, dann betreibt er halt bayessche Statistik ;) -- HilberTraum (d, m) 19:54, 8. Mär. 2018 (CET)