Diskussion:Fehler 1. und 2. Art
Steigerung des IQ
[Quelltext bearbeiten]Das Beispiel mit der IQ-Steigerung ist an sich ganz gut, nur sollte stattdessen eher von "Leistungssteigerung" oder "Lernleistungssteigerung" o.ä. gesprochen werden. Der IQ ist strenggenommen nicht steigerbar, da er in der Regel auf der Basis von Tests erhoben wird, die nach der klassischen Testtheorie und deren Axiomen konstruiert sind: ein beobeachteter Wert setzt sich zusammen aus dem wahren und dem Fehlerwert; in der Konsequenz hätte ich bei der zweiten Messung nur einen anderen Messfehler, keine Änderung des IQ diagnostiziert.
W. Harst
- strenggenommen nicht steigerbar das wird IMHO unterschiedlich diskutiert, dass die fluide Intelligenz ev. doch trainierbar ist, zumindest das Arbeitsgedächtnis (WMC)[1],[2];Bitte mit vier Tilden unterschreiben.--^°^ .sprichmit nerd 10:09, 8. Feb. 2011 (CET)
Ja, aber das ist eine "andere Intelligenz". Intelligenz als Konstrukt wurde und wird ständig diskutiert (und das ist ja auch gut und richtig so), der IQ als Intelligenztest- und -kennwert ist aber definiert und als Terminus Technicus in der obenstehenden Weise feststehend. Der testtheoretisch erhobene IQ ist also nur diagnostizier-, aber nicht veränderbar. Wer etwas anderes behauptet, hat das Konstrukt "Intelligenzquotient" nicht verstanden.
193.197.80.52 09:46, 10. Feb. 2011 (CET)W. Harst
Konstrukt "Intelligenzquotient" nicht verstanden.Nicht veränderbar? The_Mismeasure_of_Man.--^°^ .sprichmit nerd 09:53, 10. Feb. 2011 (CET)
Die Maßeinheit "Intelligenzquotient" wurde 1912 von William Stern entwickelt, also zu einer Zeit, als die Psychologie in vieler Hinsicht (noch) naturwissenschaftlich orientiert war und davon ausging, dass sich psychologische Konstrukte wie Intelligenz, Angst, Aufmerksamkeit, Wahrnehmung etc. im Grunde sämtlich wie physikalische Messwerte erfassen lassen. Im Laufe der Zeit wurden dann auf Basis der klassischen Testtheorie (KTT) Verfahren entwickelt, die dieses Maß möglichst genau erfassen sollten. Aufgrund der Axiomatik der KTT setzt sich ein beobachteter Wert aus dem wahren Wert und dem Fehlerwert zusammen. Das entspricht auch weitgehend der Sicht physikalischer Messungen: ich vermesse beispielsweise meine Wohnzimmerwand und komme auf einen Wert von 4,17m. Dann messe ich von der anderen Seite und erhalte einen Wert von 4,15m. Dann misst meine Frau und berichtet einen Wert von 4,18m. Da wir die Wand sehen können, ist uns sonnenklar, dass die eigentliche Breite sich nicht verändert hat und dass die Unterschiede auf Messfehler zurückzuführen sind. Und analog soll das mit dem IQ funktionieren: der "wahre" IQ verändert sich über mehrere Messzeitpunkte nicht, sondern auftretende Änderungen sind auf Messfehler zurückzuführen. Die Crux beim IQ ist eigentlich, dass sich im Verlauf der weiteren Intelligenzforschung gezeigt hat, dass das Bild einer "festgelegten", sozusagen genetisch bedingten Intelligenz nicht haltbar ist (obwohl das btw von den Sarrazins dieser Welt immer noch geglaubt wird), neuere Konzepte der Intelligenz tragen diesem Umstand auch Rechnung. Der "Griffigkeit" und der öffentlichen Verwendung des mittlerweile eher obsoleten IQ-Konzepts hat das aber keinen Abbruch getan, das ist möglicherweise auch der Grund, weil die starke KI so (un)grandios gescheitert ist. Mir geht es jetzt bei der ganzen Diskussion darum, dass nicht der Eindruck entsteht, mit den gängigen Intelligenztests (HAWIK/HAWIE, I-S-T usw.) könnten IntelligenzÄNDERUNGEN gemessen werden, wobei sowieso zu klären wäre, was beispielsweise eine "Intelligenzverbesserung" genau sein soll.
193.197.80.52 08:54, 11. Feb. 2011 (CET)W. Harst
- Gefällt mir, wie du schreibst. Auch Das entspricht auch weitgehend der Sicht physikalischer Messungen Stimmt. "entspricht". Goulds Kritik spricht von einer 1) von einer unterstellten Wesenheit die 2) durch klein g "g" schlecht abgebildet werde. Etwas neueres ist: -> Was ich unter fluide Intelligenz geschrieben habe ist, dass N-back-trainierte Leute sich im RAVEN-test verbessert haben, das scheint aber auch zu stimmten, ob man deswegen von einer IntelligenzÄNDERUNGEN sprechen kann, weiß ich nicht. Danke fürs Unterschreiben. Falls du dich Registrieren willst, das geht ohne Email und ich hätte eine kontinuierlichen Ansprechpartner, muss aber nicht sein. lg, --^°^ .sprichmit nerd 10:23, 11. Feb. 2011 (CET)
Danke für die Blumen, ich überleg's mir mit dem Registrieren. Schön ist, dass wir beide was gelernt haben.
193.197.80.52 15:04, 11. Feb. 2011 (CET)W. Harst
Zusammenführen mit Fehler 2. Art
[Quelltext bearbeiten]Da der Artikel zum Fehler 2. Art die gleiche Tabelle und Beispiele enthält, wäre es vieleicht sinnvoll beide Artikel zu verschmelzen? --141.53.217.36 22:31, 25. Aug. 2012 (CEST)
- Ich denke auch das wäre sinnvoll. Grüße. --JonskiC (Diskussion) 22:49, 11. Mai 2017 (CEST)
Entfernung der Formeln für bedingte Wahrscheinlichkeiten
[Quelltext bearbeiten]Hallo HilberTraum...du hast soeben die beiden Formeln für bedingte Wahrscheinlichkeiten entfernt. Würdest du bitte erläutern, warum diese nicht hilfreich sind? MfG--Jonski (Diskussion) 19:44, 17. Jun. 2018 (CEST)
- Vor allem, weil sie im frequentistischen Standardmodell sinnlos und damit falsch sind. Dort sind die Hypothesen keine Ereignisse, also kann auch nicht darauf bedingt werden. Allgemein würde ich es sehr begrüßen, wenn ein bisschen länger als vier Minuten auf meine Antwort gewartet wird, wenn mich jemand anpingt. -- HilberTraum (d, m) 19:59, 17. Jun. 2018 (CEST)
- Die Formeln können so interpretiert werden, dass darauf bedingt wird, dass die jeweilige Hypothese wahr ist, nicht dass sie eingetreten sind.--Jonski (Diskussion) 21:05, 17. Jun. 2018 (CEST)
- Nein, nicht im klassisch-frequentistischen Modell. Eine Hypothese ist wahr oder nicht, aber es gibt keine „Wahrscheinlichkeit“, mit der sie wahr ist. Abgesehen davon halte ich den Absatz für nicht sinnvoll, weil man den Fehler 1. und 2. Art auch als Laie verstehen kann, ohne sich gleich mit Familien von Wahrscheinlichkeitsmaßen und/oder alternativ mit bayesschen Wahrscheinlichkeiten befassen zu müssen. -- HilberTraum (d, m) 22:24, 17. Jun. 2018 (CEST)
- Es wird im Absatz ja auch keine Wahrscheinlichkeit für die Hypothese beschrieben, mit der sie wahr ist, sondern die Wahrscheinlichkeit für eine (richtige oder falsche) Entscheidung unter der Bedingung dass eine Hypothese wahr ist (wie es in der Entscheidungstabelle steht). Diese Definition ist die einzig bekannte für mich und findet sich in vielen Lehrbüchern. Mir ist dein Kritikpunkt nicht so ganz klar: In der Entscheidungstabelle und auch sonst im Text ist doch auch von "Wahrscheinlichkeit" die Rede? Die Formeln drücken einfach nur formal das aus, was in der Entscheidungstabelle steht. Aber ok, im Notfall kann man den von mir eingefügten Passus auch wieder löschen. Grüße.--Jonski (Diskussion) 22:33, 17. Jun. 2018 (CEST)
- Für die Definition der bedingten Wahrscheinlichkeit muss aber doch die Bedingung eine Wahrscheinlichkeit haben: . Oder ist hier „Bedingung“ in irgend einem anderen Sinn gemeint? Dann wäre aber die Schreibweise extrem verwirrend. Die wird doch sonst nur für die bedingte Wahrscheinlichkeit verwendet. Ich denke, der Notfall ist hier eingetreten. -- HilberTraum (d, m) 22:42, 17. Jun. 2018 (CEST) P.S.: Ich würde den Passus aber natürlich nicht nach vier Minuten löschen, sondern spätestens nach acht!!!
- Nein, es sind wirklich bedingte W'keiten gemeint. soll ausdrücken „gegeben ist wahr“. Theoretisch kann auch wahr sein. Daher wird für auch eine Dichte angenommen, die aber verteilt mit dem Nichtzentralitätsparameter ist. Daher sollte man immer kennzeichnen worauf man sich bezieht, durch Kennzeichnung über der Tilde: Bspw. und . Auch die Graphik im Text im Abschnitt Schwierigkeiten bei der Bestimmung des Fehlers 2. Art zeigt doch sowohl die Dichte von als auch von ? Also in allen Lehrbüchern die den Fehler 1. und 2. Art formal definiert haben, habe ich bis jetzt immer die Schreibweise aufgefunden. Auch in der von mir verlinkten Literatur (Bayer, Hackel) ist von „bedingten Wahrscheinlichkeiten“ die Rede. Sollte es in all diesen Büchern falsch stehen? Meine schnelle Googlesuche zeigt, dass i. A. von bedingter W'keit gesprochen wird, siehe z. B. hier [3], [4], [5], [6] etc. (vorallem der letzte Link verdeutlicht die Problematik gut). Ich denke der Notfall (Zufallvariable) hat sich noch nicht realisiert.--Jonski (Diskussion) 23:07, 17. Jun. 2018 (CEST)
- Für die Definition der bedingten Wahrscheinlichkeit muss aber doch die Bedingung eine Wahrscheinlichkeit haben: . Oder ist hier „Bedingung“ in irgend einem anderen Sinn gemeint? Dann wäre aber die Schreibweise extrem verwirrend. Die wird doch sonst nur für die bedingte Wahrscheinlichkeit verwendet. Ich denke, der Notfall ist hier eingetreten. -- HilberTraum (d, m) 22:42, 17. Jun. 2018 (CEST) P.S.: Ich würde den Passus aber natürlich nicht nach vier Minuten löschen, sondern spätestens nach acht!!!
- Es wird im Absatz ja auch keine Wahrscheinlichkeit für die Hypothese beschrieben, mit der sie wahr ist, sondern die Wahrscheinlichkeit für eine (richtige oder falsche) Entscheidung unter der Bedingung dass eine Hypothese wahr ist (wie es in der Entscheidungstabelle steht). Diese Definition ist die einzig bekannte für mich und findet sich in vielen Lehrbüchern. Mir ist dein Kritikpunkt nicht so ganz klar: In der Entscheidungstabelle und auch sonst im Text ist doch auch von "Wahrscheinlichkeit" die Rede? Die Formeln drücken einfach nur formal das aus, was in der Entscheidungstabelle steht. Aber ok, im Notfall kann man den von mir eingefügten Passus auch wieder löschen. Grüße.--Jonski (Diskussion) 22:33, 17. Jun. 2018 (CEST)
- Nein, nicht im klassisch-frequentistischen Modell. Eine Hypothese ist wahr oder nicht, aber es gibt keine „Wahrscheinlichkeit“, mit der sie wahr ist. Abgesehen davon halte ich den Absatz für nicht sinnvoll, weil man den Fehler 1. und 2. Art auch als Laie verstehen kann, ohne sich gleich mit Familien von Wahrscheinlichkeitsmaßen und/oder alternativ mit bayesschen Wahrscheinlichkeiten befassen zu müssen. -- HilberTraum (d, m) 22:24, 17. Jun. 2018 (CEST)
- Die Formeln können so interpretiert werden, dass darauf bedingt wird, dass die jeweilige Hypothese wahr ist, nicht dass sie eingetreten sind.--Jonski (Diskussion) 21:05, 17. Jun. 2018 (CEST)
- Ich denke man muss dabei grundsätzlich einige Sachen genau auseinanderhalten, die hier und wohl leider manchmal auch in der Literatur zusammengewürfelt werde:
- 1. Einerseits die allgemeine mathematisch Bedeutung von „Bedingung“ wie etwa in Notwendige und hinreichende Bedingung und andererseits die Bedeutung als ein Ereignis, auf das bei eine bedingten Wahrscheinlichkeit oder bedingten Verteilung bedingt wird.
- 2. Einerseits die bedingte Wahrscheinlichkeit als stochastisches Konzept und andererseits Schreibweisen, die in irgendeiner Weise einen senkrechten Strich verwenden.
- 3. Einerseits die klassisch-frequentistische Statistik, bei der eine Hypothese einfach nur eine Teilmenge der Parametermenge ist , die keine weitere Struktur hat, und andererseits die bayessche Statistik, in der Hypothesen Ereignisse in einem Wahrscheinlichkeitsraum sind.
- Jetzt könnte man natürlich versuchen, das alles im Artikel aufzudröseln, aber mMn passt das hier nicht rein. Der Artikel scheint sich ansonsten durchgängig an Nichtmathematiker zu wenden, und auch als Laie kann man denke ich das Konzept der beiden Fehlerarten verstehen. Da wären formal maßtheoretisch eingeführte statistische Modelle eher kontraproduktiv. -- HilberTraum (d, m) 18:41, 18. Jun. 2018 (CEST)
- Die Standpunkte der frequentistischen und der bayesschen Sichtweise werden doch gar nicht referiert? Also muss da doch auch nichts aufgedröselt werden. Die Definition über bedingte W'keiten ist die einzige und korrekte Definition der beiden Fehler. Wieso dürfen die nicht auch mathematisch dargestellt werden? Weiter untern im Text finden sich zahlreiche Beispiele für "Laien".--Jonski (Diskussion) 19:09, 18. Jun. 2018 (CEST)
- Mit meinen drei Punkten meinte ich die Verwendung der Begrifflichkeiten in der Literatur. Ansonsten kann ich mich nur wiederholen: in der frequentistischen Statistik sind die Wahrscheinlichkeiten für den Fehler 1. und 2. Art keine bedingten Wahrscheinlichkeiten, siehe jedes beliebige Lehrbuch der mathematischen Statistik, oder für den Anfang Statistischer Test#Formale Definition eines statistischen Testes. -- HilberTraum (d, m) 19:30, 18. Jun. 2018 (CEST)
- Naja es spielt ja auch eig. keine Rolle wie es in der frequentistischen oder bayesschen Statistik ist oder nicht. Maßgebend sollte für Wikipediaartikel die sich an Laien richten sein, welche Notation sich am häufigsten in der Einführungsliteratur zur Statistik findet. Und in jeder Einführungsliteratur zur Statistik wird ausschließlich die Notation mit gebraucht. Daher sollte man sich schon danach richten.--Jonski (Diskussion) 23:01, 18. Jun. 2018 (CEST)
- Dann sollte aber auch deutlich werden, was die Notationen genau bedeuten sollen: Aus schließe ich, das von abhängt, aber sozusagen „unsichtbar“, weil in der Schreibweise nicht vorkommt? Außerdem wird in der Formel als eine Funktion von definiert, in der Formel davor soll dagegen nur größergleich der linken Seite sein, ist also eine feste Zahl? In der Tabelle an Anfang des Abschnitts soll die Wahrscheinlichkeit eines Fehler 1. Art sein und nicht das Signifikanzniveau. Das passt nicht zusammen. -- HilberTraum (d, m) 16:28, 19. Jun. 2018 (CEST)
- Ja, ist die Schranke bzw. eine feste Zahl und auch gleichzeitig Signifikanzniveau und Fehler 1. Art. Nein hängt nicht unsichtbar von ab, sondern bei einem Signifikanztest entspricht gerade . Ich habe mal versucht etwas deutlicher zu formulieren...So besser?--Jonski (Diskussion) 21:03, 19. Jun. 2018 (CEST)
- Dann sollte aber auch deutlich werden, was die Notationen genau bedeuten sollen: Aus schließe ich, das von abhängt, aber sozusagen „unsichtbar“, weil in der Schreibweise nicht vorkommt? Außerdem wird in der Formel als eine Funktion von definiert, in der Formel davor soll dagegen nur größergleich der linken Seite sein, ist also eine feste Zahl? In der Tabelle an Anfang des Abschnitts soll die Wahrscheinlichkeit eines Fehler 1. Art sein und nicht das Signifikanzniveau. Das passt nicht zusammen. -- HilberTraum (d, m) 16:28, 19. Jun. 2018 (CEST)
- Naja es spielt ja auch eig. keine Rolle wie es in der frequentistischen oder bayesschen Statistik ist oder nicht. Maßgebend sollte für Wikipediaartikel die sich an Laien richten sein, welche Notation sich am häufigsten in der Einführungsliteratur zur Statistik findet. Und in jeder Einführungsliteratur zur Statistik wird ausschließlich die Notation mit gebraucht. Daher sollte man sich schon danach richten.--Jonski (Diskussion) 23:01, 18. Jun. 2018 (CEST)
- Mit meinen drei Punkten meinte ich die Verwendung der Begrifflichkeiten in der Literatur. Ansonsten kann ich mich nur wiederholen: in der frequentistischen Statistik sind die Wahrscheinlichkeiten für den Fehler 1. und 2. Art keine bedingten Wahrscheinlichkeiten, siehe jedes beliebige Lehrbuch der mathematischen Statistik, oder für den Anfang Statistischer Test#Formale Definition eines statistischen Testes. -- HilberTraum (d, m) 19:30, 18. Jun. 2018 (CEST)
- Die Standpunkte der frequentistischen und der bayesschen Sichtweise werden doch gar nicht referiert? Also muss da doch auch nichts aufgedröselt werden. Die Definition über bedingte W'keiten ist die einzige und korrekte Definition der beiden Fehler. Wieso dürfen die nicht auch mathematisch dargestellt werden? Weiter untern im Text finden sich zahlreiche Beispiele für "Laien".--Jonski (Diskussion) 19:09, 18. Jun. 2018 (CEST)
Ich rücke mal aus. An den angesprochenen Punkten hat sich ja gar nichts geändert. Wenn für alle gilt und die rechte Seite der Gleichung von abhängt, dann hängt doch auch die linke Seite von ab. Mit „unsichtbar“ meinte ich, dass man das aber nicht erkennt, weil die Variable auf der linken Seite nicht vorkommt. An der anderen von mir angemerkten Inkonsistenz hat sich auch nichts geändert: In der Entscheidungstabelle steht „Fehler 1. Art, Wahrscheinlichkeit: α“, im Abschnitt danach ist aber irgendeine obere Schranke des Fehlers 1. Art. -- HilberTraum (d, m) 20:19, 20. Jun. 2018 (CEST)
- Ich verstehe schon was du meinst. Ich habe mich bei für alle streng an die verlinkte Literatur gehalten. Dort wird der Fehler 2. Art genau so dargestellt und daher habe ich keine Theoriefindung betrieben und keine „geeignetere“ Notation wie verwendet. Ja in der Tabelle steht einfachheitshalber nur , aber die Tabelle ist ja sowieso sehr informell. Deswegen kann es dort mE bei belassen. Hier [7] auf S. 779 ist die Notation dargestellt. Und die Gleichheit von ist in Judge et al. dargestellt. --Jonski (Diskussion) 21:04, 20. Jun. 2018 (CEST)
- Es zwingt einen aber ja auch niemand dazu, ausgerechnet die Literaturstellen mit den verwirrendsten Notationen zu verwenden. Zumal das auch sicher keine Werke sind, die einem als erstes zum Thema einfallen würden.
- Was im Moment im Artikel nicht richtig ist: Es wird ein Zusammenhang behauptet, dass bei einfachen Hypothesen das Signifikanzniveau mit Gleichheit angenommen wird. Beides hat aber i. Allg. nichts miteinander zu tun. -- HilberTraum (d, m) 19:56, 22. Jun. 2018 (CEST)
- Ich denke nicht, dass dies nicht richtig ist. Siehe refs. Zu den Literaturstellen: Ich kann mir nicht vorstellen, dass es in anderen Büchern „einfacher“ ausgedrückt wird. Das ist ja nun mal die formale Definition. Ich denke man kann die Hinführung oder die Formulierungen noch verbessern; aber die Fehler sind ja nun mal so definiert.--Jonski (Diskussion) 20:33, 22. Jun. 2018 (CEST)
- Ich habe den Eindruck, du ziehst gar nicht die Möglichkeit in Betracht, dass meine Hinweise sinnvoll sein könnten, oder? Oder zum Beispiel die Möglichkeit, dass es Widersprüche geben kann, wenn eine Definition mit der einen und eine Aussage dazu mit einer anderen Quelle „belegt wird“, die aber eine andere Definition verwendet. -- HilberTraum (d, m) 20:54, 22. Jun. 2018 (CEST)
- Doch natürlich ziehe ich die Möglichkeit in Betracht, dass deine Hinweise sinnvoll sind. Du bist ja schließlich Mathematiker und ich bin noch fleißig am studieren;). Den Großteil des Textes habe ich aber mit Judge et al. (und auch anderen Quellen) belegt und auch die Definitionen und auch die Gleichheit bei einfachen Hypothesen (die zusätzliche Quelle sollte dies nur untermauern). Von daher denke ich, dass der Text im Großen und Ganzen in sich stimmig ist.--Jonski (Diskussion) 21:12, 22. Jun. 2018 (CEST)
- Ich habe den Eindruck, du ziehst gar nicht die Möglichkeit in Betracht, dass meine Hinweise sinnvoll sein könnten, oder? Oder zum Beispiel die Möglichkeit, dass es Widersprüche geben kann, wenn eine Definition mit der einen und eine Aussage dazu mit einer anderen Quelle „belegt wird“, die aber eine andere Definition verwendet. -- HilberTraum (d, m) 20:54, 22. Jun. 2018 (CEST)
- Ich denke nicht, dass dies nicht richtig ist. Siehe refs. Zu den Literaturstellen: Ich kann mir nicht vorstellen, dass es in anderen Büchern „einfacher“ ausgedrückt wird. Das ist ja nun mal die formale Definition. Ich denke man kann die Hinführung oder die Formulierungen noch verbessern; aber die Fehler sind ja nun mal so definiert.--Jonski (Diskussion) 20:33, 22. Jun. 2018 (CEST)
- Ich verstehe schon was du meinst. Ich habe mich bei für alle streng an die verlinkte Literatur gehalten. Dort wird der Fehler 2. Art genau so dargestellt und daher habe ich keine Theoriefindung betrieben und keine „geeignetere“ Notation wie verwendet. Ja in der Tabelle steht einfachheitshalber nur , aber die Tabelle ist ja sowieso sehr informell. Deswegen kann es dort mE bei belassen. Hier [7] auf S. 779 ist die Notation dargestellt. Und die Gleichheit von ist in Judge et al. dargestellt. --Jonski (Diskussion) 21:04, 20. Jun. 2018 (CEST)
Leider haben die vollständig richtigen Argumente von HilberTraum die Autoren nicht zu Überarbeitungen bewegen können. Inzwischen habe ich entsprechende Überarbeitungen vorgenommen. Man kann Ausführungen zur statistischen Theorie nicht ausschließlich basierend auf Literatur schreiben, die für Anwender geschrieben wurde und entsprechend verkürzend ist. --Sigma^2 (Diskussion) 21:56, 26. Jan. 2023 (CET)
Berechnung der Wahrscheinlichkeiten für den Fehler erster und den Fehler zweiter Art
[Quelltext bearbeiten]Hallo alle zusammen,
in Bortz 2005:112–119 und 121–123 wird für die Berechnung der Alpha- und Beta-Fehler-Wahrscheinlichkeit die Bestimmung der z-Werte über die folgenden Formeln verwendet:
Für die Bestimmung der jeweiligen Wahrscheinlichkeiten aus den z-Werten muss bei Fallzahlen von nicht die Standardnormalverteilung, sondern die t-Verteilung zugrunde gelegt werden.
Offensichtlich beziehen sich die so definierten z-Werte auf den Fall, dass eine Stichprobe mit einem theoretischen Wert für die Nullhypothese und einen theoretischen Wert für die Alternativhypothese verglichen wird.
Bortz verwendet das Beispiel einer alten und einer neuen Lehrmethode, die verglichen werden sollen. Die alte Lehrmethode ergibt in einem bestimmten Test einen durchschnittlichen Punktwert von 40 (das ist ), bei einer Streuung der Lernleistungen von . Die Alternativhypothese lautet, dass die neue Lehrmethode zu einer durchschnittlichen Punktzahl von mindestens 43 führt (das ist ). In einer großen Stichprobe (n > 30) wird ein empirischer Mittelwert () von 42 ermittelt. Daraus ergibt sich für ein Wert von 2,5 und für ein über die Standardnormalverteilung ermittelter Wert von 0,0062 bzw. 0,62 Prozent (Bortz 2005:113). liegt dann bei –1,25 und bei 0,106 bzw. 10,6 Prozent (Bortz 2005:121). In der Tabelle »Standardnormalverteilung« sind zu den jeweiligen z-Werten immer die Wahrscheinlichkeiten für angegeben. So weit, so gut.
Hier:
Henning Best: Testen von Hypothesen
findet sich auf Folie 12 von 16 für die Berechnung des z-Werts zur Bestimmung der Alpha-Fehler-Wahrscheinlichkeit die folgende Formel:
Diese Formel bezieht sich offenbar auf die Situation, dass zwei Stichproben oder Variablen miteinander verglichen werden (zum Beispiel Einkommen nach Geschlecht oder die Wahlpräferenz für die Partei XYZ in der neuesten Umfrage und in einer Umfrage von vor vier Jahren). Wie wird nun in diesem Fall der z-Wert zur Bestimmung der Beta-Fehler-Wahrscheinlichkeit berechnet? Kann ich davon ausgehen, dass das dann so geht:
?
Wie sich hier:
Fehler erster Art und Fehler zweiter Art
nachlesen lässt, lassen sich beide Fehlerwahrscheinlichkeiten auch über die Binomialverteilung bestimmen. Leider wird das nicht genauer beschrieben und das Beispiel bezieht sich auf das »obige Beispiel«, das wiederum nicht zu finden ist. Deshalb ist das für mich nicht nachvollziehbar.
Gibt es irgendwo im Web etwas, wo das genauer beschrieben ist? Eine Literaturangabe, die sich auf eines der unten stehenden Bücher bezieht, wäre auch nicht schlecht. Die stehen nämlich bei mir im Bücherregal.
Vielen Dank und viele Grüße
--Jake2042 (Diskussion) 12:34, 26. Sep. 2019 (CEST)
Literatur
[Quelltext bearbeiten]Bortz, Jürgen, (6)2005: Statistik für Human- und Sozialwissenschaftler. Heidelberg: Springer
Clauß, Günter und Heinz Ebner, 1968: Grundlagen der Statistik für Psychologen, Pädagogen und Soziologen. Berlin (DDR): Volk und Wissen
Krengel, Ulrich, (8)2005: Einführung in die Wahrscheinlichkeitstheorie und Statistik. (= vieweg studium – Aufbaukurs Mathematik 9) Wiesbaden: Vieweg
Sahner, Heinz, (2)1982: Statistik für Soziologen 2. Schließende Statistik. (= Teubner Studienskripten 23. Studienskripten zur Soziologie) Stuttgart: Teubner
Edit
[Quelltext bearbeiten]Ich glaube, die Formel, die Henning Best angibt eignet sich nicht dafür, das auf die Berecnung einer Beta-Feler-Wahrscheinlichkeit zu übertragen. Es werden hier nur zwei Mittelwerte verglichen. Cum grano salis entspricht das eigentlich der Formel für einen t-Test für unabhängige Stichproben bei ungleichen Varianzen (wenn jeweils durch ersetzt wird).
Zur Berechnung der Beta-Fehler-Wahrscheinlichkeit wären aber drei Werte nötig. Wenn es zum Beispiel um die Zustimmungswerte für eine Partei geht, dann müsste ich erstens wissen, wie hoch sie vor x Jahren waren, zweitens müsste ich eine spezifische Alternativhypothese haben, die sagt, um wieviel Prozentpunkte sie sich verändert hat und drittens müsste ich einen empirischen Wert über den aktuellnen Zustimmungswert haben. Dann könnte ich die Wahrscheinlichkeit berechnen, die Nullhypothese anzunehmen, obwohl die Alternativhypothese richtig ist (Beta-Fehler-Wahrscheinlichkeit). So habe ich nur zwei Stichproben-Mittelwerte, die miteinander verglichen werden.
Die zweite Frage hat sich geklärt. Die Vorgehensweise über die Binomialverteilung wird auf der Webseite »Wahrscheinlichkeit für einen Fehler 2. Art beim Alternativtest berechnen« gut erklärt.
- Die Formeln, die im Artikel hinzugefügt wurden können so nicht stimmen, ist z. B. sicherlich keine Wahrscheinlichkeit. Da ja offenbar eine Quelle verwendet wurde, würde ich empfehlen nochmal genau zu überprüfen, was dort ausgesagt wird. Da aber im Abschnitt auch gar nicht gesagt wird, um welche Art von Test es überhaupt geht, werde ich ihn nun erstmal wieder entfernen. -- HilberTraum (d, m) 19:53, 28. Sep. 2019 (CEST)
- Hallo HilberTraum,
- Du hast natürlich recht. Mit den Formeln wird wird die - und -Fehler-Wahrscheinlichkeit nicht direkt berechnet. Statt dessen werden die entsprechenden z-Werte bestimmt. Dann kannst Du in einer Tabelle nachschauen, welchen Wahrscheinlichkeiten das entspricht. Du musst dann aber immer noch schauen, welche Tabelle Du dafür nimmst. Wenn Du zum Beispiel einen t-Test mit weniger als 30 ProbandInnen gemacht hast, dann schaust Du nicht in die Tabelle für die Standardnormalverteilung, sondern in die für die t-Verteilung. Dass beide Punkte nicht richtig herausgekommen sind, gebe ich zu. Außerdem sind das natürlich Formeln für den Fall, dass Du Dich auf metrischem Skalenniveau bewegst. Das wird aber meiner Ansicht nach durch die Verwendungs von , , , oder hinreichend deutlich.
- Den ganzen Abschnitt wieder zu löschen wäre trotzdem nicht nötig gewesen. Du hast ja meinen Terxt hier gelesen und konntest Dir das denken. Du hättest ihn auch ändern können. Nun, jetzt versuche ich das mal. Ich finde nämlich,dass in den Wikipedia-Artikel ein Abschnitt hineingehört, in dem drinsteht, wie die Wahrscheinlichkeiten für den Fehler erster Art und (wenn eine spezifische Alternetivhypothese vorliegt) für den Fehler zweiter Art eigentlich (mit möglichst wenig Aufwand) bestimmt werden können.
- Viele Grüße
- --Jake2042 (Diskussion) 22:16, 28. Sep. 2019 (CEST)
- Da ich die Quelle von Bortz zurzeit nicht einsehen kann, konnte ich das nicht selbst ändern. Das scheint mir aber auch ein *sehr* spezieller Fall eines statistischen Tests zu sein. Das könnte wohl, wenn überhaupt, nur als Beispiel im Artikel eingebaut werden, aber nicht in einem Abschnitt zur „Berechnung“. Grüße -- HilberTraum (d, m) 20:03, 29. Sep. 2019 (CEST)
Einführender Abschnitt und Formale Darstellung
[Quelltext bearbeiten]"Dennoch sind Fehler 1. und 2. Art in jedem Fall bedingte Wahrscheinlichkeiten." Dieser Satz ist eindeutig falsch. Bei einem statistischen Test wird eine Verteilungsfamilie betrachtet. Die Schreibweisen und für haben in der klassischen Statistik nichts mit bedingten Wahrscheinlichkeiten zu tun, sondern sind einfach Schreibweisen, welche die Abhängigkeit der Wahrscheinlichkeitsverteilung und der damit berechneten Wahrscheinlichkeit vom Parameter verdeutlichen. Nur in der bayesianischen Statistik wird zur Zufallvariablen, so dass eine Interpretation als bedingte Wahrscheinlichkeit möglich ist.
Die Schreibweise ist sehr symbolisch und an der Schmerzgrenze des Vertretbaren. Im Fall einer einfachen Nullhypothese, die nur einen Parameter enthält, ist mit die Wahrscheinlichkeit gemeint. Im Fall einer zusammengesetztem Nullhypothese, die durch eine Parametermenge beschrieben ist, soll bedeuten, dass für alle gilt. Jedenfalls ist keine bedingte Wahrscheinlichkeit und für zusammengesetzte Nullhypothesen ein unscharfes mathematisches Objekt. --Sigma^2 (Diskussion) 00:16, 12. Sep. 2021 (CEST)
Der Satz "Dennoch sind Fehler 1. und 2. Art in jedem Fall bedingte Wahrscheinlichkeiten" ist auch insofern falsch, als die Fehler keine Wahrscheinlichkeiten sind. Die Fehlerwahrscheinlichkeiten 1. und 2. Art, also die Wahrscheinlichkeiten, einen Fehler 1. Art oder einen Fehler 2. Art zu begehen, sind Wahrscheinlichkeiten. --Sigma^2 (Diskussion) 12:04, 12. Sep. 2021 (CEST)
- Inzwischen erhebliche Überarbeitungen und unsinnigen Satz entfernt.--Sigma^2 (Diskussion) 21:49, 26. Jan. 2023 (CET)
Entscheidungstabelle
[Quelltext bearbeiten]Die Entscheidungstabelle in dieser Form ist in fünffacher Hinsicht problematisch. (1) Im Sinn der klassischen Testtheorie ist das vorgegebene Signifikanzniveau eine Oberschranke für die Fehlerwahrscheinlichkeiten 1. Art und ist nicht eine oder "die" Fehlerwahrscheinlichkeit 1. Art. (2) Fehlerwahrscheinlichkeiten 1. Art ebenfalls mit zu bezeichnen, erzeugt Konfusion, auch wenn das von manchen Anwendern so gemacht wird. (3) Nur bei einfacher Nullhypothese gibt es eine Fehlerwahrscheinlichkeit 1. Art, sonst in der Regel mehrere. (4) Nur bei einfacher Gegenhypothese gibt es eine Fehlerwahrscheinlichkeit 2. Art, sonst in der Regel mehrere. (5) Es ist eine Terminologie aus der Durchführung medizinischer Labortests eingebracht, die zunächst nichts mit statistischer Testtheorie zu tun hat. Während die Begriffe Signifikanzniveau, Fehlerwahrscheinlichkeit 1. Art, Fehlerwahrscheinlichkeit 2. Art, Trennschärfe und Macht eines Tests wohldefiniert sind und nicht vom Inhalt der Hypothesen abhängen, ist die Zuordnung der nicht-statistischen Begriffe Spezifität, Sensitivität, falsch-positiv usw. zu den statistischen Begriffen Fehlerwahrscheinlichkeit 1. Art und Fehlerwahrscheinlichkeit 2. Art überhaupt nur dann möglich, wenn man als Gesetz für medizinische Tests aufstellt, die Nullhypothese immer als "der Patient ist gesund" oder "es liegt ein Normalfall vor" zu formulieren. Die Neyman-Pearson-Testtheorie kennt keine Vorschriften, wie die Nullhypothese inhaltlich mit substanzwissenschaftlichen Fragestellungen zu verknüpfen ist. --Sigma^2 (Diskussion) 12:46, 12. Sep. 2021 (CEST)