Portal:Mathematik/Qualitätssicherung/Archiv/2022/Mai
Dies ist ein Archiv der Qualitätssicherung des Portals Mathematik.
Archiv |
Gesamtübersicht
2007: Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2008: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2009: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2010: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2011: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2012: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2013: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2014: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2015: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2016: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2017: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2018: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2019: Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2020: Jan. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. 2021: Jan. Feb. Mär. Apr. Jun. Jul. Aug. Sep. Okt. Nov. Dez. |
Wie wird ein Archiv angelegt? |
("Stark" verbesserungsbedürftig ist vielleicht übertrieben.) Als Iterationsvorschrift für die Approximation der n-ten Wurzel steht da die Formel, wie man sie "straight forward" aus dem Newtonschen Verfahren herausbekommt. Ich halte sie in der dargestellten Form für unanschaulich und habe sie deswegen umgeformt. Folgende Überlegung: ein n-dimensionaler Quader hat ein Volumen, das sich aus dem Produkt der n orthogonalen Kantenlängen ergibt. Wenn man aus diesem Volumen die n-te Wurzel ziehen will, also die Kantenlänge des Hyperwürfels mit dem gleichen Volumen sucht, ist das arithmetische Mittel der n orthogonalen Kantenlängen eine relativ gute Approximation dafür. Nimmt man nun einen (n-1)-dimensionalen Würfel mit diesem Schätzwert y als Kantenlänge und errichtet senkrecht auf dem Würfel ein Prisma mit der Höhe "Volumen/Schätzwert^(n-1)", dann hat man wieder einen Quader mit dem Radikanden als Volumen und kann aus dessen n orthogonalen Kantenlängen einen neuen Schätzwert als deren arithmetisches Mittel gewinnen. Weil der alte Schätzwert darin (n-1)-mal vorkommt, ist das das gewichtete Mittel aus y und R/y^(n-1) mit dem Gewicht n-1 auf y, und das ist genau das, was bei dem Newtonverfahren als Iterationsvorschrift herauskommt. Bitte mal anschauen und ggf. sichten! --95.116.64.252 22:05, 9. Mai 2022 (CEST)
- Wo kann ich dieses Verfahren nachlesen? Anders gefragt: Beleg? --tsor (Diskussion) 22:15, 9. Mai 2022 (CEST)
- Beleg wofür? Die angegebene Formel ist die gleiche wie im Artikel, nur ein bißchen umgeformt. Die Sache mit deren Interpretation als gewichtete Mittelwertbildung habe ich gar nicht hineingeschrieben, sie leuchtet aber jedermann mit etwas mathematischem Verständnis sofort ein. Speziell im zweidimensionalen Fall (Ziehen der Quadratwurzel) geht die Argumentation so: Sei x ein zu kleiner Schätzwert für SQRT(R). Dann überschätzt R/x den wahren Wert der Wurzel, und umgekehrt. Das arithmetische Mittel aus beiden liegt also näher an der Wahrheit und ist somit ein besserer Schätzer, und damit nähert man sich mittels des Heron-Verfahrens iterativ sukzessive mit guter Konvergenz numerisch der Lösung. (Der beste Schätzer wäre natürlich das geometrische Mittel, denn es liefert direkt die exakte Lösung, aber um das zu finden, müßte man die Wurzel ziehen, und genau das ist die Aufgabenstellung und kann folglich nicht als Teil der Lösungsmethode verwendet werden. Es ist aber so, daß das arithmetische Mittel eine gute Approximation für das geometrische Mittel darstellt.) Wenn man nun höhere Dimensionen betrachtet und aus dem Newton-Verfahren für die Nullstellenbestimmung dafür eine Iterationsvorschrift herleitet, dann sieht man eben, daß diese das mit n-1 und 1 gewichtete Mittel aus dem Schätzwert und dem durch den Hyperwürfel dividierten Radikanden darstellt (jedenfalls, wenn man nicht blind ist; wenn man es nicht sieht, dann funktioniert die Iterationsvorschrift aber trotzdem). Die geometrische Interpretation veranschaulicht diesen Sachverhalt nur, indem sie das Bild vom flächengleichen Rechteck, das sich durch Iteration rasch dem Quadrat annähert, auf höhere Dimensionen erweitert. Diese einfache Tatsache erkennt man nur besser, wenn man diese Form der Iterationsvorschrift nicht mit x^(n-1) in Zähler und Nenner erweitert, wie es herauskommt, wenn man bei der Herleitung aus dem Newton-Verfahren einfach nur stur die Ableitungsregeln anwendet und die Terme dann auf den Hauptnenner bringt. (Kriege ich jetzt die Fields-Medaille für OR, oder ist das bloß wirklich so trivial, wie es aussieht?) --77.10.191.43 11:47, 10. Mai 2022 (CEST)
- Also die Iterationsvorschrift, die derzeit ungesichtet im Artikel steht, ist der alten meilenweit unterlegen: Während die alte bei 3ter-Wurzel aus 2 mit Startwert 2 nach 5 Iterationen praktisch am Ziel ist (Taschenrechner-Genauigkeit), springt die neue dauernd hin und her und spuckt auch nach 20 / 21 Schritten noch Werte wie 1,142 und 1,404 aus. Empirisch betrachtet konvergiert hier nichts! Bitte revertieren! --95.117.9.47 22:53, 10. Mai 2022 (CEST)
- Da beide Ausdrücke arithmetisch gleich sind, ist das offensichtlich völliger Unsinn. Es kann gar keine unterschiedlichen Zwischenergebnisse bzw. Iterationsschritte geben, dasselbe ist immer dasselbe. --95.116.8.105 10:18, 11. Mai 2022 (CEST)
- Die zugehörigen Screenshots könnt Ihr hier ansehen. --77.4.104.202 06:19, 11. Mai 2022 (CEST)
- Die Tabelle im Artikel mit den numerischen Iterationsergebnissen bezieht sich übrigens noch auf den alten, schnell konvergierenden Algorithmus. --77.4.104.202 06:33, 11. Mai 2022 (CEST)
- Ich verstehe nicht viel von Numerik, aber im neuen Algorithmus rechnet man mit kleinen Zahlen , was meines Wissens schlecht ist. Deshalb konvergiert der alte Algorithmus vermutlich auch schneller. --Tensorproduct (Diskussion) 10:17, 11. Mai 2022 (CEST)
- Es gibt überhaupt keinen "neuen Algorithmus", die beiden Darstellungen sind arithmetisch vollkommen identisch - wenn man einen Bruch kürzt oder erweitert, ändert sich dessen Wert dadurch logischerweise nicht: . (Und in dem numerischen Beispiel für die dritte Wurzel aus 2 ergeben sich natürlich genau die in der Tabelle im Artikel angegebenen Iterationsschritte bzw. Zwischenergebnisse.) --95.116.8.105 10:23, 11. Mai 2022 (CEST)
- Ich weiß, dass die Ausdrücke mathematisch gleich sind. Aber es ist ein Unterschied, ob du zuerst oder berechnest. Am Computer spielen solche Dinge eine Rolle. Deshalb hat der Kommentator oben unterschiedliche Resultate erhalten. Und wenn die Berechnungsschritte unterschiedlich sind, dann ist das doch ein neuer Algorithmus.. --Tensorproduct (Diskussion) 13:34, 11. Mai 2022 (CEST)
- Es ist eben für die numerische Genauigkeit gerade kein Unterschied, ob man an eine Summe noch einen konstanten Faktor dranmultipliziert oder nicht, und mit Deinen sonstigen Annahmen liegst Du offensichtlich auch komplett falsch. <- bitte WP:KPA & WP:WQ beachten --Johannnes89 (Diskussion) 14:29, 12. Mai 2022 (CEST) -> --95.116.8.105 20:12, 11. Mai 2022 (CEST)
- @95.116.8.105: Es geht auch nicht um konstante Faktoren dranmultiplizieren, sondern um das Dividieren. Die Stabilität (Numerik) wird meines Wissens schlechter, wenn man mit kleine Zahlen arbeitet. Das war nur ein Versuch, die unterschiedlichen Ergebnisse zu interpretieren, ich wusste ja nicht, dass es ein Programmierfehler war. Ansonsten habe ich absolut gar nichts mit Numerik am Hut, sondern mit Stochastischer Analysis und Mathematischer Physik. Also werde nicht frech und mutmaße nicht über meine mathematischen Kentnisse oder ob ich intelligent oder dumm bin. Das kannst du sowieso nicht wissen. Ich habe meine Leistungen in der Mathematik gemacht und weiss, zu was ich fähig bin. Ob du das gemacht hast, weiß ich nicht und es interessiert mich auch nicht (auch wenn ich es natürlich aufgrund deinem besserwisserischem Auftreten und deiner Argumentation stark bezweifle, da du das über die Stabilität nicht wusstest). --Tensorproduct (Diskussion) 10:55, 12. Mai 2022 (CEST)
- Es ist eben für die numerische Genauigkeit gerade kein Unterschied, ob man an eine Summe noch einen konstanten Faktor dranmultipliziert oder nicht, und mit Deinen sonstigen Annahmen liegst Du offensichtlich auch komplett falsch. <- bitte WP:KPA & WP:WQ beachten --Johannnes89 (Diskussion) 14:29, 12. Mai 2022 (CEST) -> --95.116.8.105 20:12, 11. Mai 2022 (CEST)
- Ich weiß, dass die Ausdrücke mathematisch gleich sind. Aber es ist ein Unterschied, ob du zuerst oder berechnest. Am Computer spielen solche Dinge eine Rolle. Deshalb hat der Kommentator oben unterschiedliche Resultate erhalten. Und wenn die Berechnungsschritte unterschiedlich sind, dann ist das doch ein neuer Algorithmus.. --Tensorproduct (Diskussion) 13:34, 11. Mai 2022 (CEST)
- Es gibt überhaupt keinen "neuen Algorithmus", die beiden Darstellungen sind arithmetisch vollkommen identisch - wenn man einen Bruch kürzt oder erweitert, ändert sich dessen Wert dadurch logischerweise nicht: . (Und in dem numerischen Beispiel für die dritte Wurzel aus 2 ergeben sich natürlich genau die in der Tabelle im Artikel angegebenen Iterationsschritte bzw. Zwischenergebnisse.) --95.116.8.105 10:23, 11. Mai 2022 (CEST)
- Ich verstehe nicht viel von Numerik, aber im neuen Algorithmus rechnet man mit kleinen Zahlen , was meines Wissens schlecht ist. Deshalb konvergiert der alte Algorithmus vermutlich auch schneller. --Tensorproduct (Diskussion) 10:17, 11. Mai 2022 (CEST)
- Also die Iterationsvorschrift, die derzeit ungesichtet im Artikel steht, ist der alten meilenweit unterlegen: Während die alte bei 3ter-Wurzel aus 2 mit Startwert 2 nach 5 Iterationen praktisch am Ziel ist (Taschenrechner-Genauigkeit), springt die neue dauernd hin und her und spuckt auch nach 20 / 21 Schritten noch Werte wie 1,142 und 1,404 aus. Empirisch betrachtet konvergiert hier nichts! Bitte revertieren! --95.117.9.47 22:53, 10. Mai 2022 (CEST)
- Beleg wofür? Die angegebene Formel ist die gleiche wie im Artikel, nur ein bißchen umgeformt. Die Sache mit deren Interpretation als gewichtete Mittelwertbildung habe ich gar nicht hineingeschrieben, sie leuchtet aber jedermann mit etwas mathematischem Verständnis sofort ein. Speziell im zweidimensionalen Fall (Ziehen der Quadratwurzel) geht die Argumentation so: Sei x ein zu kleiner Schätzwert für SQRT(R). Dann überschätzt R/x den wahren Wert der Wurzel, und umgekehrt. Das arithmetische Mittel aus beiden liegt also näher an der Wahrheit und ist somit ein besserer Schätzer, und damit nähert man sich mittels des Heron-Verfahrens iterativ sukzessive mit guter Konvergenz numerisch der Lösung. (Der beste Schätzer wäre natürlich das geometrische Mittel, denn es liefert direkt die exakte Lösung, aber um das zu finden, müßte man die Wurzel ziehen, und genau das ist die Aufgabenstellung und kann folglich nicht als Teil der Lösungsmethode verwendet werden. Es ist aber so, daß das arithmetische Mittel eine gute Approximation für das geometrische Mittel darstellt.) Wenn man nun höhere Dimensionen betrachtet und aus dem Newton-Verfahren für die Nullstellenbestimmung dafür eine Iterationsvorschrift herleitet, dann sieht man eben, daß diese das mit n-1 und 1 gewichtete Mittel aus dem Schätzwert und dem durch den Hyperwürfel dividierten Radikanden darstellt (jedenfalls, wenn man nicht blind ist; wenn man es nicht sieht, dann funktioniert die Iterationsvorschrift aber trotzdem). Die geometrische Interpretation veranschaulicht diesen Sachverhalt nur, indem sie das Bild vom flächengleichen Rechteck, das sich durch Iteration rasch dem Quadrat annähert, auf höhere Dimensionen erweitert. Diese einfache Tatsache erkennt man nur besser, wenn man diese Form der Iterationsvorschrift nicht mit x^(n-1) in Zähler und Nenner erweitert, wie es herauskommt, wenn man bei der Herleitung aus dem Newton-Verfahren einfach nur stur die Ableitungsregeln anwendet und die Terme dann auf den Hauptnenner bringt. (Kriege ich jetzt die Fields-Medaille für OR, oder ist das bloß wirklich so trivial, wie es aussieht?) --77.10.191.43 11:47, 10. Mai 2022 (CEST)
Großes SORRY meinerseits: Es lag ein "Zeilen-Kopierfehler" (absolute/lokale Referenz) in meinem Spreadsheet vor. Nach Korrektur widerrufe ich: die Umformulierung konvergiert genauso gut wie die alte. Nochmals Sorry! --77.4.104.202 18:57, 11. Mai 2022 (CEST)
- Womit sich diese ganze Haupt- und Staatsangelegenheit auf die kleine, bescheidene Frage reduziert, welche der beiden Darstellungen denn nun die "schönere" und deswegen im Artikel zu bevorzugende ist. (Und nach meiner Auffassung ist das eben die, die den Iterationswert als gewichtetes Mittel aus vorherigem Schätzwert und dem Quotienten aus Radikand x und Hyperwürfel y^(n-1) suggeriert, weil das dann eben nicht "einfach nur" ein Ausfluß aus dem Newton-Verfahren zur Bestimmung von Nullstellen ist, sondern auch geometrische Anschaulichkeit mitbringt. Für n=2 ist es dann übrigens genau die auch im Quadratwurzelartikel dargestellte "Rechtecke, die immer quadratischer werden"-Methode. Und erkenntnistheoretisch bzw. mathematikhistorisch ist es auch interessant, weil man sich schließlich fragen kann, wie denn Heron bzw. seine Zeitgenossen und Vorgänger überhaupt an die babylonische Methode gekommen sind, wenn die doch gar keine Differentialrechnung kannten und deswegen auch kein Newtonverfahren zur Hand hatten, das den Babylonischen Algorithmus liefert. Die Antwort ist wohl tatsächlich die Überlegung, das für beliebige Schätzwerte y y und x/y die Wurzel aus x wechselseitig über- bzw. unterschätzen und die Wahrheit daher wohl mehr in der Mitte liegt. Daß sie beweisen konnten, daß der Algorithmus ein freundliches Konvergenzverhalten hat, ist allerdings wohl nicht anzunehmen. Und auf die Idee, das Verfahren auf größere n zu verallgemeinern wie dargestellt, sind sie eben auch nicht gekommen.) Vielleicht schreibt auch noch jemand ein paar Zeilen, daß und warum man die Iterationsvorschrift auch als gewichtete Mittelwertbildung auffassen kann, bzw. inwieweit das sinnvoll ist. --95.116.8.105 20:03, 11. Mai 2022 (CEST)
- Da es sich hier nicht um eine Verbesserung handelt und mein Argument bezüglicher der numerischen Stabilität durch die Division von kleinen Zahlen bewusst durch ein Argumentum ad hominem ins lächerliche gezogen wurde, werde ich die Änderung rückgängig machen. --Tensorproduct (Diskussion) 12:34, 12. Mai 2022 (CEST)
- @IP, da du hier vermutlich weiterhin mitliest: Der einmalige, begründete Revert (hier mit der ZQ „keine Verbesserung“) ist zulässig, danach ist gem. WP:Edit-War Konsens auf der Artikeldisk, gerne auch in der hier laufenden Diskussion zu finden. Dabei bitte auf weitere ad personam Bemerkungen und Beleidigungen verzichten. --Johannnes89 (Diskussion) 01:22, 13. Mai 2022 (CEST)
- Da es sich hier nicht um eine Verbesserung handelt und mein Argument bezüglicher der numerischen Stabilität durch die Division von kleinen Zahlen bewusst durch ein Argumentum ad hominem ins lächerliche gezogen wurde, werde ich die Änderung rückgängig machen. --Tensorproduct (Diskussion) 12:34, 12. Mai 2022 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: Tensorproduct (Diskussion) 10:26, 13. Mai 2022 (CEST)
Der Artikel sollte m. E. in "lokal-endliches Maß" umbenannt werden. Da es aber schon eine Weiterleitung auf den Artikel gibt, konnte ich das nicht. --Tensorproduct (Diskussion) 14:48, 17. Mai 2022 (CEST)
- Ist erledigt. Soll man trotzdem noch die Weiterleitung von Lokal endliches Maß auf Lokal-endliches Maß beibehalten? (Ist das eine häufig vorkommende Falschschreibung?)—Butäzigä (Diskussion) 16:26, 17. Mai 2022 (CEST)
- Danke. Wenn es niemanden stört, dann würde ich es lassen. Ich denke schon, dass das öfters passiert, wegen der englischen Variante (locally finite measure). Allerdings müsste man das dann bei jedem Artikel machen, der im Deutschen aus einem Bindestrich besteht und im Englischen aus zwei Wörtern, was natürlich ein Overkill wäre.--Tensorproduct (Diskussion) 16:35, 17. Mai 2022 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Tensorproduct (Diskussion) 19:28, 17. Mai 2022 (CEST)
Artikel "Hoeffding-Ungleichung" Beispiel fehlerhaft
Hallo, Da ich kein Mathematiker bin kann ich nicht nachvollziehen wieso das Beispiel im Artikel falsch ist. Ich kann nur feststellen, durch kombinatorische Berechnung, dass das angegebene Resultat ca. 1000-milliardenfach zu hoch ist. Stammt das Beispiel aus der Literatur? Die erwartete Wahrscheinlichkeit beträgt: 2.52343427674466... * 10hoch-20 mit besten Grüßen Alain Schumacher Weidingen / Eifel Alainlux--Alainlux (Diskussion) 15:36, 24. Mai 2022 (CEST)--Alainlux (Diskussion) 14:38, 25. Mai 2022 (CEST)
- Hoeffdings-Ungleichung ist nur eine Abschätzung nach oben und nicht die richtige Wahrscheinlichkeit. --Tensorproduct (Diskussion) 15:23, 7. Jun. 2022 (CEST)
- Dass eine Ungleichung nur eine Abschätzung ist, ist mir schon klar! (Sonst wäre es ja eine Gleichung). Aber ich glaube nicht, dass man die Hoeffding-Ungleichchung hier anwenden kann, resp. sie wurde falsch angewendet. Wenn ich eine Ungleichung mache zur Abschätzung der Lichtgeschwindigkeit nach unten, und komme zum Ergebnis : Lichtgeschwindigkeit ungefähr mindestens 1 Meter/Sekunde, dann mach ich mich lächerlich. Hier liegt ein Irrtum in der gleichen Dimension vor, aber niemand interessiert sich dafür. Ich werde mal versuchen dies genauer zu studieren. --Alainlux (Diskussion) 14:36, 11. Jun. 2022 (CEST)
- Das Beispiel sieht korrekt aus, es stammt aber nicht von mir. Beachte, dass Hoeffdings-Ungleichung für alle Wahrscheinlichkeitsverteilungen gilt, klar ist das dann in vielen Fällen sehr ungenau, insbesondere mit solch kleinen Wahrscheinlichkeiten. Ich vermute (hab es aber nicht getestet), dass Hoeffding besser funktioniert, wenn die Wahrscheinlichkeiten grösser sind. Das Problem ist, es tritt ein mathematisches Phänomen namens Konzentration des Maßes bei diesem Beispiel auf, welches diese Wahrscheinlichkeiten sehr klein macht (das Phänomen tritt auf, wenn viele unabhängige Dinge wirken). Das ist natürlich schwierig mit einer einfachen Formel zu schätzen. Tensorproduct (Diskussion) 22:46, 11. Jun. 2022 (CEST)
- Ich glaube nicht, dass man hier die Maßtheorie bemühen muss. Es geht nur um die einfache Fortsetzung der Berechnungen, die Jakob Bernoulli in 'ars conjectandi' (1713, Uebersetzung Hauser 1899) für Zerlegungsarten und Anzahl der Würfe für 4 bis 6 Würfel gemacht hat (Teil I, s.21-25). Mit der Zerlegungsart bestimmt man die Augenzahl, und mit der multinomial-Berechnung die Anzahl der Fälle. Daraus ergibt sich dann die Wahrscheinlichkeit: Anzahl der Fälle für eine bestimmte Augenzahl / Gesamtzahl der möglichen Fälle (6exp100). Auf einem Kernel brauchte ich mit einem kleinen C-Programm nur 10 Sekunden um eine Datei zu erstellen (als Parametertabelle für bc) von ca. 8 GB, mit den 96'560'645 Zerlegungsarten bei 100 Würfeln. Die Berechnung der Fälle dauerte dann allerdings 70 Minuten, da 96 Mio mal 100! mit dem Produkt von bis zu 6 Fakultäten zu berechnen war. Die Summe der berechneten 501 Werte (für 100 bis 600) ergibt genau die Gesaamtzahl der möglichen Varianten. Deshalb glaube ich nicht, dass man hier die Hoeffding-Ungleichheit anwenden kann. Wenn Du mir eine email Adresse gibst, will ich Dir gerne die Tabelle schicken. Dann kannst Du sehen wie die Werte sich verteilen. --Alainlux (Diskussion) 19:43, 13. Jun. 2022 (CEST)
- Ich denke nicht, dass irgendjemand in Frage stellt, dass die Wahrscheinlichkeit aus dem Beispiel berechnet werden kann. Dennoch kann man mit verschiedenen Wahrscheinlichkeitsungleichungen, z. B. der Hoeffding-Ungleichung, obere Schranken (keine Approximationen, das ist eine andere Baustelle und wäre eine Fehlinterpretation) für diese Wahrscheinlichkeit angeben. Weder ist das Beispiel deswegen "fehlerhaft", noch kann man sagen, das man hier die Hoeffding-Ungleichung nicht anwenden kann oder dass diese 'falsch angewendet' wurde. Häufig sind genaue Berechnungen nicht erforderlich, wenn z. B. im Zusammenhang eines statistischen Testverfahrens nur interessiert, ob eine bestimmte Wahrscheinlichkeit nicht größer als 0,001 ist. --Sigma^2 (Diskussion) 22:31, 13. Jun. 2022 (CEST)
- Ich glaube gerne, dass es Fragestellungen gibt ob eine bestimmte Wahrscheinlichkeit nicht größer als 0,001 ist. Aber die Frage die hier im Beispiel gestellt wird lautet: Wie wahrscheinlich ist es, bei hundertmaligem Würfeln eine Augensumme von wenigstens 500 zu erreichen? Eine Wahrscheinlichkeit wird erfragt, keine obere Schranke! Weil die Antwort lautet: ungefähr 1.523 mal 10 hoch -8, die richtige Antwort aber 2.5234... mal 10 hoch 20 beträgt, ist die Frage komplett falsch beantwortet. Wenn man ein ungefähres Ergebnis mit 4 Stellen angibt, das aber 600 Milliarden mal kleiner ist, dann muss etwas nicht stimmen. --Alainlux (Diskussion) 23:25, 13. Jun. 2022 (CEST)
- es wird aber kein "ungefähres Ergebnis" angegeben, sondern mittels der Ungleichung bloss gesagt, dass die gesuchte Wahrscheinlichkeit <= exp(-18) ist, was ja Deiner Berechnung nicht widerspricht. Ich sehe keinen Fehler im Beispiel und absolut gesehen ist die Schranke auch nicht so schlecht (wenn jemand 1:10⁸ wetten wollte, dass die Summe unter 500 bleibt, könntest Du einschlagen ;-). Ggf kann man ja das Beispiel noch um den exakten Wert ergänzen. --Qcomp (Diskussion) 23:58, 13. Jun. 2022 (CEST)
- Doch, es wird ein "ungefähres Ergebnis" angegeben. Das benutze Zeichen bedeutet (laut WIKI) a ist ungefähr gleich b, was wohl für die aufgelöste Formel zutrifft, aber keine Beantwortung der Frage ist. Was Deine Wette betrifft, ich schlage Dir sogar eine Wette von 1:1014vor. dass die Summe unter 500 bleibt :-). Rechne lieber noch mal nach bevor Du dich beim Wetten ruinierst! --Alainlux (Diskussion) 09:17, 14. Jun. 2022 (CEST)
- Ach so, dann liegt hier auch eine grundsätzliche Fehlinterpretation der in der Mathematik üblichen Schreibweise von Gleichungs- und Ungleichungsketten vor. Das Ungefährzeichen () darf natürlich nicht auf die gesuchte Wahrscheinlichkeit bezogen werden, sondern bezieht sich nur auf den letzten Ausdruck exp(-18). Durch das -Zeichen zu Beginn der Zeile ist klar, dass für die gesuchte Wahrscheinlichkeit kein ungefährer Wert angegeben wird, sondern die Oberschranke exp(-18), die ungefähr 1{,}523 \cdot 10^{-8} ist. War das ein Teil des Missverständnisses?
- Die Frage ist also keinesfalls 'komplett falsch beantwortet'. Die gestellte Frage wurde überhaupt nicht beantwortet, auch nicht ungefähr. Es wurde aber durch die Oberschranke ein Aspekt angegeben, der für viele Anwendungen ausreichend ist. --Sigma^2 (Diskussion) 09:48, 14. Jun. 2022 (CEST)
- Ja, jetzt nähern wir uns dem Problem. Es dreht sich allerdings nicht nur um eine Fehlinterpretation der in der Mathematik üblichen Schreibweise, sondern die mathematische Schreibweise muss auch im Zusammenhang mit der textuellen Aussage im Einklang stehen. Leider hat sich noch keiner die Mühe gemacht zu suchen woher diese Diskrepanz zwischen korrekter Wahrscheinlichkeit und Oberschranke stammt. Ich möchte mal die ganz spezielle diskrete Verteilung der möglichen Ergebnisse zur Diskussion stellen. In der Originalarbeit von Hoeffding wird nur allgemein von "sums of bounded random numbers" gesprochen. Da der Erwartungswert 3.5 beträgt ist der Teil von 3 bis 4 unbesetzt. Jeweils 1/6 liegt genau auf dem unteren und oberen "bound", so dass nur eine diskrete Zwischenstufe bleibt. In Anbetracht dieser Besonderheit gehe ich davon aus, dass man nicht mehr von "random numbers" im Sinn des Erfinders sprechen kann. Dies herauszuarbeiten wäre eine fruchtbare mathematische Betätigung für die Könner. Es handelt sich nicht um Bernoullitrials und auch nicht um Normalverteilung, sondern um einen "Zwitter". Sich einfach mit einer Schranke von exorbitanter Diskrepanz abzufinden widderspricht meinem Respekt vor der Mathematik als exakte Wissentschaft. --Alainlux (Diskussion) 10:48, 14. Jun. 2022 (CEST)
- Es steht nirgends, dass die Hoeffding-Ungeichung eine exakte Antwort auf die Fragestellung liefert. Und doch, ich habe dir gesagt, woher die Diskrepanz kommt, es hat mit der Konzentration des Maßes zutun. Hoeffdings-Ungleichung ist eine simple Gleichung, die aber eine schlechte Rate-Funktion zur Abschätzung der moderaten Deviation hat, das liegt daran, dass die Rate-Funktion in der Hoeffding-Ungleichung keine wichtigen Eigenschaften der Verteilung nützt (wie z.B. die Varianz). Wenn dann eben die Konzentration des Maßes passiert, dann fängt das die Gleichung nicht gut ein. Den restlichen Teil des Kommentares verstehe ich nicht, was du meinst. --Tensorproduct (Diskussion) 13:06, 14. Jun. 2022 (CEST)
- Ja, jetzt nähern wir uns dem Problem. Es dreht sich allerdings nicht nur um eine Fehlinterpretation der in der Mathematik üblichen Schreibweise, sondern die mathematische Schreibweise muss auch im Zusammenhang mit der textuellen Aussage im Einklang stehen. Leider hat sich noch keiner die Mühe gemacht zu suchen woher diese Diskrepanz zwischen korrekter Wahrscheinlichkeit und Oberschranke stammt. Ich möchte mal die ganz spezielle diskrete Verteilung der möglichen Ergebnisse zur Diskussion stellen. In der Originalarbeit von Hoeffding wird nur allgemein von "sums of bounded random numbers" gesprochen. Da der Erwartungswert 3.5 beträgt ist der Teil von 3 bis 4 unbesetzt. Jeweils 1/6 liegt genau auf dem unteren und oberen "bound", so dass nur eine diskrete Zwischenstufe bleibt. In Anbetracht dieser Besonderheit gehe ich davon aus, dass man nicht mehr von "random numbers" im Sinn des Erfinders sprechen kann. Dies herauszuarbeiten wäre eine fruchtbare mathematische Betätigung für die Könner. Es handelt sich nicht um Bernoullitrials und auch nicht um Normalverteilung, sondern um einen "Zwitter". Sich einfach mit einer Schranke von exorbitanter Diskrepanz abzufinden widderspricht meinem Respekt vor der Mathematik als exakte Wissentschaft. --Alainlux (Diskussion) 10:48, 14. Jun. 2022 (CEST)
- Doch, es wird ein "ungefähres Ergebnis" angegeben. Das benutze Zeichen bedeutet (laut WIKI) a ist ungefähr gleich b, was wohl für die aufgelöste Formel zutrifft, aber keine Beantwortung der Frage ist. Was Deine Wette betrifft, ich schlage Dir sogar eine Wette von 1:1014vor. dass die Summe unter 500 bleibt :-). Rechne lieber noch mal nach bevor Du dich beim Wetten ruinierst! --Alainlux (Diskussion) 09:17, 14. Jun. 2022 (CEST)
- es wird aber kein "ungefähres Ergebnis" angegeben, sondern mittels der Ungleichung bloss gesagt, dass die gesuchte Wahrscheinlichkeit <= exp(-18) ist, was ja Deiner Berechnung nicht widerspricht. Ich sehe keinen Fehler im Beispiel und absolut gesehen ist die Schranke auch nicht so schlecht (wenn jemand 1:10⁸ wetten wollte, dass die Summe unter 500 bleibt, könntest Du einschlagen ;-). Ggf kann man ja das Beispiel noch um den exakten Wert ergänzen. --Qcomp (Diskussion) 23:58, 13. Jun. 2022 (CEST)
- Ich glaube gerne, dass es Fragestellungen gibt ob eine bestimmte Wahrscheinlichkeit nicht größer als 0,001 ist. Aber die Frage die hier im Beispiel gestellt wird lautet: Wie wahrscheinlich ist es, bei hundertmaligem Würfeln eine Augensumme von wenigstens 500 zu erreichen? Eine Wahrscheinlichkeit wird erfragt, keine obere Schranke! Weil die Antwort lautet: ungefähr 1.523 mal 10 hoch -8, die richtige Antwort aber 2.5234... mal 10 hoch 20 beträgt, ist die Frage komplett falsch beantwortet. Wenn man ein ungefähres Ergebnis mit 4 Stellen angibt, das aber 600 Milliarden mal kleiner ist, dann muss etwas nicht stimmen. --Alainlux (Diskussion) 23:25, 13. Jun. 2022 (CEST)
- Ich denke nicht, dass irgendjemand in Frage stellt, dass die Wahrscheinlichkeit aus dem Beispiel berechnet werden kann. Dennoch kann man mit verschiedenen Wahrscheinlichkeitsungleichungen, z. B. der Hoeffding-Ungleichung, obere Schranken (keine Approximationen, das ist eine andere Baustelle und wäre eine Fehlinterpretation) für diese Wahrscheinlichkeit angeben. Weder ist das Beispiel deswegen "fehlerhaft", noch kann man sagen, das man hier die Hoeffding-Ungleichung nicht anwenden kann oder dass diese 'falsch angewendet' wurde. Häufig sind genaue Berechnungen nicht erforderlich, wenn z. B. im Zusammenhang eines statistischen Testverfahrens nur interessiert, ob eine bestimmte Wahrscheinlichkeit nicht größer als 0,001 ist. --Sigma^2 (Diskussion) 22:31, 13. Jun. 2022 (CEST)
- Ich glaube nicht, dass man hier die Maßtheorie bemühen muss. Es geht nur um die einfache Fortsetzung der Berechnungen, die Jakob Bernoulli in 'ars conjectandi' (1713, Uebersetzung Hauser 1899) für Zerlegungsarten und Anzahl der Würfe für 4 bis 6 Würfel gemacht hat (Teil I, s.21-25). Mit der Zerlegungsart bestimmt man die Augenzahl, und mit der multinomial-Berechnung die Anzahl der Fälle. Daraus ergibt sich dann die Wahrscheinlichkeit: Anzahl der Fälle für eine bestimmte Augenzahl / Gesamtzahl der möglichen Fälle (6exp100). Auf einem Kernel brauchte ich mit einem kleinen C-Programm nur 10 Sekunden um eine Datei zu erstellen (als Parametertabelle für bc) von ca. 8 GB, mit den 96'560'645 Zerlegungsarten bei 100 Würfeln. Die Berechnung der Fälle dauerte dann allerdings 70 Minuten, da 96 Mio mal 100! mit dem Produkt von bis zu 6 Fakultäten zu berechnen war. Die Summe der berechneten 501 Werte (für 100 bis 600) ergibt genau die Gesaamtzahl der möglichen Varianten. Deshalb glaube ich nicht, dass man hier die Hoeffding-Ungleichheit anwenden kann. Wenn Du mir eine email Adresse gibst, will ich Dir gerne die Tabelle schicken. Dann kannst Du sehen wie die Werte sich verteilen. --Alainlux (Diskussion) 19:43, 13. Jun. 2022 (CEST)
- Das Beispiel sieht korrekt aus, es stammt aber nicht von mir. Beachte, dass Hoeffdings-Ungleichung für alle Wahrscheinlichkeitsverteilungen gilt, klar ist das dann in vielen Fällen sehr ungenau, insbesondere mit solch kleinen Wahrscheinlichkeiten. Ich vermute (hab es aber nicht getestet), dass Hoeffding besser funktioniert, wenn die Wahrscheinlichkeiten grösser sind. Das Problem ist, es tritt ein mathematisches Phänomen namens Konzentration des Maßes bei diesem Beispiel auf, welches diese Wahrscheinlichkeiten sehr klein macht (das Phänomen tritt auf, wenn viele unabhängige Dinge wirken). Das ist natürlich schwierig mit einer einfachen Formel zu schätzen. Tensorproduct (Diskussion) 22:46, 11. Jun. 2022 (CEST)
- Dass eine Ungleichung nur eine Abschätzung ist, ist mir schon klar! (Sonst wäre es ja eine Gleichung). Aber ich glaube nicht, dass man die Hoeffding-Ungleichchung hier anwenden kann, resp. sie wurde falsch angewendet. Wenn ich eine Ungleichung mache zur Abschätzung der Lichtgeschwindigkeit nach unten, und komme zum Ergebnis : Lichtgeschwindigkeit ungefähr mindestens 1 Meter/Sekunde, dann mach ich mich lächerlich. Hier liegt ein Irrtum in der gleichen Dimension vor, aber niemand interessiert sich dafür. Ich werde mal versuchen dies genauer zu studieren. --Alainlux (Diskussion) 14:36, 11. Jun. 2022 (CEST)
- @Alainlux, Ich meinte, es ist schwierig eine allgemeine simple aber gute Formel zur Abschätzung aller möglichen Problemstellungen dieses Typs zu finden (d.h. nicht nur das Beispiel mit dem Würfel). Nein, ist schon gut, ich habe das Beispiel selber approximiert. --Tensorproduct (Diskussion) 23:17, 13. Jun. 2022 (CEST)
Ich habe das Beispiel überarbeitet.--Sigma^2 (Diskussion) 12:23, 14. Jun. 2022 (CEST)
- Danke. Sieh jetzt zumindest nicht mehr so krass aus. Ich bleibe aber bei meiner Meinung, dass die große Differenz in der untypischen diskreten Verteilung zu suchen ist. Ich werde für mich mal, mit näher an der Normalverteilung liegenden diskreten Zufallszahlen, die Hoeffding_Ungleichung probieren. --Alainlux (Diskussion) 15:58, 14. Jun. 2022 (CEST)
- Bezüglich der "sprachlichen Glättung" bin ich mir nicht sicher ob es eine Verbesserung gebracht hat. Mir kommt der Text irgendwie nicht schlüssig vor. Bitte lies ihn noch mal durch. Danke im voraus. --Alainlux (Diskussion) 10:18, 17. Jun. 2022 (CEST)
- Erledigt, danke für den Hinweis. --Sigma^2 (Diskussion) 11:07, 17. Jun. 2022 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: Butäzigä (Diskussion) 23:30, 17. Jun. 2022 (CEST)