Diskussion:Committee on Data for Science and Technology
Standardabweichung
[Quelltext bearbeiten]Wie kommt denn CODATA auf die empfohlenen Werte und ihre Standardabweichungen. Zumindest der Fehler für die Faraday-Konstante ist überhaupt nicht nachvollziehbar. Was eigentlich in diesem Zusammenhang unter einer Standardabweichung zu verstehen sein soll, ist für mich auch nicht einsichtig. Eine Standardabweichung kann leicht berechnet werden, falls eine Anzahl von Messungen gemacht wurden (siehe Standardabweichung#Sch.C3.A4tzung_der_Standardabweichung_aus_einer_Stichprobe). Aber wie ist etwa die Standardabweichung etwa im Fall der Faraday-Konstanten zu bestimmen.
Ich habe den Artikel dahingehend erweitert, wie die Standardabweichungen der CODATA-Werte ermittelt werden.
-- Roal 21:21, 20. Sep. 2007 (CEST)
- Sorry, aber wird damit wird auch nicht klar wie die Faraday-Konstante mit einer relativen Unsicherheit kleiner als die der Avogadro-Konstante NA bestimmt werden kann. Falls die Faraday-Konstante F als F = NA · e aus den unabhängig bestimmten Werten von Elementarladung e und und Avogadro-Konstante bestimmt wird, addieren sich die quadratischen relativen Fehler von e und NA zum quadratischen Fehler von F. Der relative Fehler von F ist daher größer als derjenige von NA. Wird die Faraday-Konstante direkt als Ladung pro Stoffmenge bei einer Elektrolyse bestimmt, kann der Fehler auch nicht kleiner als der Fehler der Avogadro-Konstante werden. Wird die Stoffmenge als Masse durch molare Masse berechnet, wird die Genauigkeit durch die Genauigkeit mit der die molare Masse bekannt ist begrenzt. Diese kann nicht größer sein als die Genauigkeit mit der die atomare Masseneinheit und damit die Avogadro-Zahl bekannt ist. Selbst wenn die Stoffmenge durch exaktes Abzählen einzelner Atome bestimmt werden könnte, könnte die Stoffmenge nicht genauer als die Avogadro-Zahl angeben werden. Ich behaupte daher, es ist undenkbar die Faraday-Konstante exakter als die Avogadro-Zahl zu bestimmen.
- --84.59.37.118 12:29, 30. Sep. 2007 (CEST)
- Sorry, aber wird damit wird auch nicht klar wie die Faraday-Konstante mit einer relativen Unsicherheit kleiner als die der Avogadro-Konstante NA bestimmt werden kann. Falls die Faraday-Konstante F als F = NA · e aus den unabhängig bestimmten Werten von Elementarladung e und und Avogadro-Konstante bestimmt wird, addieren sich die quadratischen relativen Fehler von e und NA zum quadratischen Fehler von F. Der relative Fehler von F ist daher größer als derjenige von NA. Wird die Faraday-Konstante direkt als Ladung pro Stoffmenge bei einer Elektrolyse bestimmt, kann der Fehler auch nicht kleiner als der Fehler der Avogadro-Konstante werden. Wird die Stoffmenge als Masse durch molare Masse berechnet, wird die Genauigkeit durch die Genauigkeit mit der die molare Masse bekannt ist begrenzt. Diese kann nicht größer sein als die Genauigkeit mit der die atomare Masseneinheit und damit die Avogadro-Zahl bekannt ist. Selbst wenn die Stoffmenge durch exaktes Abzählen einzelner Atome bestimmt werden könnte, könnte die Stoffmenge nicht genauer als die Avogadro-Zahl angeben werden. Ich behaupte daher, es ist undenkbar die Faraday-Konstante exakter als die Avogadro-Zahl zu bestimmen.
Hallo,
hast du dir die im Artikel genannte Publikation von Mohr und Taylor in Reviews of Modern Physics angeschaut? Kapitel III.H ist dort der Faraday-Konstante gewidmet.
-- Roal 13:05, 30. Sep. 2007 (CEST)
- Ja, das habe ich jetzt wiederholt durchgelesen. Die Gleichung (128) beschreibt (für z=1) exakt was ich oben zur Bestimmung von F aus der Elektrolyse bereits ausgeführt habe. Die Stoffmenge n wird als Masse divierd durch die molare Masse berechnet und die Ladung Q als Strom I mal Zeit t. Nach Gleichung (132) war die Genauigkeit einer Bestimmung aus der Elektrolyse von Silber jedoch fast zwei Größenordnungen ungenauer, als der von CODATA 2006 empfohlene Wert von F. Die Gleichungen 129-131 stehen in keinen erkennbaren Zusammenhang mit der Messung über die Elektrolyse. Diese Gleichung lassen sich ableiten indem e und NA durch diverse andere Naturkonstanten ausgedrückt werden. Die Gleichungen enthalten aber immer noch eine Masse, so dass nicht nachvollziehbar ist, wie mittels dieser Gleichungen eine Bestimmung von F wesentlich genauer als die Masse möglich sein sollte. --88.68.112.37 14:20, 30. Sep. 2007 (CEST)
- Aus der besagten Publikation von Mohr und Taylor, die sich auf den CODATA 1998-Datensatz bezieht, geht hervor, dass das NIST 1980 F90 nur auf eine relative Standardabweichung von 1 300 × 10-9 bestimmt hat (Gleichung 264). Die relative Standardabweichung dieser Konstante ist in den CODATA-Empfehlungen jedoch entsprechend F90 = NA · e90 immer identisch mit jener der Avogadro-Konstanten NA; im CODATA 2006-Datensatz beispielsweise 50 × 10-9.
- -- Roal 16:31, 1. Okt. 2007 (CEST)
- In Faraday-Konstante ist auch der Link zur aktuellen CODATA-Empfehlung von F zu finden. Die uncertainty ist 25 × 10-9 und nicht 50 × 10-9. Was jetzt der Unterschied von F und F90 sein soll, verstehe wer will. Die Werte unterscheiden sich praktisch gar nicht, dafür aber die uncertainty um einen Faktor zwei. --84.59.128.76 22:46, 1. Okt. 2007 (CEST)
- Ich habe im Sinne einer besseren Übersicht für dieses Diskussionsthema weiter unten ein eigenes Kapitel "F vs. F90" angelegt.
- Bei CODATA werden die Begriffe Ungewissheit oder Unsicherheit (standard uncertainty) auf der einen Seite und Standardabweichungen auf der anderen Seite weitgehend synonym verwendet. Unter Unsicherheit würde ich jedoch die maximal mögliche Abweichung, vielleicht auch die maximale Abweichung, die in 70 Prozent der Fälle erwartet wird, verstehen. Was jedoch nicht zwingend die Streuung mehrerer Messwerte sein muss und auch nicht (allein) mit Methoden der Statistik bestimmt werden kann. Wird ein Experiment zur Messung einer Naturkonstante unter gleichen Bedingungen häufig wiederholt, wird der Mittelwert des Ergebnisses sich meist einem Grenzwert nähern. Der Mittelwert und die Standardabweichung vom Mittelwert können mathematisch exakt berechnet werden. Daraus alleine kann jedoch nicht zwingend gefolgert werden, dass dieser Mittelwert tatsächlich der wahre Wert einer Naturkonstanten ist. Es kommen systematische Fehler, also Fehler in Messgeräten, Fehler durch abweichende Randbedingungen, Fehler durch Abweichung von der vermuteten physikalischen Gesetzmäßigkeit und sonstige Fehler hinzu, die jedoch nicht einfach mit einer einheitlichen Formel berechnet werden können. Ich würde daher behaupten, die CODATA-Schätzungen für die Unsicherheiten sind meist viel zu gering abgeschätzt. Da jedoch Messungen solcher Genauigkeit nur mit extremen Aufwand durchführbar sind, ist dies kaum überprüfbar. Der Begriff "Standardunsicherheit" scheint mir in seiner Bedeutung völlig unklar.
- --88.68.126.129 11:38, 1. Okt. 2007 (CEST)
- Bei CODATA werden die Begriffe Ungewissheit oder Unsicherheit (standard uncertainty) auf der einen Seite und Standardabweichungen auf der anderen Seite weitgehend synonym verwendet. Unter Unsicherheit würde ich jedoch die maximal mögliche Abweichung, vielleicht auch die maximale Abweichung, die in 70 Prozent der Fälle erwartet wird, verstehen. Was jedoch nicht zwingend die Streuung mehrerer Messwerte sein muss und auch nicht (allein) mit Methoden der Statistik bestimmt werden kann. Wird ein Experiment zur Messung einer Naturkonstante unter gleichen Bedingungen häufig wiederholt, wird der Mittelwert des Ergebnisses sich meist einem Grenzwert nähern. Der Mittelwert und die Standardabweichung vom Mittelwert können mathematisch exakt berechnet werden. Daraus alleine kann jedoch nicht zwingend gefolgert werden, dass dieser Mittelwert tatsächlich der wahre Wert einer Naturkonstanten ist. Es kommen systematische Fehler, also Fehler in Messgeräten, Fehler durch abweichende Randbedingungen, Fehler durch Abweichung von der vermuteten physikalischen Gesetzmäßigkeit und sonstige Fehler hinzu, die jedoch nicht einfach mit einer einheitlichen Formel berechnet werden können. Ich würde daher behaupten, die CODATA-Schätzungen für die Unsicherheiten sind meist viel zu gering abgeschätzt. Da jedoch Messungen solcher Genauigkeit nur mit extremen Aufwand durchführbar sind, ist dies kaum überprüfbar. Der Begriff "Standardunsicherheit" scheint mir in seiner Bedeutung völlig unklar.
- In den CODATA-Publikationen ist mit standard uncertainty immer Standardabweichung gemeint, sofern nichts anderes explizit vermerkt ist.
- -- Roal 16:34, 1. Okt. 2007 (CEST)
- In den CODATA-Publikationen ist mit standard uncertainty immer Standardabweichung gemeint, sofern nichts anderes explizit vermerkt ist.
- Ich würde es anders formulieren: In den CODATA-Publikationen wird zwischen Standardabweichung und standard uncertainty gar nicht unterschieden. Die Standardabweichung kann jedoch eigentlich nur bei mehreren Messergebnissen zu einer Naturkonstante angegeben werden. Die tatsächliche physikalische Bedeutung einer solchen Standardabweichung ist unklar. Die uncertainty, die wirklich von Interesse ist, sollte angeben wie weit ein von CODATA angegebener Wert einer Naturkonstante maximal vom wahren Wert dieser Naturkonstanten abweicht. Laut CODATA ist dies offenbar identisch mit der Standardabweichung, was jedoch bezweifelt werden könnte. Die angegebenen uncertainties sind jedoch fast immer derart fantastisch gering, so dass bei einer Berechnung auf Basis von Messwerten immer wesentlich größere Abweichungen auftreten. Die letzen Stellen der CODATA-Angaben sind daher praktisch irrelevant (etwa so interessant wie die hunderste Stelle hinter dem Komma bei der Kreiszahl Pi). Sie können aber auch nicht wirklich verifiziert oder widerlegt werden. Aus meiner Sicht ist aber nicht wirklich nachzuvollziehen wie die Werte und Fehler bestimmt werden. --84.59.35.217 22:03, 1. Okt. 2007 (CEST)
- Ich habe den Artikel diesbezüglich erweitert. CODATA verwendet den Begriff standard uncertainty (= Standardunsicherheit) bei einem coverage factor (Abdeckungsfaktor) k = 1, womit dieser Begriff identisch mit der Standardabweichung (en: standard deviation) ist.
Werte der CODATA 1973?
[Quelltext bearbeiten]Hat jemand diese Werte dem ersten Release? Auf der CODATA Website gibt es die Werte leider erst ab dem zweiten Release aus 1986. Danke für evt. Quellen.
-- Roal 18:33, 20. Sep. 2007 (CEST)
- OK, ist hinfällig - ich hab die CODATA 1973 mittlerweile im Web gefunden und auch die Quelle im Artikel angegeben.
-- Roal 12:22, 21. Sep. 2007 (CEST)
F vs. F90
[Quelltext bearbeiten]- F90 = NA · e90
- ur(F90) = ur(NA) = 50 × 10-9
Die relative Standardabweichung für F90 ist also durch die Exaktheit von e90 identisch mit jener von NA.
-- Roal 14:33, 2. Okt. 2007 (CEST),
vereinfacht -- 23:39, 7. Okt. 2007 (CEST)
- Dies ist nun wirklich nicht mehr nachvollziehbar. F und F90 unterscheiden sich in ihren Werten praktisch überhaupt nicht. Die relative Differenz liegt nur bei 2 × 10-9 und damit nochmals wesentlich kleiner als die bereits kleine Standardabweichung. Nach CODATA 2006 ist r = 0.9991 für F und F90. Daher sollten die relativen Fehler ebenfalls gleich sein. Der relative Fehler von F ist mit 25 × 10-9 jedoch nur halb so groß angegeben. Diese Fehlerangabe für F passt einfacht überhaupt nicht. Wie mehrfach ausgeführt, sollte der relative Fehler von F mindestens so groß sein wie für NA. Falls per Konvention der Wert von e als exakt angenommen wird, sollten die relativen Fehler von F90 und NA in der Tat gleich groß sein. Fazit: Fast alle Fehlerangaben (uncertainties) speziell in CODATA 2006 erscheinen extrem klein. Es ist trotz anders lautender Behauptungen, nicht wirklich nachvollziehbar wie diese Fehler ermittelt wurden und die Angaben entziehen sich weitgehend einer unabhängigen Überprüfung. Im Falle der Faraday-Konstante sind die Angaben in keiner Weise mehr plausibel und widersprechen anderen Fehlerangaben. --84.59.35.232 18:59, 2. Okt. 2007 (CEST)
Ich gebe dir teilweise Recht, die CODATA-Werte weltweit als die "einzige Wahrheit" anzusehen, ist schon bedenklich, wenn keine unabhängige Überprüfung möglich ist bzw. eine Offenlegung über den Ursprung der angegebenen Standardabweichungen fehlt. Was aber in den von mir oben dargestellten Gleichungen inkl. Zahlenwerte "wirklich nicht mehr nachvollziehbar" sein soll, ist für mich nicht nachvollziehbar.
-- Roal 20:57, 2. Okt. 2007 (CEST)
- Ich habe doch jetzt unzählige Male nachgefragt, wie die Standardabweichung für F nach CODATA zu erklären sei und keine Antwort erhalten. Die meisten Messgeräte, die wir im Alltag verwenden, wie etwa die Waage, das Lineal oder den Messbecher sind bestenfalls auf ein Promille genau. Mit wirklich viel Aufwand und teuren Geräten wird eventuell noch eine tausendfach höhere Genauigkeit im Bereich von ppm erreicht. Nach den CODATA-Empfehlungen können die meisten Naturkonstanten aber noch wesentlich genauer angegeben werden. In der Praxis spielt dies kaum eine Rolle, da wir nicht derart genau messen können. Bei solch einer Genauigkeit sind Kleinigkeiten wie etwa der Auftrieb eines Bleizylinders in Luft, die thermische Ausdehnung der Waage (oder eines sonstiges Messgeräts) und des vermessenen Objekts und Etliches mehr zu berücksichtigen. Die CODATA-Empfehlungen (jedenfalls die letzen drei Stellen und die Fehlerangaben) sind also bei einer praktischen Messung irrelevant, aber auf der anderen Seite auch nicht nachprüfbar und zumindest bei der Faraday-Konstanten doch sehr fragwürdig. --88.68.96.244 22:43, 2. Okt. 2007 (CEST)
Ja, wie CODATA darauf kommt, dass die relative Standardabweichung für F halb so klein wird wie jene von F90, wo doch ein Multiplikand nicht mehr exakt bekannt ist, sondern nur auf eine relative Standardabweichung von 25 × 10-9 geschätzt werden kann, erscheint auf den ersten Blick fragwürdig. Errechnet man die relative Standardabweichung für F analog wie oben jene für F90 aus e, so bekommt man
- F = NA · e
- NA = 6,022 141 79 × 1023 mol−1
- u(NA) = 30 × 1015 mol-1
- ur(NA) = u(NA) / NA = 30 × 1015 / 6,022 141 79 × 1023 = 50 × 10-9
- e = 1,602 176 487 × 10-19 C
- u(e) = 40 × 10-28 C
- ur(e) = u(e) / e = 40 × 10-28 / 1,602 176 487 × 10-19 = 25 × 10-9
Wären NA und e voneinander unabhängig, so würde die relative Standardabweichung für F
- ur,0(F) = ( ur2(NA) + ur2(e) )1/2 = 56 × 10-9
betragen. Tatsächlich ist der Wert aber - wie von CODATA 2006 angegeben, nur 25 × 10-9. Es fällt auf, das dies gleich groß wie der für e angegebene Wert ist - so als wäre NA als exakt bekannt angenommen. Die beiden Werte sind aber in Wirklichkeit nur scheinbar gleich groß.
Der Grund für die tatsächlich kleinere rel. Standardabweichung für F ist, dass NA und e nicht voneinander unabhängig sind, sonder zwischen ihnen eine vollkommene Korrelation besteht. Daher muss ur,0(F) noch mit der Kovarianz bzw. dem Korrelationskoeffizient zwischen NA und e korrigiert werden, um ur(F) zu erhalten.
-- Roal 01:40, 3. Okt. 2007 (CEST),
korrigiert -- 23:39, 7. Okt. 2007 (CEST)
- Es ist allgemein ziemlich auffällig, dass viele relative "CODATA-Standardunsicherheiten" identisch 25 × 10-9 oder 50 × 10-9 sind. Eine Nicht-Deckung liegt aber nur für die "Standardunsicherheit" vor. Die Werte haben mit 10-9 im Vergleich zur Unsicherheit eine geringe relative Abweichung. Deshalb gibt die halb so große Unsicherheit im Vergleich zu F90 auch keinen Sinn. --25ppb 09:36, 4. Okt. 2007 (CEST)
- Die Standardabweichung berechnet sich tatsächlich (mit wenigen Ausnahmen) nach einer nicht veröffentlichten Geheimformel:
- Sei der Wert einer Naturkonstante als [Q] = f · mα · kgβ · sγ · Aδ · Kε · molζ · cdη [[1]] gegeben. Dann ist der relative Fehler |2 · β + δ| · 25 × 10-9 für ε = 0 und 1 700 × 10-9 für |ε| = 1. --88.68.105.246 10:48, 3. Okt. 2007 (CEST)
- Für NA ist dabei β = -1 zu setzen, da sich der Zahlenwert von NA als Kehrwert der atomaren Masseneinheit errechnet. Da ein Coulomb C ein Ampere A mal einer Sekunde s ist, ergibt sich der Fehler für F als
- |(-2) + 1| · 25 × 10-9 = 25 × 10-9. --88.68.105.246 11:05, 3. Okt. 2007 (CEST)
So eine allgemeine "Verschwörungsformel" zur Berechnung der relativen Standardabweichung jeder beliebigen von der CODATA 2006 angegebenen Naturkonstante lässt sich sicher nicht angeben. Es scheint als willst du darauf hinaus, dass das Urkilogramm tatsächlich eine relative Standardabweichung von ca. 25 × 10-9 (statt definitionsgemäß 0) aufweist und sich diese in allen mit der Masse verbundenen Konstanten wieder findet.
PS: Wieso loggst du dich nicht ein bevor du postest?
-- Roal 14:17, 3. Okt. 2007 (CEST)
Die "Verschwörungsformel", wie du sie nennst, gilt zwar nicht für alle Naturkonstanten aber für erstaunlich viele, meist sogar exakt. Die meisten Ausnahmen sind Werte mit β, δ und ε = 0. Für diese Konstanten sind die Fehler zwar nicht mit 0, jedoch meist unter 10 × 10-9 angegeben. Weitere Ausnahmen sind noch die Graviationskonstante mit einem relativen Fehler von etwa 100 000 × 10-9, der Gitterparameter von Silizium und Konstanten der schwachen Wechselwikung. Falls das Urkilogramm tatsächlich eine relative Standardabweichung von ca. 50 × 10-9 und das Kelvin von 1 700 × 10-9 (statt definitionsgemäß 0) aufweist, könnte dies alleine die "Verschwörungsformel" erklären, sofern andere Fehler zu vernachlässigen sind. Dabei ist zu beachten, dass der Fehler in der Masse einen halb so großen Fehler beim Ampere bewirkt (wegen F ~ m ~ I²). Ich habe mich jetzt auch mal angemeldet. --25ppb 18:41, 3. Okt. 2007 (CEST)
Was ist denn eigentlich die Rydberg-Konstante ?
[Quelltext bearbeiten]Nach dem Bohrschen Atommodell ist die Wellenlänge des beim Übergang im Wasserstoffatom von der Hauptquantenzahl m =2, 3, 4, ... zur Hauptquantenzahl n = 1, 2, ... m-1 emittierten Strahlung.
Die Formel kann aus der Energiedifferenz der Niveaus im Wasserstoffatom berechnet werden. Da sich in der Kern mitbewegt, geht in den Wert dieser Rydberg-Konstanten R die reduzierte Masse des Elektrons ein. CODATA gibt jedoch den Wert für ein hypothetisches Wasserstoffatom mit unendlich schwerem Kern an. Die Fein- und Hyperfeinstruktur ist in der Formel auch nicht berücksichtigt. Es stellt sich daher die Frage welche physikalische Bedeutung diese Rydberg-Konstante für unendliche Kernmasse, jedenfalls die letzten Stellen, haben könnte. Diese eher fiktive Konstante beschreibt ein ideales Wasserstoffatom, das in der Realität nicht existiert. Welche Bedeutung hat also der Zahlenwert und wie kann er so fantastisch genau gemessen werden ? --25ppb 23:04, 4. Okt. 2007 (CEST)
Für das Least-Squares Adjustment (LSA) der CODATA ist R∞ enorm wichtig, da diese Konstante eben so genau geschätzt werden kann und daher als wichtigste der sog. adjusted constants auftritt, aus denen die Werte abgeleiteter Konstanten geschätzt werden. Mehr Bedeutung hat R∞ für diesen Artikel nicht, daher möchte ich mich hier auch nicht näher damit beschäftigen.
Im Appendix A der oben genannten Mohr/Taylor-Publikation wird jedoch eine Theory Relevant to the Rydberg Constant behandelt - falls dich das interessiert, lies es dir doch dort durch.
-- Roal 00:45, 5. Okt. 2007 (CEST)
- Richtig ist, dass die Wellenlänge der Wasserstofflinien sehr genau gemessen werden kann. Das Wasserstoffatom wird durch die Quantenmechanik sehr exakt beschrieben. Dennoch kann damit zunächst nur entsprechend genau berechnet werden. Würde aus den Massen von Elektron und Proton daraus der Wert von berechnet, ergäbe sich aber eine größere "Standardunsicherheit", wenn die Massen als unabhängig angenommen würden und die "Standardunsicherheit" mittels Fehlerfortplanzung berechnet würde. Offenbar gehen die CODATA-Empfehlungen davon aus, das Massenverhältnis weit genauer schätzen zu können als die einzelnen Massen. Aber wie ist dies möglich ? Ok, falls der Wert von als bekannt angenommen wird. Aber da beißt sich die Katze doch in den Schwanz, denn kann nicht derart genau angegeben werden, wenn nicht entsprechend genau bekannt ist. Eine Genauigkeit von 0,001 ppb für eine Wellenlängenmessung erscheint auch ziemlich fantastisch. Dies wäre etwa ein Bohr-Radius auf 50 Meter.
- lässt sich aus verschiedenen Naturkonstanten berechnen, die weit größere Unsicherheiten aufweisen. Die Elektronenmasse, die Elementarladung und das Wirkungsquantum, aus den sich exakt berechnen lässt, haben alle wesentlich größere Unsicherheiten. Dies soll wohl mit irgendwelchen geheimnisvollen Korrelationen erklärt werden können. Allgemein ist aber kaum nachvollziehbar, wie solche Korrelationen zu erklären sind. Mit welcher physikalischen Gesetzmäßigkeit sollte etwa der Zusammenhang von NA und Elektronenmasse erklärt werden ? --25ppb 14:25, 5. Okt. 2007 (CEST)
- Wellenlängenmessungen lassen sich inzwischen sehr genau durchführen. Mit optischen Frequenzkämmen sind Genauigkeiten im Bereich von 10-15 durchaus realistisch. Ich hab hier noch eine „alte“ Arbeit von Theodor Hänsch rumliegen, die ich mir mal im Studium kopiert habe: Niedrig et. al: Measurement of the hydrogen 1S-2S transition frequency by phase coherent comparison with a microwave cesium fountain clock, Phys. Rev. Lett 84(2000), 5496. Hier wird eine Genauigkeit von 1.8×10-14 angegeben, die im wesentlichen durch die verwendete Atomuhr begrenzt ist. Wenn Du ein wenig Literatur recherchierst (z.B. die Literaturliste der CODATA, allein 137 experimentelle Arbeiten zum Thema Rydbergkonstante) findest Du sicher noch weitere Arbeiten. Auch Massenverhältnisse von Ionen (z.B. me/mp) lassen sich sehr genau bestimmen (Phys. Scr. T59(1995) 144: <10-10) und da sie nur in der Form (1+me/mp) ist aufgrund der Regeln der Fehlerfortpflanzung hier nur ein Einfluss in der Größenordnung 10-13 vorhanden. Daher ist eine Angabe der Genauigkeit der Rydbergkonstante von 6.6×10-12 eher konservativ; Taylor und Mohr verwenden aber auch etwas mehr Literatur als meine 2 Zitate die ich mir aus Studienzeiten aufgehoben habe.
- (Der vorstehende, nicht signierte Beitrag stammt von Boemmels (Diskussion • Beiträge) 13:48, 6. Okt. 2007)
- Mit Frequenzkämmen soll es tatsächlich möglich sein Frequenzen im optischen Bereich mit Unsicherheiten im Bereich von 10-15 zu messen. Da die Lichtgeschwindigkeit per Definition auf einen Wert festgesetzt ist, gilt das ebenso für die Wellenlängen. Die Breite der Linien ist jedoch durch den Dopplereffekt bei Zimmertemperatur sehr viel größer. Wird dieser etwa durch Kühlung minimiert verbleibt noch die Verbreiterung durch die Lebensdauer der angeregten Niveaus. Daher wird offenbar versucht die Energie des langlebigen 2S-Zustands zu vermessen. Die von CODATA angegebene Genauigkeit ist in der Tat noch 6.000-fach mal geringer. Offenbar wird die Genauigkeit zur Zeit offenbar in der Tat durch die Unkenntnis des Faktors (1+me/mp) bestimmt. Es bleibt die Frage, wie es möglich ist me/mp genauer zu messen als me und mp alleine. Wenn dieses Verhältnis tatsächlich so genau wie oben behauptet zu bestimmen ist, sollte die Genauigkeit allerdings in der Tat noch höher sein als von CODATA angegeben. --25ppb 21:25, 6. Okt. 2007 (CEST)
- Zur Frage wie es möglich ist me/mp genauer zu bestimmen als die Masse me alleine ist durch das Messverfahren bedingt. Lies Dir die oben angegebene Arbeit von Pritchard durch. Man kann die Massen von Elektron und Proton durch Messung der Zyklotronfrequenz in ein und der selben Ionenfalle bestimmen. Durch Bildung des Quotienten fallen die geometrischen Parameter der Falle heraus. Diesen Trick kann man aber nicht bei der Massenbestimmung anwenden, da man das Urkilogramm nicht in ein Zyklotron bekommen. Um von der Elektronenmasse in u zu der Elektronenmasse in kg zu kommen braucht man die Avogadro-Konstante, die leider nicht so genau bekannt ist. --Boemmels 14:29, 7. Okt. 2007 (CEST)
- Ja, wahrscheinlich ist dies eine recht brauchbare Methode me/mp genau zu bestimmen. In der nicht-relativistischen Näherung ist das Massenverhältnis gleich dem umgekehrten Verhältnis der Zyklotronfrequenzen. Am gleichen Ort, dass heißt bei gleichem Magnetfeld gibt das Verhältnis der Frequenzen genau das Massenverhältnis an. Allerdings gilt dies relativistisch exakt gerechnet nicht mehr, weil exakt gerechnet die Frequenz auch von Geschwindigkeit abhängt. Mit der gleichen Methode sollte aber auch me/mC-12 gemessen werden können. --25ppb 16:05, 7. Okt. 2007 (CEST)
- Ok, über die Zyklotronfrequenz kann m(C-12) und damit die atomare Masseneinheit sowie die Avogadro-Konstante mit hoher Genauigkeit aus der Elektronenmasse berechnet werden. Die Elektronenmasse kann schließlich aus der Rydberg-Konstanten, der Feinstruktur-Konstanten und dem Plankschen Wirkungsquantum mit der höchsten Genauigkeit berechnet werden. Die Unsicherheit resultiert dabei vor allem aus der Unsicherheit der Schätzung des Plankschen Wirkungsquantums. Daher sind die relativen Unsicherheiten des Plankschen Wirkungsquantums, der Elektronenmasse, der atomaren Masseneinheit und der Avogadro-Konstante annähernd gleich groß. So weit ist dies noch nachvollziehbar. Die Geschichte mit der Faraday-Konstante scheint mir absurd. Es ist eigentlich eindeutig, dass F entsprechend F = NA · e mit geringsten Unsicherheit zu berechen ist. Die Unsicherheit ist daher größer als die von NA anzunehmen. --25ppb 16:49, 7. Okt. 2007 (CEST)
- ur (R∞) wird sowohl vom 2002er-, als auch vom 2006er-CODATA-Satz mit 6,6 × 10-12 angegeben. Der Wert der Rydberg-Konstante basiert ausschliesslich auf Messungen an Wasserstoff-Atomen 1H und 2H. Der 2002er-Wert wurde aus 25 Messwerten ermittelt, wovon 23 Übergangsfrequenzen und 2 root-mean-square Ladungs-Radien sind. Letztere sind jedoch nur auf eine rel. Standardabweichung in der Größenordnung von 10-3 bis 10-2 genau, während ein Ergebnis von Frequenz-Messungen auf 1,9 × 10-14 genau vorliegt, also mit 347 mal besserer rel. Genauigkeit als der von CODATA empfohlene Wert! Wie kommst du also auf einen Faktor von 6 000?
- Die Frequenzkämme, eine ziemlich aktuelle Entwicklung, haben also scheinbar mit der Unsicherheit von R∞ nach CODATA-Empfehlungen gar nichts zu tun. Neben dem Massenverhältnis von Proton und Elektron geht die Hyperfeinstruktur durch die endliche Ausdehnung der Ladung im Kern in die Übergangsfrequenzen- oder wellenlängen ein. Jetzt stellt sich die Frage, wie diese beiden Effekte auseinander gehalten werden können. Hier würde sich anbieten schwere Kerne Z > 1 und einem Elektron mit Wasserstoff zu vergleichen. Für schwere Kerne überwiegt der Effekt der Ausdehnung der Ladung während bei Wasserstoff der Mitbewegungseffekt überwiegt. Die Unsicherheit in der Bestimmung R∞ kann also offenbar nicht durch eine genauere Frequenzmessung verbessert werden. Wie ist es dann aber möglich, die extrem genaue Frequenzmessung mittels der Frequenzkämme auf ihre Richtigkeit zu überprüfen ? Die Genauigkeit ist vermeintlich mindestens 6000-fach höher (diese Zahl bezieht sich auf die Angabe einer Genauigkeit von 10-15 zu Frequnzkämmen, die ich in Wikipedia gefunden habe), als irgendeine Naturkonstante, die in den CODATA-Empfehlungen enthalten ist, gemessen werden kann. --25ppb 10:44, 7. Okt. 2007 (CEST)
- Durch (vorübergehende) Konstanthaltung der übrigen in die Beziehung zwischen Frequenz und Rydberg-Konstante eingehenden Naturkonstanten (wie die Feinstrukturkonstante α und die relativen Atommassen von Elektron und Proton bzw. Deuteron) während desselben Versuches!?
- -- Roal 11:20, 7. Okt. 2007 (CEST)
- Das ist jetzt nicht dein Ernst oder kannst du das nochmal verständlich erklären ? --25ppb 11:33, 7. Okt. 2007 (CEST)
- Doch :-) Mit "Konstanthaltung" meine ich hier "Annahme eines exakten Wertes, ohne Unsicherheit". Dadurch variieren diese Werte nicht mehr, sind also wirklich konstante Konstanten wie zB π oder zur Zeit auch μ0. Die Rydberg-Konstante hat ohnehin zu α, me, mp und md so gut wie keine Korrelation. Ich glaube auch, es ist nur eine Frage der Zeit, dass viele der zur Zeit "nicht konstanten" Konstanten konstant, also exakt werden, per Definition.
- R∞ lässt sich also deutlich genauer direkt messen als aus anderen Konstanten ableiten. Wenn man jetzt die verschiedenen Bestimmungsarten der Rydberge-Konstante (im Rahmen einer Ausgleichsrechnung) kombiniert, bestimmt man ein gewichtetes Mittel üblicherweiserweise mit Gewichten von 1/σ². Daher wird der Wert der Standardabweichung im wesentlichen durch gemessenen Wert bestimmt. Dies ist aber kein Problem, da man aus einem physikalischen Gesetz über Naturkonstanten (wie z.B. F = NAe) keine Gleichung für deren Ungenauigkeiten ableiten kann, sondern nur eine Obergrenze festgelegt (im Beispiel (ΔF/F)² ≤ (ΔNA/NA)² + (Δe/e)²).
- (Der vorstehende, nicht signierte Beitrag stammt von Boemmels (Diskussion • Beiträge) 13:48, 6. Okt. 2007)
- Wie gesagt R∞ lässt sich nicht direkt aus der Wellenlänge bestimmen, so dass die Ungenauigkeit höher ist. Falls F nach F = NA · e bestimmt wird, kann die Unsicherheit niemals kleiner ΔNA sein. Da beißt keine Maus den Faden ab. --25ppb 21:25, 6. Okt. 2007 (CEST)
- Nein. Völlig egal, über welche Messmethoden Werte der Faraday-Konstante bestimmt wurden - ihre Unsicherheit kann sehr wohl kleiner sein als jene von NA, was ja auch der Fall ist.
- Wer sagt denn das man die Faraday-Konstante so bestimmt? Die übliche Methode zur Bestimmung der Faraday-Konstante ist die elektrolytische Abscheidung von einem Metall mit bekannter Atommasse. Dadurch erhält man direkt die Faraday-Konstante über F=m/C·A. In dieser Gleichung ist weder die Avogadro-Konstante noch die Elementarladung enthalten, also wird die Genauigkeit der Messung auch nicht von Ihnen bestimmt. Tatsächlich basiert eine der Methoden zur Bestimmung der Avogadrokonstante auf der Formel NA = F/e. --Boemmels 14:29, 7. Okt. 2007 (CEST)
- Für diese Messung müssten etwa 100 kg des abgeschiedenen Metalls auf ein 2,5 µg genau abgewogen werden. Die Atommasse müsste zudem exakt bekannt sein, was bei einem Gemisch mehrer Isotope unmöglich erscheint. Zudem wäre es erforderlich die Ladung als Strom mal Zeit ebenso exakt zu messen. Eine solch genaue Messung scheint völlig illusorisch. Falls es dennoch möglich wäre, könnte NA = F/e aus dieser Beziehung jedoch exakter berechnet werden als nach CODATA-Empfehlung. Die Avogadro-Zahl ist der Kehrwert der atomaren Masseneinheit NA = (1 g)/u = (12 g)/m(C-12) und wird auch über die Masse und nicht über die Faraday-Konstante mit der geringsten Unsicherheit bestimmt. --25ppb 15:35, 7. Okt. 2007 (CEST)
- Sowas wird tatsächlich gemacht: http://www.ptb.de/de/org/1/12/124/index.htm. Es sind zwar keine 100kg aber immerhin 38 mg (und auch nicht elektrolytisch sondern die Abscheidung erfolgt aus der Gasphase). BTW, Die 100kg müsstest Du „nur“ auf 2.5 mg genau um die gewünschte Genauigkeit zu erreichen. Sowas ist zwar schwierig, aber nicht völlig illosorisch. --Boemmels 16:38, 7. Okt. 2007 (CEST)
- Ja klar, zwischen mg und kg liegen ja schon 6 Größenordnungen. Es sind also nicht Mikro- sondern immerhin Milligramm. Aber das ändert eigentlich nichts wirklich an meiner Feststellung, dass die Genauigkeit ziemlich illusorisch erscheint. Durch geringe Abweichungen in der Isotopenhäufigkeit, oder Beimischungen anderer Metalle können bereits wesentlich größere Abweichungen auftreten. Die zitierten Arbeiten, die eine solche Messung schildern, geben in der Tat auch wesentlich größere Fehler an. --25ppb 17:04, 7. Okt. 2007 (CEST)
Zwei Konstanten mit vollkommener Korrelation
[Quelltext bearbeiten]Es gilt
wobei eine exakt festgelegte Konstante ist. Die Rydberg-Konstante lässt sich folglich exakt berechnen, wenn h, e und me bekannt sind. NA ist mit diesen drei Naturkonstanten, aus denen R∞ exakt berechnbar ist, stark oder sogar vollkommen korreliert. Mit R∞ liegt aber gar keine Korrelation vor. Jetzt mal ehrlich, wer kann denn das glauben ? --25ppb 12:29, 7. Okt. 2007 (CEST)
JedeR, der sich mit Statistik auskennt, "kann das glauben". Was hast du denn für ein Problem?
-- Roal 08:51, 10. Okt. 2007 (CEST)
Unsicherheit für Q = a · b ist kleiner als die Unsicherheiten für a und b
[Quelltext bearbeiten]Dieser von 25ppb wiederholt bestrittener Umstand tritt immer dann ein, wenn a und b perfekt negativ korreliert sind und der Faktor zwischen den relativen Unsicherheiten (Standardabweichungen) von a und b kleiner als 2 ist. Als Formel ausgedrückt:
- ur(Q) < ur(a) und ur(Q) < ur(b)
- wenn r (a, b) = -1 und ur(a) / ur(b) < 2
- Theoretisches Beispiel: Bei ur(a) = 100 ppm und ur(b) = 75 ppm erhält man für ur(Q) nur mehr 25 ppm.
- Praktisches Beispiel:
- Unsicherheiten für NA und e nach CODATA 2002 sowie eine Annahme von r (NA, e) = -1,000 000 (richtiger Wert ist jedoch -0,998 298):
- ur(NA) = 170,99 × 10-9
- ur(e) = 85,50 × 10-9
- ⇒ur(F) = 85,49 × 10-9 < ur(e) < ur(NA)
Das bedeutet auch, dass man Q sogar exakt erhält, wenn die relativen Standardabweichungen von a und b gleich groß sind (egal, wie groß die einzelnen Werte sind - sie müssen nur gleich groß sein). Wäre in obigem theoretischen Beispiel auch ur(b) = 100 ppm, so wäre Q exakt bekannt! Schön was man mit Korrelationsrechnungen alles hin bekommt :-)
-- Roal 16:48, 9. Okt. 2007 (CEST)
- Mit anderen Worten – jeder Wert für die Unsicherheiten lässt sich mittels Korrelationsrechnungen aus passenden Werten für die Korrelation theoretisch erklären. In Wahrheit ist dies jedoch keine Erklärung, wenn für diese Korrelation keine nachvollziehbare Begründung angegeben wird. Eine sinnvolle Fehlerabschätzung ist nur bei geringer Korrelation möglich. Falls Q = a · b gilt, sagt dies alleine natürlich nichts darüber aus, wie diese drei Größen berechnet werden. Statt Q nach dieser Formel zu berechnen, könnte auch a als Q/b oder b als Q/a berechnet werden.
- Falls eine Größe aus fehlerbehafteten Größen berechnet wird, lässt sich der Fehler dabei aus der Ableitung der Berechnungsformel nach der fehlerbehafteten Größe abschätzen. Sind die verschiedenen Fehlerquellen nicht korreliert errechnet sich das Quadrat des gesamten Fehlers als Summe der Quadrate der einzelnen Fehler. Damit ist der Gesamtfehler immer größer als die einzelnen Abweichungen aus den verschiedenen Fehlerquellen. Die Annahme ein Wert könne genauer bestimmt werden, wenn einzelne Größen, aus dem er sich errechnet, einen größeren Fehler aufweisen ist und bleibt dagegen absurd. Eine exakte Bestimmung von F erfolgt immer nach der Berechnungsformel F = NA · e und der relative Fehler kann daher nicht kleiner als der von NA sein. --20:27, 9. Okt. 2007 (CEST)
- (Der vorstehende, nicht signierte Beitrag stammt von 25ppb (Diskussion • Beiträge) 20:27, 9. Okt. 2007)
Nein, wenn du das Fehlerfortpflanzungsgesetz unter Einbeziehungen von Korrelationen nicht einsehen willst, ist das deine Sache. Aber bitte schreibe nicht ständig dies wäre Faktum sondern markiere das deutlich als deine Privatauffassung. Es wurde dir ja schon von verschiedenen Usern auf verschiedenen Diskussionsseiten verdeutlicht, dass du die Korrelationskoeffizienten nicht vergessen/vernachlässigen darfst, wenn diese nahe bei -1 oder +1 liegen. Die Ausgleichsrechnung, die CODATA durchführt ist de facto eine multivariate Korrelationsanalyse und hat ja genau den Sinn und das Ziel, die Unsicherheiten der Messwerte durch Korrelationen zu verbessern. Dadurch erhält man für viele Werte eine ca. 10 mal bessere relative Unsicherheit.
Deine Verschwörungstheorien a la "Geheimformel" oder "Eine sinnvolle Fehlerabschätzung ist nur bei geringer Korrelation möglich" entbehren jeglicher Grundlage und haben in einer Enzyklopädie wirklich nichts verloren.
-- Roal 21:32, 9. Okt. 2007 (CEST)
- Unter dem Stichwort Fehlerfortpflanzung sind die Grundlagen der Fehlerabschätzung ausführlich, mit Schulwissen der Mathematik nachvollziehbar, erklärt. Dies sind keine Verschwörungstheorien, sondern die Grundlagen zur Abschätzung von Messfehlern wie sie Studenten einer Naturwissenschaft im Grundstudium erlernen. Bereits der gesunde Menschenverstand sagt, dass jeder Messfehler einer Größe, die zur Berechnung eines Wertes benötigt wird, die Ungenauigkeit erhöht und keinesfalls verringert. Dies ist auch das Ergebnis der grundlegenden Regeln zur Fehlerfortpflanzung. --25ppb 10:35, 10. Okt. 2007 (CEST)
Im Artikel Fehlerfortpflanzung wird auch explizit nur der Fehler behandelt, den eine Größe aus voneinander unabhängigen Eingangsgrößen aufweist. Das stimmt auch mit dem überein, das ich und andere jetzt schon sehr oft aufgezeigt haben: Wenn die Eingangsgrößen nicht voneinander unabhängig sind, muss das Fehlerfortpflanzungsgesetz um die Kovarianzen erweitert werden. "Der gesunde Menschenverstand" reicht offenbar nicht aus, um den Fehler zu begreifen, der durch voneinander abhängigen Größen resultiert. Vorschlag: Beschäftige dich einmal mit ANCOVA (Kovarianzanalyse) und multivariater Regressionsanalyse.
-- Roal 11:01, 10. Okt. 2007 (CEST)
Es ist in der Tat richtig, dass nicht in jedem Fall von voneinander unabhängigen Eingangsgrößen ausgegangen werden kann. In einem solchen Fall, ist jedoch von einem größeren Fehler auszugehen. Wird etwa F = NA · e bestimmt und die relativen Unsicherheiten von e sei 25 ppb und die von NA 50 ppb, dann kann nicht ausgeschlossen werden, dass NA und e jeweils 50 ppb oder 25 ppb größer sind als die bestmögliche Schätzung. Ebensowenig kann ausgeschlossen werden, dass beide Werte kleiner sind. Daher kann das Produkt, die Faraday-Konstante 75 ppb größer oder kleiner sein als die bestmögliche Schätzung. Nach der CODATA-Empfehlung wäre eine 75 ppb Abweichung eine Abweichung von drei Standardabweichungen, was fast sicher auszuschließen sein sollte, aber offensichtlich nicht ist. Für die Annahme die Fehler würden sich immer gegenseitig aufheben gibt es keinen vernünftigen Grund. In immerhin etwa fünf Prozent der Fälle sollte NA zwei Standardabweichungen, 100 ppb, daneben liegen. Dies kann von dem wesentlich genaueren Wert der Elementarladung unmöglich kompensiert werden. --25ppb 13:41, 10. Okt. 2007 (CEST)
Dein Problem ist offenbar, dass du gewisse Gesetze, die du nicht kennst einfach nicht einsehen willst oder kannst. Du vermischt dabei immer wieder Richtiges mit reinen Hypothesen, so als wären diese auch definitiv richtig. Leider sind diese aber oft komplett falsch. Das führt leider dazu, dass man deinen Ausführungen gar nicht mehr trauen kann.
Ich versuchs noch einmal:
- Eine Größe Q kann aus dem Produkt a · b von zwei anderen fehlerbehafteten Größen berechnet werden. Die relative Standardabweichung von a sei 50 und die von b 25 ppm. Je nachdem, wie a und b voneinander abhängen, sind 3 verschiedene Grenzfälle für die rel. Standardabweichung von Q möglich
- Sind beide Größen voneinander unabhängig, beträgt ur(Q) = 56 ppm
- Sind beide Größen perfekt positiv korreliert, beträgt ur(Q) = 75 ppm
- Sind beide Größen perfekt negativ korreliert, beträgt ur(Q) = 25 ppm
Der letze der genannten 3 Fälle tritt annähernd bei F = NA · e mit ihren CODATA 2005-Werten auf.
-- Roal 14:43, 10. Okt. 2007 (CEST)
- Der Begriff Standardabweichung scheint mir hier zunächst irreführend. Die relevante Frage ist doch, welchen Wert die Faraday-Konstante, oder was auch immer hier als Produkt zweier Größen berechnet wird tatsächlich hat. Da die Größen a und b nicht exakt bekannt sind, kann auch Q nicht exakt angegeben werden. Die Frage ist mit welcher Unsicherheit Q angegeben werden kann. Falls a maximal 50 und b maximal 25 ppb abweicht, weicht Q maximal 75 ppb von dem Schätzwert a · b ab. Allerdings ist in der Regel mit einer geringeren Abweichung zur rechnen. Falls die Werte von a und b entsprechend einer Normalverteilung in etwa 70 % der Fälle innerhalb der Fehlergrenzen liegen, sollte dies für das Produkt bei einer Fehlergrenze von 56 ppb gelten. Falls der Fehler von Q kleiner ist, kann dies sinnvoll nur so interpretiert werden, dass nicht Q als a · b sondern a als Q/b berechnet wird. NA berechnet sich jedoch aus der Masse und nicht als F/e, so dass die Fehlerangabe einfach keinen Sinn ergibt. Falls NA als normalverteilt mit einer Standardabweichung von 50 ppb abgenommen wird, sollte immerhin in 5 % der Fälle die Abweichung größer als 100 ppb sein. In 68 % der Fälle sollte e jedoch maximal 25 ppb Abweichung aufweisen. Selbst wenn die Vorzeichen der Abweichung immer entgegengesetzt wäre (dafür gibt es eigentlich keinen vernünftigen Grund, aber nehmen wir es mal an), dann sollte dennoch in etwa in 3,5 % der Fälle die Abweichung größer als (100 - 25) ppb also 3 Standardabweichungen sein. Bei einer Normalverteilung sollte dies aber in weniger als ein Prozent der Fälle auftreten. Der dritte Fall ist also einfach absurd. --25ppb 20:40, 10. Okt. 2007 (CEST)
- Nur als Hinweis: Ich habe den Benutzer als Sockenpuppe des unbeschränkt gesperrten Benutzer:Fsswsb aus dem Verkehr gezogen. Zumindest von Mathematik hat er nachweislich keine Ahnung. Schönen Gruß --Scherben 00:23, 11. Okt. 2007 (CEST)
- Der Begriff Standardabweichung scheint mir hier zunächst irreführend. Die relevante Frage ist doch, welchen Wert die Faraday-Konstante, oder was auch immer hier als Produkt zweier Größen berechnet wird tatsächlich hat. Da die Größen a und b nicht exakt bekannt sind, kann auch Q nicht exakt angegeben werden. Die Frage ist mit welcher Unsicherheit Q angegeben werden kann. Falls a maximal 50 und b maximal 25 ppb abweicht, weicht Q maximal 75 ppb von dem Schätzwert a · b ab. Allerdings ist in der Regel mit einer geringeren Abweichung zur rechnen. Falls die Werte von a und b entsprechend einer Normalverteilung in etwa 70 % der Fälle innerhalb der Fehlergrenzen liegen, sollte dies für das Produkt bei einer Fehlergrenze von 56 ppb gelten. Falls der Fehler von Q kleiner ist, kann dies sinnvoll nur so interpretiert werden, dass nicht Q als a · b sondern a als Q/b berechnet wird. NA berechnet sich jedoch aus der Masse und nicht als F/e, so dass die Fehlerangabe einfach keinen Sinn ergibt. Falls NA als normalverteilt mit einer Standardabweichung von 50 ppb abgenommen wird, sollte immerhin in 5 % der Fälle die Abweichung größer als 100 ppb sein. In 68 % der Fälle sollte e jedoch maximal 25 ppb Abweichung aufweisen. Selbst wenn die Vorzeichen der Abweichung immer entgegengesetzt wäre (dafür gibt es eigentlich keinen vernünftigen Grund, aber nehmen wir es mal an), dann sollte dennoch in etwa in 3,5 % der Fälle die Abweichung größer als (100 - 25) ppb also 3 Standardabweichungen sein. Bei einer Normalverteilung sollte dies aber in weniger als ein Prozent der Fälle auftreten. Der dritte Fall ist also einfach absurd. --25ppb 20:40, 10. Okt. 2007 (CEST)
Standardunsicherheit und Standardabweichung
[Quelltext bearbeiten]Leider besteht hier ein grosses Durcheinander oder Missverständnis. Standardabweichung ist ein Merkmalswert für die Streuung von mehreren Werten einer Stichprobe. Standardunsicherheit ist eine Eigenschaft eines einzelnen Messergebnisses oder einer Konstante (kann man hier: VIM nachlesen. Im Zusammenhang mit den CODATA-Werten ist es deshalb FALSCH, von einer Standardabweichung zu sprechen, diese beiden Begriffe dürfen also keinesfalls synonym verwendet werden wie im Hauptartikel behauptet wird. Ich werde mich diesem Problem demnächst mal widmen. -- Cms metrology 21:05, 21. Feb. 2011 (CET)
- Paule Boonekamp 21:28, 21. Feb. 2011 (CET)
- Habe dies heute in diesem Sinne versucht umzusetzen. -- Cms metrology 21:48, 1. Apr. 2011 (CEST)
Ja Für mein Verständnis geht es hier zunächst um die Institution. Um zu erklären was dieses Comittee tut wird in einem Absatz erklärt was sie tuen. Und zwar: es ist die Aufgabe verbindliche Zahlenwerte für diverse Naturwerte anzugeben. Sicher greift die dortigen Wissenschaftler dann auf Meßreihen zurück die ihrerseits einen bestimmten Zahlenwert ergeben der natürlicherweise auf solch Messreihe bezogen auch eine Standardabweichung hat. Nur wenn der Wert dann als Konstante oder welcher Art auch immer definiert wird ist es eine einzelne Zahl mit einer bestimmten Unsicherheit bestimmt und dies ist dann keine Standardabweichung sondern einfach die aus dem experimentellen oder sonstwie hergeleiteten „Vorzahlenmaterial“ definierte Standard„unsicherheit“ der diese unterliegt. Ja, cms hat dies wohl kürzer gesagt, aber genau dieser Meinung schließe ich mich an. --
- Paule Boonekamp 21:28, 21. Feb. 2011 (CET)
Deutsch
[Quelltext bearbeiten]Das ist toll. Die Liste der Konstanten ist allerdings sehr englisch. Gibt es auch eine Übersetzte CODATA-Tabelle, wo ich rausfinden kann, was beispielsweise "atomic unit of charge density" oder "atomic unit of 1st hyperpolarizability" ist? Yotwen 14:44, 25. Mai 2011 (CEST)