Fehlerfortpflanzung

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Gaußsche Fehlerfortpflanzung)
Zur Navigation springen Zur Suche springen

Bei vielen Messaufgaben ist eine physikalische Größe nicht direkt messbar, sondern sie muss indirekt aus messbaren Größen nach einer mathematischen Formel bestimmt werden. Jeder gemessene Wert weicht von seinem richtigen Wert ab (siehe Messabweichung,[1] die ältere Bezeichnung war Messfehler). Diese Messabweichungen werden mit der Formel übertragen (oder fortgepflanzt). Daher wird auch das Ergebnis von seinem richtigen Wert abweichen. Diese Tatsache wird Fehlerfortpflanzung genannt. Für diese existieren Rechenregeln, mit denen die Abweichung des Ergebnisses bestimmt oder abgeschätzt werden kann.

Seit der Unterscheidung zwischen Messabweichung und Messfehler ist die Bezeichnung Fehlerfortpflanzung als überholt anzusehen. Da sich aber noch kein neuer Ausdruck etabliert hat, wird zur sprachlichen Einheitlichkeit hier noch die Bezeichnung Fehler beibehalten.

  • Häufig soll ein Ergebnis aus einer Größe oder im allgemeinen Fall aus mehreren Größen  ,  , berechnet werden. Mit einer fehlerbehafteten Bestimmung der Eingangsgröße(n) wird auch die Ergebnisgröße fehlerbehaftet sein. Nach „groben“ Fehlern muss neu gemessen oder neu gerechnet werden. Sonst ist es eher angebracht, nur die Auswirkung des Fehlers oder der Fehler auf das Ergebnis zu bestimmen.
  • Mathematisch gesagt: Gibt es eine Funktion mit mehreren unabhängigen Variablen , die um ein kleines falsch sind, so wird auch das Ergebnis falsch um ein kleines . Dieses soll berechnet werden können.
  • Messtechnisch gesagt: Ist ein Messergebnis aus Messwerten verschiedener Größen auszurechnen, wobei diese Messwerte von ihren richtigen Werten abweichen, so wird ein Ergebnis berechnet, das entsprechend auch vom richtigen Ergebnis abweicht. Die Größe der Abweichung des Messergebnisses soll ausgerechnet werden können (im Rahmen des quantitativ Sinnvollen, siehe Fehlergrenze[1]).

Fallunterscheidung

[Bearbeiten | Quelltext bearbeiten]

Systematischer Fehler

[Bearbeiten | Quelltext bearbeiten]

Systematische Fehler[1] sind im Prinzip bestimmbar, sie haben Betrag und Vorzeichen.

Beispiel: Die in einem Verbraucher umgesetzte elektrische Leistung soll berechnet und dazu die Stromstärke durch den Verbraucher gemessen werden. Dazu wird ein Strommesser in die Leitung geschaltet. An dem Messgerät fällt aber eine Spannung ab; dadurch wird die Spannung am Verbraucher kleiner als die Speisespannung; dadurch wird bei einem ohmschen Verbraucher die Stromstärke auch kleiner; es wird etwas zu wenig gemessen (negative Rückwirkungsabweichung, die sich bei bekannter Speisespannung und bei bekanntem Messgeräte-Innenwiderstand ausrechnen lässt). Die aus Speisespannung und gemessener Stromstärke berechnete Leistung wird damit auch zu niedrig angegeben.

Bei einem systematischen Fehler der Eingangsgröße oder bei systematischen Fehlern der Eingangsgrößen lässt sich mittels der Fehlerfortpflanzungs-Regeln zu den Fehlern mit Vorzeichen der systematische Fehler der Ausgangsgröße berechnen.

Messgerätefehler

[Bearbeiten | Quelltext bearbeiten]

Ferner kann nicht davon ausgegangen werden, dass die vom Messgerät erfasste Größe ohne Messgerätefehler angezeigt wird. In seltenen Fällen ist anhand einer Fehlerkurve zu dem Messwert der zugehörige systematische Fehler bekannt. Im Allgemeinen ist von einem Messgerätefehler nur dessen vorzeichenloser Grenzwert, die Fehlergrenze bekannt.

Beispiel: Kann die Stromstärke im obigen Beispiel nur mit einer Fehlergrenze von 4 % bestimmt werden, kann die Leistung auch nur in einem Bereich von −4 % bis +4 % um den berechneten Wert bestimmt werden.

Bei einer Fehlergrenze der Eingangsgröße oder bei Fehlergrenzen der Eingangsgrößen lässt sich mittels der zugehörigen Fehlerfortpflanzungs-Regeln die Fehlergrenze der Ausgangsgröße berechnen.

Zufälliger Fehler

[Bearbeiten | Quelltext bearbeiten]

Soweit bisher behandelt, gibt es mehrere Eingangsgrößen (unabhängige Variable, Messgrößen) und davon jeweils nur einen Wert. Anders ist es bei zufälligen Fehlern[1], die erkannt werden, wenn von einer Eingangsgröße mehrere Werte vorliegen – gewonnen durch wiederholte Bestimmung (Messung) unter konstanten Bedingungen. Aus diesen Werten lässt sich ein arithmetischer Mittelwert berechnen, der als Schätzwert der Eingangsgröße weiterverwendet wird, der aber mit einer vorzeichenlosen Typ-A-Komponente der Messunsicherheit behaftet ist.[1][2]

Bei einer Messunsicherheit der Eingangsgröße oder bei Messunsicherheiten mehrerer Eingangsgrößen lässt sich mittels der zugehörigen Fehlerfortpflanzungs-Regeln die Unsicherheit der Ausgangsgröße berechnen.

Bei Messgerätefehlern kann gemäß[1] davon ausgegangen werden, dass der Betrag des zufälligen Fehlers wesentlich kleiner ist als die Fehlergrenze (anderenfalls ist auch der zufällige Fehler bei der Festlegung der Fehlergrenze zu berücksichtigen). Bei voneinander unabhängigen Messwerten, deren Qualität von den Fehlergrenzen der Messgeräte bestimmt wird, ist die Untersuchung zufälliger Fehler dann aber nicht sinnvoll.

Fehler des mathematischen Modells

[Bearbeiten | Quelltext bearbeiten]

Die zu berechnende Größe muss durch die mathematische Formel korrekt beschrieben werden. Um leichter rechnen zu können oder mangels vollständiger Kenntnis wird aber oft auf Näherungen ausgewichen.

Beispiel: Die Speisespannung im obigen Beispiel wird als bekannt angenommen, wie das bei Bezug aus einer Konstantspannungsquelle zulässig ist. Falls die Spannung der Quelle aber von der Belastung abhängig ist, ist ihre Kenngröße „Leerlaufspannung“ nicht mehr die Speisespannung; es entsteht ein weiterer Fehler.

Ein Fehler der Ausgangsgröße, welcher aufgrund eines unzureichenden mathematischen Modells für den Zusammenhang mit den Eingangsgrößen entsteht, lässt sich mit Fehlerfortpflanzungs-Regeln nicht berechnen.

Regeln zur Fehlerfortpflanzung

[Bearbeiten | Quelltext bearbeiten]

Eine glatte Funktion , wie das in der klassischen Physik und in der Technik fast immer gegeben ist, lässt sich in der Umgebung einer Stelle x durch ihre Taylorreihe darstellen. Der nachfolgend dargestellte Formalismus mit linearer Näherung benötigt nur die einfache Differenzierbarkeit.

Fehler mit Vorzeichen

[Bearbeiten | Quelltext bearbeiten]

Eine fehlerbehaftete Größe

[Bearbeiten | Quelltext bearbeiten]

Der Einfluss einer fehlerbehafteten Eingangsgröße auf das Ergebnis kann mittels der Taylorreihe abgeschätzt werden:

Bei genügend kleinem kann die Reihenentwicklung nach dem linearen Glied abgebrochen werden, weil Glieder mit und noch höheren Potenzen erst recht klein werden. Damit ergibt sich die Näherungslösung

Mit einer Eingangsgröße: Bei deren Änderung um ändert sich die Aus­gangs­größe um . Bei genügend kleinem wird proportional zu mit dem Anstieg der Tangente als Proportionalitätsfaktor

Dieses liefert eine Regel zur Fehlerfortpflanzung, wenn die -Werte als absolute Fehler angesehen werden.

  • Beispiel: Proportionalität
Für die Ausgangsgröße enthält deren absoluter Fehler die spezielle Proportionalitätskonstante . Besser wird mit dem relativen Fehler gerechnet, der unabhängig von ist und stets genauso groß wie der relative Fehler der Eingangsgröße .
  • Beispiel: umgekehrte Proportionalität (Kehrwertbildung)
Der relative Fehler der Ausgangsgröße hat denselben Betrag wie der relative Fehler der Eingangsgröße, aber entgegengesetztes Vorzeichen.

Mehrere fehlerbehaftete Größen

[Bearbeiten | Quelltext bearbeiten]
Mit zwei Eingangsgrößen: Kleine Ände­run­gen auf der Fläche und kleine Ände­run­gen auf der Fläche erzeugen kleine Ände­run­gen der Ausgangs­größe und , die addiert ergeben.

Bei mehreren voneinander unabhängigen Eingangsgrößen wird die entsprechende Reihenentwicklung verwendet, ebenfalls bis zum linearen Glied als Näherungslösung für kleine :

: Gesamtfehler des Ergebnisses
: relativer Fehler des Ergebnisses
: Fehler der Eingangsgröße
:   relativer Fehler der Eingangsgröße

Die hier einzusetzenden partiellen Differentialquotienten liefern Aussagen, wie stark sich ändert, wenn sich von allen unabhängigen Eingangsgrößen ausschließlich ändert; die übrigen Eingangsgrößen werden jeweils als Konstanten behandelt.

Die allgemeine Lösung vereinfacht sich für die vier Grundrechenarten:

* Bei Addition
* Bei Subtraktion
* Bei Multiplikation  
* Bei Division
Hinweis: Dabei sind Angaben mit ungewissem Vorzeichen (±) keine Angaben von Fehlern; der Unterschied zwischen Fehler und Fehlergrenze ist zu beachten. Bei Fehlergrenzen und Messunsicherheiten gelten andere Sachverhalte, siehe dazu die nächsten Abschnitte.

Die Formeln gelten nur, wenn die tatsächlichen Werte der Fehler mit Vorzeichen bekannt sind. Bei Fehlerfortpflanzung können sich die Fehler mehr oder weniger ergänzen oder aufheben.

Beispiel: Wenn um 2 % zu groß und um 3 % zu groß sind:
Dann wird bei der Multiplikation um 5 % zu groß.
Dann wird bei der Division um 1 % zu klein.
Zur Verdeutlichung kann folgendes Beispiel dienen: Wer ausrechnen will, aber im Zähler eine um 2 % zu große Zahl einsetzt und im Nenner eine um 3 % zu große Zahl, berechnet und erhält 0,99. Dieses Ergebnis weicht vom richtigen Wert 1,00 um −1 % ab. Diese Feststellung zum Fehler lässt sich mit der Formel einfacher bekommen. Und das Minuszeichen vor ist offensichtlich richtig!

Sind nicht die Fehler selber bekannt, sondern nur ihre Grenzen, so lässt sich derselbe mathematische Ansatz verwenden, wenn die -Werte als Fehlergrenzen angesehen werden. Diese sind vorzeichenlos, also als Betrag definiert. Für das Ergebnis lässt sich so auch nur die Fehlergrenze ausrechnen; dazu ist mit der ungünstigsten Vorzeichenkombination zu rechnen, indem Beträge addiert werden.

: Gesamtfehlergrenze des Ergebnisses
: Fehlergrenze der Eingangsgröße
:   relative Fehlergrenze der Eingangsgröße
: relative Fehlergrenze des Ergebnisses

Die allgemeine Lösung vereinfacht sich bei den vier Grundrechenarten:

* Bei Addition und Subtraktion
* Bei Multiplikation und Division  
Beispiel: Wenn um bis 2 % zu groß oder zu klein und um bis 3 % zu groß oder zu klein sein können:
Dann kann bei der Multiplikation wie bei der Division um bis 5 % zu groß oder zu klein sein.

Messunsicherheiten

[Bearbeiten | Quelltext bearbeiten]

Eine fehlerbehaftete Größe

[Bearbeiten | Quelltext bearbeiten]

Gibt es von der Größe mehrere mit zufälligen Fehlern behaftete Werte mit , so ergibt sich nach den Regeln der Fehlerrechnung für Normalverteilung gegenüber dem Einzelwert eine verbesserte Aussage durch Bildung des empirischen Mittelwertes :[2]

Jeder neu hinzukommende Wert verändert mit seinem individuellen zufälligen Fehler den Mittelwert und macht ihn somit unsicher. Die Unsicherheit , die dem berechneten Mittelwert anhaftet, ist gegeben:[2]

Anschaulich sind hier näherungsweise die quadrierten zufälligen Fehler addiert worden. Für große strebt die Unsicherheit gegen null, und bei Abwesenheit systematischer Fehler strebt der Mittelwert gegen den richtigen Wert.

Wird in einer Rechnung zur Fehlerfortpflanzung als Eingangsgröße der Mittelwert verwendet, so wirkt sich dessen Unsicherheit auf die Unsicherheit des Ergebnisses aus. Bei genügend kleinem kann dieser Wert für die Fehlerfortpflanzung als in die lineare Näherung der Taylorreihe eingesetzt werden. Dabei ist zu beachten, dass Unsicherheiten als Beträge definiert sind:[2]

Mehrere fehlerbehaftete Größen

[Bearbeiten | Quelltext bearbeiten]
Voneinander unabhängige fehlerbehaftete Größen
[Bearbeiten | Quelltext bearbeiten]

Bei mehreren voneinander unabhängigen Eingangsgrößen seien die Mittelwerte jeweils mit einer Unsicherheit bestimmt worden. Das Ergebnis wird aus den Mittelwerten berechnet. Zur Berechnung seiner Unsicherheit wird wieder mit der linearen Näherung bei mehreren unabhängigen Variablen begonnen; allerdings müssen – wie bei der Berechnung der Unsicherheit – die quadrierten Beiträge der Einzel-Unsicherheiten addiert werden.[2]

Diese Gleichung „wurde früher Gaußsches Fehlerfortpflanzungsgesetz genannt“.[2][3] „Sie betrifft jedoch nicht die Fortpflanzung von Messabweichungen (früher „Fehler“), sondern die von Unsicherheiten.“

Die Gleichung vereinfacht sich für die vier Grundrechenarten:

* Bei Addition und Subtraktion
* Bei Multiplikation und Division  

Das Gesetz ist nur anwendbar, wenn sich die Modellfunktion bei Änderungen der Einflussgrößen im Bereich ihrer Standardunsicherheiten hinreichend linear verhält. Ist dies nicht der Fall, ist das Rechenverfahren erheblich aufwändiger. Die Norm DIN 1319[3] und der „Leitfaden zur Angabe der Unsicherheit beim Messen“ geben Hinweise, wie eine unzulässige Nichtlinearität zu erkennen und zu umgehen ist. Außerdem ist Varianzhomogenität vorausgesetzt.

Voneinander abhängige fehlerbehaftete Größen
[Bearbeiten | Quelltext bearbeiten]

Bei einer Abhängigkeit (Korrelation) zwischen fehlerbehafteten Größen muss das Gauß’sche Fehlerfortpflanzungsgesetz unter Einbeziehung der Kovarianzen oder der Korrelationskoeffizienten zwischen jeweils zwei Größen zum verallgemeinerten (generalisierten) Gauß’schen Fehlerfortpflanzungsgesetz erweitert werden:[2]

mit der Kovarianz . Für unabhängige Größen fallen die Korrelationsterme weg und es ergibt sich die Formel aus dem Abschnitt für unabhängige Größen. Die relative Unsicherheit einer Größe, die sich aus zwei vollkommen korrelierten Größen ableitet, kann dabei kleiner (besser) werden als die beiden relativen Unsicherheiten der Eingangsgrößen.

Die Fehlerfortpflanzung für ein Ergebnis und den korrelierten Messfehlern, lässt sich auch folgendermaßen formulieren:

mit als Kovarianzmatrix.

Generalisiertes Fehlerfortpflanzungsgesetz

[Bearbeiten | Quelltext bearbeiten]

Mit Hilfe des Matrixformalismus kann das allgemeine Fehlerfortpflanzungsgesetz kompakt ausgedrückt werden als:[4]

wobei und die jeweiligen Kovarianzmatrizen der Vektoren und sind und die Jacobi-Matrix . Dabei handelt es sich hier nicht nur um ein Ergebnis wie im oben genannten Beispiel, sondern um einen Vektor mit vielen Ergebnissen, die aus den Eingangsgrößen abgeleitet werden. Die Standardabweichung für jedes ergibt sich nun aus den Wurzeln der Diagonalelemente .

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b c d e f DIN 1319-1
  2. a b c d e f g DIN 1319-3
  3. a b DIN 1319-4
  4. Roger J. Barlow: A Guide to the Use of Statistical Methods in the Physical Sciences Wiley, Chichester 1989, ISBN 0-471-92295-1, S. 60.
  5. JCGM Publications: Guides in Metrology. BIPM, abgerufen am 6. Oktober 2024 (amerikanisches Englisch).