Was ist der Unterschied zwischen Genauigkeit und Präzision?

Genauigkeit und Präzision sind zwei wichtige Faktoren, die bei der Datenmessung berücksichtigt werden müssen. Sowohl die Genauigkeit als auch die Präzision geben an, wie nahe eine Messung an einem tatsächlichen Wert liegt. Die Genauigkeit gibt jedoch an, wie nahe eine Messung an einem bekannten oder akzeptierten Wert liegt, während die Präzision angibt, wie reproduzierbar die Messungen sind, auch wenn sie weit vom akzeptierten Wert entfernt sind.

Wichtige Erkenntnisse: Genauigkeit versus Präzision

  • Genauigkeit ist, wie nah ein Wert an seinem wahren Wert ist. Ein Beispiel ist, wie nah ein Pfeil an die Mitte des Bullauge kommt.
  • Präzision ist, wie wiederholbar eine Messung ist. Ein Beispiel ist die Nähe eines zweiten Pfeils zum ersten Pfeil (unabhängig davon, ob sich einer der beiden Pfeile in der Nähe der Markierung befindet)..
  • Der prozentuale Fehler wird verwendet, um zu beurteilen, ob eine Messung ausreichend genau und genau ist.

Sie können an Genauigkeit und Präzision denken, wenn Sie ins Schwarze treffen. Wenn Sie das Ziel genau treffen, befinden Sie sich nahe der Mitte des Ziels, auch wenn sich alle Markierungen auf verschiedenen Seiten der Mitte befinden. Wenn Sie genau auf ein Ziel treffen, sind alle Treffer eng beieinander, auch wenn sie sehr weit von der Mitte des Ziels entfernt sind. Präzise und genaue Messungen sind wiederholbar und sehr nahe an den tatsächlichen Werten.

Richtigkeit

Es gibt zwei gebräuchliche Definitionen von Richtigkeit. In Mathematik, Naturwissenschaften und Ingenieurwissenschaften bezieht sich Genauigkeit darauf, wie nahe eine Messung am wahren Wert liegt.

Die ISO (Internationale Organisation für Normung) wendet eine strengere Definition an, wobei sich Genauigkeit auf eine Messung bezieht, die sowohl echte als auch konsistente Ergebnisse liefert. Die ISO-Definition bedeutet, dass eine genaue Messung keinen systematischen Fehler und keinen zufälligen Fehler aufweist. Grundsätzlich rät die ISO dazu genau wird verwendet, wenn eine Messung sowohl genau als auch präzise ist.

Präzision

Präzision So konsistent sind die Ergebnisse, wenn Messungen wiederholt werden. Genaue Werte unterscheiden sich aufgrund von Zufallsfehlern, die eine Form von Beobachtungsfehlern darstellen. 

Beispiele

Sie können sich Genauigkeit und Präzision in Bezug auf einen Basketballspieler vorstellen. Wenn der Spieler immer einen Korb baut, obwohl er verschiedene Teile der Felge berührt, hat er ein hohes Maß an Genauigkeit. Wenn er nicht viele Körbe macht, sondern immer den gleichen Teil der Felge trifft, hat er ein hohes Maß an Präzision. Ein Spieler, dessen Freiwürfe den Korb immer genau gleich machen, hat ein hohes Maß an Genauigkeit und Präzision.

Nehmen Sie experimentelle Messungen vor, um ein weiteres Beispiel für Präzision und Genauigkeit zu erhalten. Wenn Sie die Masse einer 50,0-Gramm-Standardprobe messen und Werte von 47,5, 47,6, 47,5 und 47,7 Gramm erhalten, ist Ihre Skala genau, aber nicht sehr genau. Wenn Ihre Waage Werte von 49,8, 50,5, 51,0 und 49,6 angibt, ist sie genauer als die erste Waage, jedoch nicht so genau. Die präzisere Skala ist im Labor besser zu verwenden, sofern Sie eine Korrektur für den Fehler vorgenommen haben.

Gedächtnisstütze zum Erinnern an den Unterschied

Ein einfacher Weg, sich an den Unterschied zwischen Genauigkeit und Präzision zu erinnern, ist:

  • EINCKurat ist Correct (oder Cgegen den wahren Wert verlieren)
  • PRecise ist Repeating (oder Repeatable)

Genauigkeit, Präzision und Kalibrierung

Denken Sie, dass es besser ist, ein Instrument zu verwenden, das genaue Messungen aufzeichnet, oder eines, das genaue Messungen aufzeichnet? Wenn Sie sich dreimal auf einer Waage wiegen und die Zahl jedes Mal anders ist, sich jedoch Ihrem tatsächlichen Gewicht annähert, ist die Waage genau. Es könnte jedoch besser sein, eine Skala zu verwenden, die genau ist, auch wenn sie nicht genau ist. In diesem Fall würden alle Messungen sehr nahe beieinander liegen und vom wahren Wert um ungefähr den gleichen Betrag "abweichen". Dies ist ein häufiges Problem bei Waagen, die häufig eine "Tara" -Taste haben, um sie auf Null zu setzen.

Während Waagen es Ihnen möglicherweise ermöglichen, zu tarieren oder eine Einstellung vorzunehmen, um sowohl genaue als auch präzise Messungen durchzuführen, müssen viele Instrumente kalibriert werden. Ein gutes Beispiel ist ein Thermometer. Thermometer lesen häufig innerhalb eines bestimmten Bereichs zuverlässiger und geben zunehmend ungenaue (aber nicht unbedingt ungenaue) Werte außerhalb dieses Bereichs an. Um ein Instrument zu kalibrieren, notieren Sie, wie weit seine Messungen von bekannten oder wahren Werten entfernt sind. Führen Sie ein Protokoll der Kalibrierung, um korrekte Messwerte zu gewährleisten. Viele Geräte müssen regelmäßig kalibriert werden, um genaue und genaue Messwerte zu gewährleisten.

Erfahren Sie mehr

Genauigkeit und Präzision sind nur zwei wichtige Konzepte für wissenschaftliche Messungen. Zwei weitere wichtige Fähigkeiten, die man beherrschen muss, sind signifikante Figuren und wissenschaftliche Notation. Wissenschaftler verwenden den prozentualen Fehler als eine Methode, um zu beschreiben, wie genau und genau ein Wert ist. Es ist eine einfache und nützliche Berechnung.