Home

Genauigkeitsklasse

Genauigkeitsklasse bezeichnet in der Messtechnik eine Kennzeichnung, die angibt, welche maximale Abweichung oder welchen Unsicherheitsbereich ein Messgerät innerhalb seines vorgesehenen Einsatzbereichs voraussichtlich einhält. Sie dient der Beurteilung der Leistungsfähigkeit eines Instruments und der Orientierung bei Beschaffung, Kalibrierung und Qualitätssicherung.

Die genaue Ausprägung einer Genauigkeitsklasse wird von Normen oder Herstellerangaben festgelegt. Typisch handelt es sich um

Anwendungsbereiche umfassen mechanische Messwerkzeuge wie Messschieber, Innen- und Außenmessgeräte, elektronische Messgeräte, Waagen, Sensoren und Messsysteme in

Die Festlegung einer Genauigkeitsklasse erfolgt durch Kalibrierung, Werksangaben oder Tests nach anerkannten Verfahren. Die Ergebnisse werden

Terminologisch wird der Begriff oft synonym zu Messgenauigkeit oder Messunsicherheit verwendet, jedoch beschreibt Genauigkeitsklasse eher eine

Toleranzen
oder
Unsicherheitsangaben,
die
sich
je
nach
Messbereich,
Umgebungstemperatur,
Alter
des
Geräts
und
anderen
Einflussgrößen
unterscheiden.
Oft
wird
sie
als
feste
Abweichung
(zum
Beispiel
in
Millimetern
oder
Prozent
des
Messwerts)
oder
als
Prozentsatz
angegeben.
Die
konkreten
Werte
sind
devicespezifisch
und
standardabhängig
(DIN,
ISO,
EN,
JIS,
etc.).
der
Fertigung.
Die
Klassifizierung
unterstützt
Konstrukteure
und
Prüfer
bei
der
Auswahl
geeigneter
Instrumente
für
geforderte
Genauigkeit
und
bei
der
Interpretation
von
Messergebnissen.
in
Kalibrierzertifikaten
dokumentiert,
die
die
Nachvollziehbarkeit
(Traceability)
zur
internationalen
Normordnung
sicherstellen.
Prinzipiell
gilt:
Eine
höhere
Genauigkeitsklasse
verlangt
strengere
Messunsicherheiten
und
oft
höheren
Aufwand
bei
Herstellung
und
Prüfung.
Qualitätsstufe
als
eine
konkrete
Messunsicherheit
allein.
Beim
Einkauf
oder
der
Qualitätskontrolle
dient
sie
dazu,
Geräte
nach
ihrem
Eignungsprofil
zu
sortieren
und
Anforderungen
an
Herstellungs-
oder
Prüfprozesse
zu
erfüllen.