Der „wahre Wert“ - Fallstricke bei der Beurteilung analytischer Daten

Die Forderung nach Richtigkeit von Analysenergebnissen ist von fundamentaler Bedeutung für die Analytik sowie für die Relevanz der aus ihr abgeleiteten Interpretationen und Gutachten. Doch für den Analytiker – auch wenn dieser von der Effizienz und Wahrhaftigkeit seiner Methode überzeugt ist – bleibt der Wert, den er aus der Analyse erhält, nur eine Annäherung mit einer gewissen hinreichenden Wahrscheinlichkeit an einen ideellen, abstrakten Wert – den „WAHREN WERT“.

„Wahrer Wert“ versus „richtiger Wert“?

Der „wahre Wert“ ist ein ideeller, nicht messbarer Wert, der zum Beispiel den tatsächlichen Gehalt oder die Konzentration eines Stoffes A in einem Lebensmittel B darstellt. Der Analytiker kann jedoch immer nur einen Bereich angeben, in dem sich der „wahre Wert“ mit großer Wahrscheinlichkeit befindet, der sogenannte Vertrauensbereich. Der „richtige Wert“ ist demzufolge der Analysenwert, der dem „wahren Wert“ mit hoher Wahrscheinlichkeit am nächsten kommt. Die Diskrepanz zwischen beiden Werten ergibt sich dadurch, dass es eine ganze Reihe von Fehlern gibt, die zu Ergebnisabweichungen führen.


Welche Fehler können den „wahren“ Wert verfälschen?

Bei analytischen Bestimmungen können zufällige, systematische und grobe Fehler auftreten.

Grobe Fehler entstehen ausschließlich durch fehlerhaftes Verhalten des Analytikers, wie z. B. grobe Ablesefehler, falsche Berechnungen oder der Einsatz von falschen Reagenzien. Dieser Fehlertypus ist z. B. durch Mehrfachbestimmung oder Plausibilitätskontrolle der Ergebnisse relativ einfach zu entdecken und zu vermeiden.

Zufällige Fehler sind, im Gegensatz zu groben Fehlern, vom Analytiker nicht zu vermeiden. Jedoch ergeben sich gleich viele positive, wie negative Abweichungen vom „wahren Wert“. Beispiele hierfür sind Schwankungen der äußeren Laborbedingungen wie Druck und Temperatur, eine ungenaue Messwertablesung oder eine ungenaue Dosierung der Versuchsreagenzien. Zufällige Fehler beeinflussen die Präzision einer Messung.

Systematische Fehler sind die gefährlichsten Fehler, da sie einseitige Abweichungen (zu große oder zu kleine Werte) vom „wahren Wert“ erzeugen. Sie entstehen wenn z. B. eine Messapparatur falsch geeicht ist, die Proben verunreinigt sind oder Lebensmittelbegleitsubstanzen, wie Proteine und Fette den Reaktionsverlauf stören. Sie äußern sich häufig in einer konstanten oder auch proportionalen Verschiebung der Messwerte. Sie verfälschen den Analysenwert somit einseitig und mitteln sich nicht statistisch heraus, wie dies beispielsweise bei den zufälligen Fehlern der Fall ist. Da sie die „Richtigkeit“ von Analysenergebnissen negativ beeinflussen, ist es eine Hauptaufgabe der Analytik, diese Fehlerquellen zu identifizieren und zu beseitigen.

Besonders anschaulich lassen sich Richtigkeit und Präzision analytischer Messungen anhand eines Dart-Spiels demonstrieren. Hat der Spieler (bzw. Analytiker) eine hohe Richtigkeit seiner Messungen erreicht, so trifft er im Mittel ins Schwarze (Abbildung links). Allerdings hilft ihm das wenig, wenn durch einen zufälligen Fehler, die Präzision seiner Würfe (bzw. Methode) schlecht ist (Abbildung Mitte). Umgekehrt kann ein Spieler mit einer ruhigen Hand eine sehr gute Präzision erzielen und trotzdem – bedingt durch einen zufälligen Fehler – permanent neben das Zentrum der Scheibe treffen (Abbildung rechts).

Abbildung links: Hohe Richtigkeit bei hoher Präzision (Optimal); Mitte: Hohe Richtigkeit bei niedriger Präzision; Rechts: Niedrige Richtigkeit bei hoher Präzision [Quelle: www.statistics4u.info]


Nur unter der Vermeidung sämtlicher systematischer und zufälliger Fehler – in der Laborpraxis unmöglich – würden bei unendlich vielen Stichproben „wahrer“ und „richtiger“ Wert identisch werden.

Fasst man den Begriff des „wahren Wertes“ etwas weiter, kommt man in einen Bereich, in dem der Analytiker nicht nur die Aufgabe hat, „richtige“ Ergebnisse zu ermitteln, sondern auch deren Relevanz abzuschätzen und in seinem Gutachten in verständlicher Form für den Nicht-Analytiker zu erläutern. Für dieses fast schon philosophische Problem der wissenschaftlichen Analytik ergibt sich prinzipiell nur die Lösung, dass der Wissenschaftler sich im Klaren darüber sein muss, dass er nichts wirklich wissen kann, sondern dass seine Ergebnisse – möge die analytische Methode noch so genau und präzise sei – immer nur ein möglichst nahe an der Wahrheit liegendes Abbild sind.

Eine in der Praxis üblicherweise angewandte Möglichkeit, die „Richtigkeit“ analytischer Daten zu verbessern ist die Standardisierung von Vorgehensweisen und Analysenmethoden im Labor im Rahmen eines Qualitätsmanagement-Systems (z. B. Teilnahme an Laborvergleichsuntersuchungen, regelmäßiges Mitführen von Referenzproben, Verwendung standardisierter Referenzmaterialien) Im LCI bedient man sich hierzu den „Allgemeinen Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien“ der DIN EN ISO 17025, nach deren Vorgabe beide Institute akkreditiert sind.

SÜSSWAREN (2010) Heft 5

Download