q&more
Meine Merkliste
my.chemie.de  
Login  
DIN/ISO-konforme Kalibrierung

„Eine Norm ist ein im Konsens erstelltes Dokument, das Regeln, Richtlinien oder charakteristische Eigenschaften für Aktivitäten oder deren Ergebnisse zur Verfügung stellt.“
(ISO/IEC Guide 2:2004)

Heutzutage ist die analytische Chemie in ein stark reguliertes Umfeld ein­gebunden und es muss daher gewährleistet sein, dass Methoden eingesetzt werden, die verifizierbar und offiziell autorisiert sind. Wie lässt sich das auf reproduzierbare und eindeutige Weise erreichen? Hier soll diese Frage im Hinblick auf die Erstellung und Interpretation von Kalibrierungen in der ­instrumentellen Analytik erörtert werden.

Abb. 1 Nachweis von Fe (III) mit Thiocyanat auf einer Tüpfelplatte (Computersimulation)

Für einen einfachen Einstieg in die Problemstellung lassen wir uns in die Anfangstage unserer analytischen Ausbildung zurückversetzen. Unsere ersten analytischen Experimente waren qualitativer Art, d.h. wir versuchten, Analyten durch Nutzung von Reaktionen nachzuweisen, die z. B. spezifische Farben hervorrufen. Nehmen wir einmal an, ein Student habe die Aufgabe, Fe(III) in Wasser mit Thiocyanat nachzuweisen. Dazu gibt er auf einer Tüpfelplatte einen Tropfen einer 1-molaren NH4SCN-Lösung zu einem Tropfen einer schwach HCl-sauren Fe3+-Lösung. Das Entstehen einer roten Farbe durch die Bildung von Fe(SCN)3 zeigt das Vorliegen von Fe(III) an, was einem „positiven“ Testergebnis entspricht. Aber Studenten neigen dazu, auch dann ein positives Testergebnis anzugeben, wenn die Farbe nur schwach Orange und überhaupt kein Eisen vorhanden ist. In einem solchen Fall ist das Testergebnis „falsch positiv“. Die linke Seite von Abbildung 1 zeigt die Testergebnisse für 100 Blindproben, die kein Eisen enthalten. Einer der Tests wird von unserem Studenten irrtümlicherweise als positiv beurteilt, d.h., die Falsch-Positiv-Rate ist α=0,01. Die Spezifizität [1] dieser Nachweismethode ist dann 1-α=0,99, d. h. 99 % der Ergebnisse sind „richtig negativ“. Auch die rechte Seitevon Abbildung 1 zeigt wiederum 100 Testergebnisse. Aber dieses Mal enthält ein Tropfen der Probe jeweils 0,25 µg Fe(III), was der Erfassungsgrenze (EG) entspricht [2]. Durch Beurteilung der Farbe entscheidet der Student 95-mal richtig, dass Eisen in der Probe vorliegt („richtig positive“ Testergebnisse) und 5-mal falsch, dass die Probe kein Eisen enthält („falsch negative“ Testergebnisse). Damit ist die Falsch-Negativ-Rate an der Erfassungsgrenze βEG=0,05 und die „Empfindlichkeit“ [1] der Nachweismethode ist 1-βEG=0,95; d.h., in 95 % der Fälle weist unser Student diese geringe Menge Eisen in der Probe erfolgreich nach.

Leistungsmerkmale im Fokus

Erfassungsgrenze

Abb. 2 Kalibration mit einer linearen Funktion (simuliertes Beispiel [4]). x = Konzentration; y = Signal; Schwarze Punkte: Kalibrierstandards; Schwarze Linie: Kalibriergerade; Rote Kurve: einseitiges Vorhersageband (α=0,05); Grüne Kurve: Zusätzliches Sicherheitsintervall um eine Empfindlichkeit von (1-βEG) = 95 % sicherzustellen; yk = kritischer Signalwert; xk = kritischer Konzentrationswert („Nachweisgrenze“ gemäß DIN 32645); xEG = „Erfassungsgrenze” gemäß DIN 32645

Das visuelle Überprüfen der Farbintensität stellt ein recht elementares Vorgehen dar. Um die Reproduzierbarkeit zu erhöhen, könnten wir das durch eine fotometrische Kalibrierung ersetzen [3]. Aber selbst dann bezieht sich die als erste zu stellende Frage auf die qualitative Analyse: „Wie ausgeprägt ist die Fähigkeit der Analysenmethode, einen bestimmten Analyten zu erkennen?“ Dies kann eindeutig durch Ermittlung der minimal erfassbaren Konzentration, d.h. der „Erfassungsgrenze“ für eine vorgegebene Spezifizität und Empfindlichkeit, beantwortet werden. Die Berechnung der EG aus einer Kalibrierung wird in DIN ISO 11843-2:2006 („Erkennungsfähigkeit – Teil 2: Verfahren im Fall der linearen Kalibrierung“) und DIN 32645:2008 („Nachweis-, Erfassungs- und Bestimmungsgrenze unter Wiederholbedingungen – Begriffe,Verfahren, Auswertung“) beschrieben. Abbildung 2 zeigt ein simuliertes Kalibrierungsbeispiel mit 51 Kalibrierstandards [4], wobei x die Konzentration und y den Signalwert bezeichnet. Die Regressionsgerade kann mit gängiger statistischer Software erstellt werden und die mathematischen Details der entsprechenden Berechnungen werden z.B. in ISO/TS 28037:2010 („Determination and use of straight-line calibration functions“) und DIN ISO 11095:2008 („Lineare Kalibrierung unter Verwendung von Referenzmaterialien“) ausführlich beschrieben. Die rote Kurve in Abbildung 2 ist die obere Grenze der einseitigen Vorhersageintervalle für α=0,05. Der Schnittpunkt dieser Kurve mit x=0 bestimmt den kritischen y-Wert und den zugehörigen kritischen Wert für x. Letzterer wird in DIN 32645 als „Nachweisgrenze“ bezeichnet. Dies ist etwas problematisch, denn die wörtliche englische Übersetzung hiervon lautet „Detection Limit“, womit aber in der englischen Literatur i. allg. die Erfassungsgrenze gemeint ist. Die kritischen Werte werden als Entscheidungsgrenzen benutzt, um eine Aussage darüber zu treffen, ob der Analyt als „nachgewiesen“ oder „nicht nachgewiesen“ gilt. Entscheidungsgrenzen werden a posteriori angewendet, d.h. dann und nur dann, wenn sie vom Messergebnis der Probe überschritten werden, geht man davon aus, dass der Analyt in der Probe vorhanden ist (positives Testergebnis). Die grüne Kurve verkörpert ein zusätzliches Sicherheitsintervall, das dem für βEG vorgegebenen Wert Rechnung trägt. Dieses Intervall muss dem kritischen y-Wert hinzugefügt werden und der entsprechende x-Wert ist die Erfassungsgrenze. Die EG ist ein Leistungsmerkmal der Kalibrierung, d.h. eine a priori-Information, die dem Anwender von vornherein offenlegt, welches die geringste Konzentration ist, die man mit dem Nachweisverfahren langfristig noch nachweisen kann. Daher wird diese Größe in DIN ISO 11843-1:2004 („Erkennungsfähigkeit – ­Begriffe“) etwas treffender „Erfassungsvermögen“ genannt.

Bestimmungsgrenze

Abb. 3 Bestimmungsgrenze (BG) für die Kalibrierung von Abb. 2. Rote Kurven: zweiseitiges Vorhersageband (α = 0,05); x/∆x = Kehrwert der relativen Ergebnisunsicherheit der vorhergesagten x-Werte; ∆x ist gleich der halben Breite des Vorhersagebands in x-Richtung; An der Bestimmungsgrenze gilt x/∆x = k; Gemäß DIN 32645 wurde k = 3 gewählt; xBG = Bestimmungsgrenze

Nachdem die Frage der Erkennungsfähigkeit eines Analysenverfahrens bezüglich eines qualitativen Nachweises geklärt ist, stellt sich unmittelbar die nächste Frage: „Inwieweit kann die bestehende Kalibrierung für eine quantitative Analyse genutzt werden?“ DIN 38402-51:1986 („Auswertung von Analysenergebnissen und lineare Kalibrierfunktionen für die Bestimmung von Verfahrenskenngrößen“) beschreibt, wie man die „Verfahrensstandardabweichung“ mithilfe der sich aus der Regressionsrechnung ergebenden Reststandard­abweichung berechnet. Diese DIN war Vorlage für ISO 8466-1:1990 („Calibration and evaluation of analytical methods and estimation of performance characteristics – Part 1: Statistical evaluation of the linear calibration function”). Die Fähigkeit, einen bestimmten Analyten quantitativ zu bestimmen, kann darüber hinaus durch dessen geringste noch quantifizierbare Konzentration, die sog. „Bestimmungsgrenze“ (BG), charakterisiert werden. Diese hängt von dem höchstzulässigen Wert 1/k für die relative Ergebnisunsicherheit bezüglich der Voraussage der Konzentration x des Analyten aus der Kalibrierung ab. DIN 32645 schlägt k=3 vor, was z.B. im Bereich der Spurenanalytik meist ausreichend ist. In Fällen, in denen eine höhere Präzision erforderlich ist, sollte ein größeres k gewählt werden. Die relative Ergebnisunsicherheit ist durch ∆x/x gegeben, wobei ∆x gleich der Hälfte des zweiseitigen Vorhersageintervalls in x-Richtung ist. Abbildung 3 enthält das entsprechende Vorhersageband und zeigt, wie die Bestimmungsgrenze für k=3 aus der Kalibrierung ermittelt werden kann. Es sollte allerdings beachtet werden, dass Erfassungs- und Bestimmungs­grenzen alternativ auch aus der Standardabweichung von Blindproben abgeleitet werden können (z.B. IUPAC [5]).

An dieser Stelle soll darauf hingewiesen werden, dass der Begriff „Empfindlichkeit“ zwei unterschiedliche Bedeutungen hat. Die erste ist die schon besprochene Empfindlichkeit (1-βEG) eines Analysenverfahrens im Hinblick auf eine qualitative Analyse. Die zweite Bedeutung definiert Empfindlichkeit als Steigung der Kalibrier­funktion. Wenn es sich bei Letztgenannter um eine Gerade handelt, dann ist diese Empfindlichkeit für alle Konzentrationen konstant. Es gibt jedoch Fälle, in denen nichtlineare Kalibrierfunktionen angewendet werden müssen. DIN ISO 8466-2:2004 („Kalibrierstrategie für nichtlineare Kalibrierfunktionen zweiten Grades“) gibt eine Regressions­lösung für ein Polynom zweiten Grades an. Die Frage der Erfassungsgrenze in solchen nicht­linearen Fällen wird allgemein in DIN ISO 11843-5:2010 („Erkennungsfähigkeit – Teil 5: Verfahren in den Fällen der linearen und der nichtlinearen Kalibrierung“) erörtert.

Abb. 4 Kalibrierkurve für die IMS-Analyse von Lindan in wässriger Lösung [6]. Rote Kurven: zweiseitiges Vorhersageintervall (α = 0,05, Dreifachbestimmung); xBG = untere Bestimmungs­grenze für k=3; x’BG = obere Bestimmungsgrenze für k=3; Im Bereich xBG < c < x’BG ist die relative Ergebnisunsicherheit kleiner als 1/3.

Kürzlich haben wir nichtlineare Kalibrierfunktionen auf die Spurenanalyse von wässrigen Proben mit Hilfe der Ionenmobilitätsspektrometrie (IMS) angewendet. In der entsprechenden Veröffentlichung [6] wird die Kalibrierstrategie für die Anwendung einer quadratischen Kalibrierfunktion explizit beschrieben. Abbildung 4 zeigt die Kalibrierkurve für Lindan. Die Steigung, d.h. die Empfindlichkeit nimmt mit steigender Konzentration ab, und das bedeutet gleichzeitig eine Zunahme der relativen Ergebnisunsicherheit. Daher existiert bei einer solchen konkaven Kalibrierkurve nicht nur eine untere, sondern auch eine obere Bestimmungsgrenze, was durch die senkrechten roten Linien in Abbildung 4 angezeigt wird. Nur im Bereich zwischen diesen beiden Linien ist die relative Ergebnisunsicherheit geringer als 1/3.



Fazit

Zusammenfassend ist festzuhalten, dass heutzutage keine analytische Kalibrierung erstellt werden sollte, ohne deren Leistungsmerkmale anzugeben. Neben der Verfahrensstandardabweichung sind dies bei vorgegebenen Werten für α, βEG und k die Erfassungs- und Bestimmungsgrenze. Wie kann man diese Parameter berechnen? Zum Teil ist hierfür kommerzielle Software verfügbar. Wir ziehen es jedoch vor, unsere eigene Software zu benutzen. Diese ist in R geschrieben, einer freien Programmiersprache und Umgebung für statistische Berechnungen und Grafik [7]. Unsere R-Programme sind auf dem BSCW (Basic Support for Communicative Work) Server der Universität Duisburg-Essen frei zugänglich [8]. Ferner sind einige R-Programmbibliotheken zu diesem Thema von anderen Autoren verfügbar [9,10]. Um korrekte Ergebnisse sicherzustellen, sollten Computerprogramme immer mit numerischen Beispielen validiert werden, die in den entsprechenden DIN/ISO-Normen aufgeführt sind.

Literatur:
[1] D.L. Massart et al., Chemometrics: a text book, Chapter 26 (“Decision Making”),
Section 5 (“The diagnostic value of a test”), Elsevier, Amsterdam 1988.
[2] G. Jander und E.Blasius, Lehrbuch der analytischen und präparativen anorganischen Chemie, S. Hirzel Verlag Stuttgart, 1988.
[3] Achar B, Bellappa S. A Modified Sensitive Micro Spectrophotometric Determination
Of Iron(III) by Thiocyanate Method. Indian J Pharm Sci [serial online] 2005 [cited 2012 Jul 21 ];67:119-122
Available from: http://www.ijpsonline.com/article.asp?issn=0250-474X;year=2005;
volume=67;issue=1;spage=119;epage=122;aulast=Achar;type=0.
[4] U. Telgheder and K. Molt, „Kalibrierung ‘All inclusive’ gemäß DIN 32645“,
GIT Laborfachzeitschrift 2010(4), 292 (2010).
[5] Lloyd A. Currie, “Nomenclature in evaluation of analytical methods including
detection and quantification capabilities”, Pure & Appl. Chem., Vol. 67, No. 10, pp. 1699 – 1723, 1995.
[6] C. Zscheppank, U. Telgheder and K. Molt. “Stir-bar sorptive extraction and TDS-IMS for the detection of pesticides in aqueous samples”; International Journal for Ion
Mobility Spectrometry, Vol. 15, Issue 4, 257 – 264 (2012).
[7] R Development Core Team (2012). R: A language and environment for
statistical computing. R Foundation for Statistical Computing, Vienna, Austria.
ISBN 3-900051-07-0, URL http://www.R-project.org/
[8] Kalibrierung. Universität Duisburg-Essen, Essen, Germany (2012).
URL https://bscw.uni-due.de/pub/bscw.cgi/12944089
[9] Lukasz Komsta (2007). quantchem: Quantitative chemical analysis: calibration
and evaluation of results. R package version 0.12-1.
[10] Johannes Ranke (2011). chemCal: Calibration functions for analytical chemistry.
R package version 0.1-27.

Erstveröffentlichung: Molt, K., Telgheder, U., q&more, 1.2013.

Fakten, Hintergründe, Dossiers

  • Reproduzierbarkeit
  • DIN ISO 11843-2:2006
  • DIN 32645:2008
  • DIN ISO 8466-2:2004
  • DIN ISO 11843-5:2010

Mehr über Uni Duisburg-Essen

  • News

    Mit Nano-Lenkraketen Keime töten

    Wo Antibiotika versagen, könnten künftig Nano-Lenkraketen helfen, multiresistente Erreger (MRE) zu bekämpfen: Dieser Idee gehen derzeit Wissenschaftler der Universität Duisburg-Essen (UDE) und der Medizinischen Hochschule Hannover nach. Zusammen mit einem führenden US-Experten tüfteln sie a ... mehr

    Nano-Ampel zeigt Risiko an

    Nanomaterialien sind wahre Alleskönner. Kein Wunder, dass man sie fast überall trifft – auch in Kosmetika, Textilien oder Haushaltswaren. Sind sie auch sicher für Mensch und Natur? Keine leichte Frage angesichts der vielfältigen Anwendungen und Materialien. Der Prüfaufwand reduziert sich er ... mehr

    Nano-Container auf Proteinfang

    Winzige Nano-Container aus DNA-Material zu konstruieren, die passgenau jeweils ein ganz bestimmtes Protein binden können - dies gelang jetzt der Nachwuchswissenschaftlerin Dr. Barbara Sacca von der Universität Duisburg-Essen (UDE). „Dies gibt unserer Arbeit einen richtigen Schub“, freut sic ... mehr

  • Autoren

    Dr. Ursula Telgheder

    Ursula Telgheder ist Privatdozentin für instrumentelle analytische Chemie an der Universität Duisburg-Essen. Sie lehrt im dortigen Studiengang „Water Science“ und ist Leiterin einer Forschungsgruppe, die sich schwerpunktmäßig mit der Entwicklung von Kopplungssystemen für die Anwendung der I ... mehr

    Prof. Dr. Karl Molt

    Karl Molt ist Professor für instrumentelle Analytik an der Universität Duisburg-Essen. Seine Forschungsschwerpunkte liegen auf dem Gebiet der Chemometrie und des Einsatzes der Molekülspektrometrie in der Prozessanalytik. Er ist Mitglied von Chemometrie-Arbeitskreisen in der Fachgruppe Analy ... mehr

Whitepaper

Produkt

Meistgelesen

  1. Koffein-Kick
  2. Die US-Pharmakopöe auf der Waagschale
  3. Naturkonstanten als Hauptdarsteller
  4. Überraschend einfache Moleküle als potenzielle OLED-Emitter?
  5. Die Messung der Avogadro-Konstante
  6. HPLC mit unspezifischer Detektion in der pharmazeutischen Qualitätskontrolle
  7. Wirkstoffe im Arzneimitteldossier
  8. Wechselwirkungen
  9. Mehr als „Laborbuch schreiben“
  10. Molekülgenaue ­Detektivarbeit

Themen A-Z

Alle Themen

q&more – die Networking-Plattform für exzellente Qualität in Labor und Prozess

q&more verfolgt den Anspruch, aktuelle Forschung und innovative Lösungen sichtbar zu machen und den Wissensaustausch zu unterstützen. Im Fokus des breiten Themenspektrums stehen höchste Qualitätsansprüche in einem hochinnovativen Branchenumfeld. Als moderne Wissensplattform bietet q&more den Akteuren im Markt einzigartige Networking-Möglichkeiten. International renommierte Autoren repräsentieren den aktuellen Wissenstand. Die Originalbeiträge werden attraktiv in einem anspruchsvollen Umfeld präsentiert und deutsch und englisch publiziert. Die Inhalte zeigen neue Konzepte und unkonventionelle Lösungsansätze auf.

> mehr zu q&more

q&more wird unterstützt von:

 

Ihr Bowser ist nicht aktuell. Microsoft Internet Explorer 6.0 unterstützt einige Funktionen auf Chemie.DE nicht.