Chromatogramme Richtig Integrieren Und Bewerten: Ein Praxishandbuch Fur Die HPLC Und GC (German Edition) 3527317740, 9783527317745, 9783527622238


417 21 4MB

German Pages 420 [423] Year 2008

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Chromatogramme Richtig Integrieren Und Bewerten: Ein Praxishandbuch Fur Die HPLC Und GC (German Edition)
 3527317740, 9783527317745, 9783527622238

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Chromatogramme richtig integrieren und bewerten Ein Praxishandbuch für die HPLC und GC

Herausgegeben von Stavros Kromidas und Hans-Joachim Kuss

Chromatogramme richtig integrieren und bewerten Herausgegeben von Stavros Kromidas und Hans-Joachim Kuss

Beachten Sie bitte auch weitere interessante Titel zu diesem Thema

W. Gottwald

Statistik im Labor Anwendungen in der analytischen Chemie 2., vollständig überarbeitete Auflage 2007 ISBN 978-3-527-32011-0

S. Kromidas (Hrsg.)

HPLC richtig optimiert Ein Handbuch für Praktiker 2006 ISBN 978-3-527-31470-6

V. R. Meyer

Fallstricke und Fehlerquellen der HPLC in Bildern 2006 ISBN 978-3-527-31268-9

V. R. Meyer

Praxis der Hochleistungs-Flüssigchromatographie 2004 ISBN 978-3-527-30726-5

Chromatogramme richtig integrieren und bewerten Ein Praxishandbuch für die HPLC und GC

Herausgegeben von Stavros Kromidas und Hans-Joachim Kuss

Herausgeber Dr. Stavros Kromidas Rosenstraße 16 66125 Saarbrücken Dr. Hans-Joachim Kuss Psychatrische Klinik der Ludwig-Maximilians-Universität Nussbaumstraße 7 80336 München

Alle Bücher von Wiley-VCH werden sorgfältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber und Verlag in keinem Fall, einschließlich des vorliegenden Werkes, für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie für eventuelle Druckfehler irgendeine Haftung. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar. ¤ 2008 WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim Alle Rechte, insbesondere die der Übersetzung in andere Sprachen, vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie, Mikroverfilmung oder irgendein anderes Verfahren – reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen, verwendbare Sprache übertragen oder übersetzt werden. Die Wiedergabe von Warenbezeichnungen, Handelsnamen oder sonstigen Kennzeichen in diesem Buch berechtigt nicht zu der Annahme, dass diese von jedermann frei benutzt werden dürfen. Vielmehr kann es sich auch dann um eingetragene Warenzeichen oder sonstige gesetzlich geschützte Kennzeichen handeln, wenn sie nicht eigens als solche markiert sind. Printed in the Federal Republic of Germany Gedruckt auf säurefreiem Papier Umschlaggestaltung Schulz Grafik-Design, Fußgönheim Satz Manuela Treindl, Laaber Druck betz-druck GmbH, Darmstadt Bindung Litges & Dopf GmbH, Heppenheim ISBN 978-3-527-31774-5

V

Inhaltsverzeichnis Vorwort XIII Autorenliste XV Zum Aufbau des Buches XVII

Teil I

Auswertung in der Chromatographie – die Integration

1

Das Chromatogramm 3

1.1 1.1.1 1.2 1.2.1 1.2.1.1 1.2.1.2 1.2.1.3 1.2.1.4 1.2.2 1.2.2.1 1.2.2.2 1.2.2.3 1.2.2.4 1.2.3 1.2.3.1 1.2.3.2 1.2.3.3 1.2.4 1.2.4.1

1

Daniel Stauffer Chromatographischer Prozess 3 Selektivität und Effizienz – Maß für die unterschiedliche Wanderungsgeschwindigkeit 4 Chromatographische Kenngrößen 5 Retentionsgrößen 5 Totzeit (tm; t0) 5 Bruttoretentionszeit (tms; tR) 5 Nettoretentionszeit (ts) 6 Retentionsfaktor oder Kapazitätsfaktor (k; kc) 6 Peak-Ausdehnung und Peakform 6 Basispeakbreite (wb) 6 Peakbreite in halber Höhe (wh) 7 Peakhöhe (h) 7 Peaksymmetrie, Tailingfaktor (T) 7 Auflösungsgrößen 9 Die Auflösung (R) 9 Quantitative Größe der Selektivität 10 Quantitative Größen für die Effizienz der Trennsäule 11 Bestimmung von kleinen Substanzmengen 12 Ermitteln der Nachweis-, Erfassungs-, Entscheidungs- und Bestimmungsgrenze 13

VI

Inhaltsverzeichnis

1.3 1.4 1.4.1 1.4.1.1 1.4.1.2 1.4.1.3 1.4.1.4 1.4.2 1.4.2.1 1.4.2.2 1.4.2.3 1.4.2.4 1.4.2.5 1.4.2.6 1.5 1.5.1 1.5.1.1 1.5.2 1.5.2.1 1.5.2.2 1.5.2.3 1.5.2.4 1.5.2.5

van Deemter- und Golay-Gleichung 15 Erzeugen von Chromatogrammen 18 Datenaufnahme, Erzeugen der Rohdaten 19 Bei der Datenaufnahme verwendete Parameter 22 Beispiele der unterschiedlichen Art der Datenaufnahme 24 Innere/äußere Chromatogramme 28 2-D-/3-D-Chromatogramme 28 Charakterisierung von Detektoren 30 Zerstörend/nicht zerstörend 31 Selektiv, spezifisch, universell 31 Konzentrations- und massenstromabhängige Detektoren 31 Detektorempfindlichkeit 33 Linearer und dynamischer Bereich 34 Ansprechzeit, Zeitkonstante 35 Integration 39 Integration anschaulich 39 Methoden zur Peakerkennung 41 Integration und Integrationsparameter, Beispiele 43 Datenaufnahme und -integration mit Empower 2 43 Datenaufnahme und -integration mit Chromeleon 45 Datenaufnahme und -integration mit EZChrom Elite 47 Datenaufnahme und -integration mit ChemStation 47 Vergleich der wichtigsten Integrationsparameter von vier unterschiedlichen Integrationsprogrammen 48 Anhang: Experimente zur Optimierung der Zeitkonstante/ Datensammelrate 50 Literatur 53

2

Integrationsfehler und Auswertung 55 Hans-Joachim Kuss Was sagt die Literatur über Integrationsfehler? 55 Integration in der täglichen Praxis 58 Integration – einfach und immer gleich? 58 Vergleich von Integrationssystemen mit wenigen großen Peaks 61 Vergleich von Integrationssystemen mit vielen kleinen Peaks 64 Chromatogramm-Simulation 66 Simulation eines digitalen Chromatogramms 68 Ein Peak 69 Mehrere Peaks 71 Rauschen 72 Drift 72 Gaschromatogramm 75 Verschmolzene Peaks 77 Datenpunktabstand 81 Tailing 87

2.1 2.2 2.2.1 2.2.2 2.2.3 2.3 2.3.1 2.3.2 2.3.3 2.3.4 2.3.5 2.3.6 2.3.7 2.3.8 2.3.9

Inhaltsverzeichnis

2.3.10 2.3.11 2.4 2.4.1 2.4.2 2.4.3 2.4.4 2.4.5 2.4.6 2.4.7 2.5 2.5.1 2.5.2 2.5.3 2.5.4 2.5.5 2.5.6

Peakfläche und Peakhöhe 87 Andere Kenngrößen 88 Anwendungen der Simulation 89 Simulation einer Kalibriergeraden 91 Zehnfache Simulation an der Bestimmungsgrenze 98 Simulation eines isokratischen Chromatogramms 103 Simulation eines Gradienten-Chromatogramms 107 Nebenproduktanalyse 113 Eigene Chromatogramme simulieren 123 Welche Konsequenz ist daraus zu ziehen? 127 Auswertung 128 Auswertemethoden 129 Kalibrierung 131 Lineare Regression 131 Gewichtete lineare Regression 136 Nullpunktsgerade 140 Chromatogrammserien überprüfen 140 Literatur 142

3

Allgemeine Beurteilung analytischer Daten 145

3.1 3.2 3.3 3.3.1 3.3.2 3.3.3 3.3.4 3.3.4.1 3.3.4.2 3.3.5 3.3.6 3.3.7 3.4

Joachim Ermer (Normal-)Verteilung von analytischen Daten 145 Probleme des Schließens 149 Analytische Variabilität 153 Variabilitätsbeiträge und Präzisionsebenen 153 Systempräzision 155 Wiederholpräzision 157 Vergleichspräzision 159 Varianzanalyse 160 Literaturangaben zur Vergleichspräzision 162 Konsequenzen für das Design eines Prüfverfahrens 163 Konzentrationsabhängigkeit der Präzision 165 Schlussfolgerungen 168 (Be)Merkenswertes 168 Literatur 169

4

Metrologische Aspekte der Beurteilung chromatographischer Daten 171

4.1 4.2 4.3

Ulrich Panne Einführung 171 Messunsicherheit 173 Rückführbarkeit von analytischen Messungen 186 Literatur 189

VII

VIII

Inhaltsverzeichnis

Teil II

Die Charakteristika der Auswertung in einzelnen LC-Modi

5

Auswertung von GC-Daten 193 Werner Engewald Einführung 193 Worin unterscheidet sich die GC von der HPLC? 194 Welche Konsequenzen ergeben sich aus diesen Unterschieden? 195 Anwendbarkeit der GC 195 Probeninjektion 199 Trennsäule 200 Detektor 201 Schnelle Gaschromatographie 203 Qualitative Analyse 204 Vorbemerkung 204 Fingerprint-Analyse 205 Peakreinheit 205 Vergleich von Retentionswerten 206 Relative Retentionswerte 206 Retention Time Locking (RTL) 207 GC/MS-Kopplung 208 MS als identifizierender Detektor (Scan-Modus) 209 Nutzung von Spektrenbibliotheken 210 Spektren-Deconvolution 213 MS als massenselektiver Detektor 215 Massenfragmentographie (Reconstructed oder Extracted Ion Chromatogramm) 215 SIM (Single Ion Monitoring) oder MID (Multiple Ion Recording) 216 Chemische Ionisation 217 Quantitative Analyse 218 Aufstellen einer Analysensequenz 219 Isotopenverdünnungsanalyse (IVA) oder Stabilisotopenverdünnungsanalyse (SIVA) 219 Matrixeffekte bei der Spurenanalytik 220 Headspace-GC 221 Abschätzung von Korrekturfaktoren beim FID 222 Literatur 224

5.1 5.2 5.2.1 5.2.1.1 5.2.1.2 5.2.1.3 5.2.1.4 5.2.1.5 5.3 5.3.1 5.3.1.1 5.3.1.2 5.3.2 5.3.3 5.3.4 5.4 5.4.1 5.4.2 5.4.3 5.4.4 5.4.4.1 5.4.4.2 5.4.5 5.5 5.5.1 5.6 5.7 5.8 5.9

6

6.1 6.2 6.2.1 6.3 6.4

191

Bewertung chromatographischer Daten in der Ionenchromatographie (IC) 225

Heiko Herrmann und Detlef Jensen Einleitung 225 Eluenten 226 Der Wasserdip – Lösemittelpeak der Ionenchromatographie 227 Kontaminationen 230 Kalibrierfunktionen 232 Literatur 233

Inhaltsverzeichnis

7

Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen 235

Daniela Held und Peter Kilz Einleitung 235 Grundlagen der GPC-Datenverarbeitung in der Ausschlusschromatographie 236 7.2.1 Berechnung der Molekulargewichtsmittelwerte 238 7.3 Richtlinien, Normen und Anforderungen an GPCDatenverarbeitungsprozesse 241 7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse 243 7.4.1 Beschreibung eines allgemeinen Verifikationsverfahrens für GPC-Software 243 7.4.2 Überprüfung der Richtigkeit der Berechnung der Molmassenverteilung 245 7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität auf Richtigkeit und Reproduzierbarkeit von GPCErgebnissen 248 7.5.1 Prüfung der GPC-Auswertung mit direkter Kalibration 248 7.5.2 Überprüfung der Ergebnisgenauigkeit einer GPC-Viskositätskopplung 249 7.5.3 Einfluss des Detektor-Rauschens auf die Genauigkeit von GPCErgebnissen 250 7.5.4 Einfluss der Detektordrift auf die Genauigkeit von GPCErgebnissen 252 7.5.5 Einfluss der Datendichte auf die Genauigkeit von GPCErgebnissen 253 7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten 254 7.6.1 Einflussgrößen für GPC mit direkter Kalibration 255 7.6.1.1 Einfluss der Kalibration 255 7.6.1.2 Einfluss der Geräteeigenschaften (Geräteperformance) 259 7.6.1.3 Einfluss der Auswerteparameter 260 7.6.2 Einflussgrößen für GPC mit Lichtstreudetektion 262 7.6.3 Vergleichspräzision und Wiederholbarkeit von GPC-Analysen 265 7.7 Zusammenfassung 265 Literatur 266

7.1 7.2

8

8.1 8.2 8.3 8.4 8.5

Auswertung in der LC-MS-Kopplung 267 Hartmut Kirchherr Einleitung 267 Chromatographie und Matrixeinfluss 268 Interne Standards 276 Einstellungen Massenspektrometer 280 Auswertesoftware 282 Literatur 283

IX

X

Inhaltsverzeichnis

Teil III Anforderungen an und Umgang mit chromatographischen Daten aus Sicht von Organisationen und Behörden 285 9

9.1 9.2 9.2.1 9.2.1.1 9.2.1.2 9.2.1.3 9.2.2 9.2.3 9.3 9.3.1 9.3.2 9.3.3 9.3.4 9.3.5 9.4 9.5 9.6 9.7

10

10.1 10.2 10.2.1 10.2.2 10.2.3 10.2.4 10.2.5 10.2.6 10.2.7 10.2.8 10.3 10.3.1 10.3.2

Beurteilung von analytischen Daten in der Lebensmittelanalytik 287

Herbert Otteneder Aufgaben der Behörde 287 Problembereiche 287 Pflanzenschutzmittelrückstände 289 In-house-Qualitätskontrolle (= IQC: Internal Quality Control) 292 Laborvergleichsuntersuchung (LVU), Proficiency Test 292 Validierungsstudie (Method Performance Study) 293 Schadstoffe, Kontaminanten und Mykotoxine 294 Pharmakologisch wirksame Stoffe 295 Definition und Bestimmung der Messunsicherheit 297 Analyse der Einzelkomponenten, „bottom-up“-Prinzip 297 Berechnung aus der Vergleichsstandardabweichung, „top down“-Prinzip 298 Berechnung mit der Horwitz-Gleichung 298 Der „Tauglichkeits“-Ansatz 299 Ergebnis-Interpretation mit Hilfe der Messunsicherheit 299 Nachweis-, Erfassungs- und Bestimmungsgrenze 300 Das Problem der Wiederfindung 303 Die Probennahme 306 Nationale und internationale Leitlinien und Gremien zur Qualitätssicherung in der Analytischen Chemie 309 Literatur 312 Beurteilung von analytischen Daten aus Behördensicht – Regelarbeitsweise und AQS für selten angewandte und zeitaufwändige Analysenverfahren 315

Günter Papke Einleitung 315 Werkzeuge und Definitionen für die AQS 316 Kontrollproben 316 Kontrollkarten/Zielwertkarten 316 Objektbezogene AQS 320 Stichproben-AQS 320 Stellvertreterproben-AQS 320 Validierung von Analysenverfahren 320 Messunsicherheit 323 Zusammengefasste AQS-Werkzeuge 324 Praxis der AQS 328 Hierarchisch aufgebaute AQS 328 Praxis bei selten angewandten und zeitaufwändigen Analysenverfahren 330

Inhaltsverzeichnis

10.3.2.1 10.3.2.2 10.4 10.5

AQS-Vorgehensweise für selten angewandte Analysenverfahren 331 AQS-Vorgehensweise für zeitaufwändige Analysenverfahren 333 Beurteilung der Analysenergebnisse 336 Fazit und Ausblick 337 Literatur 338

11

Auswertung Chromatographischer Daten nach den Arzneibüchern – Kontrolle von Verunreinigungen 339

11.1 11.2 11.2.1 11.3

12

12.1 12.2 12.3 12.4 12.5 12.5.1 12.5.2 12.5.3

13

13.1 13.1.1 13.1.1.1 1.3.1.2 13.1.1.3 13.1.2 13.1.3 13.2 13.2.1 13.2.1.1 13.2.1.2

Ulrich Rose Problemstellung 339 Auswertung qualitativer Daten 340 Systemeignungstest 343 Auswertung quantitativer Daten 345 Literatur 347 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung 349

Susanne Keitel Einführung 349 Beschreibung chromatographischer Prüfverfahren im Zulassungsdossier 349 Arzneibuchverfahren 352 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde 355 Anforderungen der Zulassungsbehörde im Rahmen von Anträgen auf Genehmigung klinischer Prüfungen 360 Häufige Mängel 361 Spezielle Mängel 361 Fallbeispiele 362 Literatur 364 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik 365

Joachim Ermer Systemeignungstests 365 Europäisches Arzneibuch (EP) 367 Chromatographische Parameter 369 Signal/Rausch-Verhältnis 370 Systempräzision 371 US-Arzneibuch 373 FDA Reviewer Guidance 374 Spezifikationsgrenzen und Präzision 375 Gehaltsbestimmungen 375 Auf Grundlage des Methodenfähigkeitsindex 375 Auf Grundlage des 95-%-Prognosebereiches (DPhG-Verfahren) 376

XI

XII

Inhaltsverzeichnis

13.2.2 13.2.3 13.3 13.3.1 13.3.2 13.3.3 13.3.4 13.3.5 13.3.6 13.3.7

Nebenproduktbestimmungen 377 (Be)Merkenswertes 378 Interpretation und Behandlung analytischer Daten 378 Voraussetzungen 378 Messprinzipien und Variabilität 378 Ausreißer 379 Vergleich von Analysenergebnissen 380 Präzision 380 Richtigkeit 382 (Be)Merkenswertes 383 Literatur 384

14

Über Bewertung und Wertung chromatographischer Daten 385

14.1 14.2 14.3 14.4

Stavros Kromidas Einleitung 385 Die Situation – oder warum ändert sich so wenig? 385 Wie kann sich etwas ändern und wann ist es überhaupt notwendig? 387 Wer kann etwas ändern? 390 Stichwortverzeichnis 393

XIII

Vorwort In der Chromatographie liegt der Fokus auf der Probenvorbereitung und der Trennung selbst. Das ist auch gut so, denn eine schlechte Trennung ist im Nachhinein nicht „reparierbar“. Wir haben allerdings den Eindruck gewonnen, dass im Alltagsstress der anschließenden Auswertung und auch der Bewertung der Ergebnisse nicht immer mit der gebührenden Vorsicht begegnet wird. Man verlässt sich gerne auf die Auswerteprogramme – schließlich ist ja die Integrationssoftware validiert und dies wird per Hersteller-Zertifikat „belegt“. Dass sich die Integrationsalgorithmen seit 30 Jahren nur unwesentlich geändert haben und dass z. B. die Fläche verschmolzener Peaks stets per Lotfällung bestimmt wird, wird kaum als Problem registriert. Auch reduziert sich die Bewertung der Ergebnisse oft auf die Frage: „Passt der VK und ist mein Wert „in spec“?“. Das mag manchmal ausreichen, manchmal aber auch nicht. Wir möchten uns in diesem Buch z.B. mit den folgenden Fragen beschäftigen: „Wie „richtig“ integrieren eigentlich kommerzielle Systeme?“, „Kann man dies überhaupt überprüfen?“, „Wie wichtig sind Einstellparameter, was bewirken sie?“ usw. Wir wollten uns aber auch mit Fragen auseinandersetzen, wie: „Wie kann ich ein Ergebnis wirklich beurteilen?“, „Wie wahrhaftig kann ein Ergebnis sein?“ und schließlich: „Was sagt „die Behörde“ dazu, was muss ich tun, wo bin ich frei?“. Dazu haben wir erfahrene Kollegen eingeladen, die ihr Wissen in diversen Bereichen zur Verfügung gestellt haben. Diesen Kollegen gilt unser herzlicher Dank. Das Ziel des Buches ist es, zum einen aufzuzeigen, dass man Auswertesystemen vielleicht nicht immer blind vertrauen sollte und dass es sich lohnt, ein tieferes Verständnis für das Integrieren zu entwickeln. Zum anderen einen Beitrag zu leisten, wie chromatographische Ergebnisse kritisch hinterfragt werden können, vor allem wenn es um brisante quantitative Aussagen geht. Wir hoffen, dem Leser möglichst viele Anregungen und Ideen zu geben, die eigene „richtige“ Auswerte- und Bewertungspraxis zu finden. Dem Verlag WILEY-VCH und insbesondere Frank Weinreich und Steffen Pauly danken wir für die sehr gute Zusammenarbeit. Saarbrücken und München Januar 2008

Stavros Kromidas Hans-Joachim Kuss

XV

Autorenliste Prof. Dr. Werner Engewald Fakultät für Chemie und Mineralogie Institut für Analytische Chemie Universität Leipzig Linnestraße 3 04103 Leipzig Dr. Joachim Ermer Paul-Sieben-Weg 12 64625 Bensheim/Auerbach Dr. Daniela Held PSS GmbH Postfach 3368 55023 Mainz Dr. Heiko Herrmann Dionex GmbH Am Wörtzgarten 10 65510 Idstein Dr. Detlev Jensen Dionex GmbH Am Wörtzgarten 10 65510 Idstein Dr. Susanne Keitel 26 rue Schweighaeuser 67000 Strasbourg Frankreich

Peter Kilz PSS GmbH Postfach 3368 55023 Mainz Dr. Hartmut Kirchherr Medizinisches Labor Bremen Haferwende 12 28357 Bremen Dr. Stavros Kromidas Rosenstraße 16 66125 Saarbrücken Dr. Hans-Joachim Kuss Psychatrische Klinik der Ludwig-Maximilians-Universität Nussbaumstraße 7 80336 München Dr. Herbert Otteneder Louvecienner Weg 4 88709 Meersburg Prof. Ulrich Panne Richard-Willstätter-Straße 11 12489 Berlin

XVI

Autorenliste

Prof. Dr. Günter Papke Fachhochschule Wiesbaden Studienbereich Umwelttechnik und Dienstleistung Am Brückweg 26 65428 Rüsselsheim

Dr. Ulrich Rose Ludwig-Trick-Straße 35 77694 Kehl Daniel Stauffer Traugott-Meyer-Straße 7 4147 Aesch Schweiz

XVII

Zum Aufbau des Buches Das Buch besteht aus drei Teilen. Teil I:

Grundsätzliches zur Auswertung und Bewertung von chromatographischen Daten

Im Teil I wird dargestellt, wie chromatographische Daten erzeugt sowie Ergebnisse bewertet werden können. Im Kapitel 1 (Daniel Stauffer) wird dargelegt, wie überhaupt ein Chromatogramm entsteht und welche Faktoren die Peakform, die Peakhöhe und die Peakfläche beeinflussen. Ferner wird auf die Einstellparameter bei der Integration eingegangen. Kapitel 2 (Hans-Joachim Kuss) widmet sich schwerpunktmäßig der Integration. Es wird der Frage nachgegangen, wie „richtig“ eigentlich kommerzielle Auswerteprogramme integrieren (können). Ferner wird anhand zahlreicher Beispiele eine Möglichkeit aufgezeigt, wie dies überprüft werden kann. Schließlich wird der Einsatz der gewichteten Regression erklärt und diskutiert. Die allgemeinen Kriterien zur Beurteilung von analytischen Daten werden im Kapitel 3 (Joachim Ermer) systematisch vorgestellt und kritisch hinterfragt. Teil I wird mit Kapitel 4 beendet, in dem die metrologischen Aspekte der Beurteilung von analytischen Daten mit einer detaillierten Diskussion der Messunsicherheit behandelt werden (Ulrich Panne). Teil II: Die Charakteristika der Auswertung in einzelnen LC-Modi Im Teil II wird auf Spezifika in folgenden chromatographischen Techniken eingegangen, Spezifika, die bei der Auswertung, aber auch bei der Beurteilung von chromatographischen Ergebnissen, berücksichtigt werden sollten: Gaschromatographie (Werner Engewald), Ionenchromatographie (Heiko Herrmann und Detlef Jensen), Gelpermeationschromatographie (Daniela Held und Peter Kilz) und LC-MS-Kopplung (Hartmut Kirchherr). Teil III: Anforderungen an und Umgang mit chromatographischen Daten aus Sicht von Organisationen und Behörden Im Teil 3 werden die Anforderungen seitens Organisationen/Behörden an chromatographische Daten dargestellt – sowohl das Formale als auch das Inhaltliche betreffend. Hier kommen die am stärksten reglementierten Bereiche zur Spra-

XVIII

Zum Aufbau des Buches

che: Lebensmittel, Umwelt, Pharma. Im ersten Kapitel 9 (Herbert Otteneder) werden die Anforderungen an die Beurteilung von analytisch/chromatographischen Daten in der Lebensmittelindustrie beleuchtet. Günter Papke stellt im Kapitel 10 die Vorgaben eines Landesuntersuchungsamtes für den Umgang mit analytischen Daten dar. Der am stärksten reglementierte Bereich ist gewiss Pharma. Die Anforderungen dort werden aus dreierlei Blickwinkeln erläutert: aus Sicht eines Angehörigen des EU-Direktoriats (Ulrich Rose, Kapitel 11), aus Sicht der nationalen Behörde BPharm (Susanne Keitel, Kapitel 12) und aus Sicht der Pharmaindustrie (Joachim Ermer, Kapitel 13). Statt eines Nachwortes wird im abschließenden Kapitel 14 (Stavros Kromidas) kurz der alltägliche Umgang mit Zahlenwerten diskutiert. Die einzelnen Kapitel wurden so verfasst, dass sie abgeschlossene Module darstellen, ein „Springen“ ist jederzeit möglich. Dadurch wurde versucht, dem Charakter des Buches als Nachschlagwerk gerecht zu werden. Es ist das Anliegen der Herausgeber, ein Ideenbuch vorzustellen mit möglichst vielen Anregungen, eigene Lösungen zu finden. Deshalb wurden abweichende Auffassungen der Autoren zu einem Thema akzeptiert, auch manche Wiederholung wurde in Kauf genommen, um die Harmonie im textlichen Kontext nicht zu beeinträchtigen. Der Leser möge von der unterschiedlichen Darstellung des Themas und der individuellen Gewichtung der Autoren profitieren.

1

Teil I Auswertung in der Chromatographie – die Integration

3

1 Das Chromatogramm Daniel Stauffer

1.1 Chromatographischer Prozess

Eine chromatographische Trennung ist dann erfolgreich, wenn es gelingt, die einzelnen Komponenten des zu trennenden Gemischs unterschiedlich schnell durch die Trennstrecke (stationäre Phase) wandern zu lassen. Die Möglichkeiten, unterschiedliche Wanderungsgeschwindigkeiten der einzelnen Analyten zu realisieren, lassen sich in zwei Gruppen aufteilen: 1. Die Retention erfolgt durch unterschiedlich starke Sorption des Analyten an die stationäre Phase = unterschiedliche absolute Wanderungsgeschwindigkeit (z. B. Normalphasen-/Umkehrphasenchromatographie, Verteilungschromatographie, Ionenaustauschchromatographie, Affinitätschromatographie). 2. Die poröse stationäre Phase teilt unterschiedlich großen Analytenteilchen unterschiedlich große Räume innerhalb der Trennstrecke zu, in welchen sie sich aufhalten können. Moleküle welche so groß sind, dass sie sich nur im Zwischenkornvolumen und somit im strömenden Eluenten aufhalten können, wandern am schnellsten. Weil die Wanderungsgeschwindigkeit für alle diese Teilchen ungefähr gleich groß ist, werden sie nicht getrennt. Kleinere Moleküle können durch Diffusion zusätzlich in die Poren der stationären Phase gelangen. In den Poren steht der Eluent. Die Wanderungsgeschwindigkeit der Analytenteilchen in Flussrichtung ist somit während ihres Aufenthaltes im Porenvolumen der stationären Phase gleich null. Je kleiner die Analytenmoleküle sind, umso größer ist das für sie zugängliche Porenvolumen und somit die Aufenthaltszeit im stehenden Eluenten. Daraus resultieren für unterschiedlich große Moleküle unterschiedlich lange Wanderungswege = unterschiedliche relative Wanderungsgeschwindigkeit. Größenausschlusschromatographie (Size Exclusion Chromatography, SEC), Gelpermeationschromatographie (GPC) und Gelfiltrationschromatographie (GFC) sind die gängigsten Bezeichnungen für diese Art von Chromatographie.

4

1 Das Chromatogramm

Die Wanderungsgeschwindigkeit der einzelnen Analyten kann durch Verändern verschiedener Einflussgrößen wie Zusammensetzung der mobilen Phase, Art der stationären Phase, Temperatur etc. mehr oder weniger kontinuierlich verändert werden. Man kann von einer analogen1) Chromatographie sprechen. Quantifizierung mittels Chromatographie erfolgt in der Regel auf diese Art. Bei der Chromatographie mittels Sorption können die chromatographischen Bedingungen im Idealfall so gewählt werden, dass nur eine Komponente wandert und die anderen Komponenten am Kopf der Trennstrecke total festgehalten werden resp. dass nur eine Komponente festgehalten wird und die andern Komponenten wandern. Die am Säulenkopf festgehaltenen Moleküle werden anschließend durch Änderung der chromatographischen Bedingungen zum Wandern gebracht. Diese, hauptsächlich in der präparativen Chromatographie angewendete, Methode wird oft als digitale1) Chromatographie bezeichnet. 1.1.1 Selektivität und Effizienz – Maß für die unterschiedliche Wanderungsgeschwindigkeit

In der Chromatographie müssen wir zwischen zwei Arten von unterschiedlichen Wanderungsgeschwindigkeiten unterscheiden. Gewünscht ist, dass unterschiedliche Spezies von Molekülen unterschiedlich schnell wandern. Das führt schlussendlich zur Trennung der einzelnen Komponenten. Je größer der Unterschied der Wanderungsgeschwindigkeit der unterschiedlichen Komponenten, umso besser ist die Trennung. Das System besitzt eine gute Selektivität (s. Abb. 1.1 und 1.8). Auf der andern Seite haben auch die gleichartigen Moleküle leicht unterschiedliche Wanderungsgeschwindigkeiten. Dieser unerwünschte Unterschied in der Wanderungsgeschwindigkeit wird als Effizienz (s. Abb. 1.2) des chroma-

Abb. 1.1 Unterschiedliche Arten von Molekülen wandern unterschiedlich schnell. Dieser gewünschte Unterschied der Wanderungsgeschwindigkeiten wird als Selektivität des chromatographischen Systems bezeichnet.

Abb. 1.2 Auch gleichartige Moleküle haben infolge von Eddy-Diffusion, Längsdiffusion und Massenaustauschverzögerung leicht unterschiedliche Wanderungsgeschwindigkeiten, was zu Bandenverbreiterung führt (= Effizienz des chromatographischen Systems). 1)

Analog und digital beziehen sich auf die Wanderungsgeschwindigkeit der Analyten.

1.2 Chromatographische Kenngrößen

tographischen Systems bezeichnet. Kleine Unterschiede in der Wanderungsgeschwindigkeit gleichartiger Moleküle = schmale Peaks = gute Effizienz = große theoretische Bodenzahl (s. Gl. 1.9).

1.2 Chromatographische Kenngrößen

Bei analytischen Anwendungen ist der Zweck der Chromatographie, ein Chromatogramm zu erhalten, welches uns alle gewünschten Informationen liefert [1]. 1.2.1 Retentionsgrößen

Diese bieten uns die Möglichkeit, Aussagen über die Art einer Probekomponente zu machen. Normalerweise werden Retentionszeiten verwendet; an Stelle der Retentionszeit wird oft auch das Retentionsvolumen verwendet, weil dieses vom Eluentenfluss unabhängig ist. VR = tR ⋅ F

(1.1)

mit: VR = Retentionsvolumen, tR = Retentionszeit, F = Eluentenfluss. Retentionsgrößen werden im Chromatogramm immer dort bestimmt, wo die höchste Probenkonzentration gemessen wird; also bei der Peakspitze. 1.2.1.1

Totzeit (tm; t0)

Unter Totzeit versteht man die Zeit, welche ein nicht-retardiertes Teilchen braucht, um die Trennstrecke zu durchqueren. Während dieser Zeit halten sich alle Probeteilchen in der mobilen Phase auf. Die genaue Bestimmung der Totzeit ist nicht so einfach; für die meisten Zwecke genügt es, die Totzeit mit einem sog. „Totzeitmarker“ zu messen (z. B. Methan in der GC resp. Nitromethan, Thioharnstoff, Uracil oder KNO3 in der LC). Genauer erhält man die Totzeit durch Berechnung aus den Bruttoretentionszeiten von mindestens drei homologen Verbindungen, weil log k von Homologen in linearer Abhängigkeit zu deren Molmassen steht [9]. 1.2.1.2

Bruttoretentionszeit (tms; tR)

Als Bruttoretentionszeit wird die durchschnittliche Zeit bezeichnet, welche ein Probeteilchen braucht um die Trennstrecke zu durchqueren. Die Bruttoretentionszeit setzt sich zusammen aus den Zeiten während welcher sich ein Probeteilchen in der mobilen und in (an) der stationären Phase aufgehalten hat. In Chromatogrammen werden die einzelnen Peaks in der Regel mit der Bruttoretentionszeit beschriftet.

5

6

1 Das Chromatogramm

Abb. 1.3 Totzeit und Brutto- resp. Nettoretentionszeit von Peak Nr. 3. tm = Totzeit, ts = Nettoretentionszeit, tms = Bruttoretentionszeit.

1.2.1.3

Nettoretentionszeit (ts)

Die Nettoretentionszeit sagt aus, wie lange sich eine Probekomponente in (an) der stationären Phase aufgehalten hat. tms = tm + ts

(1.2)

mit: tm = Totzeit, ts = Nettoretentionszeit, tms = Bruttoretentionszeit. 1.2.1.4

Retentionsfaktor oder Kapazitätsfaktor (k; kc)

Der Retentionsfaktor entspricht der Nettoretentionszeit, ausgedrückt in Anzahl Totzeiten. Als relative Retentionsgröße ist der k-Wert praktisch unabhängig vom Eluentenfluss und von den Säulendimensionen. k =

ts t − tm t = ms = ms − 1 tm tm tm

(1.3)

mit: k = Retentionsfaktor, tm = Totzeit, ts = Nettoretentionszeit, tms = Bruttoretentionszeit. 1.2.2 Peak-Ausdehnung und Peakform 1.2.2.1

Basispeakbreite (wb)

Die Basispeakbreite wird zwischen den Schnittpunkten der auf- und der absteigenden Wendetangente mit der Basislinie gemessen. Bei idealen chromatographischen Peaks (Gauß-Peaks) befindet sich die Basispeakbreite in 13,4% der Peakhöhe und entspricht der vierfachen Standardabweichung der Normalverteilung (s. Abb. 1.4).

1.2 Chromatographische Kenngrößen

Abb. 1.4 Die Basispeakbreite (wb) und die Peakbreite in halber Höhe (b0,5). Bei idealen Peaks befindet sich die Basispeakbreite in 13,4% der Peakhöhe.

Abb. 1.5 Die Peakhöhe wird von der Peakspitze bis zur Basislinie gemessen.

1.2.2.2

Peakbreite in halber Höhe (wh)

Weil es nicht ganz einfach ist, die Basispeakbreite zu bestimmen, wird oft die Peakbreite in halber Höhe (Halbwertsbreite) in Berechnungen eingesetzt (selbstverständlich muss die Formel entsprechend korrigiert werden). 1.2.2.3

Peakhöhe (h)

Die Peakhöhe ist die Ausdehnung des Peaks, von der Peakspitze bis zum Schnittpunkt mit der Basislinie (senkrecht zur Zeitachse gemessen). 1.2.2.4

Peaksymmetrie, Tailingfaktor (T)

Der Symmetriefaktor eines Peaks sagt aus, wie gut seine Form der Idealform eines chromatographischen Peaks (Gauß’sche Glockenkurve) angenähert ist. Der Tailingfaktor wird in Europa meistens in 10% (manchmal auch 5% oder 15%) der Peakhöhe bestimmt (s. Gl. 1.4).

7

8

1 Das Chromatogramm

Abb. 1.6 Die Peaksymmetrie wird in 10% (5%) der Peakhöhe gemessen, wobei a die „halbe“ Peakbreite der aufsteigenden und b der absteigenden Peakseite bezeichnet.

Abb. 1.7 Peakleading und Peaktailing. In der Praxis kommt das Peaktailing viel öfter vor als das Leading. Aufgepasst: In vielen Publikationen findet man Chromatogramme, bei welchen die Zeitachse von links nach rechts verläuft, weil zur Aufzeichnung des Chromatogramms z. B. ein Kompensationsschreiber verwendet wurde.

T =

b a

(1.4)

mit: T = Symmetrie- resp. Tailingfaktor, a = Breite der aufsteigenden Peakseite (in 0,1 h), b = Breite der absteigenden Peakseite (in 0,1 h). Nach USP werden die Werte in 5% der Peakhöhe gemessen. Die Berechnung erfolgt nach folgender Formel: T =

a+b 2a

(1.5)

mit: T = Symmetrie- resp. Tailingfaktor, a = Breite der aufsteigenden Peakseite (in 0,05 h), b = Breite der absteigenden Peakseite (in 0,05 h). Langsames Ansteigen und schnelles Abfallen des Peaksignals nennt man Leading oder Fronting. Das Umgekehrte, schneller Anstieg und langsames Abfallen, nennt man Tailing.

1.2 Chromatographische Kenngrößen

Symmetrischer Peak: T = 1 Peaktailing: T>1 Peakleading: T 1000, der als interner Standard gedacht ist, enthält bei allen Eich-Files immer die gleichen Zahlenwerte, nur moduliert durch das Rauschen, das maximal 1 ‰ Veränderung zulässt. Deshalb sollte immer dieselbe Fläche herauskommen. Andernfalls wäre anzunehmen, dass der Peak davor (R = 2,14) und der danach (R = 1,75) die Integration des mittleren Peaks beeinflussen. Die Tabelle 2.7 zeigt, dass sowohl die Präzision als auch die Richtigkeit in fast allen Fällen unterhalb von 0,1% liegen und damit die Abweichungen irrelevant sind, weil sie unterhalb des unvermeidbaren Injektionsfehlers (bestenfalls 0,12%) liegen.

2.4 Anwendungen der Simulation

Abb. 2.18 Simulation von Eich1 mit einem S/N von 10.

Abb. 2.19 Simulation von Eich1024 mit S/N von 10 240.

93

94

2 Integrationsfehler und Auswertung Tabelle 2.7 Flächenwerte der 11 Eich-Simulationen für acht verschiedene Integrationsmodi. Die unteren vier Zeilen geben einen Überblick über Präzision und Richtigkeit. 2. Peak

Shimadzu Waters

Waters

Dionex

Dionex

VWR

VWR

Thermo

Eich…

Labsolutions

ApexTrack

Traditional

Chromeleon

Chromeleon

EZChrom

EZChrom

Atlas

1

119792

119171

120167

119820

120011

119792

120008

119920

2

119976

119068

120176

119700

120096

119976

119960

119914

4

119925

119008

120138

120120

120111

119925

119943

119958

8

119948

118791

120219

120000

120169

119948

119892

119998

16

120004

118448

120191

120060

120141

120004

119939

119985

32

120028

118019

120246

120120

120145

120028

119970

120037

64

120050

119370

120222

119580

120014

120050

119988

120008

128

120063

119044

120213

119280

120172

120063

120025

120084

256

120052

118464

120107

119760

120051

120052

119822

119875

512

119960

112965

120080

119820

119974

119960

119857

119817

1024

120163

110785

120095

119940

119981

120163

119893

119831

Mittelwert

119996

117558

120169

119836

120079

119996

119936

119948

Stand.abw.

94,8793

2877,3

56,49

254,69

75,181

94,959

63,735

84,915

Präzision

0,08%

2,45%

0,05%

0,21%

0,06%

0,08%

0,05%

0,07%

Richtigkeit

0,00%

–2,04%

0,14%

–0,14%

0,07%

0,00%

–0,05%

–0,04%

Ganz anders sieht das Ergebnis nach der Apex-Track-Integration aus: Ein VK der Präzision von 2,5% und 2% Abweichung vom richtigen Wert – das ist mehr als 10-mal höher als mit allen anderen Integrationssystemen. Dazu tragen insbesondere Eich512 und Eich1024 bei. Außerdem liegen alle Werte zu niedrig. Die traditionelle Waters-Integration liegt dagegen vollkommen im Rahmen der anderen Ergebnisse. Bei allen Ergebnis-Tabellen wurden zur schnelleren Übersicht Abweichungen über 1% hellgrau unterlegt, Abweichungen über 5% sind mittelgrau unterlegt und fett gedruckt dargestellt. Die Abweichungen der beiden variablen Peaks vor und nach dem konstanten Peak zeigt die Tabelle 2.8. Im Bereich bis S/N = 80 liegen die Abweichungen über 1%, bei höheren S/N-Verhältnissen aber immer darunter. Auch hier ist die Ausnahme die Apex-Track-Integration, bei der erst Eich128 unter 1% Abweichung liegt, und bei der alle Abweichungen negatives Vorzeichen haben, d. h., dass die Basislinie grundsätzlich zu hoch angesetzt ist.

2.4 Anwendungen der Simulation Tabelle 2.8 Abweichungen der Flächen (Richtigkeit) der 11 Eich-Simulationen mit acht Integrationsmodi für den ersten und dritten Peak. 1. Peak

Shimadzu Waters

Waters

Dionex

Dionex

VWR

VWR

Thermo

Eich…

Labsolutions

Traditional

Chromeleon

Chromeleon

EZChrom

EZChrom

Atlas

1

Apex Track

–12,52% –12,08%

14,17% –18,92%

–6,39% –12,50% –17,78% –11,53%

2

–4,75%

–4,79%

6,46%

–2,92%

4,51%

–4,72% –13,19%

–6,32%

4

–4,15%

–4,17%

2,74%

1,98%

1,94%

–4,13%

–6,28%

–2,88%

8

–0,09%

–2,00%

2,92%

–0,14%

1,89%

–0,09%

–4,60%

–1,41%

16

–0,59%

–1,44%

0,95%

–0,39%

0,79%

–0,59%

–1,60%

–0,40%

32

–0,43%

–1,55%

0,62%

0,35%

0,35%

–0,43%

–0,63%

–0,12%

64

–0,14%

–1,02%

0,39%

–0,62%

–0,15%

–0,14%

–0,32%

–0,13%

128

–0,07%

–0,78%

0,17%

–0,57%

0,11%

–0,07%

–0,16%

0,00%

256

0,03%

–0,78%

0,08%

–0,11%

0,08%

0,03%

–0,15%

–0,03%

512

–0,03%

–0,56%

0,06%

–0,06%

0,02%

–0,03%

–0,06%

–0,02%

1024

0,02%

–0,54%

0,03%

0,00%

0,01%

0,02%

–0,02%

0,00%

3. Peak

Shimadzu Waters

Waters

Dionex

Dionex

VWR

VWR

Thermo

Eich…

Labsolutions

Traditional

Chromeleon

Chromeleon

EZChrom

EZChrom

Atlas

10,09%

–5,32%

Apex Track

1

–18,42% –11,94%

2

–1,87% –12,36%

4

–1,86%

–9,00%

–0,37%

8

–1,43%

–7,28%

16

–0,91%

32

4,40% –11,07%

1,02% –18,43%

5,00%

0,19%

–0,60%

–1,85%

–0,46%

–2,87%

–0,77%

–0,76%

–1,85%

–1,46%

–1,27%

1,59%

–1,86%

0,73%

–1,42%

–0,22%

–0,10%

–5,77%

0,42%

–0,21%

–0,02%

–0,91%

0,03%

0,20%

–0,22%

–5,67%

0,39%

–0,01%

0,00%

–0,22%

–0,19%

0,09%

64

–0,26%

–1,11%

0,12%

–0,49%

–0,20%

–0,26%

–0,10%

0,01%

128

–0,24%

–0,90%

0,03%

–0,32%

–0,01%

–0,24%

–0,03%

0,01%

256

–0,05%

–0,79%

0,08%

–0,10%

0,04%

–0,05%

0,02%

0,06%

512

–0,04%

–1,98%

0,03%

–0,04%

–0,01%

–0,04%

0,01%

0,02%

1024

–0,01%

–1,60%

0,02%

0,00%

0,00%

–0,01%

0,00%

0,02%

95

96

2 Integrationsfehler und Auswertung

Nur durch Veränderung des Threshold von 50 auf 100, findet EZChrom für Eich1 beim 3. Peak statt 18% zu wenig Fläche 5% zu viel Fläche. Auch die Chromeleon Ergebnisse zeigen, dass durch eine verschiedene Einstellung der Integrationsparameter sich recht unterschiedliche Abweichungen ergeben können. Die von Fehlinger und Guiochon [9] nur mit der ChemStation für einen Peak erhaltenen Abweichungen liegen im Rahmen der hier gezeigten Ergebnisse, bei denen die ChemStation nicht untersucht wurde. Würde man den zweiten Peak als internen Standard verwenden, wäre dadurch keine Verbesserung der Ergebnisse möglich, weil dieser Peak durch die Simulation ja immer gleich ist. Bei realen Proben wird der interne Standard mit dem Injektionsvolumen und der Probenvorbereitung variieren und deren Fehler im Regelfall verringern können. Da die integrierten Flächen des zweiten Peaks fast gleich sind, bewirkt eine Korrektur mit dem internen Standard auch tatsächlich nichts, wie in Eich-Ergebnisse.xls gezeigt wird. Die Abweichungen vom Sollwert sind mit obigen Zahlen fast völlig identisch. Eine Ausnahme ist wiederum die Apex-Track-Integration. Vergleicht man die integrierten Werte nach Division durch die Fläche des mittleren Peaks mit den Sollwerten, ist das Ergebnis noch einmal ungünstiger (Tabelle 2.9), weil der mittlere Peak als interner Standard stark variiert. Tabelle 2.9 (Große) Abweichungen der Flächen (Richtigkeit) des ersten und dritten Peaks nach Korrektur durch den internen Standard (mittlerer Peak) nach Apex-Track-Integration. Die große Variabilität des mittleren Peaks verschlechtert die Ergebnisse immens. Apex-Track

Interner Standard

Eich…

1. Peak

3. Peak

1

–11,47%

–11,33%

2

–4,05%

–11,68%

4

–3,37%

–8,25%

8

–1,00%

–6,34%

16

–0,15%

–4,53%

32

0,10%

–4,09%

64

–0,50%

–0,59%

128

0,01%

–0,10%

256

0,51%

0,50%

512

5,63%

4,13%

1024

7,73%

6,59%

2.4 Anwendungen der Simulation Tabelle 2.10 Ist das Rauschen gerade 10% der Peakhöhe (S/N = 10), dann ist ein Anhaltspunkt für den erwarteten VK der Flächen gerade auch 10%. Vom Mittelwert des Rauschens gesehen sind die maximalen Abweichungen nach oben oder unten 5%. Da der Peakfuß verbreitert ist, ist die Abweichung der Flächen 2–3-mal größer als die Abweichung der Höhen. S/N

N/S

VK(int)

10

0,1

10%

100

0,01

1%

1000

0,001

0,10%

Die gezeigten Eich-Daten legen die Annahme nahe, dass die in den Tabellen gezeigten Integrationsfehler Absolutabweichungen sind, die nicht von der Peakhöhe, sondern im Wesentlichen vom Rauschen abhängen. Die Integration hängt im Prinzip von der richtigen Bestimmung des Peakanfangs und Peakendes ab, zwischen denen eine gerade (Basis)-Linie gezogen wird. Die Unsicherheit dieser Linie wird praktisch nur vom Rauschen bestimmt und verschiedene Lagen dieser Linie werden bei großen und kleinen Peaks zu demselben Flächenfehler in Absoluteinheiten führen, d. h., prozentual verschwindet dieser Fehler bei den großen Peakflächen. Daraus wird klar, dass ein interner Standard mit immer gleicher Konzentration den Integrationsfehler, der von der Konzentration abhängig ist, prinzipiell nicht ausgleichen kann, andere Fehler aber schon. Ein interner Standard ist das beste Hilfsmittel, um die Messunsicherheit zu verringern. Aber: Der interne Standard gleicht den Integrationsfehler nicht aus.

Als Anhaltswert kann man den Integrationsfehler der Fläche aus dem prozentualen Rauschen, bezogen auf das Signal, abschätzen, d. h. aus dem Kehrwert des S/N. Ein 10%iges Rauschen bietet die Chance einer bis zu 5%igen Vergrößerung oder Verkleinerung der Höhe. Die Fläche verändert sich mehr als doppelt so stark, weil sich die Peaks nach unten hin verbreitern. Mit den richtigen Integrationsparametern kann der Integrationsfehler kleiner sein, mit ungünstigen Parametern kann der Integrationsfehler größer sein als in der Tabelle. Dong schrieb 1999: „Theoretical considerations indicate that peak area precision is inversely proportional to signal-to-noise, and number of sampling points, and is proportional to peak width“ [6]. Er fand bei S/N = 11 einen VK von 5,5%. Nun wäre denkbar, dass Abweichungen letztlich toleriert werden können, weil sie sich bei der Berechnung der Konzentration der Analysenproben herausrechnen. Zunächst müsste dann das Integrationssystem zwar falsch, aber reproduzierbar falsch messen. Linear systematische Fehler würden sich in der Tat herausrechnen, konstant systematische Fehler nicht. Fehler der Analog-Digital-Wandlung wären mit den heute üblichen 24-bit-ADUs vorwiegend linear,

97

98

2 Integrationsfehler und Auswertung

Integrationsfehler aber konstant. Deshalb rechnen sich die Integrationsfehler nicht heraus. Die Kalibrierung erfolgt normalerweise mit der Anpassung an eine Gerade mit Achsenabschnitt. Der Achsenabschnitt a (besser: y-Achsenabschnitt bei x = 0) ist in der Chromatographie fast immer nicht signifikant. Trotzdem stellt er einen Korrekturfaktor für die Analysenwerte dar, die man nach: x =

y a − b b

(2.12)

berechnet. Der Korrekturfaktor ist der x-Achsenabschnitt bei y = 0. Bei großen Signalwerten y ist die Korrektur durch –a/b vernachlässigbar, bei kleinen y-Werten aber nicht. Um den Effekt abzuschätzen, kann man den x-Achsenabschnitt berechnen und mit der untersten Arbeitsbereichskonzentration xU vergleichen. Ist der x-Achsenabschnitt größer als xU, dann ist für die geringsten möglichen Analysekonzentrationen entweder mehr als eine Verdopplung oder ein Wert von unter null zu erwarten. Beides ist nicht akzeptabel, ein Wert unter null unsinnig und nur deshalb besser, weil man ihn kaum übersehen wird. Dies wird im Abschn. 2.5 ausführlich diskutiert. Um das Ausmaß der Verfälschung abzuschätzen, kann man die Signalwerte der Eichung mit obiger Gleichung (wie es jedes CDS automatisch machen kann) in Konzentrationswerte umrechnen. Durch Vergleich mit den vorgegebenen Konzentrationswerten kann man leicht die prozentualen Abweichungen berechnen. Natürlich würde man bei einer erneuten Messung der Kalibrierproben nicht exakt dieselben Signalwerte bekommen, aber ähnliche Werte. Deshalb ist die Rückrechnung mit den ursprünglichen Kalibrierwerten als Überprüfung der Kalibrierung sinnvoll. 2.4.2 Zehnfache Simulation an der Bestimmungsgrenze

Am kritischsten ist wegen des hohen Rauschens die Integration bei Eich1. Um bei dieser „Konzentration“ mehr Informationen zu bekommen, wurde dieses File 10-mal aufgerufen, wobei das Rauschen jedes Mal neu berechnet und als Eich1_1 bis Eich1_10 abgespeichert wird. Diese Files wurden mit LCSolution und Chromeleon integriert. Die Simulation liefert bei dem hier vorliegenden maximalen Rauschen von 10% unterschiedliche Peaks, wie der Vergleich der Abb. 2.20(a) und (b) zeigt. Da sich das Rauschen über alle Datenpunkte eines Peaks weitgehend wegmittelt, kann diese Abweichung vernachlässigt werden. Die Einzelwerte der Tabelle 2.11 sind sehr verschieden (mit LCSolution resp. Chromeleon integriert). Vergleicht man die Werte der jeweils gleichen AIA-Files Eich1_1 bis Eich1_10, so ergibt sich nicht die geringste Korrelation. Es scheint, dass die beiden Integrationsalgorithmen von LCSolution und Chromeleon so unterschiedlich sind, dass die integrierten Flächen überhaupt nicht korrelieren. Dies sollte bei Methodentransfer und unterschiedlichen CDS berücksichtigt werden.

2.4 Anwendungen der Simulation

Abb. 2.20 (a) LCSolution-Integration der Simulation Eich1_2, d. h. der für den ersten Peak kleinsten Fläche der Tabelle 2.11. (b) LCSolution-Integration der Simulation Eich1_10, d. h. der für den ersten Peak größten Fläche der Tabelle 2.11.

99

Eich1_1

1038

5,69

0,04

–3,89

2. Peak

3. Peak

Abw. 1 [%]

Abw. 2 [%]

Abw. 3 [%]

–10,00

–0,04

–5,69

972

119947

–5,09

0,00

6,81

1025

120003

769

–6,85

–0,01

8,47

1006

119985

781

–1,30

0,07

8,75

1066

120078

783

Eich1_5

3,06

0,08

9,03

1113

120095

785

Eich1_6

–8,70

–3,52

–0,02

2,50

1042

119973

738

Eich1_7

–3,70

3,19

–12,22

–0,11

–3,61

948

119866

694

Eich1_8

–19,63

–0,09

–2,41

0,08

8,61

1054

120096

782

Eich1_9

–13,24

–0,05

–9,17

3,61

–7,04

–0,10

–1,81

1004

119882

707

Eich1_10

–17,50

–0,10

–12,13%

–0,06%

–1,61%

–4,93%

0,00%

3,88%

Richtigkeit

5,15%

0,07%

5,73%

761

120052

1. Peak

679

Eich1_4

0,00

2,64 –0,02

Richtigkeit

8,52%

Präzision

Eich1_3

–18,89

1,11 –0,03

891

Chromeleon

Eich1_2

–21,30

0,05

0,83

937

0,07%

N = 3600

–11,76

–0,10

–2,22

868

119882

–6,57

–0,12

–2,50

1040

119939

Abw. 3 [%]

–0,17

–16,94

986

119888

0,02

1080

119978

746

3,33

876

119966

654

Abw. 2 [%]

850

120058

743

Eich1_10

Abw. 1 [%]

953

119884

739

Eich1_9

1009

119851

728

Eich1_8

3. Peak

119795

726

Eich1_7

120026

704

Eich1_6

2. Peak

702

Eich1_5

6,97%

598

Eich1_4

744

Eich1_3

1. Peak

Eich1_2

Präzision

Eich1_1

LCSolutions

N = 3600

Tabelle 2.11 Die Simulation von Eich1 (S/N = 10) wurde 10-mal aufgerufen, wobei das Rauschen jedes Mal neu erzeugt wurde. Präzision und Richtigkeit wurden für die Integration mit LCSolution und Chromeleon berechnet.

100

2 Integrationsfehler und Auswertung

2.4 Anwendungen der Simulation

Abb. 2.21 (a) LCSolution-Integration der Simulation Eich1_2, d. h. der für den ersten Peak kleinsten Fläche der Tabelle 2.12. (b) LCSolution-Integration der Simulation Eich1_8, d. h. der für den ersten Peak größten Fläche der Tabelle 2.12.

101

769

120046

1125

6,81

0,04

4,17

1. Peak

2. Peak

3. Peak

Abw. 1 [%]

Abw. 2 [%]

Abw. 3 [%]

9,17

0,05

7,92

1179

120061

777

Eich1_2

3,98

0,06

6,81

1123

120068

769

Eich1_3

–0,65

–0,74

0,06

–1,39

1072

120066

710

Eich1_4

0,65

0,05

–2,36

4,26

0,07

0,56

1126

120083

724

Eich1_5

2,69

0,00

0,42

1109

4,44

0,07

6,67

1128

120082

768

Eich1_6

–1,57

0,05

1,11

1063

0,00

0,07

9,31

1080

120085

787

Eich1_7

–1,67

0,06

–5,14

1062

120073

–2,31

0,06

2,78

1055

120073

740

Eich1_8

4,81

0,01

4,58

1132

120006

2,13

0,06

4,72

1103

120076

754

Eich1_9

–0,93

0,04

0,56

1070

120047

–4,63

0,01

7,22

1030

120012

772

Eich1_10

–1,20

0,07

–2,36

1067

120085

703

0,07%

0,03%

–0,71%

Richtigkeit

2,11%

0,04%

2,05%

0,05%

5,14%

Richtigkeit

3,94%

0,02%

3,27%

Eich1_1

N = 10000

–1,11

4,03 –0,01

1087

120057

724

Präzision

–0,28

Abw. 3 [%]

0,06

–6,39

1073

119998

753

Eich1_10

Chromeleon

–1,53

–0,03

Abw. 1 [%]

Abw. 2 [%]

1068

120061

683

Eich1_9

1077

119988

728

Eich1_8

3. Peak

120069

723

Eich1_7

119961

703

Eich1_6

2. Peak

749

Eich1_5

3,59%

674

Eich1_4

709

Eich1_3

1. Peak

Eich1_2

Präzision

Eich1_1

LCSolutions

N = 10000

Tabelle 2.12 Wie Tabelle 2.11. Die Simulation von Eich1 (S/N = 10) wurde aber verändert, indem die Bodenzahl von 3600 auf 10 000 erhöht wurde. Damit sind die drei Peak-Basislinien getrennt.

102

2 Integrationsfehler und Auswertung

2.4 Anwendungen der Simulation

Der Unterschied zwischen beiden Flächen des ersten Peaks in Abb. 2.20(a) und (b) von immerhin 20% erklärt sich daraus, dass die Basislinie einmal an den oberen Spitzen des Rauschens und einmal an den unteren Spitzen entlang geht, weil als Stützpunkte der Basislinie nur gemessene Datenpunkte genommen werden können. Die bisher bei den Eich-Proben verwendeten Peaks haben ein Tailing und sind leicht verschmolzen. Um beurteilen zu können, ob sich bessere Ergebnisse mit nicht verschmolzenen Peaks (Abb. 2.21 a und b) erzielen lassen, wurde die vorausgesetzte Bodenzahl von 3600 auf 10 000 erhöht, wodurch sich die Peaks um den Faktor 0,6 verschmälern. Wie erwartet, verbessert sich das Ergebnis mit LCSolution deutlich. Chromeleon hat eine bessere Präzision bei 3600 Böden (Tabelle 2.11) als LCSolution, verbessert sich aber nicht mehr (Tabelle 2.12). 2.4.3 Simulation eines isokratischen Chromatogramms

Die Simulation einer 20-minütigen isokratischen (isothermen) Trennung enthält 22 Gauß-Peaks, die eine Bodenzahl von 10 000 haben. Mit einer tDP von 200 ms sind das 6000 Datenpunkte. Der erste Peak hat eine Retentionszeit von 2 min, die Abstände zu den folgenden Peaks sind abwechselnd 0,5 und 1 min. Durch die Peakverbreiterung mit zunehmender Retentionszeit verschmelzen die Peakpaare immer mehr, sind aber vom nächsten Peakpaar immer durch Basislinien getrennt. Nur Peak 21 und 22 haben einen Abstand von jeweils 1,5 min vom vorhergehenden Peak, um zwei freistehende Peaks am Ende des Chromatogramms zu bekommen. Die Peakflächenfaktoren sind abwechselnd 55 000 und 11 000, d. h. die Sollflächen 3 300 000 und 660 000 μV s. Die Zahl der Datenpunkte pro Peak beträgt 36–342, d. h., die Informationsdichte wird höher. Offensichtlich spielt nicht nur S/N eine Rolle, weil für den letzten Peak durch Zusammenfassen von jeweils 10 Datenpunkten (Bunching) eine Verbesserung von S/N möglich wäre. Andererseits haben bei isokratischen Chromatogrammen die vorderen Peaks eine höhere „Integrationsqualität“, weil sie bei gleicher Fläche ein höheres S/N haben. Für Gradienten gilt das nicht. Die Abb. 2.22 zeigt die 11 Peakpaare, von denen die ersten vier Basislinientrennung haben, d. h. ein R von mindestens 1,5. Hier darf die Integration kein Problem machen. Danach kommen drei Peakpaare mit einem R von mindestens eins. Auch bei diesen Peakpaaren sind keine besonders großen Abweichungen zu erwarten. Die nächsten drei Peakpaare sind schon so schlecht (R . 1) getrennt, dass man sie für quantitative Zwecke nur mit großer Vorsicht benutzen sollte. Hier sind große Abweichungen zu erwarten. Als Letztes kommen zwei freistehende Peaks, die zum Vergleich und zur Absicherung dienen sollen, d. h., es sollten fast die Sollwerte herauskommen, allerdings ist ihre Breite fast 10-mal so hoch, wie die eingestellte Width, die sich am ersten Peak orientiert. Bei dem oben gezeigten Chromatogramm (Abb. 2.22) wurde das Rauschen auf 100 μV gesetzt. Damit hat der erste Peak ein S/N von 10 971 und der letzte

103

104

2 Integrationsfehler und Auswertung

Abb. 2.22 Simulation eines isokratischen Chromatogramms mit zunehmendem Verschmelzen der Peaks und einem Rauschen von 100 μV.

Peak von 231. Wenn hier Abweichungen gefunden werden, sind sie nicht auf ein zu kleines S/N, sondern auf das Verschmelzen der Peaks zurückzuführen. Bei Betrachtung der Tabelle 2.13 ist zu erkennen, dass Abweichungen über 1% erst bei den Peakpaaren 8–10 auftreten. Allerdings kann man mit nicht optimierten Integrationsparametern erheblich schlechtere Ergebnisse erreichen, wie der Vergleich von Chromeleon 1 und 2 zeigt. Die Differenzen erklären sich im Wesentlichen dadurch, dass bei Chromeleon 1 der kleinere Peak im zweiten Teil des Chromatogramms mit der Tangentenmethode integriert wurde. Dadurch wurde die Fläche des kleinen Peaks erheblich zu niedrig und die Fläche des großen Peaks zu hoch berechnet. Die freistehenden Peaks am Anfang sind tendenziell richtiger integriert als am Ende des Chromatogramms. Vermutlich sind die CDS auf eine Zahl von ungefähr 20 Punkten über den Peak eingestellt. Es wurden auch die Flächen aller Peakpaare zusammengefasst (Tabelle nicht gezeigt, aber auf CD vorhanden) und in allen Fällen Abweichungen von weniger als 1% gefunden. Das bedeutet, dass die in der Tabelle 2.13 gezeigten Abweichungen aus einer unzureichenden Flächentrennung der Peakpaare resultieren. Sehr auffällig sind die erheblich besseren Werte für die Höhe. Es ergeben sich wesentlich geringere Abweichungen vom Sollwert. Erhöht man bei demselben Chromatogramm das Rauschen auf 10 000 (Isokrat10000.cdf auf der CD), dann hat der erste Peak ein S/N von 110 und der letzte Peak von 2,3. Außerdem wurde eine Drift eingegeben, beginnend mit –10 000 μV und pro Minute mit 2000 μV ansteigend. Das sind harte Anforderungen an das Integrationssystem, der jeweils kleinere Peak liegt mit dem S/N

2.4 Anwendungen der Simulation Tabelle 2.13 Prozentuale Abweichungen der Flächen und Höhen vom richtigen Wert mit fünf Integrationsmöglichkeiten. LCSolutions

Apex

Chromeleon 1

Chromeleon 2

EZChrom

Abweichungen

Abweichungen

Abweichungen

Abweichungen

Abweichungen

Fläche [%]

Höhe [%]

Fläche [%]

Höhe [%]

Fläche [%]

Höhe [%]

Fläche [%]

Höhe [%]

Fläche [%]

Höhe [%]

0,00

–0,92

–0,11

–0,06

0,02

0,01

0,00

0,00

0,02

0,00

0,03

–0,57

–0,16

–0,04

0,13

0,05

0,00

0,02

0,10

0,04

0,03

–0,30

–0,12

–0,04

0,04

0,00

0,01

0,00

0,03

0,00

0,08

–0,21

–0,01

0,00

0,26

0,05

0,02

0,01

0,19

0,05

0,00

–0,15

–0,16

–0,06

0,04

0,01

0,01

0,01

0,04

0,00

0,07

–0,07

0,00

0,04

0,17

0,10

–0,06

0,04

0,25

0,11

0,03

–0,09

–0,20

–0,07

0,24

0,02

0,00

0,00

0,02

0,00

0,04

–0,56

–0,57

–0,20

–0,66

–0,21

–0,08

0,00

0,13

0,07

0,08

–0,44

–0,01

–0,02

1,29

0,01

0,00

–0,02

0,08

0,02

–0,13

–0,36

–0,51

–0,18

–5,73

–2,47

–0,13

0,02

0,17

0,09

0,34

–0,31

0,14

0,00

3,80

0,01

0,20

–0,01

0,21

0,01

–1,43

–0,25

–0,78

0,03

–18,50

–9,57

–0,94

0,07

–0,64

0,09

0,89

–0,22

0,36

–0,02

7,25

0,04

0,41

0,01

0,38

–0,02

–4,22

–0,11

–2,15

–0,01

–35,71

–22,18

–2,19

0,00

–2,11

0,08

1,69

–0,17

0,93

–0,02

11,01

0,05

0,98

0,01

1,02

0,01

–8,29

–0,01

–5,97

–0,26

–54,45

–38,47

–5,23

0,18

–5,05

0,21

2,64

–0,07

1,94

–0,13

14,42

0,08

2,34

0,04

2,41

0,06

–12,95

0,72

–14,56

–0,50

–71,62

–57,65

–12,15

0,97

–11,82

1,04

5,60

0,05

3,71

–0,08

20,15

0,17

4,11

0,12

4,68

0,17

–27,83

3,46

–22,67

2,82

–100

–100

–21,01

3,50

–23,18

3,74

0,03

–0,58

–0,44

–0,18

0,16

0,05

–0,11

–0,02

–0,05

–0,04

0,11

–0,13

–2,24

–0,76

0,35

0,19

–0,79

–0,20

–0,66

–0,05

105

106

2 Integrationsfehler und Auswertung Tabelle 2.14 Prozentuale Abweichungen der Flächen und Höhen vom richtigen Wert mit sechs Integrationsmöglichkeiten. Labsolution

Apex

Apex 29

Chromeleon 1 Chromeleon 2

EZChrom

Abweichungen Abweichungen Abweichungen Abweichungen Abweichungen Abweichungen Fläche Höhe Fläche Höhe Fläche Höhe Fläche Höhe Fläche Höhe Fläche Höhe [%] [%] [%] [%] [%] [%] [%] [%] [%] [%] [%] [%] 0,55

–0,74

0,55

0,18

0,05

–0,98

3,06

0,30

3,14

0,30

3,35

0,33

3,90

1,49

7,07

2,76

3,14

0,62

16,16

2,67

17,94

2,78

19,29

4,68

0,67

–0,13

0,81

0,31

0,20

0,01

7,88

0,70

8,29

0,74

3,90

1,21

3,93

0,72

3,89

2,37

3,05

1,31

23,55

5,25

25,06

5,53

17,24

8,23

1,14

–0,43

–0,26

0,73

–0,29

0,50

3,18

1,91

9,29

2,08

10,55

2,00

5,10

0,80

–1,62

1,35

0,56

0,13

11,84

8,61

22,10

10,07

19,99

10,47

1,31

–0,71

–0,90

0,04

–0,24

–0,40

4,56

1,79

4,89

1,89

4,61

1,97

–2,65 –26,71

–7,73

–3,03

–2,25

17,15

11,67

23,41

12,95

19,59

13,07

–2,13 2,40

0,02

0,06

0,10

–1,60

–0,59

5,54

3,11

9,07

3,20

6,07

2,66

6,87

1,40

2,19

–2,51

–8,83

–3,50

24,38

16,55

25,31

16,92

24,72

18,34

3,17

–0,12

–2,57

–0,43

–1,04

–0,53

5,92

3,39

6,87

3,56

8,47

3,96

4,71

2,94

–9,04

7,45

–6,05

1,35

19,91

20,25

22,95

21,67

21,83

21,79

3,72

–0,55

–5,52

–1,29

–7,36

–2,86

17,86

3,54

9,58

3,83

9,41

4,68

5,35 –46,23 –21,10 –50,24 –26,66 –32,39

–7,44

23,89

24,62

18,46

24,21

4,95

7,54

4,92

8,36

5,35

15,72 –45,78 –15,97

21,13

27,86

24,36

26,40

4,91

10,47

4,88

9,19

5,26

15,81 –75,95 –43,87

4,20

30,68

20,87

28,71

33,81

5,80

12,31

6,51

6,27 –100,00 –100,00 –100,00 –100,00

1,88

37,57

1,61

1,62

14,03

7,16

13,94

7,14

9,75

6,78

19,86 –11,53

–2,90

31,90

35,39

57,58

39,44

47,34

41,09

1,45 3,86

–0,33

6,10

3,59

3,92

–3,22

7,84

6,10

20,55

5,58

2,78

–1,02

9,32

4,05

4,87

–1,52

4,95

9,78

19,51

11,85

20,89

–0,05

5,83

5,09

5,97

–100,00 –100,00

–4,59

–0,03

–1,05

4,41

–0,01

–5,97

6,62

24,17 –33,72 5,95

1,48

1,41

1,05

21,87

28,46

33,92

5,83

2.4 Anwendungen der Simulation

unterhalb der Bestimmungsgrenze – ausgenommen bei beiden ersten Peakpaaren. Das Ergebnis in der Tabelle 2.14 ist dementsprechend erheblich schlechter als bei dem 100-mal geringeren Rauschen, weil sich hier die Fehler durch die Verschmelzung von Peaks und die Fehler durch zu kleines S/N überlagern. In jeder zweiten Zeile ist die Summe der beiden Flächen des jeweiligen Peakpaars gezeigt. Die hier nicht gezeigten Höhen weisen wiederum erheblich geringere Abweichungen auf. Überprüfen Sie entgegen Ihrem bisherigen Vorgehen, ob Ihnen die Peakhöhen eine bessere Auswertung ermöglichen.

Der Vergleich der beiden Chromeleon-Ergebnisse zeigt, dass andere Integrationsbedingungen nicht – wie bei dem 100-fach geringeren Rauschen – zu geringeren Abweichungen führen. Die getesteten Integrationssysteme haben im Endeffekt ein vergleichbares Ergebnis, d. h., auch die freistehenden Peaks haben deutliche Abweichungen vom richtigen Wert. Nach einer Glättung der Daten mit 19 Punkten Moving-Average zeigte Apex-Track eine Verbesserung für die Peakpaarsumme (Daten nicht in der Tabelle 2.14, aber in Isokrat10000-Ergebnis.xls auf der CD), weil das Rauschen wesentlich vermindert war. Die innere Auftrennung der Peakpaare wird davon aber nicht verbessert. Bei den anderen Integrationssystemen wurde nicht getestet, welchen Einfluss ein Smoothing gehabt hätte. Man sieht, dass die Integrationsprobleme durch das Rauschen die Probleme durch die verschmolzenen Peaks stark überlagern. 2.4.4 Simulation eines Gradienten-Chromatogramms

Die Simulation einer Trennung mit Gradienten (Temperaturprogramm) wurde mit Gauß-Peaks gleicher Peakbreite vorgenommen (Gradient100.cdf und Gradient10000.cdf auf der CD). Sie enthält 36 Gauß-Peaks, die eine Standardabweichung der Peaks von 0,05 min haben (Abb. 2.23). Die ungeraden Peaknummern haben die Retentionszeiten 2, 3, 4 bis 19 min und einen Peakflächenfaktor von 60 000 μV min, die geraden Peaknummern haben Retentionszeiten 2,14 + 0 · 0,015 min, 3,14 + 1 · 0,015 min, 4,14 + 2 · 0,015 min bis 19,14 + 17 · 0,015 min und einen Peakflächenfaktor von 20 000 μV min. Dadurch entstehen 18 Peakpaare, die am Anfang stark verschmolzen und dann immer besser getrennt sind. Um einen Gradientenanstieg zu simulieren, wurde ein sehr breiter Peak mit der Retentionszeit 20 min, d. h. nur der Anstieg des Peaks, verwendet. Die Flächen der Peaks sind abwechselnd 3 600 000 und 1 200 000 μV s. Jeder Peak wird von 90 Datenpunkten beschrieben. Der zweite Peak des ersten Peakpaars ist nur eine Schulter, ab dem sechsten Peakpaar übersteigt die Auflösung den Wert eins. Die letzten drei Peakpaare sind durch Basislinien getrennt. Das Rauschen wurde einmal auf 100 μV und einmal auf 10 000 μV gesetzt. Das Signal-Rausch-Verhältnis bei dem starken Rauschen beträgt immer abwechselnd 48 und 16 und ist bei dem geringeren Rauschen jeweils 100-mal so hoch.

107

108

2 Integrationsfehler und Auswertung

Abb. 2.23 Simulation eines Gradienten-Chromatogramms.

Hier liegt das Integrationsproblem in der Verschmelzung der Peaks, nicht im Rauschen oder der Basislinienverschiebung. Mit jeweils einem Tastendruck könnte man in der Chromatogramm-Simulation beide Effekte „abschalten“, um zu prüfen, was dies für die Integration bedeutet. Genauso wie bei den Isokrat-Simulationen ist die Höhenbestimmung erheblich weniger von dem Verschmelzen der Peaks beeinflusst. Zu einer Auswertung über die Peakhöhe können sich viele Erfahrene nur schwer entscheiden, aber der Vorteil der Höhen ist sehr deutlich (vgl. Kipiniak [12]). Versuchen Sie bei Ihrem Problem einen Vorteil der Flächen zu belegen. Dann nehmen Sie natürlich die Flächen, andernfalls nicht. Nimmt einer der beiden Peaks eines Paares dem anderen Fläche weg, dann ist das prozentual ein größerer Wert für den kleineren als für den größeren Peak. Der Prozentwert des zweiten, ein Drittel so großen Peaks, ist in der Tabelle häufig etwa 3-mal so groß, wie der Prozentwert des ersten Peaks. Vergleicht man die Chromatogramme der Abb. 2.24 und 2.25 miteinander, so ist der Effekt des „Smoothing by 29 Points“ sehr beeindruckend. Die Ergebnisse in Tabelle 2.16 für Apex 29 sind im Vergleich zu Apex (ohne Glättung) erheblich besser. Der „Gaussian Skim“ (Abb. 2.25) erweckt die Hoffnung, bei diesem Chromatogramm besonders sinnvoll zu sein, weil es nur aus Gauß-Peaks besteht. Das ist aber nicht der Fall. Die gaußförmige Weiterführung des ersten Peaks benachteiligt den zweiten Peak und das Gesamtergebnis wird schlechter als bei der Lotfällung.

2.4 Anwendungen der Simulation Tabelle 2.15 Prozentuale Abweichungen der Flächen und Höhen vom richtigen Wert mit vier Integrationsmöglichkeiten. Apex 29 Fläche [%]

Chromeleon 1

Höhe [%]

Fläche [%]

Höhe [%]

Chromeleon 2 Fläche [%]

Höhe [%]

LCsolutions Fläche [%]

Höhe [%]

6,75

0,51

33,30

0,64

2,73

0,66

33,20

0,50

–20,46

–1,11

–100,00

–100,00

–8,31

14,91

–100,00

–100,00

4,73

0,11

25,36

0,26

4,71

0,26

5,90

0,10

–14,38

2,59

–76,24

–65,99

–14,29

2,79

–18,06

2,68

2,41

–0,07

21,57

0,08

2,41

0,08

3,36

–0,07

–7,55

0,71

–64,93

–51,38

–7,45

0,87

–10,46

0,74

1,31

–0,14

1,31

0,02

1,33

0,02

1,58

–0,13

–4,30

0,19

–4,17

0,24

–4,16

0,24

–4,95

–0,25

0,95

–0,17

0,98

–0,02

0,98

–0,02

1,52

–0,16

–3,28

–0,17

–3,10

0,08

–3,10

0,08

–4,91

–0,09

0,37

–0,18

0,36

–0,02

0,36

–0,02

0,52

–0,16

–1,54

–0,23

–1,46

–0,13

–1,41

–0,11

–1,82

–0,61

0,24

–0,17

0,23

–0,03

0,22

–0,03

0,59

–0,16

–1,11

–0,24

–1,04

–0,08

–1,07

–0,10

–1,87

–0,16

0,13

–0,17

0,15

–0,02

0,16

–0,02

0,57

–0,14

–0,82

–0,25

–0,72

–0,10

–0,66

–0,08

–1,72

–0,57

0,07

–0,17

0,08

–0,03

0,07

–0,03

0,19

–0,14

–0,57

–0,22

–0,45

–0,03

–0,51

–0,05

–0,45

–0,11

0,02

–0,17

0,05

–0,01

0,01

–0,03

0,20

–0,14

–0,45

–0,24

–0,28

–0,11

–0,39

–0,15

–0,47

–0,54

0,01

–0,16

–2,40

–0,96

–0,01

–0,01

0,21

–0,12

–0,30

–0,21

–6,62

–2,94

–0,15

0,00

–0,33

–0,08

0,03

–0,14

–1,60

–0,61

0,02

0,00

0,09

–0,12

–0,18

–0,19

–4,43

–1,90

–0,10

–0,05

0,07

–0,50

0,04

–0,14

–1,05

–0,39

0,01

0,00

0,15

–0,10

–0,13

–0,17

–2,86

–1,18

0,02

–0,02

0,16

–0,04

0,11

–0,12

–0,68

–0,23

–0,67

–0,23

0,18

–0,09

0,03

–0,11

–1,82

–0,77

–1,81

–0,77

0,29

–0,44

–0,41

–0,29

–0,42

–0,13

–0,43

–0,14

0,20

–0,07

–1,09

–0,54

–1,05

–0,40

–1,07

–0,40

0,89

0,11

–0,24

–0,22

–0,25

–0,08

–0,23

–0,08

–0,21

–0,20

–0,68

–0,38

–0,64

–0,25

–0,64

–0,25

–0,72

–0,83

–0,15

–0,19

–0,11

–0,02

–0,10

–0,02

–0,12

–0,17

–0,37

–0,25

–0,30

–0,08

–0,34

–0,10

–0,50

–0,29

–0,11

–0,18

0,00

0,00

–0,02

–0,01

–0,10

–0,17

–0,21

–0,21

–0,06

–0,06

–0,08

–0,06

–0,32

–0,72

109

Abb. 2.24 Integration von Gradient 10 000 mit Apex.

110

2 Integrationsfehler und Auswertung

Abb. 2.25 Integration von Gradient 10 000 mit Apex nach „Smoothing by 29 Points“.

2.4 Anwendungen der Simulation 111

112

2 Integrationsfehler und Auswertung Tabelle 2.16 Prozentuale Abweichungen der Flächen vom richtigen Wert mit sechs Integrationsmöglichkeiten. Labsolutions [%]

Chromeleon 1 [%]

Chromeleon 2 [%]

Apex [%]

Apex 29 [%]

Apex Gauß [%]

EZChrom [%]

32,10

37,33

7,40

18,68

6,82

12,70

37,71

–100,00

–100,00

–15,79

–48,49

–19,65

–37,27

–100,00

4,18

31,49

6,37

3,18

4,48

6,75

8,93

–13,34

–82,39

–5,04

–10,12

–15,60

–22,42

–8,38

3,75

27,38

5,44

3,79

2,79

6,65

5,93

–9,48

–69,84

–4,13

–5,27

–8,44

–20,00

–4,22

4,09

19,54

5,18

4,83

1,62

4,83

3,77

–10,39

–57,40

–0,69

–3,88

–3,67

–13,32

2,81

3,16

3,57

3,19

0,84

1,84

4,21

3,57

–5,14

5,61

4,58

2,89

–1,80

–8,90

5,61

1,68

3,19

2,46

2,46

0,55

1,91

3,15

–1,84

4,91

5,21

2,71

–1,11

–5,19

4,09

1,48

2,87

2,56

1,78

0,53

1,58

3,51

–3,36

–0,05

4,59

1,54

–1,48

–4,65

4,71

2,39

1,81

2,49

2,49

0,75

1,43

2,93

–0,53

6,39

5,03

5,03

0,88

–1,17

8,27

0,45

3,06

1,56

–0,79

0,48

0,94

3,06

–0,28

6,89

3,87

1,97

0,63

–0,74

6,89

1,26

2,34

2,42

2,66

0,98

0,98

4,09

0,71

6,49

5,53

4,80

0,73

0,73

6,97

0,94

2,27

2,63

0,97

–0,40

–0,40

3,45

0,09

5,59

4,82

2,72

–0,83

–0,83

7,89

–0,65

0,52

2,41

1,77

0,33

0,33

6,23

–4,13

–4,38

7,23

1,51

–1,53

–1,53

7,55

–0,49

1,36

4,66

1,99

0,23

0,23

3,13

–1,79

3,92

9,25

3,98

–0,24

–0,24

7,05

0,27

2,37

2,39

1,06

0,39

0,39

4,14

–3,08

5,21

5,72

2,22

–1,62

–1,62

11,24

–0,38

1,89

2,82

2,12

1,04

1,04

5,68

–3,37

6,13

6,76

5,76

2,59

2,59

13,12 6,50

0,14

2,39

2,78

2,42

0,94

0,94

–0,97

9,14

7,28

5,86

2,01

2,01

9,89

–0,56

2,75

3,06

1,43

–0,26

–0,26

2,65

–0,19

7,47

11,20

6,27

4,28

4,28

6,81

0,23

3,28

4,02

1,43

0,17

0,17

2,47

–0,95

9,30

7,72

–1,77

0,23

0,23

7,55

2.4 Anwendungen der Simulation

Nur mit einer Dekonvolution wäre es denkbar, verschmolzene Peaks auseinander zu rechnen. Kein CDS enthält bisher diese Möglichkeit – wahrscheinlich ist der unabdingbare automatische Ablauf nicht möglich. Einer Bitte an die Firma Statcon, das Chromatogramm, das die Abb. 2.10 zeigt, mit „Peakfit“ in Gaußfunktionen zurückzurechnen, wurde nicht entsprochen. Die Abb. 2.25 zeigt, dass selbst in einem realen Gradientenchromatogramm die Peakbreite um den Faktor zwei variieren kann. Tailing ist sicherlich schwierig zu erfassen. Vermutlich verhindern beide Effekte den Einsatz der Dekonvolution in der Routineanalytik. 2.4.5 Nebenproduktanalyse

Bei der Nebenproduktanalyse hat man im Allgemeinen einen sehr großen Peak und mehrere sehr viel kleinere Peaks. Die kleinen Peaks nach dem Hauptproduktpeak liegen möglicherweise auf dem Tailing dieses Peaks, wie man es erst bei z. B. 100-facher Verstärkung sieht. Deshalb kommt für die richtige Integration einer realistischen Simulation des Hauptpeaks mit genauer Nachbildung des Tailing wesentliche Bedeutung zu. Das Tailing der Nebenproduktpeaks hat dagegen viel weniger Bedeutung. Bei der Methodenentwicklung strebt man im Allgemeinen ein Chromatogramm an, bei dem alle Peaks basisliniengetrennt sind. Das wird durch eine Auflösung R von 1,5 verifiziert. Leider entspricht ein Wert von 1,5 nur bei etwa gleichgroßen Peaks gerade einer Basislinientrennung. Für Peaks mit großen Konzentrationsunterschieden von 100 oder 1000 ist R wenig aussagefähig, weil der Fuß des größeren Peaks den kleineren Peak überdeckt. Eine viel einfachere und aus dem Chromatogramm direkt ableitbare Forderung wäre, dass das Tal zwischen zwei Peaks mindestens eine Höhe von 55% von der Höhe des kleineren Peaks erreichen muss, um genügend reproduzierbar quantifiziert zu werden. Das entspricht bei gleichgroßen Peaks einem R von eins, ist aber auch bei sehr verschiedenen Peakhöhen verwendbar. Damit könnte auch jedem Peak ein Asymmetriefaktor Af50% = b50%/a50% zugeordnet werden. Der Asymmetriefaktor in 5% oder 10% der Höhe ist zwar genauer, aber bei verschmolzenen Peaks oft nicht mehr messbar. Man könnte Af50% generell mit im Report ausgeben. Wenn bei allen Peaks die entsprechenden Werte angezeigt werden, ist auch oben genannte Forderung erfüllt. Tailing oberhalb von Af = 1,55 ist mit zwei verschmolzenen Gauß-Peaks nicht mehr zu simulieren. Um eine möglichst realistische Simulation von Peaks mit starkem Tailing durchzuführen, könnte man die EMG-Funktion verwenden. Eine andere geeignete einfache Funktion mit wenigen Parametern wurde von Losef [17] beschrieben: y =

a exp [ −a(x − c )] + exp [b(x − c )]

(2.13)

In Anlehnung an ein konkretes Chromatogramm wird mit den Eingabedaten a = 15, b = 4, c = 1,9304339 und A = 836 530 ein Peak bei 2 min und einer Höhe

113

114

2 Integrationsfehler und Auswertung

Abb. 2.26 Peak nach einem realen Beispiel mit der Funktion von Losef nachsimuliert [17]. Tabelle 2.17 Graphisches Ausmessen der Asymmetriefaktoren und Tailingfaktoren in verschiedener Höhe eines Peaks nach Losef [17]. Peakhöhe [%]

Asymmetriefaktor

Tailingfaktor

0,01

3,30

2,15

0,10

3,15

2,07

1,00

2,88

1,94

5,00

2,67

1,83

10,00

2,53

1,77

von 500 000 μV erzeugt, der ein starkes Tailing mit folgenden Faktoren in verschiedener Peakhöhe hat: Die Funktion von Losef wurde mit den oben genannten Parametern als Hauptproduktpeak verwendet und sechs symmetrische Peaks auf dessen Tailing aufgesetzt. Die Standardabweichung sP der kleinen Peaks wurde von 0,12 min in 0,02er Schritten bis auf 0,28 min erhöht. Die Nebenproduktpeaks haben eine Fläche von 1% oder in einer zweiten Serie von 0,1% von der Fläche des Hauptpeaks. Die Retentionszeit des Hauptpeaks liegt bei 2 min. Die Retentionszeit der Nebenprodukte wurde um jeweils 4 · sP nach hinten geschoben (Schema in Tabelle 2.18), um zwischen den Nebenproduktpeaks jeweils eine Auflösung von eins zu haben. Jeder zweite Peak hat die doppelte Fläche und Höhe. Von den insgesamt 18 Chromatogrammen sind sechs Chromatogramme gezeigt. Die restlichen Chromatogramme befinden sich in der Datei Losef.ppt auf der CD. Damit haben alle sechs Peaks untereinander eine Auflösung von eins, d. h. noch keine Basislinientrennung. Je nach Peakbreite verschwinden mindestens ein, maximal drei Peaks im Hauptpeak. Dieser Effekt ist im 0,1-%-Bereich (Abb. 2.33 bis 2.35) stärker als im 1-%-Bereich (Abb. 2.30 bis 2.32).

2.4 Anwendungen der Simulation Tabelle 2.18 Berechnung der Retentionszeiten von sechs Nebenproduktpeaks, die auf dem Peak von Losef [17] aufgesetzt sind. = 2 + 4 · sP = 2 + 8 · sP = 2 + 12 · sP = 2 + 16 · sP = 2 + 20 · sP = 2 + 24 · sP

Abb. 2.27 Simulation von sechs Nebenproduktpeaks mit sP = 0,12 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.

Die entsprechende Excel-Simulation mit sP = 0,12 min und 1% der Fläche zeigt die Abb. 2.27. Die Sollfläche der Nebenproduktpeaks ist bei den Peaks mit 1% der Fläche vom Hauptpeak abwechselnd 64 800 und 129 600 μV · s und bei 0,1% der Fläche vom Hauptpeak abwechselnd 6480 und 12 960 μV · s. Man erkennt, dass die ersten beiden Peaks von dem Hauptpeak vollständig maskiert werden. Eine Trennung ist nur mit deutlich veränderten chromatographischen Bedingungen möglich. Jede Verringerung des Tailings des Hauptpeaks (evtl. bessere Säule) würde aber bereits die Trennung von den Nebensubstanzen verbessern. Der dritte Peak sitzt als Schulter auf dem Hauptpeak, der ursprüngliche Peak ist stark verfälscht. Die Umhüllung des vierten bis sechsten Peaks zeichnet die wirklichen Peaks fast unverfälscht nach, d. h., sie werden von dem Hauptpeak nicht mehr beeinflusst.

115

116

2 Integrationsfehler und Auswertung

Abb. 2.28 Integration der Simulation der Daten aus Abb. 2.27 mit LCSolution im automatischen Modus.

Abb. 2.29 Integration der Simulation der Daten aus Abb. 2.27 mit LCSolution mit Unterdrückung der Tangentenmethode.

2.4 Anwendungen der Simulation

Die mit einem unterlegten Rauschen von 5 μV simulierten Chromatogramme – um im Wesentlichen nur den Effekt der Peakverschmelzung zu untersuchen – wurden mit LCSolution (Shimadzu) und den Bedingungen Width = 10 und Slope = 200 integriert. Je nach der Qualität des Detektors wird man ein höheres Rauschen als hier (minimales S/N = 70) haben, das die Ergebnisse noch einmal verschlechtert. LCSolution wählte automatisch immer die Tangentenmethode (Abb. 2.28), was optisch durchaus nachvollziehbar, vom Ergebnis her aber ungünstig für die Fläche und Höhe der Aufsetzerpeaks ist. Mit der Eingabe „tangent off“ bei 2,5 min wurde die Lotfällung erzwungen (Abb. 2.29). Der dritte Peak (vgl. Abb. 2.30) ist gerade noch erkennbar, aber nicht mehr abtrennbar. Für den vierten Nebenproduktpeak liegt die richtige Fläche zwischen Abb. 2.28 und 2.29, aber näher an Abb. 2.29. Für die nachfolgenden Peaks verliert die Tangentenmethode sichtlich zu viel Fläche. Tabelle 2.19 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 1-%-Bereich zu Abb. 2.30. Tangente Fläche [%]

Lotfällung Höhe [%]

Fläche [%]

Höhe [%]

–63,16

–45,82

10,08

11,03

–28,39

–16,95

2,37

0,32

–34,52

–22,76

–2,41

0,12

–10,22

–5,68

0,26

–0,07

Abb. 2.30 Simulation von sechs Nebenproduktpeaks mit sp = 0,16 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 1080 μV min oder 2160 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.

117

118

2 Integrationsfehler und Auswertung

Es gibt keine Untersuchungen darüber, wie das Tailing im Bereich von 0,1 bis 1% eines Peaks richtig abgebildet wird. Geringe Unterschiede in den Anpassungsparametern können möglicherweise im untersten Konzentrationsbereich zu großen Unterschieden im Auslaufen eines großen Peaks führen. Es ist vorstellbar, dass der exponentielle Abfall in der EMG-Funktion in der Realität eine Überlagerung mehrerer e-Funktionen mit verschiedenen Zeitkonstanten ist. Dolan [4, 5] postuliert ein „exaggerated tail“ von Peaks, das man nur bei sehr großer Verstärkung erkennen kann, ohne dass er einen experimentellen Beleg dazu gibt. Alle für die Integration ungünstigen Effekte, die hier zusammenkommen, wie Verschmelzen von Peaks, sehr große Konzentrationsunterschiede und geringes Signal-Rausch-Verhältnis, machen sich bevorzugt am Peakfuß bemerkbar. Deshalb wird normalerweise die Fläche deutlich mehr verfälscht als die Höhe. Tabelle 2.20 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 1-%-Bereich zu Abb. 2.31. Tangente Fläche [%] –71,64 –56,80 –26,00 –30,72 –8,63

Lotfällung Höhe [%] –60,36 –39,10 –15,22 –20,11 –4,77

Fläche [%]

Höhe [%]

19,81 0,30 1,52 –3,31 0,33

26,68 1,98 0,06 –0,06 0,01

Abb. 2.31 Simulation von sechs Nebenproduktpeaks mit sp = 0,2 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 1080 μV min oder 2160 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.

2.4 Anwendungen der Simulation

Die hier dargestellte Simulation geht von einer geraden Basislinie aus. Bei jeder Integration nimmt das CDS zu Recht ebenfalls eine gerade Basislinie an, falls nichts dagegen spricht. Das CDS kann aber nur vorhandene Datenpunkte verwenden. Wir haben oft Zusatzinformationen, wie einen Leergradienten oder eine Leerprobe, aus denen wir den wahrscheinlichen Basislinienverlauf abschätzen können. Wenn diese Information vorhanden ist, muss sie in der Simulation berücksichtigt werden. Reale Chromatogramme können sehr komplex sein und es gibt Grenzfälle, in denen eine Entscheidung zwischen Tangentenmethode und Lotfällung schwer fällt. In Einzelfällen kann die Exponential- oder GaussianSkim-Methode zu einer guten Annäherung an die Realität führen. Als generell empfehlenswerte Integrationsverfahren sind die Skim-Methoden nicht geeignet (vgl. [2]). Tabelle 2.21 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 1-%-Bereich zu Abb. 2.32. Tangente Fläche [%] –45,64 –50,57 –21,34 –26,39 –6,90

Lotfällung Höhe [%] –30,14 –33,91 –12,76 –16,56 –4,08

Fläche [%]

Höhe [%]

5,60 –2,94 1,20 –3,07 0,64

2,68 0,14 –0,08 0,08 –0,08

Abb. 2.32 Simulation von sechs Nebenproduktpeaks mit sp = 0,28 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 1080 μV min oder 2160 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.

119

120

2 Integrationsfehler und Auswertung

Gegenüber den Abb. 2.30 bis 2.32 wurde in den Abb. 2.33 bis 2.35 noch 10-mal höher verstärkt. Dadurch wird der Peakfuß optisch noch einmal breiter und maskiert die Serie von jeweils sechs Peaks noch mehr. Erst der vierte Peak bildet eine Schulter aus. Die Forderung, noch Nebensubstanzen von 0,05% der Hauptsubstanz nachzuweisen, schöpft die analytischen Möglichkeiten weitgehend aus. Wenn der Hauptpeak maximal 2 V Peakhöhe haben darf, dann hat ein 0,05%iger Nebenpeak eine Höhe von 1 mV. Um ein minimales S/N von 10 zu haben, darf das Rauschen höchstens 100 μV betragen. Das ist nicht in jedem Fall erreichbar.

Tabelle 2.22 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 0,1-%-Bereich zu Abb. 2.33. Tangente

Lotfällung

Fläche [%]

Höhe [%]

Fläche [%]

Höhe [%]

–60,42

–46,80

52,72

41,76

–58,29

–40,95

12,38

11,41

–20,86

–11,43

0,65

0,54

Abb. 2.33 Simulation von sechs Nebenproduktpeaks mit sp = 0,12 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 108 μV min oder 216 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.

2.4 Anwendungen der Simulation

Bei den „Nebenprodukten“ im Promille-Bereich ist der Peakfuß des Hauptpeaks scheinbar breiter, weil man das Chromatogramm noch einmal um den Faktor 10 verstärken muss, um die kleinen Peaks darzustellen. Das hat zur Folge, dass sich ein zusätzlicher Peak mehr im Peakfuß quasi „verstecken“ kann. Diese möglicherweise „versteckten“ Nebenprodukte sind unsichtbar, aber vielleicht biologisch aktiv. Substanzen, die dem Hauptprodukt chemisch sehr ähnlich sind, haben vermutlich auch wenig abweichende Retentionszeiten. Nach einem Vorschlag von Dolan [4, 5] sollte man daran denken, das Tailing des Hauptpeaks aufzufangen und erneut mit möglichst stark verminderter Menge der Hauptsubstanz einzuspritzen.

Tabelle 2.23 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 0,1-%-Bereich zu Abb. 2.34. Tangente

Lotfällung

Fläche [%]

Höhe [%]

Fläche [%]

Höhe [%]

–74,49

–59,15

11,23

20,23

–29,53

–16,91

2,11

–0,20

–37,35

–23,41

–6,37

–2,06

–10,68

–5,77

–2,65

–0,66

Abb. 2.34 Simulation von sechs Nebenproduktpeaks mit sp = 0,2 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 108 μV min oder 216 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.

121

122

2 Integrationsfehler und Auswertung

Generell wird die Fläche nach der Tangentenmethode stark unterschätzt, wie es für die Nebenproduktanalyse zwar wünschenswert sein kann, aber meist falsch ist. Nach der Lotfällung wird die Fläche zu hoch eingeschätzt, aber in erheblich geringerem Ausmaß. Bei der Lotfällung sind die Abweichungen der integrierten Fläche für den ersten Aufsetzerpeak noch beträchtlich, für alle weiteren Peaks aber gering. Bis auf ganz wenige Ausnahmen hat die Peakhöhe geringerere Abweichungen vom Sollwert. Dagegen sind die Flächen und Höhen aller Aufsetzerpeaks nach der Tangentenmethode zu klein. Sicherlich würde meistens der erste Peak mit der Exponential- oder Gaussian-Skim-Methode besser als mit der Drop-Methode (Lotfällung) integriert, alle Tabelle 2.24 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 0,1-%-Bereich zu Abb. 2.35. Tangente Fläche [%]

Lotfällung Höhe [%]

Fläche [%]

Höhe [%]

–53,64

–35,01

–6,23

0,08

–23,66

–13,57

1,20

–0,57

–29,29

–18,77

–8,10

–1,87

–7,93

–4,47

0,02

–0,25

Abb. 2.35 Simulation von sechs Nebenproduktpeaks mit sp = 0,28 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 108 μV min oder 216 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.

2.4 Anwendungen der Simulation

folgenden Peaks aber nicht. Ob die Überschätzung des ersten Peaks akzeptabel ist, kann man nur im Einzelfall entscheiden. Die oben genannten Skim-Verfahren machen insbesondere Sinn, wenn nur ein Nebenproduktpeak nach dem Hauptpeak kommt bzw. wenn die weiteren Peaks mit so erheblichem Abstand folgen, dass sie basisliniengetrennt sind. Nur wenn die Aufsetzerpeaks atypisch schmal sind, reicht der Einfluss des Tailings vom Hauptpeak bis zum zweiten Aufsetzerpeak. Unter diesen sehr speziellen Umständen und bei nur einem Aufsetzerpeak würde das Auslaufen des Hauptpeaks bei der Drop-Methode zur Fläche des Aufsetzerpeaks hinzugezählt und es ist wahrscheinlich, dass die Tangentenmethode günstiger wäre. 2.4.6 Eigene Chromatogramme simulieren

Der Minimalreport jedes Integrators enthält die Retentionszeit, Fläche und Höhe der Peaks. Mehr ist nicht notwendig, um symmetrische Peaks nachzukonstruieren. Die Standardabweichung der Peaks errechnet sich aus dem Verhältnis Fläche zu Höhe: sP =

A 60 ⋅ H ⋅ 2 S

(2.14)

Teilt man die Fläche durch 60, hat man den Peakflächenfaktor und mit der Retentionszeit alle drei Größen, die einen Gauß-Peak bestimmen. Mit der Chromatogramm-Simulation ist es möglich, auf das im Abschn. 2.2.3 beschriebene Problem zurückzukommen. Es konnte dort nicht entschieden werden, welche von fünf Integrationen der Realität am nächsten kommt. Es konnten fünf etwas unterschiedliche, aber dem Original-Chromatogramm ähnliche Chromatogramme nachsimuliert werden. Um möglichst viele Peaks zu erfassen, wurde überall da, wo die Peakhöhe ein S/N von 10 überschreitet, der Mittelwert der Fläche und der Höhe gebildet. Wenn nur eine Fläche und Höhe vorhanden war, wurde diese genommen. Die Peaksimulation kann vorhandenen Peaks nicht nachträglich eine Fläche zuordnen. Aber man kann ein Chromatogramm nachsimulieren, das dem gemessenen Chromatogramm weitgehend ähnlich ist. Bei diesem simulierten Chromatogramm sind die Flächen und Höhen bekannt und die Abweichungen von dem Sollwert können mit den verschiedenen CDS ermittelt werden. Dadurch kann die Integration im Rahmen der Möglichkeiten der CDS optimiert werden. Das Rauschen wurde auf 20 μV gesetzt. Das ist ein graphisch abgelesener Wert aus dem Original-Chromatogramm bei hoher Verstärkung. Die deutlich vorhandene Drift wird genauso mit den dem Original-Chromatogramm entnommenen Werten modelliert: Die Drift hat bis zur dritten Minute eine Steigung von –200 μV/min, bis zur neunten Minute eine Steigung von –500 μV/min und danach von –30 μV/min. Diese Annahme entspricht der Realität weitgehend, aber nicht vollkommen.

123

124

2 Integrationsfehler und Auswertung

Die nachfolgende Integration des simulierten Chromatogramms erlaubt den Vergleich der simulierten Flächen (die aus dem Original-Chromatogramm resultieren) mit den integrierten Flächen. Eine Korrektur der Flächen des OriginalChromatogramms ist aber nicht möglich. Durch zielgerichtete Optimierung der Integrationsparameter werden spätere reale Chromatogramme besser integriert. Die Chromatogramm-Simulation erlaubt eine Fehleranalyse an nachsimulierten realen Chromatogrammen und eine Verbesserung der Integration innerhalb der Möglichkeiten, die die CDS bieten. Der früher erwähnte Präzisionsschütze kann ebenfalls seine frühere Leistung nicht nachträglich verbessern, aber er kann für die Zukunft lernen und tatsächlich besser werden. Das Ergebnis der Nachsimulation mit der zugrunde gelegten Basislinie zeigt die Abb. 2.36. Abgesehen von den ersten beiden Peaks sieht die Nachsimulation dem Original-Chromatogramm recht ähnlich, obwohl hier nur innerhalb von Excel kopiert werden musste, was wenige Minuten dauert. Bei sehr komplexen Chromatogrammen, bei denen es bei der Integration vielleicht darauf ankommt, ob ein Talpunkt geringfügig höher oder tiefer liegt als ein anderer, kann die Nachsimulation aber auch sehr zeitaufwendig sein. Die drei großen Peaks werden erwartungsgemäß mit genügender Genauigkeit integriert. Die ausschließlich negativen Abweichungen im Zeitbereich von 1 bis 2,5 min sind durch eine etwas zu hohe Basislinie zu erklären, die bei kleinen Peaks zu beachtlichen Fehlern führt. Diese Fehler wird man bei manueller Inte-

Abb. 2.36 Nachsimulation des realen Chromatogramms in Abb. 2.6 mit Gauß-Peaks mit den gemittelten Daten aus Tabelle 2.3. Die simulierte Basislinie ist mit eingezeichnet.

2.4 Anwendungen der Simulation

gration vermutlich genauso machen. Die Tangentenmethode würde den Fehler noch einmal beträchtlich erhöhen, weil dadurch noch einmal deutlich kleinere Flächen herauskommen würden. Natürlich kennt man die exakte Lage der Basislinie (vgl. Abb. 2.36) nur bei einer Simulation. Je mehr Peaks in einem Chromatogrammabschnitt verschmolzen sind und je stärker sie verschmolzen sind, desto schwieriger ist es, den realen Basislinienverlauf nachzuvollziehen. Deshalb ist es wichtig, den Leergradienten und alle gleichartigen Chromatogramme anzusehen. Die Basislinie kann immer tiefer, aber nie höher liegen als die Verbindungslinie der tiefen Talpunkte, außer bei Matrixeffekten.

Die integrierten Flächen zwischen 2,5 und 3,5 min sind wesentlich zu hoch, weil die Schultern mit integriert worden sind. Die CDS unterscheiden sich in ihrer Fähigkeit, Schultern zu erkennen. Häufig wird man auf manuelle Nachintegration angewiesen sein. Die Peakhöhen werden von den Schultern fast nicht beeinflusst.

Abb. 2.37 Integration des Chromatogramms aus Abb. 2.36. Die Integration erfolgte mit LCSolution und den Einstellungen Width = 10 s und Slope = 200 μV/min.

125

126

2 Integrationsfehler und Auswertung Tabelle 2.25 Die Flächen und Höhen der in Abb. 2.37 gezeigten Integration wurden mit den Sollwerten der Simulation verglichen und die Abweichungen berechnet. Vier Peaks wurden nicht erkannt. RT gem.

Sollfläche

Fläche int.

Abw. [%]

Sollhöhe

Höhe int.

0,725

4327431

1,005

4327375

0,00

1029879

1029851

0,00

117469

115936

–1,30

15483

15381

–0,66

1,276

11720

10433

–10,98

1923

1821

–5,29

1,394

13608

13393

–1,58

2509

2411

–3,91

1,575

69813

67770

–2,93

9705

9561

–1,48

1,774

7758

5383

–30,61

1144

965

–15,65

2,005

60974

58659

–3,80

9601

9409

–2,00

2,225

17364

16354

–5,82

3212

3123

–2,77

898

280

22789

3024

Abw. [%]

2,63

25910

49676

91,73

4183

4327

3,44

2,867

66558

82899

24,55

8017

8009

–0,10

15981

3529

3,655

8255658

8260362

0,06

641514

641014

–0,08

4,185

80821

87470

8,23

4374

4361

–0,29

12211

1617

4,791

4702

4441

–5,55

611

594

–2,70

5,483

22264

22088

–0,79

2422

2392

–1,24

6,763

3200

2064

–35,51

203

155

–23,65

7,473

11789

4078

–65,41

424

229

–45,99

7,973

13740

9157

–33,36

790

612

–22,56

9,735

10644186

10767287

1,16

573167

572475

–0,12

123204

10311

12,724

1626

1825

12,24

120

130

8,33

13,706

10582

10851

2,55

532

544

2,19

14,371

27034

27144

–9,36

1281

1288

0,59

2.4 Anwendungen der Simulation

Die beiden Peaks bei 7,5 und 8 min wurden (automatisch) nach der Valley-toValley-Methode integriert. Deswegen sind sowohl die Flächen als auch die Höhen stark erniedrigt. Die Integration eines Chromatogramms mit verschmolzenen kleinen Peaks ist meist schwierig. Weil die automatische Integration zu schlechte Ergebnisse liefert, werden solche Chromatogramme häufig manuell nachintegriert. Die beiden Funktionen „Tangent Skim“ und „Valley to Valley“ sind nur in wenigen Fällen nützlich, die mit der Chromatogramm-Simulation zu finden sind. Diese Funktionen sollten bei den CDS normalerweise ausgeschaltet sein, um sie nur bei Bedarf zu verwenden. Je komplizierter die Basislinie verläuft und je mehr verschmolzene Peakgruppen vorhanden sind, desto höheren Stellenwert hat die richtige Erfassung der Basislinie. Zur manuellen Integration siehe auch Abschn. 2.4. Eine bisher in den CDS nicht vorhandene Integrationsfunktion könnte hilfreich sein (Kilz, 2006, persönliche Mitteilung), die eine geglättete vorläufige Basislinie einzeichnet, die man graphisch anheben und absenken könnte, ähnlich wie es Zeichenprogramme erlauben. Die korrigierte Basislinie würde von den Original-Daten abgezogen, um dann mit einer geraden Basislinie bestmöglich zu integrieren. Bei den sehr einfachen Beispielen im Abschn. 2.3.5 „Drift“ würde dieses Verfahren sehr wirksam sein. 2.4.7 Welche Konsequenz ist daraus zu ziehen?

Bei guten Chromatogrammen (vgl. Abb. 2.3) ist die Integration völlig problemlos und der Integrationsfehler minimal. Leider sind reale Chromatogramme meist erheblich komplizierter. Wenn manche Peaks eines Chromatogramms miteinander verschmolzen sind, wird meist mit der Lotfällung integriert. Das gibt nur dann vollkommen richtige Ergebnisse, wenn die Peaks gleich groß und symmetrisch sind. Je mehr die Peaks verschmolzen sind, je stärker das Tailing ist und je unterschiedlicher die beiden Peakhöhen sind, desto schlechter werden die Ergebnisse. Dabei kann der Integrationsfehler größer als 50% sein. Die Tangentenmethode liefert fast immer schlechtere Ergebnisse als die Lotfällung. Die Peakhöhe zeigt fast immer geringere Abweichungen vom Sollwert als die Peakfläche. Mit der hier vorgestellten Chromatogramm-Simulation in Excel ist es erstmals jedem Anwender möglich, die Fläche der Peaks (bei Gauß-Peaks auch die Höhe) beliebig zu justieren und zu einem realistischen Chromatogramm zusammenzusetzen. Durch Einlesen eines Excel- oder Textfiles oder eines AIA-Files in das jeweils verwendete Integrationssystem kann die Richtigkeit der Integration überprüft werden. Damit ist auch erstmals eine wirkliche Validierung der Integrationsfunktion von CDS möglich. In Ermangelung der Zielgröße „richtige Fläche“ konnte bisher nur die Präzision überprüft werden, was nur für prinzipiell richtige Werte Sinn macht. Wenn möglich sollten Peaks immer ein Signal-Rausch-Verhältnis über 100 haben. Nur wenn das Rauschen weniger als 1% des Signals beträgt, liegt der In-

127

128

2 Integrationsfehler und Auswertung

tegrationsfehler für die Fläche unter 1%. Bei Nebenproduktanalysen, bei denen Substanzen bis zu 0,05% vom Hauptprodukt quantifiziert werden müssen, muss bis an die Bestimmungsgrenze mit S/N = 10 heran gemessen werden. Das ist selbst bei basisliniengetrennten Peaks nur mit einem beträchtlichen Integrationsfehler möglich. Wenn Sie Ihre Routineproben in den Autosampler gestellt und von jeder Probe ein Chromatogramm erhalten haben, fängt die Arbeit wieder neu an: Sie müssen Ihren Computer kontrollieren, nicht umgekehrt. Vergessen Sie bei den vielen beeindruckenden Steuerfunktionen Ihres Integrationssystems nicht, dass die Integration das gewünschte Ergebnis liefert. Hier ist ein Weg aufgezeigt, wie vorhandene oder geplante Systeme mit simulierten Chromatogrammen, die selbst gemessenen Chromatogrammen möglichst ähnlich sind, auf Richtigkeit überprüft werden können. Ein CDS, das für einen Anwender optimal erscheint, muss für einen Anwender mit anderen Problemen nicht das Beste sein. Zusätzlich ist die Entscheidung für ein CDS von vielen Gesichtspunkten getragen, die nur individuell zu beurteilen sind. Die Grundfunktion der CDS ist trotzdem die Integration. Wenn die Integration unzureichend sein sollte, werden auch die vielfältigen Möglichkeiten der Gerätesteuerung weitgehend entwertet. Die CDS reagieren verschieden auf die bei einem komplexen Chromatogramm letztlich unzureichende Zahl von 20 Datenpunkten, mit denen ein Peak beschrieben wird. Dadurch, dass die richtigen Flächen mit der Chromatogramm-Simulation bekannt sind, kann die Reaktion der CDS auf Änderungen der Integrationsparameter oder der tDP nicht mehr nur nach der Plausibilität untersucht werden und die Integration optimiert werden. Es ist vorstellbar, dass nicht nur Anwender mit der nunmehr bekannten Zielgröße „richtige Fläche“ ihr Integrationssystem optimieren, sondern dass die CDS selbst sich eines Tages automatisch optimieren und als selbstlernende Systeme funktionieren.

2.5 Auswertung

In der Chromatographie erwartet man in 99% der Fälle einen linearen Zusammenhang zwischen der Konzentration x und dem Signal y. Unter der Voraussetzung der Linearität ist ein Kalibrierpunkt bei nicht zu kleiner Konzentration ausreichend, um die Steigung b einer Geraden y = b · x zu berechnen, weil der zweite Punkt, durch den die Gerade geht, der Nullpunkt ist. Auch für mehrere Kalibrierpunkte lässt sich eine Nullpunktsgerade anpassen. Die allgemeine Art, einen linearen Zusammenhang zu finden, ist die lineare Regression mit Achsenabschnitt. Für eine Validierung wird grundsätzlich eine Kalibriergerade bestimmt. In der täglichen Routine beschränkt man sich dagegen oft auf eine Einpunktkalibierung.

2.5 Auswertung

2.5.1 Auswertemethoden

Die Minimalform der Kalibrierung ist die Einpunktkalibrierung. Man berechnet als Responsefaktor RF den Quotienten aus dem Signalwert y und der Konzentration x und nimmt an, dass diese Beziehung für die Kalibrierkonzentration xK und alle Analysenkonzentrationen xA gilt. RF =

yK xK

(2.15)

RF =

yA xA

(2.16)

Da xA die Zielgröße ist, muss nach xA aufgelöst werden. xA =

yA y ⋅x = A K RF yK

(2.17)

In diesen Gleichungen kann der Messwert y die Fläche oder die Höhe sein, aber auch der Quotient der Fläche (Höhe) geteilt durch die Fläche (Höhe) des internen Standards IS in demselben Chromatogramm. yK = FK

(2.18)

y K = HK

(2.19)

yK =

FK FISK

(2.20)

yK =

HK HISK

(2.21)

Selbstverständlich kann man eine Gesamtgleichung für den internen Standard erstellen, in der verschiedene Einwaagen vorgesehen sind, verschiedene extrahierte Volumina und verschiedene Injektionsvolumina (eigentlich verboten). Diese drei Größen sind jeweils nur ein Korrekturfaktor für die resultierende Konzentration, der sich aus dem Quotienten, normalerweise benutztes Volumen (Einwaage) durch aktuell benutztes Volumen (Einwaage), ergibt. Extrahiert man z. B. statt des üblichen Milliliters nur 0,5 ml, teilt man durch 0,5 und erhält die doppelte Konzentration.Bei der Chromatographie kann man sich entscheiden (bei Messungen mit Untergrundsignal ist es notwendig), eine Gerade mit einem Achsenabschnitt anzupassen. Einerseits ist dann bei chromatographischen Bestimmungen zu fordern, dass sich der Achsenabschnitt a nicht signifikant von null unterscheidet. Ist das der Fall, gibt es aber auch kein statistisches Argument gegen die Nullpunktsgerade.

129

130

2 Integrationsfehler und Auswertung

Löst man die Gleichungen nach xA auf, so ergibt sich: xA =

yA RF

Einpunkteichung

(2.22)

xA =

yA b

Nullpunktsgerade

(2.23)

xA =

yA − a b

Lineare Regression

(2.24)

Mit diesen sehr ähnlichen Gleichungen lassen sich die Analysenwerte berechnen. In der linearen Regression mit Achsenabschnitt gibt es bis auf die meist geringe Korrektur des Signalwertes yA durch a gar keinen Unterschied. Allerdings werden kleine Signalwerte relativ gesehen viel mehr korrigiert als große Werte. Dies wird im nächsten Abschnitt näher beleuchtet.Das Additionsverfahren ist auch eine lineare Regression – natürlich mit Achsenabschnitt, der ja hier die eigentliche Zielvariable ist. Deshalb braucht man mindestens zwei Punkte, um die Gerade anzupassen. Die gesuchte Konzentration der Probe ohne Zusatz ist, wie in der DIN 32 633 beschrieben: a b

(2.25)

a = yA

(2.26)

xA =

b=

yA +Z − yA xZ

(2.27)

Selbstverständlich kann auch bei dem Additionsverfahren ein interner Standard eingesetzt werden. Dabei werden auch hierbei als Messwerte die Fläche (Höhe) des Analysenpeaks in Relation zum internen Standard in demselben Chromatogramm eingesetzt. Als Minimum muss man zwei Analysen durchführen: Einmal ohne Zusatz, einmal mit Zusatz Z. xA =

y A ⋅ xZ yA +Z − yA

(2.28)

Bei mehr als zwei Messpunkten muss eine lineare Regression durchgeführt werden. Dabei ergeben sich a und b direkt aus der Geradengleichung. Eine ausführlichere Beschreibung der Auswertemethoden, bei der in Excel durchgerechnete Beispiele gezeigt werden, findet sich bei Kuss [16].

2.5 Auswertung

2.5.2 Kalibrierung

Zur Kalibrierung sucht man mit der linearen Regression nach der Steigung b (Empfindlichkeit) und dem Achsenabschnitt a (Untergrund) der Geradengleichung. y =b⋅x +a

(2.29)

Dazu braucht man bei Kalibrierproben mit aufsteigenden Konzentrationen die Fläche oder Höhe der entsprechenden Peaks in den einzelnen Chromatogrammen. Die Kalibrierprobe mit der niedrigsten xU und der höchsten Konzentration xO bestimmen den Arbeitsbereich ABx. ABx =

xO xU

(2.30)

2.5.3 Lineare Regression

Das folgende Beispiel von Johnsson et al. [11] umfasst mit Dreifachmessungen zu jeder Konzentration einen Arbeitsbereich von 600, der spezielle Probleme mit sich bringen kann. Hier ist zunächst nur ein Teil der Tabelle, nämlich die unteren sieben Kalibrierpunkte (jeweils der mittlere Wert), gezeigt, die einen Arbeitsbereich vom Faktor 100 umfassen (s. Tabelle 2.26). Die (korrigierten) Signalwerte sind Quotienten aus der Fläche der Analysensubstanz und der entsprechenden Fläche des internen Standards. Die Signalwerte wurden mit 1000 multipliziert, um die Tabelle übersichtlicher zu gestalten. Da immer nur Relativberechnungen durchgeführt werden, kürzt sich das bei der Auswertung weg. Tabelle 2.26 Aus einer Tabelle von Johnsson [11] wurden für die Konzentrationen von 5 bis 500 die mittleren Signalwerte (n = 3) berechnet, außerdem die Werte auf der Geraden y(x), die Residuen y – y(x) und die Quadrate der Residuen. In Tabelle 2.27 sind die vollständigen Daten dargestellt. x

y

5 10 25 50 100 250 500

35 59 143 274 550 1343 2683

134

727

y(x)

y – y(x)

[y – y(x)]2

35,20 61,95 142,18 275,90 543,33 1345,63 2682,81

–0,20 –2,95 0,82 –1,90 6,67 –2,63 0,19

0,04 8,69 0,67 3,59 44,48 6,94 0,04

Mittelwert

SAQ =

64,462

131

132

2 Integrationsfehler und Auswertung

In Excel sind mit und diese beiden Größen leicht zu bestimmen (b = 5,3486; a = 8,4614), die in Gl. (2.29) eingesetzt werden, um die y(x)-Werte zu berechnen, d. h. die y-Werte auf der Geraden. Die Differenzen zwischen den gemessenen y-Werten und den berechneten y(x)-Werten werden Residuen oder Reste genannt. Die lineare Regression berechnet die Gerade, für die die Summe der Residuen zum Quadrat den kleinstmöglichen Wert (hier: 64,462) ergeben. Jede Abweichung von der Geraden, d. h. jedes Residuum, zieht die Gerade zu sich hin, sogar sehr stark, weil ja die Abweichungsquadrate aufsummiert werden. Wenn im unteren Teil der Gerade nur kleine Abweichungen auftreten, im oberen Teil nur große Abweichungen (inhomogene Varianzen), dann bleiben die unteren Punkte unberücksichtigt, weil sie kein Gewicht haben und die Gerade kann an ihnen zu weit vorbeigehen. Die Abweichungen bei den kleineren Konzentrationen haben die höhere Gewichtung „verdient“, wenn sie (in Absoluteinheiten) erheblich genauer gemessen werden können. Mit dem Diagrammassistenten kann man nach Markieren der ersten drei Spalten der Tabelle 2.26 die Messwerte und die Gerade (Abb. 2.38) darstellen, die die beste Annäherung an die Messwerte ergibt. Man sollte immer die Residuen graphisch auftragen (Abb. 2.39), um beurteilen zu können, ob sie zufällig verteilt sind. Aus Abb. 2.39 lässt sich abschätzen, dass ein mittlerer Residuenwert bei etwa drei liegt. Bezogen auf den Mittelwert von y = 727 sind das weniger als 0,5%. Die exakte Rechnung bestätigt das. Die mittlere Abweichung der Residuen, die Residualstandardabweichung RSD, errechnet sich nach: RSD =

[y − y(x )]2 = 3,591 n−2

(2.31)

Die RSD als y-Abweichung (Differenz zwischen gemessenen und berechneten y-Werten) wird genauso wie andere y-Werte mit der Geradengleichung in x-Abweichungen umgerechnet. Allerdings berücksichtigt man hier die Korrektur mit dem Achsenabschnitt nicht, weil sie sich bei einer Differenz herauskürzt. Deshalb teilt man nur durch die Steigung b und erhält die Verfahrensstandardabweichung

Abb. 2.38 Die Daten der Tabelle 2.26 und die Regressionsgerade graphisch dargestellt.

2.5 Auswertung

Abb. 2.39 Die Residuen der Tabelle 2.26 als Graphik.

VSD. Diese, auf den Mittelwert der Konzentrationswerte x bezogen, ergibt den Verfahrensvariationskoeffizienten VVK [%]. VVK =

RSD = 0,5% b⋅x

(2.32)

Damit hat man ein anschauliches Maß für die Streuung der Signalwerte um die Gerade, analog zu dem Variationskoeffizienten für Mehrfachmessungen bei einer Konzentration. Ein halbes Prozent ist ein sehr guter Wert, der dem optischen Eindruck der Abb. 2.40 entspricht, in der praktisch keine Restabweichungen zu sehen sind. Die Berechnung von Analysenwerten aus dem Signal yA erfolgt mit der umgestellten Geradengleichung, bei der die Steigung (Empfindlichkeit) die wesentliche Größe ist und ein konstanter Korrekturfaktor –a/b (Untergrund in Konzentrationseinheiten) dazukommt, der hier –1,58 ist, d. h. unterhalb der kleinsten Konzentration. xA =

yA a − b b

(2.33)

Nimmt man alle (3 · 10) Kalibrierpunkte der Johnsson-Tabelle – zur besseren Übersichtlichkeit wurden in Abb. 2.40 die jeweils drei Werte einzeln dargestellt – wird die Steigung größer (b = 5,7362) und die Gerade schneidet die y-Achse bei a = –72,389. Dadurch errechnen sich ein VVK von 3,47% und ein Korrekturfaktor –a/b von 12,62, d. h., die Werte werden durch die zusätzlichen drei Kalibrierpunkte 7-mal so hoch. Die Gerade mit den (3 · 10) Kalibrierpunkten in Abb. 2.40 sieht plausibel aus. Wenn man aber den Bereich der unteren vier Kalibrierpunkte in Abb. 2.40(a) als vergrößerten Ausschnitt ansieht, erkennt man, dass die Gerade weit an ihnen vorbeiführt, obwohl die drei Werte bei jeder Konzentration dicht beieinander liegen. Die Residuen in Abb. 2.40(b) zeigen bis zum fünften Kalibrierpunkt (15. Wert) ausschließlich positive Abweichungen und sind für die oberen drei Kalibrierpunkte weitaus am größten. Diese erheblichen Abweichungen bewirken eine große Hebelwirkung der oberen drei Kalibrierpunkte und die Gerade wird nach oben gezogen. Da die unteren Kalibrierpunkte mit ihren kleineren Abweichungen einen geringeren

133

134

2 Integrationsfehler und Auswertung

Abb. 2.40 Das große Diagramm zeigt alle Werte der Tabelle 2.27 mit der Regressionsgerade. Erst der vergrößerte Ausschnitt links oben zeigt die erheblichen Abweichungen bei den unteren vier Punkten. Das Diagramm der Residuen rechts unten lässt die Dominanz der Abweichungen bei höheren Konzentrationen erkennen, wobei die Rechnung mit den Quadraten der Residuen erfolgt.

Einfluss (geringeres Gewicht) haben, ergibt sich ein beträchtlicher negativer Achsenabschnitt. Aus der Abb. 2.40(a) ist zu erkennen, dass die Gerade die unteren Messpunkte nicht repräsentiert und sich bei kleinen Konzentrationen sehr große Abweichungen ergeben. Bei der Rückrechnung der Signalwerte der Kalibrierproben wird der Korrekturfaktor von 12,62 addiert, so dass für die unteren Konzentrationen viel zu hohe Konzentrationen herauskommen, wie schon Johnsson [11] gezeigt hat. Dies stimmt mit dem VK der Signalwerte von 14,1% bei 5 ng/ml nicht überein, der zwar hoch ist, aber für die unterste Konzentration akzeptabel. Es darf nicht sein, dass ein Wert mit einer Präzision von 14% durch die lineare Regression um 170% zu hoch herauskommt. Bis zu 50 ng/ml sind die Fehler bei der Rückrechnung (letzte Spalte der Tabelle 2.27) unakzeptabel, d. h., man macht sich bei diesem Beispiel mit der normalen linearen Regression den unteren Arbeitsbereich kaputt. Man kann auch die Signifikanz des Achsenabschnitts berechnen. Das ist letztlich die Beantwortung der Frage: „Kann man bei der gegebenen Streuung den Achsenabschnitt sicher von null unterscheiden?“. Sowohl mit den sieben Kalibrierpunkten als auch mit den 10 Kalibrierpunkten ist der Achsenabschnitt nicht signifikant, weil der 10-mal größere Achsenabschnitt mit einer viel größeren

2.5 Auswertung Tabelle 2.27 Die ersten beiden Spalten enthalten die Daten von Johnsson [11], bei denen zur Übersichtlichkeit die Signalwerte mit 1000 multipliziert wurden. Die drei letzten Spalten enthalten die Rückrechnung der Signalwerte in Konzentrationen für die normale lineare Regression, für die gewichtete Regression und für die Nullpunktsgerade. x

y

5

32

5

35

5

Sy

VK [%]

y(x) –14

46

13,1

4,5

5,7

5,13

14,10

–14

49

13,7

5,1

6,2

42

–14

56

14,9

6,3

7,5

10

60

14

46

18,1

9,6

10,7

10

59

14

45

17,9

9,4

10,5

10

65

14

51

19,0

10,5

11,6

25

143

99

44

32,8

24,8

25,5

25

143

99

44

32,8

24,8

25,5

25

145

99

46

33,2

25,1

25,8

50

277

240

37

56,6

49,2

49,4

50

274

240

34

56,1

48,7

48,8

50

276

240

36

56,5

49,0

49,2

100

530

521

9

102

95

94

100

550

521

29

105

99

98

100

552

521

31

105

99

98

250

1302

250

1343

250

3,21

1,15

1,53

12,2

5,20

0,80

0,60

2,20

Resid

x(y)

x(y) Gewicht

x(y) Null

1366

–64

239

236

232

1366

–23

246

244

239

1331

1366

–35

244

242

237

500

2642

2774

–132

477

481

471

500

2683

2774

–91

484

488

478

500

2740

2774

–34

494

499

488

1000

5295

5590

–295

948

965

944

1000

5360

5590

–230

959

977

955

1000

5468

5590

–122

978

997

974

2000

11297

11222

75

2013

2060

2013

2000

11352

11222

130

2023

2070

2023

2000

11502

11222

280

2050

2098

2050

3000

15981

16854

–873

2845

2915

2848

3000

17286

16854

432

3077

3153

3080

3000

17235

16854

381

3068

3144

3071

21,1

49,2

87,4

106

739

1,60

1,80

1,60

0,90

4,40

135

136

2 Integrationsfehler und Auswertung

Streuung verbunden ist, die aus den Residuen der drei obersten Kalibrierpunkte resultiert. Ein signifikanter Achsenabschnitt ist ein deutliches Warnzeichen, das zu einer Überprüfung der Chromatographie führen sollte. Zur Bewertung der Kalibrierung ist der oben genannte Korrekturfaktor aber ein wichtigeres Maß. Bei einem großen Arbeitsbereich kann der Achsenabschnitt nicht signifikant sein, aber zu einem nicht tolerierbaren Korrekturfaktor führen. Das ist der Fall, wenn –a/b größer als die unterste Konzentration ist, weil diese dann um mehr als 100% verfälscht wird. In der vierten Spalte der Tabelle 2.27 ist die Standardabweichung der y-Werte sy bei jeweils einer Konzentration gezeigt, d. h. die Absolutwerte in der Einheit der Signalwerte. Teilt man sy durch yK , ergeben sich die Relativwerte der Standardabweichung in Prozent. Die Absolutwerte haben einen viel größeren Bereich von 1,15 bis 739 als die Relativwerte mit einem Bereich von 0,55% bis 14,12%. Der F-Wert (Quotient der Absolutwerte am oberen und unteren Ende des Arbeitsbereichs) in obigem Beispiel beträgt 20 748 und liegt damit oberhalb jedes Wertes in der F-Tabelle. Die lineare Regression ist ein Rechenverfahren, bei dem die quadratischen Abweichungen (Varianzen) minimiert werden. Das ist nur erlaubt, wenn anzunehmen ist, dass die Absolutabweichungen nicht von der Konzentration abhängen. Das ist für die Daten im besprochenen Beispiel aber offensichtlich der Fall, wie die dritte Spalte der Tabelle 2.27 eindeutig zeigt. Bei vielen anderen realen Beispielen aus der Chromatographie ist das für einen Arbeitsbereich von über 10 ebenfalls gegeben. Bei der Kalibrierung im Rahmen einer Validierung misst man die einzelnen Kalibrierpunkte nicht mehrfach, sondern macht nur am obersten und am untersten Kalibrierpunkt eine Mehrfachmessung mit meist sechs Punkten. Dann stellt man durch einen F-Test fest, ob sich die quadrierten Standardabweichungen signifikant unterscheiden. Mit F = 20 748 ist der Grenzwert von 5,35 (p = 1%) um Größenordnungen überschritten. Diese sog. Varianzeninhomogenität führt dazu, dass nach Abb. 2.40(a) die Gerade an den unteren vier Kalibrierpunkten vorbeigeht, weil diese zu wenig beachtet werden, d. h., zu wenig Gewicht haben. Es liegt nahe, dadurch einen Ausgleich zu schaffen, dass die Varianzen bei den niedrigen Konzentrationen mit einem höheren (Gewichts-)Faktor multipliziert werden und die Varianzen bei den hohen Konzentrationen entsprechend heruntergewichtet werden. 2.5.4 Gewichtete lineare Regression

In der allgemeingültigen Form der linearen Regression wird das Minimum für das Quadrat aus der Differenz des Messwerts yK und dem aus der Geradengleichung errechneten Messwert y(xK) errechnet, normiert auf die entsprechenden Varianzen, d. h., die x-Abweichungen werden im Unterschied zur Korrelationsrechnung als vernachlässigbar angesehen.

2.5 Auswertung

∑ K =1 n

[yK − y (xK )]2 = Minimum sy2K

(2.34)

Um so rechnen zu können, muss die Standardabweichung sy an jedem Kalibrierpunkt bekannt sein. Aus statistischer Sicht wäre es wünschenswert 10 Kalibrierpunkte 10-mal zu messen. Aus der Sicht des analytischen Chemikers wäre das ein unakzeptabel hoher Aufwand. Leider findet sich in der Chromatographie bereits bei einem Arbeitsbereich von über 10 beim F-Test häufig eine signifikant große Differenz in der Streuung. Das liegt daran, dass in der Chromatographie eher der Relativfehler konstant ist als der Absolutfehler, wie bei der vereinfachten Regression angenommen, d. h.: VK = const. =

Sy y

(2.35)

Bei einem konstanten Verhältnis zwischen Standardabweichung des Messwerts und dem Messwert selbst kann der Messwert als Schätzung der Standardabweichung benutzt werden. Damit wird obige Gleichung zu:



[yK − y (xK )]2 = Minimum yK2

(2.36)

Dies ist nichts Anderes als die bekannte 1/y2-Gewichtung der Varianzen, die bei den Integrationsprogrammen angewählt werden kann. Übliche weitere Gewichtungen sind 1/y, auch 1/x und 1/x2 und auch 1/y1/2. Da ein Schätzwert für Sy gesucht wird, ist prinzipiell eine y-Gewichtung sinnvoller als eine x-Gewichtung. Den Fall gleicher Varianzen (Varianzenhomogenität; keine Gewichtung) könnte man „Apparatevarianz“ nennen. Dies wird angenähert der Fall sein, wenn wir nur eine einfache physikalische Messung durchführen. Die 1/y2-Gewichtung, die auf einen konstanten VK im Messbereich zurückzuführen ist, könnte man „volumenabhängige Varianz“ nennen. Dies beschreibt den Fall, wenn die Probenvorbereitung die Abweichungen dominiert. Die sehr wahrscheinlichen Volumenfehler müssen per se konzentrationsabhängig sein (Kuss [15]). Nun sind alle Fälle zwischen diesen beiden Extremen einer Gewichtung w mit eins (= keine Gewichtung) und einer 1/y2-Gewichtung vorstellbar, die allgemein durch 1/yWE beschrieben werden können. Alle oben genannten y-Gewichtungen sind enthalten, aber zusätzlich ungeradzahlige Gewichtungen erlaubt. Der ungewichtete Fall ist durch den Wichtungsexponenten WE = 0 beschrieben. Damit wird:

∑ w [yK

− y (xK )]2 = Minimum

(2.37)

mit g = und

1 y

WE

(2.38)

137

138

2 Integrationsfehler und Auswertung

w =

n⋅g ∑g

(2.39)

Das Problem besteht darin, WE aus den vorhandenen Daten möglichst sinnvoll abzuschätzen. Dies ist aus dem Varianzquotienten (F-Wert) unter Beachtung des y-Arbeitsbereichs nach folgender Gleichung möglich: WE =

log Sy2Kn − log Sy2K1 log F = log ABy log yKn − log yK1

(2.40)

Dieses Verfahren könnte Varianzquotientengewichtung genannt werden (Kuss [14]). Setzt man die Werte aus der Tabelle 2.27 in die Gl. (2.40) ein, erhält man WE = 1,62, d. h., wie erwartet näher an der „volumenabhängigen Varianz“ als an

Abb. 2.41 Die Regressionsgerade wird von dem Prognoseintervall, das senkrecht abgelesen die 5%ige (1%ige) Unsicherheit der Messung charakterisiert. Waagerecht, d. h. in Konzentrationseinheiten abgelesen, ergibt sich die Messunsicherheit – letztlich die zwei Seiten derselben Münze. Tabelle 2.28 Mit den Daten der Tabelle 2.27 werden die Eingabedaten für die Gl. (2.40) und daraus der Wichtungsexponent WE berechnet. 20 748

F-Wert

4,3170

log(F)

463 2,6659 1,62

ABy log(ABy) WE

2.5 Auswertung

Abb. 2.42 Die Gewichtung engt das Prognoseintervall im unteren Arbeitsbereich ein. Dadurch wird die Messunsicherheit bei niedrigen Konzentrationen kleiner.

der „Apparatevarianz“. Die Integrationssysteme erlauben die Einstellung einer Gewichtung, aber man müsste sich in diesem Beispiel zwischen einer 1/y- oder 1/y2-Gewichtung entscheiden. Die unteren vier Kalibrierpunkte liegen mit Gewichtung fast exakt auf der Geraden (Abb. 2.42). Es ergibt sich aus der Geradengleichung y = 5,48 x + 7,25 ein positiver Achsenabschnitt, der 1,3 ng/ml entspricht. Die rückgerechneten Ergebnisse sind in Tabelle 2.27 in der Spalte x(y)-Gewicht dargestellt. Der Vergleich von x(y) und x(y)-Gewicht zeigt, welche ungenügenden Ergebnisse die normale lineare Regression bringt. Mit der Nullpunktsgeraden weichen die Werte x(y)-Null nur etwas mehr von den wahren Werten im unteren Konzentrationsbereich ab als mit der Gewichtung. Ein weiterer wesentlicher Grund, eine Gewichtung vorzunehmen, liegt in der adäquaten mathematischen Abbildung realistischer Messunsicherheiten U. Zu diesem Thema schrieb Doerffel [3]: „Deshalb muss die gewichtete Regression immer dann angewandt werden, wenn aus den Messungen Aussagen zur Präzision der Ergebnisse gefordert sind.“ Die bekannten Gleichungen zum Prognoseintervall (Miller [18]) PI (y-Abweichungen) und zur Messunsicherheit U (x-Abweichungen) verkomplizieren sich durch die Gewichtung nur geringfügig: PI = t ⋅ RSD ⋅

U =

t ⋅ RSD b

(x k − x w )2 1 + ∑ w ∑(x k − x w )2

(2.41)

(y − yw )2 1 + 2 a ∑ w b ∑(x a − y w )2

(2.42)

1 + wk 1 + wa

139

140

2 Integrationsfehler und Auswertung

Die gewichtete Regression geht für den Wichtungsfaktor w = 1 in die normale lineare Regression über, wobei 6 w = n ist. Beide Gleichungen ähneln sich, weil U auf PI zurückgeführt wird. Die Unsicherheit der errechneten Konzentrationen resultiert aus der Unsicherheit der Messwerte. Graphisch wird dieselbe Grenzlinie einmal in y- und einmal in xRichtung abgelesen. Mit Gewichtung sind auch die unteren Konzentrationen im zulässigen Bereich der Messunsicherheit, wie die Abb. 2.42 demonstriert. Bei einem großen Arbeitsbereich macht man sich mit normaler linearer Regression durch eine letztlich falsche Rechnung (falls der F-Test signifikant ausfällt) die eigene meist mühsam optimierte Messung im unteren Konzentrationsbereich kaputt. Das schmerzt. 2.5.5 Nullpunktsgerade

Sinnvollerweise wird man sich bei einer Chromatogrammserie immer mal wieder überzeugen, ob eine Leerprobe tatsächlich keine Veränderung der Basislinie an den Stellen zeigt, an denen bei Analysenproben Peaks erwartet werden. Das heißt, dass bei einer Konzentration von null auch der Messwert null sein und die lineare Kalibrierfunktion durch den Nullpunkt gehen muss. Im Gegensatz dazu hat man bei der Messung der UV-Absorption in einer Küvette einen Messwert für die Untergrundabsorption. In der HPLC mit UV-Detektion wird diese Untergrundabsorption durch das Nullen (Autozero) des Detektors für alle Messwerte abgezogen. Ein chromatographisches Messsignal in einer Leerprobe an der Stelle des erwarteten Peaks kann nur als unzureichende Methode gewertet werden, was bedeutet, dass die Methode verbessert werden muss. Dies ist nicht zu verwechseln mit der stetigen Gefahr, eine zusätzliche interferierende Substanz unter dem Peak einer einzelnen Analysenprobe zu finden. Dagegen ist keine Methode vollständig gefeit. Trotzdem wird in der Validierung einer chromatographischen Methode generell eine lineare Regression mit Achsenabschnitt durchgeführt. Dabei ist der Achsenabschnitt fast immer nicht signifikant. Auch aus statistischen Gründen muss dann der Achsenabschnitt auf null gesetzt werden, weil sein Wert nur durch den Zufall bedingt ist. 2.5.6 Chromatogrammserien überprüfen

Die Validierung soll die Eignung einer Methode für den beabsichtigten Zweck sicherstellen. Dazu muss meist ein beträchtlicher Aufwand betrieben werden. In den darauf folgenden Analysenserien sollten Kontrollproben mitgeführt und überprüft werden, ob deren Werte im Kontrollbereich sind. Von der Statistik her gesehen ist weiterer Aufwand nicht erforderlich. Aber reicht das aus? Sinnvol-

2.5 Auswertung

lerweise wird man zusätzlich möglichst jede Gelegenheit ergreifen, um z. B. an Ringversuchen teilzunehmen. Nehmen wir an, wir wollten Medikamente im Blut von Patienten messen. Abgesehen von den sinnvollen üblichen Kriterien wird die Qualität dieser Analysen wesentlich davon abhängen, wie der latenten Gefahr von Interferenzen mit anderen Medikamenten oder deren Metaboliten begegnet wird. Es gibt eine unüberschaubare Zahl von möglichen Interferenzen und dauernd kommen neue Medikamente dazu. Eine Forderung, im Rahmen der Robustheit alle möglichen Interferenzen auszutesten, wäre nicht mehr machbar. Die Chromatogramme 254(214)C01.cdf bis 254(214)C09.cdf enthalten drei dominierende Peaks mit einer Retentionszeit von 15,8; 17,7 und 19,5 min. Es wurde bei 254 nm (Quecksilberlampe) und bei 214 nm (Zinklampe) gemessen. Beide Detektoren waren hintereinander geschaltet. Die Peaks sind die drei trizyklischen Antidepressiva Nortriptylin, Amitriptylin und Trimipramin, die aus 1 ml menschlichem Blutplasma extrahiert wurden. Zuerst kommen drei Rejustierproben, die die Konzentration 100 ng/ml haben. Trimipramin als interner Standard wurde erst direkt vor der Extraktion hinzu pipettiert. Die neunte Probe ist identisch mit den ersten drei, wird aber als Analysenprobe berechnet, um die Stabilität in der Analysenserie zu überprüfen. Probe 4 bis 8 sind Patientenproben während der Therapie mit Amitriptylin. Nortriptylin ist der Desmethylmetabolit von Amitriptylin, der in jeder Patientenprobe neben Amitriptylin vorhanden ist. Es ist sinnlos, die Flächen oder Höhen intensiv zu untersuchen, wenn die Integrationsparameter nicht stimmen. Dies sieht man am besten an den Chromatogrammen: Ist die Basislinie plausibel und nicht von möglichen Negativpeaks nach unten gezogen? Nach dem Ausschneiden der Basislinie mit der „Maus“: Verläuft die (konstruierte) Basislinie unter den Peaks so, wie man es mit der Hand auch machen würde? Sind zusätzliche kleine Peaks oder Aufsetzer vorhanden, die die Fläche verfälschen könnten? Muss eine Drift zugelassen oder die Verdopplungszeit gesetzt werden? Am besten erfolgt die Optimierung der Integrationsparameter mit der Chromatogramm-Simulation, die die realen Peaks möglichst gut wiedergibt. Wenn man in einer Analysenserie – wie hier – einen internen Standard verwendet, sollte man als Erstes dessen Werte ansehen: Ist der VK im Rahmen dessen, was man sonst findet? Mit einem Säulendiagramm kann man – insbesondere bei zu hohen Werten des VK – feststellen, ob die Werte einen Trend zeigen. Es sollten nur zufällige Schwankungen vorhanden sein. Manchmal lässt sich ein Trend besser erkennen, wenn man die Abweichungen vom Mittelwert darstellt. Wenn ein Patient auch Trimipramin bekommen hat, sieht man das am Vorhandensein von Desmethyltrimipramin. Deshalb ist es wichtig, Amitriptylin und Desmethyltrimipramin chromatographisch zu trennen, was nicht mit jeder C18-Säule gelingt. Durch einfache Quotientenbildung erhält man mit Fläche durch Höhe eine Größe, deren Kehrwert in der Bodenzahlberechnung verwendet wird. Der VK dieses Quotienten sollte nicht auffällig sein. Andernfalls müsste man das entsprechende Chromatogramm ansehen und gegebenenfalls korrigieren. Weiterhin

141

142

2 Integrationsfehler und Auswertung

kann man den Quotienten Fläche 214 nm/254 nm bilden oder den Quotienten aus den Höhen. Auch hier müssen die Quotienten so konstant sein, dass sich nur ein geringer VK ergibt. Danach sieht man sich die Abweichungen der drei Rejustierproben untereinander an. Deren VK sollte im Bereich der VKs für den internen Standard liegen. Natürlich ist es wertvoll, diese Größen im Verlauf der Messtage zu dokumentieren und vielleicht als Kontrollkarte zu führen. Alle Werte inklusive der Rejustierproben sollten in Konzentrationen umgerechnet werden. Insbesondere wenn man einen geraden Wert wie 100 ng/ml als Sollwert hat, sieht man die Abweichungen viel leichter als bei den Flächen. Als Nächstes wird man sich die Kalibrierproben ansehen. Wurde eine Kalibriergerade erstellt, dann ist der Verfahrensvariationskoeffizient das entsprechende Güte- und Vergleichsmaß. Wurde zusätzlich zu einer früher erstellten Kalibriergerade eine Kalibrierprobe als Korrektur der Tagesform benutzt, ist natürlich keine statistische Betrachtung möglich. Nur bei mindestens drei derartigen (gleichen) Proben lässt sich ein VK berechnen und vergleichen. Es lässt sich auch ein Korrelationskoeffizient zwischen Kalibrierwert und zugehörigem internen Standardwert berechnen oder als Punktdiagramm darstellen. Nur bei einer signifikant positiven Korrelation kann der interne Standard seine Funktion erfüllen. Alle diese Möglichkeiten sind in der Datei 3Chrom.xls auf der CD zu sehen.

Literatur 1 Bicking, M., Integration Errors in Chromatographic Analysis, Part I: LCGC Int. 24 (2006a) 402–414. 2 Bicking, M., Integration Errors in Chromatographic Analysis, Part II: Large Peak Size Ratios, LCGC Int. (June 2006b). 3 Doerffel, K., Statistik in der analytischen Chemie. Deutscher Verlag für Grundstoffindustrie, Leipzig 1990. 4 Dolan, J. W., Peak Tailing and Resolution, LCGC Int. 20 (2002a) 430–436. 5 Dolan, J. W., Resolving Minor Peaks, LCGC Europe (September 2002b) 578–580. 6 Dong, M., Enhancing HPLC Precision and Ruggedness, Perkin-Elmer Newsletters: Views (Fall 1994) 7–8. 7 Dyson, N., The Validation of Integrators and Computers for Chromatographic Measurements, Int. Lab. 22 (June 1992) 38–46. 8 Dyson, N., Chromatographic Integration Methods, The Royal Society of Chemistry, 2nd ed., Hertfordshire 1998.

9 Fehlinger, A., Guiochon, G., Validation of a chromatography data analysis software, J. Chrom. A 913 (2001) 221. 10 Foley, J. P., Dorsey, J. G., Equations for Calculation of Chromatographic Figures of Merit for Ideal and Skewed Peaks, Anal. Chem. 55 (1983) 730. 11 Johnson, E. L., Reynolds, D. L., Wright, D. S., Pachla, L. A., J. Chromatogr. Sci. 26 (1988) 372. 12 Kipiniak, W., A Basic Problem – The Measurement of Height and Area, J. Chrom. Sci. 19 (1981) 332. 13 Küppers, S., Renger, B., Meyer, V. R., Autosamplers – A Major Uncertainty Factor in HPLC Analysis Precision, LCGC Europe, February 2000. 14 Kuss, H. J., Gewichtete Lineare Regression, in: Handbuch Validierung in der Analytik (Hrsg.: S. Kromidas). Wiley-VCH, Weinheim 2000. 15 Kuss, H. J., Weighted Least-Squares Regression in Practice: Selection of the Weighting Exponent, LCGC Europe, December 2003a.

Literatur 16 Kuss, H. J., Quantifizierung in der Chromatographie, in: HPLC-Tipps II (Hrsg.: S. Kromidas). Hoppenstedt Bonnier Zeitschriften, 2003b. 17 Losef, A., On a Model Line Shape for Asymmetric Spectral Peaks, Appl. Spectrosc. 48 (1994) 1289–1290. 18 Miller, J. N., Miller, J. C., Statistics and Chemometrics for Analytical Chemistry, Pearson Education Limited 2000. 19 Meyer, V. R., Fallstricke und Fehlerquellen der HPLC in Bildern, 3. Aufl. Wiley-VCH, Weinheim 2006. 20 Meyer, V. R., Generation and Investigation of Chromatographic Peaks Using a Spreadsheet Program, LCGC Int. 7 (October 1994) 590. 21 Meyer, V. R., Chromatographic Integration Errors: A Closer Look at a Smaller

22

23

24

25

Peak, LCGC Europe 13 (March 1995) 252–260. Papas, A. N., Delaney, M. F., Evaluation of Chromatographic Integrators and Data Systems, Anal. Chem. 59 (1987) 54A. Papas, A. N., Tougas, T. P., Accuracy of Peak Deconvolution Algorithms within Chromatographic Integrators, Anal. Chem. 62 (1990) 234–239. Schepers, U., Ermer, J., Preu, L., Wätzig, H., Wide concentration range investigation of recovery, precision and error structure in liquid chromatography, J. Chrom. (B) 810 (2004) 111–118. Westerberg, A. W., Detection and Resolution of Overlapped Peaks for an On-Line Computer System for Gas Chromatographs, Anal. Chem. 41 (1969) 1770.

143

145

3 Allgemeine Beurteilung analytischer Daten Joachim Ermer

Analytische Daten werden üblicherweise – gegebenenfalls nach weiteren Berechnungen – als Grundlage von Entscheidungen verwendet. Dies kann beispielsweise die Steuerung eines Herstellprozesses, die Verwendungsentscheidung für Materialien oder die Eignung von analytischen Methoden selbst sein. Solche Entscheidungen sind oft an festgelegte Regeln (Akzeptanzgrenzen) gebunden. Messergebnisse unterliegen stets (zumindest) einer zufälligen Streuung [1], was bei der Beurteilung und insbesondere bei der Aufstellung der Regeln (s. Kapitel 13.2) berücksichtigt werden muss. Dazu ist ein Schließen vom Speziellen (d. h. von den einzelnen Messergebnissen) auf das Allgemeine (d. h. die „normale“ Verteilung der Daten) erforderlich.

3.1 (Normal-)Verteilung von analytischen Daten

Analytische Prüfungen kann man sich als zufällige Ziehung von Einzeldaten (s. Abschn. 3.2) aus der Gesamtzahl aller möglichen (unendlich vielen) Daten vorstellen. Je mehr Daten vorliegen, desto deutlicher wird das Bild der Verteilung, in Abb. 3.1 als Histogramme dargestellt. Dazu wird der gesamte Bereich, in welchem Daten vorkommen, in konstante Intervalle (Klassen) eingeteilt und die jeweilige Anzahl der Daten gezählt, die in den Klassen vorkommen. Die Anzahl der Klassen sollte etwa der Wurzel aus der Anzahl der Daten entsprechen. Solche Histogramme können mit Statistiksoftware oder mit Microsoft Excel® erstellt werden (Tools/Data Analysis/Histogram; das „Analysis ToolPak“ muss über „Tools/ Add-Ins“ installiert sein). Über Abb. 3.1(a) zu 3.1(b) und 3.1(c) wird deutlich, dass eine große Datenzahl erforderlich ist, um ein klares Bild der Gesamtverteilung zu erkennen. Die theoretische Kurve der den Daten zugrunde liegenden Gauß’schen Normalverteilung ist zusätzlich in Abb. 3.1(c) eingezeichnet. Simulation normalverteilter Werte (Excel®): x = STANDNORMINV(ZUFALLSZAHL()) · V + μ

(3.1)

146

3 Allgemeine Beurteilung analytischer Daten

Abb. 3.1 Histogramme für 25 (a), 100 (b) und 10 000 (c) normalverteilte Werte. In (c) ist zusätzlich die theoretische Gaußkurve eingezeichnet. Die Histogrammklassen, welche die Grenzen der 2 V- und 3 V-Bereiche um den wahren Wert μ beinhalten, sind schwarz gefärbt. Die normalverteilten Werte wurden mit Microsoft Excel® für μ = 100 und V = 1 berechnet (Gl. 3.1).

Warum ist nun die – für physikalisch-chemische Messergebnisse üblicherweise vorausgesetzte – Normalverteilung so beliebt? Weil sie in einer einfachen mathematischen Form mit nur zwei Parametern, dem Lagemaß μ und der (wahren) Standardabweichung V vollständig beschrieben werden kann. Der wahre Wert μ (Mittelwert der Gesamtverteilung) liegt im Scheitelpunkt der Verteilungskurve. Mit zunehmendem Abstand vom wahren Wert sinkt die Wahrscheinlichkeit des Auftretens von Werten, und zwar symmetrisch nach oben und unten. Der Streuparameter V entspricht mathematisch dem ho-

3.1 (Normal-)Verteilung von analytischen Daten

rizontalen Abstand zwischen dem Wendepunkt der Gaußkurve und dem wahren Wert und beschreibt die Breite der Verteilung. Geringe Standardabweichungen ergeben eine schmale, scharfe Verteilung, große eine flache und breite Kurve. Zur Beurteilung von Daten und Bewertung von Standardabweichungen ist es wichtig zu berücksichtigen, dass im Bereich von ±1 V nur 68% aller Daten der Verteilung erwartet werden können. Der Anteil der Daten steigt auf 95% für ±2 V und auf 99,7% für ±3 V. (Achtung: Dies bezieht sich auf die wahren Parameter μ und V, im Unterschied zu den experimentelle Parametern, s. Abschn. 3.2.) Diese Gesetzmäßigkeiten werden auch eingesetzt, um die Eignung einer Methode zu beurteilen (Methodenfähigkeit): Wenn die Akzeptanzgrenze mindestens drei Standardabweichungen vom Mittelwert entfernt liegt, ist die Methode aus analytischer Sicht geeignet, da keine einzelnen Werte zu erwarten sind, die außerhalb der Grenze liegen. Vertrauensbereichsgrenzen: x des Mittelwertes CL(P )x = x ± s ⋅

t(P , df ) n

(3.2)

x der Standardabweichung CL(P )s, unten = s ⋅

df F (1 − P , df )

(3.3a)

CL(P )s, oben = s ⋅

df F2 (P , df )

(3.3b)

2

mit: t(P, df) = Student-t-Faktor für eine statistische Sicherheit P (oft 95%) und Anzahl der Freiheitsgrade df (Excel®: t = TINV(D, df); D = 1 – P); F2(P, df) = Chi-QuadratFaktor für eine statistische Sicherheit P (oft 95%) und Anzahl der Freiheitsgrade df (Excel®: F2 = CHIINV(D, df); D = 1 – P). Die (theoretisch) aus der Grundgesamtheit aller (unendlich vielen) Messwerte berechneten Parameter sind identisch mit den wahren Parametern. Bei Verringerung der Anzahl der Werte (d. h. des Stichprobenumfangs) nimmt die Schärfe dieser Aussage ab oder die Unsicherheit zu. Man kann nur noch einen Bereich angeben, in welchem der wahre Wert mit einer festgelegten Wahrscheinlichkeit liegt, die sog. Vertrauensbereiche (Gl. 3.2 und 3.3). Der Student-t-Faktor kann als Korrekturfaktor der experimentellen (Stichproben-) Standardabweichung aufgefasst werden. Da die Äste der Gaußkurve unendlich sind, d. h., auch in großer Entfernung vom wahren Wert noch Messwerte vorkommen können (wenn auch mit sehr geringer Wahrscheinlichkeit), ist es erforderlich, die Aussage auf einen

147

148

3 Allgemeine Beurteilung analytischer Daten

praktikablen Bereich einzugrenzen, das sog. statistische Signifikanzniveau oder Sicherheit P, ausgedrückt als Relativ- oder Prozentwert. Die Randbereiche der Verteilung mit geringen Wahrscheinlichkeiten des Auftretens von Werten werden ignoriert – obwohl auch diese Werte zur Verteilung gehören. Oft wird auch die komplementäre Fehlerwahrscheinlichkeit D = 1 – P verwendet. Fehlerwahrscheinlichkeit und Schärfe der Aussage sind verknüpft, d. h., bei sehr kleiner Fehlerwahrscheinlichkeit (oder großer Sicherheit) wird die Aussage sehr unscharf und damit wenig praktikabel: Bei einem Mittelwert von 100, einer Standardabweichung von 1 und sechs Werten kann der wahre Wert mit 95% Sicherheit zwischen 99,0 und 101,0% erwartet werden. Mit einer Sicherheit von 99,99% ergibt sich dagegen ein Bereich zwischen 95,4 und 104,6%. Die Freiheitsgrade (df ) geben die Anzahl der Werte wieder, die zusätzlich zum absolut erforderlichen Minimum für die jeweilige Berechnung vorliegen. Wenn z. B. ein Endwert (Mittelwert) benötigt wird, ist mindestens ein Wert erforderlich, so dass df = n – 1 beträgt. Für eine Gerade sind mindestens zwei Werte notwendig, d. h. df = n – 2. Bei mehreren Serien (k) von Messwerten (n) ergibt sich die Gesamtzahl der Freiheitsgrade zu df = k · (n – 1), d. h. die Gesamtzahl aller Werte, vermindert um die Anzahl der Serien. Aus Abb. 3.2 ist ersichtlich, dass die Vertrauensbereiche (für eine festgelegte statistische Sicherheit) mit zunehmender Anzahl an Werten enger werden, d. h., die Zuverlässigkeit des jeweiligen Parameters nimmt zu. Im Umkehrschluss ist natürlich zu beachten, dass bei geringer Datenzahl die Unsicherheit zunimmt. Dies gilt insbesondere für Standardabweichungen. Die obere Grenze des

Abb. 3.2 95-%-Vertrauensbereiche des Mittelwertes (a, einseitig) und der Standardabweichung (b) als Funktion der Freiheitsgrade (df ). Die Vertrauensbereiche (VB) sind in Einheiten der Standardabweichung dargestellt. Bei einer Messserie mit sechs Werten (df = 5) liegt der 95-%-VB des Mittelwerts ±1,05 Standardabweichungen (symmetrisch) um den Mittelwert, der der Standardabweichung erstreckt sich vom 0,67-fachen bis zum 2,09-fachen der berechneten Standardabweichung. Diese ist in (b) als gestrichelte Linie dargestellt.

3.2 Probleme des Schließens

95-%-Vertrauensbereichs einer aus drei Werten berechneten Standardabweichung (df = 2) liegt bei 4,4, d. h., bei einer zu 1,0 berechneten Standardabweichung kann der wahre Wert auch 4,4 betragen! Der inhaltliche (Un-)Sinn einer solchen Aussage bedarf wohl keiner weiteren Kommentierung. Leider sind aber derartige Berechnungen nicht so selten in der Literatur zu finden. Ausschlaggebend ist aber die Gesamtzahl an Freiheitsgraden, so dass mehrere Serien oder Messreihen (k) mit jeweils drei Werten durchaus eine angemessene Zuverlässigkeit ergeben (df = k · (n – 1) = k · 2). Vertrauensbereiche bilden die Basis für viele statistische Tests (s. Kapitel 13).

3.2 Probleme des Schließens

Auf die Zunahme der Unsicherheit bei abnehmender Datenanzahl wurde im vorigen Abschnitt bereits eingegangen. Vertrauensbereiche beschreiben aber nur die Erwartungsbereiche für die wahren Parameter auf der Grundlage der aktuellen Werte (Stichprobe). Oft sind aber Prognosen für zukünftige Ergebnisse von Interesse bzw. wie (zuverlässig) man von der Stichprobe auf die Grundgesamtheit schließen kann. Das (zukünftige) Verhalten von Stichproben kann man durch statistische Simulationen untersuchen (s. Gl. 3.1), wobei natürlich nur zufällige Effekte berücksichtigt werden. Der Vorteil solcher Simulationen liegt insbesondere darin, die wahren Werte zu kennen, was a priori bei experimentellen Messwerten nicht der Fall ist, einmal von der aus praktischen Gründen limitierten Anzahl solcher Serien abgesehen. In Tabelle 3.1 sind jeweils fünf simulierte Datensätze für 3, 6 und 10 Werte mit den Stichprobenmittelwerten, Standardabweichungen und Spannweiten aufgelistet. Selbst bei den wenigen Datensätzen ist die beträchtliche Streubreite der Parameter deutlich erkennbar, die für Mittelwert und Standardabweichung mit geringerer Datenzahl noch zunimmt. Die Spannweite steigt demgegenüber mit zunehmender Datenzahl an, um sich bei großer Anzahl der aus der Normalverteilung bekannten ±3 V-Grenze anzunähern. Zur besseren Absicherung sind in den Abb. 3.3 bis 3.5 die Ergebnisse von 50 000 Simulationen dargestellt. Es wurden jeweils die Bereiche erfasst, in denen 90, 95 und 99% aller simulierten Ergebnisse lagen. Je nach erforderlicher Sicherheit können diese Bereiche als Erwartungsgrenzen für individuelle Berechnungsparameter herangezogen werden. Die Erfassung erfolgte zweiseitig, d. h., die obersten und untersten jeweils 5; 2,5 und 0,5% der Werte wurden ignoriert. Wenn nur die Obergrenzen von Interesse sind, wie oft im Fall von akzeptablen Standardabweichungen und Spannweiten, ergibt sich eine einseitige Betrachtung, d. h., bei Vernachlässigung von 5% der oberen Werte müssen die 90%-Grenzen herangezogen werden. Die Erwartungsbereiche beziehen sich auf eine wahre Standardabweichung von eins und können deshalb leicht mit der für die jeweilige Anwendung vorliegenden Standardabweichung umgerechnet werden. Dabei sind jedoch zwei wichtige Bedingungen zu beachten. Erstens beziehen sich die

149

99,68

99,40

99,62

99,15

101,08

100,85

99,59

99,14

101,01

MW = Mittelwert, SD = Standardabweichung, SW = Spannweite

99,80

103,66

100,71

100,31

100,49

97,76

100,93

101,26

100,54

98,49

99,81

98,96

98,67

101,69

98,73

99,81

100,6

98,83

98,16

98,02

99,46

99,04

99,96

101,16

102,04

98,51

100,54

100,79

100,71

99,38

100,62

99,84

100,41

99,20

99,54

100,08

99,38

101,32

99,15

99,38

99,74

100,58

98,97

100,11

99,98

99,89

99,90

100,24

99,09

100,01

99,52

101,13

99,97

98,75

98,79

100,15

100,29

99,82

100,24

102,13

100,15

101,57

101,89

98,32

100,12 97,15

99,13

100,69

99,45 100,31

99,90

100,45

102,42

101,13

101,53

98,63

100,45

101,22

99,94

101,65

99,61

100,24

99,44

100,17

100,50

99,69

99,31

100,48

99,89

100,44

99,93

100,86

100,68

100,31

100,26

100,58

100,10

99,81

100,10

100,23

99,12

MW

Simulierte Werte

Tabelle 3.1 Simulierte Datensätze normalverteilter Werte für Stichprobengrößen von 3, 6 und 10. Die Maximalwerte der Parameter (bzw. die maximale Abweichung vom wahren Wert im Fall des Mittelwerts) für die verschiedenen Stichprobengrößen sind fett hervorgehoben. Die Zahlen wurden mit Microsoft Excel® für μ = 100 und V = 1 berechnet (Gl. 3.1).

0,82

1,69

1,07

0,68

0,85

0,65

0,45

0,95

1,84

0,77

0,50

1,98

0,88

0,24

0,61

SD

2,41

5,51

3,01

1,94

3,07

1,62

1,13

2,39

4,74

2,09

1,00

3,79

1,71

0,47

1,11

SW

150

3 Allgemeine Beurteilung analytischer Daten

3.2 Probleme des Schließens

Abb. 3.3 Obere und untere Grenze der Erwartungsbereiche von Mittelwerten simulierter Datensätze normalverteilter Werte in Abhängigkeit von der Stichprobengröße. Die Bereichsgrenzen, in denen 90%, 95% und 99% aller Mittelwerte vorkommen (zweiseitig), sind dargestellt. Es wurden jeweils 50 000 Datensätze mit Microsoft Excel“ für μ = 100 und V = 1 berechnet (Gl. 3.1).

simulierten Werte auf die wahre Standardabweichung V. Für eine zuverlässige Abschätzung von akzeptablen Streubereichen benötigt man demzufolge entweder eine maximal akzeptable wahre Standardabweichung, eine experimentell gut abgesicherte Standardabweichung der konkreten Methode oder die Kenntnis der Soll- oder Ziel-Standardabweichung für die jeweilige Anwendung aus anderen Quellen (s. Abschn. 3.3). Die zweite Bedingung ist, dass nur zufällige Effekte vorliegen bzw. dass alle relevanten Variationsbeiträge in der jeweiligen Standardabweichung erfasst sind (Präzisionsebenen s. Abschn. 3.3.1). In der Praxis ist letzteres von größerer Bedeutung, da für eine einzelne Serie systematische Effekte, wie z. B. die Variabilität der Probenaufarbeitung (die in der System- oder Injektionspräzision nicht berücksichtigt ist) in der Wiederholpräzision erfasst werden. Akzeptanzgrenzen für letztere, die über Standardabweichungen aus wiederholten Injektionen abgeschätzt würden, wären natürlich zu eng, da der Variabilitätsbeitrag der Probenaufarbeitung nicht berücksichtigt wäre. Da Akzeptanzgrenzen definitionsgemäß für alle zukünftigen Messungen gelten, müssen die Obergrenzen der Verteilung des jeweiligen Parameters berücksichtigt werden. Die Spannweite, d. h. die Differenz zwischen größtem und kleinstem Wert, kann insbesondere zur Bewertung herangezogen werden, wenn die Anzahl der Werte gering ist (so dass eine Berechnung der Standardabweichung mit großer

151

152

3 Allgemeine Beurteilung analytischer Daten

Abb. 3.4 Obere und untere Grenze der Erwartungsbereiche von Standardabweichungen simulierter Datensätze normalverteilter Werte in Abhängigkeit von der Stichprobengröße. Die Bereichsgrenzen, in denen 90%, 95% und 99% aller Standardabweichungen vorkommen (zweiseitig), sind dargestellt. Es wurden jeweils 50 000 Datensätze mit Microsoft Excel“ für μ = 100 und V = 1 berechnet (Gl. 3.1).

Unsicherheit behaftet ist), oder zur Beurteilung der Streuung von Residuen (Residuenplot, s. Kapitel 2 und 10). Die zu erwartende Spannweite nimmt mit der Anzahl der Werte zu, bei größerer Anzahl nähert sie sich der sechsfachen Standardabweichung, d. h. der ±3 V-Grenze der Normalverteilung (s. Abb. 3.5 und Abschn. 3.1). Eine akzeptable Differenz zwischen zwei Einzelbestimmungen ist auch numerisch zugänglich (s. Gl. 3.4) [2]. Der Student-t-Faktor bezieht sich auf die Anzahl der Werte, die der Ermittlung der (experimentellen) Standardabweichung der jeweiligen Anwendung zu Grunde liegen. Bei größerer Anzahl, d. h. gut abgesicherter Standardabweichung, beträgt die zu erwartende Spannweite für 95% statistische Sicherheit etwa das Dreifache der Standardabweichung (mit df t 16 ermittelt; bei sehr großen Freiheitsgraden geht die Spannweitengrenze gegen 2,8). Dieser Wert entspricht der oberen Verteilungsgrenze für n = 2 unter Berücksichtigung von 90% aller Ergebnisse, d. h. bei Ausgrenzung von 5% der oberen Werte. In der praktischen Anwendung muss auf das jeweils passende Präzisionsniveau für die Standardabweichung geachtet werden (s. Abschn. 3.1), d. h., die Systempräzision ergibt eine Wiederholgrenze für Doppelinjektionen, die Wiederholpräzision eine Grenze für unabhängige Probenaufarbeitungen etc. Spannweitengrenze (n = 2): R = s ⋅ t(P , df ) ⋅ 2

(3.4)

3.3 Analytische Variabilität

Abb. 3.5 Obere und untere Grenze der Erwartungsbereiche von Spannweiten simulierter Datensätze normalverteilter Werte in Abhängigkeit von der Stichprobengröße. Die Bereichsgrenzen, in denen 90%, 95% und 99% aller Spannweiten vorkommen (zweiseitig), sind dargestellt. Es wurden jeweils 50 000 Datensätze mit Microsoft Excel“ für μ = 100 und V = 1 berechnet (Gl. 3.1).

3.3 Analytische Variabilität 3.3.1 Variabilitätsbeiträge und Präzisionsebenen

Jeder Einzelschritt eines analytischen Verfahrens trägt mit seiner Variabilität zur Gesamtstreuung bei, natürlich mit unterschiedlicher Gewichtung. Wenn alle (wichtigen) Beiträge bekannt sind, kann die Gesamtunsicherheit nach den Regeln der Fehlerfortpflanzung berechnet werden, sozusagen von unten nach oben („bottom-up“) [3, 4] (s. auch Gl. 3.7). Diese Beiträge und ihre Verknüpfung können auch visualisiert werden, als „Fischgräten-“ oder Ishikawa-Diagramm (Abb. 3.6). Die Zuverlässigkeit einer solchen Unsicherheitsberechnung liegt natürlich darin, alle relevanten Beiträge zu (er)kennen, was sehr komplex werden kann. In der pharmazeutischen Analytik wird üblicherweise ein anderer Ansatz verwendet („top-down“), wobei die verschiedenen Beiträge experimentell zusammengefasst werden, in Form von Präzisionsebenen [5]. Dabei müssen die Beiträge nicht unbedingt einzelnen bekannt sein, obwohl dies sehr hilfreich bei

153

154

3 Allgemeine Beurteilung analytischer Daten

Abb. 3.6 Ishikawa-Diagramm für die LC-Systempräzision (reproduziert aus [6], S. 39).

3.3 Analytische Variabilität

der Fehlersuche sein kann (zumindest die Hauptbeiträge, d. h. die horizontalen Äste in Abb. 3.6). Grundsätzlich werden Kurz- und Langzeiteffekte in den Präzisionsebenen unterschieden, wobei System- und Wiederholpräzision von ersterem, die Laborvergleichspräzision (oder Intermediate Precision) und die Vergleichspräzision von letzterem beeinflusst werden. Üblicherweise werden Standardabweichungen (bzw. Varianzen) aus den quadrierten Abweichungen der Einzelwerte vom Mittelwert berechnet (Gl. 3.5). Es ist unbedingt erforderlich, beim Berichten von Standardabweichungen die zu Grunde liegenden Bedingungen klarzustellen, z. B. aus wiederholten Injektionen, aus unabhängigen Probenaufarbeitungen, aus Mittelwerten von Injektionen, aus Mittelwerten von Proben etc. Anderenfalls ist keine vernünftige Interpretation möglich. Weiterhin ist es vorteilhaft, Standardabweichungen immer auf Einzelwerte bzw. -injektionen zu beziehen, da nur dann eine weitergehende Betrachtung erfolgen kann. So ist es leicht möglich, aus einer Einzelwert-Standardabweichung die Standardabweichung eines Mittelwertes aus sechs Bestimmungen zu berechnen (= s/—n, der sog. Standardfehler), aber nicht umgekehrt. Zur einfacheren Beurteilung ist es üblich, die Standardabweichung auf den jeweiligen Mittelwert zu beziehen. Die relative Standardabweichung ist als normierter Prozentparameter leichter mit anderen Erfahrungswerten vergleichbar. Des Weiteren kann die Standardabweichung auch aus der Spannweite von Doppelwerten berechnet werden (Gl. 3.6). Dies ist eine gute Möglichkeit, Parameter aus der Routineanalytik zu extrahieren (s. Abschn. 3.3.3). Zur Vermeidung von Wichtungseffekten dürfen sich die Mittelwerte allerdings nicht zu stark unterscheiden, eine maximale Differenz von ca. 10% sollte akzeptabel sein. Varianz und Standardabweichung: s2 =

∑ (x i

s2 =

∑(xi ,1 − xi ,2 )2

− x )2

(n − 1)

2⋅k

s =

s2

(3.5)

(3.6)

mit: x i , x = Einzelwert und Mittelwert einer Serie; x i ,1 / 2 = Doppelbestimmung einer Probe, Charge etc.; k = Anzahl der in Doppelbestimmung analysierten Proben, Chargen etc. 3.3.2 Systempräzision

Bei der Systempräzision wird dieselbe Probe wiederholt analysiert, d. h. in der Chromatographie dieselbe Analytlösung mehrfach injiziert. Deshalb wird diese Ebene oft auch als Injektionspräzision bezeichnet. Die im Englischen

155

156

3 Allgemeine Beurteilung analytischer Daten

gebräuchliche Bezeichnung „injection repeatability“ ist recht unglücklich, da dies leicht mit „repeatability“, also der Wiederholpräzision, zu verwechseln ist. Dies lässt sich leider auch in diversen Publikationen verfolgen und kann zu falschen Schlussfolgerungen führen, da nicht die in der Routineanalytik relevante Präzision erfasst wird. In Abb. 3.6 sind sehr anschaulich die (vielfältigen) einzelnen Beiträge zur Systempräzision ersichtlich. Über die Regeln der Fehlerfortpflanzung bzw. die Additivität der Varianzen können die Hauptbeiträge separiert werden (Gl. 3.7). Der relative Anteil mancher Beiträge ändert sich mit der Konzentration des Analyten (s. Abschn. 3.3.6), so dass bei höheren Konzentrationen die Detektions- und Integrationsvarianzen vernachlässigt werden können (s. Abb. 3.10). Die verbleibenden Varianzbeiträge zu Injektion und Trennung (im Wesentlichen Kurzzeitschwankungen des Flusses) können durch wiederholte Injektion einer Substanzmischung separiert werden, als Maldener-Test ursprünglich zur Qualifizierung von HPLCSystemen beschrieben [7]. Durch Umstellung von Gl. (3.7) und Subtraktion der Varianz der relativen Peakflächen der in der Mischung enthaltenen Analyten von der der absoluten Peakflächen (d. h. der Gesamt-Systempräzision) erhält man die Varianz der Injektion (Gl. 3.8), hier vereinfacht direkt als Quadrat der relativen Standardabweichungen dargestellt. Unter Verwendung von 10 Injektionen einer Mischung von Methyl-, Ethyl-, Propyl- und Butylester der 4-Hydroxybenzoesäure wurden Präzisionen der relativen Peakfläche zwischen 0,04 und 0,12% erhalten. Die relative Peakfläche wird im Wesentlichen von kurzzeitigen Schwankungen des Flusses beeinflusst und entspricht im obigen Beispiel einem Varianzbeitrag von 5 bis 22%. Je kleiner die Gesamtpräzision, desto größer fiel dieser Beitrag aus, aber insgesamt zeigte sich, dass der überwiegende Teil der Variabilität durch das Injektionssystem verursacht wird, zumindest bei einfachen Chromatographien. Bei sehr komplexen Anwendungen kann dieser Anteil durchaus geringer ausfallen. Dann kann man jedoch nur bedingt Informationen über die Geräteleistung aus dem Systemeignungstest (SST, s. Kapitel 13.1) ziehen, sondern nur das Gesamtsystem Gerät und Methode betrachten. Varianzbeiträge zur Systempräzision: 2 2 2 + s 2Trennung + sDetektion + sIntegration si 2 = sInjektion

(3.7)

Injektionspräzision: rsdInjektion =

2 2 rsdabs − rsdrel

(3.8)

Da die Systempräzision die unterste Präzisionsebene darstellt und die Variabilität in den weiteren Ebenen nur zunehmen kann, ist es sinnvoll, hier bereits zu begrenzen, was in den Systemtestanforderungen der Arzneibücher auch getan wird (s. Kapitel 13.1). In der Literatur wird eine Variabilität von Autosamplern zwischen 0,3 und 0,7% und für Systemtests zwischen 0,5 und 1,2% [8] beschrieben, oder von 0,7 bis 1,0% [9]. In einem Review von ca. 20 Publikationen

3.3 Analytische Variabilität

([10], S. 41) wurden relative Standardabweichungen zwischen 0,06 und 1,90% zusammengestellt, mit einem mittleren Wert von 0,92%. Etwa drei Viertel aller Werte waren kleiner als 1,0%. Es muss jedoch beachtet werden, dass teilweise die Interpretation schwierig war, da nicht ausreichende Informationen vorlagen, z. B. über das Verhältnis der Testkonzentration zur Bestimmungsgrenze, oder wenn es sich um simultane Bestimmung mehrerer Analyten handelte. In einer Untersuchung zur Konzentrationsabhängigkeit der Präzision [11] wurde eine mittlere Systempräzision bei höheren Konzentrationen von 0,31% bestimmt. Bei Stabilitätsstudien einer Lyophilisatformulierung ergab sich aus 132 Doppelinjektionen eine mittlere Systempräzision von 0,28%, wobei die Systempräzisionen der sechs Lagerintervalle (9 bis 48 Monate) zwischen 0,14% und 0,49% lagen. Eine Erfassung von 53 Systempräzisionen im Rahmen der (jährlichen) Qualifizierung von 28 verschiedenen LC-Systemen ergab Werte zwischen 0,10% und 0,87% mit einem mittleren Wert von 0,34%. 3.3.3 Wiederholpräzision

Bei der Wiederholpräzision müssen unabhängige Proben hergestellt und innerhalb eines kurzen Zeitraumes, d. h. innerhalb einer Serie oder Messreihe, analysiert werden. Zusätzlich zu den Varianzbeiträgen der Systempräzision kommen hier die Variabilitäten der jeweiligen Probenaufarbeitung dazu. Da die Präzision der Routineanwendung die ausschlaggebende Information darstellt, sollte die experimentelle Bestimmung auch die im Routineeinsatz herrschenden Bedingungen so weit wie möglich widerspiegeln. Das bedeutet die weitestgehende Verwendung von authentischen Proben, da nur dann auch alle Schritte der Probenaufarbeitung wie im Prüfverfahren beschrieben durchgeführt werden können (Ausnahmen s. Abschn. 3.3.6). Die ICH-Guideline [5] schreibt mindestens sechs Bestimmungen vor, um eine akzeptable Zuverlässigkeit zu erreichen (s. Abb. 3.2 b). Im Rahmen der Validierung wird zur Berechnung in der Regel Gl. (3.5) verwendet, d. h., man erhält die (individuelle) Wiederholpräzision einer Serie (oder mehrerer Serien, s. Abschn. 3.3.4). Die Wiederholpräzision kann aber auch aus Doppelbestimmungen in der Routineanalytik erfasst werden (s. Gl. 3.6). Die Differenzen der beiden Probenaufarbeitungen pro Charge erfassen die Kurzzeitvariabilität, die über mehrere Chargen aufsummiert wird. Dies erlaubt über die Zeit eine große Anzahl an Werten zu erfassen und damit die Zuverlässigkeit deutlich zu erhöhen [12]. Eine solche Wiederholpräzision entspricht (ab ca. 20 Chargen) der in Abschn. 3.3.4 beschriebenen mittleren Wiederholpräzision der Varianzanalyse (Gl. 3.9). Zu beachten ist hierbei, dass die Mittelwerte der Proben oder Chargen nicht zu unterschiedlich sein dürfen, insbesondere wenn relative Standardabweichungen berechnet werden. Eine Spannweite bis zu etwa 10% sollte akzeptabel sein. Wenn keine authentischen Proben zur Verfügung stehen, beispielsweise im Fall von Nebenproduktbestimmungen, besteht auch die Möglichkeit aufgestockte

157

158

3 Allgemeine Beurteilung analytischer Daten

Proben zu verwenden, in ICH als Bestimmung mit mindestens neun Werten über den Arbeitsbereich beschrieben [5]. Hierfür wird eine ungewichtete lineare Regression durchgeführt. Die Reststandardabweichung beschreibt die Streuung der experimentellen Ergebnisse um die Ausgleichsgerade. Die Richtigkeit des linearen Modells vorausgesetzt, ist dies ein Maß für die zufällige Variabilität, also die Präzision. Wird die Reststandardabweichung auf die mittlere Konzentration normiert, erhält man die relative Verfahrensstandardabweichung (s. Kapitel 2), die der relativen Standardabweichung der Wiederholpräzision entspricht. Um einen für den gesamten einbezogenen Konzentrationsbereich repräsentativen Wert zu bekommen, sollten maximale und minimale Konzentration ein Verhältnis von ca. fünf nicht überschreiten. Mit einem solchen Vorgehen kann man die Validierungselemente Richtigkeit und Präzision (ggf. auch Linearität und Bestimmungsgrenze, in Abhängigkeit vom erforderlichen und inhaltlich akzeptablen Konzentrationsbereich) kombinieren oder Teildatensätze verwenden. Nachteil einer so erhaltenen Präzision ist allerdings, dass zumindest die Probe (und damit die Variabilitätsbeiträge der Aufarbeitung) nicht der im Routineprüfverfahren verwendeten entspricht, so dass die Präzision evtl. unterschätzt wird. Auch können so Inhomogenitätseffekte nicht erfasst werden. Bei der Festlegung von Akzeptanzgrenzen muss darauf geachtet werden, dass diese alle aus der normalen Variabilität resultierenden Ergebnisse einschließen, d. h., die Obergrenze der jeweiligen Verteilung repräsentieren sollten (s. Abb. 3.4). Unter Berücksichtigung von 99% der Verteilung beträgt die Obergrenze für eine Standardabweichung aus sechs Werten das etwa 2-fache der wahren Standardabweichung. An Stelle der wahren Standardabweichung kann man natürlich nur einen experimentellen Wert verwenden, der möglichst zuverlässig abgesichert sein sollte, d. h., mittels ausreichender Datenzahl erhoben wurde, die sog. ZielStandardabweichung (Target Standard Deviation [13], s. u. Vergleichspräzision). Wie präzise muss es nun sein?

Die Antwort ergibt sich primär aus den Anforderungen an das Prüfverfahren, oft als Spezifikationsgrenzen manifestiert. Dies sind jedoch nur Mindestanforderungen, die in Abschn. 3.3.5 behandelt werden. Darüber hinaus sollte auch der gegenwärtige analytische „state of the art“ herangezogen werden. Oft wird in LC-Gehaltsbestimmungen eine Grenze von 2,0% für Wiederholpräzisionen verwendet, die wohl eher als „kollektiver intuitiver Erfahrungswert“ zu betrachten ist, da nicht auf „harte Daten“ rückführbar. In Veröffentlichungen sind überwiegend Präzisionen zwischen 0,5 und 1% zu finden, aber auch deutlich größere Standardabweichungen, bis zu 4%, Einzelfälle bis zu 12% (Zusammenfassung s. [10], S. 43). Es ist oft schwierig, weitergehende Analysen solcher Extremwerte durchzuführen, da nicht genügend Information veröffentlicht ist, z. B. wie weit die Testkonzentration von der Bestimmungsgrenze entfernt und die geringe Präzision damit konzentrationsbedingt ist (s. Abschn. 3.3.6). Eine Analyse von 458 Wiederholpräzisionen, die aus Validierungs- und Transferstudien bei Sanofi-Aventis sowie aus Stabilitätsstudien (Projekt der Fachgruppe Qualitätskontrolle/Pharmazeutische Analytik der DPhG [14]) stam-

3.3 Analytische Variabilität

men, erlaubte eine weitergehende Differenzierung. Die Wiederholpräzision ist weniger vom Analyten als von der jeweiligen Arzneiform abhängig. Es wurden, nach Arzneiformen gruppiert, die Obergrenzen der Verteilung der individuellen Wiederholpräzisionen und die Durchschnittswerte betrachtet. Letztere können, auf Grund der höheren Anzahl der einbezogenen Bestimmungen, als Zielwerte oder Schwerpunkt der jeweiligen Gruppe aufgefasst werden. Die Obergrenze der Verteilung der relativen Standardabweichungen für Wirkstoffe, Injektionslösungen und Lyophilisate liegt bei 1,2–1,4%, der mittlere Wert bei 0,5–0,6%. Dies stimmt gut mit der Ziel-Standardabweichung von 0,6% aus einem Ringversuch des Europäischen Arzneibuches für den LC-Gehalt von Cloxacillin überein [15]. Die LC-Gehaltsbestimmung von Tabletten ist mit einer höheren Variabilität verbunden, bis zu 1,8% bei einer mittleren Wiederholpräzision von 0,9%. Die mittlere relative Standardabweichung für halbfeste Zubereitungen ist noch etwas größer mit 1,0%, die Obergrenze für einen Wirkstoff in einem pharmazeutischen Bad liegt bei 3,4%. Für andere Arnzeiformen, wie z. B. Emulsionen bzw. Kaugummis, wurden in der Literatur Wiederholpräzisionen bis zu 5% bzw. 15% beschrieben (s. [10], S. 48). Die Abhängigkeit der Präzision von der Arzneiform dürfte mit der Probe bzw. Probenaufarbeitung zusammenhängen: Je komplexer diese sind, desto höher die Variabilität. Einzelne Analyten bzw. Methoden können natürlich auch abweichende Präzisionen aufweisen, wobei die Systempräzision stets die Untergrenze darstellt. Die Untersuchung bestätigt die Gültigkeit der 2-%-Erfahrungsgrenze für viele Anwendungen, zeigt aber auch, dass bei verschiedenen Probentypen höhere Wiederholpräzisionen, bei manchen jedoch geringere erwartet werden können. Ein weiteres interessantes Ergebnis ist, dass das in Abschn. 3.1 aus den simulierten normalverteilten Werten resultierende Verhältnis zwischen wahrer Standardabweichung und Verteilungsobergrenze von ca. 2 (s. Abb. 3.4) mit den experimentellen Wiederholpräzisionen, und zwar unabhängig von der Arzneiform, bestätigt wurde. 3.3.4 Vergleichspräzision

In die nächste Präzisionsebene gehen Faktoren ein, die die Langzeitvariabilität des Prüfverfahrens abbilden sollen. Dies sind z. B. unterschiedliche Tage (Zeit), Bearbeiter, Geräte, Materialien usw. Bei Variation dieser Faktoren innerhalb eines Labors wird von Laborvergleichspräzision (Intermediate Precision) gesprochen, bei Einbeziehung anderer Laboratorien von Vergleichspräzision. Der Unterschied zwischen beiden Stufen ist fließend, insbesondere wenn man längere Zeiträume betrachtet, wichtig z. B. für Stabilitätsuntersuchungen (fast philosophisch: Ist ein Labor nach drei Jahren noch das Gleiche?). Ringversuchsbedingungen stellen einen Sonderfall dar, da hier noch weitere Effekte hinzukommen, wie z. B. größere Geräte-, Know-how- und Interpretationsunterschiede („kulturelle“ Effekte) als bei Anwendungen innerhalb einer Firma bzw. Organisationseinheit. Da mehrere Messserien durchgeführt werden, ist bei den chromatographischen

159

160

3 Allgemeine Beurteilung analytischer Daten

Relativverfahren die Variabilität der Kalibrierung ein wesentlicher Präzisionsbeitrag. Deshalb muss auch das gesamte Prüfverfahren, einschließlich Kalibrierung unabhängig von jedem Bearbeiter wiederholt werden. Die ICH-Guideline schreibt keine Anzahl an erforderlichen Serien vor, fordert jedoch die Berechnung der Präzisionen für jede Ebene. Demzufolge besteht der Minimalansatz darin, die Serie für die Wiederholpräzision (mit sechs Bestimmungen) zu wiederholen, z. B. an einem anderen Tag, mit einem anderen Bearbeiter und an einem anderen Gerät. Damit würde man die Variation der Faktoren kombinieren. Wie bereits mehrfach diskutiert, nimmt natürlich die Zuverlässigkeit der Ergebnisse mit der Anzahl der Bestimmungen zu, bei der Vergleichspräzision entsprechend mit der Anzahl der Serien. Dies sollte berücksichtigt werden, da die Vergleichspräzision die Variabilität darstellt, die für die eigentlichen Anwendungen wie Chargenfreigabe oder Stabilitätsuntersuchungen relevant ist. Bei einer Erhöhung der Anzahl der Serien kann die Anzahl der Bestimmungen innerhalb der Serien reduziert werden, da es auf die Gesamtzahl der Freiheitsgrade ankommt (Gesamtzahl an Werten über alle Serien minus Anzahl der Serien, df = k · (n – 1)). 3.3.4.1

Varianzanalyse

Die Berechnung erfolgt vorzugsweise mittels Varianzanalyse (ANOVA) [2], da hier Ergebnisse für mehrere Präzisionsebenen erhalten werden, wie von der ICH-Guideline gefordert. Dies erlaubt auch eine Bewertung der „Empfindlichkeit“ der verschiedenen Analysenschritte, in der USP als „ruggedness“ bezeichnet [16]. Mit einer Einweg- (oder Ein-Faktor)-ANOVA können zwei Präzisionsebenen berechnet werden (Gl. 3.9 und 3.11) [2, 17]. Im Fall einer Vergleichspräzisionsstudie entsprechen diese Ebenen der mittleren Wiederholpräzision und der (Labor-)Vergleichspräzision. Erstere ergibt sich aus der mittleren Varianz innerhalb der Serien, letztere enthält zusätzlich die Varianz zwischen den Serien, welche von den Variationsfaktoren der Studie (Kalibrierung, Bearbeiter, Gerät etc.) verursacht wird. Auf Grund der höheren Freiheitsgrade ist die mittlere Wiederholpräzision (Gl. 3.9) eine bessere Abschätzung für die wahre Standardabweichung. Im Beispiel in Tabelle 3.2 beträgt sie 0,87% bzw. 0,85% unter Verwendung der ersten bzw. zweiten Injektion. Die Injektionen wurden separat herangezogen, damit sich alle berechneten Standardabweichungen auf eine Einzelinjektion beziehen. Intra-serielle Varianz: nj

k

sr2

oder

∑ ∑(x j ,i =

sr2 =

j =1 i =1

∑n j

∑(s2j ) k

− x j )2

−k

(für gleiche n)

(3.9)

0,1265 0,5996 0,3689

Injektionsvarianz (Ebene 3) (df = 20)

Probenaufarbeitungsvarianz (Ebene 2) (df = 15)

Inter-serielle Varianz (Ebene 1) (df = 4)

2-Weg-ANOVA

0,3789

0,7200

0,3259

0,7575

97,57

Inter-serielle Varianz (df = 4)

97,88

100,56

(2. Injektion)

99,68

100,76

101,09

Intra-serielle Varianz (df = 15)

99,57

Serie 5

100,60

100,57

100,81

1-Weg-ANOVA

100,55

Serie 4

99,46

101,20

99,80

2

Inter-serielle Varianz (df = 4)

99,51

Serie 3

101,88

99,86

1

(1. Injektion)

101,83

Serie 2

99,80

2

Einwaage 2

Intra-serielle Varianz (df = 15)

100,22

Serie 1

Einwaage 1

1-Weg-ANOVA

1

Injektion

Einwaage

Vergleichspräzision

Wiederholpräzision

Systempräzision

Vergleichspräzision

Wiederholpräzision

Vergleichspräzision

99,53

2

100,83

100,38

101,38

101,58

Einwaage 3

Wiederholpräzision

100,03

100,06

102,10

101,78

99,44

1

Tabelle 3.2 Vergleichspräzisionsstudie einer LC-Gehaltsbestimmung (in Prozent Nominalgehalt) mit fünf Serien und jeweils vier Probenaufarbeitungen mit Doppelinjektion. Die Einweg-ANOVA wurde jeweils separat mit der 1. und mit der 2. Injektion berechnet (s. auch ANOVA.xls auf der Begleit-CD).

100,79

100,52

99,06

101,20

100,57

1

2

1,04%

0,85%

0,35%

1,05%

0,85%

1,04%

0,87%

99,09

100,27

99,07

101,03

100,47

Einwaage 4

3.3 Analytische Variabilität 161

162

3 Allgemeine Beurteilung analytischer Daten

Inter-serielle Varianz: k

sg2 =

∑ (x j

− x )2

j =1

k −1



sr2 n

(für gleiche n)

(3.10)

Gesamtvarianz und -präzision: sR2 = sr2 + s 2g wenn sg2 < 0 : sR2 = sr2 sR =

sr2

(3.11)

mit: xj,i = individueller Wert x in Serie j; n j , s j , x j = Anzahl an Werten, Standardabweichung und Mittelwert in Serie j; k = Anzahl an Serien. Die Berechnung ist unabhängig von der experimentellen Durchführung, d. h., der Anwender muss darauf achten, welche Präzisionsebenen adressiert werden. Wenn beispielsweise mehrere Probenaufarbeitungen durchgeführt und die Probelösungen wiederholt injiziert werden, erhält man mit Gl. (3.9) die (mittlere) Systempräzision und mit Gl. (3.11) die Wiederholpräzision. In der eigentlichen statistischen Anwendung der Varianzanalyse wird auf Gleichförmigkeit der intra-seriellen Varianzen und auf signifikante Unterschiede zwischen den Mittelwerten getestet. Letzteres ist das eigentliche Ziel einer statistischen Varianzanalyse, die Identifizierung abweichender Datengruppen. Unser Ziel ist aber die Berechnung von Präzisionen, weshalb die o. g. statistischen Tests ignoriert werden sollten. Nicht akzeptable Ergebnisse für die Präzisionen lassen sich praxisrelevanter über eine Akzeptanzobergrenze für individuelle Wiederholpräzisionen und für die Vergleichspräzision verhindern. In letztere gehen auch die Mittelwertsunterschiede ein. Mit Hilfe von Mehrweg- (oder Mehrfaktor-) Varianzanalysen lassen sich die Varianzen mehrerer Schritte des Prüfverfahrens bzw. Präzisionsebenen separieren [18, 19]. Bei Verwendung von Mehrfachinjektionen in einer Vergleichspräzisionsstudie kann man beispielsweise die System-, Wiederhol- und Laborvergleichspräzision gleichzeitig berechnen (s. Tabelle 3.2 und ANOVA.xls auf der Begleit-CD). Oder der Beitrag einzelner Faktoren, wie Bearbeiter, Gerät etc., kann betrachtet werden, z. B. zur Methodenoptimierung (s. Abschn. 3.3.5). 3.3.4.2

Literaturangaben zur Vergleichspräzision

Es ist wesentlich schwieriger, in der Literatur Angaben zur Laborvergleichspräzision zu finden, Ergebnisse zwischen 0,5 und 3,5% werden berichtet (Zusammenfassung s. [10], S. 46). Die im vorigen Abschnitt bereits beschriebene Datensammlung von Sanofi-Aventis und DPhG umfasste 224 Vergleichspräzisionen aus Validierungs- und Transferstudien sowie aus Stabilitätsuntersuchungen [14]. Die mittleren Vergleichspräzisionen betrugen das 1,4- bis 2-fache der jeweiligen mittleren Wiederholpräzision, was die zusätzlichen Varianzbeiträge widerspiegelt.

3.3 Analytische Variabilität

Die mittleren Werte bzw. die Obergrenzen der Vergleichspräzisionen betrugen 1,0 bzw. 1,7% für Lyophilisate und Arzneistoffe, 1,1 bzw. 2,5% für Injektionslösungen, 1,2 bzw. 2,3% für Tabletten und 1,6 bzw. 3,0% für Cremes (s. [10], S. 48). Bei Arzneiformen bzw. Proben mit höherer Wiederholpräzision (geringe relative Standardabweichung) erhalten die Varianzbeiträge der Vergleichsfaktoren ein höheres Gewicht (wie bei Injektionslösungen) und umgekehrt (wie bei Tabletten). Ersteres führt dann auch schnell bei Anwendung von statistischen Signifikanztests zum Ergebnis eines signifikanten Mittelwertsunterschiedes, obwohl die Gesamtpräzision durchaus akzeptabel ist. 3.3.5 Konsequenzen für das Design eines Prüfverfahrens

Die Kenntnis der verschieden Varianzbeiträge kann genutzt werden, um den Hauptbeitrag zur Gesamtpräzision zu identifizieren (Abb. 3.7) und auf dieser Grundlage den größten Hebel für eine Optimierung des Prüfverfahrens zu finden. Dies kann einerseits durch methodische Optimierung (z. B. der Probenaufarbeitung) erfolgen, andererseits durch Erhöhung der Anzahl der Bestimmungen (und damit Verringerung der Gesamtvariabilität), sozusagen „statistisch“. Die bisher verwendeten Gleichungen für Standardabweichungen bezogen sich auf Einzelwerte. Bei Kenntnis der einzelnen (zuverlässigen!) Varianzbeiträge kann nun mit Gl. (3.12) eine „synthetische“ Standardabweichung des Prüfverfahrens berechnet werden.

Abb. 3.7 Darstellung des relativen Anteils der Varianzen an der Vergleichspräzision für verschiedene Arzneiformen bzw. Probenarten. Es wurden die mittleren Varianzen der Beispiele aus [10, Tabelle 2.1-5] verwendet, ergänzt durch eine Systempräzision von 0,31% [11], die für alle Formen als gleich angenommen wurde.

163

164

3 Allgemeine Beurteilung analytischer Daten

Zu einem äquivalenten Ergebnis würde man auch kommen, wenn die Präzision exakt nach festgelegter Prüfanweisung bestimmt wird, z. B. Doppelinjektionen, doppelte Probenaufarbeitung, zwei externe Referenzstandards und das Ganze sechs Mal wiederholt. Damit kann man zwar auch gut die Eignung des Verfahrens abschätzen, die Präzision gilt aber auch nur für dieses Design. Präzision des Prüfverfahrens: sPV =

s 2p sg2 si2 + + m⋅n⋅k n⋅k k

(3.12)

mit: si2 , s 2p , sg2 = Systemvarianz, Varianz der Probenaufarbeitung, inter-serielle Varianz; m = Anzahl der Mehrfachinjektionen; n = Anzahl der Probenaufarbeitungen; k = Anzahl der Serien (mit eigener Kalibrierung), überwiegend k = 1. Mit m, n, und k = 1 erhalten wir wieder die Standardabweichung für einen Einzelwert. Die Varianz der Wiederholpräzision ergibt sich aus den ersten beiden Termen in Gl. (3.12). Die Anzahl der Serien (k) ist der Vollständigkeit halber aufgeführt, es dürfte allerdings nur äußerst selten vorkommen, dass der Endwert einer Analyse aus mehreren unabhängigen Serien mit eigener Kalibrierung ermittelt wird. Dies

Abb. 3.8 Berechnete relative Standardabweichung des Prüfverfahrens in Abhängigkeit von der Anzahl der Mehrfachinjektionen und Probenaufarbeitungen (s. auch Optimierung.xls auf der Begleit-CD). (a) LC-Gehaltsbestimmung in Injektionslösung (aus [10]) mit si2 = 0,0961 (16%), sp2 = 0,0159 (3%), und sg2 = 0,4960 (82%). (b) LC-Gehaltsbestimmung in Tabletten (aus [10]) mit si2 = 0,0961 (3%), sp2 = 1,274 (42%), sg2 = 1,650 (55%). Die Varianzen wurden auf einen Mittelwert von 100 normiert.

3.3 Analytische Variabilität

ist sicher nur gerechtfertigt, wenn z. B. die Kalibrierung mit einer sehr großen Variabilität behaftet ist. Der Anwender kann nun zur Optimierung die Anzahl an Mehrfachinjektionen und an Probenaufarbeitungen variieren und den Einfluss auf die Präzision des Prüfverfahrens berechnen. Natürlich sinkt die Standardabweichung generell mit zunehmender Anzahl an Bestimmungen immer weiter, aber der zusätzliche Präzisionsgewinn wird immer geringer. Demzufolge ist das Ganze eine Aufwand-Nutzen-Optimierung, deren Kriterien der Anwender festlegen muss. In Abb. 3.8 sind verschiedene Szenarien mit Einzelbeispielen für Injektionslösung und Tabletten (aus [10], Tabelle 2.1-5) dargestellt (s. auch Optimierung.xls auf der Begleit-CD). Im Beispiel der Tablettenproben (Abb. 3.8 b) ist deutlich zu erkennen, dass wiederholte Injektionen kaum zur Verminderung der Variabilität beitragen, da der Anteil der Systemvarianz sehr gering ist, wohl aber die Erhöhung der Anzahl der Probenaufarbeitungen. Im Fall der Injektionslösung (Abb. 3.8 a) hat die Erhöhung sowohl der Anzahl der Injektionen als auch der Probenaufarbeitungen einen Effekt. Allerdings starten wir hier bereits mit einer sehr geringen Standardabweichung. 3.3.6 Konzentrationsabhängigkeit der Präzision

Mit sinkender Konzentration nimmt auch die absolute Variabilität ab, aber langsamer als die Konzentration. Dies führt zu einer Abnahme der relativen Präzision. William Horwitz et al. untersuchten eine Vielzahl an Ringversuchen verschiedenster Analyten und Analyseverfahren und fanden eine bemerkenswert einfache mathematische Beschreibung der Konzentrationsabhängigkeit der (Ringversuchs-)Vergleichspräzision (Gl. 3.13). Die relative Standardabweichung der Vergleichspräzision ist demnach nur von der Konzentration des Analyten in der Matrix abhängig. Die sog. „Horwitz-Funktion“ wird in der chemischen Analytik als Richtwert für die Abschätzung einer akzeptablen Vergleichspräzision in Ringversuchen eingesetzt. Die erhaltenen Ergebnisse sollten zwischen der Hälfte und dem Doppelten der „Horwitz-Vorhersage“ für die jeweilige Konzentrationsfraktion betragen. Die Intra-Laborvariabilität (d. h. die Wiederholpräzision) kann bei der Hälfte bis zwei Dritteln der Inter-Laborvariabilität erwartet werden [20]. Bei einer Dosierung des Wirkstoffs von 4 mg in einer 400-mg-Tablette (d. h. einer Konzentrationsfraktion von 0,01) müsste man beispielsweise mit einer Ringversuchs-Standardabweichung zwischen 2,0 und 8,0% und einer Wiederholpräzision von 1,0 bis 5,3% rechnen. Horwitz-Funktion: RSDR (H ) = 2 ⋅ c −0,1505

(3.13)

mit: RSDR(H) = nach Horwitz vorhergesagte relative Standardabweichung der (Ringversuchs-)Vergleichspräzision, experimentelle Ergebnisse sollten zwischen der Hälfte und dem Zweifachen liegen; c = Konzentrationsfraktion des Analyten in der (ursprünglichen) Probe.

165

166

3 Allgemeine Beurteilung analytischer Daten

Die Horwitz-Funktion bezieht sich auf einen sehr breiten Konzentrations- und Anwendungsbereich sowie auf Ringversuchsbedingungen, wo zusätzliche Effekte, die zur Erhöhung der Variabilität beitragen, erwartet werden können [21]. Bei Prüfverfahren in der pharmazeutischen Analytik, die innerhalb derselben Firma angewendet werden, kann man üblicherweise von einem höheren Grad an Beherrschung (oder zumindest Konsistenz) der Methode ausgehen. Wie sieht nun dort die Konzentrationsabhängigkeit der Präzision aus? In einer Modellstudie [11] wurden Wiederholpräzisionen aus fünf bis sieben Bestimmungen einer mit Glibenclamid aufgestockten Matrix typischer Tablettenhilfsstoffe zwischen 0,025 und 125% der normalen Dosis (5 mg/90 mg Hilfsstoffe) ermittelt (Abb. 3.9). Die Abb. 3.9 a zeigt, dass bei höheren Konzentrationen die Wiederholpräzisionen unter der Horwitz-Vorhersage liegen, bei geringen Konzentrationen und Annäherung an die Bestimmungsgrenze am oberen Ende. Oberhalb von ca. 10% Wirkstoffgehalt sind sowohl System- als auch Wiederholpräzision relativ konstant und zeigen einen deutlichen Unterschied (Abb. 3.9 b). Dieser entspricht der Variabilität der Probenaufarbeitung, so dass deren Varianz aus der mittleren Wiederholvarianz von (0,70%)2 und der mittleren Systemvarianz von (0,31%)2 zu

Abb. 3.9 Konzentrationsabhängigkeit der Systempräzision (Quadrate) und der Wiederholpräzision (Rhomben) einer LC-Gehaltsbestimmung von Glibenclamid in einer Tablettenformulierung (Daten aus [11]). (a) Die gestrichelten Linien stellen die Grenzen der aus der Horwitz-Funktion abgeleiteten Wiederholpräzision dar [20]; (b) doppelt

logarithmische Darstellung. Der Trend von System- bzw. Wiederholpräzision ist mit gestrichelter bzw. durchgezogener Linie dargestellt und wurde mittels quadratischer Regression des Logarithmus der Standardabweichung gegen die logarithmierte Konzentration berechnet.

3.3 Analytische Variabilität

(0,63%)2 berechnet werden kann. Von den in Abschn. 3.3.1 diskutierten Variabilitätsbeiträgen (s. Gl. 3.7) zur Systempräzision ist bei größeren Konzentrationen nur die Injektionsvarianz von Bedeutung, so dass diese mit der ermittelten Systemvarianz gleichgesetzt werden kann. Mit abnehmender Konzentration nehmen die relativen Standardabweichungen beider Präzisionen zu und nähern sich einander an. Da sowohl Probenaufarbeitung als auch Injektionsvarianz (relativ gesehen) konstant bleiben, muss die Zunahme der Gesamtvariabilität auf die Detektions- und Integrationsbeiträge zurückgeführt werden. Die Abb. 3.10 stellt die konzentrationsabhängige Veränderung des relativen Anteils der hauptsächlichen Variabilitätsbeiträge dar. Bei geringen Konzentrationen (unterhalb von ca. 0,1% bzw. dem 2–4-fachen der Bestimmungsgrenze) dominiert die Detektions- und Integrationsvariabilität, so dass die Beiträge der Probenaufarbeitung und der Injektion vernachlässigt werden können und System- und Wiederholpräzision sich angleichen. Bei Konzentrationen über ca. 10% (bzw. dem 200-fachen der Bestimmungsgrenze) ist die Detektions- und Integrationsvariabilität vernachlässigbar, d. h. die Systempräzision ergibt sich im Wesentlichen aus der Injektionsvariabilität (s. Abb. 3.10 b). Hierbei muss der Trend der Beiträge betrachtet werden, da der relative Anteil der einzelnen Konzentrationen von der Streuung der individuellen Standardabweichungen beeinflusst wird. Die ab 80% Konzentration in Abb. 3.10 zu sehende Zunahme der Integrationsvariabilität dürfte auf zufällig höhere experimentelle Injektionspräzision zurückzuführen sein, da eine reale Zunahme mit steigender Konzentration keine logische Erklärung findet.

Abb. 3.10 Konzentrationsabhängigkeit der relativen Varianzbeiträge zur Wiederholpräzision (a) und zur Systempräzision (b). Erläuterungen siehe Text.

167

168

3 Allgemeine Beurteilung analytischer Daten

3.3.7 Schlussfolgerungen

Die Verwendung von internen Standards führt nur zu einer Verbesserung der Gesamtpräzision, wenn die Injektionsvariabilität den Hauptbeitrag liefert. (Eine andere Begründung wäre natürlich eine Kompensation von Matrix- oder weiteren Probenaufarbeitungseffekten). Wenn keine authentischen Proben mit Nebenprodukten in ausreichender Konzentration zur Verfügung stehen, kann man bei Nebenproduktbestimmungen die (Wiederhol-)Präzision auch aus wiederholten Injektionen ermitteln. Trotzdem sind authentische Proben (falls vorhanden) vorzuziehen, da nur dort Inhomogenitäten im Material oder die Variabilität der Probennahme erfasst werden. Sofern in akzeptabler Größenordnung, sind solche Inhomogenitäten als Bestandteil der normalen Variabilität zu betrachten. Da die Präzision stets von der Gesamtkonzentration abhängig ist, muss man bei Wiederfindungsuntersuchungen aus analythaltiger Matrix gefundenen und zugegebenen Analyt immer auf die Gesamtmenge beziehen, und nicht nur auf die zugesetzte Analytmenge. Ansonsten wäre eine sehr geringe, aufgestockte Analytkonzentration mit der ggf. viel größeren Variabilität der Gesamtkonzentration behaftet, was leicht zu größeren Abweichungen von der theoretischen Wiederfindung von 100% führen kann. Der Fehler wird vernachlässigbar, wenn die aufgestockte Menge mehr als das Vierfache der ursprünglich vorhandenen beträgt (s. [10], S. 71).

3.4 (Be)Merkenswertes

x Die Zuverlässigkeit von berechneten Parametern hängt stark von der zu Grunde liegenden Datenzahl ab, insbesondere bei Standardabweichungen. Der wahre Wert kann mit n = 3 das 4,4-fache des berechneten betragen (Obergrenze des 95-%-Vertrauensbereiches)! x Auf Grund der normalen zufälligen Variabilität von Messwerten ist auch für (zukünftige) Parameter mit einer Streuung zu rechnen. Für das Setzen von Akzeptanzgrenzen sind die (Ober)Grenzen der Verteilung der jeweiligen Parameter relevant. Der Erwartungswert für die Obergrenze der Verteilung der Standardabweichung aus sechs Werten beträgt etwa das Zweifache der jeweiligen Ziel-Standardabweichung (als zuverlässige experimentelle Abschätzung der wahren Standardabweichung). x Jeder Teilschritt eines Analyseverfahrens trägt mit seiner Variabilität zur Gesamtpräzision bei. In den Präzisionsebenen System-, Wiederhol- und Vergleichspräzision sind jeweils verschiedene Teilschritte zusammengefasst. Standardabweichungen sollten sich auf Einzelwerte beziehen, da nur dann weitergehende Berechnungen möglich werden.

Literatur

x Varianzbeiträge der verschiedenen Präzisionsebenen können mittels Varianzanalyse separat berechnet werden. Damit kann die Gesamtpräzision des Prüfverfahrens über die Anzahl an Einwaagen und Mehrfachinjektionen optimiert werden. x Die Präzision ist konzentrationsabhängig. Innerhalb derselben Methode verschiebt sich der relative Anteil der Varianzbeiträge zueinander mit der Konzentration. Mit abnehmender Konzentration erhöht sich der Anteil der Integrationsvarianz (auf das Kurzzeitrauschen zurückzuführen), unterhalb des ca. 20-fachen der Bestimmungsgrenze ist praktisch nur noch dieser Anteil von Bedeutung. Umgekehrt nimmt der Anteil der Injektionsvarianz zu und dominiert oberhalb des ca. 200-fachen der Bestimmungsgrenze die Systempräzision. Diese Mindestkonzentration muss deshalb für einen aussagekräftigen Systemeignungstest beachtet werden.

Literatur 1 United States Pharmacopeia, National Formulary, Chapter „Analytical Data – Interpretation and Treatment“, United States Pharmacopeial Convention, Rockville, USA. 2 DIN ISO 5725-2: Accuracy (trueness and precision) of measurement methods and results; a basic method for the determination of repeatability and reproducibility of a standard measurement method, 1990. 3 EURACHEM/CITAC Guide: Quantifying uncertainty in analytical measurement, 2nd ed., 2000. http://www.eurachem.ul.pt/, http:// www.measurementuncertainty.org 4 T. Anglov, K. Byrialsen, J. K. Carstensen et al., Accred. Qual. Assur., 2003, 8, 225–230. 5 ICH. Q2(R1): Validation of Analytical Procedures: Text and Methodology, 2005. 6 V. R. Meyer, Fallstricke und Fehlerquellen der HPLC in Bildern. Wiley-VCH, Weinheim, 2006. 7 G. Maldener, Chromatographia, 1989, 28, 85–88. 8 S. Küppers, B. Renger and V. R. Meyer, LC-GC Europe, 2000, 114–118. 9 B. Renger, J. Chromatogr. B, 2000, 745, 167–176.

10 J. Ermer, Chapter 2: Performance parameters, calculations and tests, in Method Validation in Pharmaceutical Analysis. A Guide to Best Practice (J. Ermer and J. H. McB. Miller, Eds.). Wiley-VCH, Weinheim, 2005. 11 U. Schepers, J. Ermer, L. Preu and H. Wätzig, J. Chromatogr. B, 2004, 810, 111–118. 12 J. Ermer, H.-J. Ploss, J. Pharm. Biomed. Anal., 2005, 37, 859–870. 13 A. G. J. Daas, J. H. M. Miller, Pharmeuropa, 1997, 9, 148–156. 14 J. Ermer, C. Arth, P. De Raeve, D. Dill, H. D. Friedel, H. Höwer-Fritzen, G. Kleinschmidt, G. Köller, H. Köppel, M. Kramer, M. Maegerlein, U. Schepers and H. Wätzig, J. Pharm. Biomed. Anal., 2005, 38, 653–663. 15 A. G. J. Daas, J. H. M. Miller, Pharmeuropa, 1998, 10, 137–146. 16 United States Pharmacopeia, National Formulary, Chapter „Validation of Compendial Methods“, United States Pharmacopeial Convention, Rockville, USA, 2006. 17 MVA – Method Validation in Analytics. Software zur analytischen Validierung, 2005. NOVIA GmbH, Frankfurt. www.novia.de

169

170

3 Allgemeine Beurteilung analytischer Daten 18 DIN ISO 5725-3: Accuracy (trueness and precision) of measurement methods and results; Part 3: Intermediate measures on the precision of a test method, 1991. 19 K. Koller, H. Wätzig, Electrophoresis, 2005, 26, 2470–2475.

20 R. Albert, W. Horwitz, Anal. Chem., 1997, 69, 789–790. 21 W. Horwitz, J. Assoc. of Anal. Chem., 1977, 60, 1355–1363.

171

4 Metrologische Aspekte der Beurteilung chromatographischer Daten Ulrich Panne

4.1 Einführung

Die Auswertung chromatographischer Daten hat in Mess- und Prüflaboratorien üblicherweise mehrere hierarchische Ebenen. Zum einen die unmittelbare numerische Behandlung der Messergebnisse mit entsprechenden mathematischen und statistischen Methoden. Hier gilt es bekannte Fallstricke, wie z. B. nichtlineare Relationen oder Datentransformationen, zu vermeiden, um nicht „zu schlechten Ergebnissen aus guten Daten“ zu kommen. Auch multivariate Methoden der Chemometrie wie Faktorenanalyse und Klassifizierungsalgorithmen werden häufig falsch interpretiert und eingesetzt, so dass die Informationsfülle moderner Verfahren wie LC-MS/MS sich eher ins Gegenteil wandelt (vgl. z. B. [1, 2] und Literatur dort). Wege zu einer sinnvollen und korrekten Auswertung wurden bereits in den vorherigen Kapiteln ausführlich behandelt. Die nächste Ebene der Beurteilung der Güte von chromatographischen Messung setzt sich mit den metrologischen Aspekten der Analyse auseinander, d. h. vornehmlich der Unsicherheit und Rückführbarkeit von Messergebnissen. Die Metrologie ist die Lehre vom Messen und wird häufig synonym für Messtechnik oder Messwesen verwendet. In der Regel wird darunter das System der Maßnahmen verstanden, mit denen sichergestellt werden soll, dass Messergebnisse vergleichbar und richtig sind. Dazu gehören: das Internationale Einheitensystem (SI), die messtechnische Rückführung, die Ermittlung und Angabe der Messunsicherheit, Vergleichsmessungen zwischen Laboratorien, aber auch die Grundsätze des Qualitätsmanagements. Dieses System wird von allen Beteiligten arbeitsteilig betrieben: Nationale Metrologie-Institute sorgen durch Referenzmessungen auf dem höchsten Qualitätsniveau für Anschluss an die SI-Einheiten, Kalibrierstellen durch Vergleichsmessungen für die Richtigkeit der Messgeräte, Prüflaboratorien durch Qualitätssicherung entsprechend den Grundsätzen der Norm ISO/IEC 17025 für korrekte Prüfergebnisse. Metrologie in der Chemie stellt sicher, dass chemische Analysenergebnisse vergleichbar und richtig sind.

172

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

Die gegenseitige internationale Anerkennung von konkreten Analysenergebnissen, speziell in sicherheitsrelevanten Bereichen wie dem Gesundheitsschutz, dem Umweltschutz oder dem Verbraucherschutz, ist keine Selbstverständlichkeit und kann erhebliche Handelshemmnisse zur Folge haben. Zu diesem Zweck haben die nationalen Metrologieinstitute 1999 ein internationales Abkommen über die gegenseitige Anerkennung der Messergebnisse nationaler Metrologieinstitute unterzeichnet (CIPM Mutual Recognition Agreement). Gegenstand des Abkommens ist die gegenseitige Anerkennung von nationalen Normalen sowie von Kalibrier- und Messzertifikaten nationaler Metrologieinstitute. Die Vereinbarung betrifft auch die Analytische Chemie (Sachgebiet „Amount of Substance“). Die gegenseitige Anerkennung der nationalen Rückführungssysteme soll eine Grundlage für weitergehende Vereinbarungen in Handel, Wirtschaft und Gesetzgebung schaffen. Diese Anerkennung ist weitaus mehr als ein formaler Akt: Die betreffenden nationalen Institute müssen ihre Kompetenz und die Zuverlässigkeit ihrer Ergebnisse in internationalen Ringversuchen unter Beweis stellen und ein angemessenes Qualitätsmanagement-System vorweisen. Im Interesse größtmöglicher Transparenz werden die Ergebnisse dieser Ringversuche vom Bureau International des Poids et Mésures (BIPM) in Paris frei zugänglich im Internet publiziert (www.bipm.org). Während für die Messung physikalischer Größen seit langem nationale Rückführungssysteme bestehen, ist der Aufbau nationaler Rückführungssysteme für chemische Analysen noch weitgehend am Anfang. In den klassischen Gebieten der Metrologie erfolgt die Rückführung auf nationale Normale über Kalibrierlaboratorien. In der Analytischen Chemie ist eine solche Zwischenebene nur in wenigen Gebieten vorhanden. Hier richtet sich das Angebot metrologischer Dienstleistungen der nationalen Institute weitgehend direkt an die Anwender, d. h. analytisch-chemische Prüflaboratorien. Die Rückführbarkeit von Messungen und ihre Unsicherheit sind zwei wesentliche Paradigmen für Mess- und Prüflaboratorien geworden, nicht zuletzt durch die Verankerung dieser beiden Forderungen in der ISO/IEC 17025 [3]. Während die Rückführbarkeit demonstriert werden muss, also keine mathematische Eigenschaft ist, müssen die Unsicherheiten numerisch ermittelt werden. Nicht überraschend werden metrologische Verfahrensweisen in chemischen Analyselaboratorien häufig als artifiziell und realitätsfern betrachtet [4, 5]. In der Physik konzentrieren sich metrologische Betrachtungen vornehmlich auf die Verringerungen der Unsicherheiten, die Definition der „Analyten“ bzw. Messgrößen und ihre Rückführung bereitet hier keine Probleme. Hier ist selbstverständlich, dass zum Beispiel die Längenmessung unabhängig vom Objekt der Messung ist und auch zur Längenmessung wohl kaum eine Waage verwendet wird. In der Analytischen Chemie sind die Messaufgaben häufig deutlich komplexer und die beiden oberen Punkte nicht unbedingt selbstverständlich. In nur wenigen Fällen ist die gesamte Zusammensetzung einer Probe bekannt, zumeist steht nur ein einzelner Analyt oder eine bestimmte Klasse von Analyten im Mittelpunkt der Betrachtungen. Damit kann die Messung zum einen maßgeblich von der Art der Matrix bestimmt werden, d. h. vom Objekt der Messung. Zum anderen ist die

4.2 Messunsicherheit

Abb. 4.1 Ursachen/Wirkungs-Diagramm für die Unsicherheit einer chemischen Messung.

Identität des Analyten häufig nicht zweifelsfrei zu bestimmen, da die zugrundeliegende Chemie nicht ausreichend bekannt oder verstanden ist. Damit kann die angewendete Methode nicht zu einem sinnvollen Ergebnis führen. Damit wird in der chemischen Metrologie die Probe zum entscheidenden Element der Messung, d. h., was wird in welchem Material bestimmt. Für eine Rückführung können dann chemische Referenzmaterialen und deren Verfügbarkeit entscheidend werden. Das Ergebnis einer Messung wird typischerweise von drei wesentlichen analytischen Prozessen bestimmt (vgl. Abb. 4.1), dem Messinstrument (d. h. der Wiederholbarkeit von kontrollierten Messungen), der analytischen Methode, d. h. Probenbehandlung und damit der Selektivität des Verfahrens, und der Probenahme. Interessanterweise werden in der Praxis aufgrund der numerischen Unzugänglichkeit fast ausschließlich die beiden ersten Quellen für eine Unsicherheitsbetrachtung berücksichtigt, trotz des erheblichen Anteils der Probenahme an der Unsicherheit der Analyse. Damit erfolgt natürlich auch eine wesentliche Einschränkung welche Art von Proben durch die in einem Prüflaboratorium etablierten Methoden analysiert werden können, d. h. die verfügbaren validierten Methoden decken nur einen bestimmten Bereich der möglichen Heterogenität der Proben ab. 4.2 Messunsicherheit

Die Unsicherheit ist eine fundamentale Eigenschaft eines Messergebnisses und mit ihm untrennbar verknüpft [6–9]. Ein Messergebnis bezeichnet dabei in der

173

174

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

Analytischen Chemie zumeist die Konzentration eines Analyten, kann aber eine deutlich größere Komplexität bei verfahrensdefinierten Zielgrößen aufweisen (z. B. die Messung adsorbierbarer organischer gebundener Halogene, AOX). Die Angabe von Unsicherheiten für ein Messergebnis ist kein optionales Charakteristikum einer analytischen Messung. Der Begriff Messunsicherheit impliziert auch nicht Zweifel an der Validität der Messungen. Im Gegenteil, die Kenntnis der Unsicherheit impliziert ein wachsendes Vertrauen in die Validität eines Messergebnisses. Selbst bei einer Korrektur aller systematischen Fehlerquellen führen zufällige Variationen einer einzelnen Messung um den Erwartungswert zu einer Unsicherheit. „Fehler“ bzw. „Messabweichung“ und Unsicherheit müssen voneinander unterschieden werden. Die Messabweichung ist definiert als Differenz zwischen einem individuellen Ergebnis und dem wahren Wert der Messgröße und somit ein einzelner Wert. Die Unsicherheit stellt ein Intervall dar und kann, wenn sie für eine analytische Methode und eine definierte Probenart bestimmt wird, für alle Bestimmungen, die auf genau diese Art durchgeführt werden, herangezogen werden. Somit kann ein Messergebnis zufällig nahe dem (wahren) Wert der Messgröße liegen und damit einen vernachlässigbaren Fehler besitzen. Aufgrund des idealisierten Prinzips ist der wahre Wert jedoch nicht bekannt und die Unsicherheit des Ergebnisses kann immer noch sehr hoch sein. Folgerichtig bezeichnet der GUM (Guide to the Expression of Uncertainty in Measurement) [10] die Messunsicherheit „als ein dem Messergebnis zugeordneter Parameter, der die Streuung der Werte kennzeichnet, die vernünftigerweise der Messgröße zugeordnet werden können“. Diese Definition umfasst Werte, die unter Wiederhol-, Zwischen- und Vergleichsbedingungen gewonnen werden. Aber auch unterschiedliche Korrekturen bekannter systematischer Fehler und theoretische Ansätze können zu dieser Streuung beitragen. Damit gilt, dass alle experimentell oder theoretisch ermittelten Werte, sofern sie nicht als falsch erkannt sind, der Messgröße zugeordnet werden. Die Messunsicherheit ist somit ein Maß für diese Bandbreite möglicher Werte und beschreibt zusammen mit dem Messergebnis den gesamten Kenntnisstand über die Messgröße.

Damit ist die Messunsicherheit mit der Zuverlässigkeit und Vergleichbarkeit von analytischen Ergebnissen untrennbar verknüpft und stützt damit das Vertrauen in nachfolgende Entscheidungsprozesse. Messunsicherheiten müssen so ermittelt werden, dass sie unabhängig vom Verfahren und zu bestimmendem Parameter sind. Darüber hinaus können Messunsicherheiten eines Messergebnisses benutzt werden, um die Messunsicherheit abgeleiteter Größen zu bestimmen. Für einen allgemeinen Überblick und beispielhafte Berechnungen seien der entsprechende EURACHEM/CITAC-Leitfaden [11] bzw. [12] empfohlen, hier findet sich auch weitere Literatur und Angaben zu den entsprechenden ISO-Normen. Für eine numerische Behandlung der Unsicherheit müssen zunächst einige Größen definiert werden: Die Standardunsicherheit u bezeichnet die als Standardabweichung ausgedrückte Unsicherheit des Ergebnisses einer Messung.

4.2 Messunsicherheit

Die kombinierte Standardunsicherheit u ist die Standardunsicherheit eines Messergebnisses, wenn dieses Ergebnis aus den Werten einer Anzahl anderer Größen gewonnen wird. Sie ist gleich der positiven Quadratwurzel einer Summe von Gliedern, wobei die Glieder Varianzen oder Kovarianzen dieser anderen Größen sind, gewichtet danach, wie das Messergebnis mit Änderungen dieser Größen variiert. Die erweiterte Messunsicherheit U ist der Wert, der einen Bereich um das Messergebnis kennzeichnet, von dem erwartet werden kann, dass er einen großen Anteil der Verteilung der Werte umfasst, die der Messgröße vernünftigerweise zugeordnet werden könnten. Dabei ist der Erweiterungsfaktor k der Faktor, mit dem die Standardunsicherheit multipliziert wird, um eine erweiterte Messunsicherheit zu erhalten. Die Genauigkeit einer Messung bezeichnet das Ausmaß der Übereinstimmung eines Messergebnisses mit dem wahren Wert der Messgröße. Diesem Oberbegriff können die Begriffe der Präzision, d. h. Ausmaß der Übereinstimmung zwischen den Ergebnissen unabhängiger Messungen, und der Richtigkeit, d. h. das Ausmaß der Übereinstimmung des Mittelwertes der Ergebnisse einer großen Anzahl unabhängiger Messungen mit dem wahren Wert der Messgröße, untergeordnet werden. Die Präzision kann, nach den Umständen unter denen sie bestimmt wird, zwischen Wiederholbedingungen, Zwischenbedingungen und Vergleichsbedingungen differenziert werden. Wiederholbedingungen beziehen sich auf dasselbe Messverfahren, dasselbe Laboratorium, denselben Bearbeiter, dasselbe Messgerät und Wiederholungen innerhalb einer kurzen Zeitspanne. Vergleichsbedingungen beziehen sich hingegen auf dasselbe Messverfahren, aber auf verschiedene Laboratorien, Bearbeiter oder Messgeräte. Wiederholbedingungen und Vergleichsbedingungen sind somit die Grenzfälle minimaler und maximaler Variabilität. Die Richtigkeit, d. h. der idealisierte wahre Wert, erschließt sich in der chemischen Analytik deutlich schwieriger oder gar nicht. Geeignete Referenzobjekte (Normale, Maßverkörperungen, Referenzmaterialien) oder parallele Anwendung von Referenzverfahren bieten entsprechende Alternativen. Der GUM klassifiziert die Unsicherheitskomponenten über ihre Ermittlungsmethode in Typ A und Typ B. Typ A resultiert in einer Auswertung durch statistische Analyse von Messreihen [13], Typ B in einer Auswertung mit anderen Mitteln als der statistischen Analyse von Messreihen. Die konventionelle Verfahrensweise des Typs A beruht auf der Annahme einer Häufigkeitsverteilung, d. h. in vielen Fällen der Normalverteilung, für die zufallsbedingte Streuung von Messergebnissen. Die alternative Typ-B-Auswertung wird vorwiegend zur Schätzung von Unsicherheiten benutzt, die von unbekannten systematischen Abweichungen herrühren und basiert auf einer erfahrungsbasierten Schätzung dieser Größen. Typisches Beispiel für eine Typ-A-Auswertung ist die Ermittlung eines Schätzwertes für die Standardabweichung V einer angenommenen Normalverteilung. Mit den Ergebnissen x1, x2, …, xn der Größe X kann als Schätzer für die Standardabweichung V dieser Normalverteilung die Standardabweichung s n

s =

∑ (x i

− x )2

i =1

n −1

(4.1a)

175

176

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

mit n

x =

∑ xi i =1

n

(4.1b)

verwendet werden. Die Standardunsicherheit u(x ) dieser Ergebnisgröße ergibt sich dann aus u( x ) =

s n

(4.2)

Ist sichergestellt, dass das Messverfahren in dem betreffenden Messbereich frei von systematischen Abweichungen ist und mit konstanter Streuung arbeitet, so kann die empirische Standardabweichung der Messreihe {x1, x2, …, xn} auch zur Schätzung der Standardunsicherheit der Ergebnisse anderer Messungen in diesem Messbereich verwendet werden. Hierbei ist zu beachten, ob es sich bei der Ergebnisgröße um einen Einzelwert oder um den Mittelwert aus mehreren unabhängig gemessenen Einzelwerten handelt. Im Fall eines Einzelwertes entspricht die Standardunsicherheit s, im Fall eines (arithmetischen) Mittelwertes aus m Einzelwerten entsprechend s / m . Eine Typ-B-Auswertung ist zum Beispiel die Umwandlung einer Höchstwert/Mindestwert-Angabe in eine Standardunsicherheit. Sind für einen Referenzwert nur ein Mindestwert xmin und ein Höchstwert xmax bekannt und sind alle Werte in diesem Intervall als gleichwahrscheinlich anzunehmen, so können für den Referenzwert x und seine Standardunsicherheit u(x) der Mittelwert und die Standardabweichung der Rechteckverteilung mit den Grenzen xmin und xmax verwendet werden. x =

(x max + x min ) 2

(4.3a)

und u( x ) =

(x max − x min ) 12

(4.3b)

Im Allgemeinen setzen sich Ergebnisunsicherheiten aus mehreren Komponenten zusammen, von denen ein Teil nach Typ A, der andere Teil nach Typ B ausgewertet wurde. Deshalb ist die Klassifikation nach Typ A und Typ B in der Regel nur für die einzelnen Unsicherheitskomponenten sinnvoll. Im GUM wird hinsichtlich der vorgeschlagenen Vorgehensweise nicht zwischen unerkannten systematischen und zufälligen Unsicherheitskomponenten unterschieden (Abb. 4.2). Erkannte systematische Messabweichungen werden durch technische Maßnahmen oder Ausgleichsrechnungen kompensiert. Für die Unsicherheitsbilanz bleibt dann eine Komponente, die die Unsicherheit dieser messtechnischen Verbesserung oder Korrektur beinhaltet. Für alle Unsicherheitsanteile ist eine einheitliche Behandlung vorgesehen, da der systematische

4.2 Messunsicherheit

Abb. 4.2 Unterschiedliche Komponenten der Unsicherheit einer chemischen Analyse.

oder zufällige Charakter vom jeweiligen Anwendungsfall abhängt. So wird aus einer zufälligen Messabweichung eine systematische Messabweichung, wenn das Messergebnis als Eingangsgröße in eine weitere Messung einfließt. Umgekehrt werden systematische Abweichungen, die ein Laboratorium bei einem bestimmten Messverfahren macht, zu zufälligen Abweichungen, wenn z. B. bei der Auswertung eines Ringversuchs die Ergebnisse sehr vieler Laboratorien, die jeweils unterschiedliche systematische Abweichungen aufweisen, in einer Vergleichspräzision zusammengefasst werden. Bei der Berechnung der kombinierten Standardunsicherheit werden alle Unsicherheitskomponenten gleich behandelt. In der Vergangenheit wurden teilweise im Sinne „konservativer“ Abschätzung abweichend davon die zufälligen Komponenten quadratisch (s. u.) und die systematischen linear addiert. Heute wird dazu die Wahl eines geeigneten Erweiterungsfaktors k empfohlen. Außerdem sind, z. B. beim Vergleich mit Grenzwerten, auch Höchstwertabschätzungen der Ergebnisunsicherheit sinnvoll. Die Angabe der erweiterten Unsicherheit U(y) für ein Messergebnis y, U ( y ) = k ⋅ u (y )

(4.4)

also des Produkts der Standardunsicherheit u(y) mit einem Erweiterungsfaktor k, definiert einen Vertrauensbereich y − U (y ) ≤ Y ≤ y + U (y )

(4.5)

von dem angenommen werden kann, dass er mit einer vorgegebenen Wahrscheinlichkeit p (z. B. p = 95%) den wahren Wert Y der Messgröße enthält. Dieses Intervall enthält dann den Anteil p aller Werte, die der Messgröße vernünftigerweise zugeordnet werden können. Die Berechnung des Vertrauensbereichs setzt die

177

178

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

Kenntnis der Verteilungsfunktion der Messwerte voraus. Da diese Voraussetzung in der Regel nur sehr unvollkommen erfüllt ist, empfiehlt der GUM die Wahl eines Erweiterungsfaktor k zwischen 2 und 3 (k = 2 entspricht p = 95,45% bzw. p = 95% und k = 1,96). In jedem Fall muss der Faktor k explizit angegeben werden, damit auf die Standardunsicherheit u rückgeschlossen werden kann. Die analytisch-rechnerische Ermittlung von Messunsicherheiten basiert auf der Voraussetzung, dass alle bekannten systematischen Abweichungen korrigiert sind. Der weitere Ablauf gestaltet sich in einem mehrstufigen Verfahren (vgl. Abb. 4.3). 1. Definition der Ergebnisgröße y und das Verfahren zur Ermittlung derselben. In der analytischen Chemie können im Falle von empirischen Methoden die Ergebnisgrößen von der Methode abhängig sein. Diese Verfahren dienen vorrangig dazu eine Vergleichbarkeit zwischen Laboratorien zu erreichen, um das Verfahren damit auch als lokale, nationale oder auch internationale Standardmethode zu definieren. Korrekturen für die systematische Abweichung der Methode oder Matrixeffekte werden daher ignoriert. 2. Identifizierung aller relevanten Unsicherheitsquellen. Hier gilt es zunächst alle relevanten Quellen der Unsicherheit ohne eine Quantifizierung zu erkennen. Hierzu werden typischerweise Ursache- und Wirkungsdiagramme verwendet, um die hierarchische Beziehung der Einflussgrößen zu illustrieren. Zu diesen Faktoren gehören zum Beispiel konstituierende Messgrößen der Ergebnisgröße, indirekte Einflussgrößen (z. B. Druck und Temperatur), Referenzgrößen (von Referenzmaterialien verkörperten Werte) sowie Literaturdaten und Kenngrößen für Teilschritte des vollständigen Messverfahrens (Wiederfindung bei der Probenvorbereitung). Ziel ist somit die Formulierung der Gleichung y = F(x1, x2, …, xN), welche die Prüfgröße in Abhängigkeit von allen relevanten Einflussgrößen beschreibt. 3. Schätzung der Beiträge der einzelnen Unsicherheitsquellen zur Ergebnisunsicherheit. Sind nur wenige Daten zur Charakterisierung der Methode bekannt, ist eine Ermittlung der einzelnen Unsicherheitskomponente vorzuziehen. Im Falle empirischer Methoden erfolgt normalerweise eine Abschätzung durch Ringversuche. Laborübergreifende Studien zur Validierung von Referenzverfahren (z. B. gemäß des AOAC/IUPAC-Protokolls oder der ISO 5725 Norm) sind wertvolle Quellen (z. B. für Reproduzierbarkeit oder systematischen Abweichung, basierend auf CRM-Studien), um die Unsicherheitsabschätzung zu unterstützen. Die gesamte systematische Abweichung kann durch entsprechende zertifizierte Referenzmaterialien, CRM, geschätzt werden, indem das komplette Messverfahren durchgeführt wird. Sind die systematischen Abweichungen nicht signifikant, so ist die systematische Unsicherheit die Standardunsicherheit für den entsprechenden CRM-Wert. Unterscheiden sich zwei Beiträge von Einflussfaktoren um den Faktor 1/5, so kann der kleinere in der Regel gegenüber dem größeren Beitrag vernachlässigt werden. Auf-

4.2 Messunsicherheit

grund der quadratischen Addition (s. u.) trägt eine um den Faktor 1/p kleinere Standardunsicherheit nur mit einem Anteil von ca. 1/(2 p2) der größeren Standardunsicherheit zur Ergebnisunsicherheit bei (p = 5 entspricht ca. 2%). Kleine Unsicherheitsbeiträge, die in großer Zahl auftreten, oder korrelierte Beiträge, die eine lineare Addition von Unsicherheitsbeiträgen anstelle der quadratischen Addition zur Folge haben, müssen berücksichtigt werden. 4. Quantifizierung als Standardunsicherheiten. Je nach Verfügbarkeit von experimentellen Daten werden für alle Eingangsgrößen xi (i = 1, 2, …, N) die Standardunsicherheiten u(xi) ermittelt. Obwohl die Typ-A-Auswertungen eine vermeintlich höhere Objektivität liefern, können im Falle von nur wenigen Messwerten die empirischen Standardabweichungen zu ungenauen Schätzwerten für Standardunsicherheiten führen, so dass eine erfahrungsbasierte Expertenschätzung (Typ-B-Auswertung) möglicherweise den Vorzug verdient. Weiterhin werden die Empfindlichkeitskoeffizienten ci für die Abhängigkeit der Ergebnisgröße y = F(x1, x2, …, xN) von den Eingangsgrößen xi durch die Differentialquotienten oder Differenzenquotienten bestimmt: ci =

∂F ∂x i

(4.6a)

'y 'x i

(4.6b)

bzw. ci =

Der Beitrag der Unsicherheit einer Eingangsgröße xi zur kombinierten Standardunsicherheit von y ergibt sich dann über ui = ci · u(xi). 5. Berücksichtigung von signifikanten Korrelationen durch Kovarianzen. Eine Korrelation zweier Eingangsgrößen xi und xk ist zu erwarten, wenn die betreffenden Eingangsgrößen voneinander abhängig sind oder beide von einer dritten Größe abhängen (z. B. zur Kalibrierung zweier verschiedener Messungen wird dieselbe Stammlösung verwendet). Korrelationen tragen als Produkte uik = ci · ck · u(xi,xk) der Kovarianz u(xi,xk) mit den betreffenden Empfindlichkeitskoeffizienten ci und ck zur kombinierten Standardunsicherheit der Ergebnisgröße y bei. Die Berechnung kann einerseits über eine Unsicherheitsfortpflanzung bezüglich der gemeinsamen Variablen erfolgen, d. h. die Größen xi und xj hängen von unkorrelierten Variablen z1, z2, …, zK ab und damit gilt: u( x i , x j ) =

K

 ∂x   ∂x j  2  ⋅ u(zk )

∑  ∂z i  ⋅  ∂z

k =1

k

(4.7)

k

Sind die Größen z1, z2, …, zK ihrerseits korreliert, so sind auch deren Kovarianzen zu berücksichtigen mit

179

180

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

u( x i , x j ) =

K

 ∂x   ∂x j  ⋅ u(zk )2 

∑  ∂z i  ⋅  ∂z

k =1

+2

k

K −1



k =1

k

 ∂x   ∂x j  ∑  ∂z i  ⋅  ∂z  ⋅ u(zk , z l ) k l l = k +1

(4.8)

K

Parallelmessungen unter Wiederholbedingungen eröffnen alternativ die Möglichkeit empirische Kovarianzen der Mittelwerte zu schätzen. Eine einfach Abschätzungen, ob Kovarianzen überhaupt berücksichtigt werden müssen, folgt daraus, dass u(xi,xj) zwischen u(xi) · u(xj) und u(xi) · u(xj) liegt. 6. Berechnung der kombinierten Unsicherheit. Die Beiträge zur Standardunsicherheit der Ergebnisgröße werden durch u(y )2 =

N

N −1

N

∑ ui2 + 2 ∑ ∑ i =1

i =1 k = i +1

(4.9)

uik

zusammengefasst. Gleichung (4.9) kann auch als u(y )2 =

2

N −1  ∂F  2 ∑  ∂x  u (xi ) + 2 ∑ i i =1 i =1 N

 ∂F   ∂F     ⋅ u( x i , x k )  k = i + 1 ∂x i   ∂x k  N



(4.10)

geschrieben werden. Werden keine Korrelationen beobachtet oder die Beiträge der Korrelationen vernachlässigt vereinfacht sich Gl. (4.10) zu u(y )2 =

2

 ∂F  ∑  ∂x  u(xi )2 i i =1 N

(4.11)

Gleichung (4.11) entspricht dem bekannten „Gauß’schen Fehlerfortpflanzungsgesetz“. Beide Gleichungen sind Reihenentwicklung, die nach dem linearen Glied abgebrochenen werden. Im Falle von nichtlinearen Zusammenhängen müssen entweder weitere Terme der Reihenentwicklung, d. h. höhere Potenzen der Abweichungen, ausgewertet werden, oder es müssen andere Auswertungsmethoden, wie z. B. Monte-Carlo-Simulationen, eingesetzt werden. Besteht zwischen der Ergebnisgröße y und den Eingangsgrößen xi ein einfacher Formelzusammenhang, so lassen sich die Empfindlichkeitsfaktoren mathematisch exakt durch Differentiation bestimmen, ansonsten sind Differenzenrechnungen anzustreben. Die Kovarianzen u(xi,xk) sind mit den Standardunsicherheiten der betreffenden Eingangsgrößen durch u( x i , x k ) = r ( x i , x k ) ⋅ u ( x i ) ⋅ u ( x k )

(4.12)

verknüpft, r(xi,xk) ist der Korrelationskoeffizient. Wären alle Eingangsgrößen gleichsinnig korreliert, so ergäbe sich die kombinierte Standardunsicherheit als lineare Summe u(y) = 6ui der Unsicherheitsbeiträge. Hingegen werden bei voll-

4.2 Messunsicherheit

ständig unkorrelierten Eingangsgrößen die Unsicherheitsbeiträge quadratisch addiert gemäß u(y)2 = 6ui2 (vgl. Gl. 4.9). Die quadratische Addition ergibt in der Regel erheblich kleinere Werte für die kombinierte Standardunsicherheit u(y) als die lineare Addition. Deshalb kann zur Abschätzung von Höchstwerten für die kombinierten Standardunsicherheiten die lineare Addition verwendet werden, ohne dass das Vorliegen von Korrelationen im Einzelnen geprüft wird. 7. Festlegung von Erweiterungsfaktoren und Berechnung der erweiterten Unsicherheit. Die Unsicherheit der Ergebnisgröße kann alternativ entweder als Standardunsicherheit u(y) oder als erweiterte Standardunsicherheit U(y) = k · u(y) angegeben werden. Die erweiterte Standardunsicherheit wird gewählt, um einen Bereich abzugrenzen, von dem erwartet werden kann, dass er den wahren Wert der Ergebnisgröße mit hoher Sicherheit enthält. Typischerweise (d. h. Normalverteilung) wird ein k zwischen 2 und 3 gewählt; empfohlen wird k = 2. Liegen hinreichende Kenntnisse über die Häufigkeitsverteilung der Ergebnisgröße vor, so kann k als „Vertrauensfaktor“ zu einem festgelegten Vertrauensniveau berechnet werden. Hierfür wird das Vertrauensniveau 0,95 (95%) empfohlen. Die notwendige Anzahl der effektiven Freiheitsgrade kann aus den Standardunsicherheiten und den Freiheitsgraden der Verteilungen für die Werte der Eingangsgrößen errechnet werden. Berechnete oder geschätzte Werte der Messunsicherheit werden zusammen mit dem Wert der Ergebnisgröße y entweder als Standardunsicherheit u(y) oder als erweiterte Unsicherheit U(y) = k · u(y) angegeben. Wird die erweiterte Standardunsicherheit angegeben, so sind auch der benutzte Erweiterungsfaktor und das zugehörige Vertrauensniveau zu nennen. Sowohl die Standardunsicherheit als auch die erweiterte Standardunsicherheit können direkt oder als Relativwert (z. B. in Prozent) angegeben werden. Der Aufwand zur Ermittlung der Messunsicherheit auf der Grundlage eines detaillierten Unsicherheitsbudgets eignet sich insbesondere für Messverfahren mit breitem Anwendungsbereich, d. h. bei erheblicher Variationsbreite der Messobjekte und der Messbedingungen. In der Praxis wird die Eignung von analytischen Methoden durch eine Methodenvalidierung nachgewiesen [14], d. h., es liegen Daten zu den relevanten Einflussfaktoren bereits vor. Für Messverfahren mit engem Anwendungsbereich ist daher eine Abschätzung der Messunsicherheit mit laborinternen Validierungsdaten oder Ringversuchsdaten (vgl. z. B. [15, 16]) eine sinnvolle Alternative. Dies erscheint besonders attraktiv, da in der Praxis die Vergleichbarkeit von Methoden häufiger über globale Parameter wie Linearität, Bestimmungsgrenze, Wiederfindungsraten usw. sichergestellt wird, ohne dass ein formales mathematisches Modell vorliegt. Da die größten Quellen der Unsicherheit zumeist aus diskreten (nicht differenzierbaren, vgl. Gl. 4.6) Ereignissen resultieren und sich nur durch experimentelle Studien erschließen lassen, sind sie häufig eine Teil einer globalen Methodenvalidierung. Eine separate Aufschlüsselung einzelner Variationsquellen ist daher aus solche Daten nicht möglich [5, 17, 18].

181

182

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

Beispiel Eine Stammlösung von 1000 mg l–1 zur Kalibrierung wird mit einer Substanz X hoher Reinheit hergestellt. Die Messgröße ist die Konzentration der Lösung cX und ergibt sich aus cX =

mP V

(B1)

mit: m der eingewogenen Masse von X, P der Reinheit als Massenanteil und V dem Volumen der Lösung. Für die Berechnung der kombinierten Standardunsicherheit müssen folgende Unsicherheitskomponenten berücksichtigt werden: Die Reinheit der Substanz X ist im Zertifikat mit 99,99 ± 0,02% angegeben, so dass sich P = 0,9999 ± 0,0002 ergibt. Da es keine Informationen über die Unsicherheit gibt, wird eine Rechteckverteilung angenommen. Die Standardunsicherheit u(P) ergibt sich dann mit Gl. (4.3b) zu u(P ) =

0,00002 = 0,000115 3

(B2)

Ein weiterer Schritt umfasst das Wiegen der der Substanz. Der Messkolben wird mit und ohne Einwaage gewogen, aus den Herstellerdaten ergibt sich für die Differenzwägung von m = 100,42 mg eine geschätzte Unsicherheit von 0,06 mg. Die Unsicherheit des Volumens der Lösung ergibt sich aus dem zertifizierten Innenvolumen des Kolbens und der Variationen beim Befüllen des Kolbens. Die Differenz der Temperatur des Kolbens und der Lösung von der Temperatur, bei der das Volumen des Kolbens kalibriert wurde, wird hier vernachlässigt. Der Hersteller gibt das Volumen des Kolbens mit 100 ± 0,1 ml an. Da die Unsicherheit ohne ein Vertrauensniveau vorliegt, wird die Standardunsicherheit unter der Annahme einer Dreiecksverteilung errechnet. Letztere erscheint sinnvoll, da bei gesicherten Massenproduktionen wie eines Kolbens der Nennwert wahrscheinlicher ist als die Extremwerte. Die Unsicherheit ergibt sich dann zu 0,01 = 0,04 ml 6

(B3)

Die Unsicherheit aufgrund der unterschiedlichen Befüllung kann durch einen Wiederholbarkeitsversuch geschätzt werden. Eine Reihe von zehn Befüll- und Wiegeversuchen ergab eine Standardabweichung von 0,025 mL, die direkt als Standardunsicherheit verwendet wird. u(V) ergibt sich dann als u(V ) =

0,042 + 0,0252 = 0,05 ml

(B4)

Mit den obigen Werten ergibt sich cX zu 1004,1 mg l–1 und die Unsicherheit entsprechend Gl. (4.11) berechnet sich durch Differenzierung und Umformung des multiplikativen Ausdrucks in Gl. (B1) zu

4.2 Messunsicherheit 2

u(c X ) = c X

2

 u(P )   u(m )   u(V )    +   +   P m V 

2

2

2

2

 0,000115   0,06   0,05  = 1004,1 mg l −1  + + = 0,8 mg l −1  0.9999   100.42   100  Weitere komplexe Rechenbeispiele finden sich in [11]. Dieser Ansatz, in der Literatur auch als „top-down“-Ansatz im Vergleich zum „bottom-up“-Ansatz des GUM bezeichnet (Abb. 4.3), konnte für eine Reihe von chromatographischen Anwendungen erfolgreich demonstriert werden. Studien zur Robustheit der Verfahren, wie sie z. B. in der pharmazeutischen Analytik

Abb. 4.3 Flussdiagramm für die Berechnung der Unsicherheit.

183

184

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

üblich sind, können bei einem entsprechenden experimentellen Design die Variationen zwischen Laboratorien zu simulieren. Dies konnte in zahlreichen Studien [19–21] für unterschiedlichste Applikationen zum Beispiel im Bereich der Pharmazeutik und Lebensmittelanalytik [22–28] demonstriert werden. Die verschiedenen Aspekte der Methodenvalidierung erlauben zahlreiche Einblicke in die Problematik der Unsicherheitsberechnungen bei chromatographischen Verfahren. Die Bedeutung der Probenahme für die gesamte Unsicherheit wurde in [29] veranschaulicht, während in [20] auf die Beachtung von Termen zweiter Ordnung in Gl. (4.9) bzw. Gl. (4.10) hingewiesen wurde. Eine gute Übersicht über möglich Fehlerquellen in der Flüssigkeits- und Gaschromatographie bieten Barwick [30] und Ambrus [31]. Deutlich einfacher gestalten sich die Berechnungen bei primären Methoden oder Referenzverfahren auf der Basis der Isotopenverdünnungsanalyse mittels GC-MS [32–37]. Eine direkte Methode der Messunsicherheitsermittlung besteht darin, das betreffende Messverfahren auf Referenzobjekte (Normale, Maßverkörperungen, Referenzmaterialien) anzuwenden und die unter laborinternen Vergleichsbedingungen erhaltenen Ergebnisse mit den bekannten Referenzwerten zu vergleichen. Einfachster Fall ist die Verwendung eines einzigen Referenzobjekts. Eine Variante, die weitgehend demselben Prinzip folgt, besteht darin, das Messverfahren parallel mit einem Referenzverfahren auf geeignete Messobjekte anzuwenden und die Ergebnisse des zu bewertenden Verfahrens mit denen des Referenzverfahrens zu vergleichen. Bei beiden Varianten wird die Messunsicherheit aus Kennwerten zur Richtigkeit und Kennwerten zur Präzision aufgebaut. Die Abfolge der einzelnen Schritten besteht dann aus: (1) Prüfung der Präzision; (2) Prüfung auf systematische Abweichungen und entsprechende Korrektur; (3) Ermittlung der Messunsicherheit für die Messgröße. Üblicherweise werden Untersuchungen von Präzision und Richtigkeit eines Messverfahrens regelmäßig wiederholt. Sind die Daten einer aktuellen Untersuchung mit den Daten aus vorangegangenen Untersuchungen vergleichbar, können sie zusammengefasst werden, um die statistische Basis der betreffenden Schätzwerte zu verbessern. Bei Normverfahren werden Richtigkeit und Präzision in der Regel im Ringversuch ermittelt (vgl. ISO 5725-2).Von den dabei ermittelten Verfahrenskenndaten eignet sich die sog. „Vergleichsstandardabweichung“ (sR) als Schätzwert für die Messunsicherheit (siehe Details in ISO/TS 21748). Da sie bereits systematische Effekte durch unterschiedliche Arbeitsweisen der beteiligten Laboratorien beinhaltet, ist eine zusätzliche Einrechnung systematischer Unsicherheitsbeiträge in der Regel nicht erforderlich. Hat das Laboratorium sich mit einem Prüfverfahren im Rahmen von Eignungsprüfungen erfolgreich an Ringversuchen beteiligt, so kann es die Ergebnisse verwenden, um seine Messunsicherheit abzuschätzen. Alternativ bieten Ringversuche zur Eignungsprüfung die Möglichkeit, eine anderweitig ermittelte Messunsicherheit zu überprüfen. Ist für die Analyse nur ein Höchstwert von Interesse, z. B. bei Einhaltung vorgegebener Spezifikationen bzw. Grenzwertforderungen, ergeben sich folgende Vereinfachungen: Die Unsicherheitsbeiträge ui = ci · u(xi) der Eingangsgrößen

4.2 Messunsicherheit

werden linear addiert; die Korrelationsbeiträge uik = ci · ck · u(xi,xk) entfallen. In den Unsicherheitsbeiträgen ui = ci · u(xi) der Eingangsgrößen können anstelle der Standardunsicherheiten u(xi) Höchstwerte der möglichen Messabweichungen |'xi|max verwendet werden. Mit diesen Vereinfachungen ergeben sich die beiden folgenden Gleichungen, die wahlweise zur Berechnung von Höchstwerten der Messunsicherheit verwendet werden können: N

'y max =



'y max =



i =1 N

i =1

∂F ⋅ u( x i ) ∂x i

(4.13a)

∂F ⋅ 'x i ∂x i

(4.13b)

max

Wie oben diskutiert verliert die lineare Approximation in Gl. (4.9) bei nichtlinearen Zusammenhängen zwischen der Ergebnisgröße y und einer Eingangsgröße xi ihre Gültigkeit. Weiterhin kann die Wahrscheinlichkeitsverteilung der Ergebnisgröße y erheblich von einer Normalverteilung abweichen, mit der Folge, dass k = 2 den Erweiterungsfaktor für einen Überdeckungsgrad von 95% erheblich unterschätzt. Mit Monte-Carlo-Methoden wird für jede Eingangsgröße eine passende Verteilung (z. B. Normalverteilung, Rechteckverteilung oder Dreiecksverteilung) angesetzt. Aus diesen Verteilungen wird je ein Pseudo-Zufallswert simuliert und aus dem so erzeugten Satz von Eingangsdaten ein Wert der Ergebnisgröße berechnet. Dieser Vorgang wird entsprechend oft wiederholt, so dass als Ergebnis ein Datensatz resultiert, der eine Stichprobe der möglichen Werte der Ergebnisgröße in Abhängigkeit von Variationen der Eingangsgrößen entsprechend ihrer Verteilung darstellt. Der Mittelwert und die Standardabweichung dieser Stichprobe sind Schätzwerte für den Wert der Ergebnisgröße und dessen Standardunsicherheit. Zusätzlich kann aus dieser Verteilung bei größeren Abweichungen von der Normalverteilung ein realistischeres Vertrauensintervall bestimmt werden. Die Durchführung von Grenzwertvergleichen verlangt oft den Nachweis, dass die Messgröße innerhalb bestimmter Grenzen liegt. Dazu muss die Unsicherheit im analytischen Ergebnis möglicherweise bei der Bewertung des Grenzwertvergleichs berücksichtigt werden bzw. die Grenzwerte können unter Berücksichtigung der Messunsicherheiten gesetzt worden sein. Die Abb. 4.4 verdeutlicht die Zusammenhänge für den Fall, dass ein Grenzwert ohne Rücksicht auf Unsicherheiten gesetzt wurde. Das Ergebnis übersteigt den Grenzwert um mehr als die ermittelte Unsicherheit (a) bzw. das Ergebnis übersteigt den Grenzwert um weniger als die ermittelte Unsicherheit (b). Das Ergebnis unterschreitet den Grenzwert um weniger als die ermittelte Unsicherheit (c) bzw. das Ergebnis unterschreitet den Grenzwert um mehr als die ermittelte Unsicherheit (d). Die Fälle (a) und (d) werden üblicherweise als mit den Vorgaben nicht übereinstimmend bzw. konform angesehen. Die Fälle (b) und (c) bedürfen in der Praxis individuelle Überlegungen in Anbetracht möglicher Vereinbarungen mit dem

185

186

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

Abb. 4.4 Messunsicherheit und Grenzwerte.

Anwender der Daten. Ausnahme ist die Überwachung eines Grenzwertes mittels einer festgesetzten Methode. Hier wird explizit unterstellt, dass die Unsicherheit oder wenigstens die Reproduzierbarkeit der festgesetzten Methode klein genug ist, um sie in der Praxis zu ignorieren. Mit einer geeigneten Qualitätskontrolle kann so die Einhaltung nur durch den Wert des speziellen Messergebnisses angegeben werden.

4.3 Rückführbarkeit von analytischen Messungen

Für eine Vergleichbarkeit von Ergebnissen zwischen verschiedenen Laboratorien oder von demselben Laboratorium zu verschiedenen Zeiten muss die Verwendung der gleichen Messskala oder gleichen Bezugspunkte sichergestellt sein. In vielen Fällen wird dies erreicht durch eine Kette von Kalibrierungen, die zu einem nationalen oder internationalen Primärstandard, idealerweise zu einer SI-Einheit, gehören. Während für physikalische Größen diese Rückführbarkeit (z. B. Beispiel analytische Waage und das Kilogramm) vergleichsweise einfach zu realisieren ist, gestaltet sich die Etablierung einer ununterbrochenen Kette von Vergleichen zu einem bekannten Referenzwert in der Analytischen Chemie in vielen Fällen sehr schwierig. Rückführbarkeit ist kein neues Konzept, die Bedeutung der Präparation von Stammlösung für die Titrimetrie und Gravimetrie ist seit den Anfängen der Analytischen Chemie bekannt. Für moderne Methoden ist eine adäquate Rückführung zu einer SI-Einheit deutlich schwieriger zu demonstrieren. Die Rückführung (engl.: Traceability) wird formal [38] definiert als „die Eigenschaft eines Messergebnisses oder der Wert eines Standards, welche auf festgelegte Referenzstandards, üblicherweise nationale oder internationale, durch eine ungebrochene Kette von Vergleichen, die alle festgelegte Unsicherheiten besitzen, bezogen wird“. Daraus ergibt sich natürlich auch ein Bezug zur Unsicherheit, da die Übereinstimmung zwischen den Laboratorien begrenzt ist. Rückführung ist folgerichtig eng verbunden mit der Unsicherheit, welche die Güte der Verknüpfungen in der Kette und die zu erwartende Übereinstimmung zwischen Laboratorien, die ähnliche Messungen durchführen, charakterisiert. Eine sinnvolle

4.3 Rückführbarkeit von analytischen Messungen

Schätzung eines Messergebnisses y mit den Eingangsgrößen x1 … xm ist über den funktionalen Zusammenhang f möglich, y = f ( x1 , x 2 , …, x m ) x m + 1 , x m + 2 , …, x n

(4.14)

wenn die Bedingungen xm + 1 … xn spezifiziert sind und durch eine Validierung der Methode bestätigt sind. Dann ist y rückführbar auf x1 … xn, vorausgesetzt die Eingangsgrößen sind ebenfalls rückführbar oder eindeutig definiert. In der Praxis bedeutet dies, dass die Eingangsgrößen mindestens durch die Methode eindeutig bestimmt werden und kritische Größen durch Kalibrierung auf Referenzwerte zurückgeführt werden können. Das Messergebnis kann auch hier wieder eine Größe wie Masse oder Konzentration sein oder durch die empirische Methode definiert werden. Die Ergebnisse können nur dann verglichen werden, wenn sie in derselben Einheit ausgedrückt werden. Diese Vergleichskette führt dann zur entsprechenden primären Einheit oder einer entsprechenden Realisierung einer Einheit am Ende der Kette. Kalibrierung ist ein fundamentaler Schritt für die Etablierung einer Rückführungskette und erlaubt den Vergleich zwischen den Messergebnissen und den Werten eines Referenzstandards. Die Validierung eines Verfahrens spielt nicht nur bei der Berechnung der Unsicherheit gegebenenfalls eine wichtige Rolle, sondern ist auch für die Rückführbarkeit entscheidend. Validierung ist auch für Referenzverfahren notwendig, d. h., zur Überprüfung ob die Methode entsprechend angewandt wird und damit die notwendigen Randbedingungen xm+1 … xn spezifiziert sind. Typischerweise erfolgt dies durch ein zertifiziertes Referenzmaterial oder einen entsprechenden Ringversuch. Die Rückführung des Ergebnisses eines Analysenverfahrens kann somit durch die Kombination folgender Kalibrierungsschritte abgesichert werden: 1. Verwendung eines rückverfolgbaren Standards um die Messeinrichtung zu kalibrieren. Aus metrologischer Sicht sind Referenzmaterialien (RM) Maßverkörperungen der stofflichen Zusammensetzung und anderer Stoffkenngrößen. Zertifizierte Referenzmaterialien (Certified Reference Material, CRM) sind Referenzmaterialien mit einem Zertifikat, in dem unter Angabe der Unsicherheit und des zugehörigen Vertrauensniveaus ein oder mehrere Merkmalswerte aufgrund eines Ermittlungsverfahrens zertifiziert sind, mit dem die Rückverfolgbarkeit der Werte auf eine genaue Realisierung der Einheit erreicht wird. Sie dienen zur Weitergabe von Referenzwerten dieser Größen sowie von Realisierungen reiner Stoffe. Reinststoff-Referenzmaterialien werden verwendet für die Analytkalibrierung von Messgeräten und die Herstellung bzw. Richtigkeitskontrolle von Kalibrierlösungen. Kalibrierlösungen werden verwendet für die Analytkalibrierung von Messgeräten und die Richtigkeitskontrolle von Analysenergebnissen mittels Aufstockung (Wiederfindungsexperimente). Matrix-Referenzmaterialien werden verwendet zur Richtigkeitskontrolle von Analysen, sowohl bei der Validierung von Analysenverfahren als auch bei der laufenden Qualitätsüberwachung. In bestimmten Gebieten werden

187

188

4 Metrologische Aspekte der Beurteilung chromatographischer Daten

Matrix-RM u. a. zwecks Berücksichtigung von Matrixeffekten auch für die Analytkalibrierung von Messgeräten eingesetzt (für Übersicht über verfügbare Referenzmaterialien vgl. www.comar.bam.de). 2. Verwendung einer Primärmethode oder Vergleich mit den Ergebnissen einer Primärmethode. Eine primäre Messmethode ist eine Methode mit höchster metrologischer Qualität, so dass alle Verfahrensschritte vollständig beschrieben und in SI-Einheiten ausgedrückt sind. Die Ergebnisse können so ohne eine Referenz zu einem Standard derselben Quantität anerkannt werden. 3. Verwendung einer reinen Substanz RM oder eines geeigneten matrix-angepassten CRM. Eine Rückführung kann durch einen Vergleich der Messergebnisse mit einem CRM demonstriert werden. Wenn der Wert des CRM rückverfolgbar zu SI ist, ist für diese Messungen auch die messtechnische Rückführung zu SI-Einheiten nachgewiesen. Das Konzept einer reinen Substanz ist dabei ein idealisiertes Konzept, so dass die Verwendung von „reinen“ Substanzen einer sorgfältigen Überprüfung bedarf. Da diese Substanzen häufig auch das Ende der Rückführung von CRMs sind, kann durch mangelhafte oder fehlende Reinstsubstanzen das gesamte Ende der Kette durch einen Zirkelschluss gefährdet sein. 4. Verwendung eines anerkannten, sehr gut definierten Verfahrens. Referenzverfahren sind eingehend charakterisierte, validierte und nachweislich beherrschte quantitative analytische Messverfahren zur Qualitätsbewertung anderer Verfahren für vergleichbare Aufgaben, zur Zertifizierung von Referenzmaterialien oder zur Bestimmung von Referenzwerten, mit einer dem Verwendungszweck entsprechenden Messunsicherheit. Referenzverfahren werden u. a. verwendet zur Validierung von Routineverfahren, Zertifizierung von Referenzmaterialien, Bestimmung von Referenzwerten (Zielwerten) bei Eignungsprüfungen, Analysen von besonderer Tragweite (z. B. Schiedsanalysen), Bestimmung von Referenzwerten relevanter Stoffkenngrößen, Rückführung von Konventionsverfahren (z. B. Bestimmung extrahierbarer Schwermetallgehalte in Böden mit Königswasseraufschluss). Die Angabe der Rückführbarkeit erfolgt über den Bezug zu den verwendeten Standards zur Kalibrierung bzw. die Angabe der Referenzstandards zur Kontrolle der Messbedingungen.

Literatur

Literatur 1 M. Daszykowski and B. Walczak, Use and abuse of chemometrics in chromatography, Trends Anal. Chem. (2006) 25, 1081–1096. 2 M. Badertscher and E. Pretsch, Bad results from good data, Trends Anal. Chem. (2006) 25, 1131–1138. 3 GUM, General Requirements for the Competence of Calibration and Testing Laboratories, ISO, Genf, 1999. 4 J. L. Love, Chemical metrology, chemistry and the uncertainty of chemical measurements, Accred. Qual. Assur. (2002) 7, 95–100. 5 A. Rios and M. Valcarcel, A view of uncertainty at the bench analytical level, Accred. Qual. Assur. (1998) 3, 14–19. 6 P. De Bievre and H. Günzler, Measurement Uncertainty in Chemical Analysis. Berlin: Springer Verlag, 2003. 7 F. Adunka, Messunsicherheiten. Essen: Vulkan, 2000. 8 L. Kirkup and B. Frenkel, An Introduction to Uncertainty in Measurement. Cambridge: Cambridge University Press, 2006. 9 M. Drosg, Dealing with Uncertainties. Berlin: Springer Verlag, 2006. 10 Guide to the Expression of Uncertainty in Measurement, ISO, Genf, 1995. 11 EURACHEM/CITAC GUIDE, Quantifying Uncertainty in Analytical Measurement, 2000. www.eurolab-d.bam.de. 12 W. Hässelbarth, BAM-Leitfaden zur Ermittlung von Messunsicherheiten bei quantitativen Prüfergebnissen. Bremerhaven: N. W. Verlag, 2004. 13 M. Rosslein, Evaluation of uncertainty utilising the component by component approach, Accred. Qual. Assur. (2000) 5, 88–94. 14 S. Kromidas, Handbuch Validierung in der Analytik. Weinheim: Wiley-VCH, 2000. 15 M. Patriarca, F. Chiodo, M. Castelli, and A. Menditto, Estimates of uncertainty of measurement from proficiency testing data: a case study, Accred. Qual. Assur. (2006) 11, 474–480. 16 P. Dehouck, Y. V. Heyden, J. SmeyersVerbeke, D. L. Massart, R. D. Marini,

17

18

19

20

21

22

23

24

P. Chiap, P. Hubert, J. Crommen, W. Van de Wauw, J. De Beer, R. Cox, G. Mathieu, J. C. Reepmeyer, B. Voigt, O. Estevenon, A. Nicolas, A. Van Schepdael, E. Adams, and J. Hoogmartens, Interlaboratory study of a liquid chromatography method for erythromycin: determination of uncertainty, J. Chromat. (2003) A 1010, 63–74. A. Maroto, R. Boque, J. Riu, and F. X. Rius, Evaluating uncertainty in routine analysis, Trends Anal. Chem. (1999) 18, 577–584. S. L. R. Ellison and V. J. Barwick, Estimating measurement uncertainty: reconciliation using a cause and effect approach, Accred. Qual. Assur. (1998) 3, 101–105. E. Hund, D. L. Massart, and J. Smeyers-Verbeke, Comparison of different approaches to estimate the uncertainty of a liquid chromatographic assay, Anal. Chim. Acta (2003) 480, 39–52. V. J. Barwick, S. L. R. Ellison, C. L. Lucking, and M. J. Burn, Experimental studies of uncertainties associated with chromatographic techniques, J. Chromatogr. (2001) A 918, 267–276. E. Hund, D. L. Massart, and J. Smeyers-Verbeke, Operational definitions of uncertainty, Trends Anal. Chem. (2001) 20, 394–406. E. C. Gimenez and S. Populaire, Use of validation data for fast and simple estimation of measurement uncertainty in liquid chromatography methods, J. Liq. Chromatogr. R. T. (2005) 28, 3005–3013. V. J. Barwick, S. L. R. Ellison, M. J. Q. Rafferty, and R. S. Gill, The evaluation of measurement uncertainty from method validation studies – Part 2: The practical application of a laboratory protocol, Accred. Qual. Assur. (2000) 5, 104–113. J. O. De Beer, P. Baten, C. Nsengyumva, and J. Smeyers-Verbeke, Measurement uncertainty from validation and duplicate analysis results in HPLC analysis of multivitamin preparations and nutrients with different galenic forms, J. Pharm. Biomed. Anal. (2003) 32, 767–811.

189

190

4 Metrologische Aspekte der Beurteilung chromatographischer Daten 25 T. Anglov, K. Byrialsen, J. K. Carstensen, F. Christensen, S. Christensen, B. S. Madsen, E. Sorensen, J. N. Sorensen, K. Toftegard, H. Winther, and K. Heydorn, Uncertainty budget for final assay of a pharmaceutical product based on RP-HPLC, Accred. Qual. Assur. (2003) 8, 225–230. 26 D. W. M. Sin, Y. C. Wong, C. Y. Mak, S. T. Sze, and W. Y. Yao, Determination of five phenolic antioxidants in edible oils: Method validation and estimation of measurement uncertainty, J. Food Compos. Anal. (2006) 19, 784–791. 27 N. Ratola, L. Santos, P. Herbert, and A. Alves, Uncertainty associated to the analysis of organochlorine pesticides in water by solid-phase microextraction/gas chromatography-electron capture detection – Evaluation using two different approaches, Anal. Chim. Acta (2006) 573, 202–208. 28 F. Cordeiro, G. Bordin, A. R. Rodriguez, and J. P. Hart, Uncertainty estimation on the quantification of major milk proteins by liquid chromatography, Analyst (2001) 126, 2178–2185. 29 S. Leito, K. Molder, A. Kunnapas, K. Herodes, and I. Leito, Uncertainty in liquid chromatographic analysis of pharmaceutical product: Influence of various uncertainty sources, J. Chromatogr. (2006) A 1121, 55–63. 30 V. J. Barwick, Sources of uncertainty in gas chromatography and high-performance liquid chromatography, J. Chromatogr. (1999) A 849, 13–33. 31 A. Ambrus, Reliability of measurements of pesticide residues in food, Accred. Qual. Assur. (2004) 9, 288–304.

32 M. J. T. Milton and R. I. Wielgosz, Uncertainty in SI-traceable measurements of amount of substance by isotope dilution mass spectrometry, Metrologia (2000) 37, 199–206. 33 B. King and S. Westwood, GC-FID as a primary method for establishing the purity of organic CRMs used for drugs in sport analysis, Fresenius J. Anal. Chem. (2001) 370, 194–199. 34 M. J. T. Milton and R. I. Wielgosz, Use of the international system of units (SI) in isotope ratio mass spectrometry, Rapid Commun. Mass Spectrom. (2002) 16, 2201–2204. 35 A. S. Brown, M. J. T. Milton, C. J. Cowper, G. D. Squire, W. Bremser, and R. W. Branch, Analysis of natural gas by gas chromatography – Reduction of correlated uncertainties by normalisation, J. Chromatogr. (2004) A 1040, 215–225. 36 H. Hasegawa, Y. Shinohara, T. Hashimoto, R. Matsuda, and Y. Hayashi, Prediction of measurement uncertainty in isotope dilution gas chromatography/mass spectrometry, J. Chromatogr. (2006) A 1136, 226–230. 37 C. Planas, A. Puig, J. Rivera, and J. Caixach, Analysis of pesticides and metabolites in Spanish surface waters by isotope dilution gas chromatography/mass spectrometry with previous automated solid-phase extraction – Estimation of the uncertainty of the analytical results, J. Chromatogr. (2006) 1131, 242–252. 38 International Vocabulary of basic and general terms in Metrology, ISO, Genf, 1993.

191

Teil II Die Charakteristika der Auswertung in einzelnen LC-Modi

193

5 Auswertung von GC-Daten Werner Engewald

5.1 Einführung

Warum ein eigenes Kapitel über die Auswertung von GC-Daten? Bei der Gaschromatographie wird doch prinzipiell die gleiche Hard- und Software zur Signalerfassung und -verarbeitung angewandt wie bei der HPLC; auch die Kalibrierverfahren unterscheiden sich nicht. Und der A/D-Wandler weiß doch gar nicht, mit welcher Chromatographie-Variante das ankommende Signal erzeugt wurde. Eben! Aber die Chromatographie in der Gasphase bedingt in der Regel höhere Temperaturen für Injektor, Trennsäule und Detektor. Daraus ergeben sich einige wesentlich andere Aspekte und Fehlerquellen für die qualitative und quantitative Analyse, die der Betreiber kennen und bereits bei der Methodenausarbeitung beachten sollte, um richtige und reproduzierbare Ergebnisse zu erhalten. Bei der Auswertung der Gaschromatogramme lassen sich eventuell in den vorhergehenden Schritten der Analyse (Probenvorbereitung, Injektion, Trennung, Detektion, Signalverarbeitung) gemachte Fehler nicht mehr beheben; bestenfalls können einige davon erkannt werden. Das Szenario kann von einer nicht erfolgten oder ungenügenden Trennung, schlecht auswertbaren Peakformen bis zu Minderbefunden für „kritische“ Probenkomponenten reichen. Es können auch zusätzliche Peaks auftreten, die nicht aus der Probe stammen. Die Chromatogrammauswertung sollte daher nicht isoliert von den vorherigen Analysenschritten und den dabei angewandten Bedingungen erfolgen und eine kritische Wertung und Absicherung der erhaltenen Ergebnisse einschließen, um falsche Aussagen zu vermeiden, die manchmal schwerwiegende Konsequenzen nach sich ziehen. In diesem Kapitel soll daher aufzeigt werden, was in der Gaschromatographie – genauer in der weit verbreiteten Kapillar-Gaschromatographie (KGC) – anders ist im Vergleich zur HPLC und welche Konsequenzen sich daraus ergeben. Einige für die qualitative und quantitative Analyse bedeutsame Neuentwicklungen werden vorgestellt.

194

5 Auswertung von GC-Daten

Dagegen muss für eine ausführliche Diskussion von möglichen Fehlern, ihre Erkennung und Vermeidung, die zudem von der verfügbaren Gerätetechnik beeinflusst wird, auf die Literatur [1–13] verwiesen werden.

5.2 Worin unterscheidet sich die GC von der HPLC?

Bei der Gaschromatographie ist die mobile Phase ein Gas, meist wird Wasserstoff, Helium oder Stickstoff als sog. Trägergas benutzt. Gase zeichnen sich gegenüber Flüssigkeiten durch eine geringere Dichte, Viskosität sowie durch eine beträchtlich höhere Diffusivität (Diffusionskoeffizienten) aus. Als stationäre Phase dient entweder eine hochsiedende Flüssigkeit (Gas-Liquid-Chromatographie, GLC) oder ein Feststoff (Gas-Solid-Chromatographie, GSC). Im Unterschied zur HPLC spielen gepackte Säulen in der GC nur noch eine untergeordnete Rolle; es kommen hauptsächlich Kapillarsäulen mit einem Innendurchmesser von unter einem Millimeter zur Anwendung, bei denen die stationäre Phase entweder als dünner Film oder als dünne Schicht eines feinkörnigen Adsorbens nur an der Innenwand aufgetragen ist. Wegen der hohen Permeabilität (Durchlässigkeit) von Kapillarsäulen lassen sich in der Kapillar-GC wesentlich längere Säulen mit einem signifikant höheren Trennvermögen verwenden. Die Verwendung von Gasen als mobile Phase, die den Stofftransport durch die Säule bewirkt, bedeutet aber auch, dass die Probe in die Dampf- oder Gasphase überführt werden muss und man in der Regel bei Säulentemperaturen zwischen Zimmertemperatur und 350 °C arbeitet. Damit beschränkt sich der Anwendungsbereich der GC auf flüchtige und thermisch stabile Verbindungen, die sich schnell ohne Zersetzung oder Reaktion mit den anderen Komponenten der Probe verdampfen lassen. Bei der KGC gestaltet sich das Einbringen der Probe in die Säule wesentlich schwieriger und problematischer als in der HPLC, bei der die Probelösung letztlich nur in den Strom des flüssigen Eluenten eingeschleust werden braucht. Anstelle einer universell anwendbaren Injektionstechnik stehen dem GC-Anwender verschiedene Injektoren sowie eine Reihe von Dosiertechniken zur Verfügung, von denen er in Abhängigkeit von den Eigenschaften der Probe sowie der analytischen Fragestellung eine Technik auswählen und die dafür geeigneten Betriebsparameter erarbeiten muss. In der Flüssigchromatographie bilden Phasengleichgewichte, chemische Gleichgewichte (z. B. Ionenaustausch) oder sterische Effekte (Ausschluss) die Basis der Trennung. Bei den Phasengleichgewichten sind unterschiedliche zwischenmolekulare Wechselwirkungen der Analyten sowohl mit der stationären als auch mit der mobilen Phase für die Trennung verantwortlich. Diese Konkurrenz der Probekomponenten mit den Lösungsmittelmolekülen um die Oberflächenplätze der stationären Phase, die treffend als “Wechselwirkungsdreieck“ bezeichnet wird, bedeutet, dass Retention und Auflösung der Komponenten nicht nur von der Struktur der stationären Phase, sondern auch von der Zusammensetzung

5.2 Worin unterscheidet sich die GC von der HPLC?

der mobilen Phase abhängen. In der GC sind dagegen die zwischenmolekularen Wechselwirkungen sowohl der Analyten als auch der stationären Phase mit den kleinen Gasmolekülen, die als mobile Phase dienen, vernachlässigbar klein. Für die Retention und Trennung der Probekomponenten sind daher in der GC nur die Wechselwirkungen zwischen stationärer Phase und Analyten verantwortlich; bei flüssigen stationären Phasen (Gas-Liquid-Chromatographie, GLC) die Verteilung der Komponenten zwischen einem hochsiedenden Lösungsmittel und der darüber befindlichen Gasphase oder bei festen stationären Phasen (Gas-SolidChromatgraphie, GSC) die Adsorption der Komponenten aus der Gasphase an der Oberfläche von Festoffen. Da in beiden Fällen die entsprechenden Gleichgewichte stark von der Temperatur abhängen, spielt in der GC die Säulentemperatur eine ganz entscheidende Rolle. Sie ist neben der stationären Phase die wichtigste Variable bezüglich Analysenzeit und erreichbarer Auflösung. Im verdampften Zustand sind die Analytmoleküle nicht solvatisiert und besitzen je nach Polarität eine mehr oder weniger ausgeprägte Neigung zur Adsorption an kalten sowie an aktiven Oberflächen. Andererseits kann es an heißen Oberflächen zu thermischen Zersetzungserscheinungen kommen, auch wenn das Trägergas eine inerte Atmosphäre darstellt. Daher ist die Temperatur sowie die Inertheit aller Oberflächen, mit denen die heiße Probe in Berührung kommen kann (Injektor, Säule, Detektor) von großem Einfluss auf das analytische Ergebnis (das gilt besonders für die Spurenanalyse polarer Verbindungen). Ebenso spielt die Verweilzeit (Berührungszeit) der Substanzen an diesen Oberflächen eine Rolle. 5.2.1 Welche Konsequenzen ergeben sich aus diesen Unterschieden? 5.2.1.1

Anwendbarkeit der GC

Wie bereits erwähnt, ist die GC die Methode der Wahl für flüchtige und thermisch stabile (bis 350–400 °C) Verbindungen, die sich schnell und ohne Zersetzung oder Reaktionen mit anderen Gemischkomponenten verdampfen lassen. Die Flüchtigkeit hängt bekanntlich von der Größe und Polarität der Moleküle ab: Je größer das Molekulargewicht und/oder die Polarität, desto geringer die Flüchtigkeit. Man muss also beide Faktoren betrachten: So können große unpolare Moleküle eine größere Flüchtigkeit aufweisen als kleine polare Moleküle. Eine polare Gruppe in einem größeren Molekül hat einen geringeren Einfluss auf die Polarität als in einem kleineren Molekül. Verbindungen mit mehreren polaren Gruppen (Zucker, Aminosäuren usw.) weisen nur eine geringe Flüchtigkeit auf. Die Domäne der GC sind folglich unpolare und schwach polare Verbindungen, d. h. gasförmige, flüssige und auch feste Verbindungen mit weniger als 60 Kohlenstoffatomen, einem Molekulargewicht unter 600 und einem Siedepunkt unter 500 °C. Sogar einige hochsiedende Verbindungen, wie z. B. langkettige, gesättigte Kohlenwasserstoffe (bis zur C-Zahl 100) oder Triglyceride, sind aufgrund ihrer thermischen Stabilität der GC zugänglich. Ein Beispiel für die GC hochsiedender Verbindungen zeigt Abb. 5.1. Im Chromatogramm der polybromierten Diphenylether (PBDE) ist die gute Peakform des Decabrom-Diphenylethers (letzter

195

196

5 Auswertung von GC-Daten

Abb. 5.1 Gaschromatogramm einer Testmischung von polybromierten Diphenylethern (Flammenschutzmittel) an einer unpolaren Säule; temperaturprogrammierte Arbeitsweise.

Peak, nominale Molmasse 950!) bemerkenswert, da diese Substanz an aktiven Oberflächen zur Zersetzung neigt. Polare, weniger flüchtige und/oder leicht zersetzliche Substanzen lassen sich jedoch durch geeignete chemische Reaktionen (vorwiegend Silylierung, Alkylierung, Acylierung) in stabile flüchtige (weniger polare) Derivate überführen und somit der GC zugänglich machen. Durch Einführung spezieller „detektorspezifischer“ Gruppen kann diese Derivatisierung gleichzeitig zu einer empfindlicheren oder selektiven Detektion führen. Weiterhin können nichtflüchtige Proben durch eine definierte thermische Zersetzung in kleinere, der GC zugängliche Moleküle überführt werden (Pyrolyse-GC). Außerdem ist bei zahlreichen Problemstellungen ohnehin nicht die komplette Zusammensetzung der Proben, sondern nur die Menge der flüchtigen Inhaltsstoffe gefragt. Hierfür bietet die bei der GC erforderliche Überführung der Analyte in die Gas- oder Dampfphase – meist als Nachteil der Methode angesehen – eine elegante Möglichkeit der Verknüpfung der Dosierung mit einer Analyt/MatrixTrennung bzw. einer Anreicherung ohne Verwendung eines Lösungsmittels (Tabelle 5.1). Betrachtet man die unterschiedlichen Anwendungsmöglichkeiten von GC und HPLC, so ergänzen sich beide Techniken ideal. Einige Substanzen können jedoch mit beiden Techniken untersucht werden. Bei der Methodenauswahl ist zu beachten, dass die HPLC mildere Bedingungen (Trennung bei Raumtemperatur) bietet, die Kapillar-GC dagegen das bedeutend größere Trennvermögen. So kann man mit HPLC-Säulen bis zu 100 Peaks in einem Lauf trennen, mit GC-Kapillaren 500 bis 1000.

5.2 Worin unterscheidet sich die GC von der HPLC? Tabelle 5.1 Lösungsmittelfreie („trockene“) Extraktions- und Dosiertechniken zur GC-Analyse flüchtiger Komponenten in schwer- oder nichtflüchtigen Proben. Technik

Prinzip

Headspace-GC (HS-GC) Kopf- oder Dampfraumanalyse

Probenahme aus dem Dampfraum über flüssigen oder festen Proben, statische und dynamische Varianten

Thermodesorption Direkte Thermodesorption

Ausgasen fester Proben bei höheren Temperaturen im Gasstrom

Adsorptive Anreicherung/ Thermodesorption

Spurenanreicherung aus Gasen an Adsorbentien mit nachfolgendem Ausheizen im Gasstrom

Festphasen-Mikroextraktion Solid Phase Micro Extraction, SPME

Extraktion aus flüssigen Proben oder dem Dampfraum an einer außen beschichteten Quarzfaser mit nachfolgendem Ausheizen im GC-Injektor

Stir Bar Sorptive Extraction, SBSE

Extraktion an einem beschichteten Rührstäbchen („Twister“)

Solid Phase Dynamic Extraction, SPDE (in tube SPME)

Extraktion an einer innen beschichteten Spritzennadel

Zum Methodenvergleich soll die chromatographische Analyse von Carbonylverbindungen in gasförmigen Proben dienen, die wegen ihrer atmosphärenchemischen Bedeutung und toxikologischen Relevanz von Interesse ist. In der Regel werden diese Verbindungen wegen ihrer hohen Reaktivität nicht in freier Form, sondern nach ihrer Umsetzung zu stabileren und reaktionsträgeren Derivaten bestimmt. Die – mit einer Anreicherung kombinierte – säurekatalysierte Umsetzung mit 2,4-Dinitrophenylhydrazin (DNPH) und anschließende HPLC der gebildeten Hydrazone stellt eine Standardmethode dar, obwohl in Gegenwart von Ozon sowie Stickoxiden Interferenzen auftreten können. Diese DNPH-Derivate lassen sich prinzipiell auch mit der GC trennen. In Abb. 5.2 werden die mittels HPLC (a) und GC (b) erhaltenen Chromatogramme einer DNPH-Standardmischung gegenüber gestellt. Ein wesentlicher Unterschied zwischen beiden Chromatogrammen besteht im Auftreten von Doppelpeaks für einige DNPH-Derivate in der GC. Diese Doppelpeaks resultieren aus den bei der Reaktion von DNPH mit unsymmetrischen Carbonylverbindungen gebildeten syn- und anti-isomeren Dinitrophenylhydrazonen, die sich an der unpolaren Kapillarsäule, nicht aber bei der HPLC, trennen lassen. Da zur quantitativen Analyse die Flächen beider Isomere addiert werden müssen, erweist sich in diesem Fall das höhere Auflösungsvermögen der Kapillar-GC als Nachteil. Die Isomerenverhältnisse hängen von den Reaktionsbedingungen bei der Derivatisierung (pH-Wert, Lösungsmittel, Temperatur) ab; darüber hinaus kann auch beim chromatographischen Prozess eine Isomerisierung in der Säule

197

198

5 Auswertung von GC-Daten

Abb. 5.2 Trennung von 2,4-DNPH-Derivaten niederer Carbonylverbindungen. (a) HPLC; Säule: Discovery RP Amide C16 column (150 mm × 4,6 mm, 5 μm); Fluss: 1 mL/min, 30 °C. (b) GC; Säule: Methylsilikon mit 5% Phenyl (MDN-5), (30 × 0,25 mm, 0,25 μm); Temperaturprogramm: 50 °C (1 min); 20 °C/min bis 180 °C (5 min); 1 °C/min bis 195 °C (1 min); 10 °C/min bis 280 °C (50 min); Dosierung: PTV, temperaturprogrammiert 50–280 °C mit 12 °C/s, Trägergas He (11 psi).

erfolgen, wie in Abb. 5.3 aus dem Signalverlauf zwischen den beiden Isomerenpeaks (das Signal geht nicht bis zur Basislinie zurück, sondern es bildet sich ein Plateau zwischen beiden Peaks aus) zu erkennen ist. Dies erschwert die Quantifizierung. Im hinteren Bereich des Gaschromatogramms (Abb. 5.2 b) beobachtet man unsymmetrische sowie einige zusätzliche Peaks, die auf eine thermische Zersetzung der aromatischen DNPH-Derivate hinweisen. Da sich in der GC mit zunehmender Probenzahl die Peakform und Auflösung deutlich verschlechtern, bleibt für diese Substanzen die HPLC die Methode der Wahl.

5.2 Worin unterscheidet sich die GC von der HPLC?

Abb. 5.3 Isomerisierung auf der Säule während der GC-Trennung der syn/anti-Tautomeren vom 2,4-Dinitrophenylhydrazon des Acetaldehyds (Säule und Bedingungen wie Abb. 5.2 b).

5.2.1.2

Probeninjektion

Moderne Gaschromatographen bieten dank ihrer Zuverlässigkeit sowie der elektronischen Steuerung von Temperaturen und Gasflüssen, leistungsfähigen Autosamplern und Abspeichern von Analysensequenzen einen hohen Bedienkomfort, der andererseits aber auch manche Anwender zu einem unkritischen Herangehen bei der Methoden- und Parameterauswahl verleitet. Besonders die Probeninjektion ist neben der Probenaufarbeitung der fehlerträchtigste Arbeitsschritt der gesamten GC-Analyse. Die Dosiertechnik und dabei angewandte Parameter haben einen großen Einfluss auf die Richtigkeit und Reproduzierbarkeit der quantitativen Ergebnisse [2, 6, 7]. An dieser Stelle kann nur auf einige Aspekte hingewiesen werden. Die häufigste Art der Dosierung ist die mit einem Autosampler realisierbare Spritzendosierung von mehr oder weniger verdünnten Lösungen (Extrakte), die sich bei der Injektion mit bzw. ohne Strömungsteilung (Split- oder splitlose Injektion), Cold-on-column-Injektion sowie verschiedenen Varianten der temperaturprogrammierten Injektion (PTV) anwenden lässt. In Abhängigkeit von den Dimensionen der Kapillarsäulen sowie der angewandten Dosiertechnik sind durch eine geeignete Parameterwahl spezielle Anforderungen zu berücksichtigen, wie z. B. geringe Probenmenge, schmale Startbandbreite oder eine Refokusierung der Analyte am Anfang der Kapillarsäule. Bei den sog. „heißen“ Injektionstechniken (Split- und splitlose Dosierung) wird die Probe in den heißen Injektor dosiert und verdampft. Neben möglichen Dosierfehlern ist zu beachten, dass die Verdampfung mit einer beträchtlichen Volumenvergrößerung verbunden ist. In Abhängigkeit von Polarität und Siedepunkt des Lösungsmittels sowie der Temperatur und dem Druck im Injektor entsteht aus 1 μl flüssiger Probe ein Dampfvolumen zwischen

199

200

5 Auswertung von GC-Daten

0,1 und 0,5 ml, was bei der Dimensionierung des auswechselbaren Injektoreinsatzes (insert liner) beachtet werden muss, um Memoryeffekte als Folge von zurückströmenden Probedämpfen zu vermeiden. Bei der Verdampfungsinjektion stellt der Liner die heißeste Oberfläche im Probeweg dar, daher ist die Verwendung von gut desaktivierten Linern sowie ihre Inspektion bei Septumwechsel unbedingt zu empfehlen. Auch die häufig als Füllung verwendete Glas- oder Quarzwolle sollte gut desaktiviert sein. Eine ganze Reihe von Analyten (bestimmte Pestizide, Arzneimittel, Säuren, Amine,…) neigen nämlich zu Adsorption und Zersetzung an aktiven Oberflächen; dieser Substanzverlust führt zu kleineren Peaks (verringerte „Response“) und schlechterer Reproduzierbarkeit. Scheiden sich solche Zersetzungsprodukte im Liner ab, können sie bei der Dosierung der nachfolgenden Proben weitere Zersetzungen katalysieren (vgl. Abschn. 5.7). Andere Quellen für Kontaminationen können die Probe selbst (nichtverdampfbare Rückstände) oder das Septum (beim Durchstoßen mit der Kanüle ausgestanzte Partikel) sein. Es wird empfohlen, die Aktivität des chromatographischen Systems in periodischen Abständen anhand der Chromatogramme von zu Zersetzung neigenden Indikatorsubstanzen (z. B. Benzidin, 2,4-Dinitrophenol, Pentachlorphenol, Endrin, DDT oder entsprechende Substanzen Ihrer Proben) zu beurteilen: So sollte nach den Empfehlungen der amerikanischen Umweltbehörde EPA die Zersetzung von Endrin zu Endrinaldehyd und Endrinketon sowie von DDT zu DDD und DDE jeweils 15% nicht übersteigen. 5.2.1.3

Trennsäule

Dem GC-Anwender steht heute ein ganzes Arsenal von Trennsäulen mit unterschiedlichen stationären Phasen und Dimensionen (Länge, Innendurchmesser und Filmdicke) zu Verfügung. Die Mehrzahl der Trennprobleme lassen sich mit einer relativ geringen Anzahl von Filmkapillaren mit unterschiedlicher Polarität bewältigen; für spezielle Anwendungen sind maßgeschneiderte Säulen verfügbar. Die Gasanalytik ist die Domäne der sog. PLOT-Säulen mit festen stationären Phasen. Weitere äußerst bedeutsame Eigenschaften von Trennsäulen sind maximale Arbeitstemperatur, Langzeitstabilität, Robustheit, Inertheit und das sog. „Bluten“, die in den letzten Jahren durch verschiedene Maßnahmen der Säulenhersteller (Deaktivierung der inneren Oberfläche, Verwendung extrem reiner Chemikalien, Immobilisierung der Polymerketten und neue Polymerstrukturen) beträchtlich verbessert werden konnten [7, 9, 13]. Unter dem Säulenbluten (Column Bleed) versteht man einen unerwünschten Beitrag der stationären Phase zum Untergrundsignal durch ein allmähliches Abdampfen niedermolekularer Bestandteile von flüssigen Polymerphasen sowie durch flüchtige Produkte einer thermischen oder chemischen Zersetzung der Phasen. Selbst die wegen ihrer hohen Stabilität am meisten angewandten Polysiloxanphasen erleiden bei hohen Temperaturen (oberhalb von 250 °C) einen Abbau, der zu Abspaltung cyclischer Siloxane führt und bereits durch geringste Mengen Sauerstoff sowie anorganischer Säuren, Basen und Salze beschleunigt wird. Dieses Säulenbluten ist bei polaren Silikonphasen stärker als bei unpolaren und äußert sich in einer verrauschten (isotherme GC)

5.2 Worin unterscheidet sich die GC von der HPLC?

bzw. ansteigenden (temperaturprogrammierte GC) Basislinie, einem ungünstigen Signal/Rausch-Verhältnis sowie in „unsauberen“ Massenspektren; es stört also besonders bei hohen Säulentemperaturen (Ende des Temperaturprogramms) und bei der Verwendung von sehr empfindlichen Detektoren in der Spurenanalyse. Neue Säulen werden in der Regel vom Hersteller mit einem Testchromatogramm ausgeliefert. Darin wird das Bluten als Differenz des FID-Signals zwischen dem oberen Temperaturlimit der Säule und der isothermen Testtemperatur (110 bis 130 °C) angegeben („delta bleed“ in [pA]). Aus den Retentionszeiten, Peakflächen sowie der Peakform von Substanzen mit verschiedenen funktionellen Gruppen werden neben der Säuleneffizienz auch Informationen über Säulenpolarität und Adsorptionsaktivität (Verluste an polaren Analyten durch irreversible Adsorption und Zersetzung) abgeleitet. Es wird empfohlen, die Leistungsfähigkeit der verwendeten Säule von Zeit zu Zeit anhand eines kommerziell erhältlichen oder selbst zusammengestellten – problembezogenen – Testgemisches zu überprüfen. Da die Erfahrungen gezeigt haben, dass nicht die gelegentliche Dosierung lufthaltiger Proben, sondern die ständige Einwirkung von Sauerstoff den thermischen Abbau von Silikonphasen begünstigt, ist die Verwendung von extrem reinen oder nachgereinigten Trägergasen sowie die Vermeidung von Undichtigkeiten in der GC-Spurenanalyse sehr wichtig. Obwohl vernetzte und chemisch gebundene stationäre Phasen robust sind und größere Mengen organischer Lösungsmittel und sogar Wasser vertragen, wird empfohlen, Proben mit anorganischen Säuren und Basen weitgehend zu vermeiden. In diesen Fällen wirkt sich auch Wasser ungünstig aus. Offensichtlich sind mitgeschleppte Säurespuren in den Proben eine wesentliche Ursache für die im Abschn. 5.2.1.1 diskutierte Verschlechterung der Auftrennung der DNPH-Derivate. Im Laufe der Zeit können sich nicht- oder schwerflüchtige Verunreinigungen aus den Proben (geringste Mengen an Verunreinigungen finden sich selbst in den saubersten Proben!) am Anfang der Säule absetzen, die Trenneigenschaften ändern und den Abbau der stationären Phase und/oder von labilen Probebestandteilen fördern. Durch Abschneiden der ersten 10 bis 20 Zentimeter lässt sich diese Störung meist beheben. 5.2.1.4

Detektor

Im Unterschied zum Injektor ist der Detektor weniger die Quelle von Fehlern durch unzulängliche Gerätetechnik und ungeeignete Betriebsparameter, sondern vielmehr durch falsche Interpretation. Response

Das vom Detektor erzeugte Messsignal ist entweder der Konzentration oder der Masse der betreffenden Substanz proportional; die entsprechenden Proportionalitätsfaktoren werden stoffspezifische Responsefaktoren RF genannt und müssen durch Kalibration ermittelt werden: RF = Peakfläche/Substanzkonzentration (oder -menge)

201

202

5 Auswertung von GC-Daten

Dabei wird zwischen Universaldetektoren, die bei allen Verbindungen ein Signal ergeben, und selektiven Detektoren, die je nach Messprinzip nur auf bestimmte Substanzklassen ansprechen, unterschieden. Bei der Quantifizierung nach der Methode des internen Standards arbeitet man gewöhnlich mit relativen Responsefaktoren RRF, in denen die Response der Analyte auf die von Standardsubstanz(en) bezogen wird. In den experimentell ermittelten Responsefaktoren sind alle Unzulänglichkeiten bei der Injektion, Trennung und Integration der Peakflächen enthalten. Mögliche Substanzverluste bei der Injektion oder durch Adsorption können bei Spurenanalysen nicht vernachlässigt werden. Aus diesen Gründen wird empfohlen, Literaturwerte nicht kritiklos zu übernehmen und bei der experimentellen Ermittlung von Responsefaktoren den Konzentrationsbereich zu wählen, der später bei den Analysen benötigt wird. Linearität

Für die quantitative Analyse ist es bedeutsam, dass der lineare Bereich des verwendeten Detektors nicht überschritten wird. Dabei ist zu beachten, dass die Gerätehersteller diese Detektoreigenschaft ebenso wie die Nachweisgrenze direkt – also unter Ausschluss von Injektor und Trennsäule – bestimmen. In der Realität ist jedoch der Detektor ein Teil des chromatographischen Systems. Adsorptionseffekte an den Oberflächen von Injektor und Säule können zu einem scheinbar höheren Wert für die Nachweisgrenze führen als in der Detektorspezifikation angegeben und so den nutzbaren linearen Bereich reduzieren. Nehmen wir an, in einem GC-System mit einem Detektor, dessen Nachweisgrenze 10 pg beträgt, kommt es in der Säule und am Injektor zur Adsorption polarer Komponenten im Bereich von etwa 50 pg, dann gelangt erst oberhalb dieses Wertes – der Nachweisgrenze der Methode – Substanz in den Detektor und erzeugt einen Messwert. Bei einer dosierten Menge von 100 pg dieser Komponente würde der Substanzverlust 50% betragen, bei einem Nanogramm nur noch 5% und bei noch höheren Substanzmengen kann dieser Effekt vernachlässigt werden. Zeitkonstante und Datenaufnahme

Von fundamentalem Einfluss auf die Güte des aufgenommenen Detektorsignals und damit auf die Genauigkeit und Reproduzierbarkeit der chromatographischen Ergebnisse sind Zeitkonstante und Datenaufnahmerate, die beide in enger Beziehung zur Breite der Peaks gewählt werden müssen [14]. Die Zeitkonstante (Time Constant, Response Time, Rise Time, Detector Filter Time, s. auch Kapitel 1) eines Detektors einschließlich der zugehörigen Auswerteelektronik (A/D-Wandler und Rauschfilter) entspricht der Zeit, die vom Anlegen eines Eingangssignals vergeht, bis 63,2% dieses Signals angezeigt werden. Eine zu schnelle Zeitkonstante verstärkt das Rauschen, zu langsame Werte führen zu verzerrten Peaks mit den Folgen: schwierigere Erkennung von Peakanfang und -ende, Verschiebung der Peakmaxima sowie eine Verschlechterung der Auflösung eng benachbarter Peaks. Optimale Werte liegen im Bereich von ca. 10%

5.2 Worin unterscheidet sich die GC von der HPLC?

der Peakbreite in halber Höhe des schmalsten noch auszuwertenden Peaks im Chromatogramm. Die Abtastfrequenz (Data Aquisition Rate, Sampling Rate, Sampling Frequency, Aufnahmerate) hat ebenfalls einen fundamentalen Einfluss auf die registrierte Peakform. Für eine akkurate Wiedergabe der chromatographischen Peaks in qualitativer und quantitativer Hinsicht werden etwa 10 Datenpunkte pro Peakbreite in halber Höhe gefordert, das entspricht ca. 20 Punkte pro Peak (s. jedoch dazu die Bemerkungen in Kapitel 2). Wird eine niedrigere Aufnahmerate gewählt, so erhält man ebenfalls verzerrte Peaks (erkennbar an „Ecken und Kanten“) mit den bereits erwähnten Nachteilen. 5.2.1.5

Schnelle Gaschromatographie

Schnelle Gaschromatographie [15, 16] bedeutet immer schmale Peaks, ganz gleich, auf welchem Wege die Reduzierung der Analysenzeiten erfolgt. Wie bereits weiter oben ausgeführt, erfordern geringe Peakbreiten sowohl eine schnelle Datenerfassung (mindestens 8–10 Datenpunkte pro Peakbreite in halber Höhe) als auch eine entsprechend kurze Detektor-Zeitkonstante (bis zu ca. 10% der Peakbreite in halber Höhe), die erst mit den neueren Geräten möglich sind. Für die unterschiedlichen Varianten der schnellen GC sind verschiedene Termini, wie High-Speed-GC, Fast-GC, Ultra-Fast-GC, Super-Fast-GC gebräuchlich. Um die praktischen Anforderungen an die Detektor-Zeitkonstante und Datenaquisition zu verdeutlichen, hat es sich eingebürgert, die Peakbreite in halber Höhe wh zur Unterteilung der schnellen GC heranzuziehen: x Fast-GC: Trennung in wenigen Minuten, wh unter 1 s. x Super-Fast (Very-Fast)-GC: Trennungen im Minutenbereich wh unter 0,5 s. x Ultra-Fast-GC: Trennungen im Sekundenbereich, wh kleiner als 0,1 s. Von den verschiedenen Möglichkeiten zur Verkürzung der Analysenzeiten haben sich vor allem zwei Wege als erfolgreich erwiesen: Die Anwendung von kürzeren Säulen mit geringerem Innendurchmesser (z. B. 0,05 oder 0,1 mm anstelle der konventionellen Säulen von 0,2–0,3 mm) sowie extrem hohe Heizraten bei der temperaturprogrammierten Arbeitsweise. Schnelle Analysen müssen auch von einer höheren Präzision der Analysenbedingungen begleitet sein, wenn die Retentionszeiten zur Identifizierung der Komponenten herangezogen werden soll. Weitere apparative Anforderungen betreffen besonders die schnelle Dosierung geringer Probemengen gegen hohen Säuleneingangsdruck, präzise Regelung kleiner Gasflüsse bei hohem Eingangsdruck sowie die präzise Messung kurzer Retentionszeiten. Bei der Methodenübertragung von „normalen“ auf enge Säulen ist zu beachten, dass mit der Verringerung des Innendurchmessers auch die Filmdicke verringert werden muss, um das Phasenverhältnis konstant zu halten. Damit verringern sich die Probenkapazität sowie die Toleranz der Säule gegen große Konzentrationsunterschiede der Komponenten in der Probe; extreme Spurenanalyse bei hohen Trenngeschwindigkeiten ist daher problematisch. Bei sehr hohen Heizraten kann die „Feinstruktur“ des Chromatogramms verloren gehen.

203

204

5 Auswertung von GC-Daten

Wenn das Trennvermögen einer ausgearbeiteten Methode bei der Verkürzung der Analysenzeit erhalten bleiben soll, erweist sich ein frei verfügbares „GC Method Translation Programm“ [17, 18] als sehr hilfreich, vorausgesetzt, man bleibt bei der Maßstabübertragung von „normalen“ auf Bedingungen der schnellen GC bei der gleichen stationären Phase. Aus den oben angegebenen Werten für die Peakbreite in halber Höhe leiten sich die Konsequenzen für die Gerätetechnik ab: Peakbeiten im Sekundenbereich erfordern bereits maximale Zeitkonstanten unter 100 ms und Datenaufnahmeraten von über 10 Hz, für die ultraschnelle GC liegen die entsprechenden Werte bei ca. 10 ms und über 100 Hz. Die Geräteindustrie stellt sich zunehmend diesen Herausforderungen. Besonders hohe Anforderungen stellt die schnelle GC jedoch an die massenspektrometrische Detektion, da die oben erwähnten Datenpunkte im Scan-Modus jeweils einem kompletten Massenspektrum entsprechen, das zum Zweck der Identifizierung eine entsprechende Qualität aufweisen muss. Dazu werden entweder sehr schnell scannende Massenspektrometer oder Flugzeit-Massenspektrometer (TOF-MS) in Verbindung mit einer Deconvolution-Software benötigt. TOF-Massenspektrometer können bis zu 500 komplette Massenspektren pro Sekunde aufnehmen.

5.3 Qualitative Analyse 5.3.1 Vorbemerkung

Unter dem Begriff „Identifizierung“ muss bekanntlich zwischen zwei generell verschiedenen analytischen Fragestellungen unterschieden werden, die unterschiedliche Strategien bedingen: Zum einen die Identifizierung von Inhaltsstoffen in unbekannten Proben (Non-Target Analysis) und zum anderen die zielgerichtete Suche nach ausgewählten Verbindungen als Voraussetzung für eine Quantifizierung (zielgerichtete Analyse, Target Analysis). Für die Non-Target-Analysis ist die Kombination von chromatographischer Trennung mit spektroskopischer Identifizierung die Methode der Wahl. Von den prinzipiell möglichen Kopplungstechniken hat sich die GC-MS wegen ihrer hohen Empfindlichkeit, Vielseitigkeit (Universal- oder massenselektive Detektion), substanzspezifischen Information und den umfangreichen Spektrenbibliotheken zur leistungsfähigsten Methodenkombination für flüchtige Analyten entwickelt. Die Kopplung der GC mit der Fouriertransformations-Infrarotspektroskopie (GCFTIR) und mit der Atomemissions-Spektrometrie (GC-AED) liefern zwar zur MS ergänzende Strukturinformationen (vgl. Tabelle 5.2), werden aber gegenwärtig nur in wenigen Laboratorien angewendet. Bei der Target-Analysis ist stets eine Zuordnung der Peaks zu den Zielanalyten erforderlich, die in vielen Fällen als reine Substanzen oder Kalibrierstandards

5.3 Qualitative Analyse Tabelle 5.2 KGC-Kopplungstechniken. GC-AED

GC-MS (EI; LRMS)

GC-FTIR

Ablaufende Prozesse

Atomisierung, Strahlungsemission

Ionisierung, strukturtypische Zerfallsreaktionen

Anregung von Molekülschwingungen und -rotationen

Spektrum

Emissionslinien (Atome, Ionen)

Molekül- und Fragmentionenpeaks

Interferogramme o RotationsSchwingungsspektren

Informationen

An-/Abwesenheit von Elementen elementare Zusammensetzung Elementverhältnisse

Molmasse Heteroatome (Cl, Br, S) Isotope Grundgerüst: aliphatisch, aromatisch, Kettenverzweigungen

Funktionelle Gruppen cis/trans-Isomere Positionsisomere (Aromaten) Ringverknüpfung Konformere

Molekülidentität Spektrenvergleich



- Große Spektrenbibliotheken

/ Kleine Spektrenbibliotheken (Gasphasenspektren)

Empfindlichkeit

-

-

/ Ca. 100-mal schlechter als MS, strukturabhängig (strong, medium, weak)

verfügbar sind. Als ein Entscheidungskriterium für die An- oder Abwesenheit der Targetverbindungen werden oft Retentionsdaten genutzt. 5.3.1.1

Fingerprint-Analyse

Eine weitere analytische Fragestellung betrifft die nach der Identität oder Ähnlichkeit komplex zusammengesetzter Gemische. Durch Vergleich der Peakmuster (Position und Intensität der GC-Peaks) werden ohne Identifizierung der einzelnen Inhaltsstoffe Aussagen erhalten, ob z. B. zwei Proben identisch sind. Für diese „Fingerprint-Analyse“ sind einige Programme (neuerdings auch unter Einbeziehung von Massenspektren) verfügbar, die auf den mathematischen Methoden der Mustererkennung (pattern recognition) beruhen. 5.3.1.2

Peakreinheit

Selbst bei Verwendung hochauflösender Trennsäulen sind Koelutionen nicht zu vermeiden. Aus der Form der Peaks kann jedoch nur in wenigen Fällen erkannt werden, ob sie eine reine Komponente oder eine Mischung repräsentieren. Bei sehr geringen Unterschieden in den Retentionszeiten und/oder großen Konzentrationsunterschieden ist es besonders schwierig, nicht aufgelöste Komponenten zu erkennen.

205

206

5 Auswertung von GC-Daten

Ein Indiz für die Peakreinheit liefert ein Vergleich der Peakbreite mit der von benachbarten Peaks, die Paralleldetektion mit Universal- und selektiven Detektoren, ein Vergleich von Massenspektren aus verschiedenen Peakpositionen oder die Massenfragmentographie (Übereinanderlegen mehrerer Massenspuren). Die in jüngster Zeit entwickelten mathematischen Programme zur Zerlegung überlagerter Signale (Deconvolution, s. weiter unten) eröffnen neue Möglichkeiten zur Erkennung und Auswertung von Koelutionen, zur Erzeugung „reiner“ Massenspektren, sowie zur quantitativen Auswertung von nur angetrennten Peaks. 5.3.2 Vergleich von Retentionswerten

Die aus dem Gaschromatogramm zugänglichen Retentionszeiten sind für Vergleichszwecke nicht ohne weiteres nutzbar, da sie nicht nur von Struktur und Menge der verwendeten stationären Phase und der Säulentemperatur abhängen, sondern auch von Säulendimensionen und Geschwindigkeit der mobilen Phase. Ein Retentionsvergleich zwischen Probe und darin vermuteten Komponenten (Target-Analysis) muss daher unter exakt gleichen experimentellen Bedingungen erfolgen. Eine gefundene Übereinstimmung stellt ein notwendiges, aber noch kein hinreichendes Kriterium für die Anwesenheit der betreffenden Substanz in der Probe dar und sollte auf einer Säule mit deutlich unterschiedlicher Polarität der stationären Phase wiederholt werden. Bei Nichtübereinstimmung kann dagegen sofort die eindeutige Aussage getroffen werden, dass diese Substanz nicht in der Probe enthalten ist. Kann aus verschiedenen Gründen kein „identifizierender“ Detektor (MS) verwendet werden, erweist sich in einigen Fällen eine Zweisäulentechnik als vorteilhaft, bei der nach Dosierung und Verdampfung die Probe auf zwei Säulen mit unterschiedlichem Trennvermögen aufgeteilt wird. Auf diese Weise erhält man pro Dosierung zwei Chromatogramme mit unterschiedlichen Retentionszeiten und evtl. auch Elutionsreihenfolgen; die Retentionszeiten (Erkennungsfenster) der Targetverbindungen müssen in Kalibrierläufen ermittelt werden. Nur wenn auf beiden Säulen im festgelegten Identifizierungsfenster ein Peak erscheint, gilt die betreffende Substanz als anwesend. Auch die Peakflächen bzw. das Quantifizierungsergebnis sollten auf beiden Säulen vergleichbar sein. Wenn dies nicht der Fall ist, ist auf einer Säule eine Koelution mit einer anderen Substanz wahrscheinlich und es sollte dann nur der geringere Konzentrationswert angegeben werden. Die größere Sicherheit in den qualitativen und quantitativen Aussagen rechtfertigt bei anspruchsvollen Analysen den höheren Aufwand der Tandem-GC. 5.3.3 Relative Retentionswerte

Um den Einfluss von apparativen Schwankungen (vor allem Säulentemperatur und Trägergasgeschwindigkeit) sowie der Menge der stationären Phase in der Säule auf die Messwerte zu minimieren, wurden relative Retentionswerte zur

5.3 Qualitative Analyse

Identifizierung vorgeschlagen, die weitgehend unabhängig von Säulenlänge, Menge der stationären Phase und Trägergasgeschwindigkeit sind. Die größte Verbreitung hat das von E. Kovats (1958) eingeführte Retentionsindexkonzept gefunden, bei dem nicht eine einzelne Verbindung, sondern die homologe Reihe der n-Alkane als Referenzverbindungen benutzt wird. Er definierte den Retentionsindex eines n-Alkans für eine beliebige Säule bei beliebiger Temperatur als das 100-fache seiner C-Zahl z (z. B. n-Octan: I = 800). Einmal bestimmt, können die für die isotherme und temperaturprogrammierte GC bestimmbaren Indices tabelliert und zu Vergleichszwecken mit experimentellen Werten herangezogen werden. Bei der überwiegend angewandten temperaturprogrammierten Arbeitsweise (TPGC) mit einem linearen Temperaturprogramm können die aus dem Chromatogramm direkt zugänglichen (Brutto-)Retentionszeiten zur Berechnung verwendet werden: I xTP = 100 z + 100

tR( x ) − tR( z ) tR( z + 1) − tR( z )

mit: tR(x) Retentionszeit der Substanz x tR(z) Retentionszeit des n-Alkans mit z C-Atomen Bei dem temperaturprogrammierten Retentionsindex, oft als linearer Retentionsindex (LRI) bezeichnet, sollte neben der stationären Phase unbedingt das Temperaturregime (Heizrate, Start- und Endtemperatur) angegeben werden. Mit der zunehmenden Anwendung der GC/MS-Kopplung einschließlich der ständig erweiterten Spektrenbibliotheken in den vergangenen 20 Jahren haben die Retentionsindices stark an Bedeutung verloren, weil die Massenspektren wesentlich mehr Informationen zur Strukturerkennung vermitteln als ein Retentionsindex. Andererseits ist bei Verbindungen mit sehr ähnlichen Massenspektren eine Strukturzuordnung allein aus den Massenspektren unsicher. Retentionsindex-Werte können daher besonders bei komplexen Gemischen als ein zusätzliches Kriterium zur Peakidentifizierung dienen, wenn sich die Massenspektren der interessierenden Verbindungen nur wenig unterscheiden, wie z. B. in der Kohlenwasserstoff-Analytik oder bei Duft- und Aromastoffen. In [18] wird der lineare Retentionsindex in den Algorithmus zum Spektrenvergleich einbezogen. Auch die Aufnahme von Retentionsindices in die jüngste Ausgabe der NIST-Spektrenbibliothek weist auf eine Rückbesinnung zur Nutzung von Retentionswerten bei der Peakzuordnung hin. 5.3.4 Retention Time Locking (RTL)

Mit der Verbesserung der Gerätetechnik – vor allem der elektronischen Regelung von Säulentemperatur und Gasflüssen – sowie den Fortschritten in der Säulentech-

207

208

5 Auswertung von GC-Daten

nologie (engere Toleranz und bessere Reproduzierbarkeit von Säulenlänge, Innendurchmesser und Filmdicke) wurde vor einem Jahrzehnt ein System entwickelt, mit dem sich die absoluten Retentionszeiten – also die Gesamtretentionszeiten anstelle der Retentionsindices – zur Identifizierung bei Target-Analysen nutzen lassen [19]. Dabei wird nach der üblichen Methodenausarbeitung die Abhängigkeit der Retentionszeit einer ausgewählten „Fixierungssubstanz“ vom Eingangsdruck in wenigen Testläufen experimentell ermittelt. Die von der RTL-Software gesteuerte elektronische Trägergasregelung (Electronic Pressure Control, EPC, Agilent Technologies) ist dann in der Lage, kleine Schwankungen oder Abweichungen in Säulentemperatur, Eingangs- oder Ausgangsdruck sowie in den Säulendimensionen durch Variation der Regelgröße Eingangsdruck auszugleichen und so die Retentionszeiten für alle Verbindungen im Chromatogramm konstant zu halten. Diese Fixierung der Retentionszeiten führt zu einer hohen Reproduzierbarkeit, die engere Retentionszeitfenster zur Peakerkennung ermöglicht. Mit RTL werden Chromatogramme vergleichbar, die zu verschiedenen Zeiten oder an verschiedenen Geräten bzw. in unterschiedlichen Laboratorien an nominell gleichen Säulen, aber unterschiedlichen Detektoren erzeugt wurden. Die unterschiedlichen Säulenausgangsdrücke von FID (Normaldruck), MS (Unterdruck) oder AED (leichter Überdruck) werden kompensiert. Auch nach dem Verkürzen der Säule oder dem Einbau einer neuen Säule können wieder die gleichen Retentionszeiten erhalten werden. Damit entfällt das zeitraubende Korrigieren der Identifizierungsfenster (z. B. bei SIM-Analysen). Bei Standardisierung von Trennsäule und Betriebsbedingungen lassen sich diese fixierten Retentionszeiten in Datenbanken als Kriterien zur Identifizierung aufnehmen.

5.4 GC/MS-Kopplung

Den Standard für die Kopplung mit der GC bilden Kompaktgeräte mit Elektronenstoß-Ionisation (EI) bei hoher Energie und einem Quadrupol oder einer Ionenfalle (Ion Trap) als Massenanalysator. Mit diesen Geräten wird praktisch eine über den gesamten Massenbereich konstante Auflösung nach Nominalmassen erzielt („Einheitsmassen- oder Nominalmassenauflösung“), eine Unterscheidung von Signalen mit unterschiedlichen exakten Massenzahlen aber gleicher Nominalmasse ist mit diesen niederauflösenden Geräten (low resolution, LRMS) nicht möglich. So lassen sich z. B. die Verbindungen Pyridin Benzamidin Ethyltoluol Acetophenon

C5H4N4 C7H8N2 C9H12 C8H8O

exakte Massenzahl = 120,004 120,069 120,09 120,058

nicht anhand ihres Molpeakes unterscheiden, da sie alle die gleiche Nominalmasse von 120 aufweisen. Noch eine andere Zahl: Es sind mehr als 1500 Verbindungen mit der gleichen Nominalmasse von 250 bekannt.

5.4 GC/MS-Kopplung

Mit hochauflösenden Massenspektrometern können dagegen sehr geringe Massendifferenzen 'MZ unterschieden werden, wie z. B. CH4/O ('MZ = 0,036), CH2/N (0,013) und O2/S (0,018). Für die Analytik polychlorierter Dioxine und ähnlicher Verbindungen in komplexen Umweltproben ist daher die Kopplung der GC mit hochauflösenden Massenspektrometern vorgeschrieben, auf die in diesem Kapitel nicht eingegangen wird. Wie bereits erwähnt, kann das Massenspektrometer sowohl zur Identifizierung unbekannter Substanzen als auch zum selektiven und äußerst empfindlichen Nachweis von Zielanalyten eingesetzt werden. 5.4.1 MS als identifizierender Detektor (Scan-Modus)

Bei der Elektronenstoß-Ionisation werden die aus der GC-Säule austretenden Moleküle durch Beschuss mit energiereichen Elektronen ionisiert. Durch die hohe Energie (70 eV; sog. „harte Ionisation“) kommt es in Abhängigkeit von der Molekülstruktur zu simultan ablaufenden Bindungsspaltungen und Umlagerungsreaktionen, d. h. ein Teil der gebildeten Molekülionen zerfällt sofort weiter unter simultaner Bildung von mehreren kleineren, stabileren Bruchstücken (Fragmentionen). Im Massen-Scan-Modus (Full Scan Mode) wird nun durch zeitgesteuerte Änderung der elektrischen Felder des Massenanalysators sequentiell, d. h. fortlaufend in zeitlich kurzer Abfolge, der relevante Massenbereich abgetastet und somit alle gebildeten Ionen erfasst, unabhängig davon, ob eine Substanz aus der GC-Säule in das Massenspektrometer gelangt oder nicht (cyclischer Scan, Massendurchlauf). Auf diese Weise wird eine sehr große Anzahl von Massenspektren aufgenommenen und abgespeichert. Diese Strichspektren beinhalten die relative Intensität (entspricht der Häufigkeit) der gebildeten Ionen als Funktion ihrer Massenzahl. Durch Addition der Intensitäten und Darstellung der Summenintensität gegen die Retentionszeit oder die Anzahl der Scans wird das sog. Totalionenstrom-Chromatogramm (Total Ion Current, TIC) auf dem Monitor abgebildet, das einem FIDChromatogramm sehr ähnlich ist. Dabei werden alle Verbindungen registriert, die durch Elektronenstoß ionisierbar sind. Bei der MS im Scan-Modus handelt es sich also wie beim FID um eine Universaldetektion für organische Substanzen. Aufgrund der unterschiedlichen Ionenerzeugung (FID: heiße Flamme; MS: Beschuss mit Elektronen) können sich aber unterschiedliche Signalintensitäten ergeben. Wird z. B. bei der MS-Fragmentierung einer Verbindung die Bildung von neutralen Molekülen bevorzugt, die im MS kein Signal geben, so erscheint diese Verbindung im TIC nur mit geringer Intensität. Zu allen Zeitpunkten im Chromatogramm sind die entsprechenden Massenspektren zur Identifizierung verfügbar. Bei dem Massen-Scan-Modus gibt es zwei wählbare Parameter, die in engem Zusammenhang stehen und das qualitative und quantitative Ergebnis beeinflussen können: Massenbereich und Zykluszeit.

209

210

5 Auswertung von GC-Daten

x Massenbereich: Das komplette EI-Massenspektrum einer Substanz erstreckt sich von kleinen – relativ unspezifischen – Bruchstücken bei niederen Massenzahlen bis zu den Molekularionen. Die Molmasse der zu erwarteten Verbindungen bestimmt folglich das obere Ende des Bereichs (meist zwischen 400 und 600, bei polybromierten Verbindungen entsprechend höher), während die Startmasse nicht zu niedrig (möglichst nicht unter 40 Dalton) gewählt werden sollte, um eine Registrierung des unspezifischen Untergrundes gering zu halten. x Zykluszeit: Die Zykluszeit oder Scan Rate ist eine fundamentale Größe, die sich nach der Peakbreite richten sollte: Wie bereits erwähnt, werden zur akkuraten Wiedergabe der chromatographischen Peaks mindestens 10 Messpunkte, besser jedoch über 20 gefordert. Beispielsweise werden. mit einer Zykluszeit von 0,5 s (das entspricht zwei Scans pro Sekunde) bei einem Peak von 10 s Basisbreite 20 Datenpunkte erreicht; bei einer Peakbreite von 1 s dagegen nur zwei. Das ist völlig unzureichend. Schmale Peaks (Peaks am Anfang des Chromatogramms oder bei der schnellen GC) erfordern also wesentlich höhere Abtastraten, um Peakverzerrungen zu vermeiden. Im Totalionenstrom-Chromatogramm verkörpert jeder dieser Datenpunkte jeweils ein komplettes Massenspektrum. Bei einem Massenbereich von 500 amu (atomic mass units; z. B. von 50–550 amu) entspricht dies unter Berücksichtigung der Rückführzeit (Reset Time) zwischen den Scans einer Aufnahmezeit (Verweilzeit) von unter 1 ms pro Masseneinheit. Da sich andererseits mit Verkürzung der Aufnahmezeit die Signalintensität verringert, wird zur Spurenanalyse der SIMModus bevorzugt. Aufgrund des Hochvakuums verlaufen die oben erwähnten Fragmentierungen unimolekular, d. h., es finden keine Reaktionen untereinander statt; die Fragmentierungswege sind weitgehend aufgeklärt (Fragmentierungsregeln). Da das sog. Fragmentierungsmuster charakteristisch für die betreffende Substanz ist, weisen die EI-Massenspektren einen hohen Informationsgehalt auf und können zur Identifizierung eingesetzt werden. 5.4.2 Nutzung von Spektrenbibliotheken

Die hohe Anregungsenergie von 70 eV bei der Elektronenstoß-Ionisation bildet eine wesentliche Voraussetzung für die Vergleichbarkeit der mit verschiedenen Geräten aufgenommen EI-Massenspektren sowie für das Anlegen von umfangreichen, kommerziell erhältlichen Spektrenbibliotheken. So enthält die jüngste Version der NIST/EPA/NIH Mass Spectral Library (NIST05) 190 825 EI-Massenspektren von 163 200 verschieden chemischen Substanzen [20]. Durch den computergesteuerten Vergleich der aufgenommenen Spektren mit den Bibliotheksspektren oder selbst aufgenommenen Referenzspektren können die GC-Peaks entweder den Zielanalyten zugeordnet oder Strukturvorschläge für unbekannte Verbindungen abgeleitet werden. Dabei werden mit Hilfe eines Suchalgorithmus Lage und Intensität der wichtigsten Fragmente im aufgenommenen

5.4 GC/MS-Kopplung

Massenspektrum mit den entsprechenden Daten in der Bibliothek verglichen. Das Ergebnis dieses Vergleichs ist eine Hitliste mit den Substanzen, bei denen die beste Übereinstimmung gefunden wurde. Als Maß für die Übereinstimmung wird ein Ähnlichkeitsindex (Similarity Index, SI oder Purity Index, PUR) angegeben. Der Anwender ist jedoch gut beraten, nicht automatisch die Verbindung mit der besten Übereinstimmung kritiklos zu übernehmen, sondern diese Substanzliste nur als das zu betrachten, was sie eigentlich darstellt, nämlich eine Rangfolge von Vorschlägen! Die kritische Überprüfung der betreffenden Strukturen auf ihre Plausibilität bleibt die Aufgabe des Bearbeiters, denn der Rechner kann auf der Grundlage der Ähnlichkeitsberechnungen keine Aussage treffen, wie sinnvoll seine Vorschläge sind. Die Vorschlagsliste kann selbstverständlich nur Substanzen enthalten, deren Massenspektren in der Bibliothek vorhanden sind. Umfang und Qualität der Bibliotheksspektren (manche Bibliotheken enthalten oft noch Spektren, die mit unsauberen Substanzen oder an Geräten der Pionierzeit aufgenommen worden sind) sowie die Qualität der selbst aufgenommenen Spektren sind wichtige Faktoren. Denn die bei der Kopplung resultierenden Massenspektren setzen sich additiv aus allen Signalen der in der Ionenquelle anwesenden Substanzen zusammen. Bei Koelutionen werden folglich Gemischspektren erhalten, wie in Abb. 5.4 dargestellt. Außerdem können „verunreinigte Spektren“ Signale vom „chemischen Rauschen“ (meist Säulenbluten) aufweisen. In den Algorithmen zum Spektrenvergleich ist daher eine Untergrundkorrektur (Subtraktion von Basislinien-Spektren) sowie eine geringere Wichtung des niederen Massenbereichs enthalten; durch Spektrenvergleich innerhalb eines GC-Peaks (Peakanfang, -maximum, -ende) kann man auf Koelutionen prüfen, vorausgesetzt, die Massenspektren der betreffenden Substanzen unterscheiden sich voneinander.

Abb. 5.4 Zusammengesetztes Massenspektrum bei Koelution (aus [21]).

211

212

5 Auswertung von GC-Daten

Abb. 5.5 Schema zur Strukturinterpretation von EI-Massenspektren. Es bedeuten: I Intensität; a, b relative Intensität des leichten bzw. schweren Isotops.

Als wichtiges Kriterium bei Plausibilitätsbetrachtungen sollte die gaschromatographische Retention nicht vergessen werden. Die oben erwähnte Spektrenbibliothek NIST05 enthält erstmalig die Retentionsindices von über 25 000 Verbindungen an unpolaren stationären Phasen [20]. Auch eine Überprüfung der Massenspektren (Molpeak, Isotopenmuster, charakteristische Fragmente und Schlüsselbruchstücke) kann weiterhelfen, ohne eine komplette Interpretation vornehmen zu müssen. Abbildung 5.5 enthält ein Schema zur systematischen Herangehensweise bei der Interpretation von EI-Massenspektren; die charakteristischen Isotopenmuster für die Elemente Chlor und Brom veranschaulicht Abb. 5.6.

5.4 GC/MS-Kopplung

Abb. 5.6 Isotopenmuster für die Elemente Chlor und Brom.

5.4.3 Spektren-Deconvolution

In jüngster Zeit wurden mathematische Techniken zur schnellen und genauen Extraktion „sauberer Massenspektren“ bei Überlagerung mit anderen Komponenten und/oder hohen Untergrundsignalen eingeführt [22], die besonders bei komplex zusammengesetzten Proben zu einer höheren Sicherheit der Identifizierung beim Vergleich mit Bibliotheksspektren führen. Weiterhin kann man aus den deconvolierten Spektren oftmals überlagerungsfreie Ionenspuren erkennen, die eine zuverlässige Quantifizierung selbst in Nachbarschaft zu großen Peaks ermöglichen. Das Prinzip der Deconvolution verdeutlicht Abb. 5.7, ein Anwendungsbeispiel zeigt Abb. 5.8. Man erkennt deutlich die Unterschiede in den Massenspektren des Aufsetzerpeaks Nr. 3 vor und nach der Deconvolution. Zur Erkennung und Zerlegung von überlagerten Spektren werden automatisch die Intensitätsverhältnisse aller Massensignale ständig miteinander verglichen. Dazu ist eine hohe Abtastfrequenz (Scan Rate) erforderlich, weitere Voraussetzungen sind unterschiedliche Massenspektren der betreffenden Verbindungen sowie geringfügige Unterschiede in den Retentionszeiten. Neben dem frei erhältlichen Automated Mass Spectral Deconvolution and Identification System AMDIS, das mit den Suchalgorithmen verknüpft werden kann (Agilent Technologies [21]), sind weitere Deconvolution-Programme auf dem Markt; das Gebiet ist gegenwärtig in starker Entwicklung.

213

214

5 Auswertung von GC-Daten

Abb. 5.7 Schematische Darstellung der Spektren-Deconvolution (aus [21]).

Abb. 5.8 Beispiel einer Datenanalyse mittels AMDIS [23].

5.4 GC/MS-Kopplung

5.4.4 MS als massenselektiver Detektor

Eine selektive Darstellung bestimmter Komponenten wird erhalten, wenn anstelle des Totalionenstromes nur der Signalverlauf für eine oder einige wenige charakteristische Massenzahlen abgebildet wird. In solch einem „Ionenchromatogramm“ werden nur die Verbindungen registriert, deren Massenspektren die eingestellten m/z-Werte aufweisen. Für die massenselektive Detektion existieren zwei Varianten. 5.4.4.1

Massenfragmentographie (Reconstructed oder Extracted Ion Chromatogramm)

Die Darstellung ausgewählter Ionenspuren erfolgt durch Nachbehandlung der Scan-Daten und dient der Erkennung und Auswertung koeluierender Verbindungen in komplexen Gemischen. Per Knopfdruck lassen sich beliebige Massenzahlen aus dem aufgenommenen Datensatz extrahieren; ein Intensitätsgewinn wird dabei nicht erzielt. Ein Beispiel zeigt Abb. 5.9, in der das Totalionenstrom-Chromatogramm und zwei rekonstruierte Ionenchromatogramme bei den Massenzahlen 220 und 236 dargestellt sind. Es handelte sich um eine Probe aus Versuchen zum Bioabbau

Abb. 5.9 Vergleich von Totalionenstrom-Chromatogramm (TIC) mit den Ionenchromatogrammen bei den Massenzahlen 220 und 236 [24].

215

216

5 Auswertung von GC-Daten

von 4-n-Nonylphenolen [24]. Die Massenspur 220 ist das Molekülion der Nonylphenole, die beim Abbau gebildeten hydroxylierten Nonylphenole ergeben die Massenspur 236. 5.4.4.2

SIM (Single Ion Monitoring) oder MID (Multiple Ion Recording)

Bei der Kopplung wird auf den vollständigen Massendurchlauf und damit auf die Aufnahme kompletter Massenspektren verzichtet und nur die Intensität von einem oder einigen wenigen Ionen verfolgt, die für die nachzuweisenden

Abb. 5.10 GC/MS-SIM-Spurenanalyse von Dichlofluanid; Identifizierung anhand der Retentionszeiten und Intensitäten charakteristischer Ionen [25].

5.4 GC/MS-Kopplung

Verbindungen charakteristisch sind. Neben der hohen Selektivität bietet diese Technik den Vorteil der größeren Aufnahmezeiten (Verweilzeit, Dwell Time) pro Massenzahl, wodurch sich je nach Gerätetyp gegenüber dem Scan-Modus eine Empfindlichkeitssteigerung um den Faktor 20 bis 100 ergibt. Diese Technik wird besonders bei Quadrupol-Geräten zur selektiven und empfindlichen Spurenbestimmung von Zielanalyten in matrixbelasteten Proben angewandt, wie z. B. bei der Rückstandsanalytik. Der Preis für den Gewinn an Empfindlichkeit und Selektivität ist jedoch der Verlust an molekülspezifischer Information, da keine Massenspektren mehr zur Überprüfung der Identität verfügbar sind. Daher werden pro Zielanalyt die Intensitäten von drei charakteristischen Ionen registriert; von denen das intensivste zur Quantifizierung und die anderen zur Absicherung der Identität (sog. qualifier ions) dienen. Es sollten charakteristische und intensive Ionen, möglichst aus dem höheren Massebereich, ausgewählt werden, die nur bei dem betreffenden Zielanalyten vorkommen. Die Identität einer Verbindung gilt bei SIM-Analysen als gesichert, wenn alle ausgewählten SIM-Ionen im vorgegebenen Retentionsfenster vorhanden sind und ihre Intensitätsverhältnisse denen des Kalibrierstandards entsprechen. Die Abb. 5.10 zeigt die Identitätsbestätigung an einem Beispiel aus der Rückstandsanalytik von Pestiziden in landwirtschaftlichen Erzeugnissen. Im oberen Chromatogrammausschnitt ist das Fungizid Dichlofluanid nicht enthalten, obwohl das Qualifierion (MZ 224) vorhanden ist und die Retentionszeit übereinstimmt. Aber das Qualifierion 167 liegt nicht im Erwartungsbereich und das andere Qualifierion mit der MZ 332 fehlt gänzlich. Im unteren Chromatogramm ist Dichlofluanid positiv identifiziert, da alle Kriterien erfüllt sind: Alle Ionenspuren sind vorhanden, die Retentionszeit stimmt überein und die Intensitäten der Qualifierionen liegen im erwarteten Bereich. Bei der Ausarbeitung von Multikomponentenmethoden wird das Chromatogramm zweckmäßigerweise in mehrere Zeitfenster unterteilt, in denen zeitgesteuert jeweils unterschiedliche Ionen registriert werden. Neuere MS-Geräte erlauben quasisimultane Full-Scan- und SIM-Messungen im gleichen Lauf, was sich zur Strukturbestätigung sowie zur Identifizierung weiterer Probekomponenten nutzen lässt (Screening). 5.4.5 Chemische Ionisation

Manche Verbindungen fragmentieren unter Elektronenstoßbedingungen so stark, das im Massenspektrum nur zahlreiche unspezifische Ionen mit geringer Intensität auftreten, aber kein Molekülion oder substanzcharakteristische Ionen. Hier hilft die Chemische Ionisation (CI) weiter, bei der unter Vermittlung eines Reaktantgases (Methan, iso-Butan, Ammoniak, Methanol, Wasser) nur wenig Energie übertragen wird. Bei dieser „weichen“ Ionisierungstechnik entstehen sehr stabile positive oder negative Ionen, meist die Quasi-Molekülionen (MH+, (M-H)+ oder Adduktionen); Fragmente werden kaum gebildet. Als Strukturinformation wird daher bei der CI die Molmasse erhalten; weitergehende Strukturinformationen

217

218

5 Auswertung von GC-Daten

können aus MS/MS-Experimenten abgeleitet werden, die mit Ionenfallengeräten oder Tripel-Quadrupolsystemen durchführbar sind. Wegen ihrer Selektivität und den intensiven charakteristischen Signalen werden Chemische Ionisation und MS/MS-Techniken zunehmend in der Ultraspurenanalytik eingesetzt.

5.5 Quantitative Analyse

Wie bereits mehrfach erwähnt wurde, muss der quantitativen Auswertung eine sichere Identifizierung der betreffenden Peaks einschließlich ihrer Überprüfung auf Reinheit (Koelutionen) vorausgehen und gegebenenfalls versucht werden, die Auftrennung zu verbessern. Die richtige und effiziente Kalibrierung erweist sich nach wie vor als ein kritischer Schritt der quantitativen Analyse. Dies gilt besonders für die zunehmend geforderten Multimethoden, bei denen möglichst viele Analyten in einem chromatographischen Lauf bestimmt werden. Die einzuschlagende Strategie ist stark problem- und probenbezogen und von der verfügbaren Geräteausstattung abhängig. In der GC lassen sich wie in der HPLC prinzipiell folgende Auswertetechniken zur quantitativen Analyse heranziehen: innere Normierung („100%-Methode“), externer Standard, interner Standard mit Fremdsubstanz und Standardaddition (Aufstockung). Am häufigsten wird die Methode des internen Standards angewandt, mit der sich evtl. auftretende Dosierfehler korrigieren lassen. Eine gute Trennung vorausgesetzt, hängen die Güteparameter gaschromatographischer Analysenmethoden signifikant vom eingesetzten Detektor sowie von der Natur der Analyte (und der Probe) ab. Empfindliche und stabile Detektoren, wie z. B. der FID, erlauben mit internem Standard den Nachweis organischer Verbindungen bis in den ppb-Bereich mit einer relativen Standardabweichung von 1–3%, im Allgemeinen sind (einschließlich der MS-Detektion) Messvarianzen von ca. 5% oder darunter erreichbar. Die Messvarianz setzt sich bekanntlich additiv aus den Beiträgen der einzelnen Teilschritte zusammen. Zur Erkennung dieser unterschiedlichen Beiträge arbeitet man mit mehreren Standards: Der sog. „Extraktionsstandard“ (Surrogate) wird den Proben vor den Probenvorbereitungsschritten zugesetzt und dient zur Ermittlung der Wiederfindung und damit der Erkennung von Fehlern bei der Probenvorbereitung. Nach Möglichkeit sollen Analyt und Standardverbindung ähnliche Struktur und Eigenschaften aufweisen; bei Verwendung eines massenselektiven Detektors sind isotopmarkierte Standards (vgl. Abschn. 5.6) zu bevorzugen. Der zweite Standard wird direkt vor der Dosierung zugesetzt. Bei der Auswertung von Wiederholungsanalysen und Sequenzen deuten starke Schwankungen in der Response des Surrogate-Standards auf Fehler bei der Probenvorbereitung, Schwankungen bei beiden Standards auf Fehler bei der Messung (Dosierung) hin.

5.6 Isotopenverdünnungsanalyse oder Stabilisotopenverdünnungsanalyse

5.5.1 Aufstellen einer Analysensequenz

Beim Aufstellen von Analysensequenzen beginnt man zweckmäßigerweise mit Blindproben (Blanks) zur Erkennung von Störsignalen, hervorgerufen durch Lösungsmittel, Reagenzien, Glasgefäße, Septa und Zersetzung der stationären Phase. Es folgen Kalibrierstandards und die einzelnen Proben, aber nicht nach auf- oder absteigender Konzentration geordnet (in Neuhochdeutsch einfach als „randomisiert“ bezeichnet). Zwischen den Proben werden in regelmäßigen Abständen (z. B. alle 10 bis 20 Proben) wieder Blindproben (zur Erkennung von carry over effects, d. h. von Substanzverschleppungen aus vorangegangenen Analysen), Kalibrierchecks und Replikate von Proben untersucht. Die Ergebnisse der Kalibrierchecks werden mit der anfänglichen Kalibrierung verglichen. Bei deutlichen Abweichungen zwischen den Kalibrierungen sollte man auch den Messwerten nicht mehr trauen und nach Fehlern suchen. Als Grenzwert für die zulässige Toleranz wird meist in Anlehnung an FDA-Vorschriften ein Wert von 15 oder 20% gewählt. In diesem Zusammenhang sei daran erinnert, dass bei linearen Regressionen nicht nur der Regressionskoeffizient allein betrachtet werden sollte, denn auch bei hohen Werten darf die Abweichung für den untersten Messwert nicht mehr als 20%, im mittleren Bereich nicht mehr als 15% betragen.

5.6 Isotopenverdünnungsanalyse (IVA) oder Stabilisotopenverdünnungsanalyse (SIVA)

Die massenspektrometrische Detektion bietet die Möglichkeit, stabilisotopmarkierte Zielkomponenten als interne Standards zu verwenden. Die Markierung (Einbau schwerer Isotope) erfolgt meist mit Deuterium- oder 13C-Atomen. Die stabilisotopmarkierten Standardsubstanzen besitzen fast die gleichen physikalisch-chemischen Eigenschaften wie die nicht markierten Substanzen, können aber im Massenspektrometer durch ihre höheren Massenzahlen von den nicht markierten Analyten getrennt werden. Setzt man nun zur Probe eine definierte Menge eines isotopmarkierten internen Standards zu – das sollte möglichst in einem frühen Stadium der Probenvorbereitung erfolgen – so ergibt sich ein Gewichtsverhältnis Analyt zu Standard, das während der gesamten analytischen Prozedur konstant bleibt, da Verluste oder Unregelmäßigkeiten Analyt und Standard gleichermaßen betreffen. Erst bei der massenselektiven Detektion (SIM oder Extracted Ion Chromatogram) ergeben beide aufgrund ihrer unterschiedlichen Molmassen unterschiedliche – interferenzfreie – Signale. Die Quantifizierung erfolgt aus dem Verhältnis der Ionenintensitäten (Peakflächen) von Zielanalyt und Standard. Generell sollte der Markierungsgrad (Anzahl der schwereren Atome im Molekül) größer als zwei sein, um eine Überlagerung mit eventuellen Isotopenpeaks (M + 2) der nativen Analyten zu vermeiden. Weiterhin ist zu beachten, dass

219

220

5 Auswertung von GC-Daten

Abb. 5.11 Erkennung deuterierter Verbindungen bei der GC/MS anhand der Extracted Ion Chromatogramme bei den entsprechenden Massenzahlen [30].

deuteriummarkierte Verbindungen auf flüssigen stationären Phasen etwas kleinere Retentionswerte aufweisen als die nicht markierten Verbindungen. An unpolaren Trennphasen beträgt die Retentionsverminderung etwa 0,5 bis 0,7 Retentionsindexeinheiten pro Deuteriumatom. Bei mehreren Deuteriumatomen im Molekül führt dieser Effekt im Totalionenstrom-Chromatogramm zu einem breiteren Substanzpeak bzw. einer teilweisen oder vollständigen Trennung (vgl. Abb. 5.11). Sollten keine isotopenmarkierten Standards zur Verfügung stehen, kann auch eine nicht in der Probe vorkommende Substanz, die in der Nähe des Zielanalyten eluiert und ähnliche Struktur und Eigenschaften aufweist, als interner Standard verwendet werden.

5.7 Matrixeffekte bei der Spurenanalytik

Bei der Spurenanalyse in stark matrixbelasteten Proben (Extrakte aus landwirtschaftlichen oder tierischen Produkten, medizinische Proben u. a.) beobachtet

5.8 Headspace-GC

man häufig trotz Probenvorbereitung eine Über- oder Unterbestimmung der Zielanalyte, obwohl die Reproduzierbarkeit der Messwerte sowie die Linearität der Kalibriergeraden (externe Kalibrierung) nicht zu beanstanden sind. Auf mögliche Substanzverluste wurde an mehreren Stellen dieses Kapitels hingewiesen. „Positive“ Matrixeffekte, die zu einer Signalvergrößerung führen, werden in der Gaschromatographie meist mit der Abdeckung aktiver Oberflächen durch nichtflüchtige Matrixbestandteile in den Proben in Verbindung gebracht. Zur Korrektur wird eine sog. „Matrixkalibrierung“ angewandt, d. h. die Kalibrierung unter Verwendung von konzentrationsabgestuften Standards mit möglichst probengleicher oder probenähnlicher Matrix anstelle des reinen Lösungsmittels. Sind analytfreie Probenstandards nicht erhältlich, so ist die Verwendung von stabilisotopmarkierten Standards zu favorisieren (MS-Isotopenverdünnungsanalyse). Wenn diese auch nicht zu Verfügung stehen, sollte in der Methodenentwicklungsphase mittels Standardadditionsexperimenten auf das Vorhandensein von Matrixeffekten geprüft werden.

5.8 Headspace-GC

Die Problematik der lösungsmittelfreien Extraktions- und Dosiertechniken (vgl. Tabelle 5.1) soll am Beispiel der statischen Headspace-Technik, einer Probennahmetechnik zur GC-Analyse von flüchtigen Verbindungen mit mittlerem bis hohem Dampfdruck in weniger flüchtigen Proben [12, 26], betrachtet werden. Dabei wird die flüssige, feste oder heterogen zusammengesetzte Probe in einem verschlossenen Gefäß einige Zeit bei höherer Temperatur thermostatisiert, bis sich das Verteilungsgleichgewicht der flüchtigen Probenbestandteile zwischen Probe und Gasvolumen über der Probe – dem sog. Kopfraum – eingestellt hat und anschließend aus dem Dampfraum ein Gasvolumen zur GC-Analyse entnommen. Die quantitative Auswertung kann nach den Methoden der internen oder externen Kalibrierung sowie der Aufstockung erfolgen. Diese elegante Methode der Abtrennung der nachzuweisenden Analyte von der Matrix ist jedoch als Folge des Verteilungsgleichgewichtes stark matrixabhängig. Wenn eine reine Matrix nicht zur Verfügung steht oder nicht simulierbar ist, sollte die Aufstockung angewendet werden. Außerdem beeinflussen bei heterogen zusammengesetzten Probematrices zusätzliche Adsorptionseffekte die Richtigkeit und Präzision des Messverfahrens. Wenn die Probe ein Feststoff ist oder feste Anteile enthält (Boden, Schlamm, Suspension), so kommt noch das Problem der inhomogenen Verteilung bei der Standardzugabe (Spiken) dazu. An der äußeren Oberfläche adsorbierte Standardsubstanzen sind sofort verfügbar, Analyte aus dem Inneren müssen erst an die Oberfläche migrieren. Aus diesen Gründen werden inhomogene oder feste Proben durch ein geeignetes Lösungsmittel in eine klare Lösung überführt. Bei niedrigsiedenden Analyten empfiehlt sich dafür ein höhersiedendes Lösungsmittel (z. B. Dimethyl-

221

222

5 Auswertung von GC-Daten

sulfoxid, Dimethylformamid, Ethylenglykolmonomethylether), das auch Vorteile beim Ansetzen von Kalibrierstandards etc. bietet. Gelingt es nicht, die Probe in Lösung zu bringen, so kann man versuchen, durch Zugabe eines Suspensionsmittels (Wasser) sowie von Salzen, den Matrixeinfluss durch eine „Verdrängungsdesorption“ zu vermindern. Führt dies auch nicht zum Erfolg, muss die multiple Headspace-Extraktion (MHE) angewandt werden, eine mehrfache Probenahme aus der Gasphase über der gleichen Probe in gleichen Zeitintervallen unter gleichen Bedingungen. Dabei kommt es zur exponentiellen Konzentrationsabnahme mit zunehmender Anzahl der Extraktionsschritte. Diese schrittweise Gasextraktion in gleichen Zeitintervallen erlaubt mit wenigen Messungen eine matrixunabhängige Quantifizierung und ist übrigens auch mit der Festphasenmikroextraktion aus dem Dampfraum (HS-SPME) machbar [27].

5.9 Abschätzung von Korrekturfaktoren beim FID

Chromatogramme von Multikomponentengemischen bestehen aus einer Vielzahl von Peaks, wenn sie mit einem Universaldetektor (FID, TIC) erhalten worden sind. Da solche Gemische meist Vertreter verschiedener Stoffklassen enthalten, kann man diese Chromatogramme nicht direkt als ein exaktes Abbild der betreffenden Proben ansehen, weil sich mit Berücksichtigung der individuellen Responsefaktoren andere Flächenverhältnisse ergeben würden. Da jedoch eine experimentelle Bestimmung von allen benötigten Korrekturfaktoren aufwendig oder wegen des Fehlens von Referenzverbindungen unmöglich ist, könnte eine Abschätzung aus der Molekülstruktur hilfreich sein. Bereits 1962 wurde von Sternberg et al. [28] ein Inkrementsystem zur Vorhersage von relativen Responsefaktoren aus der Molekülstruktur abgeleitet, das in der Folgezeit mit modernen Säulen und Geräten mehrfach überprüft und weitgehend bestätigt wurde [2, 29]. In den meisten Fällen wurden Abweichungen zwischen berechneten und experimentellen Faktoren von unter 5% gefunden. Fw(X) =

MWX ECN Ref ⋅ MWRef ECN X

Darin bedeuten: Fw(X) MWX MWRef ECNRef ECNX

relativer Gewichts-Responsefaktor der Substanz X Molmasse der Substanz X Molmasse der Referenzverbindung effektive Kohlenstoffzahl (Effective Carbon Number) der Referenzverbindung effektive Kohlenstoffzahl der Substanz X

5.9 Abschätzung von Korrekturfaktoren beim FID Tabelle 5.3 Atominkremente zur effektiven Kohlenstoffzahl (ECN) nach Sternberg. Atom

Struktureinheit

ECN-Inkrement

C

aliphatisch

1

C

aromatisch

1

C

olefinisch

0,95

C

acetylenisch

1,30

C

Carbonyl

0

C

Carboxyl

0

C

Nitril

0,3

O

Ether

–1,0

O

primärer Alkohol

–0,5

O

sekundärer Alkohol

–0,75

O

tertiärer Alkohol, Ester

–0,25

N

Amine

wie O in Alkoholen

Cl

2 oder mehr amaliphatischen C

–0,12 pro Cl-Atom

Cl

am olefinischen C

+0,05

Die effektive Kohlenstoffzahl (ECN) ergibt sich als Summe der in Tabelle 5.3 aufgeführten Inkremente; z. B. x für Benzol x für Acetaldehyd

6 u C aromatisch = 6 1 u C aliphatisch = 1 1 u CO = 0

Daraus erhält man einen molekularen Responsefaktor für Acetaldehyd in Bezug auf Benzol von 6 und unter Berücksichtigung des Molmassenverhältnisses 44/78 einen „Gewichtsfaktor“ von 3,38. Im Gegensatz zur potentiellen Nützlichkeit hat dieses Konzept bisher keine allgemeine Anwendung gefunden. Beim Elektroneneinfangdetektor (ECD) ist eine Abschätzung der extrem substanzabhängigen Responsefaktoren nicht möglich, weil neben der Polarisierbarkeit des Moleküls noch andere Faktoren eine Rolle spielen.

223

224

5 Auswertung von GC-Daten

Danksagung

Der Autor ist Dr. Daniela Baumann, Dr. Katja Dettmer, Dipl.-Chem. Franziska Hartmann, Dr. Thomas Knobloch, Dr. Monika Möder und Dr. Bernhard Rothweiler für kritische Hinweise und die Bereitstellung von Ergebnissen zu Dank verpflichtet.

Literatur 1 E. Leibnitz, H. G. Struppe (Eds.), Handbuch der Gaschromatographie, 3. Aufl. Geest & Portig, 1984. 2 G. Guiochon, C. Guillemin, Quantitative gas chromatography, Elsevier, 1988. 3 G. Schomburg, Gaschromatographie (Grundlagen, Praxis, Kapillartechnik), VCH, Weinheim, 1987. 4 W. Gottwald, GC für Anwender. VCH, Weinheim, 1995. 5 B. Baars, H. Schaller, Fehlersuche in der Gaschromatographie (Diagnose aus dem Chromatogramm). VCH, Weinheim, 1994. 6 K. Grob, Einspritztechniken in der Kapillar-Gaschromatographie, HüthigVerlag, 1995. 7 H.-J. Hübschmann, Handbuch der GC/MS. VCH, Weinheim, 1996. 8 M. Oehme, Praktische Einführung in die GC/MS-Analytik mit Quadrupolen, Hüthig, 1996. 9 P. J. Baugh (Ed.), Gaschromatographie – eine anwenderorientierte Darstellung (Übersetzung aus dem Englischen). Vieweg-Verlag, 1997. 10 W. David, B. Kusserow, GC-Tipps, Problemlösungen rund um den Gaschromatographen. Hoppenstedt-Verlag, 1999. 11 B. Kolb, Gaschromatographie in Bildern, 2. Aufl. Wiley-VCH, Weinheim, 2003. 12 B. Kolb, L. S. Ettre, Static Headspace-Gas Chromatography, Wiley-VCH, Weinheim, 2006. 13 D. Rood, The Troubleshooting and Maintenance Guide for Gas Chromatographers. Wiley-VCH, Weinheim, 2007. 14 J. V. Hinshaw, LC.GC Europe, 2002, 15, 152–155.

15 A. van Es, High Speed, Narrow-Bore Capillary Gas Chromatography. HüthigVerlag, 1992. 16 H.-U. Baier, L. Mondello, Die schnelle Gaschromatographie (fast GC) in der Lebensmittelanalytik – Prinzip und Anwendung, in W. Baltes, L. Kroh, Schnellmethoden zur Beurteilung von Lebensmitteln und ihren Rohstoffen. Behr’s Verlag, 2004. 17 www.agilent.com/chem. 18 L. Mondello, P. Dugo, A. Basile, G. Dugo, K. D. Bartle, J. Microcol., Sep. 1995, 7, 581–591. 19 L. M. Blumberg, M. S. Klee, Anal. Chem. 1998, 70, 3828–3839. 20 www.gcimage.com/nist.html. 21 B. Rothweiler (Agilent Technologies, Waldbronn) Analytische Trends und Möglichkeiten zur Überwachung der Lebensmittel- und Wasserqualität. Vortrag. 22 J. M. Halket et al., Rapid Commun. Mass Spectrom. 1999, 13, 279–289. 23 K. Dettmer, Regensburg (unveröffentlicht). 24 M. Möder, Leipzig (unveröffentlicht). 25 T. Knobloch, Leipzig (unveröffentlicht). 26 H. Hachenberg, K. Beringer, Die Headspace-Gaschromatographie als Analysenund Messmethode. Vieweg-Verlag, 1996. 27 S. A. Scheppers Wercinski (Ed.), Solid Phase Microextraction – A Practical Guide. Marcel Dekker, 1999. 28 J. C. Sternberg, W. S. Gallaway, D. T. L. Jones, in Gas Chromatography. Academic Press, 231–267, 1962. 29 A. D. Jorgensen, K. C. Picel, V. C. Stamoudis, Anal. Chem. 1990, 62, 683–689. 30 D. Baumann, Leipzig (unveröffentlicht).

225

6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC) Heiko Herrmann und Detlef Jensen

6.1 Einleitung

Die Anwendung von Ionenaustauschern in der Analytischen Chemie geht zurück auf die Arbeiten von Folin und Bell (1917) zur Ammonium-Bestimmung in Urin [1]. Die erste chromatographische Bestimmung anorganischer Spezies wird Schwab zugeschrieben, der 1937 Alkali-Metalle und Übergangsmetalle trennte [2]. Heute fasst der Begriff „Ionenchromatographie“ (IC) verschiedene Trennverfahren zusammen, die Teilgebiete der modernen Flüssigkeitschromatographie zugeordnet sind. Im Speziellen kommen drei verschiedene Verfahren zur Anwendung, deren Trennmechanismus die Grundlage zur jeweiligen Bezeichnung darstellt. Man unterscheidet die Ionenaustausch-, die Ionenausschluss- und die IonenpaarChromatographie. Die Trennung in der Ionenaustausch-Chromatographie wird durch die Wechselwirkung der Analyte mit den am Trägermaterial gebundenen Austauschergruppen erreicht. Man unterscheidet je nach Ladung der Zielkomponenten die Anionenaustausch- und die Kationenaustausch-Chromatographie. Die IonenausschlussChromatographie wird zur Trennung schwach saurer anorganischer und organischer Säuren eingesetzt. Als stationäre Phasen verwendet man total sulfonierte polymere Kationenaustauscher hoher Kapazität. Die Trennung basiert auf dem sog. Donnan-Ausschluss, dem sterischen Ausschluss, der Adsorption sowie – in Abhängigkeit von der eingesetzten Trennsäule – auch auf der Ausbildung von Wasserstoffbrückenbindungen. Die Anwendung der Leitfähigkeits-Detektion in Verbindung mit einem kontinuierlich regenerierten Suppressorsystem hat sich heutzutage am Markt auf Grund der höheren Nachweisempfindlichkeit und höheren Flexibilität (z. B. Gradientenelution) durchgesetzt. Neben der LeitfähigkeitsDetektion finden auch UV/Vis-, amperometrische und Fluoreszenz-Detektoren Verwendung. Die Ionenaustausch-Selektivität wird im Wesentlichen durch die mobile und die stationäre Phase bestimmt. Bei der Ionenpaarchromatographie hingegen

226

6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC)

dominiert der Einfluss der mobilen Phase. Die wesentlichen Komponenten der mobilen Phase sind sog. Ionenpaarbildner und ein organisches Lösemittel. Durch Variation von Zusammensetzung und Konzentration der Ionenpaarbildner und des organischen Lösemittels lässt sich die gewünschte Trennung erreichen. Das Ionenpaar-Reagenz ist meist ein großes dem Analyten entgegengesetzt geladenes ionisches Molekül mit hydrophober Region. Hierdurch sind Wechselwirkungen mit stationärer Phase und Analyten sichergestellt. Stationäre Phasen für die Ionenpaarchromatographie sind entweder neutrale, hydrophobe Harze auf Basis Polystyrol/Divinylbenzol (PS/DVB) oder Kieselgel-Umkehrphasen. Eine einzelne Säule kann sowohl zur Trennung von Anionen oder Kationen eingesetzt werden. Obwohl der Retentionsmechanismus der Ionenpaarchromatographie noch nicht vollständig erklärt werden konnte [3, 4], stehen drei mögliche Erklärungsansätze zur Verfügung: x Ionenpaarbildung, x dynamischer Ionenaustausch, x Ionenwechselwirkung. Dem Schwerpunkt dieses Beitrages folgend diskutieren wir die Interpretation von Daten vornehmlich aus der Anionenaustausch-Chromatographie in Verbindung mit der Leitfähigkeits-Detektion nach Suppression [3].

6.2 Eluenten Reinheit

Die in der modernen IC am häufigsten eingesetzten Laufmittel sind verdünnte Säuren und Laugen [5, 6], die u. U. korrosive Eigenschaften haben (s. Abschn. 6.3, Kontaminationen). Konventionell erfolgt deren Herstellung meist durch das Verdünnen handelsüblicher Chemikalien genügender Reinheit. Je nach Art der zu verdünnenden Ausgangschemikalie müssen dabei Vorkehrungen getroffen werden, die eine Verunreinigung des herzustellenden Eluenten vermeiden. So kann z. B. verdünnte Natronlauge leicht mit Carbonat, durch Aufnahme von CO2 aus der Umgebungsluft, kontaminiert werden. Man kann diesen Vorgang weitgehend durch Entgasen des eingesetzten Wassers mit Helium und durch Aufbewahrung des einsatzfertigen Eluenten unter einem Inertgas verhindern. Bildet sich Carbonat in der Natronlauge, so verändern sich die Zusammensetzung und die chromatographischen Eigenschaften des Eluenten. Beim Einsatz derart kontaminierter Hydroxid-Eluenten resultiert zudem eine höhere Grundleitfähigkeit, die sich insbesondere bei der Gradientenelution – gemeint sind in diesem Zusammenhang meist Konzentrationsgradienten – als störende Basisliniendrift bemerkbar macht. Aus diesen Gründen wurde ein neues Verfahren entwickelt, das hochreine Säure und Lauge im Sinne einer OnlineElektrolyse einzig mit demineralisiertem Wasser erzeugt (Eluenten-Generator), und sowohl isokratische als auch Gradientenanwendungen deutlich vereinfacht.

6.2 Eluenten

Der zeitliche Verlauf des Elektrolysestroms bestimmt, ob es sich um eine isokratische Anwendung oder eine Gradientenelution handelt. Die Technologie des Eluenten-Generators basiert auf einem von Small et al. entwickelten Konzept [7, 8] und wurde von Dionex unter dem Begriff RFIC (Reagent Free IC, d. h. Ionenchromatographie ohne manuelles Ansetzen der Reagenzien) kommerzialisiert. Auch beim Einsatz konventioneller Carbonat/Hydrogencarbonat-Eluenten können Kontaminationen zu einer Veränderung der chromatographischen Trennung führen. Eine Verschiebung des Verhältnisses von Carbonat zu Hydrogencarbonat – etwa durch Zugabe von NaOH oder durch die Absorption von CO2 – führt zu einem anderen pH-Wert, durch den beispielsweise die Retentionszeit von Phosphat verändert wird. Auf Grund des pH-abhängigen Dissoziationsgleichgewichtes H3PO4 p – H+ H2PO4– p – H+ HPO42 p – H+ PO43– ergibt sich zunächst eine „andere chromatographische Selektivität“. Tatsächlich eluiert das Phosphor-Oxoanion in Abhängigkeit von der jeweiligen Formalladung von den eingesetzten Ionenaustauschern. Je höher die Ladung, umso länger verweilt das Phosphor-Oxoanion auf dem Ionenaustauscher. Sich kontinuierlich verändernde Retentionszeiten können demnach auf Kontaminationen des Eluenten hinweisen. Auch für Carbonat/Hydrogencarbonat-Eluenten bietet die RFIC eine einfache Lösung zur kontinuierlichen online Eluentenherstellung. Da der beschriebene Eluenten-Generator Eluenten online und in einem nach außen geschlossenen System bildet, ist die Kontamination mit atmosphärischem CO2 ausgeschlossen, was sich augenfällig in der Spurenanalytik günstig auswirkt. Eine He-Entgasung des Wassers oder des Eluenten ist hierbei nicht notwendig! 6.2.1 Der Wasserdip – Lösemittelpeak der Ionenchromatographie

Die Leitfähigkeits-Detektion ist die am häufigsten in der Ionenchromatographie eingesetzte Detektionsmethode [9]. Zur empfindlichen und spezifischen Detektion von Ionen über ihre elektrische Leitfähigkeit ist der Einsatz eines Suppressorsystems unumgänglich. Aufgabe des Suppressorsystems besteht zum einen darin, die hohe Grundleitfähigkeit des als Eluent fungierenden Elektrolyten vor Eintritt in die Detektionszelle auf chemischem Wege zu verringern und zum anderen die zu analysierenden Ionen in eine stärker leitende Form zu überführen, wodurch eine deutliche Steigerung der Empfindlichkeit resultiert (Abb. 6.1). Da moderne Suppressoren die Nachweisempfindlichkeit der Leitfähigkeits-Detek-

227

228

6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC)

Abb. 6.1 Schematische Darstellung der chemischen Suppression in der Ionenchromatographie.

tion verbessern, ohne die Peakform zu beeinträchtigen, werden sie als Teil der Detektionseinheit betrachtet. Setzt man zur Trennung von Chlorid und Sulfat an einem Anionenaustauscher beispielsweise eine NaOH-Lösung als Eluent ein, erfolgt der Kationenaustausch sowohl für den Eluenten als auch für die nachzuweisenden Anionen unmittelbar vor Eintritt in die Leitfähigkeits-Messzelle. Als Ergebnis der Suppressorreaktion gelangen die korrespondierenden Säuren sowohl der Eluent-Ionen als auch der Analyt-Ionen in die Leitfähigkeits-Messzelle. Wie aus Abb. 6.1 hervorgeht, werden sämtliche Kationen aus Probe und Elutionsmittel gegen Protonen ausgetauscht. Interferenzen durch Kationen im Bereich des Totvolumens und mögliche Koelutionen von Metallen mit anorganischen Anionen sind daher ausgeschlossen. Durch den Kationenaustausch wird die stark dissoziierte NaOH in Wasser überführt, so dass die Grundleitfähigkeit sinkt, und sich der absolute Temperatureinfluss auf die Leitfähigkeits-Detektion minimiert (Abb. 6.2). NaCl und Na2SO4 werden in die stark leitenden anorganischen Mineralsäuren (HCl bzw. H2SO4) überführt. Die niedrige Grundleitfähigkeit und die größeren Analytsignale führen dabei zusätzlich zu einer Verbesserung des Signal/RauschVerhältnisses, wodurch niedrige Nachweisgrenzen im untersten μg/L-Bereich erreicht werden. Die Anwendung der Suppressortechnik erhöht zudem die Spezifität des Detektionsverfahrens, da die chemische Modifizierung von Eluent und Probe im Suppressor den unspezifischen Leitfähigkeits-Detektor in einen analytspezifischen überführt. Moderne Suppressorsysteme werden kontinuierlich regeneriert und weisen eine sog. dynamische Austauschkapazität auf. Diese wird beispielsweise in [μmol/min] ausgedrückt, und kann je nach Bauart des Suppressors im Bereich von bis zu 350 μmol Na+/min liegen. Hieraus ergibt sich im Umkehrschluss die

6.2 Eluenten

Abb. 6.2 Gegenüberstellung der Leitfähigkeits-Detektion ohne Suppressor (a) mit der Leitfähigkeits-Detektion mit Suppressor (b). In beiden Fällen wurde auf die Temperierung der Messzelle verzichtet.

Möglichkeit hochkapazitive Säulen mit entsprechend konzentrierteren Eluenten zu betreiben. Aus der höheren Beladbarkeit solcher Säulen ergeben sich zwingend niedrigere Nachweisgrenzen. Eine Besonderheit bei der Bewertung ionenchromatographischer Daten stellt der sog. Wasserdip dar. In der konventionellen HPLC sind sog. Lösemittelpeaks bekannt. Diese können auf das im Überschuss vorliegende Probelösemittel zurückgeführt werden. Im Gegensatz zur klassischen HPLC ist der Lösemittelpeak in der IC (= der Wasserdip) ein negatives Signal. Dieses entsteht bei der Elution des Probelösemittels Wasser, das das Laufmittel verdünnt und zu einer Abnahme

229

230

6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC)

Abb. 6.3 Beispiel des „Void Volume Treatment“-Parameters: (a) ohne „Void Volume Treatment“; (b) mit „Void Volume Treatment“; alle weiteren Parameter wurden konstant gehalten.

der Grundleitfähigkeit führt. Dieser Effekt ist umso ausgeprägter, je höher die Grundleitfähigkeit ist. Die Integration von früh eluierenden Signalen auf der ansteigenden Flanke des Wasserdips – etwa Fluorid, Acetat, o. ä. – ist erschwert. Besondere Integrationsalgorithmen – bekannt unter dem Terminus „Void Volume Treatment“ – vereinfachen die Auswertung. Dieser Parameter dient zum Ausblenden eines negativen Peaks zu Beginn des Chromatogramms. Ist der Parameter „Void Volume Treatment“ eingeschaltet, wird die Peak-Detektion im Bereich des negativen Wasser-Peaks deaktiviert und die Integration der nach dem negativen Peak eluierenden Komponenten erleichtert (Abb. 6.3). Alternativ kann auf Hydroxid-Laufmittel und ggf. Gradientenanwendungen ausgewichen werden. Die niedrigere Grundleitfähigkeit etwa von KOH-Laufmitteln und die höhere Peak-Kapazität der Gradientenanwendung führen zu einer zusätzlichen Vereinfachung bei der Quantifizierung früh eluierender Substanzen. Die Anwendung spezieller Integrationsalgorithmen entfällt.

6.3 Kontaminationen

Bestandteile moderner Ionenchromatographen, d. h. Pumpe, Kapillaren, Ventile, Injektoren etc., sind komplett metallfrei ausgelegt. Hiermit sind Korrosionserscheinungen vollständig ausgeschlossen, die ansonsten zu einer Metallkontamination der Trennsäulen und Suppressoren führten. Metallkontaminationen – etwa mit Eisen – können die Wiederfindung einzelner Ionen, deren Peakform sowie deren Retentionszeiten, aber auch den Systemgegendruck signifikant beeinflussen. Daneben sind Eisen und andere Metalle in vielen Umweltproben enthalten. Werden solche Proben nativ injiziert, können diese Metalle in Säulen und Suppressoren als Niederschläge oder über Ionenaustauschwechselwirkungen zurück-

6.3 Kontaminationen Tabelle 6.1 Auswirkungen möglicher Kontaminationen und Behebung der Ursachen. Auswirkung

Mögliche Ursache

Behebung

Druckanstieg

Metallniederschläge

x Austausch der Säuleneingangsfritte x Spülen z. B. Oxalsäure-Lösungen (s. Säulenhandbuch!) x Probenvorbehandlung!

Peakverbreiterung (z. B. für Fluorid und Phosphat)

Eisenkontamination des Systems

x Spülen z. B. Oxalsäure-Lösungen (s. Säulenhandbuch!)

Anstieg der Grundleitfähigkeit

Metallkontamination des Suppressorsystems

x Reinigen des Suppressors (s. Handbuch)

Anstieg des Basislinien-Rauschens

Metallkontamination des Suppressorsystems

gehalten werden. Im Falle moderner elektrolytisch regenerierter Suppressoren kann dieser Vorgang einfach über die Kontrolle des elektrischen Widerstandes überprüft werden. Als unmittelbare Folge dieser Veränderung ergeben sich ein höheres Grundsignal, ein höheres Rauschen und in bestimmten Fällen (z. B. Phosphat und Fluorid) eine veränderte Peakform. Veränderungen der Säulen und Suppressoren lassen sich besonders einfach durch die regelmäßige Injektion von Kontrollstandards feststellen. Reinigungsvorschriften – etwa das Spülen von Säulen und Suppressoren mit Oxalsäure-Lösungen – finden sich in den jeweiligen Handbüchern der Hersteller und stellen in den meisten Fällen die ursprüngliche Leistung der Bauteile wieder her [10]. Hydrophobe Verbindungen und Komponenten mit hoher Affinität zur verwendeten stationären Phase werden zunächst auf den Vorsäulen zurückgehalten. Fette, Öle, Tenside, Humin- und Ligninstoffe sowie Zellulose, Eiweißstoffe und andere hochmolekulare Substanzen gelten – speziell für Ionenaustauscher – als Säulengifte und müssen mit einer geeigneten Vorbereitungstechnik, etwa durch den Einsatz geeigneter SPE-Kartuschen [3], aus der jeweiligen Probe entfernt werden. Die „Vergiftung“ der analytischen Trennsäule, die sich gewöhnlich in einer Abnahme der Trennleistung äußert, wird vermieden. Da auch die Kapazität der Vorsäulen begrenzt ist, müssen diese gelegentlich gespült oder ausgetauscht werden. Die Art der Reinigung richtet sich in erster Linie nach den Eigenschaften der stationären Phase. Moderne Ionenaustauscher sind lösemittelstabil, so dass sie bei Bedarf mit konventionellen HPLC-Lösemitteln gespült werden können. Allgemein sind bei allen Reinigungschritten der Trennsäulen die Richtlinien der Säulenhersteller unbedingt zu befolgen. Sind die Spülschritte beendet, werden die Säulen in der ursprünglichen Konfiguration zusammengebaut und im Eluenten äquilibriert.

231

232

6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC) Tabelle 6.2 Reinigungslösungen moderner Ionenaustauschersäulen. Kontamination

Reinigungslösunga)

Organische Verbindungen

Meist 80% Acetonitril, dem je nach Säulentyp noch ein Elektrolyt NaCl oder HCl (0,1 mol/l) zugesetzt wird

Metalle

0,1 mol/l Oxalsäure oder HCl

Anionen

10–100-fach konzentrierter Eluent 0,1–0,5 mol/l NaOH 0,1–0,5 mol/l HCl

a)

Vor Verwendung alkalischer oder säurehaltiger Reinigungslösungen ist die pH-Stabilität der Trennsäule sicherzustellen. Die jeweiligen Vorschriften und Richtlinien des Säulenherstellers sind unbedingt zu befolgen!

6.4 Kalibrierfunktionen

In der Anionenaustausch-Chromatographie in Verbindung mit der Suppressionstechnik bestimmt das eingesetzte Laufmittel im Wesentlichen die Linearität der resultierenden Kalibrierfunktion. Als Resultat der Suppressions-Reaktion werden sowohl aus den Analytionen als auch aus den eluierenden Anionen die korrespondierenden Säuren gebildet. Die im Falle von Carbonat/Hydrogencarbonat-haltigen Eluenten entstehende, nur formal diskutierte „Kohlensäure“ dissoziiert gemäß der folgenden Gleichung: „H2CO3“ + H2O l H3O+ + HCO3– Eluierende Anionen – beispielsweise Halogenide – werden im Suppressor in ihre korrespondierenden, stark dissoziierten Säuren überführt. Diese Säuren beeinflussen das o. g. Gleichgewicht und verschieben es auf die linke Seite. Hieraus resultiert eine „unter dem Analyt-Peak“ liegende Abnahme der Grundleitfähigkeit und gleichzeitig eine typischerweise quadratische Kalibrierfunktion. Im Gegensatz hierzu weisen Hydroxid-Laufmittel zunächst eine deutlich niedrigere Grundleitfähigkeit nach dem Suppressor auf. Das gebildete Wasser ist eine deutlich schwächere Säure als die „Kohlensäure“, so dass der beschriebene Einfluss starker Säuren auf die Autoprotolyse des Wassers deutlich geringer ist. Es resultieren meist lineare Kalibrierfunktionen mit einer deutlich größeren Steigung (= höhere Empfindlichkeit). Obwohl heutzutage leistungsstarke Auswerteprogramme für chromatographische Daten vorhanden sind und die Auswertung der Analysendaten über Kalibrierfunktionen höherer Ordnung (quadratisch, kubisch, …) leicht möglich ist, wird noch häufig die Auswertung über die lineare Kalibrierfunktion bevorzugt. Hintergrund hierfür sind zumeist vorliegende Arbeitsanweisungen (SOPs)

Literatur

oder andere Vorschriften. Gleichwohl gibt es bei vorliegendem linearen Zusammenhang von Konzentration und Detektorsignal unbestreitbare Vorteile: Das Verfahren der Standard-Addition ist im Sinne der Qualitätssicherung aber auch zur Auswertung komplexer Proben möglich und gleichzeitig kann der Kalibrieraufwand in der Routine reduziert werden. Neben den Eigenschaften des Eluenten bestimmen Säure- bzw. Basenstärke der Analyte über die Linearität des Leitfähigkeits-Signals. Da beispielsweise die Dissoziation schwacher Säuren (Basen) mit zunehmender Konzentration abnimmt, flacht die Kalibrierfunktion in gleichem Maße ab. So kann die Kalibierfunktion schwacher Säuren (Basen) bei Anwendung der Suppressionstechnik quadratische Kalibrierfunktionen ergeben. Sind jedoch lineare Kalibrierfunktionen gefordert, so kann auf den Einsatz von Suppressoren verzichtet werden. Allerdings gilt es beim Einsatz der sog. direkten Leitfähigkeits-Detektion zu beachten, dass sowohl die Spezifität als auch die Empfindlichkeit deutlich abnehmen (s. Abb. 6.2).

Literatur 1 O. Folin, R. Bell, J. Biol. Chem., 29 (1917) 329. 2 G.-M. Schwab, Naturwissenschaften 44 (1937) 25. 3 J. Weiß, Ionenchromatographie, 3. Aufl. Wiley-VCH, Weinheim, 2001. 4 Methods Development Using Ion-Pair Chromatography with Suppressed Conductivity Detection, Document No. LPN 0705-01 3M 10/00, Dionex Reference Library, www.dionex.com. 5 ISO 10 304 Teil 1 bis 4. Verschiedene ISO-Verfahren zur ionenchromatographischen Anionen-Bestimmung in unterschiedlichen Matrizes. BeuthVerlag, Berlin.

6 ISO 14 911: 1998. Bestimmung von Alkali- und Erdalkalimetallen sowie Ammonium in Wasser und Abwasser mit der IC. Beuth-Verlag, Berlin. 7 H. Small, J. Riviello, Anal. Chem. 70 (1998) 2205–2212. 8 H. Small, Y. Liu, N. Avdalovic, Anal. Chem. 70 (1998) 3629–3635. 9 J. R. Stillian, V. Barreto, K. Friedman, S. Rabin, M. Toofan, J. Statler, L. Takahashi: „Chemical Suppression in Ion Chromatography: 1975 to Present“. Vortrag anlässlich des International Ion Chromatography Symposium, Linz (Österreich) 1992. 10 „Removal of Iron Contamination from Electrolytic Suppressors“, Document No. 031841-02, Dionex Reference Library, www.dionex.com.

233

235

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen Daniela Held und Peter Kilz

Die Gelpermeationschromatographie (GPC), auch Gelfiltrationschromatographie (GFC) oder Größenausschlusschromatographie bzw. Size Exclusion Chromatography (SEC) genannt, ist eine spezielle Methode in der Chromatographie, die zur Bestimmung der molekularen Eigenschaften von synthetischen und natürlichen Makromolekülen in Lösung in großem Umfang eingesetzt wird. Grundlagen und Anwendung dieser Analysentechnik sind in vielen Monographien umfassend beschrieben [1]. In diesem Beitrag soll auf die Besonderheiten und die spezifischen Datenverarbeitungsanforderungen der GPC-Datenprozessierung und ihr Einfluss auf die Ergebnisqualität eingegangen werden.

7.1 Einleitung

Mit der GPC-Technik können Eigenschaften makromolekularer Proben schnell, einfach und genau bestimmt werden, die mit anderen Verfahren nur aufwendig oder nur teilweise zugänglich sind. Die GPC-Methodik wird deshalb zur Charakterisierung von natürlichen, synthetischen und Bio-Polymeren in vielen Laboratorien eingesetzt, auch wenn deren Kernkompetenz nicht in der makromolekularen Analytik liegt. Zugänglich sind mit einer einzigen Messung komplette Eigenschaftsverteilungen. Diese sind bei Makromolekülen von größter Wichtigkeit, da gewünschte und unerwünschte makroskopische Produkteigenschaften direkt von der physikalischen (Molmasse) und chemischen (Zusammensetzung) Heterogenität beeinflusst werden. Bei der GPC-Datenprozessierung werden die absolute Lage und die Form der Peaks ausgewertet, aus denen mit bestimmten Algorithmen (s. Abschn. 7.2.1) die Molmassenverteilungen und mittleren Molmassen bestimmt werden. Dadurch unterscheidet sich die GPC-Datenevaluation grundlegend von der HPLC- und GC-Datenprozessierung, bei denen primär Peakreihenfolge und Peakfläche zur Auswertung herangezogen werden.

236

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen Tabelle 7.1 Besonderheiten der GPC Datenprozessierung im Vergleich zu HPLC. HPLC

GPC

ChromatogrammForm

Viele enge Peaks

(Ein) breiter Peak (evtl. Peaks von Verunreinigungen im RI)

Analysenziele

a) Qualitative Analyse b) Quantitative Analyse

a) Molmassenmittelwerte b) Molmassenverteilung

Ergebnisgrundlagen

a) Peakreihenfolge b) Peakfläche

a) Absolute Peakposition b) Peakform

Kalibration

Detektorsignal o Konzentration

Retention o Molmasse

Detektion

Einzeldetektor (UV, DAD)

Multidetektion (UV, RI, LS, Viskosimetrie, FTIR etc.)

Die GPC-Trennung erfolgt nach dem bekannten Größenausschluss-Mechanismus, die Grundlagen dazu sind in der einschlägigen Literatur zu finden [1]. Im Idealfall wird das Retentionsvolumen nur durch die Größe des Makromoleküls in Lösung bestimmt. Da mit der GPC die Molmassen nicht direkt gemessen werden können, muss die Retentionsachse mit sog. Polymerstandards bekannter Molmasse (Molmassenstandards) kalibriert werden. Dadurch kann eine Peakposition mit der Molmasse korreliert werden. Zur leichteren Orientierung der Leser, die mit HPLC-Anwendungen vertraut sind, sind in Tabelle 7.1 Unterschiede zwischen HPLC und GPC in Bezug auf die Datenevaluation gegenübergestellt.

7.2 Grundlagen der GPC-Datenverarbeitung in der Ausschlusschromatographie

Die Abläufe in der GPC-Datenprozessierung unterscheiden sich wie in der Einleitung ausgeführt grundlegend von der Datenverarbeitung bei anderen chromatographischen Verfahren. Die Abb. 7.2 zeigt das Fluss-Schema einer GPC-Datenprozessierung, wobei der Datenakquise-Prozess nicht dargestellt ist, da er nicht GPC-spezifisch ist, sondern analog jeder Echtzeit-Datenerfassung verläuft. Die GPC-Metadaten umfassen alle probenspezifischen Informationen, alle Methodenparameter und alle Größen die zur sach- und normgerechten Berechnung der Resultate erforderlich sind. Diese Daten können aus unterschiedlichen Quellen kommen (automatisch erzeugte Prozessgrößen, Benutzerein- und -vorgaben etc.). Dazu gehören z. B. separate Parametersätze für Basislinie, Integrationsgrenzen und Stützstellen für Anteilswerte, wie sie für Datenprozesse in GPC-Normen zwingend vorgeschrieben sind. Bei den Kalibrierdaten handelt es sich um eine besondere Form von GPC-Metadaten, die zwischen Rohdaten und

7.2 Grundlagen der GPC-Datenverarbeitung in der Ausschlusschromatographie

Abb. 7.1 Vergleich von HPLC- und GPC-Chromatogrammen (Rohdaten). (a) Isokratische HPLC-Trennung mit einem DAD-Signal. (b) GPC-Chromatogramm eines breitverteilten zertifizierten Referenzmaterials mit UV-, RI-, Viskositäts- und Lichtstreu-Detektion (CRM-Quelle: PSS).

237

238

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

Abb. 7.2 Fließdiagramm einer GPC-Datenanalyse unter Einbeziehung von methodischen Randbedingungen und Benutzervorgaben.

reinen Metadaten anzusiedeln sind. In diesem Container sind Quelldaten wie Retentions- und Intensitätskalibration enthalten sowie Parameter, die Art, Anlass und Umfang der Kalibration sowie Referenzgrößen festlegen. Der Container „Auswertebedingungen/Optionen“ enthält Parameter die zur finalen Ergebnisberechnung benötigt werden. Dazu zählen alle System- oder Infrastruktur- Größen die probenübergreifend Anwendung finden und die Datenprozessierungswege definieren. Hier sind z. B. auch Parameter hinterlegt, die die Art der Molmassenberechnung und andere Auswerteoptionen beschreiben. 7.2.1 Berechnung der Molekulargewichtsmittelwerte

Die Berechnung der Molmassenmittelwerte erfolgt heute meist mittels der sog. Streifenmethode [1d, 2]. Dabei wird der eluierte Peak in mehrere i. d. R. äquidistante Zeit- oder besser Volumenstreifen unterteilt. Die Datenerfassung mittels Volumeter hat heute allerdings keine besondere Bedeutung mehr, da die Förderpumpen in den meisten Fällen ausreichende Genauigkeit und Reproduzierbarkeit liefern, die es erlaubt aus der Elutionszeit das Elutionsvolumen zu berechnen.

7.2 Grundlagen der GPC-Datenverarbeitung in der Ausschlusschromatographie

Über eine Molmassen-Kalibration werden dann Elutionsvolumina in Molmassen transformiert. Bei der Berechnung der Molekulargewichtsmittelwerte müssen die Streifenkonzentrationen ci mit der Steigung der Kalibrierkurve korrigiert werden. Dies ist notwendig, da die Datenerfassung linear in der Zeit erfolgt, die Molmassenzuordnung jedoch nichtlinear verläuft. Anschaulich bedeutet dies, dass bei gleicher Streifenkonzentration die Anzahl der Polymerketten mit einem bestimmten Molekulargewicht auf der hochmolekularen Seite des Elugramms viel geringer ist als auf der niedermolekularen Flanke. Diese Korrektur wird bei vielen Programmen nicht durchgeführt. Die dadurch verursachten Fehler werden umso größer, je breiter die Polymerprobe verteilt ist und je kleiner die Datenerfassungsfrequenz ist. Nur bei strikt linearen Kalibrierkurven (die in der GPC nur unter besonderen Bedingungen vorkommen) kann auf diese Korrektur verzichtet werden. Wichtig für die Beurteilung der Produkteigenschaften von Makromolekülen ist die Molmassenverteilung w(M), die aus den Signalhöhen h(V) berechnet werden kann. Im Gegensatz zu den Mittelwerten der Massenverteilung beschreibt die Molmassenverteilung die Gesamtheit der Probe. So können z. B. die Molekulargewichtsmittelwerte von zwei Proben gleich sein, obwohl sich die Molmassenverteilung deutlich unterscheidet [1(d)]. Die differentielle Verteilung, w(M), der Molmasse M berechnet sich nach: w(M ) =

dm dM

mit: dm/dM = Massenanteil Polymer im Intervall dM. Durch Umformen kann man w(M) durch Messgrößen ausdrücken: w(M ) =

h(V ) M(V ) ⋅ V(V )

V(V ) =

d lg M dV

mit: h(V) = Detektorsignal, V(V) = Steigung der Kalibrierkurve. Die oben qualitativ eingeführte Korrektur mit der Steigung der Kalibrierkurve wird nun durch die mathematische Ableitung der Molmassenverteilung belegt. Die integrale Verteilung I(M) ergibt sich aus: ∞

I(M ) = ∫ w(M ) dM 0

Die Mittelwerte der Molmassen ergeben sich aus den Momenten, μi, der Molmassenverteilung, die wie folgt definiert sind:

239

240

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen ∞

Pi = ∫ M i w(M ) dM 0

mit: μi = i-tes Molmassen-Moment. Für die Kalkulation der Molmassenmittelwerte gelten folgende Definitionen:

Zahlenmittelwert:

∑ hi

P Mn = 0 = P−1

i

h

∑ Mi i

Gewichtsmittelwert:

Mw =

i

∑ hi ⋅ Mi i ∑ hi

P1 = P0

i

z-Mittelwert:

∑ hi ⋅ Mi2 i ∑ hi ⋅ Mi

P Mz = 2 = P1

i

1

 P a Viskositätsmittelwert: M v =  v   P0 



mit

Pv = ∫ M a w(M ) dM 0

Andere Mittelwerte der Molmassenverteilung sind analog zu bilden, spielen in der GPC-Praxis aber keine Rolle. Die Breite der Molekulargewichtsverteilung wird durch die Polydispersität D oder die Uneinheitlichkeit U (veraltete Bezeichnung) beschrieben: D =

Mw Mn

bzw . U = D − 1

Weitere wichtige GPC-Ergebnis-Größen zeigt die folgende Aufstellung: [K]

Vp Mp A w% I(M)

intrinsische Viskosität der Probe innerhalb der Integrationsgrenzen entweder berechnet aus den Mark-Houwink-Koeffizienten oder bestimmt aus der Viskositätsmessung der Probe, Elutionsvolumen am Peakmaximum des Elugramms, Molekulargewicht am Peakmaximum des Elugramms, Peakfläche innerhalb der Integrationsgrenzen, Massenanteil des Polymeren zwischen Molekulargewichtsgrenzen, Molmassenwert bei gewähltem Probenanteilswert.

7.3 Richtlinien, Normen und Anforderungen an GPC-Datenverarbeitungsprozesse

7.3 Richtlinien, Normen und Anforderungen an GPC-Datenverarbeitungsprozesse

In vielen Einsatzbereichen von wissenschaftlicher Software spielt heute der Nachweis der Richtigkeit und Zuverlässigkeit (sowie die Nachweisführung für externe Zertifizierungs- und Akkreditierungsstellen) eine große Rolle [3]. Für die spezifischen Fragestellungen bei GPC-Anwendungen ist dieser Nachweis bislang nicht allgemein erfolgt und muss für jedes einzelne Mess-System von den Anwendern, am besten in enger Zusammenarbeit mit den Herstellern, erbracht werden. Derzeit gibt es nur einen einzigen Hersteller, der Tools zur Validierung von GPC-Anwendungen kommerziell anbietet, die nicht Hersteller-spezifisch arbeiten (EasyValid GPC-Kit, PSS, Mainz). Allgemeine Tools, die es erlauben GPC-Software zu validieren, sind den Autoren nicht bekannt. Wenige Hersteller von GPC-Software unterstützen Anwender bei der umfassenden Software-Validierung und Verifizierung. Die meisten Hersteller von GPC-Softwareprodukten bieten keine standardisierten Validierungslösungen an, so dass der Anwender auf sich alleine gestellt ist. Neben diesen Tools sind natürlich umfassende Qualitätssicherungsmaßnahmen bei den Softwareherstellern nötig, die vor jeder Produkt-/RevisionsFreigabe zwingend durchzuführen und zu bewerten sind.

Tabelle 7.2 Grundlegende Anforderungen an GPC-Softwareanbieter für Anwender im regulierten Umfeld gemäß ICH, GMP, GAMP 4 und CFR Richtlinien. Allgemeines

Zertifizierungen, Referenzprojekte

Qualitätsmanagementsystem

QM-Handbuch, Verfahrensanweisungen, Audits, Überprüfung Zulieferer

System Development Life Cycle

Projektmanagement, Design-/Test-Phasen, Dokumentation

Konformität

ICH, GxP, GAMP 4, ISO 9000, CFR; Bildschirmarbeitsplatzverordnung, Usability-Tests nach ISO/DIN 9241-10; GPC-spezifische Normen

Dokumentation

Richtlinien, Aktualisierung, Testpläne, Freigaben, Validierungsverfahren

Konfigurations- und Fehlermanagement

Verfahrensanweisungen, Versionierung, Nachvollziehbarkeit, Risikobewertung bei Änderungen

Sicherheitsaspekte

Wiederherstellungsprozeduren, Sicherheitsmechanismen, Archivierung

Kundenunterstützung/ -reklamation

Installationsdienste, Supportpläne, Revisionsdienste, Eskalationsmanagement, kundenspezifischen Support

241

> 5 Punkte > 2/Dekade Residuen und Ableitung linear

Kalibration

Güte Kalibration

Basislinie

n/s nicht spezifiziert: in Norm ohne konkrete Anforderung erwähnt. n/a nicht anwendbar: in Norm nicht vorhanden.

s. Abschn. 7.2

> 9 bit

Auflösung Peakhöhe

I(M) Berechnung

> 60 Punkte

Datendichte

s. Abschn. 7.2

< 1% Imax

Signaldrift

MMD-Berechnung

> 1 : 100

Signal/Rausch-Verhältnis

s. Abschn. 7.2

±1 °C

Temperaturkonstanz

Molmassenberechnung

> 6,0

Trennleistung

separat

> 2,5

Resolution

RSD(Vp) < 0,3%

1,00 ± 0,15

Asymmetrie

Flusskorrektur

> 20000/m

Bodenzahl

Integrationsgrenzen

ISO 13 885-x

Anforderung

s. Abschn. 7.2

s. Abschn. 7.2

s. Abschn. 7.2

RSD(Vp) < 0,2%

separat

linear

s. Abschn. 7.2

s. Abschn. 7.2

s. Abschn. 7.2

RSD(Vp) < 0,3%

n/a

linear

n/a

s. Abschn. 7.2

s. Abschn. 7.2

s. Abschn. 7.2

RSD(Vp) < 0,3%

separat

linear

Residuen und Ableitung

> 5 Punkte > 2/Dekade n/a > 3/Dekade

n/a n/a n/a

> 9 bit

n/a

> 60 Punkte

< 1% Imax

> 1 : 100

±1 °C

> 6,0

> 2,5

1,00 ± 0,15

> 20000/m

DIN 55 672-x

n/a

> 40 Punkte

< 2% Imax

< 20% Imax n/a

< 1 : 50

< 3 °C

n/a

> 1,7

n/a

> 13100

ASTM D 5296-05

> 1 : 200

n/s

n/a

n/s

n/s

n/s

ISO 16 014-x

Tabelle 7.3 Zusammenstellung der Anforderungen von Normen an die GPC-Datenanalyse und GPC-Auswertung.

242

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse

Im regulierten Bereich sind von den Herstellern von GPC-Software daneben eine Vielzahl anderer Anforderungen zu erfüllen, die beim Einsatz im Kundenumfeld den korrekten Betrieb und die Risikobewertung durch den Kunden erlauben. Hier spielen die allgemein bekannten Richtlinien (ICH, GxP, GAMP 4, ISO 9000, 21 CFR Part 11) [4] ebenso eine Rolle wie Fragen der Bildschirmarbeitsplatzverordnung und Usability-Nachweise (ISO/DIN 9241-10). Darüber hinaus gibt es wichtige internationale und nationale GPC-spezifische Normen (ISO 13 885, ISO 16 014, ASTM D 5296-05, DIN 55 672 etc.), die Richtlinien zur Ergebnisberechnung, zur Datenqualität und zur Nachvollziehbarkeit beim Berichtswesen festschreiben. Tabelle 7.2 gibt einen Überblick über die wichtigsten Anforderungen der wesentlichen Normen. Umfangreiche aber auch sehr detaillierte Angaben zur korrekten Durchführung von GPC-Prüfungen beschreiben die Richtlinien bei der ISO 13 885 und der DIN 55 672-Serie. Andere Normen lassen etwas mehr Freiräume, die aber auch weitgehende Freiheiten in der Ergebnisbewertung ermöglichen.

7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse

Die Molmassenverteilung w(M), die heute fast ausschließlich aus GPC-Experimenten bestimmt wird, stellt die umfassende molekulare Information von Makromolekülen dar. Der GPC-Datenerfassungsprozess liefert hingegen als primäre Information (Rohdaten) apparente Konzentrationsverteilungen (Chromatogramm, c(V)), die Information aus dem Mess-System und der zu untersuchenden Probe enthalten. Aufgabe des GPC-Datenverarbeitungsprozesses ist es, die systemabhängigen Informationen (z. B. Flussrate, Eluent, Anzahl und Art der Trennsäulen, Art der Detektion) von den proben-spezifischen Eigenschaften zu separieren, als Molmassenverteilung w(M) darzustellen und daraus als Kenngrößen der Molmassenverteilung Eigenschaftsmittelwerte zu berechnen. Der Unterschied zwischen Molmassenverteilung und Chromatogramm lässt sich leicht verdeutlichen: wird die gleiche Probe in zwei Laboratorien auf unterschiedlichen Instrumenten mit unterschiedlich langen Säulen gemessen, so unterscheiden sich die beiden Chromatogramme (Rohinformation). Ohne Vorkenntnisse wird man nicht vermuten, dass sie die gleiche Probe repräsentieren. Die Molmassenverteilungen der Proben unterscheiden sich nicht, denn diese enthalten keine Informationen mehr über das Mess-System. Dadurch erlauben Molmassenverteilungen eindeutigere und unverfälschte Aussagen und bieten einen direkten Vergleich von Produkteigenschaftsprofilen. 7.4.1 Beschreibung eines allgemeinen Verifikationsverfahrens für GPC-Software

Zur Überprüfung der Anforderungen der GPC-Datenanalyseprozesse wird hier ein leistungsfähiges und einfaches Verfahren zur systemunabhängigen

243

244

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

Überprüfung von GPC-Software beschrieben, das von Kilz et al. [5] entwickelt wurde. Zur Validierung aller GPC-Prozesse werden Referenzdaten verwendet, die aus theoretischen Molmassenverteilungen unterschiedlicher Charakteristik (Flory-Schulz- und Wesslau-Verteilungen mit unterschiedlichen Molmassen, Polydispersitäten und verschiedenen Signal/Rausch-Verhältnissen) [6] stammen. Die Beweisführung erfolgt dabei dergestalt, dass keinerlei Voraussetzung an die eingesetzten Daten, deren Erzeugung und das chromatographische System gestellt werden. Nur dadurch kann wirkliche Systemunabhängigkeit erhalten und können Zirkelschlüsse bei der Validierung vermieden werden. Damit lassen sich ohne weitere Vorbedingungen x alle Softwarealgorithmen, x die kompletten Arbeitsabläufe innerhalb des Datenmanagements und x die Vor-Ort-Installation unabhängig überprüfen. Ein Hersteller von GPC-Software [7] bietet dieses Verfahren als Teil seines Makromolekularen Chromatographie-Datensystems (MCDS) an, das es jedem Anwender ermöglicht, die jederzeit korrekte Installation und die volle Funktionsfähigkeit des GPC-Datensystems an seinem Arbeitsplatz zu überprüfen und z. B. Auditoren zu demonstrieren. Ist die Validierung erfolgreich und es treten trotz allem Differenzen bei der Analyse auf, dann liegt der Schluss nahe, dass das Mess-System oder die chromatographischen Bedingungen nicht exakt eingestellt sind. In diesem Fall schließt sich dann eine Qualifizierung des GPC-Systems selbst an (operationale Qualifikation), die z. B. mit speziellen Validierkits (EasyValid GPC-Kit, PSS, Mainz) durchgeführt werden kann. Das Validierungsverfahren mit den theoretischen Referenzdaten besteht im Wesentlichen aus drei Stufen, die zum besseren Verständnis nachfolgend kurz beschrieben werden: 1. Schritt: Aus den theoretischen Molmassenverteilungskurven (mit daher bekanntem Mn, Mw und Mz, [K], I(M)) werden die zur Verarbeitung in der Software nötigen Rohdaten (Konzentration c(V), Viskositätssignal 'P(V), Lichtstreusignale IT(V ) und Molmassenkennlinie M(V )) anhand anerkannter Gleichungen aus der Literatur berechnet. 2. Schritt: Diese zertifizierten Rohdaten mit bekannten molekularen Parametern werden dann in das MCDS-Datensystem über die Datenakquise-Schnittstelle als Messdaten eingespielt und dem Datenverarbeitungsablauf, allen Software-eigenen Rechenvorschriften und der Datenpräsentation unterworfen. 3. Schritt. Die Ergebnisse aus der theoretischen Molmassenverteilung und die von der Software berechneten experimentellen Ergebnisse werden als Zahlenwerte und Verteilungskurven miteinander verglichen. Die Tests sind dann erfolgreich bestanden, wenn die vom MCDS berechneten Ergebnisse mit den Referenzwerten im Rahmen der Rechengenauigkeit von 0,5% übereinstimmen.

7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse

7.4.2 Überprüfung der Richtigkeit der Berechnung der Molmassenverteilung

Das Verfahren zur exakten Bestimmung der Molmassenverteilungen aus Chromatographie-Experimenten ist in Abschn. 7.2.1 mathematisch beschrieben. Hier soll gezeigt werden, wie sich korrekte und falsche Berechnung anschaulich unterscheiden und welche Auswirkungen eine unvollkommene Berechnung der Molmassenverteilung auf die Resultate hat. Wie erwähnt stellt jedes Chromatogramm eine apparente Konzentrationsverteilungskurve dar, bei dem die Molmassen zu größeren Retentionszeiten (Elutionsvolumina) abnehmen. Im ersten Schritt der Berechnung der Molmassenverteilung wird die Retentionsachse (x-Achse) mit einer Molmassen-Kalibration in eine Molmassenachse umgewandelt. Im zweiten Schritt wird die y-Achse in Massenanteile (in einem Molmassenintervall), w(lgM), umgerechnet [8]. Das ist nötig, da im Chromatogramm Signale nur in einem konstanten Zeitintervall aufgezeichnet werden, für die Molmassenverteilung aber die Konzentration in einem konstanten Molmassenintervall benötigt wird. Leider kann man bei von kommerziellen Datensystemen erzeugten „Molmassen-Diagrammen“ nicht sofort erkennen, ob es sich wirklich um Molmassenverteilungskurven handelt oder um Chromatogramme, bei denen nur die Retentionszeit in Molmassen umgewandelt wurde. Mit einem einfachen Experiment lässt sich das leicht selbst testen: Man injiziert eine Mischung von Polymerstandards mit gleicher Konzentration auf eine GPC-Säule (keine Linear- oder Mixed-Bed-Säule verwenden) und erstellt mit dieser Injektion eine nichtlineare Molmassen-Kalibration (vgl. Abb. 7.3). Dann wertet man diese Standardmischung aus und lässt sich die Molmassenverteilung anzeigen. Wenn sich die Peakhöhen und Peakbreiten nicht ändern, zeigt das Datensystem keine Molmassenverteilungen, sondern nur umskalierte Chromatogramme an (vgl. Abb. 7.4 a). Dann sind Vergleiche zwischen Laboratorien nur sehr schwer und mit sehr viel Aufwand möglich. Die Abb. 7.4(a) zeigt deutlich, dass sowohl die Peaklagen (Molmasse am Peakmaximum) als auch die Peakbreiten (Polydispersitäten) unrichtig sein können. Die naheliegende Frage ist jetzt natürlich: sind die Molmassenmittelwerte auch falsch? Das ist im Allgemeinen nicht der Fall. Die Molmassenmittelwerte werden bei den meisten CDS-Herstellern nicht direkt aus den Verteilungskurven berechnet, sondern aus den Summenformeln und sind daher von diesem Phänomen i. Allg. nicht betroffen. Tabelle 7.4 zeigt jedoch, dass Ergebnisse dennoch signifikant falsch sein können, wenn Teilergebnisse nicht Norm-konform berechnet werden müssen. Das betrifft im Wesentlichen die Auswertung bestimmter Chromatogramm-Bereiche. Solche Angaben werden oft zur Beurteilung der Verarbeitbarkeit oder der Einsatztauglichkeit von Produkten herangezogen. Von diesem Effekt sind viele Datensysteme betroffen, die nicht speziell für die GPCDatenanalyse entwickelt worden sind. Die dabei beobachtbaren Abweichungen können ganz erheblich sein. In allen Fällen in denen die Molmassenverteilung unrichtig berechnet wird, werden die Probenanteile unterhalb bzw. oberhalb einer Molmassengrenze falsche

245

246

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

Abb. 7.3 GPC-Chromatogramm (grün) einer Probenmischung mit überlagerter Kalibrierkurve (rot). Tabelle 7.4 Vergleich der Peakmolmasse und der Polydispersität bei korrekter und falscher Kalkulation der Molmassenverteilung in der GPC-Datenprozessierung mit Daten aus Abb. 7.4. Mp [kDa]

Probe

Mw/Mn

korrekt

falsch

Fehler [%]

korrekt

falsch

Fehler [%]

Peak 1

3685

4764

29,3

12,1

1,40

–88,4

Peak 2

319

352

10,3

1,13

1,22

8,0

Peak 3

21,5

15,5

27,9

1,41

1,38

–2,1

Peak 4

0,38

1,33

250,0

1,21

1,04

–14,0

Ergebnisse zeigen. Dies ist z. B. bei Produktanmeldungen wichtig, da die Toxizität von Makromolekülen unterhalb bestimmter Molmassen dramatisch ansteigt. Daher verlangen viele Zulassungsbehörden die Angabe von Produktanteilen kleiner 500 g/mol bzw. kleiner 1000 g/mol. Ebenfalls falsch berechnet werden die Molmassenwerte bei festgelegten Mengenanteilen einer Probe, wie sie in vielen pharmazeutischen Prüfvorschriften enthalten sind. Hier wird bestimmt, bei welchem Probenanteil welche Molmasse vorliegt (Angabe der integralen Verteilung). Wie groß Unterschiede bei korrekter und falscher Berechnung der Molmassenverteilung sein können, ist in Abb. 7.4(b) und Tabelle 7.5 zusammengestellt.

7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse

Abb. 7.4 Überlagerung einer echten mit einer aus einem HPLC-Datensystem falsch berechneten Molmassenverteilung: (a) differentielle Molmassenverteilung; (b) integrale Molmassenverteilung.

247

248

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen Tabelle 7.5 Vergleich wichtiger GPC-Kennzahlen bei korrekter und falscher Kalkulation der Molmassenverteilung in der GPC mit Daten aus Abb. 7.4. Eigenschaft

Korrekt

Falsch

Fehler

Masse < 500 Da

7,85%

0,00%



Masse > 10 000 kDa

5,88%

2,11%

64%

Molmasse bei 5%

0,37 kDa

1,31 kDa

254%

Molmasse bei 15%

12,8 kDa

9,87 kDa

23%

Molmasse bei 50%

304 kDa

331 kDa

9%

Molmasse bei 85%

3325 kDa

4510 kDa

36%

Molmasse bei 95%

12254 kDa

7520 kDa

39%

7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität auf Richtigkeit und Reproduzierbarkeit von GPC-Ergebnissen

Im Nachfolgenden wird anhand von theoretischen Molmassenverteilungen geprüft, wie GPC-Ergebnisse unter realistischen Bedingungen von der Theorie abweichen. Die Prüfungen werden exemplarisch anhand wichtiger GPC-Techniken dargestellt. Ferner wird der Einfluss der Signalgüte und Signalstabilität auf wichtige GPC-Kenngrößen untersucht. 7.5.1 Prüfung der GPC-Auswertung mit direkter Kalibration

In diesem Test wird der Einfluss der Datenprozessierung auf die Qualität von wichtigen GPC-Größen untersucht. Dazu wird wie in Abschn. 7.4.1 beschrieben die ausschließlich durch die Datenprozessierung verursachte Abweichung der Resultate von den theoretischen Kennzahlen dokumentiert. In diesem Abschnitt wird ein GPC-System geprüft, das mit einem RI-Detektor betrieben wird und mit konventioneller Kalibration mit engverteilten Polymer-Standards kalibriert wurde. Die nachfolgende Tabelle 7.6 zeigt die gute Übereinstimmung zwischen den theoretischen Vorgaben und den von einem speziell für GPC-Datenanalysen programmierten MCDS (Makromolekulares Chromatographie-Datensystem) berechneten Ergebnissen. Die minimalen Abweichungen sind auf die begrenzte Anzahl von Datenpunkten (insgesamt wurden 52 Wertepaare verwendet) zurückzuführen.

7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität Tabelle 7.6 Vergleich der Ergebnisse einer konventionellen GPC-Analyse mit einem Konzentrationsdetektor zwischen den Referenzangaben aus einer Schulz-Flory-Verteilung und den von einem MCDS berechneten Ergebnissen. Referenz

Berechnet

Fehler [%]

Mn [Da]

150 000

150 300

0,200

Mw [Da]

300 000

300 070

0,023

Mz [Da]

450 000

450 010

0,002

2,000

1,997

0,150

Mv [Da]

280 869

280 230

0,228

[K] [ml/g]

105,68

105,69

0,009

c [g/l]

4,343

4,343

0,000

D

7.5.2 Überprüfung der Ergebnisgenauigkeit einer GPC-Viskositätskopplung

Analog zu Abschn. 7.5.1 wird hier die Qualität von GPC-Ergebnissen untersucht. Das GPC-Instrument besteht in diesem Fall aus einem online Viskosimeter und einem RI als Konzentrationsdetektor. Bei einer Viskositätskopplung werden die Molmassen aus einer universellen Kalibration (lg[K] · M gegen V) aus den direkt gemessenen Viskositäten der eluierten Fraktionen berechnet. Dazu werden Messdaten aus einer bekannten Schulz-Flory-Polystyrol-Verteilung berechnet und mit den Ergebnissen der Viskositäts-Auswertung aus einem MCDS mit einer universellen Kalibrierkurve verglichen, die mit engen Polymethylmethacrylat (PMMA)-Standards erstellt wurde. Die nachfolgende Tabelle 7.7 verdeutlicht auch hier die gute Übereinstimmung zwischen Theorie und der von einem MCDS berechneten Resultaten. Die minimalen Abweichungen (< 1%) der ermittelten von den theoretischen Daten sind Tabelle 7.7 Ergebnissgenauigkeit einer GPC-Analyse mit Viskositätsdetektion im Vergleich zu einer Schulz-Flory-Verteilung. Referenz

Berechnet

Fehler [%]

Mn [Da]

150 000

150 110

0,073

Mw [Da]

300 000

298 230

0,590

Mz [Da]

450 000

447 220

0,618

2,000

1,987

0,650

Mv [Da]

278 997

275 510

0,175

[K] [ml/g]

105,68

105,69

0,001

K [ml/g]

0,514

D

0,01363

0,0137

a

0,714

0,714

0,000

Konzentration [g/l]

4,343

4,343

0,000

249

250

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

auf die begrenzte Anzahl von Datenpunkten und numerische Rundungsfehler bei der Anwendung transzendenter Funktionen bei der Datenprozessierung zurückzuführen. 7.5.3 Einfluss des Detektor-Rauschens auf die Genauigkeit von GPC-Ergebnissen

Bei dem oben angewendeten Validierverfahren könnte man als Praktiker leicht einwenden, dass Computerberechnungen mit theoretischen Daten eine ganze Reihe von möglichen Softwareproblemen unberücksichtigt lassen, die z. B. durch das im Laboralltag vorhandene Signalrauschen zustande kommen. In realen Experimenten sind die Rohdaten immer mehr oder weniger verrauscht. Auch in solchen Situationen dürfen die Berechnungsalgorithmen der GPC-Software dann nicht versagen. Mit gezielten Störungen der Datenqualität kann die Robustheit der GPC-Datenverarbeitungsprozesse von GPC-Datensystemen getestet werden. Zur Simulation eines „worst case“ werden hier deshalb alle theoretisch berechneten Messdaten individuell mit 5% statistischem Rauschen versehen und der Einfluss auf alle oben beschriebenen Berechnungsmethoden überprüft (Abb. 7.5). 5% statistisches Rauschen entsprechen einem Signal/Rausch-Verhältnis von 20 : 1; im Laborexperiment werden üblicherweise S/N-Werte > 100 problemlos erreicht. Das untersuchte Szenario stellt damit einen Extremfall der Laborpraxis dar, der es erlaubt die Robustheit der GPC-Algorithmen unter schwierigen Bedingungen zu testen. Die in der Tabelle 7.8 zusammengefassten Ergebnisse wurden ohne jede Glättungs-, FFT- und Despike-Funktionen erhalten.

Abb. 7.5 LALLS, RALLS, Viskosität und RI-Rohdaten mit dargestellten Basislinien. Alle Signale wurden zur Prüfung der Robustheit der GPC-Algorithmen mit 5% statistischem Rauschen versehen (S/N: 20 : 1).

7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität Tabelle 7.8 Einfluss eines statistischen Signalrauschens (5% des Signalmaximums) auf unterschiedliche GPC-Molmassenbestimmungsmethoden basierend auf einer Schulz-Flory-Verteilung. Referenz

Konventionell

Viskosität

Lichtstreuung

TripleDetektion

Mn [Da]

150 000

131 630

150 200

169 120

151 040

Mw [Da]

300 000

303 310

306 260

299 670

294 420

Mz [Da]

450 000

477 670

478 210

427 110

415 290

2,000

2,304

2,039

1,772

1,949

Mv [Da]

280 869

282 240

285 670

284 030

276 170

[K] [ml/g]

105,68

106,79

106,86

105,90

104,59

K [ml/g]

0,01295

D

0,01363

n/a

0,01457

n/a

a

0,714

n/a

0,708

n/a

0,719

Konzentration [g/l]

4,343

4,327

4,276

4,284

4,296

Durch das sehr schlechte Signal/Rausch-Verhältnis sind in Tabelle 7.8 sehr schön die möglichen Abweichungen verschiedener Berechnungsverfahren im Vergleich zu sehen. Generell lässt sich feststellen, dass die durch das Rauschen verursachten Abweichungen umso größer werden, je mehr Detektorsignale zur Auswertung miteinander verknüpft werden müssen. Bei der konventionellen GPC-Auswertung wird durch die Rauschanteile erwartungsgemäß das Zahlenmittel, Mn, zu klein und das z-Mittel, Mz, zu groß bestimmt (ca. 10%). Etwas größere Abweichungen sind bei der universellen Kalibrierung festzustellen (K und a sind für das starke Rauschen noch erstaunlich nahe an der Realität). Besonders große Diskrepanzen zeigt die Lichtstreuung: hier wird das Zahlenmittel, Mn, deutlich über-, die Polydispersität, D, deutlich unterschätzt, da die Lichtstreuung bei niedrigeren Molmassen systembedingt kaum noch ein vernünftig auswertbares Mess-Signal liefert. Eine deutliche Verbesserung der Ergebnisse kann erzielt werden, wenn im Elugramm die Integrationsgrenzen so verändert werden, dass nur Daten mit einem Signal/Rausch-Verhältnis größer drei zur Berechnung herangezogen werden. In unserem Beispiel liegen diese Werte bei 10,0 und 17,0 ml. Dies entspricht einer Verkleinerung der berechneten injizierten Masse um genau 1%. Bei so stark verrauschten Chromatogrammen muss der Wahl der Basislinie besondere Beachtung geschenkt werden. Die freie Wahl der Basislinienabschnitte über große Zeiträume und die davon völlig unabhängige Festlegung der Integrationsgrenzen ist für solche Fälle besonders wichtig und wird von GPC-Normen gefordert [8]. Mit diesem Verfahren können gute Molmassenmittelwerte bestimmt werden; auch die so gemessenen intrinsischen Viskositäten und Mark-Houwink-Koeffizienten liegen dann sehr nahe an den wirklichen Werten. Betrachtet man die verschiedenen Auswertemethoden mit molmassensensitiven Detektoren, so fällt auf, dass die Lichtstreuung im Vergleich zur online Viskosimetrie zu große Zahlenmittelwerte, Mn, und zu kleine z-Mittelwerte, Mz, liefert.

251

252

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

7.5.4 Einfluss der Detektordrift auf die Genauigkeit von GPC-Ergebnissen

Der Einfluss driftender Detektorsignale ist wegen der Vielfalt der verschiedenen Drift-Charakteristiken in diesem Beitrag nicht umfassend zu beschreiben. Wenn eine konstante Signaldrift vorliegt, kann dies mit einem guten CDS korrigiert werden, wenn dort die Dateninterpolation korrekt ausgeführt wird [8]. Da dies nicht immer sichergestellt und die Art der Interpolation i. d. R. vom Hersteller nicht gut dokumentiert wird, sollen hier die maximalen Fehler bei einer linearen Detektordrift beschrieben werden. Tabelle 7.9 Einfluss einer konstanten Signaldrift (x% vom Signalmaximum) auf wichtige Ergebnisgrößen in der GPC-Datenanalyse am Beispiel eines zertifizierten Referenzmaterials (CRM-Quelle: PSS BAM P005). CRM-Referenz

1% Drift

5% Drift

10% Drift

Mn [Da]

115 000

98 700

72 500

57 100

Mw [Da]

330 000

329 000

328 000

327 000

Mz [Da]

612 000

622 000

662 000

691 000

2,88

3,34

4,53

5,72

Mv [Da]

299 000

298 000

295 000

291 000

[K] [ml/g]

110,44

110,06

109,29

108,27

D

Abb. 7.6 Einfluss des Driftverhaltens von Detektoren auf wichtige Ergebnisgrößen in der GPC-Datenanalyse basierend auf identischen Rohdaten eines zertifizierten Referenzmaterials (CRM-Quelle: PSS BAM P005). Molmassen sind auf der linken, die intrinsische Viskosität auf der rechten Ordinate dargestellt.

7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität

Das hier untersuchte Driftverhalten entspricht den in der Praxis am häufigsten vorliegenden Fällen: das Signal driftet ab Injektionszeitpunkt linear mit der Elution. Der Driftanteil wird relativ zum maximalen Signalwert des Peaks (korrigiert um den korrekt interpolierten Basislinienwert) beschrieben: wenn ein Signal eine 1%ige Drift aufweist, dann liegt der letzte Messpunkt um 1% des PeakmaximumWertes über der nicht driftenden Basislinie. Tabelle 7.9 zeigt die Ergebnisse des Drifteinflusses auf wichtige GPC-Kenngrößen anhand eines zertifizierten Referenzmaterials (Quelle: PSS, Mainz). Dabei wird deutlich, dass zentrale Momente der Molmassenverteilung (Mw und hier Mv) nur wenig von der Signaldrift beeinflusst werden, nicht-zentrale Größen (Mn und Mz) dagegen sehr stark (vgl. Abschn. 7.2.1). Dieses Verhalten zeigt sich auch in Abb. 7.6 in graphischer Darstellung. 7.5.5 Einfluss der Datendichte auf die Genauigkeit von GPC-Ergebnissen

Anders als bei vielen anderen analytischen Methoden ist bei der GPC-Auswertung der Einfluss der Datendichte (Anzahl der Messpunkte) auf die GPC-relevanten Mittelwerte nicht sehr ausgeprägt und macht sich erst bei sehr kleinen Datendichten signifikant bemerkbar. Die Ursache dafür ist in der Mittelwertbildung zu finden, die aus den Ergebnisdetails der Eigenschaftsverteilung Eigenschaftsmittelwerte (z. B. mittlere Molmassen) durch Integration bestimmt. Tabelle 7.10 zeigt den Einfluss der Verringerung der Messdatenanzahl anhand einer breitverteilten CRM-Probe (PSS BAM P005) um den Faktor 64. Signifikante Abweichungen treten erst bei weniger als 50 Datenpunkten auf. Dies zeigt Abb. 7.7 zusammenhängend für verschiedene GPC-relevante Größen. Da im untersuchten Fall die Probe eine große Halbwertsbreite besitzt, wirkt sich eine Reduktion der Datendichte natürlich später aus als bei engverteilten Polymerstandards oder Realproben mit kleinen Halbwertsbreiten. Tabelle 7.10 Einfluss der Messdatendichte auf die Genauigkeit von Molmassenmittelwerten und Polydispersitätinder GPC am Beispiel eines zertifizierten Referenzmaterials (CRM-Quelle: PSS BAM P005). 1024 Punkte

128 Punkte

64 Punkte

32 Punkte

16 Punkte

Mn [Da]

121 000

120 000

118 000

110 000

106 000

Mw [Da]

330 000

330 000

330 000

330 000

332 000

Mz [Da]

616 000

617 000

621 000

624 000

630 000

2,72

2,75

2,81

2,99

3,15

299 000

299 000

299 000

299 000

300 000

110,4

110,4

110,4

110,4

110,8

D Mv [Da] [K] [ml/g] %-Anteil < 10 kDa

0,57

0,57

0,58

0,59

0,74

%-Anteil > 1000 kDa

3,27

3,29

3,31

3,61

4,57

253

254

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

Abb. 7.7 Einfluss der Anzahl der Messpunkte (Messdatendichte) auf die Genauigkeit von Molmassenmittelwerten und Polydispersität Mw/Mn in der GPC am Beispiel eines zertifizierten Referenzmaterials (CRM-Quelle: PSS BAM P005). Molmassen sind auf der linken, die Polydispersität auf der rechten Ordinate dargestellt.

7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten

Neben Parametern, die aus Detektoreinflüssen und Datenakquisition resultieren, spielen speziell in der GPC noch andere Einflussgrößen eine Rolle. Wie bereits in Tabelle 7.1 zusammengefasst, werden Ergebnisse bei der GPC basierend auf der absoluten Peakposition ermittelt. Alle Größen, die Einfluss auf die Lage der Peakposition haben, haben somit auch Einfluss auf die Ergebnisse. An erster Stelle bei den Einflussgrößen sind hier Fluss-Schwankungen verursacht durch die Pumpe zu nennen. Eine Korrektur der Flussrate ist bei einer gleichmäßig fördernden Pumpe möglich. Ändert sich die Flussrate kontinuierlich oder sprunghaft während der Messung, so kann dies nicht korrigiert werden. Eine Veränderung der Peaklage kann weiterhin durch Überladung der Trennsäulen durch eine zu hoch gewählte injizierte Masse hervorgerufen werden. Die optimale injizierte Probenmenge hängt von der Molmasse der Probe sowie der Polydispersität ab. Für Proben mit enger Molekulargewichtsverteilung (Molmassenstandards) ist die Gefahr der zu hoch gewählten injizierten Masse höher als für Proben mit einer breiten Molekulargewichtsverteilung. Hinweise zur richtigen Konzentration und zum richtigen Injektvolumen sind unter anderem in der DIN 55 672 zu finden [8]. Einfluss auf die Verlässlichkeit und Richtigkeit haben auch die Kalibrierdaten und weitere Auswerteparameter. Hierbei muss in einem ersten Schritt unterschieden werden zwischen GPC-Analysen mit direkter Kalibration und GPCAnalysen mit online Kalibration durch Lichtstreudetektion. Bei der GPC mit

7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten

direkter Kalibration erfolgt die Kalibration der Retentionsvolumenachse durch Messen des Elutionsvolumens von Molmassenstandards. Verwendet werden hier RI (Brechungsindex)-, UV-, ELS (Verdampfungslichtstreu)- und Viskositätsdetektoren (bzw. Kombinationen davon). Bei der GPC mit Lichtstreudetektion hingegen wird die Molmassenzugehörigkeit der Retentionsvolumenachse direkt mit der Probe gemessen. Verwendet werden hier RI- oder UV- und Lichtstreudetekoren (bzw. Kombinationen davon). Beide Verfahren unterscheiden sich in ihren Ansprüchen an präzise experimentelle Bedingungen und die Ergebnisse unterliegen anderen Einflussgrößen, wie in den nachfolgenden Abschnitten umfassender dargestellt wird. 7.6.1 Einflussgrößen für GPC mit direkter Kalibration 7.6.1.1

Einfluss der Kalibration

Wie bei allen Verfahren, deren Ergebnisse auf einer Kalibration basieren, kommt der verwendeten Kalibration für die Verlässlichkeit und Richtigkeit der Ergebnisse eine große Bedeutung zu. In der GPC stehen unterschiedliche Kalibrationsverfahren zur Verfügung (vgl. Tabelle 7.11). Tabelle 7.11 Übersicht über GPC Kalibrationsverfahren unter Verwendung von Referenzstandards. Verfahren

Vorteile

Nachteile

Kalibration mit engverteilten Molmassenstandards

x Einfaches Verfahren x Präzises Verfahren, wenn chemisch und strukturell gleiche Standards und Proben verwendet werden

x Nicht alle Monomere lassen sich engverteilt polymerisieren x Kalibration ist nur gültig für chemisch und strukturell gleiche Substanzen

Breite Kalibration

x Einfaches und präzises Verfahren

x Nur wenige Standards kommerziell erhältlich x Kalibration ist nur gültig für chemisch und strukturell gleiche Substanzen

Integrale Kalibration

x Einfaches und präzises Verfahren

x Nur wenige Standards kommerziell erhältlich x Kalibration ist nur gültig für chemisch und strukturell gleiche Substanzen

Universelle Kalibration – Kalibration mit engverteilten Molmassenstandards mit zusätzlicher Viskositätsdetektion

x Einfaches und präzises Verfahren x Eine Kalibrierkurve, gültig für alle Substanzen

x Höherer experimenteller Aufwand x Zusätzliche Fehlerquellen aus Konzentrationsabhängigkeit, Bandenverbreiterung und Versatzbestimmung

255

256

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

Das am häufigsten eingesetzte Verfahren ist die Kalibration mit engverteilten Molmassenstandards. Sind Molmassenstandards und zu untersuchende Substanz chemisch oder strukturell unterschiedlich, dann werden Molmassen bezogen auf die Kalibriersubstanz (apparente/scheinbare Molmassen) erhalten. Die Abweichung zur korrekten Molmasse und Molmassenverteilung kann leicht von 10–20% bis zu mehreren 100% betragen. Da die Ergebnisse untereinander aber sehr gut vergleichbar sind, wird dieses Verfahren häufig in der Qualitäts- und Einganskontrolle eingesetzt. Weiterhin kommt das Verfahren dann zum Einsatz, wenn die exakte Bestimmung der Molmasse nicht unbedingt notwendig ist. Die Anzahl der zu verwendenden Kalibrationsstandards hängt vom zu kalibrierenden Molmassenbereich ab. Pro Molmassendekade sollten aber mindestens drei Molmassenstandards verwendet werden [8]. Nachdem die Retentionsvolumina gemessen und eingetragen wurden, muss eine Fitfunktion gewählt werden, die den Verlauf der Kalibrationspunkte möglichst korrekt beschreibt. GPC-Kalibrationskurven sind, auch wenn Linear- oder Mixed-Bed-Säulen verwendet werden, nicht in allen Molmassenbereichen linear, sondern zeigen einen sigmoidalen Verlauf. Die am häufigsten verwendeten Fitfunktionen sind daher Polynome unterschiedlicher Ordnung oder Spezialfunktionen unterschiedlicher Ordnung basierend auf Polynomen (PSS-Fitfunktionen). Die optimale Fitfunktion für die verwendete Säule oder Säulenkombination muss vom Anwender selbst bestimmt werden. Um die Güte der gewählten Fitfunktion beurteilen zu können, stehen drei verschiedene Kriterien zur Verfügung: x Regressionskoeffizient (Bestimmtheitsmaß) R2, x Abweichung der Kalibrierpunkte von der Kalibrationskurve (bzw. mittlere Abweichung), x Verlauf der Steigung der Kalibrationskurve. Tabelle 7.12 zeigt die Regressionskoeffizienten für identische Messdaten (Abb. 7.8 und 7.9) mit verschiedenen Fitfunktionen sowie die mittlere Abweichung der Datenpunkte. Die mittlere Abweichung, bzw. die Abweichung eines Kalibrierpunkts, ist korreliert mit allen Fehlern, die bei der Charakterisierung, Analyse und Auswertung der Kalibriersubstanzen auftreten können (z. B. Elutionsvolumen, Referenzmolmasse). Wie Tabelle 7.12 zeigt, ist der Regressionskoeffizient ein wenig geeigneter Parameter, um die Güte der gewählten Fitfunktion zu beschreiben. Auch für Regressionskoeffizienten nahe eins erhält man noch große mittlere Abweichungen und damit Fehler in der Molmassenbestimmung. Steht in der Datenanalyse-Software nur der Regressionskoeffizient als Kriterium zur Beurteilung der Fitfunktion zur Verfügung, sollte dieser bei Freiheitsgraden von mindestens sieben größer als 0,999 sein, um möglichst fehlerfreie GPC-Ergebnisse zu erhalten. Der Regressionskoeffizient und die mittlere Abweichung der Kalibrierpunkte werden mit zunehmender Ordnung des Polynoms besser. Trotzdem können nicht Polynome beliebig hoher Ordnung für die Anpassung der Kalibrierpunkte verwendet werden. Die Kalibrierkurve muss neben einer guten Anpassung auch

7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten Tabelle 7.12 Einfluss der Wahl der Kalibrier-Fitfunktion auf den Regressionskoeffizienten. R2

Mittlere Abweichung

Linear (quadratisch)

0,9925

30,20%

Polynom 3 (kubisch)

0,9986

10,44%

Polynom 5

0,9995

7,35%

0,9999

3,57%

0,9998

4,92%

Anpassung

Polynom 7

a)

PSS Polynom 7 a)

Ableitung der Kalibrierkurve ist nicht mehr stetig, diese Funktion kann nicht verwendet werden.

einen physikalisch sinnvollen Verlauf aufweisen. Die Beurteilung dieses Kriteriums erfolgt am einfachsten durch die Kontrolle der Steigung der Kalibrierkurve (erste Ableitung). Die Abb. 7.8 zeigt einen idealen Verlauf der ersten Ableitung der Kalibrierkurve. Die Steigung ändert sich nur zur Trennschwelle und zur Ausschlussgrenze hin und ist im optimalen Trennbereich der Säule konstant. Wird ein Polynom siebenter Ordnung gewählt (Abb. 7.9), ändert sich die Steigung der Kalibrierkurve und in der Ableitung zeigen sich Maxima und Minima, die keine physikalische Grundlage haben.

Abb. 7.8 GPC-Kalibrationskurve mit physikalisch sinnvoller Ableitung. Der optimale Trennbereich der Säule ist erkennbar an der flachen Steigung. Besonders zur Trennschwelle und zum Ausschlussvolumen hin nimmt die Steigung der Kalibrationskurve zu.

257

258

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

Abb. 7.9 Kalibrationskurve mit einem Polynom 7. Ordnung. In diesem Fall ist die Ordnung der Kalibrationskurve zu hoch gewählt. Die Ableitung der Kalibrationskurve zeigt physikalisch unsinnige Maxima und Minima.

Den Einfluss der gewählten Fitfunktion auf die Molmassenergebnisse zeigt Tabelle 7.13. Hier sind gegenübergestellt eine konventionelle kubische Anpassung (Polynom dritter Ordnung) und ein Spezialfitfunktion basierend auf einer polynomischen Anpassung bei Verwendung identischer Rohdaten und Kalibrierpunkte. Tabelle 7.13 Einfluss der verwendeten Kalibrierfunktion auf die Genauigkeit von Molmassen am Beispiel der PSS-Kalibrierfunktion und eines Polynom 3. Grades. Polystyrol Standard

Ergebnisse berechnet mit PSS-Kalibrierfunktion

Ergebnisse berechnet mit Polynom 3. Ordnung

Referenz Mw

Mw

Mw/Mn

'Mw

Mw

Mw/Mn

'Mw

985 000

1 006 000

1,05

+2%

1 507 000

1,06

+53%

325 000

316 000

1,02

–3%

393 000

1,04

+21%

98 000

96 300

1,05

–2%

84 500

1,07

–16%

34 000

31 500

1,05

+3%

26 400

1,05

–29%

10 000

9 830

1,09

–2%

7 800

1,06

–28%

8 100

8 080

1,08

0%

6,650

1,04

–22%

7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten

Die sog. PSS-Fitfunktion (Spezialfitfunktion) wurde speziell für den sigmoidalen Verlauf von GPC-Kalibrationskurven entwickelt und beschreibt die Wendepunkte und die Unstetigkeitsstellen (Ausschlussgrenze und Trennschwelle) besonders gut. Dadurch können größere Molmassenbereiche der Trennsäulen kalibriert und genutzt werden, was Analysenzeit und Kosten spart, da weniger Säulen gekauft und eingesetzt werden müssen. 7.6.1.2

Einfluss der Geräteeigenschaften (Geräteperformance)

Neben der Kalibration spielen auch die Reproduzierbarkeit der Analysenbedingungen und ihr Bezug zur Kalibration eine große Rolle. Obwohl kommerziell erhältliche HPLC-Geräte sehr gute Reproduzierbarkeiten erzielen, stellt die Gelpermeationschromatographie besondere Anforderungen an Messwerterfassung und -verarbeitung. Wie bereits in Tabelle 7.1 zusammengefasst, werden Ergebnisse bei der GPC basierend auf der absoluten Peakposition ermittelt. Alle Größen, die Einfluss auf die Lage der Peakposition haben, haben somit auch Einfluss auf die Ergebnisse. An erster Stelle bei den Einflussgrößen sind hier Fluss-Schwankungen verursacht durch die Pumpe zu nennen. Für reproduzierbare und genaue Ergebnisse ist es von eminenter Wichtigkeit, dass die Flussrate bei der Erstellung der Kalibration und bei der Messung der Proben gleich ist. Tabelle 7.14 zeigt den Einfluss von unterschiedlichen Flussraten auf die Ergebnisse bei der GPC. Die in Tabelle 7.14 angegebenen Werte hängen von der verwendeten Säulenkombination und der Lage des Peaks in der Kalibrierkurve ab. Bei Linear- oder Mixed-Bed-Säulen oder Säulen mit größerer Partikelgröße (> 10 μm) muss bei gleicher Säulenlänge mit noch größeren Abweichungen gerechnet werden. Moderne HPLC (GPC)-Pumpen arbeiten in ordnungsgemäßem Zustand sehr genau und mit guter Flusskonstanz, so dass nur geringe Abweichungen auftreten. Trotzdem hat es sich in der Praxis bewährt, mit einem zugesetzten niedermolekularen internen Flussmarker zu arbeiten (s. Abb. 7.10). Mit Hilfe dieses internen Standards kann auf die bei der Kalibration vorliegende Flussrate korrigiert werden. Die erhaltenen Ergebnisse sind dadurch genauer und reproduzierbarer und Abweichungen, wie in Tabelle 7.14 beschrieben, können korrigiert werden. Tabelle 7.14 Einfluss unterschiedlicher effektiver Flussraten auf die Genauigkeit der Molmassen-Ergebnisse bei der GPC. Abweichung von Soll-Flussrate [%]

Gemessene Molmasse Mw [Da]

Mw Differenz [%]

2,1

46 500

36,8

1,31

41 900

23,2

0,61

37 500

10,3

0

34 000

0

–0,8

29 800

–12,4

–1,5 –2,2

26 400 23 300

–22,4 –31,5

259

260

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

Nicht korrigiert werden können sprunghafte oder kontinuierlich Änderungen der Flussrate während der Messung. 7.6.1.3

Einfluss der Auswerteparameter

Einfluss der Probenkonzentration

Für die Auswertung von GPC-Messungen mit RI-, UV- oder ELS-Detektion spielt die genaue Kenntnis der Probenkonzentration (bzw. der eluierten Masse) keine Rolle. Die Konzentration der Probe geht nicht in die Formeln zur Molmassenbestimmung ein. Werden Viskositätsdetektoren oder Lichtstreudetektoren (s. u.) verwendet, spielt die wirkliche Konzentration der Probe eine Rolle. Tabelle 7.15 zeigt den Molmassenfehler, der dann durch eine falsche Konzentration auftreten kann. Tabelle 7.15 Bestimmungsfehler für Molmassen verursacht durch falsche Probenkonzentration bei GPC Analysen mit Viskositätsdetektion. Variation

Mw [Da]

Fehler [%]

Mn [Da]

Fehler [%]

[¸]

Fehler [%]

D

Fehler [%]

Referenzwert



384 000



115 800



42,01



0,545



Konzentration

–5%

364 800 –5,21 110 000 –5,00

44,22

–5,26

0,545

0

Detektorversatz

–5%

385 900

41,96a)

–0,12

0,526

–3,49

a)

0,49

112 700 –2,68

Der Versatz wurde für das Viskosimeter geändert, damit die Kalibrierkurve ihre Gültigkeit behält, [K] ändert sich da die Integrationsgrenzen belassen wurden und dadurch ein kleiner Teil der Probe nicht mehr berücksichtigt wird.

Auch die Volumendifferenz (Versatz) zwischen konzentrationssensitivem Detektor und molmassensensitivem Detektor spielt für die Genauigkeit der Ergebnisse eine große Rolle. Denn bei falschem Versatz wird dem molmassensensitiven Signal der Konzentrationswert einer Fraktion zugeordnet, die nicht zu dem Signal des Viskositäts- oder Lichtstreudetektors gehört. Wahl der Basislinie

Häufig stellt sich in der Praxis das Problem, dass der Polymerpeak für einzelne Detektoren nicht mehr auf die ursprüngliche Grundlinie zurückgeht. Für diese schwierigen Auswertungen ist in der GPC ein zweistufiges Auswerteverfahren nötig: Zuerst wird die Basislinie korrekt abgezogen, danach wird der zu integrierende Bereich definiert. Für diesen wird die Molmassenverteilung ermittelt. Ohne dieses zweistufige Verfahren kann die Polymerprobe nicht vollständig ausgewertet werden und die erhaltenen Ergebnisse sind falsch und schlecht reproduzierbar. Die Abb. 7.10 zeigt dieses Verfahren beispielhaft an einem zertifizierten Referenzmaterial (CRM-Quelle: PSS, Mainz), wobei die senkrechten Linien in Abb. 7.10 (oben) die Integrationsgrenzen repräsentieren. Die Abb. 7.10 zeigt weiterhin die korrekte (grüne Linie) und die falsche (rote Linie) Wahl der Basislinie.

7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten

Abb. 7.10 Einfluss der Basislinie auf die Molmassenverteilung und die Molmassenmittelwerte. Hier werden die Ergebnisse eines einstufigen und zweistufigen Verfahrens mit separater Wahl der Integrationsgrenzen verglichen.

Sind Basisliniengrenzen und Integrationsgrenzen nicht unabhängig voneinander wählbar, wird ein Teil der Probe (rot markierter Bereich) nicht mit ausgewertet. In der erhaltenen Molmassenverteilung zeigen sich die Unterschiede graphisch und numerisch ganz deutlich (Abb. 7.10, unten).

261

262

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

7.6.2 Einflussgrößen für GPC mit Lichtstreudetektion

In der GPC werden verschiedene Arten von Lichtstreudetektoren verwendet, die sich hauptsächlich in der Anzahl der Winkel und der Anordnung der Winkel im Detektor unterscheiden. Tabelle 7.16 gibt einen Überblick über die verwendeten Verfahren und die Vorteile und Nachteile der einzelnen Methoden. Online Lichstreudetektoren haben in der GPC den Vorteil, dass mit der Messung der Proben das Molekulargewicht bei jedem Elutionsvolumen direkt gemessen werden kann, wenn verschiedene Auswerteparameter bekannt sind. Unabhängig vom verwendeten Lichtstreudetektortyp sind die Auswerteparameter, die für die Auswertung benötigt werden:

Tabelle 7.16 Überblick über die gebräuchlichen Lichtstreudetektionsverfahren in der GPC-Analyse und die Vorteile und Nachteile der einzelnen Methoden. Typ

Verfahren

Anwendung

Einschränkungen

Voraussetzungen

LALLS Kleinwinkelgeräte

MolmassenMessung ohne Extrapolation

x MWD x Hochmolekulare Proben

x Oft „Spikes“ x Wartungsintensiv x Keine RgMessung

x Sehr sauberes System (ohne Partikel, Staub)

RALLS 90/Einwinkelgeräte

MolmassenMessung ohne Winkelkorrektur

x Nur MWD von niedermolekularen Proben x Vergleichende Analysen

x Keine Winkelkorrektur x Rg nur in Verbindung mit Viskosimetern

x M < 200 00 Da x Probeneigenschaft bekannt

TALLS Zwei-/DreiWinkelgeräte

MolmassenMessung mit 2(3)-PunktExtrapolation

x MWD x Hoch- und niedermolekulare Proben

x „Spikes“ x Knäuelstatistik bei kleinen sollte bekannt Winkeln sein x Eingeschränkte Winkelkorrektur x Rg ungenau

MALLS Mehrwinkelgeräte

Molmassen- und TrägheitsradienMessung mit VielwinkelExtrapolation

x x x x

Exakte MWD Verlässliche Rg Verzweigungen Strukturmerkmale

7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten

x Brechungsindexinkrement (dn/dc), x Konzentration im Streifen (aus der injizierten Masse oder aus der Kalibration des Konzentrationsdetektors), x Versatz zwischen Lichtstreudetektor und Konzentrationsdetektor (RI, UV), x Brechungsindex des Lösungsmittels (n (Eluent)), x Detektorkonstante des Lichtstreudetektors, x Normalisierungsfaktoren der einzelnen Winkelpositionen bei MALLS-Detektoren (N(q)). Einfluss der Geräte-Kalibration

Obwohl die Lichtstreuung eine Absolutbestimmungsmethode darstellt, müssen alle Lichtstreudetektoren kalibriert werden. Dies kann mit verschiedenen Methoden durchgeführt werden. Bei dieser Kalibration bezieht man sich auf die absolute Streuintensität einer Referenzprobe, die der Lichtstreu-Literatur zu entnehmen ist. Leider gibt es schon bei diesen Literaturwerten Unterschiede von ca. 10%, die sich proportional im Messergebnis niederschlagen. Hinzu kommt noch der Bestimmungsfehler der Detektorkonstante, die sich ebenfalls proportional im GPC-Resultat widerspiegelt. Wenn also zwei Labore ihre absoluten LichtstreuMolmassen vergleichen, ist es problemlos möglich, dass sich die Ergebnisse um 20% unterscheiden, weil sie (a) unterschiedliche Streuintensitäten der Referenzprobe (10%) und (b) einen 10%igen Fehler in der Kalibration des eigenen Lichtstreugeräts haben. Einfluss der Geräteperformance

Da bei der GPC-Lichtstreumessung die Kalibration online gemessen wird, findet man hier keinen Einfluss aus einer veränderten Flussrate. Trotzdem gelten auch hier die generellen Anforderungen an die Geräteperformance. Ändert sich die Flussrate kontinuierlich oder sprunghaft während der Messung, so kann man auch bei GPC-Lichtstreumessungen falsche Ergebnisse erhalten. Im Gegensatz zu GPC-Messungen mit Konzentrationsdetektoren (RI, UV, ELSD) spielt bei GPC-Lichtstreumessungen die Reproduzierbarkeit bei der Injektion eine Rolle. Der Einfluss eines nicht reproduzierbar arbeitenden Injektors ist vergleichbar mit dem Fehler, der durch eine falsche Probenkonzentration auftritt (siehe Einfluss der Auswerteparameter). Einfluss der Auswerteparameter

Um den Einfluss der Auswerteparameter auf die Ergebnisse abschätzen zu können, wurden Validierdaten mit bekannten Molmassenmittelwerten verwendet [5]. Statt korrekter Auswerteparameter wurden abweichende Werte zur Auswertung verwendet. Tabelle 7.17 zeigt den Fehler in der Bestimmung der Molmassenmittelwerte durch fehlerhafte Auswerteparameter. Den größten Einfluss auf die ermittelten Molmassen haben das Brechungsindexinkrement (dn/dc) und die Konzentration der Probe. Die Abb. 7.11 illustriert den Einfluss dieser beiden Größen.

263

264

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen Tabelle 7.17 Einfluss von wichtigen Auswerteparametern auf die GPC-Ergebnisse bei Verwendung von Lichtstreudetektoren.

Sollwerte dn/dc

Variation

Mw [Da]

Fehler [%]

Mn [Da]

Fehler [%]

z [nm]

Fehler [%]



300 000



150 000



21,96



–5%

331 000

10,3

165 600

10,4

21,96

0

326 000

8,67

155500

3,67

23,05

4,96

315 800

5,27

158 000

5,33

21,96

0

–5%, –4%, 289 800 –3% –5%, 4%, 296 300 –3%

–3,40

144 900

–3,40

22,10

0,64

–1,23

148 100

–1,26

22,03

0,32

Verwendung von A2 Konzentration Normalisierunga)

Detektorversatz n (Eluent) a)

–5%

+5%

295 100

–1,63

159 500

6,33

21,96

0

–0,004%

297 500

0,83

148 800

–0,83

21,96

0

Abweichung der Normalisierungskoeffizienten immer in gleiche Richtung (oben: –).

Abb. 7.11 Einfluss eines fehlerhaften Brechungsindexinkrements, dn/dc, und einer fehlerhaften Konzentration auf die Molmassenbestimmung.

7.7 Zusammenfassung Tabelle 7.18 Wiederholpräzision und Vergleichspräzision bei GPC-Analysen von Realproben in verschiedenen Eluenten; Werte aus standardisierten statistisch validen Rundversuchen nach DIN 5725-1 mit komplexen Realproben (Quelle: DIN GPC Normen [8]). THF

DMA

H2O

THF

DMA

H2O

Vergleichspräzisiona)

Wiederholpräzision Mn

3%

2%

2%

15%

15%

15%

Mw

2%

2%

2%

10%

15%

15%

Mz

3%

3%

3%

15%

24%

24%

Mw/Mn

3%

3%

3%

15%

24%

24%

a)

Vergleichspräzision bestimmt mit komplexen Realproben.

7.6.3 Vergleichspräzision und Wiederholbarkeit von GPC-Analysen

Werden die oben diskutierten Randbedingungen beachtet, sind sehr genaue und reproduzierbare GPC-Analysen mit höchster Ergebnisqualität sichergestellt. In vielfältigen DIN-initiierten Rundversuchen wurden folgende Richtwerte für die Ergebnisunsicherheit erhalten [8], die in Tabelle 7.18 wiedergegeben sind. Alle Ergebnisse wurden in standardisierten, statistisch validen Rundversuchen gemäß DIN 5725-1 mit komplexen Realproben bestimmt. Die Werte zur Wiederholpräzision zeigen die Reproduzierbarkeit von GPC-Ergebnissen unter vergleichbaren Messbedingungen im eigenen Labor, wobei Informationen vorliegen, die über die Rundversuchsvorschrift hinausgehen. Wird nur mit Informationen gearbeitet, die in den Rundversuchsbedingungen niedergelegt sind und werden die Experimente in verschiedenen Laboratorien mit unterschiedlicher Ausstattung und unterschiedlicher Kompetenz durchgeführt, dann werden Werte für die Wiederholbarkeit von GPC-Analysen gefunden, die in der Tabelle unter Vergleichspräzision aufgelistet sind.

7.7 Zusammenfassung

Die Anforderungen an GPC-Datenverarbeitungsprozesse unterscheiden sich erheblich von anderen chromatographischen Datenanalyse-Prozessen. Vielseitige Strukturen greifen in die komplexen Datenprozessierungsabläufe ein und können die Ergebnisse auf vielfältige Weise beeinflussen. Nur wenn alle Randbedingungen der GPC-Datenverarbeitung eingehalten werden, sind reproduzierbare und nutzerunabhängige Resultate erzielbar. Nationale und internationale GPCNormen erlauben es, die wichtigsten Bedingungen für eine erfolgreiche und nachvollziehbare Datenanalyse in jedem Labor umzusetzen. Darüber hinaus gibt

265

266

7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen

es weitere Einflussfaktoren, die die Ergebnisqualität und -integrität bedingen. Dazu zählen: x x x x x x

die Wahl des Datensystems selbst, die Kalibrationsmethode, die Art und Optimierung der Fitfunktion der Kalibration, der Typ und die Lage der Basislinie, die Festlegung der Integrationsgrenzen, die Vergleichbarkeit der Elutionsvolumina zwischen Kalibration und Analyse und x die geräte-, methoden- und probenspezifischen Parameter bei molmassensensitiver Detektion. Auf Grund der Komplexität der GPC-Datenprozesse erscheint es für kritische und gerichtsverwertbare GPC-Resultate in Umgebungen ohne spezifische GPC-Kompetenzen sinnvoll, zur Absicherung der Ergebnisse unabhängigen Sachverstand einzuholen.

Literatur 1

2 3

4

(a) P. Kilz: Optimierung von GPC-Analysen durch geeignete Wahl von stationärer Phase und Detektionsverfahren. In: HPLC richtig optimiert, S. Kromidas (Ed.). Wiley-VCH, Weinheim, 2006. (b) P. Kilz, H. Pasch: Coupled techniques in chromatography. In: Encyclopedia of Analytical Chemistry, R. A. Meyers (Ed.). Wiley, Chicester, 2000. (c) S. Mori, H. G: Barth: Size Exclusion Chromatography, Springer, Berlin, 1999. (d) W. W. Yau, J. J. Kirkland, D. D. Bly: Modern Size-Exclusion Liquid Chromatography. Wiley, New York, 1979. K.-F. Arndt, G. Müller: Polymercharakterisierung. Hanser, Müchen, 1996. (a) R. D. McDowall, LC.GC Europe, 12, 568–576 (1999). (b) R. D. McDowall, LC.GC Europe, 12, 774–781 (1999). (c) W. Winter, L. Huber: Implementing 21CFR Part 11 Electronic Signatures and Records in Analytical Laboratories, BioPharm, January 2000. (a) Technical Requirements for the Registration of Pharmaceuticals for Human Use, Q2B: Validation of analytical procedures: Methodology, ICH-Q2B, Genf, 1996.

5

6 7 8

(b) Commision of the Council of the European Community: directives 87/18/EEC, 1987; 88/320/EEC, 1988 and 90/18/EEC 1990. (c) US FDA: Code of Federal Regulations, Title 21, Part 11, Electronic Records; Electronic Signatures; Final Rule; Federal Register 62 (54), 13429/13466, 1997. (d) ISO/IEC Guide 25: General requirements for the competence of calibration and testing laboratories, 3rd ed., ICH, Genf, 1990. (a) P. Kilz, G. Reinhold, Proceedings International GPC Symposium, San Diego, 1996, Boston 1997. (b) P. Kilz, G. Reinhold, Vollständige Validierung für PSS WinGPC Software. In: Peak-Info, Hewlett-Packard, Waldbronn, 1996. H. G. Elias, Makromoleküle. Hüthig, Basel, 1992. PSS, Benutzerdokumentation PSS WinGPC Datensystem, Mainz, 1997. DIN 55 672-1: Gelpermeationschromatographie (GPC), Teil 1: Tetrahydrofuran (THF) als Elutionsmittel. Beuth Verlag, Berlin, 1995.

267

8 Auswertung in der LC-MS-Kopplung Hartmut Kirchherr

8.1 Einleitung

Die routinemäßige Anwendung der LC-MS hat mit der Entwicklung von robusten Ionisierungsquellen unter Atmosphärendruck wie APCI (Atmospheric Pressure Chemical Ionization Interface) und ESI (Electrospray Interface) einen Siegeszug in der Flüssigkeitschromatographie angetreten und oft aufwendige und langwierige Trennverfahren und Nachweismethoden mit Vor- oder Nachsäulenderivatisierung ersetzt. Gerade durch die Anwendung der Tandem-MS als zusätzlicher Trenndimension konnten Probenvorbereitung und chromatographische Trennung bei der Quantifizierung in komplexer Matrix drastisch vereinfacht und verkürzt werden. Die unbestrittenen Erfolge dieser Technik können aber nicht darüber hinwegtäuschen, dass die Ionisierungsquellen immer noch das Nadelöhr bei der Verbindung von HPLC und Massenspektrometer darstellen. Ob eine Substanz hinreichend genau quantifiziert werden kann, hängt neben einstellbaren Geräteparametern wie Flüssigkeits- und Gasfluss, Ionisierungsenergie und Temperatur, Anordnung und Ausrichtung der Bauteile sowie der Ionisierungstechnik, von der chemischen Struktur des Analyten, von der Beeinflussung durch die Matrix einschließlich der mobilen Phase, von der Clusterbildung und deren Vermeidung, von der Oberflächenbeschaffenheit des gesamten Ionenpfades und besonders von konstanten Bedingungen während des Ionisierungsprozesses ab. Daneben gibt es weitere notwendige technische Vorgaben, bedingt durch die Kopplung an das Massenspektrometer und die Anzahl der zu bestimmenden Analyten, um präzise und richtige Ergebnisse zu erhalten. Diese Besonderheiten sollen hier an einzelnen Beispielen besprochen werden. Zur Quantifizierung wird dabei der hierfür besonders geeignete MRM-Modus (Multiple Reaction Monitoring) herangezogen. Für allgemeine Grundlagen der LC-MS sei auf andere Literaturquellen verwiesen [1–3].

268

8 Auswertung in der LC-MS-Kopplung

8.2 Chromatographie und Matrixeinfluss

Das Hauptproblem ist die mögliche Beeinflussung des Messwertes durch die Matrix. Anders als im UV-Chromatogramm wird bei MRM-Übergängen ein vermeintlich störungsfreies Chromatogramm angezeigt. Signal-verändernde Effekte können aber trotzdem im Hintergrund und für den Betrachter „unsichtbar“ ablaufen. Um das Problem der Matrixeffekte zu beherrschen gibt es verschiedene Strategien: x x x x

Abtrennung der störenden Matrix durch Probenaufarbeitung; Verdünnen der Probe, bis kein Matrixeffekt mehr wirksam ist; chromatographische Abtrennung der störenden Matrixkomponenten; Einsatz von isotopenmarkierten internen Standards.

Als störende Matrixkomponenten kommen hauptsächlich ionische Substanzen wie Proteine und Salze sowie unpolare Stoffe wie z. B. Fette in Betracht. Die einfachste Art der Probenvorbereitung in biologischer Matrix – wie z. B. Serum – ist die Proteinfällung mit Acetonitril/Methanol oder Säure. Eine Mischung aus neun Teilen Acetonitril und einem Teil Methanol hat sich für die Proteinfällung in biologischem Material als günstig erwiesen. Bei Anwendung von reinem Acetonitril besteht die Gefahr von Mitreißeffekten durch die sehr schnelle Ausfällung, bei Fällung mit reinem Methanol wird für eine vollständige Abtrennung der Proteine eine zu große Menge Methanol benötigt. Ein Standardansatz besteht z. B. aus 100 μl Serum und 300 μl Acetonitril/Methanol-Gemisch, einschließlich internen Standards. Der klare Überstand kann nach dem Zentrifugieren weiter mit mobiler Phase verdünnt werden [4]. Bei dieser Art der Probenvorbereitung wird die Proteinbindung von Medikamenten vollständig gelöst. Will man nur den freien Anteil eines Medikamentes bestimmen, kommt eine schonende Abtrennung der hochmolekularen Stoffe mittels Ultrazentrifugation in Betracht. Reicht die Konzentration des Analyten oder die Empfindlichkeit des Massenspektrometers für diese Art der Probenvorbereitung nicht aus, kann durch Flüssig-Flüssig-Extraktion oder Festphasenextraktion angereichert und aufgereinigt werden. Die Festphasenextraktion (SPE) hat zudem den Vorteil, dass sich dieser Prozess leicht automatisieren lässt und durch mehrdimensionale Anordnung und Säulenschaltungen z. B. Serum direkt eingesetzt werden kann [5, 6]. Eine universelle Anwendung z. B. für polare Analyten ist allerdings nicht immer mit ausreichender Wiederfindung gegeben. Ob ein Matrixeffekt vorliegt und welche Region im Chromatogramm beeinflusst ist, kann man leicht mit Hilfe der Infusionsmethode feststellen. Die mobile Phase wird über die HPLC-Säule geleitet. Mittels T-Verbindung wird gleichzeitig eine Substanzlösung wie beim Tuning mittels Spritzenpumpe zugeführt und ergibt ein hohes gleichmäßiges Untergrundsignal. Wird nun die Matrix (ggf. nach Aufarbeitung) injiziert, erkennt man Signal-Quenching-Effekte durch Abfall der Grundintensität im Chromatogramm. In diesen durch die Matrix beeinflussten Zeitzonen sollte der Substanzpeak dann nicht erscheinen.

8.2 Chromatographie und Matrixeinfluss

Abb. 8.1 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach Proteinfällung (Verdünnungsfaktor 4) auf Chromolith C18 50 u 4,6 mm, mobile Phase CH3CN: 5 mM AcetatPuffer pH 3,9, 40 : 60 (v/v), 1 ml/min.

In Abb. 8.1 ist ein solches Infusions-Chromatogramm mit Risperidon als Grundsubstanz und Serum-Matrix nach Proteinfällung mit einem Verdünnungsfaktor von 4 am API 4000 (Applied Biosystems) mit Turbospray-Quelle im MRM zu sehen. Aus diesem Chromatogramm mit isokratischer Trennung auf C18-Umkehrphase kann abgelesen werden, dass die Retentionszeit von Risperidon eine Minute nicht unterschreiten sollte, um Matrixeffekte und Signalunterdrückung zu vermeiden. Durch Verdünnung der Probe nach der Proteinfällung kann das Ausmaß der Signalunterdrückung in Intensität und Dauer verringert werden (Abb. 8.2). Auch nach SPE-Aufreinigung tritt diese Signalabschwächung im Bereich bis zu einer Minute auf (Abb. 8.3). Eluiert die zu analysierende Substanz innerhalb der kritischen Zeitspanne, kann durch Änderung der Chromatographie-Bedingungen eine verzögerte Elution erreicht werden. Die kritische Zone der Signalabschwächung verbreitert sich in dem angeführten Beispiel nicht (Abb. 8.4). Bei Gradienten-Elution muss berücksichtigt werden, dass die Signalintensität im Elektrospray in der Regel mit zunehmendem organischem Anteil in der mobilen Phase ansteigt. Eine Retentionszeit-Verschiebung kann dann zu veränderten Intensitäten führen. Bei hohem organischem Anteil können dann auch Fette eluieren, die durch Signalabschwächung eine weitere „verbotene Zone“ für die Analyten darstellen (Abb. 8.5).

269

270

8 Auswertung in der LC-MS-Kopplung

Abb. 8.2 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach Proteinfällung. (a) Verdünnungsfaktor 40, (b) Verdünnungsfaktor 400 auf Chromolith C18 50 u 4,6 mm, mobile Phase CH3CN: 5 mM Acetat-Puffer pH 3,9, 40 : 60 (v/v), 1 ml/min.

8.2 Chromatographie und Matrixeinfluss

Abb. 8.3 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach C18-SPE (Verdünnungsfaktor 4) auf Chromolith C18 50 u 4,6 mm, mobile Phase CH3CN: 5 mM AcetatPuffer pH 3,9, 40 : 60 (v/v), 1 ml/min.

Abb. 8.4 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach Proteinfällung (Verdünnungsfaktor 4) auf Chromolith C18 50 u 4,6 mm, mobile Phase CH3CN: 5 mM AcetatPuffer pH 3,9, 20 : 80 (v/v), 1 ml/min.

271

272

8 Auswertung in der LC-MS-Kopplung

Abb. 8.5 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach Proteinfällung (Verdünnungsfaktor 4) auf Chromolith C18 50 u 4,6 mm, mobile Phase Gradient 20–70% CH3CN in 4 min, bis 5 min 70% CH3CN, bis 8 min 20% CH3CN: 5 mM AcOH pH 3,9, 1 ml/min.

Bei isokratischer Chromatographie können diese Fette im Laufe einer längeren Messserie durchbrechen und eine Verminderung der Signalintensität hervorrufen. Spülschritte zwischen den Messserien können diese Gefahr minimieren. Auch bei einem weniger empfindlichen Massenspektrometer wie dem API 2000 (Applied Biosystems) kann man ähnlich verfahren. Das Spray trifft hier im Gegensatz zur orthogonalen Anordnung des API 4000 schräg auf die Curtain-Plate. Im Elektrospray sind hier Flussraten um 0,2 ml/min und Säuleninnendurchmesser von 2 mm üblich. Um beim Risperidon etwa gleiche Intensitäten wie beim API 4000 bei der Infusion zu erhalten, muss die Konzentration hier 1000 statt 40 ng/ml betragen. Der Matrixeffekt wirkt sich nach Injektion von 5 μl Serum nach Proteinfällung und 1 : 4-Verdünnung ähnlich aus wie beim API 4000 (Abb. 8.6). Bei dieser Art der Probenaufarbeitung reicht natürlich bei manchen Analyten die Empfindlichkeit nicht mehr aus und es muss aus diesem Grund durch Extraktion angereichert werden. Die weitere Möglichkeit, so weit zu verdünnen bis kein Matrixeffekt gegenüber einem Standard ohne Matrix mehr auftritt (erkennbar an gleichen Intensitäten), kann natürlich nur angewendet werden, wenn entweder die Analyt-Konzentration hoch genug ist oder das Massenspektrometer eine ausreichende Empfindlichkeit aufweist. Dieser Intensitätsvergleich ist für gegebene Chromatographiebedingungen auch geeignet, zumindest für die zu analysierende Substanz einen Matrixeffekt auszuschließen.

8.2 Chromatographie und Matrixeinfluss

Abb. 8.6 API 2000 Infusion Risperidon 1000 ng/ml, 20 μl/min: Matrixeffekt nach Injektion von 5 μl Serum nach Proteinfällung (Verdünnungsfaktor 4) auf LUNA C18 50 u 2 mm, mobile Phase CH3CN: 5 mN Acetat pH 3,9, 36 : 64 (v/v), 0,2 ml/min.

Die Abb. 8.7 zeigt dieses Verhältnis von Substanz in Matrix und ohne Matrix in Abhängigkeit der Verdünnung und des Anteils der organischen Phase in der mobilen Phase bei Elektrospray-Ionisierung. Je höher die Verdünnung und je kleiner der organische Anteil in der mobilen Phase, desto weniger Beeinflussung durch die Serum-Matrix ist bei dem Testanalyten Risperidon zu erwarten. In der Praxis genügt natürlich eine Elution kurz nach dem Matrixeinbruch, um möglichst kurze Retentionszeiten und schmale Peaks mit hohen Intensitäten zu erhalten. Die APCI-Quelle zeigt eine deutlich kleinere Matrix-Beeinflussung. Bei den meisten polareren Analyten wird aber bei den gegebenen chromatographischen Bedingungen eine wesentlich kleinere Signalintensität und damit eine meist nicht ausreichende Empfindlichkeit erreicht (Abb. 8.8). Diese Art der Ionisierung ist deshalb hauptsächlich für unpolarere Analyten, wie z. B. Fettsäuren und Steroide, geeignet.

273

274

8 Auswertung in der LC-MS-Kopplung

Abb. 8.7 API 4000 Matrixeffekt ESI – Variation der mobile Phase: Merck Chromolith C18 50 u 4,6 mm, CH3CN: 5 mM AcOH pH 3,9, 1 ml/min, Rt 0,88 min (40% Puffer), Rt 0,90 min (50% Puffer), Rt 0,97 min (60% Puffer), Rt 1,28 min (70% Puffer), Rt 3,25 min (80% Puffer), 100% Intensität MRM (Area): 39900; (a) Serum + 1 ng/ml Risperidon, Proteinfällung 1 : 4 verdünnt, 10 μl injiziert; (b) Serum + 1 ng/ml Risperidon, Proteinfällung 1 : 40 verdünnt, 10 μl injiziert.

Einige Analyten bilden leicht Addukte oder Cluster. Werden nicht optimierte Ionisierungsbedingungen angewendet, können deutlich schlechtere Empfindlichkeiten und im Grenzbereich unreproduzierbare Messergebnisse erhalten werden. Ein sorgfältiges Tuning der Standardsubstanzen bleibt Voraussetzung für die nachfolgende Methodenentwicklung. Die Adduktbildung von Immunsuppressiva wie Tacrolimus und Sirolimus kann durch die Spray-Temperatur beeinflusst werden. In der Regel bestimmt man diese Analyten über das Ammonium-Addukt, indem z. B. Ammoniumacetat-Puffer in der mobilen Phase vorgelegt wird. Allerdings ist durch die Verwendung von Glasflaschen Natrium allgegenwärtig. Bei höherer Turbospray-Temperatur wird das Natrium-Addukt bevorzugt gebildet, die Intensität an Ammonium-Addukt nimmt dann ab (Abb. 8.9 und 8.10). Meist werden die intensivsten Fragmente für die MRM-Übergänge ausgewählt. In Einzelfällen kann ein solches Fragment aber relativ unspezifisch sein, indem z. B. nur Wasser abgespalten wird, oder ein hohes Untergrundsignal verhindert eine Messung im Spurenbereich. Im Idealfall werden zwei intensive, struktur-spezifische Fragmente erhalten, wobei ein Fragment zur Quantifizierung (Quantifier) und das andere Fragment zur Bestätigung (Qualifier) dienen.

8.2 Chromatographie und Matrixeinfluss

Abb. 8.8 API 4000 Matrixeffekt APCI – Variation der mobilen Phase: Merck Chromolith C18 50 u 4,6 mm, CH3CN: 5 mM AcOH pH 3,9, 1 ml/min, Rt 0,88 min (40% Puffer), Rt 0,90 min (50% Puffer), Rt 0,97min (60% Puffer). 100% Intensität MRM (Area): 2810; (a) Serum + 1 ng/ml Risperidon, Proteinfällung 1 : 4 verdünnt, 10 μl injiziert; (b) Serum + 1 ng/ml Risperidon, Proteinfällung 1 : 40 verdünnt, 10 μl injiziert.

Abb. 8.9 Einfluss der Turbospray-Temperatur auf die Na- und NH4-Adduktbildung beim Tacrolimus (API 4000).

275

276

8 Auswertung in der LC-MS-Kopplung

Abb. 8.10 Einfluss der Turbospray-Temperatur auf die Na- und NH4-Adduktbildung beim Sirolimus (API 4000).

8.3 Interne Standards

Der Verwendung eines geeigneten internen Standards kommt bei der Quantifizierung mittels MS eine besondere Bedeutung zu. Anders als bei der klassischen HPLC soll der interne Standard hier nicht nur Fehler bei den Aufarbeitungsschritten und der Injektion ausgleichen, sondern ist ganz wesentlich zur Kontrolle und zum Ausgleich von möglichen Schwankungen während der Ionisierung erforderlich. Isotopenmarkierte interne Standards sind dafür am besten geeignet. Natürlich muss es sich um stabile Isotope handeln, ein Isotopenaustausch z. B. von Deuterium mit der mobilen Phase muss ausgeschlossen sein. Der Massenabstand muss mindestens zwei, bei halogenierten Analyten mindestens drei Masseneinheiten betragen, um mögliche Interferenzen mit natürlichen Isotopen auszuschließen. Ferner muss geprüft werden, inwieweit der interne Standard den Messwert des Analyten beeinflusst, da käufliche Isotope meist keine 100%ige Reinheit aufweisen. Unter Berücksichtigung dieser Vorgaben kann der isotopenmarkierte interne Standard auch Matrixeffekte in Grenzen ausgleichen. Natürlich muss noch genügend Intensität für eine sichere Quantifizierung vorhanden sein. Schwieriger wird die Situation, wenn wie in den meisten Fällen keine isotopenmarkierten internen Standards zur Verfügung stehen. In diesen Fällen ist immer eine Chromatographie ohne erkennbare Matrixbeeinflussung des Analyten anzustreben. Meist sind chemisch ähnliche Substanzen als interne Standards am besten geeignet. Eine Übertragung von internen Standards, wie sie in der klassischen UV-HPLC eingesetzt werden, ist nicht immer möglich. Bei der Bestimmung von Terbinafin mittels HPLC-UV-Detektion wurde Clotrimazol als interner Standard

8.3 Interne Standards

Abb. 8.11 Einfluss der Turbospray-Temperatur am Beispiel Terbinafin und internem Standard Clotrimazol (API 4000).

verwendet. Clotrimazol wird jedoch im Gegensatz zu Terbinafin durch thermische Hydrolyse leicht zersetzt. Die Signalintensität ändert sich im Gegensatz zu Terbinafin bei Änderung der Spraytemperatur dramatisch (Abb. 8.11). Ob ein interner Standard für die Quantifizierung geeignet ist, kann man am einfachsten feststellen, indem man eine Präzision in kurzer Serie (z. B. n = 10) durchführt. Die Varianz der Messserie darf unter Verwendung des internen Standards nicht eindeutig schlechter werden als bei Berechnung ohne internen Standard. Wäre dies der Fall, machen gegenläufige Prozesse bei der Ionisierung den internen Standard für diese Quantifizierung unbrauchbar. In der Praxis kann man sich eine tolerable Obergrenze der Varianz festlegen (z. B. VK max. 5–10%), die durch Verwendung des internen Standards nicht überschritten werden darf. Zwar ist im Idealfall eine gleiche Retentionszeit von Analyt und internem Standard anzustreben, dies durch eine entsprechende Chromatographie – z. B. durch steile Gradienten – zu erzwingen, bringt aber eher Nachteile mit sich, da dann auch koeluierende Substanzen zu Störungen wie bei Matrixeffekten führen können. Wichtiger ist eine Kontrolle der Signalstabilität bei langen Messserien. Die Einlaufzeit bis zu stabilen Signalintensitäten kann von Analyt zu Analyt unterschiedlich lang sein und fünf Minuten bis über zwei Stunden betragen. Besonders beim Methodenwechsel kann in einzelnen Fällen mit längeren Einlaufzeiten gerechnet werden. Wenn Analyt und interner Standard sich nicht gleichförmig verhalten, sind Messfehler bei einem zu frühen Start oder bei einer Drift der Signalintensitäten bei langen Analysenserien vorprogrammiert.

277

278

8 Auswertung in der LC-MS-Kopplung Tabelle 8.1 Clonidin-Bestimmung in Serum-Matrix, unterschiedlicher interner Standard, Präzision und Abweichung vom Sollwert (n = 10). Interner Standard

Proteinfällung

C18-SPE

VK [%]

Abw. [%]

VK [%]

Abw. [%]

d4-Clonidin

4,7

3,9

6,3

–11,4

Tizanidin

4,7

9,4

5,2

–19,2

Aciclovir

44,1

außer Kontrolle

31,7

außer Kontrolle

ohne

5,0

6,7

5,1

–7,4

In Tabelle 8.1 ist der Einfluss des internen Standards auf Präzision und Abweichung bei der Clonidin-Bestimmung im Serum nach Proteinfällung und C18-SPE-Probenaufarbeitung aufgelistet. Es wurden 9 verschiedene Humanseren und ein Schweineplasma aufgearbeitet. D4-Clonidin als interner Standard ist erwartungsgemäß am besten geeignet. Allerdings scheint man mit Proteinfällung hinsichtlich Präzision und Abweichung noch bessere Ergebnisse als mit C18-SPE zu erhalten (VK 4,7%, Abweichung +3,9% gegenüber VK 6,3%, Abweichung –11,4%). Die Probe mit dem Schweineplasma hatte in der Serie keinen erkennbaren abweichenden Einfluss. Die Abweichung ist hier auf eine Standardlösung ohne biologische Matrix bezogen. Tizanidin weist als Imidazolamin Strukturähnlichkeit mit Clonidin auf. Die Retentionszeit im Chromatogramm liegt leicht vor dem Clonidin (1,2 statt 1,4 min). Präzision und Abweichung liegen durchaus auch im Bereich wie beim d4-Clonidin als internen Standard. Aciclovir liegt mit einer Retentionszeit von 0,9 Minuten unter den gegebenen Chromatographiebedingungen gerade noch in der „verbotenen Zone“, d. h. Matrixeinflüsse sind sowohl bei Proteinfällung als auch bei Festphasenextraktion zu erwarten. Als interner Standard ist Aciclovir bei der Clonidin-Bestimmung unter den gegebenen Bedingungen völlig ungeeignet. Ohne Korrektur über den internen Standard werden ähnlich gute Ergebnisse hinsichtlich Präzision und Abweichung erhalten. Dieser Umstand sollte jedoch nicht dazu verführen, auf den internen Standard prinzipiell zu verzichten. Eine Kontrolle der Chromatographie und besonders der Ionisierungsbedingungen kann im Einzelfall die Herausgabe von falschen Messwerten verhindern. Werden 10 verschiedene Humanurine hinsichtlich des internen Standards auf Präzision und Abweichung verglichen (Tabelle 8.2), zeigt sich deutlich eine Verschlechterung dieser Parameter, wenn statt d4-Clonidin Tizanidin verwendet wird. Aciclovir ist auch hier wieder völlig ungeeignet. Ohne Korrektur über einen internen Standard werden in Urinmatrix wesentlich schlechtere Ergebnisse als in Serum-Proben erhalten. C18-SPE ergibt bei Verwendung von d4-Clonidin als interner Standard die besten Ergebnisse (VK 3,8%, Abweichung +1,1%). In Abb. 8.12 sind die Chromatogramme der Massenübergänge von Clonidin und der verwendeten internen Standards dargestellt. Anders als in einem HPLC-

8.3 Interne Standards Tabelle 8.2 Clonidin-Bestimmung in Urin-Matrix, unterschiedlicher interner Standard, Präzision und Abweichung vom Sollwert (n = 10). Interner Standard

Verdünnung

C18-SPE

VK [%]

Abw. [%]

VK [%]

Abw. [%]

d4-Clonidin

4,6

1,1

3,8

1,1

Tizanidin

9,3

2,1

10,3

–3,7

Aciclovir

35,5

außer Kontrolle

53,3

außer Kontrolle

ohne

15,0

–18,6

17,8

–18,2

Abb. 8.12 API 4000 – Auswahl interner Standards bei der Clonidin-Bestimmung.

UV-Chromatogramm sind hier Analyt und interne Standards in einzelnen extrahierten Massenspuren dargestellt. Die Auswertung erfolgt über die Peakfläche. Eine Auswertung über die Peakhöhe bringt hier – im Gegensatz zu einem UVChromatogramm – keine Verbesserung der Präzision.

279

280

8 Auswertung in der LC-MS-Kopplung

8.4 Einstellungen Massenspektrometer

Tandem-Massenspektrometer haben im Gegensatz zu Ion-Traps den Vorteil, dass man in einer MRM-Methode leicht mehrere Analyten und interne Standards unterbringen kann. Allerdings muss die Scan-Zeit für einen Massenübergang (dwell time) der Anzahl der MRM-Übergänge angepasst werden. Gerade bei kleinen Konzentrationen nahe der Bestimmungsgrenze ist man bemüht, die Dwell Time hoch zu halten um noch etwas an Empfindlichkeit herauszuholen. In Abb. 8.13 ist die Dwell Time gegenüber dem Signal/Rausch-Verhältnis am Beispiel von Risperidon dargestellt. Bei einer Dwell Time von 20 ms gegenüber 200 ms verbessert sich das Signal/Rausch-Verhältnis um etwa den Faktor 8. Damit wird auch die Präzision bei steigender Dwell Time deutlich besser, was sich bei höheren Konzentrationen am Beispiel 9-Hydroxy-Risperidon allerdings nicht mehr auswirkt (Abb. 8.14). Bei mehreren MRM-Übergängen in einer Methode muss die Dwell Time reduziert werden, um eine ausreichende Menge an Datenpunkten über einen Peak zu erhalten. Etwa 10–15 Datenpunkte sollten pro Peak für eine hinreichend genaue Quantifizierung vorhanden sein. Tabelle 8.3 gibt Auskunft über die mögliche Anzahl an MRM-Übergängen in einer Methode im Verhältnis zur Dwell Time und Peakbreite. Bei einer Peakbreite von 20 s können 50 MRM-Übergänge in einer Methode untergebracht werden, wenn man eine Dwell Time von 20 ms für die einzelnen Übergänge wählt. Es werden dann immer noch 16 Datenpunkte pro Peak erhalten. Bei fünf MRMÜbergängen kann man sich bei gleicher Peakbreite schon 200 ms als Dwell Time leisten, um noch 20 Datenpunkte pro Peak zu erhalten. Eine zu geringe Zahl an Datenpunkten wirkt sich negativ auf die Reproduzierbarkeit aus. In Abb. 8.15 ist die Präzision einer Serie (n = 10) im Verhältnis zu der Anzahl an Datenpunkten pro Peak aufgetragen. Fünf Datenpunkte sind demnach für eine ausreichende Präzision eindeutig zu wenig.

Abb. 8.13 API 4000 – Verhältnis Dwell Time/Signal to Noise.

8.4 Einstellungen Massenspektrometer

Abb. 8.14 API 4000 – Auswirkung der Dwell Time auf die Präzision.

Tabelle 8.3 Verhältnis Anzahl Datenpunkte zu Dwell Time (DT) und Anzahl MRM-Übergänge (Minimum 15 Datenpunkte pro Peak). DT (ms)

2 MRM

5 MRM

10 MRM

20 MRM

50 MRM

100 MRM

20

400

160

80

40

16

8

40

222

89

44

22

9

4

60

154

62

31

15

6

3

80

118

47

24

12

5

2

100

95

38

19

10

4

2

200

49

20

10

5

2

1

400

25

10

5

2,5

1

0,5

Anzahl Datenpunkte bei Peakbreite 20 s 5 ms Pause zwischen den MRM-Übergängen Peakbreite (s) ⋅ 1000 + Pause (ms) ⋅ Anzahl MRM = Anzahl Datenpunkte Berechnung: DT (ms) ⋅ Anzahl MRM

281

282

8 Auswertung in der LC-MS-Kopplung

Abb. 8.15 Präzision in Serie (n = 10) bei der Risperidon-Bestimmung am API 4000. Anzahl der aufgenommenen Datenpunkte pro Peak im Verhältnis zur Präzision.

8.5 Auswertesoftware

Moderne Auswertesysteme können chromatographisch saubere Peaks, wie sie meist bei MRM-Übergängen vorliegen, problemlos und sicher integrieren. Problematisch bleibt die Situation bei kleinen Konzentrationen nahe der Bestimmungsgrenze. Eine Kontrolle ist unbedingt erforderlich und eine manuelle Korrektur der Integration oft der schnellste Weg, richtigere Ergebnisse zu erhalten (s. Kapitel 1 und 2). Unterstützt werden kann dieser Prozess durch Glättungsfunktionen, die allerdings nur für die gesamte Serie gleich, und nicht nur für einzelne Proben, angewendet werden dürfen. In Abb. 8.16 ist zu erkennen, dass durch das mehrmalige Anwenden der Smoothing-Funktion bei der Risperidon-Bestimmung das Signal/Rausch-Verhältnis um etwa den Faktor zwei verbessert werden kann. Mittels Auswertesoftware Analyst 1.4.1 wurde bei einer Serie Risperidon im Serum (n = 10, Proteinfällung, Verdünnungsfaktor 8, API 4000) bei zwei Konzentrationen (1,0 und 0,1 ng/ml) die Präzision berechnet. Die Bestimmungsgrenze (Signal/Rauschen 10 : 1) liegt bei dieser Methode bei 0,1 ng/ml. Mit der automatischen Integration (Smoothing-Faktor 1, Bunching-Faktor 2) wurde ohne manuelle Korrektur bei 1,0 und 0,1 ng/ml ein VK von 6,5 bzw. 15,1% gefunden. Nach manueller Korrektur verbesserten sich diese Werte leicht auf 6,3% bei 1,0 ng/ml bzw. deutlicher auf 11,1% bei einer Risperidon-Konzentration von 0,1 ng/ml. Bei manueller Integration wurde der individuelle Einfluss auf die Messergebnisse untersucht. Dazu haben 10 Mitarbeiter unabhängig voneinander die komplette Serie manuell integriert. Bei der Risperidon-Konzentration von 1,0 ng/ml lag der Mittelwert der Präzision bei 5,2% mit einem Bereich von 3,8–6,8%. An der Bestimmungsgrenze (0,1 ng/ml) wurde ein Mittelwert der Präzision von 12,8% mit einem Bereich von 6,9–16,0% gefunden. Ein individueller Einfluss bei

Literatur

Abb. 8.16 API 4000 – Verhältnis Smoothing zu Signal/Noise.

der manuellen Integration ist erwartungsgemäß vorhanden. Bei gut geschulten Mitarbeitern werden die Werte gerade im Bereich der Bestimmungsgrenze aber eher besser als bei automatischer Integration. Manuelle Eingriffe sind allerdings besonders bei automatisierter Probenvorbereitung nicht immer zulässig oder müssen klar erkennbar dokumentiert werden.

Literatur 1 2

3

Willoughby, R., et al., A Global View of LC-MS. Global View Pub., 2002. McMaster, M. C., LC-MS A Practical User’s Guide. Wiley-VCH, Weinheim, 2005. Traldi, P. et al., Quantitative Applications of Mass Spectrometry. Wiley-VCH, Weinheim, 2006.

4 5 6

Kirchherr, H., Kühn-Velten, K. N., J. Chromatogr. B, 843, 100–113, 2006. Boos, K. S. et al., Fresenius J. Anal. Chem., 371, 16–20, 2001. Koal, T. et al., Clin. Chem. Lab. Med., 44(3), 299–305, 2006.

283

285

Teil III Anforderungen an und Umgang mit chromatographischen Daten aus Sicht von Organisationen und Behörden

287

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Herbert Otteneder

9.1 Aufgaben der Behörde

Vorrangiges Ziel der staatlichen Lebensmittelüberwachung ist der Schutz des Verbrauchers vor gesundheitlichen Gefahren und einer Gefährdung seiner Gesundheit. Den klaren Auftrag dazu erteilt das seit September 2005 in Kraft getretene Lebensmittel- und Futtermittelgesetzbuch (LFGB, 2005). Hierin ist an vorderster Stelle, nämlich in § 1 Abs. 1 Ziffer 1 aufgeführt, dass es der Zweck dieses Gesetzes ist, den Schutz der Verbraucherinnen und Verbraucher durch Vorbeugung gegen eine oder Abwehr einer Gefahr für die menschliche Gesundheit sicherzustellen. Dieser abstrakte Grundsatz wird konkret umgesetzt durch eine ganze Reihe von Detailvorschriften, u. a. zu Rückständen und Kontaminanten. Die Tabelle 9.1 gibt einen groben Überblick über die wichtigsten Regelungen, die für diesen Bereich den vorsorglichen gesundheitlichen Verbraucherschutz gewährleisten sollen.

9.2 Problembereiche

Um Diskrepanzen zwischen Laboratorien und ihren Auftraggebern zu vermeiden, sind – bezogen auf die einzelnen in der Tabelle 9.1 aufgeführten Substanzgruppen – Leitlinien auf nationaler als auch auf gemeinschaftlich europäischer Ebene erstellt worden. Sie legen fest, welche qualitativen Anforderungen an die Analytik zu stellen sind und geben vor, wie Ergebnisse in Bezug auf Grenzwerte zu interpretieren sind. Das konkrete Ziel dabei ist, dass die Kontrolllaboratorien der Industrie und der Lebensmittelüberwachung in Bezug auf das In-VerkehrBringen von zum Teil großen Warenpartien zu übereinstimmenden Entscheidungen kommen.

288

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Tabelle 9.1 Nationale Rechtsvorschriften mit Höchstmengen für Rückstände, Schadstoffe und Kontaminanten. Substanzgruppe

Rechtsvorschrift

Substanzen

Pflanzenschutzmittel

RückstandshöchstmengenVO – RHmV i.d.F. der Bek. vom 21. Oktober 1999 (RHmV, 1999)

ca. 238 Pflanzenschutzmittelwirkstoffe (Insektizide, Fungizide, Herbizide)

Schadstoffe

SchadstoffhöchstmengenVO – SHmV vom 18. Juli 2007 (SHmV, 2007)

PCB-28; PCB-52; PCB-101; PCB-180; PCB-138; PCB-153; Hg; Perchlorethylen; Trichlorethylen; Chloroform

Kontaminanten

VO (EG) Nr. 466/2001, Höchstgehalte für Kontaminanten in Lebensmitteln vom 8. März 2001 (EG, 2001)

Nitrat; Mykotoxine (Aflatoxin B1, B2, G1, G2); Ochratoxin A; Patulin; Deoxynivalenol (DON); Zearalenon, Fumonisine; Pb; Cd; Hg; 3-MCPD; Dioxin; Sn; Polycyclische Aromatische Kohlenwasserstoffe

Mykotoxine

MykotoxinhöchstmengenVO – MHmV vom 2. Juni 1999 (MHmV, 1999)

Aflatoxine B1, B2, G1, G2; M1; Ochratoxin A; Patulin; Deoxynivalenol (DON); Zearalenon; Fumonisine; T-2 und HT-2 Toxin

Arzneimittelrückstände

VO (EWG) Nr. 2377/90, Höchstmengen für Tierarzneimittelrückstände (EWG, 1990)

Höchstmengen für ca. 120 Wirkstoffe

So sind im Warenverkehr der Gemeinschaft Fälle aufgetreten, bei denen z. B. eine Warenpartie in Bezug auf die Einhaltung eines Mykotoxin-Grenzwertes als „non compliant“ angesehen wurde, weil der analytisch ermittelte Wert geringfügig höher war als der vorgeschriebene Grenzwert; die Kontrolluntersuchung im Auftrag des Warensenders dagegen bescheinigte unter Berücksichtigung der Messunsicherheit die Ware als „fully compliant“. Ein weiterer Konflikt kann bei einer amtlichen Probenentnahme im innerstaatlichen Verkehr oder durch den Zoll auftreten. Hier hat der Verantwortliche das Recht die zurückgelassene Probe von einem privaten, amtlich zugelassenen Labor gegen untersuchen zu lassen. Arbeiten die Laboratorien nach unterschiedlichen Verfahren, ist der Konflikt vorprogrammiert. Die Vollzugsbehörde wird womöglich unterschiedliche Werte erhalten und damit zunächst nicht über die Verkehrsfähigkeit der Ware entscheiden können. Nach Medienberichten würden ein Drittel der Analysen mit Beanstandungen, vermutlich aus diesem Grund, von den Vollzugsbehörden zurückgewiesen. Die Richtigkeit dieser Aussage unterstellt, kann es dafür folgende Ursachen geben:

9.2 Problembereiche

x Amtliches und privates Labor arbeiten jeweils für sich korrekt, wenden aber zur Bestimmung desselben Analyten, der zur Beanstandung führte, unterschiedliche Verfahren an. Deren unterschiedliche Fehlerbreiten können zu deutlichen Differenzen führen, wobei z. B. verschiedene Ausbeuten bei der Extraktion den größten Einfluss haben. x Die Proben sind nicht exakt identisch. Je nach Homogenität des Materials ist der Analyt ungleichmäßig verteilt, Probe und Gegenprobe enthalten den Analyten in verschiedenen Konzentrationen. Ein Effekt, der besonders bei Mykotoxinen ausgeprägt ist. x Im ungünstigsten Fall haben eines oder beide Labors fehlerhaft gearbeitet. Den Ausschlag wird dann das Ergebnis geben, das mit einer genormten und validierten Methode erstellt wurde, d. h., dessen Leistungskriterien bekannt sind. Damit lassen sich Ergebnisse zurückverfolgen und objektiv Soll- (= Grenzwert) und Ist-Wert miteinander vergleichen. Die amtliche Überwachung hat jedoch nicht nur die Aufgabe durch stichprobenartige Untersuchungen zu prüfen, ob Lebensmittel in Verkehr sind, die nicht den Rechtsvorschriften entsprechen. Wie der Gammelfleischskandal in den Jahren 2005/2006 zeigte, ist es zusätzlich erforderlich, Risikobetriebe regelmäßig zu überprüfen, dort Proben zu ziehen und sich so ein objektives und umfassendes Bild von der Be- und Verarbeitung der Lebensmittel zu verschaffen. Vorraussetzung dafür ist, dass die Überwachungsbehörde unabhängig neutral und erforderlichenfalls gegenüber den Rechtsunterworfenen auch mit Härte vorgeht. Wie die zu Tage getretenen Missstände zeigen, wurden diese einfachen Grundsätze nicht allgemein angewendet. In Bezug auf die chemische Analytik ist es auf europäischer Ebene mittlerweile üblich, dass Laboratorien ihre Datenqualität belegen. Dies geschieht durch Teilnahme an Laborvergleichsuntersuchungen (Proficiency Tests) und darüber hinaus wird die Messunsicherheit (Details, s. Kapitel 4) des angewendeten Verfahrens angegeben. Beides, sowohl das interne Qualitätsmanagement (IQM) als auch die Bestimmung und die Anwendung der Messunsicherheit zur Ergebnisinterpretation, wurde in spezifischen Leitlinien für die Substanzgruppen Pflanzenschutzmittelrückstände, für Schadstoffe, Kontaminanten und Mykotoxine sowie für pharmakologisch wirksame Stoffe in unterschiedlichen, spezifischen Leitlinien festgehalten. 9.2.1 Pflanzenschutzmittelrückstände

Für die Europäische Gemeinschaft beschreibt die Leitlinie vom 05. Februar 2004 (EG, 2006) die analytische Qualitätskontrolle (AQC), die bei der Überprüfung von Höchstmengen (MRL’s) anzuwenden ist. Die Leitlinie weist vorrangig darauf hin, dass in Übereinstimmung mit der Richtlinie 93/99/EWG (EG-RL, 1993) Laboratorien die Anforderungen eines Anerkennungsverfahrens nach der Norm ISO 17 025, Norm für die Akkreditierung als Prüflaboratorium, erfüllen sollen.

289

290

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

Das Dokument behandelt den gesamtem Ablauf der Rückstandsuntersuchung, beginnend mit der Probennahme, ihre Behandlung und Vorbereitung im Labor, den Umgang mit den Wirkstoffstandards, die Herstellung von Kalibrierlösungen, ihre Lagerung und ihre Überprüfung. Ferner sind grundsätzliche Verhaltensmaßnahmen zur Vermeidung von Verlusten bei der Extraktion und bei der Konzentrierung von Extrakten sowie Vorkehrungen, Kontaminationen im Labor zu verhindern, erläutert. Um den enorm großen Aufwand von Kalibrierungen bei den in der Rückstandsanalytik angewandten Multimethoden in Grenzen zu halten, wird eine Kalibrierung einzelner, repräsentativer Analyten empfohlen sowie die Mindesthäufigkeit der Kalibrierung und der Bestimmung der Wiederfindung genannt. Die Validierung der Methoden erfolgt laborintern, wiederum für eine Auswahl repräsentativer Wirkstoffe und Matrizes. Mindestwerte für die Wiederholbarkeit und die mittlere Wiederfindungsrate werden genannt (Tabelle 9.2). Abweichend davon hat die Arbeitsgruppe „Pestizide“ der Lebensmittelchemischen Gesellschaft 1998 folgende erweiterte Messunsicherheiten (jeweils der zweifache Wert der Vergleichsstandardabweichung) für pflanzliche und tierische Lebensmittel publiziert (Gilsbach, 1998) (Tabelle 9.3). Tabelle 9.2 Kriterien für quantitative Methoden in Rückstandsuntersuchungen nach SANCO/10232/2006 (EG, 2006). Konzentrationsbereich [mg/kg]

Wiederholbarkeit

Mittlere Wiederfindung [%]

RSDA%

RSDL%

0,001–0,01

30

32

70–110

> 0,01–0,1

20

22

70–110

> 0,1–1

15

18

70–110

>1

10

14

70–110

RSDA%: Variationskoeffizient der Untersuchung ohne den Einfluss der Inhomogenität der Probe. RSDL%: Variationskoeffizient der Labors unter Berücksichtigung von 10% Inhomogenität der Probe.

Tabelle 9.3 Erweiterte Messunsicherheiten bei Pflanzenschutzmittelrückständen nach Empfehlung der Arbeitsgruppe „Pestizide“ der Lebensmittelchemischen Gesellschaft. Konzentrationsbereich [mg/kg]

Erweiterte Messunsicherheit [%] Tierische Lebensmittel

1

32

0,1

46

0,01

64

0,01–3

Pflanzliche Lebensmittel

60

9.2 Problembereiche

Dabei wurde bei den tierischen Lebensmitteln die Horwitz-Gleichung angewendet (RSDR = 2 · C–0,1505, s. auch Kapitel 3). Bei den pflanzlichen Lebensmitteln wurden Laborvergleichsuntersuchungen ausgewertet und die dabei erhaltenen Vergleichsstandardabweichungen zur Berechnung der erweiterten Messunsicherheit verwendet. Zur Bestätigung von positiven Werten wird die Kopplung mit der Massenspektrometrie und die Identifizierung einzelner Substanzen mit mindestens drei spezifischen Ionen bei einem Signal/Rausch-Verhältnis von mindestens 3 : 1 gefordert. So sind z. B. für Vinclozolin am MSD-EI(+) die Ionen 212, 198 und 285 (m/z) heranzuziehen. Weitere Diskrepanzen bei der Ergebnisinterpretation können bei der Ergebnisangabe durch eine unterschiedliche Anzahl von Nachkommastellen entstehen. Das Dokument SANCO/10232/2006 (EG, 2006) empfiehlt daher Folgendes (Tabelle 9.4). Unabdingbar für eine einheitliche Ergebnisinterpretation ist die Berücksichtigung der Messunsicherheit. Das SANCO-Dokument fordert bei der Beurteilung, ob ein Höchstwert überschritten wurde oder nicht, dass alle relevanten Daten der analytischen Qualitätskontrolle einbezogen werden, die Ergebnisse aus den Mittelwerten von Wiederholuntersuchungen gebildet werden und die typische Messunsicherheit angegeben wird. Die Daten müssen aus der der Untersuchung zu Grunde liegenden Matrix/Stoffkombination abgeleitet sein. Dazu sind im Einzelnen erforderlich: 1. In-house-Qualitätskontrolle (= IQC: Internal Quality Control). 2. Laborvergleichsuntersuchung (LVU = Proficiency Test mit dem angewandten Verfahren). 3. Teilnahme an einer Validierungsstudie (Method Performance Study) und zufriedenstellende Ergebnisse. Tabelle 9.4a Zahl der signifikanten Stellen bei der Angabe von Ergebnissen nach SANCO/10232/2006. Ergebnis [mg/kg]

Rundung auf signifikante Stellen

Beispiel [mg/kg]

< 0,01 t 10

2 3

0,08 11,3 oder 11

Tabelle 9.4b Zahl der signifikanten Stellen bei der Angabe von Grenzwerten nach SANCO/10232/2006. Grenzwert [mg/kg]

Rundung auf signifikante Stellen

Beispiel [mg/kg]

< 10 t 10

1 2

2 15

291

292

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

Abb. 9.1 Beispiel für eine Qualitätsregelkarte bei der Überprüfung der Bestimmung von Aflatoxinen.

9.2.1.1

In-house-Qualitätskontrolle (= IQC: Internal Quality Control)

Die Bestimmung der Messunsicherheit stützt sich immer auf zurückliegende Untersuchungsserien. Sie stellt ein Prognoseintervall dar, das angibt, innerhalb welcher Spanne der wahre Wert bei gegebener Wahrscheinlichkeit erwartet werden kann. Dies bedeutet, dass der Wert für die Messunsicherheit nicht unbedingt und in jedem Fall auf eine aktuelle Untersuchung übertragen werden kann. Im konkreten Fall wird im Rahmen der IQC fortlaufend zertifiziertes Prüfmaterial untersucht und die Ergebnisse statistisch ausgewertet, d. h., man prüft, ob die erhaltenen Sollwerte innerhalb der speziellen Wiederholbarkeit des jeweiligen Labors liegen. Ein geeignetes Mittel, dies darzustellen, ist die Qualitätsregelkarte. Die Abb. 9.1 zeigt ein solches Beispiel, das erkennen lässt, dass die über einen bestimmten Zeitraum erstellten Werte am gleichen Prüfmaterial keinen Ausreißerwert aufweisen. Deutlich wird in diesem speziellen Fall aber auch eine leicht steigende Tendenz der Ergebnisse. Dies wiederum belegt, dass sich die Ausbeute der Extraktion im Laufe der Zeit mit zunehmender Routine verbessert. 9.2.1.2

Laborvergleichsuntersuchung (LVU), Proficiency Test

Bei der LVU wird Untersuchungsmaterial an verschiedene Labors versandt. Das Untersuchungsverfahren ist freigestellt. Hinweise zur Bewertung der Ergebnisse der LVU für die einzelnen Labors liefert der sog. Z-Score, der wie folgt berechnet wird: Z = (y − m0 )/ s A mit: y = Mittelwert der Ergebnisse eines Labors m0 = Mittelwert der Ergebnisse aller Labors sA = Zielstandardabweichung1) oder Standardabweichung der Ergebnisse aller Labors 1) Standardabweichung aus der Validierungsstudie (Method Performance Study) oder berechnet nach Horwitz, 1995.

9.2 Problembereiche

Die Analytik gilt den Anforderungen entsprechend, wenn der Z-Score den Wert von zwei nicht überschreitet, d. h., wenn (y − m0 ) nicht größer als 2 · sA ist. 9.2.1.3

Validierungsstudie (Method Performance Study)

Die Grundlage für die Ermittlung der Messunsicherheit legt die sog. Validierungsstudie. Bei ihr wird, anders als bei der LVU, einheitliches Untersuchungsmaterial von allen teilnehmenden Labors mit einer identischen Methode untersucht. Nach Auswertung der Ergebnisse, z. B. nach DIN/ISO 5725-2 (ISO, 2000), erhält man die Verfahrenskennzahlen Wiederholbarkeit (r) und Vergleichbarkeit (R). Die Teilnahme an einer Validierungsstudie kann mittelbar als Instrument der internen Qualitätskontrolle angesehen werden, denn hierfür werden Erfahrung und gute Laborroutine als unabdingbar vorausgesetzt. Die laborinterne Streuung einer Methode auf Übereinstimmung mit der in der Validierungsstudie ermittelten zu überprüfen, stellt eine konkrete Maßnahme im Rahmen der IQC dar. Dazu kann z. B. aus Paralleluntersuchungen mit einer bestimmten Methode die aktuelle Wiederholbarkeit in Form ihrer Standardabweichung ermittelt werden. Mit Hilfe des Varianzen-Tests (F-Test) lässt sich prüfen, ob ein Unterschied gegenüber der Wiederholbarkeit aus der Validierungsstudie besteht. Dabei gilt die folgende Bedingung: sL ≤ sR mit: sL = Standardabweichung unter Wiederholbedingungen im Labor sR = Wiederholstandardabweichung des Verfahrens Beispiel: Bestimmung von Ochratoxin A in Weißwein

Verfahrenskennzahlen: Wiederholbarkeit (r): 0,028 μg/l (für c = 0,1 μg OTA/l) Vergleichbarkeit (R): 0,056 mg/l Wiederholstandardabweichung: sR = 0,0099 μg/l sR =

r 2,83

In-house-Validierung: Wiederholstandardabweichung: sL = 0,0136 μg/l Anzahl der Wiederholungen: n=6 F-Test (Varianzen-Test): sL2 ; F = 1,90 sR2

Prüfgröße:

F =

Tabellenwert (Sachs, 1992):

Fˆ (P = 0,05; f 1 = ∞; f 2 = n − 1) = 2,09 (für n1 = 6 und n2 = f)

293

294

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

In vorliegendem Fall ist F < Fˆ . Damit entspricht die laboreigene Streuung der Methode dem Wert der Validierung. Das Beispiel zeigt, dass der reine Zahlenvergleich von sL und sR nicht genügt, um darüber zu befinden, ob die laboreigene Streuung den Kriterien der Validierung entspricht. 9.2.2 Schadstoffe, Kontaminanten und Mykotoxine

In Bezug auf Schadstoffe, Kontaminanten und Mykotoxine gibt es seitens der Europäischen Kommission das Dokument Nr. SANCO/0064/2003-rev.4 des Ständigen Lebensmittelausschusses (EG, 2003), welches in gleicher Weise wie die EU-Leitlinie für die Qualitätskontrolle bei der Pflanzenschutzmittelrückstandsanalyse sicherstellen soll, dass Ergebnisse und Ergebnisinterpretationen in Bezug auf Grenzwertüberschreitungen in der Europäischen Gemeinschaft einheitlich gehandhabt werden. Als Ursache für unterschiedliche Ergebnisinterpretationen werden auch hier, wie bei den Pflanzenschutzmitteln, die folgenden Gründe angesehen: x Zahl signifikanter Stellen bei der Ergebnisangabe und dem Vergleich mit Grenzwerten; x Behandlung der Messunsicherheit beim Vergleich von Ergebnissen und Grenzwerten oder Spezifikationen. Hinzu kommt noch: x Anwendung einer Wiederfindungskorrektur. Zur Zahl der signifikanten Stellen wird einerseits in der Leitlinie gefordert, dass der nationale und der EU-Verordnungsgeber präzise Angaben machen, d. h., im Verordnungstext genau angibt, auf wie viele Stellen genau ein Grenzwert eingehalten werden muss. Im Allgemeinen gilt jedoch, dass das Ergebnis mit einer signifikanten Stelle mehr anzugeben ist, als die Spezifikation (z. B. ein Grenzwert) nennt. Analytische Werte sind grundsätzlich in der Form a ±2⋅u oder a ±U anzugeben, wobei a die bestmögliche Schätzung des wahren Wertes der Konzentration des Analyten ist. u ist die sog. Standardunsicherheit (d. h. eine Standardabweichung aus Mehrfachuntersuchungen) und U (= 2 · u) die erweiterte Messunsicherheit. Bei der Entscheidung, ob ein Grenzwert überschritten ist, ist nach dem Grundsatz „jenseits eines vernünftigen Zweifels“ zu verfahren, d. h., von einer Überschreitung des Grenzwertes ist dann auszugehen, wenn a − U > Grenzwert ist (s. Abb. 9.2).

9.2 Problembereiche

In Bezug auf Wiederfindungskorrekturen ist die Situation uneinheitlich. Während für Pestizide entsprechend dem Dokument Nr. SANCO/10232/2006 (EG, 2006) die Berücksichtigung der Wiederfindung im Allgemeinen nicht empfohlen wird, verlangt der Ständige Ausschuss für Lebensmittel und Futtermittel insbesondere bei Mykotoxinergebnissen deren fortlaufende Bestimmung. Weiterhin ist anzugeben, ob eine Wiederfindungskorrektur erfolgt ist. Das Dokument Nr. SANCO/0064/2003 (EG, 2003) verlangt außerdem, dass Rechtsvorschriften die Wiederfindungskorrektur bei der Ergebnisangabe für Schadstoffe, Kontaminanten und Mykotoxine verbindlich verlangen sollen. Dies ist (bedauerlicherweise) mittlerweile auch in einer Reihe von EU-Rechtsakten umgesetzt worden (s. Tabelle 9.8). 9.2.3 Pharmakologisch wirksame Stoffe

Obwohl im Bereich der pharmakologisch wirksamen Stoffe die gleichen Erfordernisse in Bezug auf die Datenqualität und die Dateninterpretation bestehen und damit auf ihre Vergleichbarkeit, sind dort die Anforderungen an die Analytik formal anders geregelt. Dies hat u. a. damit zu tun, dass speziell auf diesem, für den Verbraucherschutz besonders sensiblen Gebiet, schon sehr früh systematische Monitoring-Untersuchungen im Rahmen des Rückstandskontrollplans und Grenzkontrollen durchgeführt werden mussten und dementsprechend zu erkennen war, dass ein einheitlicher Vollzug nur dann entsteht, wenn auch die entsprechenden Vorgaben an das interne Laborqualitätsmanagement und eine einheitliche Leitlinie für die laborinterne Methodenvalidierung existieren. Die Entscheidung der Kommission vom 12. August 2002 (EG, 2002) legt Regeln für Analysenmethoden fest, die bei der Analyse von amtlichen Proben auf pharmakologisch wirksame Stoffe angewendet werden sollen. Sie beinhalten: x Dokumentation der Analysenmethoden, x Validierung nach festgelegten Verfahren, x Erfüllung von Mindestleistungsgrenzen. Auch hier ist wiederum die Analytik Mittel zum Zweck, nämlich die Grenzwerte, die in der Verordnung (EWG) Nr. 2377/90 (EWG, 1990) enthalten sind, zu überprüfen. Hierin sind für pharmakologisch wirksame Stoffe in tierischen Lebensmitteln Höchstmengen und vorläufige Höchstmengen festgesetzt. Außerdem enthält die Verordnung eine Liste von Tierarzneimitteln, für die keine Höchstmengen gelten, d. h. solche Substanzen, die nicht angewendet werden dürfen und damit auch nicht nachweisbar sein dürfen, da sie in jeder Konzentration eine Gefährdung für die menschliche Gesundheit darstellen. Auch die Art der Überwachung innerhalb der Gemeinschaft ist durch die Richtlinie 96/23/EWG detailliert vorgegeben durch konkrete Festlegungen über die Art und die Häufigkeit von Untersuchungen (EG-RL, 1996). Die o. g. Entscheidung der Kommission vom August 2002 legt für angewendete Analysenmethoden u. a. Folgendes fest (Tabellen 9.5 und 9.6):

295

296

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Tabelle 9.5 Mindestwerte der Richtigkeit von quantitativen Methoden (nach Entscheidung der Kommission 2002/657/EG). Konzentration

Bereich

d 1 μg/kg

–50% bis +20%

> 1 μg/kg bis 10 μg/kg

–30% bis +10%

t 10 μg/kg

–20% bis +10%

Tabelle 9.6 Beispiele für Variationskoeffizienten unter Reproduzierbarkeitsbedingungen für quantitative Methoden (siehe Entscheidung der Kommission vom 12. August 2002/657/EWG). Konzentration

Reproduzierbarkeit – VK [%]

1 μg/kg

(*)

10 μg/kg

(*)

100 μg/kg

23

1000 μg/kg

16

(*) Für Konzentrationen von weniger als 100 μg/kg liefert die Horwitz-Gleichung inakzeptabel hohe Werte (VK(1 μg/kg) = ± 45% bzw. VK(10 μg/kg) = ± 32%). Die Variationskoeffizienten (VKs) für Konzentrationen unter 100 μg/kg müssen kleiner sein.

In der Praxis der Untersuchung auf Rückstände an pharmakologisch wirksamen Stoffen werden dazu mittels In-house-Validierung die VKs für das jeweilige Verfahren experimentell ermittelt (s. Gowik, 1998), wobei in der Regel niedrigere Werte (für c < 100 mg/kg) erreicht werden können. Da es, wie oben erwähnt, in der VO (EWG) Nr. 2377/90 (EWG, 1990) auch ein striktes Verbot für bestimmte Stoffe gibt, muss der abstrakte Begriff „nicht vorhanden“ konkret in einen Zahlenwert nach analytisch-chemischen Maßstäben umgesetzt werden. Dazu definiert die Entscheidung 2002/657/EG (EG, 2002) die sog. Entscheidungsgrenze (CCD), über die mit einer Fehlerwahrscheinlichkeit von D bestimmt werden kann, dass eine Probe positiv ist. Hierdurch kann eine einheitliche Ergebnisinterpretation sichergestellt werden. Die Entscheidungsgrenze ist die kritische Signalhöhe, ab der der Analyt als nachgewiesen gilt. Sie ergibt sich aus dem Blindwert (Schnittpunkt der Eichkurve mit der y-Achse) plus dem 2,33-fachen der Standardabweichung des Blindwertes. Die Irrtumswahrscheinlichkeit D beträgt 0,01. Addiert man zur Entscheidungsgrenze das 1,64-fache der laborinternen Standardabweichung, erhält man das Nachweisvermögen (CCE). Das Nachweisvermögen ist die Konzentration, bei der die Methode mit einer statistischen Sicherheit von 1 –E (hier 95%) Stoffe quantitativ nachweisen kann.

9.3 Definition und Bestimmung der Messunsicherheit

9.3 Definition und Bestimmung der Messunsicherheit

Die Messunsicherheit wurde durch die internationale Organisation für Standardisierung 1993 abstrakt definiert (ISO, 1993). „Uncertainty (of measurement) parameter, associated with the result of a measurement that characterizes the dispersion of the values that could reasonably be attributed to the measurement“.

„Parameter“ = Standardabweichung (s) oder ein gegebenes Mehrfaches davon, z. B. ein Vertrauensbereich. Die Unsicherheit umfasst viele Komponenten. Das Ergebnis einer Messung ist die bestmögliche Schätzung des Wertes der Messgröße und alle Komponenten der Unsicherheit, auch solche aus systematischen Einflüssen, wie Korrekturkomponenten, Referenzstandards, tragen zur Streuung bei. Die Messunsicherheit wird durch eine Standardabweichung oder deren Vielfaches beschrieben (s. auch Kapitel 4). Diese Definition schafft nichts fachlich Neues, sondern verwendet übliche Begriffe der klassischen Fehlerrechnung, wie z. B. den Vertrauensbereich. 9.3.1 Analyse der Einzelkomponenten, „bottom-up“-Prinzip

Kompliziert wird die Bestimmung der Messunsicherheit dadurch, dass ein Labor alle Einflüsse, die bei einem Verfahren zur Messwertstreuung führen können, zunächst durch eine Standardabweichung ausdrücken muss. Der Gesamtfehler wird dann mit Hilfe des Fehlerfortpflanzungsgesetzes zu einer kombinierten Messunsicherheit zusammengefasst. Diese Vorgehensweise bezeichnet man als das sog. „bottom-up“-Prinzip. x Kombinierte Messunsicherheit (combined uncertainty) (uc) Für den Fall, dass die Messgröße y aus Summe oder Differenzen der Einzelkomponenten errechnet wird, ergibt sich für uc: u c (y( p , q , …) ) =

u(2p ) + u(2q ) + …

mit: y(p, q, …) = Messwert für die Parameter p, q, … u(p, q, …) = Messunsicherheit für die Parameter p, q, … Für den Fall, dass die Messgröße y durch Multiplikation oder Division der Einzelkomponenten errechnet wird, werden die Varianzen der relativen Unsicherheiten 2  u( p )   p  addiert.

297

298

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

x Erweiterte Messunsicherheit (expanded uncertainty) Aus der kombinierten Messunsicherheit ergibt sich die erweiterte Messunsicherheit (expanded uncertainty) nach: U = k ⋅ Uc mit: k = Erweiterungsfaktor 2 oder 3 Der Erweiterungsfaktor 2 entspricht dem gerundeten Studentfaktor für den Vertrauensbereich 95%. 9.3.2 Berechnung aus der Vergleichsstandardabweichung, „top down“-Prinzip

In der Lebensmittelanalytik werden sehr häufig validierte Verfahren verwendet, d. h. Verfahren, deren Leistungskriterien, wie die Wiederholbarkeit (r), die Vergleichbarkeit (R) und die Wiederfindung sowie weitere Kennzahlen, in einer laborübergreifenden Studie ermittelt worden sind. Man kann hier davon ausgehen, dass die wesentlichen Einflüsse auf die Messwertstreuung bei einer Validierungsstudie erfasst werden. Schließlich führen alle beteiligten Labors ein vorher festgelegtes Verfahren in allen Einzelheiten von der Probeneinwaage bis zur chromatographischen Endbestimmung mehrfach durch. Es ist daher richtig, die Vergleichsstandardabweichung (sR) der kombinierten Messunsicherheit (U) gleichzusetzen (s. EURACHEM, 2004) und daraus die erweiterte Messunsicherheit zu berechnen, die in gleicher Weise wie bei dem vorgenannten „bottom-up“Prinzip den Vertrauensbereich ergibt, innerhalb dessen der wahre Wert mit 95% Wahrscheinlichkeit liegt. Bestimmung der Wiederholstandardabweichung sr und der Vergleichstandardabweichung sR: U = k ⋅ sR (k = 2; P = 95%) 9.3.3 Berechnung mit der Horwitz-Gleichung

Eine weitere Möglichkeit, die Messunsicherheit zu bestimmen, liefert die HorwitzFormel. In ihr wurde die Erfahrung aus zahlreichen Ringversuchen, wonach die Messunsicherheit von der Konzentration des Analyten abhängt, in eine empirische Formel gegossen. RSDR = 2 (1 − 0,5 log c ) (%) Die Konzentration c des Analyten wird in die Formel als dimensionsloses Massenverhältnis eingesetzt (z. B. 1 mg/kg = 10–6).

9.3 Definition und Bestimmung der Messunsicherheit

9.3.4 Der „Tauglichkeits“-Ansatz

Nach der Verordnung (EG) Nr. 333/2007 (EG 2007) kann, sofern nur eine begrenzte Zahl vollständig validierter Analysemethoden vorliegt, der sog. „Tauglichkeits“Ansatz zur Beurteilung der Eignung von Analysemethoden herangezogen werden. Für die amtliche Kontrolle taugliche Methoden müssen Ergebnisse bringen, bei denen die Standardmessunsicherheit unter der mit Hilfe der nachstehenden Formel berechneten maximalen Standardmessunsicherheit liegt: Uf =

(LOD /2)2 + ( D C )2

Dabei ist: Uf die maximale Standardunsicherheit (μg/kg) LOD die Nachweisgrenze der Methode (μg/kg) C die jeweilige Konzentration (μg/kg) ² ein konstanter numerischer Faktor, der in Abhängigkeit vom Wert für C zu verwenden ist (siehe Tabelle 8 in Literatur EG 2007) 9.3.5 Ergebnis-Interpretation mit Hilfe der Messunsicherheit

Nach der Empfehlung des Ständigen Ausschusses der EU, SANCO/0064/2003rev4 (EG, 2003), sind Messergebnisse in der Form m = a ±U mit: a = Messwert und U = erweiterte Messunsicherheit, anzugeben. Bei der Interpretation eines Ergebnisses in Bezug auf den Grenzwert ist die Messunsicherheit wie folgt zu berücksichtigen (Abb. 9.2): Im Fall 03 ist die Forderung des Ständigen Ausschusses der Gemeinschaft (siehe SANCO/0064/2003-rev 4 (EG, 2003)) erfüllt, wonach der Grenzwert im Falle einer Beanstandung jenseits vernünftigen Zweifels überschritten sein muss. Eine weitere Möglichkeit einen Messwert in Bezug auf einen Grenzwert zu beurteilen, besteht in der Berechnung der kritischen Differenz (CrD95) nach: C rD95 ≤ y − m 0 =

0,84 2

n − 1 R2 − r 2   n 

mit: y = Mittelwert der Messungen, m0 = Sollwert (z. B. Höchstmenge), R = Vergleichbarkeit, r = Wiederholbarkeit, n = Anzahl der Messungen. Voraussetzung für die Anwendung der kritischen Differenz ist, dass das jeweilige Labor mit dem gleichen Qualitätslevel arbeitet wie die am Ringversuch zur

299

300

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

Abb. 9.2 Anwendung der Messunsicherheit U und der kritischen Differenz bei der Ergebnisinterpretation.

Methodenvalidierung beteiligten Laboratorien. Nähere Einzelheiten dazu finden sich bei (Fauhl, 2006).

9.4 Nachweis-, Erfassungs- und Bestimmungsgrenze

Im Bereich des vorsorglichen gesundheitlichen Verbraucherschutzes wird z. B. verlangt, dass ein Stoff nicht nachweisbar sein darf. Wenn sich seine Anwesenheit nicht grundsätzlich vermeiden lässt, kann aber auch ein bestimmter niedriger Grenzwert, der aus gesundheitlicher Sicht unbedenklich ist und nicht überschritten werden darf, festgesetzt werden. Bei den zu ihrem Nachweis und ihrer quantitativen Bestimmung eingesetzten Verfahren muss daher bekannt sein, ob und ab welcher Konzentration sie in der Lage sind diese Stoffe nachzuweisen. Auch bei der Auswertung von Monitoring-Untersuchungen, d. h. Erhebungen, die die Belastungssituation eines Lebensmittels mit einer Kontaminante oder einem Rückstand beschreiben, ist es nötig, die Leistungsgrenzen des angewendeten Untersuchungsverfahrens zu kennen. So werden z. B. bei der Berechnung der mittleren Belastung mit einem Schadstoff, um ein realistisches Bild zu erhalten, Gehalte unter der Nachweisgrenze nicht mit null, sondern üblicherweise mit der halben Nachweisgrenze angesetzt. Gelegentlich hat das Auftreten eines Stoffes eine Indikatorfunktion. Zum Beispiel belegen die Anwesenheit von 3-MPD (3-Methoxypropandiol) oder cyclischen Diglycerinen, als Nebenprodukte der technischen Glycerinherstellung, in Wein einen unerlaubten Glycerinzusatz.

9.4 Nachweis-, Erfassungs- und Bestimmungsgrenze

Abb. 9.3 Darstellung der Nachweis-, Erfassungs- und Bestimmungsgrenze nach mit dem Eichkurvenverfahren nach DIN 32 645.

Um zu einer einheitlichen Ergebnis-Interpretation zu kommen, ist es daher unumgänglich, das Leistungsvermögen von Analysenmethoden objektiv zu definieren (s. auch Kapitel 1). x Nachweisgrenze: Entscheidungsgrenze für das Vorhandensein eines Analyten (ja/nein). Besitzt eine Probe genau den Gehalt der NWG, so würde der Analyt in 50% der Messungen nicht nachgewiesen werden, obwohl er in der Analysenprobe vorhanden ist („falsch negativ“). x Erfassungsgrenze: kleinste Konzentration eines Analyten, die mit hoher Wahrscheinlichkeit nachgewiesen werden kann (z. B. 95%). Die Erfassungsgrenze beträgt i. d. R. das Doppelte der Nachweisgrenze. x Bestimmungsgrenze: kleinste Konzentration eines Analyten, die quantitativ mit einer festgelegten Präzision bestimmt werden kann. Erst oberhalb der Bestimmungsgrenze werden quantitative Analysenergebnisse angegeben. Die Bestimmungsgrenze entspricht grob genähert der dreifachen Nachweisgrenze. Über das sog. Eichkurvenverfahren nach DIN 32 645 (DIN, 1994) können z. B. die o. g. Leistungsparameter bestimmt werden. Es geht davon aus, dass der Rückstandsanalytiker die Peaks in einem GC- oder HPLC-Chromatogramm kennt, die bei der Untersuchung rückstandsfreien Materials im Retentionszeitfenster des Analyten auftreten. Der Analytiker schätzt dann ab, wie groß ein Signal an dieser

301

302

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

Stelle mindestens sein muss, ab dem er vom Nachweis des speziellen Analyten ausgehen kann. Nach dem Schema der DIN 32 645 wird eine gesonderte Kalibriergerade mit steigenden Konzentrationen des Analyten (10 Punkte, äquidistant), die einem wirkstofffreien Probenextrakt zugesetzt wurden, erstellt. Die Konzentrationen müssen im Bereich der Mindestleistungsgrenze des Verfahrens liegen. Der Schnittpunkt der Kalibriergeraden mit der y-Achse ergibt den sog. „Blindwert“ A (s. Abb. 9.3). Nach DIN 32 645 erhält man die Nachweisgrenze (NWG), indem der Schnittpunkt der oberen Grenze des 95-%-Prognosebereichs der Eichkurve mit der y-Achse ermittelt wird. Dieser Punkt B entspricht dem größtmöglichen Signal (Peakfläche oder Peakhöhe), das bei der Analyse von rückstandsfreiem Material erhalten werden kann. Durch Spiegelung dieses Punktes an der Kalibiergeraden auf die y-Achse wird so die Nachweisgrenze (NWG) erhalten. Die Erfassungsgrenze (EG), als kleinste Konzentration, die mit z. B. 95% Wahrscheinlichkeit ermittelt werden kann, erhält man durch Verlängerung des Lots auf die NWG bis zur oberen Grenze des 95-%-Vertrauensbandes zum Punkt Cc. Man erhält dann in C den maximalen Messwert, der mit 95% Wahrscheinlichkeit erhalten wird. Durch Spiegelung von C an der Eichkurve erhält man die Erfassungsgrenze. Für die Grenzwertüberwachung ist zusätzlich die Bestimmungsgrenze (BG) für die Messwertbeurteilung wichtig. Bei einer Rückstandskonzentration in der Nähe der Nachweisgrenze ist die Streuung der Messsignale des Analyten naturgemäß groß, weil sich der Einfluss der Begleitstoffe stark bemerkbar macht. Daher geht es bei der Bestimmungsgrenze darum, eine Konzentration zu definieren, deren Signalgröße (Peakfläche oder Peakhöhe) nur noch unwesentlich von derjenigen durch die Begleitstoffe beeinflusst wird. Die Bestimmungsgrenze soll daher die niedrigste Rückstandskonzentration sein, die nur noch Signale liefert, die deutlich größer sind als die Messsignale, welche der Analyt in Konzentrationen im Bereich der Nachweisgrenze liefern kann. Nach DIN 32 647 kann diese Konzentration ebenfalls nach dem Eichkurvenverfahren ermittelt werden. Man geht in diesem Fall vom größten Signal der Bestimmungsgrenze aus, das man durch Verlängerung des Lots auf die Erfassungsgrenze bis zum Schnittpunkt mit der oberen Grenze des 95%-Prognoseintervalls (Dc) und dessen Projektion auf die y-Achse (D) erhält. Dieser Wert, der an der Eichgrade auf die x-Achse gespiegelt wird, ergibt die Bestimmungsgrenze (BG). NWG, EG und BG, die mit reinen Standardlösungen ermittelt wurden, haben nur eine geringe Aussagekraft. Sie können von der Matrix abhängen und müssen ggf. getrennt für unterschiedliche Probenarten ermittelt werden. In der Chromatographie sind aber auch einfache Schätzungen aus dem Rauschen der Basislinie gebräuchlich: x Nachweisgrenze:

3-faches Rauschen (Mittelwert + 3 · Standardabweichung) der Basislinie,

x Bestimmungsgrenze: 10-faches Rauschen (Mittelwert + 10 · Standardabweichung) der Basislinie.

9.5 Das Problem der Wiederfindung

Der Nachteil dieses Verfahrens ist, dass der Einfluss der Matrix unberücksichtigt bleibt. Angabe von Analysenergebnissen nach DIN 32 645: x < NG: nicht nachgewiesen (mit NG), Höchstgehalt EG, NG d x < BG: nachgewiesen, nicht bestimmbar (mit BG), x t BG: Gehalt mit Konfidenzintervall bzw. Messunsicherheit.

9.5 Das Problem der Wiederfindung

Die Wiederfindung ergibt sich als Quotient eines beobachteten Wertes und eines zertifizierten Wertes, die jeweils an zertifiziertem Referenzmaterial erstellt worden sind. Letzterer kann auch der Wert aus einem Zusatzversuch sein. Im Idealfall liegt die Wiederfindung (WF) bei eins. WF =

c obs c ref

mit: cobs = beobachtete Konzentration und cref = zertifizierter Wert aus Referenzmaterial (CRM) oder Ergebnis mit alternativer Methode oder Ergebnis aus Zusatzversuch. Bevor eine Korrektur über einen Wiederfindungsfaktor erfolgt, muss geprüft werden, ob die Wiederfindung signifikant von eins abweicht. Dies gelingt mit dem t-Test. Bei Überschreitung des kritischen t-Wertes kann die Null-Hypothese, d. h., es besteht kein Unterschied zwischen der Wiederfindung und dem Idealwert eins, abgelehnt werden. In diesem Fall kann man von einer signifikanten Abweichung vom Idealwert der Wiederfindung ausgehen. Bestimmung der Standardabweichung der Wiederfindung (srec), z. B. durch Zusatzversuche (spiking) an verschiedenen Matrizes: Signifikanztest:

WF – 1 = 0

mittels „t-Test“:

t =

1 − WF sRec

WF − 1 = 0 mit: tkrit = kritischer Wert der t-Verteilung für f = n – 1 und P = 95% (zweiseitig) t > tkrit; WF signifikant von 1 verschieden. Korrektur des Messwertes mit k = 1/WF.

303

304

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

Die kombinierte Messunsicherheit uc beträgt dann: 2

uc =

 u( p )   uRec   p  +  Rec 

2

Wird der ermittelte analytische Wert um die Wiederfindung korrigiert, ist der Fehler der Wiederfindung in die kombinierte Messunsicherheit einzubeziehen. Möglichkeiten zur Bestimmung der Wiederfindung: x Wiederholte Untersuchung von zertifiziertem Referenzmaterial (CRM). Das Referenzmaterial sollte für das Testmaterial annähernd repräsentativ sein. x Zusatz eines „Surrogates“ des Analyten zum Testmaterial, z. B. in Form des isotopenmarkierten Analyten. x Zusatzversuch (spiking) – zu Testmaterial unbelastet, – zu Testmaterial belastet. x Interner Standard. Der interne Standard sollte möglichst ähnliche Eigenschaften besitzen wie der Analyt. Zu den bekannten Fehlerquellen bei der Bestimmung der Wiederfindung zählen folgende: x Wiederholbarkeit der Wiederfindungsversuche – die Ergebnisse von Wiederfindungsversuchen streuen. x Unsicherheit des Referenzwertes Auch der Referenzwert ist keine Naturkonstante, sondern er muss analytisch bestimmt werden mit der Folge von Messwertstreuungen. x Unsicherheit des Zusatzes beim „Spiking“ Auch Zusätze zum Testmaterial unterliegen einer zufallsbedingten Streuung. x Wiederfindungsversuche sind matrix-abhängig und deren Ergebnis nicht auf unterschiedliche Testmaterialien übertragbar (matrix mismatch). x Der Zusatz und der sog. „gewachsene“ Analyt verhalten sich häufig unterschiedlich. In diesen Fällen wird die Wiederfindung mehr oder weniger stark überschätzt. x Die Wiederfindung kann konzentrationsabhängig sein. Hervorzuheben ist, dass die Unsicherheit von Wiederfindungsversuchen sehr hoch sein kann und damit die kombinierte Unsicherheit des unkorrigierten Wertes überproportional erhöht. Dies kann beim Auftraggeber und auch in der Öffentlichkeit zu Zweifeln an der Wirksamkeit von Überwachungsmaßnahmen führen. Bei Untersuchungen auf Pflanzenschutzmittelrückstände sagt das Dokument SANCO/10232/2006 (EG, 2006) unzweideutig, dass Daten aus der Untersuchung von Pflanzenschutzmittelrückständen nicht durch Wiederfindungsfaktoren korrigiert werden sollten. Wird dies doch für erforderlich gehalten, muss im Zusammenhang mit der Ergebnismitteilung darauf hingewiesen werden.

9.5 Das Problem der Wiederfindung

Gänzlich anders ist die Situation bei Mykotoxinen, toxischen Spurenelementen und 3-MCPD. Hier legen EU-Richtlinien, ein EU-Richtlinienentwurf und Empfehlungen des Ständigen Ausschusses die Wiederfindungskorrektur der analytisch ermittelten Werte verbindlich fest. Der Arbeitskreis Lebensmittelchemischer Sachverständiger der Länder und des Bundesamtes für Verbraucherschutz und Lebensmittelsicherheit (ALS) hat sich unbeschadet der Festlegungen in den o. g. Rechtsvorschriften zur Wiederfindungskorrektur wie folgt geäußert: „Wenn bei einer Analyse der Gehalt eines Analyten nicht exakt zu ermitteln ist, d. h., die Wiederfindungsrate von 100% abweicht, kann dies an zufälligen oder an systematischen Fehlern liegen. Ausschließlich dann, wenn systematische Fehler vorliegen, z. B. bei Extraktionen oder Derivatisierungen, darf eine Berücksichtigung der Wiederfindung bei der Ergebnisangabe in Betracht gezogen werden. Im Bereich der Elementuntersuchungen werden Verluste z. B. durch Verflüchtigung oder Absorption verursacht. Die Gründe dafür sind zufälliger Art und vielfältiger Natur. Nur durch Optimierung der Verfahren und geeignete Vorgaben innerhalb des Analysenprozesses können zu niedrige und zu hohe Werte vermieden werden. Die Anwendung eines konstanten Wiederfindungsfaktors ist daher aus analytischer Sicht nicht zu begründen und wissenschaftlich falsch. Werden bei organischen Rückständen genormte und über Ringversuche validierte Methoden angewendet, sind ihre Leistungskriterien bekannt. Diese Daten werden im Rahmen der IQC in den Laboratorien laufend überprüft. Unter diesen Bedingungen erstellte Einzelergebnisse können grundsätzlich als vergleichbar betrachtet werden. Eine Korrektur von Messwerten durch die Wiederfindungsrate führt in diesen Fällen nicht zwangsläufig zu einer besseren Vergleichbarkeit der Messergebnisse verschiedener Laboratorien. Tabelle 9.7 Pro und Kontra einer Wiederfindungskorrektur. Pro

Kontra

x Ermittlung des wahren Wertes des nativen Analyten und seiner Unsicherheit grundsätzlich erwünscht.

x WF wird zu hoch ermittelt („gewachsener“ Analyt verhält sich anders als Zusatz).

x Bei niedriger WF, Annäherung an den wahren Wert, bessere Vergleichbarkeit und gegenseitige Anerkennung. x Methoden zur Bestimmung der WF sind in bewährte Analysenverfahren integriert. x Die Unsicherheit uRec der WF wird in uc mit berücksichtigt.

x WF nicht auf verschiedene Matrizes übertragbar. x uRec hoch gegenüber u des unkorrigierten Wertes. Folge: uc wird groß; Außenstehende bezweifeln die Wirksamkeit von Überwachungsmaßnahmen. x uc kann auch bei WF § 1 stark erhöht werden. x Höchstmengenregelungen sind von MonitoringUntersuchungen ohne Korrektur abgeleitet. Verluste durch die WF sind damit bereits erfasst. x Es gibt noch kein international vereinheitlichtes Verfahren zur Bestimmung der WF.

305

306

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

Werden nicht genormte Methoden angewandt, weisen Messergebnisse verschiedener Laboratorien in der Regel eine geringere Vergleichbarkeit auf. Eine Wiederfindungskorrektur durch Externe, d. h. unabhängig von der jeweiligen Probe ermittelte Korrekturfaktoren durch Zusatzversuche oder Untersuchung von Referenzmaterial, wird hier als sinnvoll angesehen.“ (ALS 2006). Tabelle 9.8 Rechtsvorschriften, die die Wiederfindungskorrektur vorschreiben. Stoff/Stoffgruppe

EG-Dokument

Aflatoxine

RL 2003/121/EG (EG-RL, 2003a)

Pb, Cd, Hg, 3-MCPD, Benzo(a)pyren, Zinn

Verordnung (EG) Nr. 333/2007 (EG 2007)

Ochratoxin A

RL 2004/43/EG (EG-RL, 2004 a)

Patulin

RL 2003/78/EG (EG-RL, 2003 b)

Zinn

RL 2004/16/EG (EG-RL, 2004 b)

Fusarientoxine

SANCO/0023/2004/Rev.3 (EG, 2004)

Die vor kurzem erlassene Verordnung (EG) Nr. 333/2007 (EG 2007) fordert nur dann das Analyseergebnis um die Wiederfindungsrate zu berichtigen, wenn die Analysemethode einen Extraktionsschritt beinhaltet. Trifft dies nicht zu, wie z. B. bei Metallen, kann das Ergebnis ohne Berichtigung angegeben werden.

9.6 Die Probennahme

Die Entnahme des Probenmaterials für eine Untersuchung ist ein elementarer Teilschritt des gesamten analytischen Prozesses. Die Untersuchung einer Teilmenge von Material oder einer Warenpartie soll ein zutreffendes Bild der zu beurteilenden Gesamtmenge ergeben. Je nach Probenbeschaffenheit oder nach der Art des Analyten kann der erhaltene Wert bei Mehrfachuntersuchung streuen. Man bezeichnet dies als den Probennahmefehler. Ein Beispiel für besonders extreme, vom Analyten abhängige Probennahmefehler stellen die Mykotoxine dar. Sie breiten sich nesterartig im pflanzlichen Material aus. Das nachfolgende Beispiel (Tabelle 9.9) mag die Problematik verdeutlichen: Tabelle 9.9 Gesamtaflatoxingehalte in geschälten Erdnüssen (je 10 Proben zu je 5-kg-Proben aus einer Gesamtpartie) nach Whitacker (Whitacker, 2003). Lfd. Nr.

1

2

3

4

5

6

7

8

9

10

Mittelwert

μg/kg

n. n.

n. n.

n. n.

n. n.

3

13

19

41

43

69

19

9.6 Die Probennahme

Unter der Annahme, der wahre Gehalt der Partie beträgt 19 μg/kg und der Grenzwert 15 μg/kg, würde die Entscheidung die Partie anzunehmen oder abzulehnen auf der Grundlage der Proben 1–6 zu falsch-negativer Entscheidung führen. Das Verbraucherrisiko läge bei 60%. Die Untersuchungen von Whitaker zeigen an einem weiteren Beispiel, dass durch die Erhöhung der Probenmenge von 5 auf 20 kg und gleichzeitig der Zahl der Einzelproben sich der Probennahmefehler um den Faktor vier verringern lässt. Generell gilt, dass der Probennahmefehler durch eine hohe Zahl von Einzelproben, die zur Sammelprobe durch Homogenisieren zusammengefasst und dann untersucht werden, zu verringern ist. Eine umfassende Darstellung dieser Problematik geben Whitaker et al. (1994). Um bei der Überwachung der Grenzwerte vergleichbare Ergebnisse einerseits zwischen der Eigenkontrolle des Herstellers und andererseits der amtlichen Kontrolle zu erhalten, wurden verbindliche Probennahme-Pläne für die Untersuchung auf Rückstände und Kontaminanten auf EU-Ebene erlassen. Die Tabelle 9.10 gibt einen Überblick über eine Reihe wichtiger Probennahme-Vorschriften und zeigt auszugsweise, wie viele Einzelproben jeweils abhängig von der Partiegröße bei bestimmten Erntegütern zu entnehmen sind. Schematisch wird in allen Probennahme-Vorschriften der Ablauf in folgende Schritte gegliedert: x Einzelprobe:

Anzahl abhängig von der Partiegröße, Menge zwischen 100 bis 300 g in der ProbennahmeVorschrift je nach Warenart definiert.

x Sammelprobe: Menge zwischen 10 bis 30 kg, homogenisieren. x Teilprobe:

Je nach Partiegröße kann die Sammelprobe in Teilproben aufgeteilt werden, die getrennt zu untersuchen sind.

x Laborprobe:

Ein Aliquot aus der homogenisierten Sammel- oder den Teilproben.

Allgemeine Grundsätze, wie Probennahme-Pläne für einzelne Lebensmittelgruppen zu entwickeln sind, enthält eine spezielle Codex-Alimentarius-Leitlinie (Codex Alimentarius, 2004). In ihr wird beschrieben, wie unter der Berücksichtigung der Verteilung eines Analyten in bestimmten Probenmaterialien, die gesondert experimentell zu bestimmen ist, die erforderlichen Probenzahlen errechnet werden können, um bestimmte Grenzwerte mit der geforderten Irrtumswahrscheinlichkeit für eine falsch-negative oder eine falsch-positive Entscheidung erfassen zu können. Aus den Vorbemerkungen zu den in der Tabelle 9.10 genannten Richtlinien ergeben sich keine Hinweise darauf, dass die theoretischen Überlegungen der Codex-Alimentarius-Leitlinie zur Erstellung der dort ausgewiesenen Probennahme-Pläne angewendet wurden. Höchstwahrscheinlich sind diese Pläne unter dem Gesichtspunkt der Praktikabilität erstellt worden. Es ist zu hoffen, dass die in verschiedenen Vorschriften unübersichtlich aufgeteilten Probennahme-Pläne, die sich vom Prinzip gleichen, bald vereinfacht, zu einer

307

308

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik

einzigen Vorschrift zusammengefasst werden. Ein entsprechender Richtlinienentwurf der EU-Kommission liegt seit 2005 vor.

Tabelle 9.10 Probennahme-Vorschriften bei der Überwachung von Grenzwerten für Kontaminanten und Rückstände in Lebensmitteln. Rückstand/ Kontaminante

Vorschrift

Partiegröße Anzahl Proben

Richtlinie Nr. 2002/63/EG (EG-RL, 2002a) Amtliche Sammlung Nr. L 00.00-7 (ASU)

A (kg)

< 50

50–500

> 500

B

3

5

10

Aflatoxine Getreide, Erdnüsse, Paranüsse, Feigen, Mais

Richtlinie Nr. 98/53/EG (EG-RL, 1988)

A* (t)

1–3

3–10

10–20

20–50

B

20

40

60

100

Ochratoxin A Getreide, Rosinen

Richtlinie Nr. 2002/26/EG (EG-RL, 2000b)

A* (t)

15

B

10–100

100

Patulin Apfelsaft, Apfelerzeugnisse

Richtlinie Nr. 2003/78/EG (EG-RL, 2003b)

A (kg)

< 50

50–500

> 500

B

3

5

10

Aflatoxine und Ochratoxin A Babynahrung auf Getreidebasis

Richtlinie Nr. 2004/43/EG (EG-RL, 2004a)

A* (t)

1–3

3–10

10–20

20–50

B

10

20

40

60

100

Zinn Konserven

Richtlinie Nr. 2004/16/EG (EG-RL, 2004b)

C

1–25

26–100

100

B

1

2

5

Richtlinie Nr. 2005/38/EG (EG-RL, 2005)

A (t)

3–10

20–50

40

100

Pestizide

Aflatoxine Gewürze

Fusarientoxine Getreide, Getreideerzeugnisse

B

< 0,05 0,05–0,5 0,5–1 3

5

10

A = Partiegröße in [kg] oder [t]; B = Probenzahl; C = Partiegröße als Dosenzahl. * Angaben beziehen sich auf Getreide oder Erzeugnisse auf Getreidebasis.

9.7 Nationale und internationale Leitlinien und Gremien zur Qualitätssicherung

9.7 Nationale und internationale Leitlinien und Gremien zur Qualitätssicherung in der Analytischen Chemie

Die EG-Richtlinie 93/99/EWG (EG-RL, 1993) über zusätzliche Maßnahmen im Bereich der amtlichen Lebensmittelüberwachung legt in Artikel 3 verbindlich fest, dass die in der Überwachung tätigen Laboratorien die Kriterien der EN 45001 (heute EN 17025) zu erfüllen haben. Daraus ergeben sich im Wesentlichen die folgenden Pflichten: x x x x

Validierung der Untersuchungsverfahren, Anwendung validierter Verfahren, Angabe der Messunsicherheit bei der Mitteilung von Ergebnissen, internes Qualitätsmanagement (IQC).

Leitlinien, wie diese Maßnahmen im Einzelnen zu erfüllen sind, ergeben sich aus Tabelle 9.11. Grundlage für alle Überlegungen zur Messunsicherheit, deren Berechnung und Anwendung ist die ISO-Norm 1993 (ISO, 1993), auf die fast alle in der Tabelle 9.11 aufgeführten Dokumente Bezug nehmen. Die EURACHEM-Leitlinien greifen wiederum die harmonisierten Protokolle und Leitlinien der IUPAC auf und stellen die praktische Verbindung zur Rückstandsanalytik in der Lebensmittelüberwachung her.

Tabelle 9.11 Nationale und internationale Leitlinien zum Qualitätsmanagement in der Analytischen Chemie. Leitlinie

Inhalt/Anmerkungen

Guide to the expression of uncertainty, ISO, Geneva 1993 (ISO, 1993)

Definitionen aller relevanten metrologischen Größen; Beschreibung der Bestimmung der Standard-, der kombinierten und der erweiterten Messunsicherheit.

IUPAC – The international harmonized protocol for the proficiency testing of (chemical) analytical laboratories (Thompson, 1993)

Definition und Beschreibung des Eignungsprüfungssystems (Proficiency Testing Scheme). Beschreibung der Organisation, Auswertung und Bewertung der Ergebnisse des Eignungsprüfungssystems (LVU), letzteres mit dem sog. z-Score. Ein Ranking anhand des z-Scores wird nicht als sinnvoll angesehen.

IUPAC – Protocol for the design, conduct and interpretation of methodperformance studies (Horwitz, 1995)

Beschreibung der Organisation, des Designs und der Auswertung von Ringversuchen (Method Performance Studies). Beschreibung der Verfahrenskennzahlen Wiederholbarkeit (r = repeatability limit) und der Vergleichbarkeit (R = reproducibility limit) und der Anwendung dieser Größen zum Vergleich der Ergebnisse zweier Laboratorien (im Wesentlichen auch in der DIN/ISO 5796-2 enthalten).

309

310

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Tabelle 9.11 (Fortsetzung) Leitlinie

Inhalt/Anmerkungen

IUPAC – Harmonized guidelines for internal quality control in analytical chemistry laboratories (Thompson, 1995)

Leitlinie für die interne Qualitätskontrolle (Internal Quality Control = IQC). IQC beschreibt das analytische Verfahren anhand seiner statistischen Kennzahlen im laufenden Gebrauch. Das geeignete Mittel, dies darzustellen und zu verfolgen, ist die Qualitätsregelkarte, deren Erstellung, Auswertung und deren Anwendungsregeln beschrieben werden. Die Verwendung von zertifiziertem Referenzmaterial wird der von laboreigenem Kontrollmaterial gegenübergestellt.

IUPAC – Harmonized guidelines for the use of recovery information in analytical measurement (Thompson, 1999)

Umfassende Darstellung der Art von Wiederfindungsversuchen, ihre Vor- und Nachteile sowie Empfehlungen, wann Ergebniskorrekturen durch einen Wiederfindungsfaktor erfolgen können.

IUPAC – Harmonized guidelines for single-laboratory validation of methods of analysis (Thompson, 2002)

Empfehlung, wo immer möglich, sollen Labors solche Verfahren einsetzen, deren Leistungskriterien aus dem Ringversuch (Method Performance Study) bekannt sind und nach einem international anerkanntem Protokoll erstellt wurden. Wo derartige Verfahren nicht verfügbar sind, ist eine laborinterne Validierung angebracht. Die Validierung durch ein Labor umfasst: Anwendbarkeit, Selektivität, Kalibrierung, Genauigkeit, Präzision, Messbereich, Nachweis- und Bestimmungsgrenze, Empfindlichkeit und Robustheit. Das analytische Labor muss einen Nachweis erbringen, dass diese Kriterien erfasst wurden. Die Bestimmung der einzelnen Kriterien wird durch Beispiele erläutert.

EURACHEM/CITAC-Leitfaden (Stand: Februar 2004), 2. Auflage (deutsche Fassung) Ermittlung der Messunsicherheit bei analytischen Messungen (EURACHEM 2004)

Umfassende Darstellung des Themas Messunsicherheit unter Berücksichtigung früherer Leitfäden (Draft EURACHEM/CITAC-Guide, June 1999 und EURACHEM-Guide 1995) und der Literatur. Definitionen der Begriffe wie, Verfahren der Quantifizierung der Messunsicherheit, der kombinierten und der erweiterten Messunsicherheit. Umfangreicher Anhang mit Beispielen und den Berechnungsformeln.

EURACHEM/CITAC-Guide 2003 (EURACHEM, 2003) Traceability in chemical measurement

Definitionen wichtiger Begriffe, wie z. B. analytisches Verfahren, Messgröße, Ergebnisse, Kalibrierung und deren Rückverfolgbarkeit.

EURACHEM-Guide, The fitness of purpose analytic methods 1998 (EURACHEM, 1998)

Hilfreicher Leitfaden, der u. a. im Anhang die Definitionen der Begriffe und ihre Bedeutung bei analytischen Methoden alphabetisch geordnet von accuracy bis verification zusammenstellt. Er legt dar, wann und wie Methoden validiert werden sollten, wie die Validierungsdaten angewendet werden und wie Ergebnisse anhand der Messunsicherheit zu interpretieren sind.

9.7 Nationale und internationale Leitlinien und Gremien zur Qualitätssicherung Tabelle 9.11 (Fortsetzung) Leitlinie

Inhalt/Anmerkungen

Handbook for calculation of measurement uncertainty in environmental laboratories, June 2003 (Nordic Council, 2003)

Die Begriffe der Messunsicherheit und der Verfahrenskennzahlen werden an konkreten Beispielen der Umweltanalytik anschaulich durch Bilder und Graphiken erläutert.

Dokumente der EG-Generaldirektion Gesundheit und Verbraucherschutz (SANCO): Quality control procedures for pesticide residue analysis, Doc. N° SANCO/10232/2006 vom 24. März 2006 (SANCO, 2006)

Leitlinie, die beim Pestizid-Monitoring und bei der Pestizid-Grenzwertüberwachung von den Überwachungsbehörden anzuwenden ist und dazu dienen soll x falsch-positive und falsch-negative Ergebnisse zu vermeiden, x sicherstellen, dass akzeptable Genauigkeit erreicht wird, x innerhalb der EU ein wirtschaftlich effizientes analytisches Qualitätsmanagement zu schaffen und es zu harmonisieren, x die Anwendung der Norm ISO 17025 (Akkreditierungsstandard) zu fordern.

Report on the standing committee on the food chain and animal health – SANCO/0064/2003-rev.4 (EG, 2003)

Dokument des ständigen Lebensmittelausschusses der EU (Generaldirektion Gesundheit und Verbraucherschutz = SANCO). Es wendet sich sowohl an den EU-Gesetzgeber als auch an die Behörden der Überwachung. Ausgangspunkt ist, dass einerseits analytische Werte von der Methode abhängen können, andererseits die Art der Probenahme das Ergebnis immer beeinflusst. Es wird daher den Überwachungsbehörden auferlegt bei der Entscheidung über die Nichtkonformität von Waren stets die Messunsicherheit einzubeziehen. Nur wenn der analytische Wert abzüglich der Messunsicherheit größer als der Grenzwert ist, ist sichergestellt, dass die festgestellte Konzentration jenseits vernünftigen Zweifels höher ist als der festgesetzte Grenzwert. Bei der Festlegung von Grenzwerten in EU-Rechtsakten ist verbindlich anzugeben, ob bei der abschließenden Beurteilung eine Wiederfindungskorrektur anzuwenden ist oder nicht. Methoden sollten außerdem in Bezug auf eine minimale bzw. maximale Wiederfindungsrate klassifiziert werden. Wichtig: Die Standardabweichung der Reproduzierbarkeit (sR), die aus den Ergebnissen des Ringversuchs errechnet werden kann, kann der „combined uncertainty“ gleichgesetzt werden. Mit der erweiterten Messunsicherheit (u = 2 · sR) wird der wahre Wert zu 95% erfasst.

311

312

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Tabelle 9.11 (Fortsetzung) Leitlinie

Inhalt/Anmerkungen

Dokumente der Codex Alimentarius Kommission, Food and Agriculture Organisation of the United Nations (FAO): Guidelines for the assessment of the competent of testing laboratories involved in the import and export control of food (Codex Alimentarius, 1997)

Die Codex Alimentarius Kommission erkennt auf weltweiter Ebene die ISO-Norm ISO/IEC 28: 1993 „Akkreditierung von Untersuchungslaboratorien, allgemeine Anforderungen zur Durchführung und Anerkennung“ an. Sie beruft sich auf das harmonisierte Protokoll für Eignungsprüfungstest der IUPAC (Thompson, 1993), die Leitlinie für die interne Qualitätskontrolle in analytischchemischen Labors (Thompson, 1995).

Guidelines on measurement uncertainty (Codex Alimentarius, 2004)

Die Angabe der Messergebnisse erfolgt grundsätzlich in der Form a ± 2 · u oder a ± U. Die Bestimmung der Messunsicherheit muss nicht notwendigerweise nach dem ISO-Modell der Einzelschritte („bottom-up“-Prinzip) erfolgen, wenn z. B. Daten aus einem Ringversuch vorliegen.

Literatur Codex Alimentarius (1997) http://www.codexalimentarius.net. Codex Alimentarius (2004) http://www.codexalimentarius.net. DIN (1994) DIN 32 645 Chemische Analytik; Nachweis-, Verfassungs- und Bestimmungsgrenze; Ermittlung unter Wiederholbedingungen; Begriffe, Verfahren, Auswertung. Deutsches Institut für Normung e.V., Berlin 1994. EG (2001) Verordnung (EG) Nr. 466/2001 der Kommission vom 8. März 2001 zur Festsetzung der Höchstgehalte für bestimmten Kontaminanten in Lebensmitteln; ABl. vom 16.03.2001, L 77, S. 1. EG (2002) Entscheidung der Kommission vom 12. August 2002 zur Umsetzung der Richtlinie 96/23/EG des Rates betreffend die Durchführung von Analysenmethoden und die Auswertung von Ergebnissen ABl. Nr. L 221 S. 8. EG (2003) Report of the standing committee on the food chain and animal health

on the relationship between analytical results, the measurement uncertainty, recovery factors and the provisions in EU food and feed legislation with particular focus on the community legislation concerning – contaminants in food (council regulation (EEC) No 315/93 of 8 February 1993 laying down community procedures for contaminants in food – undesirable substances in feed (directive 2002/32/EC of the European Parliament and of the Council of 7 May 2002 on undesirable substances in animal feed. Dokument Nr. SANCO/0064/2003-rev.4. EG (2006) Quality Control Procedures for Pesticide Residues Analysis; Document Nr. SANCO 10232/2006 vom 24. März 2006. EG (2007) Verordnung (EG) Nr. 333/2007 zur Festlegung der Probenahmeverfahren und Analysemethoden für die amtl. Kontrolle des Gehaltes an Pb, Cd, Hg,

Literatur anorg. Sn, 3-MCPD und Benzo(a)pyren in Lebensmitteln; ABl. vom 29.01.2007 Nr. L 88, S. 29. EG-RL (1993) Richtlinie 93/99/EWG des Rates vom 29. Oktober 1993 über zusätzliche Maßnahmen im Bereich der amtlichen Lebensmittelüberwachung, ABl. Nr. L 290/14, geändert durch VO (EG) Nr. 1882/2003 vom 29.09.2003, ABl. Nr. L 284, S. 1. EG-RL (1996) Richtlinie 96/23/EG des Rates vom 29. April 1996 über Kontrollmaßnahmen hinsichtlich bestimmter Stoffe und ihrer Rückstände in lebenden Tieren und tierischen Erzeugnissen und zur Aufhebung der Richtlinien 85/258/EWG und 86/469/EWG und der Entscheidung 89/187/EWG und 91/664/ EWG; ABl. Nr. L 125, S. 10. EG-RL (1998) Richtlinie 98/53/EG der Kommission vom 16. Juli 1998 zur Festlegung von Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle bestimmter Lebensmittel auf Einhaltung der Höchstgehalte für Kontaminanten, ABl. Nr. L 201, S.93. EG-RL (2002a) Richtlinie 2002/63/EG der Kommission vom 11. Juli 2002 zur Festlegung gemeinschaftlicher Probennahmemethoden zur amtlichen Kontrolle von Pestizidrückständen in und auf Erzeugnissen pflanzlichen und tierischen Ursprungs und zur Aufhebung der Richtlinie 79/700/EWG, ABl. Nr. L 187, S. 30. EG-RL (2002b) Richtlinie 2002/26/EG der Kommission vom 13. März 2002 zur Festlegung der Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle der Ochratoxin-A-Gehalte in Lebensmitteln, ABl. Nr. L75, S. 38. EG-RL (2002c) Richtlinie 2002/27/EG der Kommission vom 13. März 2002 zur Änderung der Richtlinie 98/53/EG zur Festlegung von Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle bestimmter Lebensmittel auf Einhaltung der Höchstgehalte für Kontaminanten, ABl. Nr. L 75, S. 44. EG-RL (2003a) Richtlinie 2003/121/EG der Kommission vom 15. Dezember 2003 zur Änderung der Richtlinie 98/53/EG der Kommission zur Festlegung von Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle

bestimmter Lebensmittel auf Einhaltung der Höchstgehalte für Kontaminanten, ABl. Nr. L 332, S. 38. EG-RL (2003b) Richtlinie 2003/78/EG der Kommission vom 11. August 2003 zur Festlegung der Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle des Patulingehaltes von Lebensmitteln, ABl. Nr. L 203, S. 40. EG-RL (2004a) Richtlinie 2004/43/EG der Kommission vom 13. April 2004 zur Änderung der Richtlinie 98/53/EG und der Richtlinie 2002/26/EG hinsichtlich der Probennahmeverfahren und Analysemethoden zur amtlichen Kontrolle der Gehalte an Aflatoxin und Ochratoxin A in Lebensmitteln für Säuglinge und Kleinkinder, ABl. Nr. L 113 S. 14. EG-RL (2004b) Richtlinie 2004/16/EG der Kommission vom 12. Februar 2004 zur Festlegung der Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle der Zinngehalte in Lebensmittelkonserven, ABl. Nr. L 42, S. 16. EG-RL (2005) Richtlinie 2005/38/EG der Kommission vom 6. Juni 2005 zur Festlegung der Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle des Gehalts an Fusarientoxinen in Lebensmitteln, Abl. Nr. L 143, S. 18. EURACHEM (1995) Quantifying uncertainty in analytical measurement, Laboratory of Government Chemist, London 1995, ISBN 0-948926-082. EURACHEM (1998) Guide, The fitness for purpose of analytical methods – A laboratory guide to method validation and related topics. EURACHEM (2003) Traceability in chemical measurement. – A guide to achieving comparable results in chemical measurements. EURACHEM (2004) Ellison, S. L. R.; Rösslein, M.; Williams, A. (Hrsg.) Ermittlung der Messunsicherheit bei analytischen Messungen, EURACHEM/ CITAC Guide, 2. Aufl. EWG (1990) Verordnung (EWG) Nr. 2377/90 des Rates zur Schaffung eines Gemeinschaftsverfahrens für die Festsetzung von Höchstmengen für Tierarzneimittelrückstände in Nahrungsmitteln tierischen Ursprungs vom 26. Juni 1990, ABl. Nr. L 224, S. 1.

313

314

9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Fauhl, C. (2006) Measurement uncertainty in wine appreciation, Mitteilungen Klosterneuburg, 56: 3–13. Gilsbach, W. (1998) Abschätzung der Messunsicherheit bei der Rückstandsanalytik von Pflanzenschutzmitteln, Lebensmittelchemie, 52: 95–96. Gowik, P., Jülicher, B., Uhlig, S. (1998) Multi-residue method for non-steroidal anti-inflammatory drugs in plasma using high-performance liquid chromatography–photodiodearray detection, Method description and comprehensive in-house validation, Journal of Chromatography B, 716: 221–232. Horwitz, W. (1995) Protocol for the design, conduct and interpretation of methodperformance studies, Pure & App. Chem., 67: 331–343. ISO (1993) Guide to the expression of uncertainty, ISO, Geneva 1993. ISO (2000) Genauigkeit (Richtigkeit und Präzision) von Messverfahren und Messergebnissen, Teil 2 (ISO 5725-2: 1994), Entwurf 2000. Journal für Verbraucherschutz und Lebensmittelsicherheit (2006), 1. Amtl. Mitt. aus dem Bereich Lebens- und Futtermittel, ALS-Stellungnahmen. LFGB (2005) Lebensmittel, Bedarfsgegenstände und Futtermittelgesetzbuch vom 01. September 2005, BGBl. I, S. 2618 ff. MHmV (1999) Verordnung über Höchstmengen an Mykotoxinen in Lebensmitteln vom 2. Juni 1999, BGBl. I, 1999, S. 1248, zul. geänd. d. Art. 17 vom 22.02.2006, BGBl. I, S. 444. Nordic Council (2003) Handbook for calculation of measurement uncertainty in environmental laboratories, version 1.2, June 2003 (Nordic Council of Ministers 2003).

RHmV (1999) Rückstands-Höchstmengenverordnung vom 21. Oktober 1999, BGBl. I, 1999, S. 2082, zul. geänd. d. Art. 1 vom 13.08.2007, BGBl., S. 1962, 2379. Sachs, L. (1992) Angewandte Statistik, 7. Auflage, Springer Verlag. SHmV (2007) Verordnung über Höchstmengen an Schadstoffen in Lebensmitteln vom 18. Juli 2007, BGBl. I, 2007, S. 1473. Thompson, M., Ellison, S. L. R., Fajgelj, A., Willetts, P., Wood, R. (1999) Harmonized guidelines for the use of recovery information in analytical measurement, Pure & App. Chem., 71: 337–348. Thompson, M., Ellison, S. L. R., Wood, R. (2002) Harmonized guidelines for single-laboratory validation of methods of analysis, Pure & App. Chem., 74: 835–855. Thompson, M., Wood, R. (1993) The international harmonized Protocol for the proficiency testing of (chemical) analytical laboratories, Pure & App. Chem., 65: 2123–2144. Thompson, M., Wood, R. (1995) Harmonized guidelines for internal quality control in analytical chemistry laboratories, Pure & App. Chem., 67: 649–666. Whitaker, Th. B., Dowell, F. E., Hagler jr., W. M., Giesbrecht, F. G., Wu, J. (1994), Variability associated with sampling, sample preparation and chemical testing for aflatoxin in farmer’s stock peanuts, Journal of the AOAC International 77: 107–116. Whitaker, Th. B. (2003) Standardisation of mycotoxin sampling procedures: an urgent necessity, Food Control 14: 233–237.

315

10 Beurteilung von analytischen Daten aus Behördensicht – Regelarbeitsweise und AQS für selten angewandte und zeitaufwändige Analysenverfahren Günter Papke

10.1 Einleitung

Operative AQS-Maßnahmen (gemeint sind hier nicht die strategischen Anteile der AQS zur Erstellung und Pflege des Qualitätsmanagementsystems nach DIN EN ISO/IEC 17 025 [1]) sind Konventionen zur Vertrauensbildung gegenüber dem Kunden. Ideal wären Werkzeuge, die von jedem angewandt werden können, um die Güte des „Produktes“ Analytik objektiv beschreiben/umschreiben(?) zu können. AQS-Maßnahmen sind zweckgerichtet, ihr wichtigstes Ziel ist es, durch Angabe eines Wertes für die Messunsicherheit die jeweilige Analysentechnik harmonisch zu ergänzen. Unstimmigkeiten existieren aber manchmal darüber, wo die Analysentechnik aufhört und die AQS anfängt. Wenn z. B. die analytische Fachnorm eine Kalibrierung gemäß DIN 38 402-A51, ISO 8466-1 oder DIN 8466-2 (A 44) [2–3] (im Folgenden auch „Basiskalibrierung“ genannt) vorschreibt, ist dies keine (zusätzliche) AQS-Maßnahme, sondern ein Verfahrens-/Normbestandteil. Ebenso verhält es sich mit Mehrfachbestimmungen; manche Normen schreiben Mehrfachbestimmungen (z. B. für AOX, CSB) vor, welche dann natürlich auch keine (zusätzliche) AQS-Maßnahme darstellen. Operative AQS-Maßnahmen arbeiten mit bestimmten Messstrategien und mathematischen Modellen – in der Regel Normalverteilung – zur Ermittlung von Kenngrößen zur Klassifizierung der Güte und Grenzen des Produktes Analytik. Für diese Art AQS ist auch der unklare Begriff „Analytische Qualitätskontrolle“ (AQK) geläufig. Die wichtigste Maxime für alle Arten der AQS lautet „mit dem geringsten Aufwand für den Untersuchungszweck, z. B. die Überwachung eines Grenzwertes, ausreichende (!) Sicherheit zu erlangen.“

316

10 Beurteilung von analytischen Daten aus Behördensicht

10.2 Werkzeuge und Definitionen für die AQS 10.2.1 Kontrollproben

Kontrollproben sind synthetische oder reale Proben, welche zur Durchführung der AQK-Maßnahmen (z. B. Kontrollkartenführung) eingesetzt werden. Eine ideale Kontrollprobe wäre die jeweilige Analysenprobe. 10.2.2 Kontrollkarten/Zielwertkarten

Kontrollkarten/Zielwertkarten sind das probateste Instrument zur Langzeitbeobachtung eines Messsystems unter Einsatz von Kontrollproben anhand von Kontrollwerten. Die Praxis der Kontrollkartenführung wird in mehreren Dokumenten inhaltsgleich beschrieben (LAWA-AQS-Merkblätter [4], DIN V EN V ISO 13 530 – A60 [5] und DEV-Strategiepapier [6]). Die Abb. 10.1 und 10.2 zeigen für die Umweltanalytik typische Beispiele für Kontroll- und Zielwertkarten. Kontrollkarten sind das Standardinstrument der Routine-AQS geworden. Ihnen liegt folgendes Konzept zugrunde: Für definierte Kontrollproben wird mit Hilfe von Erfahrungswerten aus Vergangenheit/Gegenwart ein Erwartungsrahmen für die nachfolgenden Ergebnisse (Zukunft) festgelegt. Liegen die Folgewerte innerhalb des Erwartungsrahmens, wird das Analysensystem als „in Kontrolle“ (IKS) definiert, ansonsten befindet es sich „außer Kontrolle“ (AKS) und Korrekturmaßnahmen müssen ergriffen und dokumentiert werden.

Abb. 10.1 Beispiel einer relativen Spannweiten-Kontrollkarte (ohne Außerkontrollsituation). Rrel = Tageswert für die relative Spannweite = (größter Wert – kleinster Wert) u 100%/Mittelwert; Rrel = mittlere relative Spannweite (arithmetisches Mittel der Rrel ),

AO = Ausschlussobergrenze, KO = Kontrollobergrenze. Als Kontrollwert (Ordinate) aufgetragen wurden die relativen Spannweiten aus der Messung realer Proben an den Messtagen (als lfd. Nr. 1 bis 32 auf der Abszisse aufgetragen).

10.2 Werkzeuge und Definitionen für die AQS

Abb. 10.2 Beispiel einer Mittelwert-Zielwertkarte. Sollwert = nominelle Konzentration der Kontrolllösung, ZO = Ziel(wert)obergrenze, ZU = Ziel(wert)untergrenze). Als Kontrollwert (Ordinate) aufgetragen wurden die Konzentrationswerte aus der Messung einer Standardlösung an den Messtagen (als lfd.

Nr. 1 bis 39 auf der Abszisse aufgetragen). Die Zielwertgrenzen werden spiegelbildlich zum Sollwert aufgetragen. Die Ergebnisse zeigen einen leichten mittleren Überbefund von ca. 1,5%. Per Definition liegt aber keine Außerkontrollsituation vor.

Wurde der Erwartungsrahmen statistisch (unter Annahme einer mathematischen Verteilung) ermittelt, kann eine Kontrollkarte geführt werden. Unter Annahme einer zweiseitigen Verteilung resultieren sog. Shewhart-Kontrollkarten und unter Annahme einer einseitigen Verteilung sog. Spannweiten(Range)-Kontrollkarten. Für Kontrollkarten sind mehrere Außerkontrollsituationen (AKS) definiert worden. Abbildung 10.1 zeigt eine AKS-freie relative SpannweitenKontrollkarte. Wurde der Erwartungsrahmen statisch (unter Annahme eines vorgegebenen festen Rahmens) festgelegt, können sog. Zielwertkarten (mit vorgegebenen Toleranzgrenzen = obere und untere Ziel(wert)grenze) geführt werden. Eine AKS tritt hierbei auf, wenn die obere Zielgrenze überschritten bzw. die untere Zielgrenze unterschritten wurde. Abbildung 10.2 zeigt eine AKS-freie MittelwertZielwertkarte. Der abgehackte Verlauf der Konzentrationen in den Abb. 10.1 und 10.2 („diskrete“ Konzentrationsstufen) hat seine Ursache in den von den Analytiknormen vorgegebenen Rundungsregeln. In der Umweltanalytik finden die in den Tabellen 10.1 und 10.2 dargestellten jeweils vier Typen von Kontroll- und Zielwertkarten praktische Anwendung. Mit dem novellierten LAWA-Merkblatt A-2 [4] wurde es möglich, den geeigneten Kartentyp flexibel für die jeweilige Analysensituation (Parameter, Prüfverfahren, Matrix) auszuwählen. Auch ein Wechsel zwischen den korrespondierenden Kontroll- und Zielwertkartentypen ist jetzt jederzeit möglich. Während die o. g. AKS relativ zeitnah festgestellt werden und zu kurzfristigen Korrekturmaßnahmen Anlass geben, muss auch auf langfristige Qualitäts-

317

Blindwert-Kontrollkarte

Mittelwert-Kontrollkarte

Linien: x Sollwert x ZO und ZU

Mittelwert-Zielwertkarte

Blindwert-Zielwertkarte

Shewhart-Karten mit folgenden Linien: x Mittellinie x KO, KU x WO, WU x ggf. AO, AU

Blindwert (geräteabhängiger Informationswert)

Einzelwert/Mittelwert (conc.)

R oder Rrel = mittlere absolute oder relative Spannweite KO, KU = Kontrollober/untergrenze WO, WU = Warnober/untergrenze AO, AU = Ausschlussober/untergrenze ZO, ZU = Ziel(wert)ober/untergrenze

Keine Gauß-Verteilung, nicht ausreichendes Datenkollektiv, Rahmendaten von außen gesetzt, Standardabweichung nicht benötigt

Annähernd Gauß-Verteilung, ausreichendes Datenkollektiv, selbstregulierendes System, Standardabweichung wird benötigt

Kontrollwert

Rahmenbedingungen

WiederfindungsZielwertkarte

WiederfindungsKontrollkarte

Wiederfindungsrate [%]

Tabelle 10.1 Auflistung der wichtigsten in der Umweltanalytik verwendeten Kontroll- und Zielwertkarten.

Spannweiten (Range)Zielwertkarte

Linien: x R oder Rrel x KO x ggf. AO

Spannweiten (Range)Kontrollkarte

Spannweite = größter-kleinster Wert (conc. oder %)

318

10 Beurteilung von analytischen Daten aus Behördensicht

Die Aussagen in dieser Zeile gelten nur für Kontrollkarten (nicht für Zielwertkarten), sofern statistisch abgeleitete Größen (Kalibrierung, Präzision, Messunsicherheit usw.) angesprochen sind.

x Karte über alle Matrices oder für einzelne Matrices getrennt führen? x Auswahl repräsentativer Proben x Folgemaßnahmen bei AKS? x Geeignete Probenauswahl x Folgemaßnahmen bei AKS?

x Blindwert-Kontrollkarten funktionieren bei modernen Gerätesystemen (GC, ICP, IC) kaum noch (keine Signale!) x Folgemaßnahmen bei AKS?

x Stabilität des Standards x Folgemaßnahmen bei AKS?

Probleme, Fragen

a)

x Driftkontrolle der Kalibrierung x Abschätzung der Präzision unter Einbeziehung der Matrix x Baustein zur Abschätzung der Messunsicherheit

x Abschätzung der Richtigkeit (bei zertifizierten Standards!) x Allgemein: Abschätzung von proportional-systematischen Abweichungen

Reale Probe

Aufdeckung von systematischen Fehlern des Messsystems (Verunreinigungen, Gerätedrifts)

Reale Probe (aufgestockt und nicht aufgestockt)

Blindprobe

Spannweiten-Kontroll-/ Zielwertkarte

x Kontrolle der Kalibrierung x Abschätzung der Richtigkeit (mit zertifizierten Standards) x Abschätzung der Präzision x Bausteine zur Abschätzung der Messunsicherheit

Wiederfindungs-Kontroll-/ Zielwertkarte

Blindwert-Kontroll-/ Zielwertkarte

Ziel der Kartea)

Mittelwert-Kontroll-/ Zielwertkarte

(zertifizierter) Standard Stabile reale Probe

Details

Kontrollprobe(n)

Kartentyp

Tabelle 10.2 Details zu den wichtigsten in der Umweltanalytik verwendeten Kontroll-/Zielwertkarten.

10.2 Werkzeuge und Definitionen für die AQS 319

320

10 Beurteilung von analytischen Daten aus Behördensicht

änderungen des Messsystems geprüft werden. Die Dokumente [4–6] sehen für Kontrollkarten zwei Varianten vor: x das sog. 60-Tage-Revisionsmodell, x Vergleich zweier aufeinander folgender Kontrollkarten. Details zur Vorgehensweise sind in den genannten Dokumenten beschrieben. 10.2.3 Objektbezogene AQS

Objektbezogene AQS ist grundsätzlich diejenige, die an jeder einzelnen realen Probe (Kontrollprobe = die jeweilige Analysenprobe) praktiziert wird, was aber aus ökonomischen Gründen meist unpraktikabel sein dürfte. 10.2.4 Stichproben-AQS

In der Massenanalytik fokussieren sich AQS-Maßnahmen auf eine repräsentative Auswahl („Stichprobe“) realer Proben. Die Stichprobe erfordert ein Clustern des zu analysierenden Probenspektrums: Proben mit vergleichbarer Matrixzusammensetzung und ähnlichen Analytgehalten (z. B. innerhalb einer Konzentrationsdekade) werden zu einem Block zusammengestellt. Eine Probe des Blocks dient als Kontrollprobe (z. B. für eine Spannweiten-Kontrollkarte); die daraus abgeleiteten Verfahrenskenngrößen werden auf die übrigen Proben des Blocks übertragen. Ein passendes Beispiel für diese Art AQS sind Trinkwasseranalysen mit engen Konzentrationsbereichen einzelner Untersuchungsparameter. 10.2.5 Stellvertreterproben-AQS

Für die Massenanalytik ist es auch typisch, auf Proben mit anderer Zusammensetzung als die untersuchten Proben („Stellvertreterproben“) zurückzugreifen. Um die Leistungsfähigkeit (Empfindlichkeit, Robustheit) des analytischen Grundverfahrens ohne den Einfluss der Matrix zu testen, können als Stellvertreterproben z. B. (zertifizierte) Standards für Mittelwert-Kontrollkarten verwendet werden. Eine Sonderform der Stellvertreterproben (matrix- und analytfrei!) sind „Blindproben“, mit denen man u. a. die Konstanz eines Messsystems prüfen (siehe Tabelle 10.2) bzw. Nachweis- und Bestimmungsgrenze ermitteln kann [10]. 10.2.6 Validierung von Analysenverfahren

Nach dem Verständnis der LAWA (siehe Merkblatt A-5 [4]) existiert eine Validierungshierarchie:

10.2 Werkzeuge und Definitionen für die AQS

x Bei der Entwicklung einer Norm oder eines Hausverfahrens wird eine Primäroder Basisvalidierung durchgeführt. Ziel: Feststellung der Leistungsfähigkeit des Verfahrens. x Bei der Laboreinführung eines Verfahrens findet die sekundäre Validierung statt. Fragestellung: Eignet sich das Verfahren für spezielle Proben? x Die Zuverlässigkeit des Verfahrens in der Routine wird mit der tertiären Validierung (Routine-AQK) geprüft. Eine detaillierte Zusammenstellung der Validierungskriterien findet sich in Tabelle 10.3. Bei der Entwicklung und Einführung eines Analysenverfahrens sollen dessen Fähigkeiten und Grenzen objektiv beschrieben werden, um es „fit zu machen für die Routine“.

Tabelle 10.3 Bestandteile der Validierung von Analysenverfahren und deren Einsatz für die primäre, sekundäre und tertiäre Validierung (nach LAWA AQS-Merkblatt A-5 [4]). Nr.

Kriterien für die Primär-Validierung nach DEV A0-2a)

Sek./tert. Validierungb)

1

Anwendungsbereich Erfasste Parameter, geprüfte Matrices, geprüfter und kalibrierter Konzentrationsbereich, Erweiterungsmöglichkeiten des Verfahrens

2

Grundlagen des Verfahrens Reaktionsprinzipien, Reaktionsgleichungen, Trennprinzipien; bei biologischen Verfahren Beschreibung der physiologischen Prinzipien, auch unter Hinweis auf Sekundärliteratur

3

Störungen Darstellung der Störungen (Matrixeinflüsse, Querempfindlichkeiten, Hinweise auf falsch positive/negative Befunde, „Memory“-Effekte, Peaküberlappungen, Störung bei photometrischen Verfahren), Vermeidung und Behebung von Störungen

4

Reagenzien, Testorganismen, Geräte Blindwerte, Anforderungen an die Reinheit von Reagenzien, Verfügbarkeit und Haltbarkeit von Reagenzien, Standard- und Referenzmaterialien, Testorganismen mit Hersteller- und Bezugsnachweis, Trennphasen für die Chromatographie, Geräte, Arbeitssicherheit und Umweltschutz

Jac)

5

Probenahme und Probenvorbehandlung Probenahme, Probenstabilität und -konservierung, Arbeitssicherheit, Umweltschutz

Ja

321

322

10 Beurteilung von analytischen Daten aus Behördensicht Tabelle 10.3 (Fortsetzung) Nr.

a)

b)

c) d) e) f) g) h)

Kriterien für die Primär-Validierung nach DEV A0-2a)

Sek./tert. Validierungb)

6

Durchführung Probenvorbereitung, Probenmessung

Jaf)

7

Ermittlung der Verfahrenskenndaten Varianzenhomogenität, Linearitätsprüfung, Art der Kalibrierung, Kalibriersubstanzen, Kalibrierdaten und -funktion, Nachweis-, Erfassungs- und Bestimmungsgrenzen (DIN 32 645), Rekalibrierung

Jae)

8

Untersuchungen zur Richtigkeit Referenzmaterial, Aufstockverfahren, Wiederfindungsraten, Vergleich mit Ergebnissen anderer Analysenverfahren

Jad), f), g)

9

Untersuchungen zur Präzision Art der verwendeten Proben, statistische Auswertung

Jad), h)

10

Robustheit Stabilität, Erkenntnisse aus der Verfahrensentwicklung, Ergebnisse aus gezielten Untersuchungen mit systematischer Variation bestimmter Einflussgrößen

11

Verfahrenskenndaten aus Ringversuchen (nur für zu normende Verfahren) Rahmendaten, analysierte Parameter, verwendete Referenzmaterialien, untersuchte Matrices und Konzentrationsniveaus, Soll-Wert und mittlerer Ist-Wert, Ausreißerquote, Wiederholund Vergleichsvariationskoeffizient, Vergleich der Ergebnisse verschiedener Verfahrensvarianten

12

Messunsicherheit Art der Ermittlung, Beispielergebnis

Ja

13

Auswertung Identifizierungskriterien, Berechnung und Angabe des Ergebnisses

Ja

14

Literatur

Bestandteile des Validierungsprogrammes nach LAWA Merkblatt A-5 [4] (abgeleitet von DEV A0-2 [7]). Für die sekundäre und tertiäre Validierung wird dieser Bereich des Validierungsprogrammes ebenfalls (ganz oder teilweise) eingesetzt. Zum Beispiel mit Hilfe von Blindwertkontrollkarten. Zum Beispiel mit Hilfe von Mittelwertkontrollkarten. Siehe LAWA AQS-Merkblatt A-7 [4]. Mit Hilfe von Wiederfindungsratenkontrollen. Mit Hilfe erfolgreicher Teilnahmen an Ringversuchen. Zum Beispiel mit Hilfe von Spannweitenkontrollkarten.

10.2 Werkzeuge und Definitionen für die AQS

Anmerkung 1: Ein Labor, welches an der Entwicklung (Normung) eines Verfahrens beteiligt ist, prüft dieses in der Phase der primären bzw. Basisvalidierung auch an seinem eigenen Probenspektrum „auf Herz und Nieren“ und entscheidet abschließend, ob das Verfahren in die Routine gehen kann. Die übrigen Laboratorien müssen in der Einführungsphase („Sekundäre Validierung“) versuchen, die Basisvalidierungsdaten (sind bei DIN-Normen kostenlos erhältlich bei DIN e.V. NAW, 10772 Berlin) zu verifizieren. Validieren heißt „gültig“ machen (s. DEV A0-2 [7]), d. h., das Verfahren x muss genügend „robust“ sein, x sein Anwendungsbereich und seine Grenzen (z. B. Bestimmungsgrenze) und mögliche Störungen müssen bekannt sein und x die Präzision und Richtigkeit der Ergebnisse müssen abgeschätzt werden (Ziel: Messunsicherheit der Ergebnisse). 10.2.7 Messunsicherheit

Die Messunsicherheit ist „ein dem Messergebnis zugeordneter Parameter, der die Streuung der Werte kennzeichnet, die vernünftigerweise der Messgröße zugeordnet werden können, z. B. in Form einer Standardabweichung oder eines Vertrauensbereichs“ [9]. Die Messunsicherheit repräsentiert einen Konzentrationsbereich, in welchem sich der wahre Analysenwert mit einer vorgegebenen statistischen Sicherheit (meist 95%) befinden sollte. Der DEV-Leitfaden A0-4 [8] geht bei der Abschätzung der Messunsicherheit von einem „Worst case“-Szenario aus. Dabei werden zufällige und systematische Messabweichungen wie in Abb. 10.3 dargestellt zunächst getrennt abgeschätzt und anschließend zur kombinierten Messunsicherheit u mit Hilfe der Fehleraddition zusammengefasst. Aus der kombinierten Messunsicherheit lässt sich die

Abb. 10.3 Ablauf der Messunsicherheitsabschätzung gemäß DEV A0-4 [8].

323

324

10 Beurteilung von analytischen Daten aus Behördensicht

erweiterte Messunsicherheit errechnen (U = k · uC). Im Messunsicherheitsbereich (= Konzentrationsbereich von –U bis +U) befindet sich nach dem zugrunde liegenden Ansatz mit einer Aussagewahrscheinlichkeit P (P = meist 95%; k = 2) der wahre – aber unbekannte – Wert des Ergebnisses. Dies lässt sich durch Gl. (10.1) wie folgt ausdrücken: Messwert – U d wahrer Wert d Messwert + U

(10.1)

Zur Zusammenfassung werden die einzelnen Messabweichungen (Messunsicherheitskomponenten) ohne Vorzeichen verwendet. Man setzt also voraus, dass sich alle berücksichtigten Unsicherheitskomponenten gegenseitig verstärken. Die nach diesem Leitfaden errechneten erweiterten Unsicherheiten führen zu teilweise recht hohen Zahlenwerten (20% und mehr) bzw. Messunsicherheitsbereichen (40% und mehr), was bei den Kunden zu großer Verunsicherung über die Qualität der Analysenergebnisse geführt hat. Hier ist noch viel Aufklärungsarbeit zu leisten, um dem Kunden klar zu machen, dass die ermittelte Messunsicherheit nicht identisch sein muss mit dem wahren – aber leider unbekannten! – Analysenfehler. Letzterer sollte in den meisten Fällen kleiner ausfallen (Gl. 10.2). Analysenungenauigkeit (unbekannt) = Gesamtfehler (unbekannt) d Messunsicherheit

(10.2)

Insofern hat das o. g. Messunsicherheitskonzept eine „erzieherische Aufgabe“, da es zu mehr Ergebnissicherheit und damit zu einer Qualitätssteigerung der Analyse führen sollte. Anmerkung 2: Entfernt ist die Vorgehensweise mit dem Sicherheitsdenken bei Atomkraftwerken zu vergleichen. Auch dort geht man bei der Definition eines GAUS davon aus, dass alle potentiell möglichen Unfälle, Naturereignisse (Erdbeben) usw. gleichzeitig passieren und sich in ihrer Auswirkung addieren. Durch Optimierung der Komponenten, die den größten Einfluss auf die Messunsicherheit haben, kann letztere deutlich reduziert werden. Den größten Effekt erzielt man dabei durch Optimierung der Standardunsicherheiten, welche mindestens ein Drittel der größten Standardunsicherheit betragen. 10.2.8 Zusammengefasste AQS-Werkzeuge

Fassen wir die gebräuchlichsten unter den bisher genannten Werkzeuge zusammen (s. Tabellen 10.4 bis 10.6). Als AQS-Aufwand definiert wurden Messvorgänge, die zusätzlich zu den in den Fachnormen vorgeschriebenen Messvorgängen durchzuführen sind.

Mittelwert-Kontrollkarte/ Stellvertreter-AQS

c)

b)

a)

Reale Proben aus dem jeweiligen Tagesprogramm

Spannweiten-Kontrollkarte/ Stichproben-AQS

2 Messungen

Präzision des Messsystems (matrixbezogen) (z. B. für Messunsicherheit)a), b)

Einmal pro Serie und Matrix

Stabile reale Probe mit vergleichbarer Zusammensetzung wie die Messproben (Sollwert nicht erforderlich)

Wenn wegen des Fehlens geeigneter stabiler Standards keine MittelwertKontrollkarten geführt werden können, muss die Unpräzision zwischen den Serien (von Tag zu Tag) geschätzt werden (z. B. durch Variation bei der Kalibrierung) und mit der Standardabweichung der SpannweitenKontrollkarte kombiniert werden.

1 Messung

Präzision des Messsystems (matrixfrei) (z. B. für Messunsicherheit)a), c), d)

Einmal pro Serie

Stabile synthetische Standards

d)

0–2 Messungen

Matrixspezifische Präzision (z. B. für Messunsicherheit)a), c), d)

Eine x-fach Bestimmung pro Serie und Matrix

Abschätzung der Messunsicherheit gemäß DEV-Leitfaden A0-4 [8]. Die Wiederholstandardabweichung (aus Wiederholmessungen oder der Mittelwert-Kontrollkarte) genügt für die Abschätzung des zufälligen Anteiles der Messunsicherheit. Die Standardabweichungen aus Spannweiten-Kontrollkarten und MittelwertKontrollkarten können zur Abschätzung des zufälligen Anteiles der Messunsicherheit kombiniert werden.

0–1 Messungen

Präzision über alle Matrices (z. B. für Messunsicherheit)a)

Eine x-fach Bestimmung pro Serie

2–10 Messungen

10–50 Messungen

Pro Matrixtyp und Serie eine Probe x-fach

Ermittlung der Präzision (z. B. für Messunsicherheit)a)

AQS-Aufwand für Serie von 10 Proben verteilt auf 2 Matrices

5–25 Messungen

Alle Proben x-fach

Reale Proben

Mehrfachbestimmungen/ Objektbezogene AQS

Verwendungszweck

Jede 2. Probe x-fach

Wie angewandt?

Kontrollproben

AQS-Werkzeug/Werkzeugtyp

Tabelle 10.4 AQS-Werkzeuge für die Abschätzung der Präzision.

10.2 Werkzeuge und Definitionen für die AQS 325

10 Messungen (Diese Zahl reduziert sich entsprechend, wenn die Wiederfindungsexperimente nicht in jeder Serie durchgeführt werden) 2 Messungen

Bias (relative systematische Abweichung) vom Sollwert (z. B. für Messunsicherheit)a), d) Proportional-systematische Abweichung

Mindestens 5 Proben pro Matrixtyp

Einmal pro Matrix

Reale Proben, mit und ohne Aufstockung mit Standards

Wiederfindungsexperimente/ Stichproben-AQS

b)

Abschätzung der Messunsicherheit gemäß DEV-Leitfaden A0-4 [8]. Hierbei werden neben Bias-Werten auch Standardabweichungen (Präzisionswerte) benötigt, hier: die Standardabweichungen des Sollwertes und des Bias (letzteres nur bei einem Referenzstandard).

d)

c)

Hierbei werden neben Bias-Werten auch Standardabweichungen (Präzisionswerte) benötigt, hier: die Standardabweichung des Sollwertes und die Vergleichsstandardabweichungen aus den Ringversuchen. Hierbei werden neben Bias-Werten auch Standardabweichungen (Präzisionswerte) benötigt, hier: die Streuungen bei Aufstockvolumen und -konzentration.

< 1 Messung (bei 5 Ringversuchsproben in 3 Jahren)

Bias (systematische Abweichung) vom Sollwert (z. B. für Messunsicherheit)a), c)

Teilnahme an mindestens 5 Ringversuchen in z. B. 3 Jahren

Proben (real/synthetisch) mit Sollwert

Ringversuche/ Stellvertreter-AQS

a)

1 Messung

Bias (systematische Abweichung) des mittleren Messwertes vom Sollwert (z. B. für Messunsicherheit)a), b)

In mindestens 5 Serien mitanalysieren

Zertifiziertes Referenzmaterial mit Sollwert

Bias ermitteln (auch als Kontrollkarte)/ Stellvertreter-AQS

WiederfindungsKontrollkarten/ Stichproben-AQS

0 Messungen

Systematische Abweichung des Messsystems (Verunreinigungen, Gerätedrifts)

n-mal pro Serie

Blindprobe

Blindwertkontrollkarten/ Stellvertreter-AQS

1 Messung

Richtigkeit (matrixfrei bzw. matrixbezogen)

Einmal pro Serie

Zertifizierte Standards (synthetische, reale)

MittelwertKontrollkarte/ Stellvertreter-AQS

AQS-Aufwand für Serie von 10 Proben verteilt auf 2 Matrices

Verwendungszweck

Wie angewandt?

Kontrollproben

AQS-Werkzeug/Werkzeugtyp

Tabelle 10.5 AQS-Werkzeuge für die Abschätzung der Richtigkeit. 326

10 Beurteilung von analytischen Daten aus Behördensicht

Arbeitstäglich gemäß Fachnorm bzw. in Analogie zu modernen DIN-Normen aus den Bereichen Chromatographie und Fließanalytik

2–3 Kalibrierstandards

Arbeitskalibrierung/ Stellvertreter- AQS

b)

Keine zusätzliche AQS-Maßnahme, sondern Verfahrensbestandteil. Die Kalibriervorschriften der Fachnormen sind leider sehr unterschiedlich.

Einmal pro Serie

Kalibrierstandard

MittelwertKontrollkarte/ Stellvertreter-AQS

a)

1 bis 4 mal pro Jahr gemäß DIN 38 402-A51 (ISO 8466-1) Forderung der LAWA AQS-Merkblätter [4]

5–10 Kalibrierstandards

Basiskalibrierung/ Stellvertreter-AQS

1 Messung

0 Messungen

Arbeitstägliche Auswertefunktion, Konstanz der Kalibrierung prüfen

< 1 Messung (Die bis zu 28 Messungen pro Basiskalibrierung verteilen sich auf mindestens 3 Monate)

0 Messungen

Zusätzlicher AQS-Aufwand pro Arbeitstag

Überprüfung der Konstanz der Kalibrierung

Direkt: Auswertefunktion, Verfahrensstandardabweichung/ -variationskoeffizient Indirekt: Bestimmungsgrenze (gemäß DIN 32 645)

Für Auswertefunktion

Arbeitstäglich gemäß Fachnormb)

Kalibrierstandards bzw. Aufstockstandards

Kalibriervorschrift für externe oder interne Kalibrierunga)

Verwendungszweck

Wie angewandt?

Kontrollproben

AQS-Werkzeug/Werkzeugtyp

Tabelle 10.6 AQS-Werkzeuge für die Kalibrierung.

10.2 Werkzeuge und Definitionen für die AQS 327

328

10 Beurteilung von analytischen Daten aus Behördensicht

10.3 Praxis der AQS

Die sog. „Fachmodule“ Wasser, Abfall, Boden/Altlasten [12] sowie die LAWAAQS-Merkblätter [4] in Verbindung mit DIN V EN V ISO 13 530 – A60 [5] und dem DEV-Strategiepapier [6] regeln in restriktiver Weise die AQS-Maßnahmen für die Notifizierung, Akkreditierung und alle Analysen im gesetzlich geregelten Umweltbereich. 10.3.1 Hierarchisch aufgebaute AQS

Generell baut sich im Anwenderlabor (!) die AQS für Analysenverfahren chronologisch wie folgt auf (vgl. Abschn. 10.2.6 und Tabelle 10.3): In der Phase „Einführungsphase von Analysenverfahren“ (sekundäre Validierung) werden die vorläufigen Verfahrenskenngrößen (wie Verfahrensstandardabweichung und Bestimmungsgrenze), die Präzision und Richtigkeit durch Einsatz verschiedener Kontrollproben (Stichproben, Stellvertreterproben) abgeschätzt. Die Bestimmungsgrenze wird gemäß DIN 32 645 [10] nach der Leerwert- oder Kalibriergeradenmethode ermittelt. Für die Ermittlung der Präzision sind mindestens 10fach-Bestimmungen erforderlich (s. Tabelle 10.4). Die systematischen Messabweichungen erhält man aus Ringversuchen, Wiederfindungsexperimenten bzw. – wenn möglich – mit Hilfe zertifizierter Standards. Diese Eingangstests zur Erstellung der Kenndaten werden so lange fortgeführt, bis sich ein optimaler Zustand des Messsystems eingependelt hat. Die Ergebnisse der Leistungsprüfung sind dann die Basis für die Routine-AQS. Die Tests zur Leistungsprüfung eines Analysenverfahrens werden einheitlich vorgenommen, unabhängig von der Häufigkeit des späteren Einsatzes des Verfahrens in der Routine. Ist das Verfahren in das Routineprogramm des Labors übernommen worden, kommt es in der Phase der tertiären Validierung darauf an, den erreichten Leistungsstandard zu halten bzw. zu verbessern. Zum Einsatz kommen Methoden, welche die Zuverlässigkeit (= dauerhafte Qualität) des Messsystems belegen. Geprüft wird dies anhand x Stabilität der Kalibrierung, x aktueller Bestimmungsgrenzen (aus der Kalibrierung und/oder Blindwert(kontrollkart)en), x aktueller Präzisions- und Richtigkeitswerte (z. B. aus Kontrollkarten) und x daraus abgeleiteter aktueller Messunsicherheitswerte. Letzten Endes dienen alle ermittelten Kenngrößen zur Abschätzung der Messunsicherheit als objektives Qualitätsmerkmal für das Produkt Analytik. Die Domäne der AQS im Routineprogramm sind die Kontrollkarten.

10.3 Praxis der AQS

So können Wiederfindungsraten-Kontrollkarten oder Mittelwert-Kontrollkarten mit zertifizierten Standards als Kontrollproben Aussagen über den zeitlichen Verlauf der Richtigkeit der Ergebnisse machen. Spannweiten-Kontrollkarten (s. Abb. 10.2) sowie Mittelwert-Kontrollkarten (s. Abb. 10.1) mit selbst hergestellten oder realen Kontrollproben dienen der Präzisionskontrolle. Mit Blindwert-Kontrollkarten kann man Gerätedrifts erkennen, insbesondere Drifts der Basislinie von chromatographischen Verfahren, die durch unerwünschte Veränderungen des Messsystems hervorgerufen werden. Anmerkung 3: Gerade die modernen chromatographischen Verfahren zeigen heutzutage meist keine bzw. keine normalverteilten Blindwertsignale mehr. Als Ausweg bieten sich hier Blindwert-Zielwertkarten an, in die auch Nullsignale eingetragen werden. Als objektbezogene Maßnahmen zur Sicherung der Präzision sind Mehrfachbestimmungen und Standardadditionsverfahren zu nennen. Bei kalibrierbedürftigen Verfahren (z. B. Chromatographie und Spektralphotometrie) ist zusätzlich noch die Beständigkeit der Kalibrierfunktionen von Bedeutung. Hierzu werden in periodischen Abständen sog. „Basiskalibrierungen“ nach DIN 38 402 A51 bzw. ISO 8466-1 [2] durchgeführt, deren abgeleitete Verfahrenskenngrößen vorgegebene Qualitätsziele einhalten müssen. So fordern z. B. die LAWA-AQS-Merkblätter [4] für die Verfahrensvariationskoeffizienten Werte nicht größer als 3,33%. Die „Ochsentour“ dieser Basiskalibrierung wird dadurch „belohnt“, dass die Verfahrensstandardabweichung der Kalibrierung sx0 für die Ermittlung der Nachweisgrenze XNG und Bestimmungsgrenze XBG herangezogen wird (Kalibriergeradenmethode, Schnellschätzverfahren; P = 99%, k = 3; gemäß [10]): X NG = 4 ⋅ s x0

X BG = 11 ⋅ s x0

(10.3)

Für chromatographische Verfahren ist auch das gebräuchliche S/N-Verfahren zulässig: X NG = x (S / N = 3)

X BG = 3 ⋅ x (S / N = 3)

(10.4)

mit: x (S/N = 3) – Analytkonzentration, bei welcher das Signal/Rausch-Verhältnis 3 beträgt. Anmerkung 4: Die Schnellschätzverfahren der Norm DIN 32 645 [10] sowie das o. g. S/N-Verfahren sollen durch die derzeit laufende Revision der Vornorm DIN V EN V ISO 13 530 – A60 [5] zu einer ISO-Norm [13] künftig weltweit verbindlich werden. Moderne chromatographische und photometrische Normen propagieren eine zweistufige Kalibrierstrategie. Dazu werden an den Arbeitstagen des Messsystems

329

330

10 Beurteilung von analytischen Daten aus Behördensicht

Abb. 10.4 Arbeiten mit „Arbeitskalibrierungen“ (visuelle Prüfung der Stabilität der Basisvalidierung). Qualitätsziel: die Arbeitskalibrierfunktion muss in den Vertrauensbändern der Basiskalibrierung liegen.

sog. „Arbeitskalibrierungen“ mit wenigen (2 oder 3) Kalibrierstandards durchgeführt. Wenn die dabei resultierenden Kalibriergeraden sich nicht signifikant von den Basiskalibriergeraden unterscheiden (s. hierzu Abb. 10.4), d. h., die Kalibrierung stabil geblieben ist, kann mit der aktuellen Arbeitskalibrierung ausgewertet werden. Andernfalls ist die in der jeweiligen Fachnorm vorgeschriebene komplette Kalibrierprozedur exakt anzuwenden. 10.3.2 Praxis bei selten angewandten und zeitaufwändigen Analysenverfahren

Ist es in der Massenanalytik relativ einfach, die o. g. Werkzeuge in geeigneter Weise einzusetzen, ergeben sich Probleme bei zeitaufwändigen oder selten angewandten Analysenverfahren. Erleichtert wird der Einsatz für die Massenanalytik noch dadurch, dass im gesetzlich geregelten Wasseranalytikbereich durch die LAWA-AQS-Merkblätter [4] genau vorgeschrieben wird, welche Werkzeuge wie und wann einzusetzen sind. Zeitaufwändig sind Analysenverfahren, die relativ wenig Ergebnisse pro Arbeitstakt liefern. Längere Rüstzeiten für die Messapparaturen, aufwändige Vorbereitungen (Clean-ups), lange Analysendauer und die Auswertung der Rohwerte sind dafür verantwortlich, dass die Abarbeitung einer Analysenserie mehrere Tage dauern kann. AQS-Messungen, welche zusätzlich zu dem arbeitstäglichen Untersuchungsprogramm durchgeführt werden müssen, schmälern den Analysenoutput und damit auch den Gewinn des Labors.

10.3 Praxis der AQS

Analysenverfahren, die nicht kontinuierlich eingesetzt werden (selten angewandte Analysenverfahren), erfordern eine spezielle Qualitätssicherung. GC- bzw. HPLC-Systeme, die einmal pro Monat oder saisonweise eingesetzt werden, zählen hierzu. Es ist davon auszugehen, dass über die langen Standzeiten hinweg das Messsystem nicht konstant bleibt, sondern an den Messtagen aufwändig in Betrieb genommen werden muss. Entsprechend hoch ist auch der Anteil der AQS am Analysenaufwand. Es ist nicht möglich, bei relativ wenigen Analysenserien den „Status statistischer Sicherheit“ aufrechterhalten. Bei diesen selten angewandten Analysen sollte ernsthaft darüber nachgedacht werden, ob organisatorische Maßnahmen, wie Untervergabe oder Arbeitsteilung, nicht ökonomischer sind als das Aufrechterhalten eines Messsystems für nur wenige Proben. Der relative AQS-Aufwand für zeitaufwändige und selten angewandte Analysenverfahren wird mit Sicherheit höher sein müssen als für die Massenanalytik. Die Vornorm DIN V EN V ISO 13 530 – A60 [5] sagt – in ihrer englischen Fassung – hierzu aus: „The maxim that relative few results of known and adequate accuracy are better than many results of unknown and probably inadequate accuracy remains true“. 10.3.2.1 AQS-Vorgehensweise für selten angewandte Analysenverfahren

Die Verhältnisse sind vergleichbar mit dem Einfahren eines neuen Analysensystems. Zwischen den Messzeiten liegen längere Standzeiten. Es fallen relativ lange Wartungs- und Einarbeitungszeiten an. Deshalb muss in der Phase der Eingangsprüfung (sekundäre Validierung) ein hoher AQS-Aufwand betrieben werden (vgl. Abschn. 10.2), damit dieser sich in der Routine auf ein vertretbares Maß reduzieren lässt. Vorgehensweise bei der Kalibrierung (s. Tabelle 10.6): x Grundsätzlich ist an allen Arbeitstagen eine vollständige Kalibrierung gemäß Fachnorm durchzuführen. Mit der Mittelwert-Kontrollkarte, geführt zu einem Kalibrierstandard, kann geprüft werden, wie lange eine Kalibrierfunktion stabil bleibt. x Falls durch das jeweilige LAWA-AQS-Merkblatt [4] Basiskalibrierungen gemäß DIN 38 402-A51 [2] vorgeschrieben sind und nur wenige (z. B. 1–4) Messtage im Jahr anfallen, kann die Basiskalibrierung mit den Messtagen zeitlich verknüpft werden. In diesem Falle wird mit der Basiskalibrierfunktion ausgewertet. Diese Vorgehensweise ist auch analog anwendbar auf Parameter, zu denen (noch) kein LAWA-Merkblatt existiert (z. B. kann das Merkblatt P-4 für alle photometrischen Verfahren analog angewandt werden). Anmerkung 5: In Abhängigkeit von den analysierten Proben kann dabei ggf. auf den Varianzenhomogenitätstest verzichtet werden – wenn nur im mittleren Bereich der Kalibrierfunktion ausgewertet wird. Auch einige LAWA-AQS-Merkblätter [4], wie z. B. P-3/4 (Quecksilberbestimmung) und P-11 (Ionenchromatographie),

331

Umgerechnet < 1 Analyse pro Serie

t 5 Proben in d 3 Jahren bei Ringversuchen analysieren Keine zusätzlichen Messungen

Synthetische oder reale Proben des Ringversuchsorganisators Keine zusätzlichen Proben

Keine zusätzlichen Proben

Verfahrenskenngrößen (Nachweis-/Bestimmungsgrenze)

Messunsicherheit

a)

Umgerechnet 1–2 Analysen pro Serie

Verknüpft mit den Messtagen 5 Aufstockanalysen (nicht häufiger als einmal pro Quartal)

Reale Proben aus dem täglichen Programm

Systematische Messabweichung: (a) Wiederfindungsexperimente oder: (b) Teilnahme an Ringversuchen

Aus messtechnischen Gründen werden Proben des gleichen/ähnlichen Matrixtyps einer Serie zusammengestellt.

Keine zusätzlichen Messungen

12 bis 1 Analyse

Bei neuen Verfahren an 1 bis 2 Proben Sechsfachbestimmungen durchführen, auf Doppelbestimmungen reduzieren. Dann Spannweiten-Kontrollkarte führen.

Reale Proben aus dem täglichen Programm

Zufällige Messabweichung: Mehrfachbestimmungen oder Spannweiten-Kontrollkarte

Keiner (nur Rechenoperationen)

Keiner (nur Rechenoperationen)

Keiner

Gemäß Fachnorm oder nach dem Konzept Basiskalibrierung – Arbeitskalibrierung

5–10 Kalibrierstandards

Zusätzlicher AQS-Aufwand bei einer Messserie pro Monata)

Kalibriervorschrift

Wie angewandt?

Kontrollproben

AQS-Werkzeug

Tabelle 10.7 Beispiele für AQS-Aufwand bei selten angewandten Analysenverfahren in der Routine.

332

10 Beurteilung von analytischen Daten aus Behördensicht

10.3 Praxis der AQS

verzichten auf diesen Test. Der Linearitätstest ist entbehrlich, wenn die Fachnorm auch eine parabolische Kalibrierfunktion vorsieht. Durch den Wegfall der beiden statistischen Tests wird das Kalibrierverfahren wesentlich abgekürzt. x Wenn die Arbeitstage die Zahl der vorgeschriebenen Basiskalibrierungen übersteigt (z. B. zwei Arbeitstage pro Monat) kann auch das oben beschriebene Konzept der Arbeitskalibrierung angewandt werden (s. Abb. 10.4). Annähernd normalverteilte Blindwerte vorausgesetzt, wird die Konstanz des (matrix- und analytfreien) Analysengrundsystems mit Blindwert-Kontrollkarten bzw. mit Blindwert-Zielwertkarten geprüft. Systematische Messabweichungen werden mit Wiederfindungsexperimenten an zertifizierten Referenzmaterialien (sofern erhältlich) oder realen Proben (mit und ohne Aufstockung, s. Tabelle 10.5) und Korrektur der Analysenwerte um den berechneten Bias ermittelt. Zufällige Messabweichungen (s. Tabelle 10.4) werden durch Mehrfachbestimmungen (N = 6) an repräsentativen Proben geschätzt. Bei relativ konstanter Präzision wird die Zahl der Replikate schrittweise auf letztlich zwei (Doppelbestimmung) zurückgefahren. Anschließend werden relative Spannweiten-Kontrollkarten mit den Ergebnissen jeweils einer Doppelbestimmung geführt. Als Maß für die zufällige Abweichung dient die Größe uRw (Unpräzision s. DEV Leitfaden A0-4 [8]). Anmerkung 6: Wenn keine geeignete Mittelwertkontrollkarte geführt werden kann, kann die zufällige Abweichung uRw nach folgender Formel aus der Standardabweichung der Spannweiten-Kontrollkarte – sR – abgeschätzt werden (die Streuungen in den Serien und zwischen den Serien werden gleichgesetzt). uRw =

sR2 + sR2 ≈ 1,4 ⋅ sR

(10.5)

Erforderlich für den Start einer Spannweiten-Kontrollkarte sind aber für die Dauer von zwei Wochen Messungen von realen Proben mit dem Analysensystem. Falls dies aus logistischen Gründen nicht möglich ist, bleibt es bei den o. g. Mehrfachbestimmungen an Stichproben. Tabelle 10.7 ermöglicht die Abschätzung des AQS-Aufwandes anhand des individuellen Untersuchungspaketes. 10.3.2.2 AQS-Vorgehensweise für zeitaufwändige Analysenverfahren

Die oberste Maxime ist hierbei, die Anzahl der Messvorgänge so klein wie vertretbar zu halten. Das Konzept der Arbeitskalibrierung ist hier die Kalibriermethode der Wahl (s. Tabelle 10.6). Sie führt zur Verringerung des Arbeitsaufwandes. Die Arbeitskalibrierungen werden hierbei mit der Basiskalibrierung (wenn gemäß den LAWAMerkblättern [4] eine Basiskalibrierung gemäß DIN 38 402-A51 [2] vorgeschrieben ist) oder mit der aufwändigeren Kalibrierung gemäß Fachnorm verglichen. Bezüglich der Basiskalibrierung gilt auch hier die Anmerkung 5.

333

334

10 Beurteilung von analytischen Daten aus Behördensicht

Abb. 10.5 Beispiel für interne Kalibrierung: GC-MS-Bestimmung von fünf HCH-Verbindungen. Als interner Standard wird die – in der Umwelt nicht vorkommende – Verbindung 3.5-Dibrom-4-methylbenzoesäuremethylester (siehe unterstes Chromatogramm) verwendet.

Für spezielle Verfahren – wie z. B. die Bestimmung der HCH mit GC-MS – kommt auch die interne Kalibrierung zur Anwendung. Die Abb. 10.5 zeigt hierzu ein entsprechendes Chromatogramm. Die Unsicherheit dieser „Einpunktskalibrierung“ sollte einen großen Einfluss auf die gesamte Messunsicherheit der Ergebnisse haben. Hierzu kann mit den internen Standards (deuterierte Verbindungen, 13 C-Verbindungen oder Modellsubstanzen) eine Mittelwert-Kontrollkarte geführt werden, deren Standardabweichung als zufällige Messabweichungskomponente (s. u.) berücksichtigt werden kann. Die Konstanz des (matrix- und analytfreien) Analysengrundsystems wird mit Blindwert-Kontrollkarten bei annähernd normalverteilten Blindwerten bzw. mit Blindwert-Zielwertkarten geprüft. Ein AQS-bezogener Messaufwand ist hierfür nicht erforderlich, da die Blindwertmessung Verfahrensbestandteil ist. Zufällige Messabweichungen (s. Tabelle 10.4) können mit Mittelwert-Kontrollkarten geschätzt werden, bei denen geeignete haltbare reale Proben – die den Analyten enthalten – als Kontrollproben eingesetzt werden. Andernfalls müssen (relative) Spannweiten-Kontrollkarten für ausgesuchte reale Proben geführt werden, wobei auch hier – mangels anderer Vorschläge – die Gleichung (10.5) in Anmerkung 6 verwendet werden kann.

Umgerechnet < 1 Analyse pro Serie

t 5 Proben in d 3 Jahren bei Ringversuchen analysieren Keine zusätzlichen Messungen

Synthetische oder reale Proben des Ringversuchsorganisators Keine zusätzlichen Proben

Keine zusätzlichen Proben

Verfahrenskenngrößen (Nachweis-/Bestimmungsgrenze)

Messunsicherheit

a)

Umgerechnet d 1 Analyse pro Serie

Einmal im Quartal: 5 Aufstockanalysen

Reale Proben aus dem täglichen Programm

Systematische Messabweichung: (a) Wiederfindungsexperimente oder: (b) Teilnahme an Ringversuchen

Aus messtechnischen Gründen werden Proben des gleichen/ähnlichen Matrixtyps zu einer Serie zusammengestellt.

Keine zusätzlichen Messungen

1 Analyse pro Messtag

Spannweiten-Kontrollkarte führen

Reale Proben aus dem täglichen Programm

Zufällige Messabweichung: Spannweiten-Kontrollkarte

Keiner (nur Rechenoperationen)

Keiner (nur Rechenoperationen)

Keiner

Gemäß Fachnorm oder nach dem Konzept Basiskalibrierung – Arbeitskalibrierung

Kalibrierstandards

Zusätzlicher AQS-Aufwand pro Serie (1–2 Messtage pro Woche) von 10 Proben einer Matrixa)

Kalibriervorschrift

Wie angewandt?

Kontrollproben

AQS-Werkzeug

Tabelle 10.8 Beispiele für AQS-Aufwand bei zeitaufwändigen Analysenverfahren in der Routine.

10.3 Praxis der AQS 335

336

10 Beurteilung von analytischen Daten aus Behördensicht

Systematische Messabweichungen werden mit Wiederfindungsexperimenten an zertifizierten Referenzmaterialien (sofern erhältlich) oder realen Proben (mit und ohne Aufstockung, s. Tabelle 10.5) und Korrektur der Analysenwerte um den ermittelten Bias erhalten. Auf die internen Wiederfindungsexperimente kann verzichtet werden, sofern das Labor an einschlägigen Ringversuchen mit Erfolg teilnimmt (nach DEV A0-4 [8] sollen vom Labor innerhalb von drei Jahren von dem betroffenen Parameter mindestens fünf Proben in Ringversuchen erfolgreich analysiert werden). Tabelle 10.8 ermöglicht die Abschätzung des AQS-Aufwandes anhand des individuellen Untersuchungspaketes.

10.4 Beurteilung der Analysenergebnisse

In Abhängigkeit von dem vorgegebenen Untersuchungsziel werden die erhaltenen Analysenergebnisse mit der geschätzten erweiterten Messunsicherheit (U) verbunden: 2 x ± U = x ± 2 ⋅ uC = x ± 2 ⋅ uRw + u 2bias

(10.6)

mit: x = Analysenergebnis, U = erweiterte Messunsicherheit, uC = kombinierte Messunsicherheit, uRw = gesamte zufällige Messabweichung, u2bias = gesamte systematische Messabweichung. Der wahre Wert des Ergebnisses befindet sich nach diesem statistischen Ansatz mit 95%iger Wahrscheinlichkeit im Bereich x – U bis x + U. Bei einer Grenzwertüberwachung muss der Grenzwert außerhalb dieses Bereiches liegen, soll eine Grenzwertüberschreitung bzw. -unterschreitung zweifelsfrei festgestellt werden.

Abb. 10.6 Konzept der Grenzwertüberwachung (z. B. beim Vollzug der Abwasserverordnung) [11]. Die maximal tolerable Messunsicherheit ist in den Grenzwert „eingebaut“. Jede nominelle Überschreitung des (neuen) Grenzwertes ist deshalb eine Rechtsverletzung.

10.5 Fazit und Ausblick

Dieses Konzept birgt aber eine Gefahr für die Überwachungsbehörden. Je größer der o. g. Bereich ausgedehnt wird (was man z. B. durch unsauberes Arbeiten „hinbekommt“!), umso schwieriger wird der Nachweis einer Grenzwertverletzung. Aus diesem Grunde werden z. B. in der bundesdeutschen Abwasserverordnung [11] maximal tolerierbare Messunsicherheiten (Sicherheitszuschläge) festgelegt und zu den (alten) Grenzwerten hinzuaddiert. Eine nominelle Überschreitung dieser neuen Grenzen stellt dann eine Rechtsverletzung dar (s. Abb. 10.6). Das Labor wird durch dieses Konzept gezwungen, seine Arbeitsweise so zu optimieren, dass seine Messunsicherheitswerte im gewünschten Bereich (der Sicherheitszuschläge) liegen.

10.5 Fazit und Ausblick

Umweltbehörden benötigen zur Kontrolle der Umwelt analytische Daten in der Regel zweckgerichtet, d. h. zur Beantwortung einer gesetzlichen Fragestellung. Es geht dabei meist um das Einhalten von Grenzwerten, welche in gesetzlichen Regeln festgesetzt wurden. Die Behörden benötigen justitiable Ergebnisse, die auch einem Verwaltungsgerichtsverfahren Stand halten können. Dem gegenüber steht aber die weit verbreitete falsche Einstellung von Politik und öffentlicher Verwaltung, dass man die Kontrolle der Umwelt mit immer weniger Analysenergebnissen sicherstellen kann. Man schließt von der derzeitigen – gegenüber früher – besseren Umweltsituation darauf, dass auch im Einzelfall weniger „gesündigt“ wird. Was eine ähnliche Einstellung im Verbraucherschutz bewirkt hat, zeigen die vielen Lebensmittelskandale (Gammelfleisch, Salmonellen). Die wenigen zur Umweltkontrolle herangezogenen Analysenergebnisse müssen „wasserdicht“ sein. Zum einen akzeptieren die Behörden nur – für den jeweiligen Untersuchungsbereich – kompetenzgeprüfte (d. h. akkreditierte und/oder notifizierte Laboratorien) sowie vorgegebene und exakt einzuhaltende Referenzverfahren, die im Umweltbereich in den sog. Fachmodulen [12] festgelegt sind. Zum anderen müssen die ausgewählten Laboratorien zur Absicherung der Analysenergebnisse eine AQS (z. B. gemäß den LAWA-AQS-Merkblättern [4]) betreiben, die ebenfalls vorgeschrieben und ohne Abweichungen einzuhalten ist. Die wichtigste Kenngröße zur Absicherung des Analysenergebnisses ist die Messunsicherheit. Die Behörden als Konsumenten der Analysenergebnisse müssen sich selbstverständlich ebenfalls an vorgegebene „Spielregeln“ halten, z. B. zur Feststellung einer Grenzwertüberschreitung. Das hierfür herangezogene Konzept darf nicht willkürlich geändert werden. Diese sehr weitgehenden Reglementierungen sind notwendig, um eine Gleichbehandlung aller Umweltdelikte zu erreichen. Alle Beteiligten müssen sich aber im Klaren sein, dass alle Abweichungen von diesen Reglementierungen – auch formeller Art – zu Lasten der Umweltbehörden gehen, denn mit nicht justitiablen Werten kann man keine Umweltdelikte nachweisen.

337

338

10 Beurteilung von analytischen Daten aus Behördensicht

Literatur 1 DIN EN ISO/IEC 17 025, August 2005: Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien. 2 DIN 38 402-A51, Mai 1986: Deutsche Einheitsverfahren zur Wasser-, Abwasser- und Schlammuntersuchung – Allgemeine Angaben (Gruppe A) – Kalibrierung von Analysenverfahren, Auswertung von Analysenergebnissen und lineare Kalibrierfunktionen für die Bestimmung von Verfahrenskenngrößen (ISO 8466-1: März 1990). 3 DIN ISO 8466-2 (A44), Juni 2004: Wasserbeschaffenheit – Kalibrierung und Auswertung analytischer Verfahren und Beurteilung von Verfahrenskenndaten – Teil 2: Kalibrierstrategie für nichtlineare Kalibrierfunktionen zweiten Grades (ISO 8466-2:2001). 4 Rahmenempfehlungen der Länderarbeitsgemeinschaft Wasser (LAWA) für Wasser-, Abwasser- und Schlammuntersuchungen und zugehörige Merkblätter; Verlag E. Schmidt, Berlin. Die zweite Ausgabe des LAWA-Merkblattes A-2 „Kontrollkarten“ ist mit Stand September 2004 publiziert worden. Das LAWAMerkblatt A-5 „Validierung“ liegt im Entwurf vor. Merkblatt A-7 wurde 2003 publiziert. 5 DIN V EN V ISO 13 530 – A60, 1998: Wasserbeschaffenheit – Richtlinie zur analytischen Qualitätssicherung in der Wasseranalytik. ISO/TR13530:1997). Beuth Verlag, Berlin. 6 „Strategien für die Wasseranalytik: Verfahrensentwicklung, Validierung und Qualitätssicherung in der Routine“. DEV 1997. Beuth Verlag, Berlin.

7 DEV A0-2, 59. Lieferung 2004: Verfahrensentwicklung, Validierung und Qualitätssicherung in der Routine. Beuth Verlag, Berlin. 8 DEV A0-4. Lieferung 2006: Leitfaden zur Abschätzung der Messunsicherheit aus Validierungsdaten. Beuth Verlag, Berlin. 9 EURACHEM/CITAC Guide Quantifying Uncertainty in Analytical Measurement, 2. Auflage, 2000; Deutsche Übersetzung: Ermittlung der Messunsicherheit bei analytischen Messungen, 2. Auflage, Februar 2004, http://www.eurolab-d. bam.de/dokumente.html). 10 DIN 32 645, Mai 1994: Chemische Analytik – Nachweis-, Erfassungs- und Bestimmungsgrenze – Ermittlung unter Wiederholbedingungen, Begriffe, Verfahren, Auswertung. 11 Abwasserverordnung – AbwV (Neufassung vom 17.6.2004). 12 Fachmodul Wasser gemäß § 4 Abs. 1 der Verwaltungsvereinbarung über den Kompetenznachweis und die Notifizierung von Prüflaboratorien und Messstellen im gesetzlich geregelten Umweltbereich, Fachmodul Boden und Altlasten – Bereichsspezifische Anforderungen an die Kompetenz von Untersuchungsstellen im Bereich Boden und Altlasten, Fachmodul Abfall – Kompetenznachweis und Notifizierung von Prüflaboratorien und Messstellen im abfallrechtlich geregelten Umweltbereich, Modul Immissionsschutz – Fachkundenachweis für Ermittlungen im Bereich des Immissionsschutzes. 13 ISO 13 530: Befindet sich derzeit (Stand Nov. 2007) im Entwurfsstadium (ISO/DIN 13 530).

339

11 Auswertung Chromatographischer Daten nach den Arzneibüchern – Kontrolle von Verunreinigungen Ulrich Rose

11.1 Problemstellung

Die Arzneibücher sind eine Sammlung von allgemeinen und speziellen Texten (Monographien), deren Zweck es ist, allgemeinverbindliche Qualitätsnormen zur qualitativen und quantitativen Analyse von Arzneistoffen und Wirkstoffen festzulegen. Im Falle des Europäischen Arzneibuchs [1] stellen diese Normen die obligatorischen Standards in den zurzeit 36 Mitgliedsstaaten der Europäischen Arzneibuchkommission dar. Wesentliche Bestandteile der Arzneibücher sind der allgemeine Teil mit den Kapiteln zur Beschreibung der Analysenmethoden und der spezielle Teil mit den Monographien über Wirk- und Hilfsstoffe. Die amerikanische Pharmakopöe (USP) [2] beinhaltet zusätzlich auch Monographien für Fertigarzneimittel. In den speziellen Monographien wird die Kontrolle der Verunreinigungen meist durch chromatographische Verfahren gewährleistet, wobei HPLC die Methode der Wahl darstellt. Um einen Rahmen für die Durchführung der Chromatographie in den einzelnen Monographien zu definieren, liefern die Arzneibücher in entsprechenden allgemeinen Kapiteln Definitionen, Berechnungsformeln allgemeiner Parameter und generell gültige Anforderungen für Systemeignungstests. Dies sind in der United States Pharmacopeia (USP) das Kapitel 621 „Chromatography“ [3] und in der Europäischen Pharmakopöe (Ph. Eur.) das Kapitel 2.2.46 „Chromatographic Separation Techniques“ [4], welches gegenwärtig revidiert wird und in einer überarbeiteten Version in Pharmeuropa publiziert wurde [5]. Nachfolgend soll im Wesentlichen auf die hier vorgegebenen Empfehlungen und Richtlinien zur Durchführung der Chromatographie und Auswertung chromatographischer Daten eingegangen werden.

340

11 Auswertung Chromatographischer Daten nach den Arzneibüchern

11.2 Auswertung qualitativer Daten

In der Ausarbeitung eines allgemein anwendbaren Pharmakopöe-Reinheitstests durch HPLC besteht eines der Hauptprobleme in der Definition eines geeigneten chromatographischen Systems, welches reproduzierbare Ergebnisse liefert. Dies wird durch die Vielzahl kommerziell erhältlicher stationärer Phasen, insbesondere im Bereich der Reverse-Phase-Materialien, erschwert, da hier nicht nur die Verwendung unterschiedlicher Typen, sondern zum Teil auch Batch-zu-BatchVariationen der gleichen Phase die Auftrennung oder Elutionsfolge beeinflussen können. Die Standardisierung im Sinne der Erzielung qualitativ und quantitativ reproduzierbarer Ergebnisse stellt daher die Hauptaufgabe bei der Ausarbeitung einer Arzneibuchmethode dar. Beispielsweise werden im Kapitel 2.2.46 „Chromatographic Separation Techniques“ des Europäischen Arzneibuchs qualitative chromatographische Parameter aufgeführt, die zur Beschreibung der Retentionsdaten dienen: Dazu zählen die Retentionszeit und das -volumen, die Massenverteilung (Kapazitätsfaktor bzw. Retentionsfaktor) und der Verteilungskoeffizient. Ein wichtiger Faktor zur Beschreibung der Peakform ist der Symmetriefaktor, der sich wie folgt berechnet: As = W0.05/2 d, wobei W0.05 die Peakbreite bei einem Zwanzigstel der Höhe und d die Distanz zwischen der vom Peakmaximum gezogenen Senkrechten und dem Peakanfang bei einem Zwanzigstel Peakhöhe bedeutet. Ein Wert von 1,0 bedeutet ideale Symmetrie. Ein weiterer, in neueren Monographien weniger häufig benutzter Parameter, um die Säulenleistung zu beschreiben, ist die Anzahl theoretischer Böden, die berechnet wird nach: N = 5,54 · (tR/Wh)2, wobei tR gleichbedeutend ist mit Retentionszeit oder -volumen und Wh die Breite des Peaks bei halber Höhe darstellt (s. auch Kapitel 1). Heutzutage oft verwendete Kriterien zur Charakterisierung chromatographischer Trennungen zweier Substanzen sind die Resolution (Auflösung) oder die sog. „Peak-to-Valley-Ratio“. Nach dem Europäischen Arzneibuch berechnet sich die Auflösung zwischen zwei Komponenten nach der Formel Rs = 1,18 · (tR2 – tR1)/(Wh1 + Wh2), wobei tR = Retentionszeit und Wh = Breite bei halber Peakhöhe bedeuten. Die frühere Anforderung des Ph. Eur., dass diese Berechnung an Peaks gleicher Höhe vorgenommen werden muss, gilt heute nicht mehr. Dies ermöglicht dem Autor einer Monographie, Systemeignungstests zu beschreiben, die eine „real-life“-Situation darstellen, d. h. z. B. die Trennung zwischen der Untersuchungssubstanz und einer Verunreinigung, die in einer Referenzlösung in einem realistischen Konzentrationsverhältnis vorliegen, z. B. von 100 : 1. Die Voraussetzung dafür ist allerdings, dass die Hauptkomponente in einer Konzentration vorliegt, die nicht zu einer Detektorüberladung führt, da sonst eine Messung der Peakbreite bei halber Höhe nicht oder nur schätzungsweise möglich ist. Die USP lässt die Auflösung insofern unterschiedlich berechnen, als dass die Breite des Peaks nicht bei halber Höhe, sondern an der Basis gemessen wird und anstelle von 1,18 ein Faktor von 2 im Zähler verwendet wird, was letzt-

11.2 Auswertung qualitativer Daten

endlich dazu führt, dass die berechnete Auflösung in der gleichen Größenordnung liegt wie bei Ph. Eur. Alternativ wird in der USP bei Verwendung elektronischer Integratoren folgende Formel angeboten: R = 2 · (t2 – t1)/1,70 · (W1,h/2 + W2,h/2). Bei genauerer Betrachtung ergibt sich hier exakt die gleiche Formel wie in der Europäischen Pharmakopöe verwendet. In solchen Fällen, wo Verunreinigungs- und Hauptpeak sehr dicht beieinander liegen und nicht basisliniengetrennt sind, kann die Auflösung eventuell nicht wie oben berechnet werden. In diesem Fall kommt die in der Europäischen Pharmakopöe beschriebene „Peak-to-Valley-Ratio“ im Systemeignungstest zur Anwendung, die im entsprechenden USP-Kapitel nicht aufgeführt ist. Es wird hier das Verhältnis zwischen Peakhöhe des Verunreinigungspeaks (Hp) und dem niedrigsten Punkt („valley“) zwischen Verunreinigungs- und Hauptpeak berechnet (p/v = Hp/Hv) und als Systemeignungskriterium verwendet (Abb. 11.1). Ein bedeutender Punkt im Hinblick auf die qualitative Auswertung chromatographischer Daten ist die Identifizierung von Komponenten im chromatographischen System. Die Angabe von Retentionszeiten als Charakteristikum ist hier oft hilfreich, aber auch unzureichend, da abhängig von der jeweils verwendeten stationären Phase eine hohe Variabilität besteht. Eine etwas genauere Hilfe ist die in Ph. Eur. und USP verwendete Angabe der relativen Retention, die sich berechnet nach r = (tR2 – tM)/(tR1 – tM). Da jedoch tM, die Retentionszeit einer nicht zurückgehaltenen Substanz, in der Praxis nicht bei jeder Analyse experimentell bestimmt wird, verwendet Ph. Eur. der Einfachheit halber auch den Begriff der

Abb. 11.1 Hauptsubstanz mit einer unvollständig abgetrennten Verunreinigung. Hp: Höhe des Verunreinigungspeaks, gemessen von der extrapolierten Basislinie. Hv: Höhe des niedrigsten Punktes der Kurve, die den Neben- vom Hauptpeak trennt. Peak-to-valley ratio: p/v = Hp/Hv .

341

342

11 Auswertung Chromatographischer Daten nach den Arzneibüchern

„unadjusted relative retention rG“, die sich als Quotient aus tR2, der Retentionszeit des interessierenden Peaks, und tR1, der Retentionszeit eines Referenzpeaks, meist der Hauptsubstanz, errechnet. Die Erfahrung zeigt jedoch, dass auch relative Retentionen nur bedingt reproduzierbar sind und daher nicht allein zur Identifizierung von Peaks in chromatographischen Systemen verwendet werden können: Der Referenzpeak unterliegt auch chromatographischen Einflüssen (Eluentenzusammensetzung, pH-Wert etc.) und stellt selbst eine Variable dar, anders als eine inerte Komponente. Nach dem Technical Guide [6] des Europäischen Arzneibuchs ist die bevorzugte Option zur Identifizierung von Verunreinigungspeaks die Verwendung von Referenzsubstanzen (Chemical Reference Substance, CRS) [7]. Diese Referenzsubstanzen können sowohl die zu untersuchende Hauptsubstanz, Verunreinigungen als auch Mischungen der zu identifizierenden Verunreinigungen mit der Hauptsubstanz sein (Systemeignungs- oder Peak-Identifizierungsmischungen). Aufgrund der limitierten Verfügbarkeit von Verunreinigungen als isolierte Substanzen ist die Verwendung dieser Mischungen, die zusammen mit einem Typchromatogramm ausgeliefert werden, in neueren Monographien der Ph. Eur. die bevorzugte Option zur Identifizierung von Verunreinigungen und zur Durchführung des Systemeignungstests (Abb. 11.2). Eine interessante Alternative zur Verwendung von Referenzsubstanzen zur Identifizierung von Verunreinigungen im chromatographischen System stellt die Methode der „In-situ-Degradierung“ dar, bei der unter kontrollierten Bedingungen gezielt eine bestimmte Verunreinigung durch Abbau der Testsubstanz, z. B. durch Oxidation oder Hydrolyse, produziert wird und die gewonnene Referenzlösung ohne Isolierung der Substanz direkt chromatographiert wird >8@.

Abb. 11.2 Hauptsubstanz mit 4 Verunreinigungen. Anforderung: Mindestauflösung der jeweiligen Verunreinigungspaare: Rs > 2.5. Gefunden: jeweils Rs = 2.9.

11.2 Auswertung qualitativer Daten

11.2.1 Systemeignungstest

Um eine adäquate Leistung des chromatographischen Systems zu sichern, sollte am Anfang, aber auch während der analytischen Prozedur, ein Systemeignungstest durchgeführt werden. Zu diesem Zweck bietet sich eine Überprüfung der oben genannten Parameter an. Grundsätzlich sind im Europäischen Arzneibuch nach Kapitel 2.2.46 im Test auf verwandte Verbindungen per HPLC folgende Kriterien zu erfüllen: x Die Peaksymmetrie im Chromatogramm einer Referenzlösung sollte zwischen 0,8 und 1,5 liegen, wenn in der Monographie nicht anders definiert. x Das LOQ (Limit of Quantification) ist höchstens so groß wie das Disregard-Limit (nach ICH Reporting Threshold). x Die in der Monographie vorgegebenen Anforderungen an die minimale Peaktrennung, z. B. durch Bestimmung der Auflösung oder „Peak-to-Valley-Ratio“, müssen erfüllt werden. Neuere Monographien, in denen eine größere Anzahl von Verunreinigungen identifiziert und voneinander getrennt werden sollen, können auch mehr als ein Kriterium für die Auflösung aufführen, z. B. die revidierte Monographie für Norfloxacin [9], die eine Mindestauflösung von 1,5 zwischen Verunreinigung E und Norfloxacin und von mindestens 3,0 zwischen den Verunreinigungen A und H vorschreibt. Für diese Art von Tests bieten sich besonders kritische Trennungen, d. h. im Chromatogramm dicht aufeinanderfolgende Peaks, die eventuell koeluieren können, zum Systemeignungstest an. Als Ergebnis des Tests soll schließlich sichergestellt werden, dass bei Analyse der Testsubstanz alle eventuell vorkommenden Verunreinigungen voneinander und von der Hauptsubstanz abgetrennt werden. x Retentionszeit und relative Retention: Diese werden üblicherweise in den Arzneibüchern zur Information aufgeführt, aber nicht als Systemeignungskriterium. x Wiederholbarkeit, relative Standardabweichung der Peakresponse einer Referenzlösung: Dies ist in der Ph. Eur. ein neues Systemeignungskriterium, welches erstmals im revidierten Kapitel 2.2.46 [10] auftaucht. Es besagt, dass die RSD der Peakfläche bei wiederholter Einspritzung der Referenzlösung nicht größer als 5,0% sein sollte, wenn die Konzentration der Untersuchungssubstanz größer als 0,2% im Verhältnis zur Testlösung ist, und nicht größer als 10,0% sein sollte, wenn die Konzentration kleiner als 0,2% ist. x Anpassung chromatographischer Bedingungen: Dem Analytiker stellt sich häufig die Frage, in welchem Rahmen die chromatographischen Bedingungen angepasst werden können, um die Systemeignungsanforderungen zu erfüllen. Hier gibt das Europäische Arzneibuch klare Richtlinien vor. Umso mehr ist es erstaunlich, dass der vorgegebene Spielraum von Pharmaunternehmen selten genutzt wird. Nach der revidierten Fassung des Kapitels 2.2.46, die zurzeit allerdings noch nicht offiziell ist, beziehen sich die erlaubten Modifikationen nur auf isokratische Systeme (s. auch Tabelle 13.2 in Kapitel 13):

343

344

11 Auswertung Chromatographischer Daten nach den Arzneibüchern

– Mobile Phase: Menge der kleineren Lösungsmittelkomponente kann um ± 30% relativ oder ± 2% absolut verändert werden. – pH-Wert: ± 0,2 pH des wässrigen Anteils der mobilen Phase. – Konzentration von Salzen in der Pufferkomponente der mobilen Phase: ± 10%. – Detektionswellenlänge: keine Änderung erlaubt. – Stationäre Phase/Säule: Säulenlänge ± 70%, Innendurchmesser ± 25%, Partikelgröße maximale Reduktion 50%. – Durchflussrate ± 50%. – Säulentemperatur ± 5 K. Wie bereits erwähnt, ist die Veränderung der oben genannten Parameter nicht zulässig bei Gradientensystemen. Eine Veränderung der chromatographischen Bedingungen ist hier kritischer als bei isokratischen Systemen, da dies zu Verschiebung von Peaks in andere Gradientenstufen führen kann, sich damit das chromatographische Profil ändert und die Zuordnung von Peaks erschwert oder verfälscht wird. Auch besteht das Risiko, dass spät eluierende Verunreinigungen eventuell nicht mehr innerhalb des Gradienten detektiert werden. Bei isokratischen Systemen besteht diese Gefahr nicht, da hier die Dauer der Chromatographie meist als Funktion der Retentionszeit des Hauptpeaks (z. B. zweimal die Retentionszeit des Hauptpeaks) angegeben wird und so auch bei Verlängerung der Retentionszeiten kein Peak „verloren“ geht. Daher wird im revidierten Kapitel 2.2.46 bei Gradientensystemen generell von einer Veränderung der Zusammensetzung der mobilen Phase abgeraten [10] und – falls die Systemeignungsanforderungen nicht erfüllt werden können – es wird empfohlen, die Säule zu wechseln und das „Dwell-Volume“ (Verweilvolumen) zu beachten. Eine Formel zur Korrektur der Gradientenzeiten in Abhängigkeit vom Dwell-Volume wird angegeben. Formel für die Berechnung der Gradientenzeiten t in Abhängigkeit vom Dwell volume (nach [10]): tc = t – (D – Do) / f D = Dwell volume, in ml Do = Dwell volume, in ml, so wie bei der Methodenentwicklung verwendet (1 ml, wenn nicht anders angegeben) F = Flow rate in ml/min t = angegebene Gradientenzeit tc = korrigierte Gradientenzeit Der Technical Guide des Ph. Eur. empfiehlt bei Gradientensystemen einen Systemeignungstest in jeder kritischen Gradientenstufe durchzuführen. Hier empfehlen sich natürlich besonders oben genannte „Systemeignungsmischungen“, die bevorzugt Komponenten enthalten sollten, die früh, in der Mitte und am Ende des Gradientensystems eluieren, um so einerseits Selektivität und andererseits die komplette Eluierung aller zu kontrollierenden Verunreinigungen zu garantieren.

11.3 Auswertung quantitativer Daten

11.3 Auswertung quantitativer Daten

Ziel der in den Arzneibüchern beschriebenen chromatographischen Analyse von Verunreinigungen ist natürlich deren quantitative Erfassung bzw. ihre Limitierung in der zu untersuchenden Testsubstanz. Zu diesem Zweck sind oben genannte qualitative Parameter beschrieben, die zunächst eine ausreichende Abtrennung und eindeutige Zuordnung bzw. Identifizierung der zu bestimmenden Verunreinigungen ermöglichen sollen. Neben den hier genannten qualitativen Systemeignungskriterien führt die Europäische Pharmakopöe im Kapitel 2.2.46 auch ein quantitatives Kriterium auf [11], welches erfüllt werden muss: Das Quantifikationslimit (LOQ = Limit of Quantification) darf maximal so groß sein wie das sog. „Disregard-Limit“ (Reporting threshold), unterhalb dessen detektierte Peaks zu vernachlässigen sind. In der Regel beträgt dieses Disregard-Limit 0,05%, bezogen auf die Testsubstanz. Ausnahmen können aber in den Monographien beschrieben sein. In der USP fehlt ein solches Kriterium, soll aber wie kürzlich von Pappa et al. [12] beschrieben, nach dem Vorbild der Ph. Eur. eingeführt werden. In der Literatur sind zahlreiche Methoden zur Berechnung des Quantifikationslimit beschrieben [13, 14], auch im Abschnitt zur Validierung analytischer Methoden nach dem Technical Guide der Ph. Eur. finden sich Berechnungsmöglichkeiten. Die im Kapitel 2.2.46 beschriebene Methode basiert auf einer Auswertung des Signal/Rausch-Verhältnisses (S/N ratio = Signal-to-Noise Ratio), welches mindestens 10 : 1 sein sollte, um Peaks korrekt und reproduzierbar erfassen zu können. Nach Kapitel 2.2.46 berechnet sich dieses Verhältnis wie folgt: S/N = 2 H/h, wobei H die Höhe des Peaks einer Referenzlösung bedeutet und h die Höhe des Basislinienrauschens, erhalten mit dem Chromatogramm einer Blindlösung; hier sollte der Analytiker über eine Distanz messen, die zwanzig Mal der Breite des Peaks bei halber Höhe entspricht, und dies, wenn möglich, auch in dem Bereich des Chromatogramms, in dem der Peak später auch gefunden wird. Die Bezeichnung „wenn möglich“ soll dem Analytiker eine gewisse Freiheit bei der Messung einräumen und unterstreichen, dass bei allen Arzneibuchvorgaben auch immer der analytische Sachverstand gefordert ist und manchmal individuelle Lösungen gesucht werden müssen. Die Art der Bestimmung der Verunreinigungen in den Arzneibüchern entspricht zurzeit einem Limittest, soll aber in der Europäischen Pharmakopöe für die 6. Ausgabe in einen quantitativen Test umgewandelt werden. Generell werden zur quantitativen Erfassung der Verunreinigungen zwei Methoden verwendet, die der Normalisierung oder die Methode des externen Standards. Bei der seltener verwendeten Methode der Peakflächennormalisierung wird die Fläche des Verunreinigungspeaks im Chromatogramm der Testlösung direkt mit der Fläche des Hauptpeaks verglichen und auf diesen bezogen. Dies ist zwar eine einfache, schnell durchführbare Prozedur, erfordert aber eine Linearität der Detektorresponse über den gesamten Bereich, d. h. von Konzentrationen von häufig um 0,1% der Verunreinigungen bis zu 100% der Testsubstanz. Da im Test auf verwandte Verbindungen oft sehr konzentrierte Lösungen verwendet werden,

345

346

11 Auswertung Chromatographischer Daten nach den Arzneibüchern

um Verunreinigungen auch in niedrigen Konzentrationen noch detektieren zu können, ist diese Linearität häufig nicht gegeben, da es durch den Hauptpeak zur Detektorsättigung kommt. Sie ist auch stark vom jeweils verwendeten Detektor abhängig. Das Europäische Arzneibuch empfiehlt daher eher die Methode des externen Standards [6], wobei die Linearität lediglich im Bereich von 50 bis 120% der Spezifikation der jeweiligen Verunreinigung gegeben sein muss. Dies ist bei der Validierung der analytischen Methode zu verifizieren. Generell können bei der Verwendung dieser Methode verdünnte Lösungen der zu bestimmenden Verunreinigungen oder auch eine verdünnte Lösung der Testsubstanz als externer Standard verwendet werden, wobei die Konzentration dieser Referenzlösung im Bereich der jeweils zu bestimmenden Verunreinigung liegen sollte, d. h. häufig zwischen 0,1 und 1,0%, bezogen auf die Testlösung. Der Verunreinigungspeak im Chromatogramm der Testlösung wird dann direkt mit dem Peak im Chromatogramm der Referenzlösung verglichen. Der Idealfall liegt sicher vor, wenn eine Lösung der Referenzsubstanz der zu bestimmenden Verunreinigung als externer Standard verwendet werden kann, da hier jegliches Problem eventuell unterschiedlicher Detektorresponse von Haupt- und Nebensubstanz ausgeschlossen wird. Da aus den oben genannten Gründen dies jedoch nicht immer möglich ist, behilft man sich häufig mit einer verdünnten Testlösung als externem Standard. Hier muss natürlich bei der Validierung der Methode sichergestellt werden, dass die Verunreinigung eine ähnliche Detektorresponse aufweist wie die Hauptsubstanz. Während die USP hier keine näheren Angaben macht, aber eine Annäherung an die Ph. Eur. diskutiert [15], erlaubt das Europäische Arzneibuch im Kapitel 2.2.46 einen Bereich von 0,8 bis 1,2, innerhalb dessen die Response der Verunreinigung in Bezug auf die Hauptsubstanz vernachlässigt, d. h., gleich eins gesetzt werden kann. Außerhalb dieses Bereichs muss in der Monographie ein Responsefaktor bzw. ein Korrekturfaktor angegeben sein. Wie in [15] gut dargestellt, werden mitunter die Begriffe Response- und Korrekturfaktor teilweise unterschiedlich angewendet. Nach Ph. Eur. drückt der Begriff des Reponsefaktors das Verhältnis von Detektorresponse der Verunreinigung zu Detektorresponse der Hauptsubstanz aus; der in der Monographie angegebene Korrekturfaktor stellt den Reziprokwert des Responsefaktors dar: mit diesem Faktor ist die Peakfläche der Verunreinigung im Chromatogramm der Testlösung zu multiplizieren. Zu der Art und Weise, wie der Responsefaktor bestimmt wird, sind in den Arzneibüchern keine Angaben gemacht. In jedem Fall sollte eine gewisse Überprüfung der Linearität im Bereich um die Spezifikation der Verunreinigung stattfinden. Nach Auffassung des Autors sollte auch eine Bestimmung der Reinheit der Verunreinigung und des Wasser- bzw. Restlösemittelsgehalts durchgeführt werden, um den „Gehalt“ der Verunreinigung zu ermitteln. Prinzipiell sollte sie also ähnlichen Untersuchungen wie bei der Etablierung einer CRS [16] unterworfen werden; das Gleiche gilt natürlich auch für die Hauptsubstanz. Es ist klar, dass z. B. ein hoher Wassergehalt, der nicht in die Berechnung einbezogen wird, zu falschen Werten bei der Kalkulation des Responsefaktors führen kann. Da die Menge der zur Verfügung stehenden Verunreinigung häufig begrenzt ist, bleibt

Literatur

es letztendlich dem Analytiker überlassen, Methoden auszuwählen, die nur kleine Substanzmengen verbrauchen und trotzdem ein in wissenschaftlicher Hinsicht zuverlässiges Resultat liefern.

Literatur 1 European Pharmacopoeia, 5th ed., Council of Europe, Strasbourg, 2005. 2 United States Pharmacopeia (USP) 29, Rockville, USA, 2006. 3 United States Pharmacopeia (USP) 29, General Chapter 621 Chromatography, Rockville, USA, 2006. 4 2.2.46, Chromatographic Separation Techniques, European Pharmacopoeia, 5th ed. (5.0, Volume 1), 2005. 5 Kapitel 2.2.46, Chromatographic Separation Techniques, Pharmeuropa 2006, 18.3, 410–416. 6 Technical Guide for the elaboration of monographs (European Pharmacopoeia), 4th ed., 2005, 31 pp. 7 J. H. McB. Miller, A. Artiges, U. Rose, V. Egloff, E. Charton, Reference substances and spectra for pharmaceutical analysis, 172–195, in Reference Materials for Chemical Analysis, M. Stoeppler, W. R. Wolf, P. J. Jenks (Eds.), Wiley-VCH, Weinheim, 2001.

8 U. Rose, J. Pharm. Biol. Anal. 1998, 18, 1–14. 9 Monograph 1246, Norfloxacin, Pharmeuropa 18.4, 2006, 645–647 10 2.2.46 Chromatographic Separation Techniques, Pharmeuropa 2006, 18.3, 413–414. 11 2.2.46 Chromatographic Separation Techniques, Pharmeuropa 2006, 18.3, 414. 12 T. J. DiFeo, O. A. Quattrocchi, H. Pappa, Pharmacopeial Forum 2006, 32 (6), 1862–1864. 13 J. P. Foley, J. G. Dorsey, Chromatographia, 1984, 9, 503–511. 14 M. Zorn, R. Gibbons, W. Sonzogni, Environ. Sci. Technol. 1999, 33, 2291–2295. 15 L. Bhattacharyya, H. Pappa, K. A. Russo, E. Sheinin, R. L. Williams, Pharmacopeial Forum, 2005, 31 (3), 960–966. 16 Kapitel 5.12, Reference Standards, European Pharmacopoeia, 5th ed., 5.6, 2007.

347

349

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung Susanne Keitel

12.1 Einführung

Analytische, speziell chromatographische Prüfverfahren sind im Rahmen der Arzneimittelzulassung insbesondere im Qualitätsdossier von großer Bedeutung. Entsprechend der durch das Common Technical Document (CTD) vorgegebenen Struktur werden Angaben zu Prüfverfahren und deren Validierung im Modul 3 sowohl im Teil „S“ (Wirkstoff) als auch im Teil „P“ (Arzneimittel) erwartet [1–3]. Darüber hinaus sind chromatographische Prüfverfahren aber auch im Bereich der Bioanalytik von Relevanz, die gemäß der CTD-Struktur in den Modulen 4 und 5 beschrieben wird. Unter bioanalytischen Methoden sind die analytischen Prüfverfahren zu verstehen, die in klinischen (humanpharmakologischen, Bioverfügbarkeits- bzw. Bioäquivalenzstudien) und/oder in präklinischen Studien (pharmakologische und toxikologische Studien am Tier) eingesetzt worden sind. Die Beschreibung dieser Prüfverfahren und ihrer Validierung sollte in den Modulteilen erfolgen, die auch die entsprechenden Studien enthalten, d. h. im Modul 4, Abschn. 4.2.2.1 für Prüfverfahren und Validierungsberichte für präklinische Studien sowie im Modul 5, Abschn. 5.3.1.4 für Prüfverfahren und Validierungsberichte für in klinischen Studien eingesetzte Verfahren [2, 3]. Die folgenden Ausführungen sind besonders auf die Anforderungen im Qualitätsdossier ausgerichtet, jedoch im Allgemeinen auch auf die Beschreibung und Validierung von bioanalytischen Prüfverfahren anwendbar.

12.2 Beschreibung chromatographischer Prüfverfahren im Zulassungsdossier

Angaben zur pharmazeutischen Qualität finden sich im Zulassungsdossier im Modul 2, Quality Overall Summary, und im Modul 3, Body of Data. Beide Module sind analog aufgebaut und in separate Abschnitte für Wirkstoff und Arzneimittel

350

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung Tabelle 12.1 Lokalisation von Angaben zu analytischen Prüfverfahren im Qualitätsdossier. Modulabschnitt

Inhalt

3.2.S.2.3 Materialkontrollen

Angaben zu Qualität und Prüfverfahren der in der Herstellung des Wirkstoffes eingesetzten Materialien

3.2.S.2.4 Kontrollen kritischer Herstellungsschritte und Zwischenprodukte

Prüfungen und Akzeptanzkriterien (inkl. experimenteller Daten) für die Kontrolle kritischer Herstellungsschritte. Angaben zu Qualität und Prüfung der Zwischenprodukte, die während des Herstellungsprozesses isoliert werden. Daten zu den Prüfverfahren einschließlich Validierung sind in 3.2.S.4.2 bzw. 3.2.S.4.3 anzugeben

3.2.S.3.2 Verunreinigungen

Angaben zur strukturellen Charakterisierung. Daten zu den Prüfverfahren zur Charakterisierung von Verunreinigungen einschließlich Validierung sind in den Abschnitten 3.S.4.2 und 3.2.S.4.3 anzugeben

3.2.S.4.2 Analytische Verfahren

Beschreibung der analytischen Verfahren, die für die Prüfung des Wirkstoffes eingesetzt werden (einschließlich Verfahren für die Prüfung von Verunreinigungen)

3.2.S.4.3 Validierung der analytischen Verfahren

Angaben zur Validierung, einschließlich Untersuchungsergebnisse, für die analytischen Verfahren, die für die Prüfung des Wirkstoffes einschließlich seiner Verunreinigungen eingesetzt werden

3.2.S.6 Behältnis und Verschlusssystem

Angaben zu den Prüfverfahren für die Qualitätskontrolle des Behältnisses und des Verschlusssystems, die nicht im Arzneibuch beschrieben sind, einschließlich Validierung

3.2.S.7.3 Stabilität

Angaben zu den analytischen Verfahren für die Erhebung von Stabilitätsdaten (sofern sie von den für die Freigabeprüfung eingesetzten, im Abschn. 3.2.S.4.2 beschriebenen Verfahren abweichen)

3.2.P.2 Pharmazeutische Entwicklung 3.2.P.2.1.1 Bestandteile des Arzneimittels – Wirkstoff

Angaben zu den Prüfverfahren für die Untersuchung der Kompatibilität von Wirk- und Hilfsstoffen, einschließlich Daten zu deren Validierung (sofern sie von den im Abschn. 3.2.P.5.2 beschriebenen Verfahren abweichen)

3.2.P.2.2.1 Arzneimittel – Entwicklung der Formulierung

Angaben zu den Prüfverfahren, die während der Formulierungsentwicklung eingesetzt wurden (sofern sie von den im Abschn. 3.2.P.5.2 beschriebenen Verfahren abweichen)

3.2.P.2.4 Behältnis und Verschlusssystem

Angaben zu den Prüfverfahren für die Prüfung der Kompatibilität und Eignung des Behältnis und Verschlusssystems mit dem Arzneimittel einschließlich Validierung

3.2.P.2.6 Kompatibilität

Kompatibilität des Arzneimittels mit Rekonstitutionslösungen oder Applikationshilfen, soweit zutreffend. Angaben zu den Prüfverfahren sind in den Abschnitten 3.2.P.5.2 und 3.2.P.5.3 aufzuführen

12.2 Beschreibung chromatographischer Prüfverfahren im Zulassungsdossier Tabelle 12.1 (Fortsetzung) Modulabschnitt

Inhalt

3.2.P.3.4 Kontrollen kritischer Herstellungsschritte und Zwischenprodukte

Angaben zu Prüfungen an kritischen Herstellungsschritten und zur Kontrolle von Zwischenprodukten, die während des Herstellungsverfahrens isoliert werden, einschließlich von Daten zur analytischen Validierung

3.2.P.3.5 Prozessvalidierung und/oder -bewertung

Soweit Ergebnisse der Prozessvalidierung und/oder -bewertung für das Zulassungsdossier erforderlich sind, Angaben zu den Verfahren für zusätzliche Prüfungen, die für die Prozessvalidierung eingesetzt wurden, einschließlich entsprechender Daten zur analytischen Validierung

3.2.P.4 Kontrolle der Hilfsstoffe 3.2.P.4.2 Analytische Verfahren

Angaben zu den analytischen Verfahren, die für die Kontrolle der Hilfsstoffe eingesetzt werden (soweit für die Hilfsstoffe auf keine Arzneibuchmonographie Bezug genommen werden kann)

3.2.P.4.3 Validierung der analytischen Verfahren

Angaben zur Validierung der analytischen Verfahren für die Kontrolle der Hilfsstoffe, einschließlich Ergebnisse experimenteller Untersuchungen (soweit auf keine Arzneibuchmonographie Bezug genommen werden kann)

3.2.P.5 Kontrolle der Fertigarzneimittel 3.2.P.5.2 Analytische Verfahren

Angaben zu den analytischen Verfahren für die Qualitätsprüfung des Arzneimittels

3.2.P.5.3 Validierung analytischer Verfahren

Angaben zur Validierung der analytischen Verfahren für die Prüfung des Arzneimittels, einschließlich Ergebnisse experimenteller Untersuchungen

3.2.P.5.5 Charakterisierung der Verunreinigungen

Angaben zur Charakterisierung von Verunreinigungen im Arzneimittel, soweit sie von den in 3.2.S.3.2 beschriebenen Verunreinigungen im Wirkstoff abweichen. Angaben zu entsprechenden Prüfverfahren und analytischer Validierung in 3.2.P.5.2 bzw. 3.2.P.5.3

3.2.P.7 Behältnis und Verschlusssystem

Angaben zu nicht im Arzneibuch beschriebenen Verfahren (einschließlich Validierung), die für die Qualitätsprüfung des Behältnis und Verschlusssystems eingesetzt werden

3.2.P.8.3 Haltbarkeit

Angaben zu den analytischen Verfahren für die Erhebung von Stabilitätsdaten einschließlich Validierung (sofern sie von den für die Routineprüfung eingesetzten Verfahren abweichen)

351

352

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung

unterteilt. Die Quality Overall Summary soll die wesentlichen Qualitätsaspekte von Wirkstoff und Arzneimittel zusammenfassen und dabei insbesondere kritische Aspekte diskutieren, z. B. Abweichungen von Anforderungen der einschlägigen Qualitätsleitlinien darstellen und begründen. Diese Zusammenfassung sollte die Größenordnung von ca. 40 Seiten nicht wesentlich überschreiten. Für biotechnologisch hergestellte Arzneimittel ist der Umfang der Quality Overall Summary aufgrund der besonderen Komplexizität dieser Produkte mit ca. 80 Seiten vorgesehen. Modul 3 – das eigentliche Qualitätsdossier – enthält die detaillierten Angaben zur Entwicklung, Herstellung, Charakterisierung, Qualitätsprüfung und Stabilität von Wirkstoff und Arzneimittel. Analytische Prüfverfahren sind daher für alle genannten Dokumente und Dokumententeile gleichermaßen relevant. Tabelle 12.1 fasst die Dossierabschnitte zusammen, in denen entsprechende Angaben erwartet werden [2, 3]. Alle im Rahmen der Arzneimittelentwicklung und -herstellung eingesetzten Prüfverfahren müssen entsprechend Art. 23 der Richtlinie 2001/83/EG, die durch die Arzneimittelprüfrichtlinie in deutsches Recht umgesetzt ist, dem Stand von Wissenschaft und Technik entsprechen und für den jeweiligen Zweck geeignet sein [4–6]. Die Beschreibung muss ausreichend detailliert erfolgen, um die Prüfung durch ein unabhängiges oder offizielles Prüflabor zu ermöglichen (Official Medicinal Control Laboratory, OMCL). Die jeweils zu verwendenden Gerätschaften und Materialien sind zu beschreiben, ggf. einschließlich Konstruktionszeichnungen. Die Zusammensetzung der Reagenzien ist, wenn erforderlich, durch eine Beschreibung der jeweiligen Herstellung zu ergänzen. Wie aus obiger Tabelle zu entnehmen ist, werden insbesondere für alle Prüfverfahren, die im Rahmen der Routinequalitätsprüfung von Bestandteilen des Arzneimittels bzw. der Freigabeprüfung des Arzneimittels sowie in der Stabilitätsprüfung von Wirkstoffen und Arzneimittel eingesetzt werden, ausführliche Unterlagen über die Validierung erwartet. Der gleiche Umfang von Daten ist für die Angaben zu den In-ProzessKontrollen erforderlich, die eine Prüfung am Arzneimittel ersetzen.

12.3 Arzneibuchverfahren

Für im Europäischen Arzneibuch (Ph. Eur.) oder in einem Arzneibuch eines EU-Mitgliedsstaates beschriebene Prüfverfahren, die entsprechend dem dort beschriebenen Zweck eingesetzt werden, ist keine Validierung erforderlich, die Verifizierung, d. h. die Bestätigung, dass das Labor in der Lage ist, dieses Prüfverfahren richtig anzuwenden, ist ausreichend. Der Beleg der Verifizierung monographierter Prüfverfahren durch dokumentierte Untersuchungen ist jedoch nicht Teil der Zulassungsdokumentation, sondern sollte vor Ort beim pharmazeutischen Unternehmer vorhanden sein, um für eine entsprechende Überprüfung im Rahmen einer GMP-Inspektion zur Verfügung zu stehen. Entsprechend ist jedoch bei Verwendung eines in der Ph. Eur. für die Qualitätskontrolle eines Wirkstoffes beschriebenen Prüfverfahrens dann eine eigene

12.3 Arzneibuchverfahren

Validierung erforderlich, wenn es abweichend vom im Arzneibuch beschrieben Zweck eingesetzt werden soll. Wird z. B. ein für die Prüfung eines Wirkstoffes monographiertes Verfahren für die Prüfung eines entsprechenden Arzneimittels vorgesehen, liegt der Fokus insbesondere auf der Untersuchung des möglichen Einflusses der sonstigen im Arzneimittel enthaltenen Stoffe auf das Ergebnis (Matrixeffekte). Es ist wichtig darauf hinzuweisen, dass es gemäß Richtlinie 2001/83/EG im Ermessen der Zulassungsbehörde liegt, inwieweit in Arzneibüchern von Drittstaaten beschriebene analytische Prüfverfahren ohne weitere Angaben zur Validierung akzeptiert werden (z. B. United States Pharmacopoeia (USP), Japanese Pharmacopoeia (JP)), da diese in der Europäischen Union keine rechtliche Verbindlichkeit besitzen. Im Normalfall kann jedoch davon ausgegangen werden, dass in Abwesenheit einer entsprechenden Monographie in der Ph. Eur. auch die in den genannten Arzneibüchern beschriebenen Prüfverfahren für Wirk- und Hilfsstoffe von den EU-Zulassungsbehörden ohne umfangreiche Daten zur Validierung akzeptiert werden. Für Wirkstoffe ist jedoch nachzuweisen, dass die in der Monographie vorgesehenen Prüfverfahren in der Lage sind, alle im Wirkstoff tatsächlich vorhandenen Verunreinigungen zu erfassen. Dieses ist insofern von besonderer Relevanz, als der Entwicklung einer Arzneibuchmonographie in der Regel nur eine begrenzte Anzahl unterschiedlicher Herstellungsverfahren und damit Wirkstoffqualitäten zu Grunde liegen. Die in der Monographie beschriebenen Prüfverfahren und Akzeptanzkriterien sind deshalb auch nur in der Lage, eine Aussage über die Qualität eines nach diesen Verfahren hergestellten Wirkstoffs zu machen. Im Rahmen der Globalisierung werden Wirkstoffe heute allerdings in vielen Fällen aus Quellen im außereuropäischen Raum bezogen, Wirkstoffhersteller entsprechend dem Marktangebot häufig gewechselt. Für Wirkstoffe, die nach anderen oder modifizierten Synthesen hergestellt werden, ist daher zusätzlich nachzuweisen, dass das eingesetzte (in der Monographie beschriebene) Prüfverfahren in der Lage ist, alle im Wirkstoff enthaltenen Verunreinigungen zu erfassen. Um dieses Ziel zu erreichen muss das in der Monographie beschriebene Prüfverfahren ggf. modifiziert oder durch eine zusätzliche Prüfung ergänzt werden. Auch die Einschränkungen der regulatorischen Akzeptanz von in speziellen Arzneimittelmonographien beschriebenen Prüfverfahren im Rahmen von Zulassungsverfahren sind zu beachten. Im Gegensatz zur Ph. Eur. enthalten z. B. USP und die British Pharmacopoeia (BP) spezielle Arzneimittelmonographien, z. B. Furosemide Tablets. Da beide Arzneibücher keine konkrete Formulierung vorgeben, sondern lediglich Art und Menge der Wirkstoffe im Arzneimittel festlegen, ist für die in der Monographie aufgeführten Prüfverfahren im Rahmen der Zulassungsunterlagen die Eignung und Validität für das konkret beantragte Arzneimittel zu belegen, eine alleinige Bezugnahme auf die jeweilige Arzneibuchmonographie ist nicht ausreichend. Ebenso kann ggf. im Zulassungsverfahren eine abweichende Einschränkung der in der Monographie aufgeführten Spezifikationen auf den Stand von Wissenschaft und Technik gefordert werden, z. B. der Akzeptanzkriterien für den Wirkstoffgehalt von 90–110% auf die in der EU im Normalfall üblichen 95–105%.

353

354

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung

Insbesondere für international tätige Firmen können die zum Teil unterschiedlichen Monographien in den diversen Arzneibüchern logistische Probleme hervorrufen bzw. Kosten verursachen. Zusätzlich zu den internationalen Bestrebungen nach Harmonisierung der Arzneibuchanforderungen im Rahmen der International Conference on Harmonization of Technical Requirements for Registration of Pharmaceuticals for Human Use (ICH) besteht daher die Möglichkeit, den Nachweis der Äquivalenz von Prüfverfahren im konkreten Zulassungsantrag zu erbringen [7]. So ist zum Beispiel für eine in der Ph. Eur. monographierte Substanz der Einsatz des in der USP beschriebenen Prüfverfahrens möglich, wenn die Vergleichbarkeit dieser Methode mit der Methode der Ph. Eur. in den Zulassungsunterlagen belegt wird (Kreuzvalidierung). Dieses heißt, dass im Ergebnis die Qualität in jedem Fall der in der Ph. Eur. beschriebenen – rechtlich verbindlichen – Qualität entsprechen muss, auch wenn ein anderes als das monographierte Prüfverfahren eingesetzt wird. Integraler Bestandteil der Beschreibung von Prüfverfahren sind auch die Angaben zur Qualität bzw. Charakterisierung eingesetzter Referenzsubstanzen. Hierbei ist besonders zu beachten, dass offizielle Primärstandards, z. B. Controlled Reference Standards (CRS) der Europäischen Arzneibuchbehörde European Directorate for the Quality of Medicines & Health Care (EDQM) nur für den angegebenen Zweck qualifiziert sind. So erfordert z. B. der Einsatz eines durch die EDQM für eine Identitätsprüfung freigegebenen CRS für eine Gehaltsbestimmung die Vorlage entsprechender Unterlagen zur Eignung im jeweiligen Kapitel 3.2.S.5 bzw. 3.2.P.6 „Referenzstandards oder -materialien“ des Qualitätsdossiers. Für HPLC-Verfahren, die in der Ph. Eur. beschrieben sind, erlaubt die allgemeine Monographie 2.2.46 „Chromatographische Trennungsmethoden“ bestimmte Abweichungen von den in der jeweiligen Monographie beschriebenen Parametern. Für die Zusammensetzung der mobilen Phase kann der Anteil des geringeren Lösungsmittelbestandteils um ± 30% relativ oder ± 2% absolut verändert werden, wobei die Grenze durch den jeweils größeren Wert definiert wird („whichever is larger“). Voraussetzung hierbei ist jedoch, dass kein anderer Bestandteil der mobilen Phase um mehr als 10% absolut variiert wird. Der pH-Wert des wässrigen Anteils kann um ± 0,2 pH verändert werden, bei neutralen Analyten um ± 1,0 pH. Für die Variabilität der Salzkonzentration in Pufferbestandteilen ist eine Grenze von ± 10% definiert. Die Wellenlänge des Detektors, die in der Monographie angegeben wird, ist verbindlich, es darf nicht von den Vorgaben abgewichen werden. Demgegenüber sind Modifizierungen an der Säule durchaus möglich, z. B. kann die Säulenlänge um ± 70% variiert werden, der innere Durchmesser um ± 25%. Die Partikelgröße des Säulenmaterials kann um bis zu 50% verkleinert werden, eine Vergröberung ist jedoch unzulässig. Die Fließgeschwindigkeit kann um 50% reduziert, die Temperatur um ± 10% variiert werden. Zusätzlich kann das Injektionsvolumen unter der Voraussetzung reduziert werden, dass Detektion und Wiederholbarkeit unbeeinflusst bleiben. Für das Injektionsvolumen gibt die Arzneibuchmonographie also keine Grenzen vor, sondern verknüpft den Veränderungsspielraum mit den gleichbleibenden Parametern. Diese erlaubten Veränderungen sind in Kapitel 13 in Form einer Tabelle zusammengefasst.

12.4 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde

Die Möglichkeit der Bezugnahme auf eine für den angestrebten Prüfzweck in der Ph. Eur. beschriebene Methode ist in der Regel der einfachste Weg, ein analytisches Prüfverfahren und seine Validierung im Zulassungsverfahren zu beschreiben. Es muss jedoch darauf hingewiesen werden, dass dieses für Wirkstoffe nur dann anwendbar ist, wenn der Nachweis der Eignung des im Arzneibuch beschriebenen Prüfverfahrens für die Beschreibung der Qualität des Stoffes aus der im Zulassungsdossier beschriebenen Synthese/Herstellung erbracht ist [8]. Diese Unterlagen können im Zulassungsdossier selber oder als Teil einer Wirkstoffstammdatei (Active Substance Master File) vorgelegt werden, auf die im Rahmen des Zulassungsverfahrens Bezug genommen wird. Alternativ kann bei der EDQM die Erteilung einer sog. Konformitätsbescheinigung (Certificate of Suitability, CEP) beantragt werden, die mit den Zulassungsunterlagen an Stelle eigener Daten vorgelegt wird. Die drei genannten Möglichkeiten unterscheiden sich lediglich im Verfahrensablauf, inhaltlich werden in allen Fällen die gleichen Anforderungen gestellt. Ferner ist zu berücksichtigen, dass die Ph. Eur. zu diesem Zeitpunkt noch eine Reihe sog. „alter“ Monographien enthält, die noch nicht die Anforderungen der allgemeinen Monographie „Substanzen für die pharmazeutische Verwendung“ bzw. der ICH-Leitlinie zu Verunreinigungen in neuen Stoffen berücksichtigen [9]. Diese „alten“ Monographien sehen in der Regel im Abschnitt „Verwandte Substanzen“ eine Prüfung mittels Dünnschichtchromatographie vor und begrenzen alle Verunreinigungen auf < 0,5%. „Neue“ Monographien enthalten quantitative Verfahren für die Prüfung von Verunreinigungen, spezifizieren Verunreinigungen als einzeln identifiziert bzw. qualifiziert sowie andere Verunreinigungen und enthalten eine Aufstellung möglicher Verunreinigungen, die mit dem beschriebenen Prüfverfahren erfasst werden können (Transparenzliste). Eine alleinige Bezugnahme auf eine „alte“ Monographie wird im Zulassungsverfahren bzw. bei der Erteilung eines CEP nicht akzeptiert, es wird die Entwicklung eines quantitativen Verfahrens für die Erfassung der Verunreinigungen erwartet, das die Anforderungen der o. g. allgemeinen Monographie erfüllt [10, 11]. Ergebnisse dieser vom Antragsteller vorzulegenden Untersuchungen werden bei der Überarbeitung der jeweiligen Arzneibuchmonographie berücksichtigt.

12.4 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde

Die wesentlichen Anforderungen an die Validierung von analytischen Prüfverfahren sind in der Leitlinie „Note for Guidance on Validation of Analytical Procedures: Text and Methodology“ [12] beschrieben. Diese Leitlinie spiegelt die Erwartungen der Zulassungsbehörden in der ICH-Triade EU, Japan und USA wider und wird auch von den Beobachtern der ICH, d. h. derzeit Kanada, Schweiz und Weltgesundheitsorganisation (WHO), anerkannt. Darüber hinaus werden ICH-Leitlinien auch von vielen weiteren nationalen und regionalen Zulassungsbehörden als Beschreibung des Standes von Wissenschaft und Technik akzeptiert und eigenen Zulassungsentscheidungen zu Grunde gelegt (z. B. Australien, Neuseeland).

355

356

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung

Typische in der Leitlinie aufgeführte Parameter für die Validierung analytischer Prüfverfahren umfassen Richtigkeit (Accuracy), Präzision (Precision), Spezifität (Specificity), Nachweisgrenze (Detection Limit), Bestimmungsgrenze (Quantitation Limit), Linearität (Linearity) und Arbeitsbereich (Range). Die jeweils relevanten Parameter sind entsprechend dem Zweck eines Prüfverfahrens zu validieren (s. Tabelle 12.2). Einmal durchgeführte und dokumentierte Validierungsstudien entheben den pharmazeutischen Unternehmer jedoch nicht von der Pflicht, ggf. Revalidierungen vorzunehmen. Dieses kann insbesondere im Fall von Änderungen, z. B. an der Wirkstoffsynthese, der Zusammensetzung des Arzneimittels oder am Prüfverfahren an sich, erforderlich werden. Der Aufwand, der im Rahmen der Revalidierung eines Prüfverfahrens zu erbringen ist, hängt jedoch wesentlich vom Änderungstatbestand ab und lässt sich nicht pauschal beschreiben. Unter der Spezifität wird die Fähigkeit eines Prüfverfahrens verstanden, den Analyten eindeutig in der Anwesenheit anderer Bestandteile, z. B. anderer Verunreinigungen/Abbauprodukte, Matrixbestandteile, zu erfassen. Für die Identitätsprüfung bedeutet dies, dass das Verfahren zwischen Stoffen mit sehr ähnlichen Strukturen differenzieren können muss, deren Anwesenheit wahrscheinlich ist. Es wird jedoch nicht in allen Fällen eine vollständige Unterscheidung möglich sein. Dieses kann durch eine Kombination von zwei oder mehreren Prüfverfahren ausgeglichen werden, mit denen der erforderlichen Diskriminierungsgrad erreicht Tabelle 12.2 Typische Validierungsparameter nach Prüfziel (s. Note for Guidance on Validation of Analytical Procedures [12]). Identitätsprüfung

Prüfung auf Verunreinigungen Quantitativ

Grenzprüfung

Gehaltsbestimmung

Richtigkeit



+



+

Präzision x Wiederholpräzision x Laborpräzision

– –

+ +

– –

+ +a)

Spezifitätb)



+

+

+

Nachweisgrenze



–c)

+



Bestimmungsgrenze



+





Linearität



+



+

Arbeitsbereich



+



+

– normalerweise nicht bestimmt, + normalerweise bestimmt. a) Wenn Reproduzierbarkeit bestimmt wurde, nicht erforderlich. b) Mangelnde Spezifität eines Prüfverfahrens kann ggf. durch den Einsatz eines weiteren Prüfverfahrens ausgeglichen werden. c) Kann ggf. erforderlich sein.

12.4 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde

wird. Für Gehaltsbestimmungen und Prüfungen auf Verunreinigungen sollten repräsentative Chromatogramme zum Beleg der Spezifität vorgelegt werden, insbesondere sollten alle individuellen Bestandteile entsprechend gekennzeichnet werden. Zum Nachweis der Diskriminierfähigkeit des Prüfverfahrens wird die zu untersuchende Probe in der Regel mit entsprechenden Anteilen von Verunreinigungen oder Hilfsstoffen gespikt. Die Linearität eines Prüfverfahrens ist die Fähigkeit, Prüfergebnisse zu erhalten, die der Konzentration des Analyten in der Prüflösung innerhalb eines angegebenen Bereichs direkt proportional sind. Linearität kann direkt am Wirkstoff und/oder getrennten Einwaagen einer Mischung von Bestandteilen nachgewiesen werden. Für den Nachweis der Linearität sollten mindestens fünf unterschiedliche Konzentrationen bestimmt, der Korrelationskoeffizient, Ordinatenschnittpunkt, Steigung der Regressionsgraden und die Fehlerquadratsumme vorgelegt werden. Die Ergebnisse sollten auch graphisch dargestellt werden. Zusätzlich kann eine Bewertung der Abweichung der tatsächlichen Ergebnisse von der Regressionsgraden hilfreich sein. Unter dem Arbeitsbereich wird das Intervall zwischen der höchsten und niedrigsten Konzentration des Analyten verstanden, für welche das Prüfverfahren nachweislich einen angemessenen Grad an Präzision, Richtigkeit und Linearität aufweist. Der Arbeitsbereich wird normalerweise aus den Untersuchungen zur Linearität abgeleitet, er hängt vom Prüfzweck des Verfahrens ab. Typische Anforderungen an den zu validierenden Arbeitsbereich umfassen ± 20% für die Gehaltsbestimmung (80–120%), ± 30% für den Nachweis der Gleichförmigkeit des Gehaltes (70–130%), ± 20% über den spezifizierten Bereich für die In-vitroWirkstofffreisetzung und bis 120% des spezifizierten Wertes für die Berichtsgrenze von Verunreinigungen. Die Richtigkeit eines Prüfverfahrens drückt den Grad der Übereinstimmung zwischen einem akzeptierten wahren oder als Referenzwert akzeptierten Wert und dem gefundenen Wert aus. Die Richtigkeit kann durch die Prüfung eines Analyten mit bekanntem Gehalt, z. B. Referenzstandard, den Vergleich der Ergebnisse des vorgeschlagenen Prüfverfahrens mit denen eines zweiten, gut charakterisierten Verfahrens mit nachgewiesener Richtigkeit oder durch Ableitung aus den Ergebnissen der Prüfung auf Präzision, Linearität und Spezifität erfolgen, d. h., es bedarf nicht zwingend zusätzlicher Untersuchungen. Im Fall eines Methodenvergleichs ist für die mit beiden Prüfverfahren ermittelten Analysenserien die Äquivalenz mittels eines geeigneten statistischen Tests nachzuweisen (s. Kapitel 3). Die Richtigkeit ist über den gesamten spezifizierten Arbeitsbereich eines Prüfverfahrens zu belegen. Es sollten mindestens 9 Messungen unabhängiger Einwaagen bei mindestens drei Konzentrationen innerhalb des spezifizierten Arbeitsbereichs durchgeführt werden (z. B. drei Konzentrationen mit jeweils dreimaliger Wiederholung des gesamten Prüfverfahrens). Die Richtigkeit sollte als Prozent Wiederfindung oder als Differenz zwischen Mittelwert und dem akzeptierten wahren Wert einschließlich der Konfidenzintervalle angegeben werden. Die Präzision eines Prüfverfahrens drückt den Grad der Übereinstimmung zwischen einer Reihe von Messungen aus, die durch multiple Probennahme

357

358

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung

aus derselben homogenen Probe unter definierten Bedingungen durchgeführt wurden. Die Präzision wird als Streuung, Standardabweichung und Variationskoeffizient einer Reihe von Messungen angegeben. Sie wird anhand der Wiederhol- und der Laborpräzision bewertet. Die Wiederholpräzision sollte entweder mit mindestens neun Bestimmungen über den spezifizierten Arbeitsbereich des Prüfverfahrens, z. B. drei Konzentrationen mit dreimaliger Wiederholung des Prüfverfahrens, oder auf Basis von mindestens sechs Bestimmungen bei 100% der Prüfkonzentration erfolgen. Für die Bestimmung der Laborpräzision ist maßgeblich, unter welchen Bedingungen das Prüfverfahren angewendet werden soll. Auf jeden Fall ist jedoch zu belegen, in welchem Ausmaß zufällige Ereignisse die Präzision des Prüfverfahrens beeinflussen können. Typischerweise wird hierfür z. B. der Einfluss unterschiedlicher Tage, Laboranten, Gerätschaften untersucht. Es ist jedoch nicht erforderlich, den Einfluss dieser Parameter einzeln zu prüfen, sinnvollerweise sollte die Prüfung auf Basis statistischer Versuchsplanung erfolgen. Nicht im Rahmen des Zulassungsdossiers zu berichten ist die Prüfung der Vergleichspräzision (reproducibility) eines Prüfverfahrens. Diese Prüfung beinhaltet den Nachweis der Standardisierung eines Prüfverfahrens und ist insbesondere bei der Entwicklung von Prüfverfahren für das Arzneibuch von großer Relevanz. Die Nachweisgrenze gibt die geringste Konzentration eines Analyten in der Probe an, die noch zuverlässig nachgewiesen aber nicht als exakter Wert quantifiziert werden kann. Der Nachweis erfolgt bei instrumentellen Methoden in der Regel durch Bestimmung des Signal/Rausch-Verhältnisses durch den Vergleich von in Proben mit bekannten niedrigen Konzentrationen gemessenen Signalen mit denen von Placeboproben. Normalerweise sind Signal/Rausch-Verhältnisse von 3 : 1 oder 2 : 1 für die Abschätzung der Nachweisgrenze akzeptabel. Für die Berechnung der Nachweisgrenze auf Basis des Signal/Rausch-Verhältnisses wird die Vorlage von entsprechenden Chromatogrammen in den Zulassungsunterlagen erwartet. Die ICH-Leitlinie zur Validierung von Prüfverfahren führt darüber hinaus alternative Methoden zur Bestimmung der Nachweisgrenze auf, z. B. durch visuelle Bewertung oder die Berechnung der Standardabweichung des Blindwertes oder aus der Kalibriergerade im Bereich der Nachweisgrenze. Verbreitet ist ebenfalls die Berechnung aus der Bestimmungsgrenze (Nachweisgrenze = 0,3 · Bestimmungsgrenze). Die Bestimmungsgrenze gibt die niedrigste Konzentration des Analyten in einer Probe an, die mit ausreichender Präzision und Richtigkeit quantitativ erfasst werden kann. Ähnlich wie für die Nachweisgrenze sind auch für die Berechnung der Bestimmungsgrenze verschiedene Verfahren möglich. In jedem Fall ist es jedoch erforderlich, den berechneten Wert nachfolgend durch die Prüfung einer angemessenen Anzahl von Proben nahe oder an der Bestimmungsgrenze zu validieren. Die Bestimmungsgrenze für Verunreinigungen sollte in der Regel bei 50% des in der ICH-Leitlinie zu Verunreinigungen in neuen Stoffen definierten Schwellenwertes für die Berichtung liegen [9]. Für nicht identifizierte Verunreinigungen sollte die Nachweis- bzw. Bestimmungsgrenze des geprüften Wirkstoffs herangezogen werden.

12.4 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde Tabelle 12.3 Verfahrensabhängige Parameter der Validierung (nach Aide mémoire „Inspektion von Qualifizierung und Validierung in pharmazeutischer Herstellung und Qualitätskontrolle“ [13]). Validierungsparameter

HPLC

GC bzw. GC/MS

DC

Linearität

+

+

ggf.

Linearer Bereich

+

+

ggf.

Nachweisgrenze

ggf.

ggf.

+

Präzision

+

+

ggf.

Richtigkeit

+

+

ggf.

Robustheit

+

+

+

Selektivität

+

+

+

Reproduzierbarkeit

+

+



Konfidenzintervall

+

+



Wiederfindung

+

+

ggf.

Wiederholbarkeit

+

+

ggf.

Ebenso wie das Prüfziel (z. B. Identitätsprüfung vs. Gehaltsbestimmung) hat jedoch auch die Prüfmethode selber einen Einfluss auf die Relevanz der unterschiedlichen Validierungsparameter (Tabelle 12.3). Vor Durchführung der eigentlichen Validierung ist ein Validierungsplan zu erstellen – mehrere Validierungskriterien können gleichzeitig erfasst werden –, in dem neben der detaillierten Beschreibung des geplanten Vorgehens der Zweck der Methode, ihre Leistungscharakteristika (method performance characteristics) und die Akzeptanzkriterien für eine erfolgreiche Validierung aufgeführt sind. Die Validierungsergebnisse sind in einem entsprechenden Bericht zusammenzufassen, in dem die erhaltenen Ergebnisse bewertet und mögliche Abweichungen diskutiert werden. Eine Vorlage von Validierungsplan und -bericht im Zulassungsdossier ist jedoch nicht zwingend erforderlich. Relevant für das Zulassungsverfahren ist die Einreichung entsprechender Validierungsdaten. Das Vorhandensein eines formalen Validierungsplans und -berichts ist jedoch eine GMP-Forderung und kann ggf. im Rahmen der GMP-Inspektion überprüft werden. Detaillierte Angaben zur Validierung finden sich in [14, 15].

359

360

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung

12.5 Anforderungen der Zulassungsbehörde im Rahmen von Anträgen auf Genehmigung klinischer Prüfungen

Im Gegensatz zu Zulassungsanträgen, in denen der Nachweis einer angemessenen Qualität, Sicherheit und Wirksamkeit entsprechend dem Stand von Wissenschaft und Technik erbracht werden muss, liegt der Fokus der Bewertung von Anträgen auf Genehmigung klinischer Prüfungen auf der Bewertung des Risikos für die beteiligten Probanden bzw. Patienten. Die Anforderungen, die die Zulassungsbehörden an die mit dem Antrag im Investigational Medicinal Product Dossier (IMPD) vorzulegenden Unterlagen stellen, variieren in Abhängigkeit von Faktoren wie z. B. Entwicklungsstand bzw. klinische Prüfphase, Indikation, Patientenpopulation. Die detaillierten Anforderungen an den Nachweis der Qualität klinischer Prüfpräparate sind in der Guideline on the Requirements to the Chemical and Pharmaceutical Quality Documentation Concerning Investigational Medicinal Products in Clinical Trials beschrieben [16]. Die o. g. Leitlinie verweist in der Einleitung auf die Differenzierung zwischen der Prüfmethode (d. h. allgemeine Prinzipien) und dem Prüfverfahren (d. h. Beschreibung der eigentlichen Durchführung einer Prüfung), wie in der ICHValidierungsleitlinie definiert. In Bezug auf die Beschreibung analytischer Verfahren im IMPD ist es für Genehmigungsanträge ausreichend, die Prüfmethode zu beschreiben, z. B. Reverse-Phase-HPLC, Head-Space-GC. Detaillierte Angaben zum Prüfverfahren sind nicht erforderlich. Im Gegensatz zum Zulassungsdossier, in dem das Prüfverfahren detailliert genug beschrieben sein muss, um ggf. eine Prüfung in einem OMCL zu ermöglichen (s. o.), ist es im IMPD ausreichend, die Eignung eines Prüfverfahrens für einen bestimmten Zweck zu bestätigen. Bezüglich der Validierung der Analysenverfahren werden die Anforderungen phasenabhängig differenziert. Für Phase-I-Prüfungen ist es ausreichend, dass der Antragsteller die Eignung der Prüfverfahren für den beabsichtigten Zweck bestätigt. Zusätzlich wird die Angabe der Akzeptanzkriterien und Prüfparameter, die bei der Validierung der Prüfverfahren zum Einsatz kommen werden, gefordert. Die Festlegung, welche Parameter validiert werden, trifft der Antragsteller. Es ist nicht erforderlich, die Validierung zum Zeitpunkt der Einreichung des Genehmigungsantrages abgeschlossen zu haben. Es ist ausreichend, wenn diese Daten dem Antragsteller zum Zeitpunkt des Beginns der klinischen Prüfung vorliegen. Für Phase-II- und Phase-III-Studien wird neben der Angabe der eingesetzten Prüfmethoden der Nachweis der Eignung des Prüfverfahrens für den beabsichtigten Zweck gefordert. Dazu ist mindestens eine tabellarische Zusammenfassung der Validierungsergebnisse vorzulegen, die generiert worden sind. Auch für diese Prüfphasen ist für den Genehmigungsantrag keine vollständige Validierung aller Parameter gemäß der ICH-Leitlinie erforderlich.

12.5 Anforderungen der Zulassungsbehörde im Rahmen von Anträgen

12.5.1 Häufige Mängel

Die Abschnitte im Zulassungsdossier, in denen analytische Prüfverfahren beschrieben bzw. ihre Validierung zusammengefasst wird, gehören zweifelsohne zu den Dossierteilen, die am häufigsten zu Nachfragen der Zulassungsbehörden beim Antragsteller führen. Die meisten dieser Fehler sind jedoch bei Kenntnis und Berücksichtigung der einschlägigen Leitlinien vermeidbar. Beispiele solcher Fehler sollen im Folgenden zunächst für allgemeine Anforderungen beschrieben werden. 1. Prüfverfahren sind nicht validiert (z. B. Gehaltsbestimmung im Rahmen der In-vitro-Wirkstofffreisetzung). 2. Angegebenes Prüfverfahren und validiertes Prüfverfahren sind nicht identisch. 3. Daten für die individuellen Validierungscharakteristika werden nicht vorgelegt. 4. Beschreibung des Prüfverfahrens ist nicht ausreichend detailliert (Nachvollziehbarkeit durch OMCL muss gegeben sein!). 5. Die Zusammenfassung der Bewertung der Eignung des Prüfverfahrens fehlt. 6. Die Qualität der eingesetzten Referenzsubstanzen ist nicht ausreichend belegt bzw. Referenzsubstanz wird für einen anderen als den ausgewiesenen Zweck eingesetzt. 7. Kreuzvalidierung zwischen einem Arzneibuchverfahren und einem hausinternen Verfahren fehlt. 8. Validierungsdaten werden nicht vorgelegt, da auf eine Arzneibuchmonographie für ein spezielles Arzneimittel Bezug genommen wird, z. B. Furosemide Tablets USP. 9. Validierungsdaten für die Bestimmung des Gehaltes an Lösungsmittelresten werden nicht vorgelegt, da Bezug auf die in der Ph. Eur. beschriebene GCMethode genommen wird. 12.5.2 Spezielle Mängel

Auf die jeweiligen Validierungscharakteristika bezogen seien folgende häufige Mängel beispielhaft aufgeführt. x Spezifität: Die Spezifität eines Prüfverfahrens für die für den Wirkstoff oder das Arzneimittel relevanten Verunreinigungen wird nicht belegt, Beispielchromatogramme fehlen, die Peakreinheit wird nicht belegt. Die Peakreinheit kann z. B. durch Einsatz eines Diodenarray-Detektors oder besser durch Massenspektroskopie bestimmt werden.

361

362

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung

x Arbeitsbereich/Linearität: Die Linearität wird nicht über den gesamten Arbeitsbereichs des Prüfverfahrens belegt, die Herstellung der Stammlösung wird nicht beschrieben, es wird keine graphische Darstellung der Ergebnisse vorgelegt. Die Linearität wird nicht ausreichend belegt, da es signifikante Unterschiede zwischen den einzelnen Datenpunkten gibt oder der Schnittpunkt mit der yAchse signifikant von null abweicht. x Richtigkeit: Die Richtigkeit ist nicht ausreichend belegt, da die Qualität des Referenzmaterials nicht ausreichend beschrieben ist, Richtigkeit wird nicht über den gesamten Arbeitsbereich beschrieben. Andererseits werden die Daten nicht ausreichend ausgewertet (Fehlen bestimmter statistischer Parameter), Methodenvergleich kann nicht angewendet werden, da die Referenzmethode nicht akzeptabel ist, die vorgelegten Daten weisen signifikante Abweichungen auf. x Präzision: Präzision wird nicht über den gesamten Arbeitsbereich belegt, die Prüfungen zur Bestimmung der Präzision sind nicht ausreichend beschrieben, die Präzision wird nur bezüglich der eingesetzten Gerätschaften untersucht, Wiederholpräzision ist nicht nachgewiesen, die bestimmte relative Standardabweichung ist zu groß, z. B. RSD > Toleranzbereich/6. x Nachweis- und Bestimmungsgrenze: Nachweis- und Bestimmungsgrenze werden für relevante Verunreinigungen nicht bestimmt, die Untersuchung von Nachweis- oder Bestimmungsgrenze wird nicht beschrieben, Nachweis- und Bestimmungsgrenze sind nicht im erforderlichen Arbeitsbereich untersucht worden. x Robustheit: Die Robustheit eines Prüfverfahrens ist nicht notwendiger Teil der Zulassungsdokumentation, ihre Bestimmung ist jedoch integraler Bestandteil der analytischen Entwicklung und kann im Rahmen von GMP-Inspektionen überprüft werden. Typische Defizite in der Bestimmung der Robustheit sind fehlender Nachweis der Stabilität der Prüf- oder Referenzlösung oder die fehlende Untersuchung des Einflusses relevanter Verfahrensparameter auf das Prüfergebnis. 12.5.3 Fallbeispiele

Im Folgenden sollen detaillierte Mängel an Hand von Fallbeispielen beschrieben werden. Fall 1: Der Wirkstoffgehalt einer Tablette ist bei der Freigabe bei einer relativen Standardabweichung des Prüfverfahrens von 2,5% mit 95–105% spezifiziert worden. Ist das Prüfverfahren für die Gehaltsbestimmung angemessen? Die Antwort ist nein, da die berechnete Streuung höher als die akzeptierten 10% ist (6 · s = 6 · 2,5 = 15). Schlussfolgerung: Das Prüfverfahren ist bezüglich seiner Präzision zu überarbeiten (Zielgröße 6 · s < 10, in diesem Fall s < 1,67%).

12.5 Anforderungen der Zulassungsbehörde im Rahmen von Anträgen

Fall 2: Beschreibung einer GC-Methode zur Bestimmung des Gehaltes an Lösungsmittelresten im Wirkstoff; angegebene Parameter: mobile Phase (einschließlich Flussrate), Detektor; stationäre Phase: Länge und innerer Durchmesser der eingesetzten Säule, mobile Phase, Injektionsvolumen; keine Beschreibung der Probenaufbereitung und des eingesetzten Referenzstandards. Schlussfolgerung: Detaillierte Angaben zur Probenaufbereitung und zum eingesetzten Referenzmaterial sind zwingend erforderlich. Fall 3: Der Gehalt einer Reihe von Tabletten mit unterschiedlichen Dosisstärken (5/10/40 mg) wird mit 95–105% spezifiziert, während der Stabilitätsprüfung wird für die mittlere Stärke eine Gehaltsabnahme von bis zu 2% beobachtet, der durch eine Zunahme einer bekannten Verunreinigung begleitet wird (Spezifikation: 1,5%, gefundene Werte bis 0,9%). Für die niedrigste Stärke wird lediglich eine geringfügige Zunahme an Verunreinigungen beobachtet, die jedoch mit einer Gehaltsabnahme um 2,5% einhergeht. Schlussfolgerung: Unter Berücksichtigung der Tatsache, dass für die 5-mg-Tablette nicht annähernd eine Massebilanz zwischen Gehaltsabnahme und der Zunahme an Zersetzungsprodukten gefunden wird, sollte das Verfahren zu Bestimmung von Gehalt und Verunreinigungen überarbeitet werden. Fehlende Massebilanz wird insbesondere dann von den Zulassungsbehörden kritisch beurteilt, wenn unklar ist, welche Zersetzungsprodukte gebildet werden, d. h., eine Aussage über Ausmaß und Toxizität nicht möglich ist. Bei der Berechnung der Massebilanz ist selbstverständlich die Variabilität des Prüfverfahrens zu berücksichtigen, so dass nicht zwingend eine 100%ige Übereinstimmung zwischen Gehaltsabnahme und Zunahme an Zersetzungsprodukten erwartet wird. Fall 4: Ein Antragsteller benutzt die in der USP beschriebene Methode für die Bestimmung von Verunreinigungen für einen Wirkstoff, der in der Ph. Eur. monographiert ist. Schlussfolgerung: Trotz der unterschiedlichen rechtlichen Verbindlichkeit von USP und Ph. Eur. kann dieses akzeptiert werden, wenn der Nachweis der Kreuzvalidierung der USP- zur Ph. Eur.-Methode erbracht wird. Kreuzvalidierung kann durch den Vergleich von Ergebnissen, die mit beiden Methoden erhoben wurden, nachgewiesen werden. Zusätzlich ist durch geeignete Untersuchungsergebnisse zu belegen, dass die USP-Monographie in der Lage ist, die in der Transparenzliste der Ph. Eur. aufgeführten Verunreinigungen zu erfassen. Dieses kann z. B. durch den Einsatz der entsprechenden Referenzsubstanzen erfolgen.

363

364

12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung

Literatur 1 ICH Harmonised Tripartite Guideline Organisation of the Common Technical Document for the Registration of Pharmaceuticals for Human Use (ICH M4), January 2004. 2 ICH Harmonised Tripartite Guideline The Common Technical Document for the Registration of Pharmaceuticals for Human Use: Quality – M4Q(R1); Quality Overall Summary of Module 2; Module 3: Quality; September 2002. 3 ICH M4Q Implementation Working Group Questions & Answers (R1). 4 Richtlinie 2001/83/EG des Europäischen Parlaments und des Rates zur Schaffung eines Gemeinschaftskodexes für Humanarzneimittel vom 6. November 2001. 5 Richtlinie 2003/63/EG der Kommission vom 25. Juni 2003 zur Änderung der Richtlinie 2001/83/EG des Europäischen Parlaments und des Rates zur Schaffung eines Gemeinschaftskodexes für Humanarzneimittel vom 6. November 2001. 6 Zweite Allgemeine Verwaltungsvorschrift zur Änderung der Allgemeinen Verwaltungsvorschrift zur Anwendung der Arzneimittelprüfrichtlinien, 11. Oktober 2004, BAnz. Nr. 197 vom 16. Oktober 2004. 7 Note for Guidance on Regulatory Acceptance of Analytical Procedures and/or Acceptance Criteria (RAAPAC) (EMEA/CHMP/ICH/222007/2006). 8 Note for Guidance on Summary of Requirements for Active Substances in the Quality Part of the Dossier (CHMP/QWP/297/97 Rev. 1). 9 Guideline Impurities in New Drug Substances (ICH Q3A(R2)).

10 Certification of Suitability of Monographs of the European Pharmacopoeia: Content of the Dossier for Chemical Purity and Microbiological Quality (Revision of Annex I Resolution AP-CSP (93) 5 as amended) PA/PH/CEP (04) 1 3R, January 2005. 11 Guideline on Control of Impurities of Pharmacopoeial Substances: Compliance with the European Pharmacopoeia General Monograph „Substances for Pharmaceutical Use“ and General Chapter „Control of Impurities in Substances for Pharmaceutical Use“ (CPMP/QWP/1529/04). 12 Note for Guidance on Validation of Analytical Procedures: Text and Methodology (ICH Q2(R1). 13 Aide mémoire „Inspektion von Qualifizierung und Validierung in pharmazeutischer Herstellung und Qualitätskontrolle“ der Zentralstelle der Länder für Gesundheitsschutz bei Arzneimitteln und Medizinprodukten, Dokumenten-Nr. 07121103. 14 St. Kromidas, Handbuch Validierung in der Analytik. Wiley-VCH, Weinheim, 2001. 15 J. Ermer, J. Miller (Eds.) „Method Validation in Pharmaceutical Analysis“. Wiley-VCH, Weinheim, 2004. 16 Guideline on the Requirements to the Chemical and Pharmaceutical Quality Documentation Concerning Investigational Medicinal Products in Clinical Trials (CHMP/QWP/185401/2004/final, veröffentlicht in den Rules Governing Medicinal Products in the European Union (Eudralex), Vol. 10: Clinical Trials).

365

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik Joachim Ermer

In den Arzneibüchern gibt es verbindliche Vorgaben zur Behandlung und Beurteilung von Daten zur Überprüfung der Eignung von Methode und Messinstrument, in Form von sog. Systemeignungstests. Die in den entsprechenden Kapiteln des Europäischen und US-Amerikanischen Arzneibuchs beschriebenen chromatographischen Kennzahlen und Systemtestparameter werden im folgenden Abschnitt erläutert. In der pharmazeutischen Qualitätskontrolle wird die Verwendbarkeit der analysierten Materialien über Konformität mit definierten Akzeptanzgrenzen (Spezifikationsgrenzen) beurteilt. Diese müssen – natürlich unter Gewährleistung der Patientensicherheit – auch die Variabilität der Herstellung und der Analytik einschließen. In Abschn. 13.2 werden statistische Möglichkeiten diskutiert, letzteres zu überprüfen. In Abschn. 13.3 wird auf den Inhalt eines allgemeinen Informationskapitels des US-Arzneibuchs eingegangen, welches Orientierung zur Beurteilung und Bewertung analytischer Daten liefert.

13.1 Systemeignungstests

Die Überprüfung, ob das eingesetzte Gesamtsystem aus Messgerät, Zubehör und Analyseverfahren die erforderliche Leistungsfähigkeit aufweist, wird in der pharmazeutischen Analytik als integraler Bestandteil des Prüfverfahrens betrachtet [1, 2]. Einzelheiten zu Systemtestparametern sind in Arzneibüchern [3, 4] sowie in Guidelines [5] beschrieben. Im Unterschied zur (Basis-) Validierung, in welcher die grundsätzliche Eignung eines Analyseverfahrens gezeigt wird, sollen die Systemeignungstests die aktuelle Eignung des Gesamtsystems, d. h. zum Zeitpunkt der Analyse, bestätigen. Sie stellen damit eine wichtige Komponente in der Sicherstellung der analytischen Datenqualität dar (Abb. 13.1) und sind Bestandteil des Validierungs-Lebenszyklus [6, 7].

366

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik

Abb. 13.1 Komponenten der Datenqualität (nach [9], * ergänzt).

In der pharmazeutischen Analytik (Qualitätskontrolle) kann die jeweilige Matrix als konstant vorausgesetzt werden, deshalb fokussieren sich die Eignungstests auf Analysengerät sowie -methode. Änderungen in der Matrix, z. B. in der Zusammensetzung des Arzneimittels, unterliegen strikter Kontrolle (Change Control). Die Auswirkungen auf das Prüfverfahren müssen vor Umsetzung der Änderung beurteilt und im Bedarfsfall untersucht und revalidiert werden. Analysenergebnisse sind nur gültig, wenn die festgelegten Systemtestkriterien erfüllt werden. Oft wird die Frage nach dem Zeitpunkt bzw. der Wiederholung von Systemeignungstests diskutiert. Die Arzneibücher überlassen Einzelheiten dem Anwender, stellen jedoch klar, dass die Eignung des Systems während der gesamten Analyse sichergestellt sein muss [8, 4]. Unstrittig ist sicherlich, dass alle Systemtestlösungen am Anfang der Analysenserie injiziert werden, um die initiale Eignung festzustellen. Aber wie oft und wann müssen welche Systemtests wiederholt werden? Die flexiblen Vorgaben der Arzneibücher sind sehr sinnvoll, da das Zeitintervall stark von der jeweiligen Methode (z. B. Robustheit, Zeitbedarf usw.) abhängt. Man sollte sich bei Wiederholungen auch auf diejenigen Systemtests konzentrieren, die Leistungsparameter erfassen, die sich graduell ändern können, beispielsweise Trennfaktor, Peaksymmetrie oder Signal/Rausch-Verhältnis. Diese sollten zumindest am Ende der Serie, in Abhängigkeit der Gesamtanalysenzeit ggf. auch zwischendurch, injiziert werden. Bei der Systempräzision ist demgegenüber eine Wiederholung nicht notwendig, da hier keine kurzfristige Leistungsverschlechterung zu erwarten ist. Einzelnes Versagen des Injektionssystems darf hier nicht betrachtet werden, da so etwas auch in den Probeninjektionen vorkommen kann, üblicherweise deutlich identifizierbar ist (offensichtlicher Fehler) und auch durch einen erfolgreichen Systemtest nicht ausgeschlossen werden kann. Natürlich muss so etwas ein seltenes Ereignis bleiben, ansonsten wäre auch keine Systemeignung gegeben. Die Praxis, die Systempräzision aus Standardinjektionen, die über die Analysenserie verteilt sind (Bracketing), zu berechnen, ist natürlich auch akzeptabel: „… may be made before the injection of samples or may be interspersed among sample injections.“ [4]. Dadurch wird allerdings die modulweise Betrachtung von Analyseabschnitten schwieriger und im Ernstfall muss die gesamte Serie wiederholt werden. Die Auswertung der Systemtests kann beliebig gestaltet werden,

13.1 Systemeignungstests

entweder vor dem Start der Proben oder nach Abschluss der Analysenserie. Im ersteren Fall ist man auf der sicheren Seite (sofern die Tests am Ende der Serie auch erfolgreich sind), im letzteren geht man das Risiko ein, dass die gesamte Serie wiederholt werden muss. 13.1.1 Europäisches Arzneibuch (EP)

Im Kapitel 2.2.46 „Chromatographische Trenntechniken“ [3], welches sich zurzeit in einem Aktualisierungsprozess befindet [8], werden chromatographische Parameter diskutiert und verbindliche Systemtests vorgeschrieben, sofern nicht in den individuellen Monographien anderweitige Regelungen beschrieben sind. In einem gesonderten Abschnitt („Adjustment of Chromatographic Conditions“) werden Möglichkeiten diskutiert, die im Arzneibuch beschriebene Methode anzupassen, um die Systemtestanforderungen zu erfüllen (Tabelle 13.1). Dies ist insbesondere für Arzneibuchmonographien essentiell, da dort keine exakte Vorgabe zu Trennsäulen zu finden ist. Im Aktualisierungsentwurf wird eine getrennte Behandlung von isokratischen und Gradientenmethoden vorgeschlagen, was gut geeignet ist, der unterschiedlichen Komplexität Rechnung zu tragen. Tabelle 13.1 Zulässige Anpassungsbereiche chromatographischer Methoden [3]. Methodenparameter 1

Maximal zulässiger Anpassungsbereich

LC, isokratische Elution Mobile Phasen

1A 1A1 1A2 1A3

Zusammensetzung x geringere Lösungsmittelkomponente x andere Komponenten

± 30% relativ oder ± 2% absoluta) ± 10% absolut

1B1 1B2

pH des wässrigen Anteils Bei neutralen Analyten

± 0,2 pH, ± 1,0 pH

1C

Salzkonzentration im Puffer

± 10%

1D

Detektorwellenlänge

Keine Anpassung erlaubt

1E 1E1 1E2 1E3

Stationäre Phase x Säulenlänge x interner Säulendurchmesser x Partikelgröße

1F

Flussgeschwindigkeit

± 50%

1G

Temperatur

± 5 °C

1H

Injektionsvolumen

Kann verringert werden, sofern akzeptable Detektion und Präzision

± 70% ± 25% Maximale Verminderung 50%, keine Vergrößerung

367

368

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik Tabelle 13.1 (Fortsetzung) Methodenparameter

Maximal zulässiger Anpassungsbereich

2

LC, Gradientenelutionb)

2A

Mobile Phasen

Anpassungen nicht empfohlen, eher bei Verweilvolumen oder Säule

2B

Verweilvolumen (Gradienten-Totvolumen)

Anpassung des isokratischen Teils vor Start des Gradienten, um unterschiedliche Verweilvolumina der LC-Geräte zu kompensieren; in den entsprechenden Monographien sind bis zu 1 ml berücksichtigt

2C

Flussgeschwindigkeit

Anpassung nach Gl. (13.1), wenn Säulendimensionen geändert werden

3

Gas-Chromatographie

3A 3A1 3A2 3A3

Stationäre Phase x Säulenlänge x interner Säulendurchmesser x Partikelgröße

3A4

x Filmdicke

± 70% ± 50% Maximale Verminderung 50%, keine Vergrößerung –50% bis +100%

3B

Flussgeschwindigkeit

± 50%

3C

Temperatur

Keine Anpassung erlaubtb)

3E

Injektionsvolumen

Kann verringert werden, sofern akzeptable Detektion und Präzision

4

Superkritische Fluidchromatographie (SFC)

4A

Zusammensetzung der mobilen Phase

4A1

Gepackte Säulen x geringere Lösungsmittelkomponente

± 30% relativ oder ± 2% absoluta)

4A2

Kapillarsäulen

Keine Anpassung erlaubt

4B

Detektorwellenlänge

Keine Anpassung erlaubt

4C 4C1 4C2 4C3

Stationäre Phase x Säulenlänge x interner Säulendurchmesser x Partikelgröße

± 70% ± 25% (gepackte Säulen) ± 50% (Kapillarsäulen) Maximale Verminderung 50%, keine Vergrößerung (gepackte Säulen)

4D

Flussgeschwindigkeit

± 50%

4E

Temperatur

± 5 °Cb)

4F

Injektionsvolumen

Kann verringert werden, sofern akzeptable Detektion und Präzision

a) b)

Die jeweils größere Anpassung ist ausschlaggebend. Entwurf [8].

13.1 Systemeignungstests

Bei Änderung der Säulendimensionen muss die Flussgeschwindigkeit angepasst werden, so dass Q = konstant [8]: Q =

tg ⋅ f

(13.1)

l ⋅ d2

mit: tg = Gesamtlaufzeit in [min]; f = Flussgeschwindigkeit in [ml/min]; l = Säulenlänge in [mm], d = innerer Säulendurchmesser in [mm]. Außerhalb der beschriebenen Bereiche liegt formal eine veränderte Methode vor, d. h., eine Revalidierung wäre erforderlich. 13.1.1.1 Chromatographische Parameter

Als Parameter werden Retentionskennzahlen (Retentionszeit und -volumen, Retentionsfaktor, Verteilungskoeffizient), chromatographische Kennzahlen (Symmetriefaktor (Gl. 13.2) und scheinbare Bodenzahl) sowie Parameter der Trennung (Trennfaktor (Gl. 13.3), Peak-Tal-Verhältnis (Abb. 13.2), relative Retention) behandelt. Symmetriefaktor:

AS =

w 0,05 2d

(13.2)

Trennfaktor:

RS =

1,18 ⋅ (t2 − t1 ) w1; 0,5 − w2; 0,5

(13.3)

mit: w0,05/0,5 = Peakbreite in 5%/50% der Peakhöhe; d = horizontaler Abstand zwischen Peakmaximum und Peakfront in 5% Peakhöhe; t1,2 = Retentionszeit zweier benachbarter Peaks, mit t2 > t1.

Abb. 13.2 Peak-Tal-Verhältnis (p/v) für nicht basisliniengetrennte Peaks [3]. p/v = Hp/Hv mit H = Höhe des kleineren Peaks (p) bzw. im Minimum zwischen den Peaks („Tal“, v) über der extrapolierten Basislinie.

369

370

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik

In der überwiegenden Zahl der LC-Monographiemethoden wird ein MindestTrennfaktor vorgeschrieben, in wenigen Fällen – bei nicht basisliniengetrennten Peaks – ein Peak-Tal-Verhältnis. In den allgemeinen Systemtestanforderungen, die ggf. zusätzlich zu den spezifischen Anforderungen der individuellen Monographie erfüllt werden müssen, wird ein Symmetriefaktor zwischen 0,8 und 1,5 vorgeschrieben, sofern in der individuellen Monographie nicht anders festgelegt. Die Bestimmung soll mit der Referenzlösung zur Quantifizierung vorgenommen werden [8]. Dies ist eine wichtige Klarstellung für Nebenproduktbestimmungen, da hier die Form des Hauptpeaks in der Testlösung in manchen Fällen auf Grund von Überladungseffekten beeinträchtigt sein kann. Andere Kennzahlen werden nur in Spezialfällen verwendet, z. B. die Bodenzahl in einer SEC-Anwendung der Alteplase-Monographie. 1.3.1.2

Signal/Rausch-Verhältnis

Das Signal/Rausch-Verhältnis ist mit der Präzision der Quantifizierung verknüpft und damit ein wichtiger Parameter für die Bestimmung von Nebenprodukten (Gl. 13.4). Die Bestimmungsgrenze eines Analyten entspricht derjenigen Konzentration, die ein Signal/Rausch-Verhältnis von 10 aufweist, die Nachweisgrenze einem Verhältnis von 2 bis 3 [1]. In den allgemeinen Systemtestkriterien ist vorgeschrieben, dass die Bestimmungsgrenze für den betreffenden Analyten gleich oder geringer sein muss als die in der Monographie festgelegte Quantifizierungsschwelle (disregard limit, im Normalfall 0,05%). Signal/Rausch-Verhältnis: S / N =

2⋅H h

(13.4)

mit: H = Höhe des betreffenden Peaks im Chromatogramm der vorgeschriebenen Referenzlösung, gemessen vom Maximum zur extrapolierten Basislinie; h = Bereich (Amplitude, d. h. Minimum zu Maximum des Basisliniensignals) des Hintergrund-Rauschens in einem Blank-Chromatogramm, beobachtet über eine Distanz, die dem 20fachen der Peakbreite in halber Höhe (aus der Referenzlösung) entspricht, möglichst symmetrisch um die Position des Referenzpeaks. Es ist kritisch anzumerken, dass das beschriebene Verfahren zur Ermittelung des Rauschens nicht mehr zeitgemäß ist. Von den verschiedenen Arten des Rauschens, wie z. B. Kurzzeit- und Langzeitrauschen, Basislinienirregularitäten und -drifts, Spikes usw. [10] ist nur ersteres von Bedeutung für die Quantifizierung. Rauschen kann nur stören, wenn die Frequenz („Peakbreite“) in derselben Größenordnung oder darunter liegt wie für die zu erfassenden Analytpeaks. Das Langzeitrauschen kann demgegenüber im (extrapolierten) Basislinienverlauf „herausgefiltert werden“. Andere der oben beschriebenen Ereignisse können natürlich auch die Integration stören, sind aber als diskrete Ereignisse leicht erkennbar und bergen nicht die Gefahr einer schleichenden, unerkannten Verschlechterung der Leistungsfähigkeit des Analysensystems. Übliche Peakbreiten

13.1 Systemeignungstests

Abb. 13.3 Ermittlung des Rauschens nach EP (gepunktete Linien, [3]) und nach dem ASTM-Verfahren (gestrichelte Linien, [10]). Nach EP erhält man 0,21 mAU, nach ASTM einen mittleren Wert von 0,13 mAU, mit einzelnen Segmenten zwischen 0,10 und 0,16 mAU.

in halber Höhe liegen zwischen 0,2 und 0,5 min, so dass nach dem EP-Verfahren ein Bereich von 4–10 min in Betracht gezogen wird. Dies kann sicherlich nicht mehr als Kurzzeitrauschen bezeichnet werden! (Dieses Verfahren dürfte aus Zeiten stammen, in denen das Kurzzeitrauschen des Detektors, einschließlich elektronischer Beiträge, deutlich größer war als bei heutigen Geräten und alle anderen Effekte überlagert hat.) Zur Erfassung des relevanten Kurzzeitrauschens existiert ein ASTM-Standard [10] zur umfassenden Testung von LC-Detektoren. Das Chromatogramm wird in Abschnitte von 0,5–1,0 min geteilt, in denen dann jeweils die maximale vertikale Differenz der Basisliniensignale bestimmt wird (Abb. 13.3). Danach wird aus allen Segmenten ein Mittelwert berechnet. Selbst im recht moderaten Beispiel in Abb. 13.3 kommt es zu einer deutlichen Überbestimmung des Rauschens nach EP, um das 1,6fache. Da das ASTM-Verfahren zur detaillierten Leistungscharakterisierung von Detektoren dient, sollten bei einer Überprüfung des Analysensystems im Systemeignungstest ein bis drei Segmente genügen. 13.1.1.3 Systempräzision

Für Gehaltsbestimmungen ist eine maximal akzeptable relative Standardabweichung wiederholter Injektionen, in Abhängigkeit von deren Anzahl und von der oberen Spezifikationsgrenze, festgelegt (Gl. (13.5), Tabelle 13.2). Die Differenz (B) zwischen oberer Grenze und 100% entspricht dem Teil des Spezifikationsbereichs, der für die analytische Variabilität zur Verfügung steht (da der wahre

371

372

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik Tabelle 13.2 Anforderungen an die Injektionspräzision nach EP [3]. Erläuterungen siehe Text. B [%]

Maximal zulässige relative Standardabweichung n=3

n=4

n=5

n=6

2,0

0,41

0,59

0,73

0,85

2,5

0,52

0,74

0,92

1,06

3,0

0,62

0,89

1,10

1,27

Gehalt eines Feststoffes maximal 100% betragen kann). Der Anwender kann – bei entsprechendem Vertrauen in das LC-Gerät – die Anzahl der Injektionen verringern, muss dann aber schärfere Akzeptanzgrenzen für die Injektionspräzision in Kauf nehmen. Dies ist notwendig, um die höhere Unsicherheit der Standardabweichung bei geringer Anzahl der Werte (s. Abb. 3.2 b) zu kompensieren. Die strikte Begrenzung der Systempräzision in Abhängigkeit von den Anforderungen (repräsentiert durch die obere Spezifikationsgrenze) ist sinnvoll, da sich die Gesamtvariabilität für jede weitere Präzisionsebene erhöht (s. Abschn. 13.3). Die Bezeichnung „repeatability“ ist missverständlich, da damit laut ICH-Guideline die Wiederholpräzision gemeint ist, d. h. eine andere Präzisionsebene, als im Systemeignungstest adressiert wird. Zumindest sollte der Ausdruck durch den Zusatz „injection“ präzisiert werden. Dies erscheint umso wichtiger, da die beiden Präzisionsebenen in nicht wenigen Publikationen durcheinander gebracht werden. Wie in Abschn. 13.3 diskutiert, kann es dadurch zu falschen Bewertungen kommen. Maximale Injektionspräzision [3]: RSDmax =

K ⋅B ⋅ n t90%, n − 1

(13.5)

mit:

 0,6 t90%, 5  ⋅ , wobei der erste Term die erforderliche K = Konstante  0,349 =  2 6  relative Standardabweichung nach sechs Injektionen für B = 1,0 beschreibt; B = obere Grenze des in der jeweiligen Monographie spezifizierten Gehaltsbereiches; n = Anzahl der wiederholten Injektionen der Referenzlösung (zwischen 3 und 6); t90%, n − 1 = Student-t-Faktor mit 90% statistischer Sicherheit (zweiseitig) und (n – 1) Freiheitsgraden. Systempräzision für Nebenprodukte?

Nach dem Aktualisierungsentwurf [8] soll die Systempräzision ebenfalls für Tests auf Nebenprodukte limitiert werden, und zwar bei Konzentrationen der Referenzlösungen über 0,2% (bezogen auf den Wirkstoff in der Testlösung) auf d 5,0% relative Standardabweichung und bei Konzentrationen d 0,2% auf d 10,0% relative Standardabweichung. Hintergrund dieser Forderung ist, die Präzision

13.1 Systemeignungstests

des Analysensystems auch bei Nebenproduktbestimmungen zu überprüfen. Dafür ist ein solcher Test aber nicht geeignet bzw. bringt keinen Zusatznutzen. Im Konzentrationsbereich der Gehaltsbestimmung ist die Injektionsvariabilität der dominierende Beitrag zur Systempräzision (s. Abb. 3.10 b), so dass die Leistungsfähigkeit des Injektionssystems mit der erforderlichen Schärfe und Zuverlässigkeit, wie in Tabelle 13.2 beschrieben, überprüft werden kann. Demgegenüber dominiert im vorgeschlagenen Konzentrationsbereich für Nebenproduktprüfungen die Detektions- und Integrationsvariabilität (s. Abb. 3.10 b). Dies wird aber bereits mit dem Signal/Rausch-Verhältnis überprüft, während eine Eignung des Injektionssystems mit den vorgeschlagenen Grenzen nicht sinnvoll sichergestellt werden kann. 13.1.2 US-Arzneibuch

Im Kapitel [4] werden dieselben chromatographischen Parameter wie in der EP beschrieben, glücklicherweise wurden inzwischen auch die Gleichungen harmonisiert. Als Systemeignungstest-Parameter werden Trennfaktor, Bodenzahl, Injektionspräzision und Tailingfaktor beschrieben. Dabei wird die Bodenzahl als weniger geeignet eingeschätzt, jedoch als akzeptabel für den Fall eines Einzelpeaks im Chromatogramm. Die Injektionspräzision soll bei fünf Injektionen 2,0% relative Standardabweichung nicht überschreiten, bei mehr als 2,0% relativer Standardabweichung sind sechs Injektionen zu verwenden. Hier klingt zwar die Abhängigkeit der Zuverlässigkeit der berechneten Standardabweichung von der Anzahl der Werte an (s. Kapitel 3), was die Akzeptanzgrenze aber nicht sinnvoller werden lässt, zumindest bezüglich Gehaltsbestimmungen. Bei einem minimalen Faktor von 1,5 pro Präzisionsebene würde sich eine maximale Vergleichspräzision von 4,5% ergeben, was sicher für die meisten Anwendungen inakzeptabel wäre. Dies würde einen 95% Streubereich der Einzelwerte einer Analyse von 91–109% (bezogen auf einen wahren Wert von 100%) bedeuten. Von Eignung kann hier wohl kaum gesprochen werden! Im Unterschied zur EP wird kein genereller Akzeptanzbereich für den Tailingfaktor definiert. Die Einhaltung eines Signal/Rausch-Verhältnisses kleiner als 10 für eine Lösung zur Überprüfung der Bestimmungsgrenze (0,05% für Wirkstoffe, 0,1% für Arzneiformen) ist zwar im Text formuliert (seit USP 29), aber weder gültig gesetzt, noch (für USP 30) geplant („postponed indefinitely“, was immer das heißen mag). Auch das USP-Kapitel befindet sich im Revisionsprozess. Die bisher an anderer Stelle vorhandenen Äußerungen zu den Anpassungsbereichen sollen nun in den Abschnitt Systemeignung eingefügt werden. Im Unterschied zur EP wird SFC nicht betrachtet, Gradientenelution nicht separat. Für LC und GC sind die meisten Festlegungen mit denen der EP identisch, bis auf folgende (vgl. Tabelle 13.1):

373

374

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik

x Die Anpassungen 1A2 und 1B2 sind nicht beschrieben (bzw. sollen gestrichen werden). x Bei 1G und 3C ist eine weitere Temperaturanpassung von ±10 °C zulässig. Es sind auch einige zusätzliche Bedingungen definiert: x Bei der Konzentrationsänderung der Puffersalze (1C) muss gleichzeitig der in 1B1 festgelegte pH-Bereich eingehalten werden. x Im Fall von ternären Mischungen darf nur eine der geringeren Lösungsmittelkomponenten angepasst werden (1A1). x Der Fehler der Wellenlänge des UV-Vis-Detektors darf maximal ±3 nm betragen. x Bei GC-Temperaturprogrammen ist eine Zeitanpassung von bis zu ±20% erlaubt. Im Sinne einer Harmonisierung der Arzneibuchanforderungen wäre hier eine vollständige Angleichung wünschenswert. 13.1.3 FDA Reviewer Guidance

Diese Guidance [5] soll die FDA-Gutachter bei der Beurteilung eingereichter LC-Methoden unterstützen. Es geht im Wesentlichen um die Validierung, aber auch um das Design der Prüfverfahren. Dabei wird mehrfach auf die Bedeutung von aussagefähigen Systemtests für die Sicherstellung der Methodeneignung über deren gesamten Lebenszyklus hingewiesen. In Abschnitt J werden die in Tabelle 13.3 aufgeführten Parameter inklusive Empfehlungen für Akzeptanzkriterien diskutiert. Tabelle 13.3 Systemtestparameter nach [5]. Systemtestparameter

Empfohlene Akzeptanzkriterien

Kapazitäts(Retentions)faktor (kc)

>2

Injektionswiederholpräzision (für Gehalt)

RSD d 1% für n t 5

Relative Retention (D)

Nicht essentiell, sofern Rs festgelegt

Auflösung (Rs)

> 2 für kritisches Peakpaar

Tailingfaktor (T)

d2

Theoretische Bodenzahl (N)

Abhängig von Elutionszeit, im allg. > 2000

Standardlösung bei Bestimmungsgrenzea)

Überprüfung der Bestimmungsgrenze unklar, Signal/Rausch-Verhältnis von 10 wird erwähnt, aber als nicht sehr praktikabel bewertet (keine Erläuterung warum)

a)

Im Text diskutiert (nach [5], Abschnitt B).

13.2 Spezifikationsgrenzen und Präzision

Der Umfang der Systemtests hängt von der Anwendung des jeweiligen Prüfverfahrens ab. Für Freisetzungsmethoden werden als Minimum kc, T und Injektionspräzision empfohlen, für Gehalts- und Nebenproduktbestimmungen sowie Stabilität zusätzlich Rs. In Bezug auf die Systempräzision wird für geringe Nebenproduktkonzentrationen eine höhere Variabilität eingeräumt, aber keine konkreten Empfehlungen ausgesprochen. Zur Diskussion des Nutzens eines solchen Tests s. Abschn. 13.1.1.3.

13.2 Spezifikationsgrenzen und Präzision

Spezifikationsgrenzen müssen sowohl die Variabilität der Proben (bzw. der Herstellung) als auch die des Analyseverfahrens einschließen, vorausgesetzt beide befinden sich innerhalb des normalen und akzeptablen Bereiches (Gl. 13.6). Die folgenden Ausführungen beschränken sich auf Verfahren zur Abschätzung des analytisch erforderlichen Teils des Spezifikationsbereiches. Spezifikationsgrenzen, allgemein: SGo/u = 100% ± BGo/u ± AV

(13.6)

mit: SGo/u = obere/untere Akzeptanzgrenze der Spezifikation, in Bezug auf den normierten Soll- oder Zielwert von 100%; BGo/u = obere/untere Basisgrenzen, ergeben sich aus der (akzeptablen) Proben- oder Herstellungsvariabilität in [%], bezogen auf den Soll- oder Zielwert; AV = analytische Variabilität des (gesamten) Prüfverfahrens. 13.2.1 Gehaltsbestimmungen 13.2.1.1 Auf Grundlage des Methodenfähigkeitsindex

Nach Daas und Miller [11] wird die analytische Variabilität mit dem Dreifachen der Ziel-Standardabweichung (TSD) angesetzt, in Analogie zum Methodenfähigkeitsindex (s. Kapitel 3.1). Die Ziel-Standardabweichung wird als mittlere Wiederholpräzision aus Ringversuchen zur Überprüfung von Monographiemethoden berechnet (Gl. 3.9). Bei Arzneistoffen ergibt sich die untere Basisgrenze aus der Spezifikationsgrenze für die Summe der Nebenprodukte, nach oben ist die BG natürlich null. Für ein Beispiel mit TSD = 0,6% und Summe der Nebenprodukte = 0,5% ergibt sich eine untere Spezifikationsgrenze von 97,7% und eine obere von 101,8%. Wie in Abschn. 13.3.4 diskutiert, ist der Variabilitätsbeitrag der Vergleichspräzision nicht berücksichtigt. Bei Arzneistoffen sollte dieser im Wesentlichen durch den Referenzstandard bestimmt sein und damit dieselbe Größe wie der der Probe haben, so dass die Standardabweichung um den Faktor

375

376

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik

—2 erhöht wird. Da die TSD aus Ringversuchen stammt, kann man davon ausgehen, dass in diesem Fall ein solcher Faktor eingeschlossen ist. 13.2.1.2 Auf Grundlage des 95-%-Prognosebereiches (DPhG-Verfahren)

In einem Positionspapier der Fachgruppe Arzneimittelkontrolle/Pharmazeutische Analytik der Deutschen Pharmazeutischen Gesellschaft (DPhG) [12] wird ein Verfahren vorgeschlagen, das sowohl die Gesamtvariabilität als auch die Anzahl der Bestimmungen einbezieht. Die entsprechende Gleichung ist hier mit Gl. (3.12) kombiniert, so dass eine exakte Berücksichtigung aller Variabilitätskomponenten unter den Bedingungen der Routineanalyse möglich wird (Gl. 13.7). Wenn die einzelnen Komponenten nicht (zuverlässig) bekannt sind, müssen die zusammengefassten Beiträge verwendet werden, z. B. ergeben die ersten beiden Terme in der Wurzel die Wiederholvarianz, geteilt durch n. Bei geringem Beitrag der inter-seriellen Varianz reduziert sich der Wurzelterm zur Gesamtvarianz (s. Gl. 3.11), geteilt durch n. Mathematisch gesehen beschreibt Gl. (13.7) einen Prognosebereich für künftige Chargenprüfungen, was ja auch der Anwendung entspricht. Im Beispiel aus Abb. 3.8 b mit einer Herstellvariabilität von 2,0% sowie m = 1 und n = 3 ergibt sich eine analytische Variabilität von 3,0% und damit (Mindest-) Spezifikationsgrenzen von 95,0–105,0% (bei df = 20). Analytische Variabilität nach DPhG: AV = t (95%, df ) ⋅

s 2p si2 + + s 2g m⋅n n

(13.7)

mit: t(P,df ) = Student-t-Faktor für eine statistische Sicherheit P von 95% und Anzahl der Freiheitsgrade df, bezogen auf die Studien zur Bestimmung der Varianzen; si2 , s 2p , s 2g = Systemvarianz, Varianz der Probenaufarbeitung und inter-serielle Varianz, entweder direkt als quadrierte relative Standardabweichung oder als Normierung des Wurzelterms; m = Anzahl der Mehrfachinjektionen im Routineverfahren; n = Anzahl der Probenaufarbeitungen im Routineverfahren, falls der Mittelwert das Endergebnis (reportable result, s. Abschn. 13.3.3) darstellt. Wenn jeder Einzelwert mit den Spezifikationsgrenzen verglichen werden soll, muss n = 1 gesetzt werden. Sofern Mittelwerte betrachtet werden, ist es nach Gl. (13.7) möglich, die Gesamtvariabilität (und damit die Spezifikationsgrenzen) über die Erhöhung der Anzahl der Bestimmungen zu minimieren. Dies darf allerdings kein Selbstzweck sein, sondern muss sich an den Sicherheitsanforderungen an das betreffende Arzneimittel orientieren. Aus diesem Grund wird im Positionspapier auch vorgeschlagen, die traditionellen Freigabegrenzen für Arzneimittel von 95,0–105,0% im Normalfall beizubehalten. Eine Diskussion über Nachkommastellen ist auch im Angesicht der statistischen Unsicherheit der berechneten Variabilitäten nicht sinnvoll. Die Gl. (13.7) erlaubt aber zumindest eine Abschätzung, ob die Standard-

13.2 Spezifikationsgrenzen und Präzision

grenzen mit der Variabilität des Prüfverfahrens kompatibel sind. Darüber hinaus kann dieses objektive und nachvollziehbare Verfahren der Spezifikationssetzung eingesetzt werden, wenn – begründet – eine höhere Herstellungs- oder analytische Variabilität vorliegt. Das könnten beispielsweise sehr komplexe Arzneiformen (s. Kapitel 3.3.4) oder sehr geringe Konzentrationen (s. Kapitel 3.3.6) sein. 13.2.2 Nebenproduktbestimmungen

Bei Nebenprodukten existiert natürlich nur eine obere Spezifikationsgrenze, die nicht über der toxikologisch qualifizierten Konzentration liegen darf [13]. Nach der ICH-Guideline ([13], Decision Tree #1) soll der Nebenproduktgehalt in Chargen aus Entwicklung, Pilotanlagen und Scale-up bestimmt werden, die Spezifikationsgrenze ergibt sich aus der oberen Grenze des Vertrauensbereiches des Mittelwertes. Problematisch an einem solchen Vorgehen ist die Unterstellung eines „wahren“ Wertes bei Chargen, die nicht aus demselben Herstellprozess stammen. Auf Grund der Verminderung des Vertrauensbereiches mit zunehmender Datenzahl (s. Abb. 3.2 a) wird außerdem derjenige mit weiteren Grenzen „belohnt“, der möglichst wenige Chargen einbezieht. Im DPhG-Positionspapier [12] wird, analog zum Konzept von Daas und Miller [11], vorgeschlagen, die Spezifikationsgrenze aus dem Mittelwert der Chargenprüfungen zuzüglich dem Dreifachen der Standardabweichung zu berechnen. Mittelwert und Standardabweichung sollten aus mindestens fünf repräsentativen, möglichst aufeinanderfolgenden Chargen aus den klinischen Phasen II und III bestimmt werden. Für die Eignung der Spezifikationsgrenze von Nebenprodukten ist es ebenfalls wichtig, dass der Abstand zur Bestimmungsgrenze mit der analytischen Variabilität kompatibel ist. Eine pauschale Eignung kann angenommen werden, wenn die Bestimmungsgrenze (maximal) 50% der Spezifikationsgrenze beträgt, wie in der ICH-Guideline für die Berichtsgrenze von 0,05% und eine Grenze für unbekannte Nebenprodukte von 0,10% [14]. Für Fälle, in denen eine engere Begrenzung erforderlich ist, kann Gl. (13.7) zur Abschätzung der Variabilität verwendet werden. Auf Grund der Dominanz des ersten Wurzelterms bei geringen Konzentrationen (s. Kapitel 1.3.6) ist eine Auftrennung der Varianzbeiträge nicht erforderlich (Gl. 13.8). Eignung der Nebenprodukt-Spezifikationsgrenze: SG − QL > AV =

t (95%, df ) ⋅ s nPV

(13.8)

mit: s, t = Standardabweichung und Student-t-Faktor aus Präzisionsstudie(n); nPV = Anzahl der Bestimmungen im Routineprüfverfahren; QL = Bestimmungsgrenze des Nebenproduktes.

377

378

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik

13.2.3 (Be)Merkenswertes

x Akzeptanz- oder Spezifikationsgrenzen müssen mindestens die (normale) Variabilität des Prüfobjektes (unter dem Primat der Sicherheitsanforderungen) sowie der Analytik einschließen. x In den meisten Fällen ist dies durch die traditionsbasierten Grenzen gewährleistet, jedoch sollte die Kompatibilität mit der analytischen Variabilität zumindest verifiziert werden. x Bei einer objektiv begründbaren erhöhten analytischen Variabilität, wie beispielsweise sehr geringe Konzentrationen oder sehr komplexe Proben, sollte der analytisch erforderliche Spezifikationsbereich berechnet werden.

13.3 Interpretation und Behandlung analytischer Daten (USP )

Das allgemeine Informationskapitel der USP [15] beschreibt akzeptable statistische Verfahren zur Analyse und konsistenten Bewertung von Messdaten. Dies umfasst die Berechnung von statistischen Parametern, die Behandlung von Ausreißern und den Vergleich analytischer Methoden. Es handelt sich um eine Auswahl zur Orientierung, nicht um verbindliche Vorgaben. Die Gliederung dieses Abschnitts entspricht den Hauptteilen des USP-Kapitels. Bemerkungen des Autors zum USP-Text sind eingerückt dargestellt. Sofern die im USP-Kapitel vorkommenden Gleichungen mit den bereits behandelten identisch oder ihnen äquivalent sind, wird nur auf letztere verwiesen. 13.3.1 Voraussetzungen

Eine vernünftige Bewertung von Analysenergebnissen ist an verschiedene Grundvoraussetzungen geknüpft, die kurz erläutert werden, wie z. B. eine gründliche und vollständige Dokumentation, die Verwendung geeigneter, nachvollziehbarer Referenzstandards, eine geeignete Gerätequalifizierung und natürlich validierte Analyseverfahren. Eine entscheidende Bedeutung hat auch die Probennahme. 13.3.2 Messprinzipien und Variabilität

Die Streuung und Verteilung analytischer Daten sowie die entsprechenden Parameter wie Mittelwert, Standardabweichung, relative Standardabweichung und Vertrauensbereich des Mittelwertes werden diskutiert (s. Kapitel 3). Es wird ausgeführt, dass die Variabilität durch die Mittelwertbildung reduziert werden kann. Die Entscheidung, ob Einzel- oder Mehrfachmessungen angemessen sind, hängt von der Fragestellung und der konkreten Variabilität ab.

13.3 Interpretation und Behandlung analytischer Daten (USP )

Bemerkung: Die geforderte Überprüfung der Normalverteilung ist allerdings bei der geringen Anzahl der normalerweise in der pharmazeutischen Analytik zur Verfügung stehenden Werte kaum möglich. Bei physiko-chemischen Analysen kann „normaler“weise von einer Gauß-Verteilung der Werte ausgegangen werden, sofern keine systematischen Effekte auftreten. Diese können aber auch durch einfache graphische Darstellung und visuelle Prüfung auf systematische Muster, wie z. B. Trends, identifiziert werden. Die Verwendung von Kontrollproben zur Beobachtung der Methodenvariabilität oder als Bestandteil des Systemeignungstests wird beschrieben und in Appendix A ein Beispiel für eine Einzelwert-Kontrollkarte gegeben. In Appendix B wird das Beispiel einer Präzisionsstudie (fünf Serien mit jeweils drei Bestimmungen) beschrieben, ausgewertet über eine Varianzanalyse (s. Kapitel 3.3.4). Es wird eine Analyse der Varianzkomponenten empfohlen und die berechneten Standardabweichung des Prüfverfahrens betrachtet (hier als relative Standardabweichung des Mittelwertes oder reportable value) zur Optimierung der Gesamtvariabilität. Dies entspricht Gl. (3.12) ohne Aufspaltung der Wiederholvarianz in Injektions- und Probenaufarbeitungsvarianz. Bemerkung: In Tabelle 1 in Appendix B von USP wurden Standardabweichungen für die drei Wiederholbestimmungen je Serie berechnet. Dies ist auf Grund der Unsicherheit wenig aussagefähig (vgl. Abb. 3.2 b). 13.3.3 Ausreißer

In diesem Abschnitt werden ausführlich abweichende Werte (Ausreißer) und deren Behandlung diskutiert. Solche Werte können Extremwerte sein, die dennoch zur jeweiligen Verteilung gehören, oder auf Fehler zurückgeführt werden, entweder analytische oder Produktfehler. In jedem Fall muss eine systematische Untersuchung der Ursache erfolgen. Es wird klar zwischen Identifizierung (outlier labeling) und Entfernung (outlier rejection) unterschieden. Letzteres ist jedoch nur erlaubt, wenn eine analytische Ursache für das abweichende Ergebnis auf Grund einer Laboruntersuchung identifiziert (oder zumindest wahrscheinlich gemacht) werden kann (assignable cause), wie z. B. Bedienfehler, Geräteversagen, falsche Reagenzien, Fehler in der Probenaufarbeitung usw. „An outlier test can never take the place of a thorough laboratory investigation“ [15]. Damit entspricht die Grundaussage den Anforderungen der FDA-Guidance zur Behandlung von Analysenergebnissen außerhalb der Spezifikationsgrenzen (Out-of Specification, OOS) [16]. Sehr hilfreich, u. a. für die im OOS-Rahmen oft kontrovers diskutierte Mittelwertbildung, ist die eindeutige Definition des Endergebnisses (reportable result) [15]. „When assessing conformance to a particular acceptance criterion, it is important to define whether the reportable result (the result that is compared to the limits) is an average value, an individual measurement, or something else. If, for example, the acceptance criterion was derived for an average, then it would not be statistically

379

380

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik

appropriate to require individual measurements to also satisfy the criterion.“ Damit wird sehr klar, dass es OOS nur in Bezug auf das Endergebnis geben kann. Bemerkung: Wenn der Mittelwert als Endergebnis definiert wurde, sollte jedoch die Messwertvariabilität zuvor geprüft werden, z. B. über Akzeptanzgrenzen für die Spannweite oder Standardabweichung, um dem Argument entgegenzuwirken, dass eine nicht akzeptable Streuung übersehen oder ignoriert wird. Dies ist auch als Forderung in der FDA-Guidance [16] enthalten. Auf Probleme und Randbedingungen der statistischen Ausreißertests sowie die eingeschränkte Verwendung der Ergebnisse wird detailliert eingegangen. In Appendix C werden (trotzdem) die Tests nach Grubbs (hier bezeichnet als ESD, generalized extreme studentized deviate test), nach Dixon und nach Hampel beschrieben. Da die ersten beiden Tests recht bekannt sind, möchte ich mich hier auf die Beschreibung von letzterem konzentrieren. Ausreißertest nach Hampel

Zunächst werden die Werte der Größe nach geordnet und der Median ermittelt, d. h. der Wert in der Mitte der geordneten Sequenz. Danach erfolgt ebenso wie im Grubbs-Test eine Normalisierung der Werte. Allerdings wird hier die absolute Differenz zwischen Median und jedem Wert gebildet und durch den Median der absoluten Differenzen (MAD) geteilt. Der MAD ist der Median der geordneten absoluten Differenzen, multipliziert mit 1,483. Wenn ein auf diese Weise normalisierter Wert die Grenze von 3,5 übersteigt, liegt ein Ausreißer vor (Gl. 13.9). Ausreißer nach Hampel: xi − xM xi − xM = > 3,5 MAD Median x i − x M ⋅ 1,483

(13.9)

mit: xi = Einzelwert; xM = Median der nach Größe geordneten Einzelwerte. 13.3.4 Vergleich von Analysenergebnissen

Hier werden statistische Verfahren beschrieben, die zum Nachweis der Äquivalenz von zwei Analyseverfahren herangezogen werden können. 13.3.5 Präzision

Die Präzision der Alternativmethode darf nicht schlechter als die der aktuellen sein. Die obere Grenze des Vertrauensbereiches des Verhältnisses der Varianzen von Alternativ- und aktueller Methode wird mit einem zuvor festgelegten Akzeptanzkriterium verglichen (Gl. 13.10). Auf Grund der großen Variabilität von

13.3 Interpretation und Behandlung analytischer Daten (USP ) Tabelle 13.4 Beispiel eines Vergleichs zwischen einer Gehaltsbestimmung mittels LC und über Stickstoffbestimmung nach Dumas. Bei Letzterem wird der gefundene Stickstoffgehalt zum theoretischen (auf Grund der Summenformel) ins Verhältnis gesetzt (s. auch Vergleich.xls auf der Begleit-CD). Nr.

LC-Gehalt

N-Bestimmung

1 2 3 4 5 6 7 8 9

92,93 91,32 92,66 93,50 92,41 92,58 91,27 93,00 91,56

94,18 93,22 92,84 92,77 92,58 92,77 93,03 92,96 92,96

Verwendung der Werte

1–3

1–6

1–9

1–3

1–6

1–9

Mittelwert

92,30

92,57

92,36

93,41

93,06

93,03

Varianz

0,743

0,518

0,636

0,477

0,345

0,218

RSD

0,93%

0,78%

0,86%

0,74%

0,63%

0,50%

Anzahl

3

6

9

F-Test

1,56

1,50

2,92

x Kritischer Wert (95%)

19,00

5,05

3,44

x Signifikanz

Nein

Nein

Nein

Äquivalenztest VBV, oben

12,19

3,37

1,18

1,11

0,49

0,68

–0,25 bis 2,47

–0,19 bis 1,18

0,14 bis 1,21

t-Test

1,74

1,30

2,19

x Kritischer Wert (95%)

2,78

2,23

2,12

x Signifikanz

Nein

Nein

Ja

Präzision

Richtigkeit Differenz Äquivalenztest (95% VB der Differenz)

381

382

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik

Standardabweichungen ist jedoch zu beachten, dass eine ausreichende Datenzahl gewählt wird (s. Beispiel in Tabelle 13.4, Berechnung mit drei gegenüber neun Werten). Obere Vertrauensbereichesgrenze des Varianzenverhältnisses: VBV, oben =

2 salt ⋅ F (0,05; df alt ; df akt ) 2 sakt

(13.10)

mit: 2 salt/akt = Varianz der Alternativ-/aktuellen Methode; F (0,05; df alt ; df akt ) = Fisher’s F-Wert für eine Fehlerwahrscheinlichkeit von 5% und die zur Bestimmung der Varianzen von Alternativ- und aktueller Methode gehörenden Freiheitsgrade. Der beschriebene Äquivalenztest ist gegenüber dem traditionellen F-Test zu bevorzugen, da dort nur auf einen statistisch signifikanten Unterschied der Varianzen geprüft wird. Aber auch wenn ein solcher nicht gefunden wird, d. h., wenn das Verhältnis der Varianzen geringer ist als der kritische F-Wert, heißt das noch nicht, dass die Präzision beider Methoden äquivalent ist. Bemerkung: Außerdem würde auch ein signifikanter Unterschied gefunden werden, wenn die Alternativmethode eine wesentlich geringe Variabilität aufweisen würde, sicherlich kein Grund zur Ablehnung. 13.3.6 Richtigkeit

Die Richtigkeit wird als akzeptable Differenz der Mittelwerte belegt. Der vorgeschlagene Äquivalenztest prüft, ob der Vertrauensbereich der Differenz (Gl. 13.11) vollständig innerhalb eines vom Anwender festgelegten Akzeptanzintervalls (± G) liegt (Gl. 13.12). Im Gegensatz dazu ist die Fragestellung des traditionellen t-Tests, ob der Vertrauensbereich der Differenz den Wert null einschließt. Dies kann leicht zu Situationen führen, in denen entweder ein signifikanter Unterschied keine praktische Bedeutung hat (Abb. 13.4, Szenario 1, Beispiel: Tabelle 13.4 mit 9 Werten) oder in denen auf Grund zu großer Variabilität ein praktisch nicht akzeptabler Unterschied nicht erkannt wird (Abb. 13.4, Szenario 3). Der Vorteil von Äquivalenztests besteht darin, dass der Anwender selbst ein Maß für die praktische Relevanz definieren kann. Die Variabilität der Ergebnisse geht in die Äquivalenztests ein, und zwar zu Lasten des Anwenders (Abb. 13.4, Szenario 3), ebenso eine geringe Anzahl an Daten (Beispiel: Tabelle 13.4 mit drei Werten). Demgegenüber steigt mit der Zunahme der Datenzahl die Chance eines positiven Ergebnisses des Äquivalenztests, aber eines negativen des Signifikanztests (Beispiel: Tabelle 13.4 mit 9 Werten), was aus praktischer Sicht nicht gerade sinnvoll ist. Die geeignete Anzahl an Bestimmungen kann auch berechnet werden. Dies, sowie eine Berechnungsmöglichkeit für das Akzeptanzintervall, wird in Appendix E beschrieben. (Zu weiteren Anwendungen und Beschreibungen von Äquivalenztests im pharmazeutischen Bereich siehe [17–20].)

13.3 Interpretation und Behandlung analytischer Daten (USP )

Abb. 13.4 Schematische Darstellung von Signifikanz (Mittelwerts-t-Test) und Äquivalenztest. Die Differenz der Mittelwerte ist als Quadrat symbolisiert, die Vertrauensbereiche als Doppelpfeile. Die akzeptable Differenz G für den Äquivalenztest wurde mit ± 2 festgelegt. Der „Erfolg“ der statistischen Tests

bezüglich des Vergleichs ist mit „ja/nein“ für die verschiedenen Szenarien dargestellt. Für den t-Test bedeutet „nein“, dass ein statistisch signifikanter Unterschied zwischen beiden Mittelwerten besteht, für den Äquivalenztest, dass beide Methoden nicht äquivalent sind.

Vertrauensbereich der Differenz zweier Mittelwerte: VBD = ± t (P , n1 + n2 − 2) ⋅ s p ⋅

sp =

1 1 + n1 n 2

(n1 − 1) ⋅ s12 + (n2 − 1) ⋅ s22 n1 + n 2 − 2

− G ≤ (x1 − x2 ) − VBD ∧ (x1 − x2 ) + VBD ≤ + G

(13.11a)

(13.11b) (13.12)

mit: n1, 2 ; x1, 2 ; s1,2 2 = Anzahl der Werte, Mittelwert und Varianz der beiden Serien 1 und 2; t (P , df ) = Student-t-Faktor für ein statistisches Signifikanzniveau P und Anzahl an Freiheitsgraden df. Da für die Äquivalenztests die einseitige Fragestellung relevant ist, muss für ein Signifikanzniveau von 95% eine Irrtumswahrscheinlichkeit D von 0,10 gewählt werden; ± G = obere und untere Grenze des Äquivalenzintervalls. 13.3.7 (Be)Merkenswertes

x Zur Berechnung der Präzision wird eine Varianzanalyse empfohlen. x Es wird klargestellt, dass Spezifikationsgrenzen und das Endergebnis des jeweiligen Prüfverfahrens (reportable result) verknüpft sind und nur letzteres für OOS-Beurteilungen herangezogen werden darf.

383

384

13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik

x Statistische Ausreißertests sind nur für Informationszwecke verwendbar, nicht jedoch zur Invalidierung von Daten, da sie die Ursache der Abweichung nicht adressieren. x Für den Vergleich von Methoden (oder Daten) sind Äquivalenztests wesentlich besser geeignet als die herkömmlichen Signifikanztests (z. B. F- und t-Test). Letztere prüfen nur auf eine statistische Signifikanz, nicht jedoch, ob diese auch von praktischer Bedeutung ist. Im Fall der Äquivalenztests legt der Anwender eine praktisch akzeptable Differenz fest.

Literatur 1 ICH Q2(R1): Validation of Analytical Procedures: Text and Methodology, 2005. 2 FDA. Guidance for Industry: Analytical procedures and methods validation, 2000. 3 European Pharmacopeia, 2.2.46 Chromatographic Separation Techniques, 28–32. 4 United States Pharmacopeia, National Formulary, Chapter „Chromatography“, United States Pharmacopeial Convention, Rockville, 2006. 5 FDA. Validation of chromatographic methods (Reviewer Guidance), 1994. 6 G. C. Hokanson, Pharm. Technol., 18, 118–130, 1994. 7 J. Ermer, Chapter 1: Analytical Validation within the Pharmaceutical Environment, in Method Validation in Pharmaceutical Analysis. A Guide to Best Practice, J. Ermer and J. H. M. Miller (Eds.). Wiley-VCH, Weinheim, 2005. 8 Revision of Chapter 2.2.46 Chromatographic Separation Techniques, Pharmeuropa, 18, 410–416, 2006. 9 United States Pharmacopeia, Draft Chapter „Analytical Instrument Qualification“, United States Pharmacopeial Convention, Rockville, 2006. 10 ASTM. Standard practice for testing fixed-wavelength photometric detectors used in liquid chromatography. Designation: E685-93 (Reapproved 2000).

11 A. G. J. Daas, J. H. M. Miller, Pharmeuropa, 1999, 11, 571–577. 12 H. Wätzig, J. Ermer, Pharm. UZ, 32, 254–256, 2005. 13 ICH Q6A, Specifications: Test Procedures and Acceptance Criteria for New Drug Substances and New Drug Products, Chemical Substances, 1999. 14 ICH Q3A(R), Impurities in New Drug Substances, 2002. 15 USP. United States Pharmacopeia, National Formulary, Chapter „Analytical Data – Interpretation and treatment“, United States Pharmacopeial Convention, Rockville, 2006. 16 FDA. Guidance for Industry: Investigating out of specification (OOS) test results for pharmaceutical production, October 2006. 17 R. Kringle, R. Khan-Malek, F. Snikeris, P. Munden, C. Agut and M. Bauer, Drug Information J., 35, 1271–1288, 2001. 18 ISPE. Good Practice Guide: Technology Transfer, 2003. 19 J. Ermer, Chapter 2: Performance parameters, calculations and tests, in Method Validation in Pharmaceutical Analysis. A Guide to Best Practice, J. Ermer and J. H. M. Miller (Eds.). Wiley-VCH, Weinheim, 2005. 20 M. Broughton and J. Ermer, Chapter 7: Transfer of Analytical Procedures, in Method Validation in Pharmaceutical Analysis. A Guide to Best Practice, J. Ermer and J. H. M. Miller (Eds.). Wiley-VCH, Weinheim, 2005.

385

14 Über Bewertung und Wertung chromatographischer Daten Stavros Kromidas

14.1 Einleitung

Als Dienstleister ist mir Folgendes durchaus bewusst: Bei einer physischen oder virtuellen Zusammenkunft sollte der letzte Eindruck ein positiver sein – damit ist man der Zufriedenheit der Adressaten gewiss. So kritzelt man keinesfalls am letzten Tag eines Seminars um 16:15 Uhr noch schnell eine neue Differentialgleichung an die Tafel – mag sie auch noch so fundamental sein. Nein, man lässt das Ganze eher mit einem „Spielchen“ oder einer Gruppenarbeit ausklingen, die die Teilnehmer erfolgreich absolvieren können. So auch in einem Buch. Probleme, Schwierigkeiten usw. gehören in die vorderen Kapitel. Man schließt vernünftigerweise mit einem eher doch positiven Ausblick ab nach dem Motto „es gibt Probleme wie überall, aber irgendwie klappt es doch“ – das zustimmende Nicken der Leser ist dem Schreibenden recht sicher. Oder man fasst wenigstens das vorher Gesagte schlicht zusammen. Ich werde diese „ungefährliche“, motivierende und letzten Endes oft sinnvolle Praxis hier nicht anwenden. Vielmehr werde ich nachfolgend versuchen, vereinfacht und wertfrei die Situation zu schildern, wie ich sie vor Ort in den Labors erlebe – auch auf die Gefahr hin, dass Unangenehmes zur Sprache kommt. Das ist weder Eigensinn noch ein Marketingtrick. Mir liegt auch nichts ferner als lediglich Kritik zu üben oder den Zeigefinger zu heben. Es geht vielmehr um eine – sicherlich subjektive – Darstellung der von mir erfahrbaren Alltagspraxis analytischer Labors, um daraus einige Rückschlüsse ziehen zu können.

14.2 Die Situation – oder warum ändert sich so wenig?

Wenn im Privaten die Rede von „Bewertung“ eines Ergebnisses ist (ich habe seit gestern neue Fliesen in meinem Bad) geht es um eine kritische Stellungsnahme zum „Wert“, d. h. um die Qualität des Ergebnisses, um jenes beurteilen zu können.

386

14 Über Bewertung und Wertung chromatographischer Daten

Und ich berücksichtige bewusst oder erfasse zumindest intuitiv mehrere Aspekte des Ergebnisses (Preis, Farbe, saubere Fugen etc.). Aus dieser Erkenntnis heraus komme ich zu einem abschließenden Urteil, es könnte sich dabei evtl. auch ein Handlungsbedarf ergeben (z. B: Die Fliesen um die Badewanne herum sind noch einmal neu zu verlegen). Nun, wir wissen alle, dass im Berufsleben diese natürliche Haltung – in der Natur instinktiv vorhanden und damit im wörtlichen Sinne „natürlich“ – selten möglich ist bzw. geduldet wird. So reduziert sich in der Analytik die Bewertung oft auf eine „ja/nein“-Entscheidung eines Zahlenwertes. Es geht also nicht um den „Wert“ sondern lediglich um einen Zahlenwert. „Passt“ nun die Zahl oder „passt“ sie nicht? Ferner wissen wir alle, dass es kein Problem ist, sie passend zu machen: Es kann jener Zahlenwert für die Totzeit in den Rechner eingegeben werden, um den in der PV geforderten k-Wert zu erhalten, Messungen werden wiederholt, damit der Wert hoffentlich wieder „in spec“ ist oder es kann manuell so integriert werden, dass die Peakfläche der Nebenkomponente gerade unter den geforderten 0,05% der Hauptkomponente liegt. Das ist zuweilen frustrierend oder hinterlässt – vor allem bei den Anwendern direkt am Gerät – ein schales Bauchgefühl, das man irgendwann als unvermeidlich akzeptiert. Man ist auch unsicher, ob und was überhaupt „schlimm“ ist, auch die Strenge der Vorgaben ist nicht immer nachvollziehbar, z. B: An den Methodenparametern darf man kaum etwas ändern, aber bei der Integration ist man fast völlig frei, wie kritisch ist wirklich dieser kleine Peak usw.? Warum ist die Situation so wie sie ist? Das heißt, warum beschäftigen wir uns so stark mit der Bewertung eines Zahlenwertes im Sinne der Übereinstimmung mit Vorgaben und so wenig mit der Wertung des Ergebnisses im Sinne einer analytischen Beurteilung? Stark vereinfacht können wir wie folgt festhalten: In einer globalisierten, stark Wettbewerbs-orientierten Berufswelt fungieren Zahlen als einfache, nachvollziehbare und von allen Beteiligten akzeptierten Größen, ja, gar als Beweise für eine klar definierte „Qualität“. Wettbewerb fordert Vergleichbarkeit. Vergleichbarkeit verlangt nach objektiven Kriterien. Dazu eignen sich eben Zahlenwerte hervorragend. Je stärker nun der Wettbewerb ist, umso mehr gewichtet man maßstabsgetreue Werte. Dadurch wird unvermeidlich einer wirklichen, analytischen Beurteilung entgegengewirkt. Woher die Zahlen stammen, ob sie repräsentativ sind, ob sie überhaupt eine Relevanz haben usw., ist oft sekundär und wird selten hinterfragt. Das ist ein großes Manko. In einer auf Vergleichbarkeit bedachten Analytik (Gesellschaft) herrscht schnell Zahlengläubigkeit. Deswegen steht weiter oben „Qualität“ und nicht Qualität, weil vor allem formale Aspekte zur Definition herangezogen werden. Die Wiederholbarkeit, das reproduzierbare Finden von Zahlenwerten wird als Beweis für gleichbleibende Qualität angesehen, es handelt sich jedoch bestenfalls um den Beweis von gleichbleibenden Eigenschaften – aber auch nur derjenigen, die überprüft werden. Anmerkung: Jahrelang wurde im Labor dank GLP und anderen QM-Systemen auf Nachvollziehbarkeit und auf sture Befolgung von formalen Vorgaben getrimmt, deren Einhaltung gleich mit Qualität gesetzt. Man hat sich intensiv

14.3 Wie kann sich etwas ändern und wann ist es überhaupt notwendig?

mit Qualitätssicherung statt mit Qualität befasst. Dass dies selbstverständlich langfristig nur ein Irrweg sein kann, hat die FDA längst erkannt und in den letzten Jahren einen vorsichtigen, aber klar erkennbaren Kurswechsel eingeleitet: Statt einer „Any change is bad“-, „Compliance, not science“- und „Blind compliance“-Haltung soll nun die Ära von „Science and risk based compliance“ und „Continous improvement“ eingeläutet werden. Stichworte dazu: PAT, keine GMP-Checklisten, sondern Qualitätssysteme, weniger Qualitätskontrolle, mehr Qualitätssicherung. Kommen wir zurück zu dem was ist und nicht was sein könnte oder was irgendwann vielleicht sein wird. Im heutigen Umfeld – vor allem in stark reglementierten Bereichen – kann von Wertung gar keine Rede sein. Das ist auch gar nicht beabsichtigt und wird auch nicht verlangt. Also wird – obwohl wir alle wohl wissen, wie es geht – nicht unbedingt versucht, etwas Besseres, Sinnvolleres zu machen. Und im Leben, im Berufsleben insbesondere, machen wir selten etwas deswegen, weil wir es an für sich gut erachten. Wir sind nur dann bereit, etwas Festeingefahrenes zu ändern, wenn entweder unsere Sicherheit merklich erhöht oder das Belohnungszentrum im Gehirn aktiviert wird (Anerkennung, Freude, Lob etc. erfahren). Ansonsten lassen wir es lieber sein, schließlich wollen wir ja keine Revoluzzer sein. Und da heute „Fehler machen“ gleich mit Schwäche gesetzt wird, ist die Angst vor Fehlern bis in die höheren Ränge von Politik, Wirtschaft und Gesellschaft sehr groß. Und wir leben bekanntlich nicht in einer Zeit, in der Helden hoch im Kurs sind. In einer Zeit fast permanenten Zeitdrucks, starker Betonung von Formalien, Beweisbarkeit und Alibimentalität usw., ist man froh, dass das Ganze einigermaßen „läuft“. Und es bleibt alles wie es ist.

14.3 Wie kann sich etwas ändern und wann ist es überhaupt notwendig?

Am Anfang einer Entscheidung sollte „Können“ und „Wissen“ stehen. Erst wenn ich kann und weiß, erkenne ich Handlungsbedarf und kann Realisierungschancen und Wege beurteilen. Zum „Lernen“ und „Können“ sei hier nur Folgendes angemerkt: Es sollte möglichst ein Klima geschaffen werden, in dem jene möglich sind. Von der Neurophysiologie wissen wir: Menschen lernen und arbeiten nicht unter Druck am besten, sondern wenn sie sich wohl fühlen. In dieser (glücklichen) Situation wird der Neurotransmitter Dopamin aktiv; die Aufmerksamkeit steigt, das Gehirn ist bereit zu lernen. Ist diese Voraussetzung geschaffen, kann Wissen erlangt und gespeichert werden. Die Intention des vorliegenden Buches ist es, das Wissen um die Auswertung in der Chromatographie und die Bewertung der erhaltenen Ergebnisse im Sinne einer analytischen Beurteilung ein wenig zu erweitern. Nachdem Wissen um den Wahrheitsgehalt von Zahlenwerten vorliegt und eine Wertung möglich ist, wird entschieden – vorausgesetzt die Ziele sind allen Beteiligten unmissverständlich

387

388

14 Über Bewertung und Wertung chromatographischer Daten

klar –, ob Handlungsbedarf besteht und ob Handlungsspielraum vorhanden ist. Dazu vier Beispiele: x Der F-Test ist recht weit verbreitet; Für einen tatsächlichen Vergleich der Streuung zweier Messreihen ist er denkbar ungeeignet, da beim F-Test Varianzen (also Standardabweichung) und nicht relative Standardabweichungen – wo die Streuung in Bezug zum Mittelwert steht – verwendet werden. Wird er „expressis verbis“ vom Kunden oder von einer Behörde verlangt, ist er natürlich anzugeben. Es ist kein Zynismus, sondern Realität, wenn wir festhalten: Das eine ist Analytik, das andere ist „Geschäft“. x Ähnlich verbreitet und allgemein akzeptiert ist der Korrelationskoeffizient: Man muss sich nun sehr „anstrengen“, um im Falle von sauberen Proben keine zwei oder drei „9“ nach dem Komma zu bekommen. Was bedeutet das? Mögliche Ausreißer und Matrixeffekte beeinflussen ihn kaum. Die relative Verfahrensstandardabweichung dagegen reagiert sehr empfindlich auf derartige Veränderungen. Möchte (muss?) ich mir beim Routinebetrieb unabhängig vom Wissensstand der Anwender und sonstigen Variablen keine Probleme und Reklamationen einhandeln, bin ich froh, dass der Korrelationskoeffizient als Kriterium für die Linearität gefordert wird. Bezüglich dieses Punktes werde ich ein ruhiges Leben führen. Geht es tatsächlich um Wissen über die Qualität einer kalibrierbedürftigen Methode (Einfluss der Matrix auf die Empfindlichkeit, Streuung einzelner Werte), wäre die relative Verfahrensstandardabweichung zweifelsohne das bessere Kriterium. x Eine HPLC-Methode, in der vier Nebenkomponenten abgetrennt werden, wurde 1984 in mehreren Ländern eingereicht und registriert. In der Zwischenzeit kann man durch den Einsatz von selektiveren Säulen neun Nebenkomponenten abtrennen, deren toxische Relevanz unbekannt ist. Die noch geltenden Anforderungen von 1984 werden weiterhin eingehalten, es besteht also kein akuter Handlungsbedarf. Es passiert auch tatsächlich nichts. Welches Wort ist hier angebracht: Bewertung, Beurteilung, Qualitäts(!)kontrolle? x Führe ich die Validierung unter optimalen und nicht unter realen Bedingungen durch und berücksichtige dabei nicht alle Einflussfaktoren, erhalte ich natürlich kleine VK-Werte. Was ist nun meine Intention oder anders gefragt, woran wird die „Qualität“ meiner Arbeit gemessen? Erwartet mein Chef drei Validierungen in sechs Wochen, da Termine vorher vom Management festgelegt werden? Kann es sein, dass ich de facto gar keine Möglichkeit habe, das Testen gründlich(er) zu machen? Muss (will) ich aus welchen Gründen auch immer mit kleinen VK’s aufwarten? Dann ist die „Validierung“ wie oben beschrieben so durchzuführen. Die vorprogrammierten Probleme beim Methodentransfer, die unweigerlichen „OOS“-Situationen im späteren Routinebetrieb und die damit verbundenen recht hohen Kosten aus gesamtbetrieblicher Sicht usw. werden hingenommen und sie belasten schließlich die Qualitätskontrolle – nicht uns …

14.3 Wie kann sich etwas ändern und wann ist es überhaupt notwendig?

Die Beispiele lassen sich beliebig fortführen. Eine bewährte Strategie zur Effektivitäts- und Effizienzsteigerung im Labor besteht aus drei Schritten. Zuerst kommt das völlig objektive, rationale, emotional nicht belegte Wissen. Dies führt zur Kenntnis von Fakten. Dann gilt es, Ziele zu definieren, zu erfragen bzw. zu vermitteln. Anschließend sollte man bei Bedarf die analytische Praxis unter Berücksichtigung der Möglichkeiten optimieren. In diesem dritten Teil der Kette sehe ich persönlich das größere Potential. Auch hier einige Beispiele: x Bei der Bewertung einer Methode sollte man daran denken, dass deren „Wert“ durch Kosten- und Zeitersparnis erhöht wird. Oft reichen simple, de jure erlaubte Maßnahmen, um eine Methode zu verbessern, z. B: Wenn schon nicht bei der Trennung, sollte wenigstens beim Spülen einer HPLC-Säule der Fluss von 1 ml/min auf 2 ml/min erhöht werden. Oder: Statt einer 4-mm-Säule könnte eine 3-mm-Säule verwendet werden. In beiden Fällen ergibt sich eine Ersparnis an Zeit bzw. an Eluentenverbrauch um ca. 50%. x Man sollte den vorgegebenen Spielraum nutzen und dem heute allgemeinen Trend „aus Angst, preußischer als die Preußen zu sein “ entgegentreten. Die Behörden lassen es zu, ja sie fördern es teilweise sogar. Verkrustete Strukturen sind oft die eigenen. So sollten die erlaubten Modifikationen bei USP- und EP-Methoden tatsächlich genutzt werden (s. Kapitel 11 bis 13), im Falle von unbekannten Einflussfaktoren auf mein Ergebnis sollte (muss) ich jenes mit dem Erweiterungsfaktor k multiplizieren und diese Zahl als die in der Routine erwartete/erlaubte angeben (s. Kapitel 4). x In der klassischen Statistik spielt der Faktor „Zeit“ keine Rolle. So wird im Alltag üblicherweise überprüft, ob sich der VK unter einem Schwellenwert und der Mittelwert innerhalb der vorgegebenen Grenze befinden. Also eine „ja/nein“Entscheidung. Wird nun darüber hinaus der Mittelwert in Abhängigkeit von der Zeit mit Hilfe einer Kontrollkarte verfolgt, kann erkannt werden, ob eine zeitliche Abhängigkeit des Mittelwertes vorliegt oder nicht. Sollte dies der Fall sein, handelt es sich entweder um Alterungsprozesse bei der analytischen Methode (Chemikalien, Säule) oder um eine zeitliche Änderung des Gehaltes bedingt durch den Produktionsprozess (Vergiftung von Reaktanten, Zersetzungen etc.). Mit Hilfe von Kontrollproben kann dies unterschieden werden. Sollte es an der Produktion liegen, ergibt sich womöglich ein großes Optimierungspotential, das durch ein einfaches analytisches Tool erkannt worden wäre. x Man sollte sich in „Worst case“-Mentalität und Hinterfragen üben, um zu realistischen Anforderungen zu gelangen. Wenn beispielsweise der VK meiner Methode 0,8% beträgt und die Spezifikationsanforderungen für den Gehalt mit 98–102% festgelegt wurden, ist völlig klar, dass einzelne Werte „OOS“ sein werden: Die Streuung der Methode ist zu groß im Vergleich zu den Spezifikationsanforderungen. In diesem Fall wäre – das wird übrigens von der FDA in den letzten Jahren immer mehr propagiert – die Anforderung 95–105%

389

390

14 Über Bewertung und Wertung chromatographischer Daten

angebracht. Oder man nimmt in einem solchen Fall „Ausreißer“ nicht ernst, die Spezifikationsanforderung sollte nur für den Mittelwert gelten. Ferner ist eindeutig zu belegen, um wie viel schlechter (belegbarer Qualitätsverlust und konkrete monitäre Einbuße) das betreffende Produkt bei einer Forderung für die Streuung von z. B. VK = 1,5% statt der aktuell geforderten 1% wird. Fehlt dieser Beleg, sollte man solche Anforderungen etwas großzügiger handhaben. Es gilt Folgendem entgegen zu wirken: Durch unbedachte Anforderungen wird die Analytik teuerer, ohne dass die Qualität des Produktes und damit sein Vermarktungswert um diesen Betrag zunimmt. Die immense Schwierigkeit allerdings, einmal formulierte Anforderungen durch inhaltlich richtige Argumente zu revidieren, ist mir geläufig.

14.4 Wer kann etwas ändern?

Wird bei der Beurteilung einer Methode oder generell bei der Beurteilung der aktuellen analytischen Praxis ein Handlungsbedarf erkannt, wäre eine echte Änderung nur durch das obere Management möglich. Die Chance erachte ich jedoch als eher gering. Warum? Das Management ist weit weg von der Praxis, für dieses ist das Labor eine kostenintensive Notwendigkeit, die Zahlen zu liefern hat, um das Produkt/die Dienstleistung verkaufen zu können. Das Labor soll bitte schön solche Zahlen/Ergebnisse liefern, die gebraucht werden – nach dem Motto: „Sorgt dafür, dass es klappt“. Für das Management sind dies lediglich Zahlen, ähnlich wie andere Zahlen, mit denen es sich herumschlagen muss: Verkaufszahlen, Cash-Flow, Aktienkurse usw. Ich zitiere einen Abteilungsleiter: „Ich sehe schon ein, dass die Höhenauswertung genauer ist, aber wir werden an unserer Praxis nichts ändern. Bringen Sie lieber meinen Leuten bei, wie sie vernünftig(!) über die Fläche auswerten können, damit das Ganze so bleibt, wie es immer war. Wenn es nicht anders geht, sollen sie die Analyse halt wiederholen. Das Einsetzen für die Höhenauswertung in allen Standorten würde mich sehr viel Zeit kosten – die habe ich nicht und schließlich habe ich bei Gott wichtigeres zu tun“. Keine befriedigende, aber eine durchaus nachvollziehbare Haltung. Viele Anwender am Gerät wissen in aller Regel recht genau, was schief läuft – nur sie haben selten eine Entscheidungsbefugnis. Veränderungen obliegen meist dem altgedienten Laborpersonal und dem Labormanagement: Diese Kollegen haben das fachliche Wissen und häufig auch mit etwas Mut, Kreativität und guten Argumenten die Möglichkeit, wenigstens kleine Veränderungen herbeizuführen. Dazu gehört das Überdenken von Spezifikationen bzw. von Kriterien abhängig davon, ob bei der aktuellen Methode formale Anforderungen oder eben analytische „Wahrheit“ im Vordergrund steht, siehe Beispiele weiter oben. Lohnt es sich nun beim heutigen Arbeitspensum und Zeitdruck sich für etwas einzusetzen, wenn das Ganze mehr oder weniger doch läuft? Es liegt auf der Hand, dass die Antwort nur eine individuelle sein

14.4 Wer kann etwas ändern?

kann. Aus meiner Erfahrung würde ich vielleicht Folgendes vorschlagen: Der erste, wichtige Schritt ist das Klarstellen von Fakten: Anzahl von Proben, vorhandene Ressourcen, warum braucht wer, bis wann, welches Ergebnis, mit welcher Präzision usw. Daraus wird eindeutig ersichtlich, ob ein Handlungsbedarf besteht und wenn ja, zu welchem Grad dieser umsetzbar ist. Man sollte anschließend nur dann zur Tat schreiten, wenn damit persönliche Vorteile einhergehen: Verstärkung der eigenen Position bzw. des Selbstbewusstseins, Anerkennung, persönliche Genugtuung, Schaffensfreude, Motivationsschub für die ganze Gruppe usw. Ist es so, sind die Chancen auf Erfolg nicht einmal schlecht.

391

393

Stichwortverzeichnis a Abwasserverordnung 337 Abweichungen 117 Acetophenon 208 Aciclovir 278 Affinitätschromatographie 3 ff. Aflatoxine 306, 308 Aminosäuren 195 Analyse 205 – Fingerprint-Analyse 205 Analyseverfahren 365 analytische Daten 145 ff. – Akzeptanzgrenze 151 – Beurteilung 145 – Erwartungsbereich 151 – Freiheitsgrade 148 – Gauß’sche Normalverteilung 145 – Gesamtstreuung 153 – Histogramm 145 – Ishikawa-Diagramm 153 f. – Mittelwert 147, 151 – Obergrenze 149 – pharmazeutische Analytik 153 – Präzision 153 – Simulation 149 – Spannweite 151 – Spannweitengrenze 152 – Standardabweichung 147, 149, 151 – Stichprobe 149 – Unsicherheit 147, 152 – Variabilität 153 – Verteilung 145 – Vertrauensbereich 147, 149 – Zuverlässigkeit 148 Ansprechzeit 35 APCI (Atmospheric Pressure Chemical Ionization Interface) 267 ApexTrack™ 43 AQS 315 f., 328, 331

– Ablauf 328 f. – Analysenungenauigkeit 324 – AQS-Messungen 330 – AQS-Werkzeuge 324 ff. – AQS für Analysenverfahren 328 – Aufwand 331 – Beurteilung der Analysenergebnisse 336 – für spezielle Verfahren 334 – Grenzwert 336 – Kalibrierprozedur 330 – Kontrollkarten 316 ff. – Messabweichungen 333 – Messunsicherheit 323 f. – objektbezogene AQS 320 – Praxis 328 – Qualitätsmanagement 315 – Schnellschätzverfahren 329 – Stellvertreterproben-AQS 320 – Stichproben-AQS 320 – Validierung 320 f. – Vorgehensweise 331 – Wasseranalytik 330 – Wiederfindungsexperiment 333, 336 – Zielwertkarten 316 ff. Arbeitsbereich (Range) 356 f., 362 Arzneibücher 339, 365 Arzneibuchverfahren 352 Arzneimittelmonographie 353 Arzneimittelrückstände 288 Arzneimittelzulassung 349 Arzneistoffe 339 Auflösung 9 ff., 16, 340 Auflösungsgrößen 9 ff. Ausreißertest nach Hampel 380 Auswertemethoden 129 Auswertung 55, 171, 193, 206, 248, 345, 387 – Achsenabschnitt 134 – Ausreißertest nach Hampel 380

394

Stichwortverzeichnis – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – –

Auswerteparameter 260, 263 Auswertesoftware 282 Bestimmungsgrenze 282 CDS 252 Datenbearbeitungsprozess 243 Datendichte 253 Datenevaluation 235 Datenprozessierung 235 ff. Datenverarbeitung 236 Detektor-Rauschen 250 Detektordrift 252 direkte Kalibration 248 Eichkurvenverfahren 302 Einpunkteichung 130 Ergebnisgenauigkeit 249 Ergebnisgröße 178 Ergebnisunsicherheit 178 erweiterte Messunsicherheit 175 erweiterte Unsicherheit 181 F-Test 388 F-Wert 136 Flussmarker 259 Flussrate 259 Gauß’sches Fehlerfortpflanzungsgesetz 180 Genauigkeit 250, 252 f. Geräteeigenschaften 259 Gesamtgleichung 129 Gewichtsmittelwert 240 Gewichtung 139 GPC-Datenanalyse 238 GPC-Normen 251 GPC-Software 241, 243 Grenzwertvergleich 185 GUM (Guide to the Expression of Uncertainty in Measurement) 174, 183 Inkrementsystem 222 Integrationsgrenze 251 Johnsson-Tabelle 133 Kalibration 255 Kalibrationskurve 256 Kalibrationsstandard 256 Kalibrationsverfahren 255 Kalibrier-Fitfunktion 257 Kalibrierkurve 239 kombinierte Messunsicherheit 304 kombinierte Standardunsicherheit 175 kombinierte Unsicherheit 180 Korrekturfaktoren 222 Korrelationskoeffizient 388 lineare Regression 130 mathematische Methoden 171 Messergebnis 174 Messgröße 174

– – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – –

Messunsicherheit 173 f., 181 Messunsicherheitsermittlung 184 Metrologie 171 Molmassen-Kalibration 245 Molmassenmittelwerte 238 Molmassenverteilung 239, 243, 245 ff. Mutual Recognition Agreement 172 Normen 236, 241 Nullpunktsgerade 130 pharmazeutische Analytik 183 Probenkonzentration 260 Qualifizierung 244 Quotientenbildung 141 Rauschen 250 Referenzobjekte 184 Regressionskoeffizient (Bestimmtheitsmaß) 256 relativer Retentionswert 206 Reproduzierbarkeit 248, 280 Residualstandardabweichung (RSD) 132 Residuum 132 Retentionswert 206 Richtigkeit 245 Richtlinien 241 Rohdaten 244 RSD 132 Rückführbarkeit 186 Rückführbarkeit von Messungen 172 Signal/Rausch-Verhältnis 250 ff. Signalqualität 248 Signifikanztest 303 Standardabweichung 175 Standardunsicherheit 177, 179, 182 statistische Methoden 171 Streifenmethode 238 Traceability 186 Unsicherheit 173, 177, 182 Unsicherheitsquelle 178 Validierung 244 Varianzquotienten (F-Wert) 138 Verfahrensstandardabweichung (VSD) 132 Verfahrensvariationskoeffizienten (VVK) 133 Vergleichbarkeit 186 Vergleichspräzision 265 Verifikationsverfahren 243 Viskositätskopplung 249 Viskositätsmittelwert 240 Volumendifferenz 260 Wichtungsexponenten (WE) 137 Wiederholbarkeit 265 z-Mittelwert 240 Zahlenmittelwert 240

Stichwortverzeichnis – Zertifizierungen Autosampler 128

241

b Basislinie 39, 44, 48, 124 f. Behältnis 350 Benzamidin 208 Berührungszeit 195 Bestimmungsgrenze (BG) 98, 300, 302, 358, 362 Bestimmungsgrenze (Limit of Quantification) 13 Bestimmungsgrenze (Quantitation Limit) 356 Bewertung 355 Blindprobe 14 Bodenzahl 10, 69, 71, 81 – Bodenzahlberechnung 81 – theoretische 5 Body of Data 349 British Pharmacopoeia (BP) 353 Bruttoretentionszeit 5

c CDS 68, 83, 86 f., 89, 119, 123, 125, 127 ff. – LCSolution 89 chemisches Gleichgewicht 194 ChemStation – Initial Area Reject 48 – Initial Height Reject 48 – Initial Peak Width 48 – Initial Slope Sensitivity 48 – Shoulders (on/off) 48 Chromatogramm 3, 5, 57, 61, 103, 113, 123 f., 128, 269, 343, 345 – 2-D-/3-D-Chromatogramm 28 f. – äußeres 28 – Auswertung 128 – Gradienten-Chromatogramm 107 – inneres 28 – Integrationsfehler 57 – isokratisch 103 – isotherm 103 – simuliert 123 Chromatogramm-Simulation 66, 68 – Excel 68 Chromatographie 3, 268, 329, 339 – Affinitätschromatographie 3 ff. – analoge 4 – digitale 4 – Gelfiltrationschromatographie (GFC) 3 ff., 235 ff. – Gelpermeationschromatographie (GPC) 3 ff., 235 ff.

– Größenausschlusschromatographie 3 ff. – HPLC 236 ff. – Ionenaustauschchromatographie 3 ff. – isokratische Chromatographie 272 – Kapillargaschromatographie 75 – Normalphasenchromatographie 3 ff. – präparative 4 – Size Exclusion Chromatography (SEC) 3 ff., 235 ff. – Umkehrphasenchromatographie 3 ff. – Verteilungschromatographie 3 ff. Chromatographie-Daten-System „CDS“ 55 ff. chromatographische Bedingungen 29 chromatographische Kenngrößen 5 – Bruttoretentionszeit 5 – Retentionsgröße 5 f. – Totzeit 5 chromatographische Parameter 369 – Retentionsfaktor 369 – Retentionszeit 369 – Symmetriefaktor 369 – Trennfaktor 369 – Verteilungskoeffizient 369 chromatographischer Prozess 3 Chromatographisches System 340, 343 chromatographische Trennung 3, 19 Chromeleon 45 – Data Collection Rate (Datenerfassungsrate) 45 – Peak Slice 47 – Sampling Rate (Datenaufnahmerate) 45 – Sensitivity 47 Clonidin 278 Clotrimazol 276 CO2 227 Common Technical Document (CTD) 349 Controlled Reference Standards (CRS) 354

d Daten 385 – Analogsignal 23 – Bewertung 385 f. – Chromatogramm-Simulation 66 – Data Collection Rate (Datenerfassungsrate) 45 – Datenaufnahme 19, 19 ff., 45, 47 – Datenaufnahme und -integration mit ChemStation 47 – – Data Rate 47 – – Minimum Peak Width 48 – Datenaufnahme und -integration mit Chromeleon 45

395

396

Stichwortverzeichnis – Datenaufnahme und -integration mit EZChrom Elite 47 – Datenauswertung 19, 24, 37 – Datenpunktabstand 81 – Datenpunkte 21 – Datenpunktintervall 78, 83 – Datensammelrate 21 ff., 37 ff. – Detektorsignal 22 – Integrationsfehler 55 ff. – Peak Width 23 – Qualität 386 – Sampling Period 23 – Sampling Rate (Datenaufnahmerate) 22 ff., 45 – Schrittweite 23 – Step 23 – Wertung 385 Datenaufnahme – Beispiele 24 ff. Datenpunktabstand 83 Datenqualität 366 Derivate 196 Detektionssystem 30 Detektor 18 f., 34 f., 201 – Abtastfrequenz 203 – Ansprechzeit 35 – Aufnahmerate 203 – Charakterisierung 30 – Detektorempfindlichkeit 33 f. – Detektorresponse 346 – Driftverhalten 253 – dynamischer Bereich 35 f. – Elektroneneinfangdetektor (ECD) 223 – konzentrationsabhängig 31 – Leitfähigkeits-Detektion 225, 227 – Leitfähigkeits-Messzelle 228 – Lichtstreudetektoren 262 – Lichtstreudetektortyp 262 – linearer Bereich 34 f. – Linearität 202 – massenstromabhängig 31 – Response 201 – Responsefaktor 346 – selektiv 31 – selektiver Detektor 202 – spezifisch 31 – Universaldetektor 202 – Universaldetektor (FID, TIC) 222 – universell 31 – Zeitkonstante (Time Constant, Rise Time, Response) 35 ff., 202 – zerstörend 31 Deutsche Pharmazeutische Gesellschaft (DPhG) 376

Dichlofluanid 217 Diffusivität 194 Dimethylformamid 222 Dimethylsulfoxid 221 2,4-Dinitrophenylhydrazin (DNPH) 197 Dinitrophenylhydrazone 197 Directorate for the Quality of Medicines (EDQM) 354 Drift 72 f., 104, 123

e Eddy-Diffusion 15 Effizienz 4 f., 9, 11, 16 – theoretische Bodenhöhe 12 f. – theoretische Bodenzahl 11 f. – Trennstufenhöhe 12 f. – Trennstufenzahl 11 f. Eichkurvenverfahren 302 Elektrospray-Ionisierung 273 Empower™ 43 Entgasen 226 Entscheidungsgrenze (Limit of Decision) 13, 296 Erfassungsgrenze (EG) 301 f. Erfassungsgrenze (Limit of Inclusion) 12 ESI (Electrospray Interface) 267 Ethylenglykolmonomethylether 222 Ethyltoluol 208 Europäische Pharmakopöe (Ph. Eur.) 339, 345 Europäisches Arzneibuch (EP) 367 – chromatographische Trenntechniken 367 – Systemtestanforderungen 367 Europäisches Arzneibuch (Ph. Eur.) 352 externer Standard 346 EZChrom Elite 47 – Sampling Frequency 47 – Sampling Period 47 – Threshold 47

f FDA Reviewer Guidance 374 – Systemtestparameter 374 – Validierung 374 Fertigarzneimittel – Kontrolle 351 Festphasenextraktion (SPE) 268 Fettsäuren 273 Flüchtigkeit 195 Flüssigchromatographie 194 Flüssigkeitschromatographie (LC) – APCI (Atmospheric Pressure Chemical Ionization Interface) 267

Stichwortverzeichnis – ESI (Electrospray Interface) Fronting 8 Fusarientoxine 308

267

g Gaschromatogramm 75 – GC 75 – HPLC 75 Gaschromatographie (GC) 15, 193 ff., 203, 368 – Autosampler 199 – Dampfraumanalyse 197 – Dosiertechnik 197 – Extraktionstechnik 197 – Gas-Liquid-Chromatographie (GLC) 194 – Gas-Solid-Chromatographie (GSC) 194 – Gasgeschwindigkeit 16 – GC-Analyse 197 – GC/MS-Kopplung 208 – isotherme GC 200 – Kapillar-GC 16, 193 f., 197 – KGC-Kopplungstechnik 205 – Probeninjektion 199 – Retentionsindex 207 – Retentionszeit 207 – Retention Time Locking (RTL) 207 – Säulenbluten (Column Bleed) 200, 211 – schnelle Gaschromatographie 203 – Solid Phase Dynamic Extraction (SPDE) 197 – Solid Phase Micro Extraction (SPME) 197 – Stir Bar Sorptive Extraction (SBSE) 197 – temperaturprogrammierte GC 201 – Totalionenstrom-Chromatogramm (Total Ion Current, TIC) 209 f. – Trennsäule 200 Gauß-Peak 113 Gaußfunktion 69 GC 75, 197 GC/MS 209 – Ähnlichkeitsindex (Similarity Index, SI) 211 – Blindproben (Blanks) 219 – Chemische Ionisation (CI) 217 – Extracted Ion Chromatogram 219 – Fragmentierungsmuster 210 – Headspace-GC 221 – Interpretation von Massenspektren 212 – Isotopenverdünnungsanalyse (IVA) 219 – Kalibrierstandards 219 – Massenfragmentographie (Reconstructed Ion Chromatogramm) 215 – Matrixeffekte 220

– – – – – – – – –

MID (Multiple Ion Recording) 216 Multiple Headspace-Extraktion 222 qualifier ions 217 quantitative Analyse 218 SIM (Single Ion Monitoring) 216, 219 Spektren-Deconvolution 213 Spektrenbibliothek 210 Spurenanalytik 220 Stabilisotopenverdünnungsanalyse (SIVA) 219 – Verweilzeit (Dwell Time) 217 Gehaltsbestimmung 375 – analytische Variabilität 376 – DPhG-Verfahren 376 – Gesamtvariabilität 376 – Methodenfähigkeitsindex 375 – Prognosebereich 376 Gelfiltrationschromatographie (GFC) 3 ff., 235 Gelpermeationschromatographie (GPC) 3 ff., 235 – Flussrate 254 – Kalibration 254 – Polydispersität 254 – Resultate 254 – Richtigkeit 254 – Vergleichspräzision 265 – Verlässlichkeit 254 – Wiederholbarkeit 265 Geräteeigenschaften 259 gewichtete Regression 140 Golay-Gleichung 15 – erweiterte 16 Gradient 107 Gradienten-Chromatogramm 107 Gradienten-Elution 269 Gradientensystem 344 Grenzwert 294, 299, 311 Größenausschlusschromatographie 3 ff.

h Haltbarkeit 351 Head-Space-GC 360 Horwitz-Gleichung 298 HPLC 69, 75, 196 f., 236, 340

i ICH-Guideline 377 Immunsuppressiva 274 Injektion 66 Integration 39, 43, 58 ff., 75, 83, 97, 118 f., 127 ff. – Apex-Track-Integration 94 ff. – ApexTrack-Verfahren 44

397

398

Stichwortverzeichnis – Basislinie 58 – Chromatographie-Daten-System „CDS“ 55 ff. – Chromeleon 92, 96, 103, 107 – Einzelvarianzen 66 – EMG-Funktion 118 – Empower 61 ff. – EZChrom 61 ff., 92, 96 – Gesamtfehler 66 – Integrationsalgorithmen 64 – Integrationsfehler 97, 97 f., 127 – Integrationsparameter 43, 61, 97 – Integrationssysteme 61, 107 – Integrationstest 92 – Kalibrierung 98 – klassische Integration 44 – Korrekturfaktor 98 – LCSolution 103, 117 – Lotfällung 119, 122 – manuelle Nachintegration 66 – Slope 58 ff. – Tangentenmethode 119, 122 – Tangent Skim 127 – Threshold 96 – Valley to Valley 127 Integrationsarten 56 – Lotfällung 56 – Tangentenmethode 56 Integrationsfehler 55 ff. – Literatur 55 Integrationsprogramm 48 – Integrationsparameter 48 – Vergleich 48 f. Interne Qualitätskontrolle (Internal Quality Control, IQC) 310 interner Standard 67, 97 Internes Qualitätsmanagement (IQC) 309 Interpretation analytischer Daten 378 – Äquivalenztest 382 – Ausreißer 379 – Ausreißertest nach Hampel 380 – Endergebnis (reportable result) 379 – Messprinzipien 378 – Mittelwert 383 – Prüfverfahren (reportable result) 383 – Richtigkeit 382 – t-Test 382 – Variabilität 378 – Varianz 383 – Vergleich von Analysenergebnissen 380 – Voraussetzungen 378 Investigational Medicinal Product Dossier (IMPD) 360 Ionenaustauschchromatographie 3 ff.

Ionenchromatographie (IC) 225, 227, 230 – Anionenaustausch-Chromatographie 226 – Anionenaustauscher 228 – Eluenten 226 – hydrophobe Harze 226 – Ionenausschlusschromatographie 225 – Ionenaustauschchromatographie 225 – Ionenaustauschersäule 232 – Ionenpaarbildner 226 – Ionenpaarchromatographie 225 – Kalibrierfunktion 232 – Kieselgel-Umkehrphasen 226 – Kontamination 230 f. – Lösemittelpeak 229 – Reinigungslösung 232 – RFIC (Reagent Free IC) 227 – Säulengift 231 – Selektivität 225 – Suppressor 231 – Temperatureinfluss 228 – Void Volume Treatment 230 – Wasserdip 227, 229 IQC (Internal Quality Control) 291 f. – Qualitätsregelkarte 292

j Japanese Pharmacopoeia (JP)

353

k Kalibrierung 14, 98, 129, 131, 136, 187 – Standard 187 Kapazitätsfaktor 6 Kapillargaschromatographie 16, 75, 196 Kenngrößen 88 Konformitätsbescheinigung (Certificate of Suitability, CEP) 355 Kontaminanten 288, 294 Kontrollkarte 316 f. – Außerkontrollsituationen 317 – Blindwert-Kontrollkarte 329 – Erwartungsrahmen 317 – Mittelwert-Kontrollkarte 329, 334 – Spannweiten-Kontrollkarte 334 – Umweltanalytik 317 – Wiederfindungsraten-Kontrollkarte 329 Kritische Differenz 299

l Laborqualitätsmanagement 295 Laborvergleichsuntersuchung (LVU) – Z-Score 292 Laborvergleichsuntersuchungen (Proficiency Tests) 289

291 f.

Stichwortverzeichnis LC – Gradientenelution 368 – isokratische Elution 367 LC-MS 267 – Abweichung 278 – Auswertesoftware 282 – Bestimmungsgrenze 282 – Festphasenextraktion (SPE) 268 – interne Standards 276 – isokratische Chromatographie 272 – Kontrolle 276 – Matrixeffekt 268, 272 – Messfehler 277 – Präzision 277 f. – Probenaufarbeitung 268 – Qualifier 274 – Quantifier 274 – Retentionszeit 277 f. – Standards 268 Leading 8 Lebensmittelanalytik 287 Lebensmittelchemische Gesellschaft 290 – Arbeitsgruppe „Pestizide“ 290 Lebensmittelüberwachung 287, 309 Leitlinien 287 Leitlinien zum Qualitätsmanagement 309 ff. Lichtstreudetektion 262 – Brechungsindexinkrement 263 – Kalibration 263 Lichtstreuung 251 lineare Regression 131 ff., 140 – gewichtet 136 Linearität (Linearity) 356 f., 362 LOQ (Limit of Quantification) 343, 345

m Massenübergang (dwell time) 280 Materialkontrollen 350 Messergebnis 174 Messgröße 174 Messunsicherheit 91, 174, 297, 312 – Ishikawa-Diagramm 91 Metalle 230 Mineralsäuren 228 mobile Phase 344 MRM (Multiple Reaction Monitoring) Mykotoxine 288, 294, 305

267

n Nachweisgrenze 301, 358, 362 Nachweisgrenze (Detection Limit) 356 Nachweisgrenze (Limit of Detection) 12 Nachweisgrenze (NWG) 302

Nachweisvermögen 296 Natrium 274 Nebenproduktanalyse 113, 122 – Hauptpeak 113, 120 – Hauptproduktpeak 114 f. – Nebenpeak 120 – Nebenproduktpeak 113 ff. – Tailing 113 – Tailingfaktor 114 Nebenproduktbestimmung 377 – Bestimmungsgrenze 377 – Spezifikationsgrenze 377 Nettoretentionszeit 6 4-n-Nonylphenole 216 Norfloxacin 343 Normalphasenchromatographie 3 ff. Normalverteilung 146 Nullpunktsgerade 140

o Ochratoxin 293 Ochratoxin A 306, 308 Official Medicinal Control Laboratory (OMCL) 352 Offset 72 f.

p Patulin 306, 308 Peak-to-Valley-Ratio 341 Peakerkennung 41 f., 44 f., 48 – Methoden 41 f. Peakfläche 39 Peakform 6 ff., 340 – Basispeakbreite 6 – freistehende Peaks 104 – freistehender Peak 83 – Fronting 8 – Gaußfunktion 69 – kleiner Peak 104 – Leading 8 – Peak-Ausdehnung 6 ff. – Peakbeginn 41 f. – Peakbreite 7, 86 – Peakende 41 – Peakerkennung 44 f. – Peakfläche 19, 39, 87 – Peakhöhe 7, 19, 39, 44, 87, 107 f., 120 – Peakleading 8 – Peakspitze 41 f., 44 – Peaksymmetrie 343 – Peaktailing 8 – Substanzmenge 39 – Symmetriefaktor 340 – Tailing 8

399

400

Stichwortverzeichnis – Tailingfaktor 7 – verschmolzene Peaks 77, 83 Peakhöhe 39 Peak Width 23 Pestizid-Grenzwertüberwachung 311 Pestizide 308 Pflanzenschutzmittel 288 Pflanzenschutzmittelrückstände 289 – Analytische Qualitätskontrolle (AQC) 289 pharmakologisch wirksame Stoffe 295 Pharmazeutische Analytik 365 f. Pharmazeutische Qualität 349 Phase – mobile 4 – stationäre 3 Phasengleichgewicht 194 Polarität 195 Polydispersität 251 Präzision (Precision) 158, 160, 162, 164 ff., 168, 184, 356 f., 362, 380 f. – Bestimmungsgrenze 167 – CRM 188 – Fehlerfortpflanzung 156 – Gesamtvarianz 162 – Horwitz-Funktion 165 ff. – ICH-Guideline 157, 160 – Injektionspräzision 156 – inter-serielle Varianz 162, 164 – Intermediate Precision 155 ff., 159 – interner Standard 168 – intra-serielle Varianz 160 – Kalibrierung 187 – Konzentrationsabhängigkeit 165 f. – Laborvergleichspräzision 155 ff., 159 – lineare Regression 158 – Literatur 162 – Messunsicherheit 184 ff. – Nebenproduktbestimmung 168 – Optimierung 163 – Präzisionsebenen 155 ff. – Probenaufarbeitung 164 – Prüfverfahren 157, 163 f. – Referenzverfahren 188 – Ringversuchsbedingungen 166 – RSD 165 – Spezifikationsgrenze 158 – Standardabweichung 155 ff. – Standardunsicherheit 176 – systematische Abweichungen 184 – Systempräzision 155 f. – Systemvarianz 164 – Validierung 157, 187 – Variabilität 168

– Varianz 166 – Varianzanalyse 157, 160 – Varianzbeiträge 156 – Varianz der Probenaufarbeitung 164 – Vergleichspräzision 159 – Vergleichsstandardabweichung 184 – Verteilungsobergrenze 159 – Wiederholpräzision 155 ff., 358 Primärmethode 188 Probennahme 306 – Einzelprobe 307 – Laborprobe 307 – Sammelprobe 307 – Teilprobe 307 Probennahme-Vorschriften 307 Probenvorbereitung 66 Problemstellung – Europäische Pharmakopöe (Ph. Eur.) 339 – United States Pharmacopeia (USP) 339 Produktanmeldung 246 Prozessvalidierung 351 Prüfmethode 359 – Leistungscharakteristika (method performance characteristics) 359 – Prüfziel 359 Prüfverfahren 163 f., 349, 353 f., 357, 360 – Äquivalenz 354 – bioanalytische Prüfverfahren 349 – chromatographische Prüfverfahren 349 – HPLC-Verfahren 354 Punktdiagramm 62 Pyridin 208 Pyrolyse-GC 196

q qualitative Analyse 204 – Identifizierung 204 – Non-Target-Analysis 204 – Target-Analysis 204 Qualitätsdossier 349 Qualitätskontrolle 365 f. – pharmazeutische 365 Qualitätsmanagement 315 Qualitätssicherung 309 – Gremien 309 Quality Overall Summary 349, 352

r Rauschen 72, 370 – Kurzzeit 371 – Kurzzeitrauschen

371

Stichwortverzeichnis – Langzeitrauschen 370 Rechtsvorschriften 295 Referenzpeak 342 Referenzsubstanzen (Certified Reference Substance, CRS) 342 Regression – gewichtet 140 – linear 140 Reinheit 346 Reproduzierbarkeit 248, 311 Retention 3 Retentionsfaktor 6 Retentionsgröße 5 f. – Kapazitätsfaktor 6 – Nettoretentionszeit 6 – Retentionsfaktor 6 – Retentionsvolumen 5 – Retentionszeit 5 Retentionszeit 10, 19, 44, 66, 70, 115, 277 f., 340, 342 f. Reverse-Phase 340 Reverse-Phase-HPLC 360 Richtigkeit (Accuracy) 356 f., 362, 381 Ringversuch (Method Performance Study) 310 Risperidon 269, 273, 280, 282 Robustheit 362 Rückführbarkeit 186 Rückstände 287 f., 308 Rückstandskontrollplan 295

s Schadstoffe 288, 294 Schulter 125 Selektivität 4, 9 f. – Trennfaktor 11 Signal/Rausch-Verhältnis (S/N) 13, 250 ff., 370 Simulation 89 ff., 98 ff., 107, 113, 117, 119, 124 f., 145 – EMG-Funktion 113 – Excel 115, 132 – Excel-Simulation 89 – Exponentialmethode 119 – Gauß-Peak 113 – Gaussian-Skim-Methode 119 – Gaussian Skim 108 – Kalibrierung 91 – Losef-Funktion 113 – Smoothing 108 – Tangentenmethode 125 Size Exclusion Chromatography (SEC) 3 ff., 235 Spezifikation 294

Spezifikationsgrenzen 375 Spezifität (Specificity) 356, 361 Spurenanalyse 195 Spurenelemente 305 Standardabweichung 155 stationäre Phase 194, 344 sterischer Effekt 194 Steroide 273 Substanzmenge 39 Superkritische Fluidchromatographie (SFC) 368 Systemeignungstest 365 Systempräzision 371 f. – Injektionspräzision 372 – Injektionsvariabilität 373 – Spezifikationsgrenze 371 – Standardabweichung 371 f.

t Tailing 8, 87, 103, 113 f., 118, 123, 127 Tandem-Massenspektrometer 267, 280 Terbinafin 277 Tizanidin 278 Totzeit 5, 10 Totzeitbestimmung 17, 26 Toxizität 246 Trennfaktor 11 Triglyceride 195

u Überwachungsbehörde 289 Umkehrphasenchromatographie 3 ff. Umweltanalytik 317 Umweltkontrolle 337 United States Pharmacopeia (USP) 339 United States Pharmacopoeia (USP) 353 US-Arzneibuch 373 – Chromatographische Parameter 373 – Systemeignungstest-Parameter 373 UV-Chromatogramm 268, 279

v Validierung 14, 187, 350 f., 355 f., 359 f., 388 – Parameter 356, 359 Validierungsstudie (Method Performance Study) 291, 293 – Vergleichbarkeit 293 – Wiederholbarkeit 293 van Deemter-Gleichung 15 Varianz 155 Verbraucherrisiko 307 Vergleichbarkeit 186 Vergleichsstandardabweichung 298

401

402

Stichwortverzeichnis Verteilungschromatographie 3 ff. Vertrauensbereich 147, 298 Verunreinigungen 345, 350 Verweilzeit 195 Vinclozolin 291 Viskosität 249, 251

w Wanderungsgeschwindigkeit 3 ff. – relative 3 Wanderungswege 3 Weltgesundheitsorganisation (WHO) 355 Wiederfindung 303 f. – Fehlerquellen 304 f. – kombinierte Messunsicherheit 304 – Korrekturfaktoren 306 – Signifikanztest 303 – Unsicherheit 304

Wirkstoff 339, 350 Wirkstoffstammdatei (Active Substance Master File) 355

z Zeitkonstante (Time Constant, Rise Time, Response) 35 ff. – Einfluss 50 f. Zielwertkarte 316 Zinn 306, 308 Zucker 195 Zulassungsbehörde 355, 360 – Anträge auf Genehmigung klinischer Prüfungen 360 – Fallbeispiele 362 – Mängel bei Anträgen 361 – Zulassungsdossier 361 Zulassungsdossier 349