101 33 12MB
Spanish Pages [1028] Year 2011
Técnicas de análisis y caracTerización de MaTeriales
20 Estudios sobre la biodiversidad de la región de Bahía Honda (Veraguas, Panamá). Santiago Castroviejo y Alicia Ibáñez (eds.). 21 International Studbook Gazella Dama Mhorr. Andrés Barbosa y Gerardo Espeso. 22 Landscapes as cultural heritage in the European research, Proceedings of the Open Workshop Madrid, 29 th October 2004. María Ruiz del Árbol y Almudena Orejas (eds.). 23 Las lecciones de la catástrofe del Prestige. Antonio Figueras, Emilio Lora-Tamayo D´Ocón, Joaquín Tintoré, Fiz F. Pérez, J. Albaigés, Francisco Sánchez, M. Anxo Murado García, Emilio Esteban Rodríguez Merino y Ramón Hernán Paadín. 24 Depuración de aguas residuales: modelización de procesos de lodos activos. Manuel Gil Rodríguez. 25 New acoustics. Selected topisc II. F. Montero de Espinosa Freijo, C. Ran-Guerra y J. Pfretzschner (eds.). 26 Biología y cultivo del mejillón (Mytilus Galloprovincialis) en Galicia. Antonio Figueras Huerta. 27 Prácticas de tratamiento estadístico de datos con el programa SPSS para Windows. Aplicaciones en el Área de Ciencia y Tecnología de Alimentos. Pedro J. Martín Álvarez. 28 Ecología acuática y sociedad de las Lagunas de Ruidera – Aquatic ecology and society of Ruidera Lakes (Central Spain). Miguel Álvarez Cobelas, Santos Cirujano Bracamonte, Esperanza Montero González, Carmen Rojo García Morato, María Antonia Rodrigo Alacreu, Elisa Piña Ochoa, Juan Carlos Rodríguez Murillo, Óscar Soriano Hernando, Marina Aboal Sanjurjo, José Pedro Marín Murcia y Rafael Araujo Armero. 29 El protocolo de Kyoto y su impacto en las empresas españolas. Félix Hernández Álvarez y Pablo del Río González. 30 Corrosión en las estructuras de hormigón armado: fundamentos, medida, diagnosis y prevención. José Antonio González Fernández y Juana Miranda Vidales. 31 Histofisiología de moluscos bivalvos marinos. Eduardo Cargnin-Ferreira y Carmen Sarasquete Reiriz. 32 Estudio de los suelos del Campo de Calatrava (Ciudad Real) y sus condiciones de fertilidad. José Luis de la Horra Ruiz, Francisco Sarrano Comino y Juan José Calevaris Muñiz. 33 Estudios etnobotánicos en Campoo (Cantabria). Conocimiento y uso tradicional de plantas. Manuel Pardo de Santayana. 34 Comunicación y ciencia médica. Investigar con animales para curar a personas. Enrique Sueiro. 35 Plantas y sabiduría popular del Parque Natural de Montesinho. Un estudio etnobotánico en Portugal. Ana Maria Carvalho. 36 Microtecnología: diario de un proceso. Fabricación de un microacelerómetro. María Cruz Acero, Jaume Esteve, José Antonio Plaza y Emilio Lora-Tamayo. 37 Protagonistas de la química en España: los orígenes de la catálisis. Pedro Bosch Giral, Juan Francisco García de la Banda, Joaquín Pérez Pariente y Manoel Toural Quiroga. 38 Spectroscopy of the Atmospheres. Rafael Escribano, Isabel Tanarro.
39
Técnicas de análisis y caracTerización de MaTeriales
Marisol Faraldos consuelo Goberna (eds.) Marisol Faraldos consuelo Goberna (eds.)
ÚLTIMOS TÍTULOS PUBLICADOS
CSIC
CONSEJO SUPERIOR DE INVESTIGACIONES CIENTÍFICAS
Se abordan en esta obra, de forma concisa y rigurosa, los aspectos más relevantes de distintas técnicas instrumentales en el análisis y la caracterización de materiales. Su enfoque facilita la comprensión de los principios en que se basan dichas técnicas, ayuda a establecer los criterios para seleccionar las más apropiadas según la información que se desee obtener de un material, y ofrece una valoración objetiva de sus dificultades y limitaciones. Centrado en un área de gran relevancia tecnológica, este libro repasa las técnicas instrumentales de análisis y caracterización de materiales, aplicables en numerosos campos de la ciencia y la investigación, desde las ciencias tradicionales (física, química, geología, biología y medicina) hasta los campos más recientes en el estudio de nuevos materiales (restauración de obras de arte, criminología, nanomateriales, biotecnología, etc.), que plantean un continuo reto para desarrollar la instrumentación y los procedimientos analíticos necesarios en estas áreas más recientes. El amplio espectro de técnicas tratadas ofrece, a quien pretenda iniciarse en este campo, una visión práctica desde el enfoque de quien está familiarizado con la instrumentación, la metodología y puesta a punto de cada técnica, los tratamientos previos de las muestras y su preparación, así como su adecuación al dispositivo de medida, el estudio de las señales obtenidas y la interpretación de resultados. Todo ello, en una especialidad dominada por la bibliografía en inglés, confiere a esta obra un carácter ambicioso e interdisciplinar con el que atender las necesidades del interesado en la materia. Los autores que han participado en la elaboración de esta obra pertenecen al Consejo Superior de Investigaciones Científicas, concretamente, en su mayoría, al Instituto de Catálisis y Petroleoquímica. En este entorno de vanguardia científica y tecnológica han desarrollado su amplia experiencia en las técnicas instrumentales de análisis y caracterización de materiales. Su grado de especialización en cada una de ellas ha desembocado en este compendio de conocimiento básico y experiencia con el que facilitar el acercamiento del usuario a las técnicas de caracterización, de las más clásicas a las más actuales. Se abordan así los procedimientos de análisis desde la visión de quien está acostumbrado a desarrollarlos y la interpretación de resultados desde un prisma lógico basado en la causa de la generación de una señal. Se ha dedicado en esta obra un gran esfuerzo al desarrollo de un texto claro y conciso, seleccionando las aplicaciones más atractivas, las tablas y los gráficos más representativos y recopilando la colección de lecturas de referencia más destacadas que, junto con las páginas en Internet, constituyen la bibliografía específica de cada tema.
Los autores que han participado en la elaboración de esta obra pertenecen al Consejo Superior de Investigaciones Científicas, concretamente, en su mayoría, al Instituto de Catálisis y Petroleoquímica. En este entorno de vanguardia científica y tecnológica han desarrollado su amplia experiencia en las técnicas instrumentales de análisis y caracterización de materiales. Su grado de especialización en cada una de ellas ha desembocado en este compendio de conocimiento básico y experiencia con el que facilitar el acercamiento del usuario a las técnicas de caracterización, de las más clásicas a las más actuales. Se ha dedicado en esta obra un gran esfuerzo al desarrollo de un texto claro y conciso, seleccionando las aplicaciones más atractivas, las tablas y los gráficos más representativos y recopilando la colección de lecturas de referencia más destacadas que, junto con las páginas en Internet, constituyen la bibliografía específica de cada tema.
Técnicas de análisis y caracTerización de MaTeriales
BIBLIOTECA DE CIENCIAS, 39
Marisol Faraldos y Consuelo Goberna (eds.)
Técnicas de análisis y caracTerización de MaTeriales 2.a ed. rev. y aum.
CONSEJO SUPERIOR DE INVESTIGACIONES CIENTÍFICAS MADRID, 2011
Reservados todos los derechos por la legislación en materia de Propiedad Intelectual. Ni la totalidad ni parte de este libro, incluido el diseño de la cubierta, puede reproducirse, almacenarse o transmitirse en manera alguna por medio ya sea electrónico, químico, óptico, informático, de grabación o de fotocopia, sin permiso previo por escrito de la editorial. Las noticias, los asertos y las opiniones contenidos en esta obra son de la exclusiva responsabilidad del autor o autores. La editorial, por su parte, solo se hace responsable del interés científico de sus publicaciones.
Primera edición: 2002 Segunda edición rev. y aum.: 2011
Catálogo general de publicaciones oficiales: http://publicacionesoficiales.boe.es/
© CSIC © Marisol Faraldos y Consuelo Goberna (eds.), y de cada texto, su autor e-NIPO: 472-11-178-0 e-ISBN: 978-84-00-09387-7 Maquetación: DiScript Preimpresión, S. L.
ÍNDICE 1. INTRODUCCIÓN ........................................................................................ 1.1. Objetivos ............................................................................................. 1.2. Definición de términos ........................................................................ 1.3. Métodos clásicos y métodos instrumentales ....................................... 1.4. Componentes de los instrumentos analíticos ....................................... 1.5. Clasificación de las técnicas instrumentales ........................................ 1.6. Características de los instrumentos analíticos ..................................... 1.7. Calibrado de las técnicas instrumentales ............................................. 1.8. Manipulación de muestras ................................................................... Bibliografía ...................................................................................................
17 17 18 19 21 22 35 40 44 49
2. ESPECTROSCOPÍA ULTRAvIOLETA-vISIBLE (Uv-vIS) .................... 51 2.1. Introducción ........................................................................................ 51 2.2. Teoría de la Espectroscopía Uv-vIS .................................................. 53 2.3. Leyes de la Espectrofotometría ........................................................... 64 2.4. Refracción y reflexión ......................................................................... 69 2.5. Instrumentación ................................................................................... 70 2.6. Tipos de instrumentos ......................................................................... 85 2.7. Accesorios para Uv-vIS ..................................................................... 88 2.8. Preparación de muestras ...................................................................... 94 2.9. Manejo de equipos .............................................................................. 95 2.10. Aplicaciones de la técnica ................................................................... 97 2.11. Espectroscopía fotoacústica ................................................................ 106 2.12. Cálculo de triestímulos ........................................................................ 107 Bibliografía ................................................................................................... 108 3. ESPECTROSCOPÍA DE LUMINISCENCIA: FLUORESCENCIA Y FOSFORESCENCIA ................................................................................ 109 3.1. Introducción ........................................................................................ 109 3.2. Fundamentos de la técnica .................................................................. 109 3.3. Instrumentación ................................................................................... 121 3.4. Preparación de muestras ...................................................................... 126 3.5. Metodología ........................................................................................ 128 3.6. Aplicaciones de la técnica ................................................................... 130 Bibliografía ................................................................................................... 137
8
Índice
4. ESPECTROSCOPÍA INFRARROjA (IR) .................................................... 139 4.1. Introducción ......................................................................................... 139 4.2. Fundamentos de la técnica................................................................... 140 4.3. Instrumentación ................................................................................... 147 4.4. Preparación de muestras ...................................................................... 158 4.5. Aplicaciones de la técnica ................................................................... 160 4.6. Métodos especiales .............................................................................. 166 4.7. Casas comerciales ................................................................................ 170 Bibliografía ................................................................................................... 171 5. ESPECTROSCOPÍA RAMAN ..................................................................... 173 5.1. Introducción ......................................................................................... 173 5.2. Fundamentos de la técnica................................................................... 175 5.3. Instrumentación ................................................................................... 182 5.4. Aplicaciones de la espectroscopia Raman .......................................... 194 Bibliografía ................................................................................................... 199 6. ANÁLISIS QUÍMICO: ESPECTROSCOPÍA DE ABSORCIÓN Y EMISIÓN ATÓMICA. PREPARACIÓN DE MUESTRAS. ANÁLISIS ELEMENTAL ............................................................................ 201 6.1. Introducción ......................................................................................... 201 6.2. Fundamentos de la técnica................................................................... 202 6.3. Instrumentación ................................................................................... 206 6.4. Aplicaciones de la técnica ................................................................... 246 6.5. Comparación de las distintas técnicas de espectroscopía atómica ..... 247 6.6. Preparación de muestras ...................................................................... 250 6.7. Análisis elemental................................................................................ 262 Bibliografía ................................................................................................... 265 7. ESPECTROMETRÍA DE MASAS ............................................................... 267 7.1. Principios básicos de la espectrometría de masas. .............................. 267 7.2. Espectrometría de masas para el análisis de gases .............................. 269 7.3. Espectrometría de masas aplicada a líquidos ...................................... 292 7.4. Espectrometría de masas tándem (GC-MSn y HPLC-MSn)................. 306 7.5. Espectrometría de masas aplicada a sólidos ........................................ 309 7.6. Aplicaciones de la espectrometría de masas........................................ 313 Bibliografía ................................................................................................... 318 8. ESPECTROSCOPÍA DE RESONANCIA PARAMAGNÉTICA ELECTRÓNICA (EPR) ................................................................................ 321 8.1. Introducción ......................................................................................... 321 8.2. Principios básicos de la técnica EPR .................................................. 323 8.3. Instrumentación ................................................................................... 340
Índice
9
8.4. Aplicaciones. Características generales de los espectros EPR de Sistemas Mono y Policristalinos. Particularidades de sistemas en fase líquida ...................................................................................... 344 8.5. Algunos ejemplos de aplicaciones en Sistemas Policristalinos ........... 353 Bibliografía ................................................................................................... 361 9. ESPECTROSCOPÍA DE RESONANCIA MAGNÉTICA NUCLEAR (RMN) ....................................................................................... 363 9.1. Introducción ......................................................................................... 363 9.2. Principios básicos de RMN ................................................................. 363 9.3. Detección experimental del fenómeno de RMN ................................. 365 9.4. Interacción núcleo-entorno estructural ............................................... 371 9.5. Métodos de alta resolución ................................................................. 372 9.6. Aplicaciones de RMN al estudio de materiales .................................. 374 9.7. Conclusiones ....................................................................................... 384 Bibliografía ................................................................................................... 386 10. ESPECTROSCOPÍAS DE ABSORCIÓN DE RAYOS X (XES y XAFS: EXAFS y XANES) .............................................................. 387 10.1. Introducción ......................................................................................... 387 10.2. Fundamentos de la técnica................................................................... 389 10.3. Instrumentación ................................................................................... 395 10.4. XANES ................................................................................................ 398 10.5. EXAFS................................................................................................. 408 10.6. Técnicas de emisión de Rayos X ........................................................ 416 10.7. Sumario y perspectivas futuras ........................................................... 420 Bibliografía ................................................................................................... 422 11. ESPECTROSCOPÍA DE FOTOELECTRONES DE RAYOS X (XPS) ...... 425 11.1. Introducción ......................................................................................... 425 11.2. Fundamentos de la técnica................................................................... 427 11.3 Instrumentación .................................................................................. 443 11.4. Preparación de Muestras ..................................................................... 449 11.5. Tratamiento de los Espectros .............................................................. 452 11.6. Aplicaciones de la Técnica ................................................................. 462 Bibliografía ................................................................................................... 463 12. DIFRACCIÓN DE RAYOS X ...................................................................... 465 12.1. Introducción ......................................................................................... 465 12.2. Estructura de la materia condensada ................................................... 467 12.3. La naturaleza de los Rayos X, qué son y cómo se generan ................. 482 12.4. Efecto de los rayos X en la materia. El fenómeno de la difracción ..... 491 12.5. El patrón de difracción de muestras policristalinas ............................. 509 12.6. Difracción y sustancias amorfas .......................................................... 512 12.7. Instrumentación ................................................................................... 512 12.8. Accesorios ........................................................................................... 525
10
Índice
12.9. Aplicaciones ........................................................................................ 527 Bibliografía ................................................................................................... 547 13. MICROSCOPÍA ELECTRÓNICA DE MATERIALES ............................... 551 13.1. Introducción ......................................................................................... 551 13.2. Nociones de óptica............................................................................... 553 13.3. Microscopía electrónica de barrido (SEM) ......................................... 555 13.4. Microscopía electrónica de transmisión (TEM) .................................. 558 13.4. Microscopía electrónica de transmisión con barrido (STEM)............. 566 13.5. Análisis por dispersión de energía de rayos X (EDX); Espectroscopía de pérdida de energía de los electrones (EELS) ......... 570 13.6. Procesado y Simulación....................................................................... 575 13.7. Preparación de muestras ...................................................................... 576 13.8. Diseño previo del Experimento (¿Qué Microscopio necesito y por qué?) ........................................................................................... 578 Bibliografía ................................................................................................... 579 14. MICROSCOPÍA DE FUERZA (AFM) Y DE EFECTO TÚNEL (STM) ..... 583 14.1. Introducción ......................................................................................... 583 14.2. Fundamentos Físicos .......................................................................... 585 14.3. Instrumentación básica y posibles accesorios .................................... 590 14.4. Manejo de Equipos y Procedimientos de medida................................ 601 14.5. Aplicaciones ........................................................................................ 617 Bibliografía ................................................................................................... 621 15. ÁREA SUPERFICIAL, TEXTURA Y DISTRIBUCIÓN POROSA ............ 623 15.1. Isotermas de Adsorción ....................................................................... 623 15.2. Porosimetría de intrusión de mercurio................................................. 638 Bibliografía ................................................................................................... 647 16. ANÁLISIS TÉRMICO .................................................................................. 651 16.1. Introducción ......................................................................................... 651 16.2. Análisis Termogravimétrico (ATG) ..................................................... 654 16.3. Métodos térmicos y Calorimétricos de Análisis: Análisis Térmico Diferencial (DTA) y Calorimetría Diferencial de Barrido (DSC) ....... 669 16.4. Análisis y Detección de los Gases desprendidos en los Análisis Térmicos (EGA/EGD) ......................................................................... 685 Bibliografía ................................................................................................... 696 17. MÉTODOS ELECTROANALÍTICOS......................................................... 699 17.1. Fundamentos de la técnica................................................................... 699 17.2. Instrumentación ................................................................................... 704 17.3. Preparación de medidas electroquímicas............................................. 713 17.4. Técnicas electroanalíticas .................................................................... 718
Índice
11
17.5. Aplicaciones de los métodos electroanalíticos .................................... 729 Bibliografía ................................................................................................... 734 18. CROMATOGRAFÍA DE GASES (GC)........................................................ 735 18.1. Introducción....................................................................................... 735 18.2. Fundamentos de la técnica ................................................................ 737 18.3. Instrumentación ................................................................................. 743 18.4. Preparación de Muestras .................................................................. 774 Bibliografía ................................................................................................... 785 19. CROMATOGRAFÍA LÍQUIDA DE ALTA RESOLUCIÓN (HPLC) .......... 787 19.1. Introducción....................................................................................... 787 19.2. Componentes de un equipo de HPLC ............................................... 788 19.3 Parámetros cromatográficos .............................................................. 808 19.4 Tipos de cromatografía HPLC........................................................... 808 19.5. Escalas de aplicación de cromatografía HPLC ................................. 823 19.6. Cromatografía ultra-rápida (UPLC) .................................................. 825 Bibliografía ................................................................................................... 827 20. CARACTERIZACIÓN DE MATERIALES MEDIANTE ESTUDIOS DE ACTIvIDAD CATALÍTICA................................................................... 829 20.1. Introducción....................................................................................... 829 20.2. Cinética química de las reacciones catalíticas................................... 833 20.3. Catálisis homogénea .......................................................................... 846 20.4. Catálisis heterogénea ......................................................................... 849 20.5. Reacciones catalíticas enzimáticas .................................................... 854 20.6. Reactores catalíticos .......................................................................... 858 20.7. Procesos catalíticos heterogéneos: Casos históricos y ejemplos .............................................................. 881 Bibliografía ................................................................................................... 892 21. ADQUISICIÓN DE DATOS, SUPERvISIÓN Y CONTROL DE EQUIPOS DE LABORATORIO POR ORDENADOR ......................... 893 21.1. Introducción....................................................................................... 893 21.2. Etapas y elementos necesarios para adquisición de datos, supervisión y control ........................................................................ 895 21.3. Señales analógicas y digitales .......................................................... 905 21.4. El ordenador ...................................................................................... 919 21.5. Interfases hardware de comunicaciones: puertos, interfases o tarjetas ............................................................................................ 940 21.6. Señal y ruido...................................................................................... 972 21.7. Interfases software de comunicaciones: programas o aplicaciones .. 976 21.8. Conclusiones y futuro........................................................................ 983 Bibliografía ................................................................................................. 985
12
Índice
22. CALIDAD EN EL LABORATORIO .......................................................... 987 22.1. Introducción..................................................................................... 987 22.2. Motivación por la calidad ................................................................ 988 22.3. Sistemas de Calidad en laboratorios. Modelos aplicables............... 991 22.4. Implantación de un sistema de gestión de calidad en un laboratorio .. 999 22.5. Calidad de las medidas. ................................................................... 1003 22.6. Control de equipos........................................................................... 1012 22.7. Aseguramiento de la calidad ........................................................... 1015 Bibliografía ................................................................................................. 1023
PrólOGO La evolución continua de la electrónica y la informática contribuyen en buena medida a incrementar la sensibilidad, precisión y exactitud de los instrumentos, a lograr un alto nivel de automatización y a facilitar la consulta de extensas bases de datos. Todo ello permite poner al alcance de la ciencia y la tecnología poderosas y selectivas herramientas capaces de resolver los problemas que se plantean durante el análisis y la caracterización. Además, este progreso no se ha limitado al incremento de las prestaciones de los sistemas ya existentes sino que ha supuesto la aparición de nuevas técnicas que han propiciado un extraordinario avance en el conocimiento de las características de los materiales, pero al mismo tiempo ha complicado el manejo del propio instrumento y la posibilidad de que el personal científico y técnico se familiarice con el uso de la mayoría de ellas, incluso no es fácil conocer de forma precisa los tipos de información que se pueden obtener y realizar una interpretación acertada de las señales ofrecidas por el instrumento. Este alto grado de especialización que ofrecen hoy en día las técnicas instrumentales, con múltiples accesorios para dar solución a problemas concretos, hace indispensable la formación de científicos y técnicos altamente cualificados capaces de sacar el máximo rendimiento a cada equipo, conocedores tanto de los materiales objeto de estudio como de la técnica instrumental a aplicar. Las inversiones que se realizan en equipamiento científico y técnico son muy importantes y es fundamental a quién se encomienda su manejo y control. Por tanto, este libro está dirigido a estudiantes y profesionales, técnicos de laboratorio y científicos que busquen una formación específica o estén interesados en el análisis instrumental. El lenguaje asequible y el tratamiento práctico que reciben cada uno de los temas hacen que su lectura sea fácil, la información de utilidad práctica y su consulta indispensable en los primeros contactos con una técnica instrumental. Esta segunda edición da un paso más hacia adelante con la revisión y actualización de todos los temas incluidos en la edición anterior y la incorporación de tres nuevos capítulos. El objeto de esta segunda edición es mantener actualizada la información sobre las técnicas instrumentales y completarla con algunas no contempladas en la primera, pero imprescindibles cuando se trata del análisis y la caracterización de materiales. Algunos capítulos han sido reestructurados con la intención de ganar en claridad expositiva y los autores han buscado aplicaciones más novedosas e ilustraciones con mayor nitidez que facilitan la comprensión del texto. La temática del libro precisaba añadir un capítulo sobre la Calidad en Laboratorios, asunto ineludible asociado a los resultados analíticos.
14
Prólogo
Siguiendo la línea de la primera edición, hemos intentado que cada tema pueda ser abordado con total independencia de los demás, de forma que el lector pueda centrarse en las técnicas y los aspectos que sean realmente de su interés. El orden seguido en la exposición de los capítulos no corresponde exactamente a la relevancia de las técnicas en cuanto a su uso, aplicaciones o información que proporcionan. Al principio se encuentran las técnicas espectroscópicas moleculares (Uv-vIS, Luminiscencia, FTIR…) y atómicas (AAS, ICP-OES), más clásicas, complementadas por otras técnicas espectroscópicas más complejas y menos habituales (EPR, RMN, EXAFS-XANES, XPS…), de forma que todas ellas, en su conjunto, ofrecen información respecto a la composición química y estructural, tanto a nivel másico, como de la superficie del material. A continuación, el lector de este libro encontrará las técnicas de Difracción de Rayos X, microscopías (TEM, SEM, AFM), porosidad (SBET, MIP) y análisis térmico (TG, ATD), que proporcionan la caracterización estructural, morfológica y textural de los materiales presentes en la muestra analizada. Posteriormente, hemos incorporado un nuevo capítulo en esta segunda edición que revisa los métodos electroquímicos de análisis. Las técnicas cromatográficas (CG, HPLC), a pesar de encontrarse casi al final de este libro, son de gran importancia e interés en el análisis de materiales. La mayor parte de los autores que han colaborado en este libro desarrollan su actividad en el campo de la Catálisis, donde la actividad de un material se estudia mediante la evaluación en reacciones test de la mejora del rendimiento, incremento de selectividad a un producto de interés, aumento en la velocidad de reacción, etc. Estos datos son, sin lugar a dudas, la información más relevante de un catalizador, y el conjunto de las técnicas tratadas en este libro se utilizan para explicar, interpretar y comprender a qué es debido el comportamiento catalítico de un material. Por este motivo, ambas ediciones incluyen un capítulo que introduce los aspectos más generales de la catálisis heterogénea, un campo de gran interés industrial donde se aplican una gran variedad de materiales. El capítulo de adquisición de datos, control y supervisión de equipos por ordenador será de gran ayuda para intentar comprender mejor el significado y la importancia de la señal analítica observada, cómo se produce, cómo se transmite y los pasos seguidos hasta llegar al valor, gráfico, recta, etc. que leemos en nuestro ordenador. Por último, en esta segunda edición se ha incorporado un capítulo que esboza algunos conceptos y aplicaciones de los Sistemas de Gestión de la Calidad en Laboratorios, como herramienta para facilitar la trazabilidad de las muestras y el control de equipos y documentación, que, todo ello, globalmente, repercutirá en la mejora de las medidas analíticas. Para alcanzar el objetivo marcado, en cada capítulo se incluye una exposición del fundamento teórico, instrumentación básica y los posibles accesorios, el manejo de los equipos, procedimientos de medida, aplicaciones, problemas y posibles soluciones durante el estudio de la muestra. La elaboración de cada capítulo ha estado a cargo de personal científico y técnico experto en las técnicas instrumentales tratadas con el fin de garantizar un planteamiento de los temas basado en la experiencia desarrollada. Los autores de cada capítulo de este libro, en su mayoría integrantes del Instituto de Catálisis y Petroleoquímica de la Agencia CSIC, han realizado un esfuerzo conjunto con el fin de facilitar al lector la comprensión de los principios en que se basa cada una de las técnicas tratadas, establecer los criterios para seleccionar
Prólogo
15
adecuadamente las técnicas más apropiadas en función de la información que se desea obtener, y valorar objetivamente las dificultades y limitaciones de cada método de medida. Otro de los objetivos de este libro es aportar criterios, desde el punto de vista práctico, que ayuden en la elección de una u otra técnica, su viabilidad en cada caso, la dificultad instrumental, la problemática de los procedimientos de medida, etc., de forma que se aborde el estudio de una manera realista con una programación adecuada de los experimentos para tratar de obtener la información deseada. En resumen, esta nueva edición no pretende realizar un tratamiento exhaustivo de cada uno de los temas, ya que esto sería objeto de libros más especializados, sino tratar concisa y rigurosamente los aspectos más relevantes y descubrir los instrumentos y los avances más recientes y mostrar algunas de sus aplicaciones. Las técnicas instrumentales utilizadas para la caracterización y el análisis de materiales están en continuo desarrollo, respondiendo a la necesidad de saber más acerca de su estructura, composición y comportamiento bajo condiciones simuladas, o permitir el control de las síntesis y mejorar las propiedades de estos materiales para usos específicos. Puesto que la obtención de información, tanto cualitativa como cuantitativa, es uno de los principales objetivos de las distintas áreas de la ciencia y la tecnología, muchos de los logros conseguidos en campos tan diversos como la química, bioquímica, física, geología, biología, ciencias de la salud, ciencias medioambientales e ingeniería han sido posibles gracias a estos continuos avances. M. Faraldos y C. Goberna
1. inTrOdUcción MiGuel a. Peña JiMénez Instituto de Catálisis y Petroleoquímica (CSIC)
1.1. ObjeTivOs Uno de los factores que más han contribuido a la mejora de la calidad de vida actual es el desarrollo de nuevos materiales que han revolucionado el mundo que nos rodea. Nuevos materiales entendidos en el sentido más amplio, desde el corazón sofisticado de los potentes ordenadores actuales, hasta los aditivos de las comidas precocinadas que han permitido un cambio radical en la industria alimentaria, pasando por las gafas ultraligeras cuyo peso apenas sentimos sobre nuestra nariz. Pero este avance tecnológico, llevado cada vez más al límite, tiene su contrapartida. Los materiales se fuerzan al máximo para proporcionarnos todas estas ventajas y queremos que no fallen. No queremos que nuestro ordenador, del que nos hemos hecho altamente dependientes, se nos cuelgue en el momento más inoportuno. No queremos que nuestras gafas se rompan, aunque las golpeemos repetidamente. Y sobre todo, no queremos que nuestros alimentos nos lleguen a envenenar por un uso inapropiado de los aditivos alimentarios. La inspección de todas estas características pasa por un análisis y caracterización de los materiales que permita un control adecuado de su calidad, para asegurarnos de que cumplen las propiedades deseadas, y que, al mismo tiempo, nos permita determinar las causas de por qué un determinado material es defectuoso, con el objetivo de mejorarlo y evitar que el problema se repita. En esta obra pretendemos recoger tanto el fundamento teórico como el aspecto práctico de diferentes técnicas avanzadas de análisis y caracterización de materiales, de manera que se pueda determinar, ante una muestra de un material concreto, qué información podemos obtener, cómo obtener esa información, y finalmente cómo usarla. Concretamente, son objetivos de este libro los siguientes: – Dar una visión general de diferentes técnicas de análisis y caracterización de materiales, cuál es su fundamento teórico y sus campos de aplicación. – Identificar qué información se quiere obtener de una muestra concreta y de qué medios disponemos para obtenerla. – Realizar un tratamiento adecuado de las muestras para que los resultados que se obtengan sean representativos y no se generen interpretaciones erróneas.
18
Técnicas de análisis y caracterización de materiales
– De todas las técnicas tratadas, proporcionar un fundamento teórico, pero igualmente hacer hincapié en las aplicaciones prácticas. – Mostrar cómo se interpretan los resultados, lo que, en algunos casos, requiere métodos muy elaborados. – Insistir en la importancia de estar al día de las novedades en los equipos y sus componentes a través de la información que proporcionan las casas comerciales. En este capítulo de introducción, se establecerán los conceptos de análisis y caracterización de materiales, se introducirá qué entendemos por técnicas avanzadas y métodos instrumentales, se definirán los parámetros de calidad en el análisis instrumental, se determinarán cuáles son las características generales de las diferentes técnicas tratadas en la obra y cuál es la relación entre ellas, y se describirán algunos conceptos básicos del tratamiento de muestras.
1.2. definición de TérMinOs El primer paso antes de iniciar el conocimiento de una materia es definir la materia que se pretende estudiar. Por ello, vamos a proceder a definir lo que entendemos por: – Análisis: es la distinción, y posible separación, de las partes de un todo hasta llegar a conocer sus principios o elementos. – Caracterización: es la determinación de los atributos peculiares de un material de modo que permita distinguirlo de los demás. Por lo tanto, el análisis pretende siempre un conocimiento más profundo de un determinado material, mientras que su caracterización es en general más limitada y puede llegar a ceñirse a uno solo de los atributos del material. Así, por ejemplo, el análisis de un material suele comprender la determinación de los diferentes átomos que forman parte de su composición, y su disposición espacial formando estructuras moleculares y/o fases cristalinas, mientras que su caracterización puede ser únicamente una medida de su acidez, de forma que permita distinguir dicho material de otros de acidez diferente. Para terminar de completar nuestras definiciones digamos que Material es un término que se refiere a la realidad primaria de la que están hechas las cosas. A lo largo de la obra se hablará igualmente de Muestra como fragmento disponible y representativo de esa realidad primaria. La amplitud de estas definiciones explica el que el estudio de la caracterización y análisis de materiales sea un campo extremadamente abierto, que es posible afrontar desde muy diversos puntos de vista y que, por lo tanto, ninguna obra unitaria puede cubrir en su totalidad. En esta obra, aunque se ha intentado ser lo más extenso posible, existe una decantación hacia el punto de vista de la ciencia de superficies, dada la formación de los autores en el campo de la catálisis. La ciencia que tradicionalmente se ha ocupado de las técnicas de análisis es la Química Analítica. Este conjunto de técnicas forma lo que se ha dado en llamar Métodos Clásicos de análisis, como se verá en la siguiente sección. La presente obra no
Introducción
19
describe tales métodos. Por otra parte, el uso de una serie de propiedades de la materia, de cuyo estudio se ocupa fundamentalmente la Química-Física, ha dado lugar a nuevas técnicas que han permitido sobre todo la caracterización de materiales, y en muchos casos su análisis. Son los llamados Métodos Instrumentales, y son de los que se ocupa este libro con la denominación de Técnicas Avanzadas. Hay que comentar sin embargo que, aunque el fundamento de estas técnicas se encuentra en la química-física, es la química analítica la que habitualmente desarrolla los métodos de análisis correspondientes, abarcando de esta manera tanto los métodos clásicos como los instrumentales. Tal y como ya se ha mencionado, las técnicas instrumentales son aplicables tanto a la caracterización como al análisis de materiales, y, en ellas, muchas caracterizaciones son tan completas que pueden considerarse un análisis. Por ello, a lo largo de esta obra, en general análisis y caracterización son considerados como sinónimos. La química analítica, cuyo objetivo es la determinación de la composición química de la materia, se puede dividir en: – Química Analítica Cualitativa, que proporciona información respecto a las especies atómicas o moleculares o los grupos funcionales que existen en la muestra; y – Química Analítica Cuantitativa, que proporciona información respecto a la cantidad relativa o absoluta de uno o varios de estos componentes. La realización de un análisis cuantitativo supone la realización previa de uno cualitativo, y al conjunto del análisis se le suele referir como «cuali-cuanti». Por otra parte, de la misma manera que hemos hecho para análisis, podemos definir también caracterización cualitativa y cuantitativa. Un tercer grupo es el análisis semi-cuantitativo, donde el interés estriba en comparar una serie de muestras y determinar únicamente en cuáles la cantidad de uno de los componentes es mayor y en cuáles es menor. Se trata de un análisis cuantitativo de baja precisión, pues no es necesario determinar la cantidad exacta sino solo su orden de magnitud con respecto a las demás muestras.
1.3. MéTOdOs clásicOs y MéTOdOs insTrUMenTales Con el fin de comprender mejor las características de los métodos instrumentales, vamos a describir a continuación en qué consisten de manera general los métodos clásicos de análisis. En todos ellos existe siempre una etapa previa de preparación, que se puede dividir en dos pasos: 1. Separación de componentes (Analitos). En todos los métodos clásicos y para la mayor parte de los análisis, esta etapa es imprescindible. Es necesario tener separados los componentes de la muestra que se pretenden analizar. Cada uno de ellos recibe el nombre de Analito. Para ello, los métodos usuales son los de precipitación, extracción y destilación.
20
Técnicas de análisis y caracterización de materiales
2. Formación de un producto apropiado. Este paso no es siempre necesario, depende del tipo de análisis que se desee efectuar y de las características físicas y químicas del analito. Consiste en la reacción del analito con un Reactivo específico para formar un Producto determinado. Una vez que se ha realizado esta etapa previa, el camino es diferente en función de que se desee un análisis cualitativo o cuantitativo. En el análisis cualitativo, se determina una Propiedad Física o Química específica del analito (o del producto si es que el analito no la posee). Esta propiedad puede ser el color, el punto de fusión o de ebullición, la solubilidad, el olor, la actividad óptica, el índice de refracción, o varias de estas propiedades simultáneamente si ello es posible. Por otra parte, el análisis cuantitativo puede ser de dos tipos: – Gravimétrico, en el que se determina directamente la masa de analito o de producto. En el caso que sea un producto el que se valora, es necesario que su separación sea cuantitativa (se produzca totalmente). – Volumétrico, en el que se determina el volumen de reactivo. Es necesario que la reacción entre analito y reactivo sea cuantitativa, esto es, que reaccione la totalidad del analito (también se denomina en este caso reacción estequiométrica). Como contrapunto a lo descrito sobre métodos clásicos, los métodos instrumentales se pueden dividir en dos grandes grupos. Por un lado están las técnicas cromatográficas de separación de alta eficacia (gases y líquidos) que pueden substituir al primer paso de separación de analitos de los métodos clásicos. Y por otro están las técnicas basadas en el estudio de otras propiedades físico-químicas de la materia, diferentes de las mencionadas en el análisis cualitativo mediante métodos clásicos. De todas estas propiedades, las que más destacan son la absorción, emisión, dispersión y difracción de radiación electromagnética o electrónica, que dan lugar a la mayor parte de las técnicas llamadas espectroscópicas. Pero hay una gran variedad de propiedades físico-químicas que son usadas en el análisis instrumental, como son la conductividad (eléctrica o térmica), el potencial de electrodo, la relación cargamasa, etc. Los métodos instrumentales presentan grandes ventajas respecto a los métodos clásicos. En primer lugar, y esta es sin duda la más importante, no precisan de una separación previa de analitos, ya que las propiedades estudiadas son muy específicas y se pueden medir para un analito sin interferencias del resto. Adicionalmente, el pretratamiento de la muestra antes de realizar el análisis suele ser muy sencillo o, en algunos casos, innecesario. Permiten habitualmente realizar de manera simultánea el análisis cualitativo y cuantitativo en la misma medida. Todo ello hace que el tiempo de análisis sea mucho menor. Además, en muchos de los métodos instrumentales no se destruye la muestra, lo cual es especialmente interesante si esta es valiosa. En general son más sensibles que los métodos clásicos (detectan concentraciones más bajas de analito) y también en general son más selectivos. Estas dos últimas ventajas no siempre se dan, y para determinados análisis los métodos clásicos son más sensibles y/o selectivos, y, en algunos casos, resultan in-
Introducción
21
substituibles. Por ello, a pesar de las abrumadoras ventajas del análisis instrumental, los métodos clásicos no deben ser olvidados al afrontar el análisis de una muestra. Aunque la cromatografía de alta eficacia ha sido aquí introducida como un método de separación, puede ser también considerada como un método de detección de analitos como veremos más adelante. En este caso, se debe complementar siempre con otra propiedad adicional del analito. Esta propiedad, que hace el papel de detector en cromatografía, puede ser la conductividad térmica, la conductividad eléctrica, la absorción de radiación electromagnética, el índice de refracción, la ionización, la captura de electrones o la relación carga-masa de iones.
1.4. cOMPOnenTes de lOs insTrUMenTOs analíTicOs Como se ha mencionado anteriormente, los métodos instrumentales se basan en la medida de una propiedad físico-química específica del analito de interés. Esta propiedad física medible es la que denominamos Señal Analítica, y es la base del análisis o caracterización de una técnica instrumental. En este sentido, podemos definir un instrumento de análisis como aquel capaz de generar una señal analítica para una determinada muestra, y convertirla en otro tipo de señal comprensible para un ser humano. Para llevar esto a cabo, los instrumentos de análisis constan de cinco componentes fundamentales (Figura 1.1):
Fuente
Señal Analítica
Estímulo
Convertidor
Muestra 1
2
3
4
5
Figura 1.1. Componentes de un instrumento de análisis.
1. Generación de la señal estímulo. Para que la muestra genere la señal analítica, es necesario estimularla con otro tipo de señal. El dispositivo que genera esta Señal Estímulo o excitación se denomina Fuente, y sus características son comunes a todos los equipos que usan el mismo tipo de señal estímulo. 2. Acondicionamiento de la señal estímulo. En muchas técnicas instrumentales, la señal estímulo que generan las fuentes disponibles no es adecuada para generar la señal analítica que requiere el análisis. En estos casos es necesario acondicionar dicha señal. Este acondicionamiento puede ser muy variado, e incluye elementos como los monocromadores (para la obtención de una radiación monocromática a partir de otra policromática), los interferómetros, los aceleradores de radiación electrónica o iónica, etc. 3. Generación de la señal analítica. Cuando la señal estímulo acondicionada interacciona con la muestra, se produce la señal analítica. El lugar donde se pro-
22
Técnicas de análisis y caracterización de materiales
duce esta interacción es el portamuestra. Este es un recipiente cuyas paredes deben cumplir únicamente la condición de dejar pasar tanto la señal estímulo como la analítica. Pero en algunos casos, como en los análisis in situ, que se comentarán más adelante, puede llegar a ser un elemento muy importante de la técnica instrumental, y de complicado diseño. 4. Acondicionamiento de la señal analítica. De la misma manera que ocurre con la fuente, la interacción de la señal estímulo con la muestra da lugar con mucha frecuencia a la producción de diferentes señales que enmascaran la señal analítica, por lo que es necesario un tratamiento adecuado para obtener únicamente la que es de interés para un determinado analito. 5. Conversión de la señal analítica. Una de las propiedades más importantes de los instrumentos de análisis es su capacidad de transformar la señal analítica en otro tipo de señal que un ser humano pueda comprender. Para ello son necesarios tres componentes: – Detector. También denominado transductor de entrada. Un transductor es un artefacto capaz de transformar una señal de un tipo en otra señal de un tipo diferente. En el caso de un detector, transforma la señal analítica en una señal eléctrica. Ambas señales están relacionadas entre sí mediante la función de transferencia. – Procesador de la señal eléctrica. La señal eléctrica que se genera en el detector suele no ser adecuada, habitualmente por su baja intensidad. Por ello, la amplificación es el procesado más usual. Pero también son frecuentes otros procesados como filtrado (para reducir el ruido), rectificado AC/DC, conversión intensidad-voltaje, integración, derivación, comparación con una señal de referencia, etc. – Dispositivo de lectura (Transductor de salida). Finalmente, la señal eléctrica procesada debe ser convertida en otro tipo de señal que el operador pueda leer e interpretar. Este dispositivo puede ser analógico, como un registrador o el movimiento de una aguja en una escala, o digital, que incluye pantallas numéricas y, sobre todo, la adquisición de datos mediante ordenadores. Este último sistema es el más usual entre los instrumentos de análisis modernos y constituye un elemento de gran importancia, por lo que el último capítulo de esta obra se dedica a este tema.
1.5. clasificación de las Técnicas insTrUMenTales De entre las diferentes posibles clasificaciones que se pueden hacer de las técnicas instrumentales de análisis, la de connotaciones más prácticas es la que las divide dependiendo del tipo de información que proporcionan. Este concepto se desarrollará detalladamente a lo largo del libro y se comentará de manera general más adelante en este capítulo. Pero en primer lugar vamos a ocuparnos de una clasificación desde un punto de vista más fundamental, aquella que tiene en cuenta la naturaleza de la señal estímulo y la señal analítica.
Introducción
23 Fotones
Electrones
Iones
P. Neutras
Calor
Campo
Figura 1.2. Diagrama de Propst.
Una forma de representar esquemáticamente las diferentes técnicas instrumentales en función de las señales estímulo y analítica es el llamado diagrama de Propst (Figura 1.2). En este diagrama, el punto central representa la muestra, las flechas que se dirigen hacia ella son las señales estímulo y las flechas que salen de la muestra son las señales analíticas. En las técnicas de análisis espectroscópico, que comprenden la mayor parte de las técnicas instrumentales, las señales pueden ser de 7 tipos diferentes: Fotones, Electrones, Iones, Partículas Neutras, Calor y Campo (eléctrico y magnético). Y estas señales pueden actuar tanto como señales estímulo como analíticas. Por ejemplo, una determinada técnica puede usar fotones como señal estímulo, irradiando la muestra con un haz electromagnético, y electrones como señal analítica, detectando los electrones que se generan en ella (efecto fotoeléctrico). En otra técnica diferente, los fotones pueden ser al mismo tiempo señal estímulo y analítica. Todo esto nos proporciona 36 posibles combinaciones y, por lo tanto, 36 diferentes técnicas instrumentales. Sin embargo, el número de técnicas instrumentales es muy superior. Esto es debido a que tanto la señal estímulo como la señal analítica pueden ser restringidas de una manera adicional, y cada restricción genera un nuevo tipo de técnica. Por ejemplo, seleccionando un determinado rango de energía de los fotones incidentes, estimularemos la muestra de manera diversa, dando lugar a técnicas diferentes. O midiendo una propiedad determinada de las partículas que proceden de la muestra (energía, ángulo de salida respecto a la radiación incidente, etc.) tendremos también técnicas diferentes. Igualmente, para una misma naturaleza de ambas señales, la relación que existe entre la señal estímulo y la señal analítica proporciona también información diferente: por ejemplo, la radiación electromagnética puede ser absorbida, dispersada, difractada, etc. Y en todos los casos los fotones actúan como estímulo y señal analítica, dando lugar a técnicas muy diferentes. A continuación se realizará una clasificación de las diferentes técnicas instrumentales tratadas en esta obra usando los diferentes criterios de clasificación mencionados.
24
Técnicas de análisis y caracterización de materiales
1.5.1. señal estímulo Una primera clasificación es según la naturaleza de la señal estímulo. En esta clasificación, las técnicas que pertenecen al mismo grupo suelen utilizar dispositivos comunes tanto en las fuentes como en el acondicionamiento de la señal estímulo, y los fundamentos teóricos de la interacción de la señal estímulo con la muestra suelen ser también los mismos. En este sentido, es posible realizar la siguiente clasificación de la señal estímulo: Radiación electromagnética (fotones). Las técnicas se agrupan a su vez, dentro de este apartado, en función de la energía de la radiación incidente. En las técnicas tratadas en este libro, se usan los siguientes rangos de energía: – Radiofrecuencia: Resonancia Magnética Nuclear (NMR)1 Resonancia de Espín Electrónico (EPR) – Infrarrojo: Espectroscopía2 Infrarroja con Transformada de Fourier (FTIR) Espectroscopía Raman – Ultravioleta-Visible: Espectroscopía Raman Espectroscopía de Absorción Atómica (AAS) Luminiscencia (Fluorescencia y Fosforescencia) Espectroscopía Ultravioleta-visible (Uv-vIS) – Rayos X: Estructura Fina de Absorción de Rayos X (EXAFS) Estructura del Borde de Absorción de Rayos X (XANES) Difracción de Rayos X (XRD) Espectroscopía Fotoelectrónica de Rayos X (XPS) Radiación electrónica (electrones). En este libro solo se incluyen las microscopías electrónicas para esta señal estímulo: – Microscopía Electrónica de Barrido (SEM) – Microscopía Electrónica de Transmisión (TEM) – Espectroscopías relacionadas (XEDS, EELS) Energía Térmica. Existen algunas diferencias fundamentales entre las técnicas incluidas en este grupo. En el caso del análisis térmico (TA), se estudian propiedades de la muestra que dependen de la temperatura. En las otras dos técnicas se usa la energía térmica para generar iones mediante un filamento incandescente (MS), o átomos excitados mediante un plasma (ICP-AES). – Análisis Térmico (TA: TGA, DTA, DSC) – Espectrometría de Masas (MS) – Espectroscopía de Emisión Atómica (ICP-AES) Señal Estímulo Compleja. Hemos agrupado aquí tres técnicas cuya señal estímulo es de difícil clasificación: 1
2
En este capítulo de introducción se han usado las abreviaturas inglesas más usuales como acrónimo para cada técnica. Para más detalles consultar el capítulo correspondiente a dicha técnica. Si bien la voz aceptada en el Diccionario de la Lengua Española es espectroscopia, sin tilde, los autores de la obra han optado por el término acentuado, de uso mayoritario en la materia.
Introducción
25
– Microscopía de Efecto Túnel (STM) – Microscopía de Fuerza Atómica (AFM) – Cromatografía de Gases (GC) y Líquidos (HPLC) – Isotermas de Adsorción – Actividad Catalítica En las técnicas cromatográficas, la muestra se somete a interacción con una fase que permanece fija, mientras que es empujada a través de ella mediante presión. En una isoterma de adsorción la muestra se pone en presencia de un gas que se adsorbe sobre su superficie. Y en las medidas de actividad catalítica la muestra se pone en contacto con reactivos cuya reactividad mutua se ve alterada por la presencia del material a caracterizar.
1.5.2. señal analítica En este caso, las técnicas agrupadas dentro de la misma categoría comparten características respecto al acondicionamiento de la señal emitida y los tipos de detectores usados. De la misma manera que con la señal estímulo, podemos clasificar las técnicas en los siguientes grupos: Radiación electromagnética (fotones). Aquí debemos distinguir las técnicas en función de la relación entre la señal analítica y la señal estímulo. De esta forma distinguimos: ABSORCIÓN DE RADIACIÓN: tanto la señal estímulo como la analítica son radiaciones electromagnéticas, y ambas tienen la misma energía o frecuencia. Solo se mide la cantidad de radiación que absorbe la muestra (disminución de la intensidad) – Radiofrecuencia: Resonancia Magnética Nuclear (NMR) Resonancia de Espín Electrónico (EPR) – Infrarrojo: Espectroscopía Infrarroja con Transformada de Fourier (FTIR) – Ultravioleta-Visible: Espectroscopía de Absorción Atómica (AAS) Espectroscopía Ultravioleta-visible (Uv-vIS) – Rayos X: Estructura Fina de Absorción de Rayos X (EXAFS) Estructura del Borde de Absorción de Rayos X (XANES) EMISIÓN DE RADIACIÓN: la muestra emite radiación electromagnética, pero esta es de diferente energía de la radiación de la señal estímulo o la señal estímulo es de naturaleza diferente. En este grupo están: – Luminiscencia (Fluorescencia y Fosforescencia). La muestra emite radiación ultravioleta-visible después de una combinación de excitación con fotones e intercambio energético entre moléculas excitadas. – Espectroscopía de Emisión Atómica (ICP-AES). La muestra emite radiación ultravioleta-visible específica después de una excitación térmica inespecífica de la muestra con un plasma.
26
Técnicas de análisis y caracterización de materiales
– Microscopía Electrónica Analítica (XEDS). La muestra emite rayos X debidos a la excitación mediante un haz de electrones. DISPERSIÓN DE RADIACIÓN: la muestra dispersa la radiación electromagnética que le llega como señal estímulo en todas las direcciones del espacio. – Espectroscopía Raman, la radiación dispersada puede ser Infrarroja, visible y Ultravioleta, y tiene una energía ligeramente diferente de la radiación incidente en valores discretos específicos de la muestra analizada. DIFRACCIÓN DE RADIACIÓN: se producen fenómenos de difracción de la radiación electromagnética incidente que es dispersada por la muestra. – Difracción de Rayos X (XRD) Radiación electrónica (electrones). De manera similar a como hemos hecho con los fotones, conviene diferenciar las técnicas en función de la relación entre señal estímulo y señal analítica: ABSORCIÓN DE RADIACIÓN: la señal estímulo es también un haz de electrones, el cual se absorbe de manera diferente en función del analito presente en la muestra. – Microscopía Electrónica de Transmisión (TEM) EMISIÓN DE RADIACIÓN: igualmente la muestra emite electrones, pero estos son de diferente energía de los incidentes o la señal estímulo es de naturaleza diferente. – Microscopía Electrónica de Barrido (SEM). La energía de los electrones emitidos es diferente de la de la señal estímulo. – Espectroscopía Fotoelectrónica de Rayos X (XPS). La señal estímulo son fotones de Rayos X, y la muestra emite electrones. EMISIÓN DE CAMPO: los electrones se emiten por acción de un campo eléctrico fuerte, ante un estímulo externo de diferentes características. – Microscopía de Efecto Túnel (STM) Fuerzas de repulsión atómicas – Microscopía de Fuerza Atómica (AFM) Relación carga-masa de iones de analito – Espectrometría de Masas (MS) Fuerza de adsorción – Cromatografía de Gases (GC) – Cromatografía de Líquidos (HPLC) Peso de muestra – Análisis Termogravimétrico (TGA) Flujo de energía – Calorimetría Diferencial de Barrido (DSC) Temperatura diferencial – Análisis Térmico Diferencial (DTA) Presión-Gas adsorbido – Isotermas de Adsorción Velocidad de reacción – Actividad Catalítica
Introducción
27
1.5.3. información obtenida Como se ha comentado anteriormente, las clasificaciones según la señal estímulo / señal analítica nos ayudan a relacionar una técnicas con otras desde el punto de vista de su fundamento. Sin embargo, desde el punto de vista práctico, es más útil clasificarlas según el tipo de información analítica que proporcionan, y en este sentido se insistirá especialmente a lo largo de cada uno de los capítulos. Aquí, con el fin de dar una idea general sobre esta aplicabilidad, se han clasificado las técnicas según la información obtenida sea sobre la Composición, la Estructura, la Textura o la Superficie de la muestra. Se ha dejado aparte a las Propiedades Catalíticas, que de alguna manera combinan las cuatro divisiones anteriores. Se observará en esta clasificación que algunas técnicas se encuentran en varios de los apartados. Esto es típico de técnicas de gran versatilidad, que proporcionan informaciones diversas, pero que habitualmente siempre requieren de otra técnica complementaria para completar la información obtenida.
1.5.3.1. Composición Las técnicas que nos proporcionan información sobre la composición del material analizan la naturaleza de las unidades básicas que lo componen. Fundamentalmente esta definición se refiere a dos unidades básicas: – Análisis Químico Elemental. Proporciona información sobre qué átomos y en qué proporciones forman parte de la muestra. Las principales técnicas usadas son la Espectroscopía de Absorción Atómica (AAS) y la Espectroscopía de Emisión Atómica (ICP-EAS). En algunas ocasiones es posible usar la Microscopía Electrónica Analítica (XEDS), que además proporciona información de composición a nivel local de unas pocas micras. En compuestos orgánicos es muy habitual también el Análisis Elemental C/H/N/S/O, no tratado en esta obra. – Contenido de Agua y Volátiles. Aunque a escala diferente de la composición atómica, la cantidad de agua y algún compuesto volátil específico que contenga la muestra puede ser considerado como un análisis de la composición de las unidades básicas, ya que, especialmente el agua, es un compuesto común en la mayoría de los materiales analizados. Técnicas usuales son las de Análisis Térmico (TA).
1.5.3.2. Estructura Estas son las técnicas que proporcionan información sobre la distribución en el espacio de los átomos o los iones presentes en la masa del material. Esta información puede dividirse asimismo en varios grupos: – Tamaño y Forma. Dan información microscópica sobre el tamaño y forma de las partículas que constituyen un material sólido. En este grupo se encuentran las Microscopías Electrónicas (SEM y TEM).
28
Técnicas de análisis y caracterización de materiales
– Fases Cristalinas. Proporcionan información de la distribución de átomos de una muestra sólida en el espacio de una forma repetitiva (cristalina). La técnica por excelencia para la determinación de fases cristalinas es la Difracción de Rayos X (XRD). El único inconveniente de esta técnica es que si la fase tiene una extensión inferior a unos 5 nm, no es posible detectarla. En este caso se puede recurrir a las espectroscopías vibracionales (FTIR y Raman), si es que las fases buscadas presentan bandas características, o a técnicas indirectas como la Microscopía Electrónica Analítica (SEM-EDAX), de la que podemos deducir qué fases son posibles a partir de una distribución no homogénea de átomos en una zona del sólido. En determinadas muestras es posible realizar microdifracción de electrones al aplicar TEM en áreas muy pequeñas que normalmente no darían difracción en XRD. El Análisis Térmico (TA) también puede proporcionar pistas a través de la detección de cambios de fase con la temperatura. – Estructuras Moleculares. Para la determinación de las estructuras de moléculas aisladas, la Espectrometría Masas (MS) es la técnica más potente. Combinada con la cromatografía, puede llegar a analizar de manera muy detallada muestras muy complejas. También son extraordinariamente útiles las espectroscopías vibracionales (FTIR y Raman), que permiten determinar grupos funcionales en moléculas. Estas técnicas, complementadas con la Resonancia Magnética Nuclear (NMR), permiten en la mayoría de los casos deducir la estructura completa de la molécula analizada. La Espectroscopía Ultravioletavisible (Uv-vIS) y la Luminiscencia proporcionan información sobre niveles electrónicos moleculares, que es necesaria en muchos casos para completar la información estructural obtenida por otras técnicas. En el caso de especies paramagnéticas, el EPR proporciona información sobre la configuración electrónica de los radicales y permite resolver, en presencia de estructura hiperfina, su estructura molecular. – Coordinación y Valencia. En este caso se analizan propiedades a nivel mucho más local de los átomos e iones del material, como son la coordinación (de qué otros átomos o iones está rodeado de manera más cercana) y la valencia (estado de oxidación). De nuevo, las técnicas vibracionales (FTIR y Raman), que son sensibles al tipo y fortaleza de los enlaces entre átomos, son útiles para determinar la forma en que estos se coordinan, así como su densidad electrónica. Las técnicas de análisis fino de la Absorción de Rayos X (EXAFS, XANES) proporcionan también información sobre la coordinación cercana de átomos. La Resonancia de Espín Electrónico (EPR) permite identificar especies paramagnéticas y, en consecuencia, distinguir entre determinados estados de oxidación de un mismo átomo; igualmente, proporciona información sobre la simetría de los centros paramagnéticos y, por tanto, sobre la coordinación de los mismos. Y la Resonancia Magnética Nuclear (NMR) es muy sensible a los acoplamientos entre núcleos atómicos similares que se encuentren cercanos. Finalmente, los cambios en los niveles electrónicos moleculares debidos a la variación del entorno de una molécula/catión por la presencia de otras moléculas/ligandos, son observables mediante la Espectroscopía Ultravioleta-visible (Uv-vIS).
Introducción
29
1.5.3.3. Textura Este conjunto de técnicas nos proporcionan información sobre la morfología de la superficie de las diferentes partículas de las que está formada una muestra sólida. Esta morfología se refleja en la distribución espacial de los huecos y poros, así como su cuantificación. La información textural comprende: – Tamaño y Forma. Es la misma información comentada en el apartado de información estructural, pero orientada ahora al análisis de la textura superficial. De nuevo, las técnicas usadas ahora son las Microscopías Electrónicas (SEM y TEM). Las Microscopías de Fuerza Atómica (AFM) de Efecto Túnel (STM) son especialmente sensibles a la estructura superficial a nivel cercano al atómico. – Superficie Específica. Esta es información cuantitativa sobre la superficie de la muestra sólida (m2/g) expuesta a un atmósfera exterior. Se obtiene mediante la medida de isotermas de Adsorción de moléculas que no reaccionan con la superficie (N2, Ar) excepto mediante interacción física, y aplicando posteriormente un modelo teórico de carácter muy general (BET). – Porosidad. A partir de las isotermas de adsorción mencionadas en el punto anterior, es posible también cuantificar el volumen total de poros abiertos del sólido, así como cuantificar su distribución de tamaños. Esta técnica valora microporos y mesoporos, esto es, poros de un diámetro equivalente de hasta 50 nm. Poros mayores (macroporos) requieren el uso de la porosimetría por intrusión de mercurio, no incluida en esta obra.
1.5.3.4. Superficie Este apartado también está limitado a muestras sólidas, y proporciona información de Composición y Estructura, pero limitada únicamente a la superficie externa. Debido a las características peculiares de la superficie con respecto a la masa del sólido, las técnicas analizan características muy específicas. – Hidroxilos y centros ácidos. La población de grupos –OH suele ser una característica muy importante de las superficies, ya que condiciona muchas veces su reactividad con otros compuestos líquidos o gaseosos. Las técnicas más apropiadas son la espectroscopías vibracionales (FTIR y Raman), así como la Resonancia Magnética Nuclear (NMR). También es posible valorarlos mediante el uso de moléculas que interaccionen específicamente con los grupos hidroxilo y que posteriormente se desorben y monitorizan mediante técnicas de Análisis Térmico (moléculas sonda). También los centros ácidos de la superficie diferentes de los hidroxilos (tipo Lewis) son importantes para valorar la reactividad de la superficie. De nuevo es posible analizar este tipo de centros mediante las espectroscopías vibracionales (FTIR, Raman) y Análisis Térmico (TA) usando en ambos casos moléculas sonda básicas que interaccionan con los centros ácidos superficiales. Esta información se puede complementar con la realización de isotermas de adsorción de ese mismo tipo de moléculas.
Técnicas de análisis y caracterización de materiales
30
– Centros Redox. Los centros susceptibles de actuar como centros superficiales oxidantes o reductores se valoran mediante análisis térmico en presencia de gases reductores (Reducción Térmica Programada, TPR) u oxidantes (Oxidación Térmica Programada, TPO). En esos casos hay que asegurarse mediante otras técnicas o con información adicional sobre la muestra (por ejemplo, si sabemos que el material es un catalizador metálico soportado) de que los centros están solo en la superficie, ya que estas técnicas de análisis térmico valoran la masa total del sólido. – Especies Adsorbidas. En general, debido a su exposición permanente al aire o una evolución concreta en condiciones especiales, la superficie del sólido puede tener adsorbidos una gran variedad de compuestos interaccionando de forma muy diversa. La valoración de estas especies se realiza mediante Análisis Térmico (TA), en muchas ocasiones acoplado con otras técnicas de detección como la Espectrometría de Masas (MS). – Estructura y Valencia. La técnica más potente en el análisis superficial de las tratadas en esta obra es la Espectroscopía Fotoelectrónica de Rayos X (XPS). Nos proporciona información sobre qué átomos están presentes en la superficie, en qué proporciones, su estado de oxidación, y, en algunas ocasiones, a qué átomos están unidos o qué compuestos forman. – Dispersión. Este dato es especialmente útil en el caso de catalizadores soportados. Es la medida de qué cantidad de una determinada especie atómica está expuesta en la superficie respecto a la cantidad total presente en el sólido. Si la totalidad de los átomos están expuestos, la dispersión es del 100%. Para cuantificarla, se utilizan la Espectroscopía Fotoelectrónica de Rayos X (XPS), la Microscopía Electrónica de Transmisión (TEM), y las Isotermas de Adsorción de moléculas sonda reactivas con la especie que se pretende valorar.
1.5.4. Otras características Se ha comentado en varias ocasiones en el apartado anterior la posibilidad de combinar diferentes técnicas con el fin de obtener una información determinada de la muestra. Esto suele ser cada vez más usual en los modernos instrumentos de análisis, de forma que en muchas ocasiones se puede adquirir un equipo único que combina dos técnicas diferentes. Uno de los casos más típicos es la combinación de la Espectrometría de Masas (MS), como potente herramienta de análisis estructural, con técnicas que proporcionan información de diferente tipo de la muestra, como la cromatografía o el análisis térmico. El desarrollo de portamuestras o celdas de tratamiento in situ es otra de las características de los equipos modernos. Este tipo de celdas no son meros portamuestras donde se genera la señal analítica a partir de la señal estímulo, sino que permiten someter la muestra a diferentes agentes externos (gases o líquidos que interaccionan con ella), y, al tiempo que se varía a temperatura y/o la presión, se realiza la caracterización del material. Nos permiten, de esta manera, analizar la evolución de la muestra bajo condiciones reales, y no limitándonos únicamente a proporcionar información estática de la muestra tal y como la recibimos en el laboratorio de análisis.
Introducción
31
1.5.5. acrónimos y siglas empleados En el análisis instrumental es frecuente referirse a las técnicas de análisis con un acrónimo o con una sigla y no con su nombre completo. El acrónimo suele formarse con las iniciales del nombre de la técnica en inglés, pero muchas veces se hace referencia a la traducción al castellano. Otras veces, la misma técnica recibe nombres diferentes, usándose diferentes acrónimos y siglas para referirse al mismo instrumento, o se usan acrónimos y siglas también diferentes para una modificación determinada de una técnica, o incluso en algunos casos se usan los comerciales. Todo ello hace que en muchos casos la terminología parezca una «sopa de letras» que solo los iniciados conocen en su totalidad. Para intentar aclarar al menos en parte esta falta de uniformidad, a continuación se da una lista de siglas y acrónimos, que no pretende ser una relación exhaustiva de todos los posibles, sino que se han incluido las diferentes técnicas instrumentales tratadas en esta obra, así como algunas otras relacionadas con ellas. También se ha incluido al final una serie de técnicas que usan haces de iones y átomos no descritas en este libro, así como otras técnicas no recogidas en los apartados anteriores. Las diferentes secciones se han ordenado siguiendo el orden aproximado en que se tratan en esta obra, y dentro de cada sección se han agrupado las técnicas relacionadas entre sí o que reciben diferentes nombres y/o diferentes siglas o acrónimos, y se han colocado en un segundo nivel las técnicas derivadas de la principal, variaciones de la misma y términos relacionados. Espectroscopías ultravioleta-visible, de luminiscencia y vibracionales Uv-vis Ultraviolet-Visible (Spectroscopy) fl Fluorescence Pl Photoluminescence Ple Photoluminescence Excitation ir Infrared (Spectroscopy) drifTs Diffuse Reflectance Infrared Fourier Transform Spectroscopy fTir Fourier Transform Infra-Red (Spectroscopy) nir Near Infrared Spectroscopy Gc-fTir Gas Chromatography - FTIR TGa-fTir Thermo Gravimetric Analysis - FTIR Pas Photoacoustic Spectroscopy aTr Attenuated Total Reflectance ra Reflection Absorption (Spectroscopy) iras Infrared Reflection Absorption Spectroscopy raman Raman Spectroscopy fT raman Fourier Transform Raman Spectroscopy rs Raman Scattering rrs Resonant Raman Scattering cars Coherent Anti-Stokes Raman Scattering sers Surface Enhanced Raman Spectroscopy Análisis térmico Ta Thermal Analysis TGa Thermo Gravimetric Analysis
32
Técnicas de análisis y caracterización de materiales
TGa-fTir Thermo Gravimetric Analysis - Fourier Transform Infra-Red Spectroscopy TGa-Ms Thermo Gravimetric Analysis - Mass Spectrometry dTa Differential Thermal Analysis TGa-dTa Thermo Gravimetric Analysis - Differential Thermal Analysis dsc Differential Scanning Calorimetry TMa Thermo Mechanical Analysis dMa Dynamic Mechanical Analysis TPr Thermal Programmed Reduction TPO Thermal Programmed Oxidation Espectrometría de masas Ms Mass Spectrometry fTMs Fourier Transform Mass Spectrometry Gc-Ms Gas Chromatography - Mass Spectrometry lc-Ms Liquid Chromatography - Mass Spectrometry TGa-Ms Thermo Gravimetric Analysis - Mass Spectrometry icP-Ms Inductively Coupled Plasma - Mass Spectrometry Gd Glow Discharge Gdaas Glow Discharge Atomic Absorption Spectroscopy Gdaes Glow Discharge Atomic Emission Spectroscopy GdMs Glow Discharge Mass Spectrometry liMs Laser lonization Mass Spectrometry laMMa Laser Microprobe Mass Analysis laMMs Laser Microprobe Mass Spectrometry liMa Laser Ionization Mass Analysis nrMPi Nonresonant Multi-Photon lonization sali Surface Analysis by Laser Ionization PisiMs Post-Ionization Secondary Ion Mass Spectrometry MPnrPi Multi-Photon Nonresonant Post Ionization MPrPi Multiphoton Resonant Post Ionization rPi Resonant Post Ionization MPi Multi-Photon Ionization sPi Single-Photon Ionization siris Sputter-Initiated Resonance Ionization Spectroscopy saris Surface Analysis by Resonant Ionization Spectroscopy TOfMs Time-of-Flight Mass Spectrometer snMs Sputtered Neutrals Mass Spectrometry, Secondary Neutrals Mass Spectrometry snMsd Direct Bombardment Electron Gas SNMS ssMs Spark Source Mass Spectrometry spark source Spark Source Mass Spectrometry Análisis químico elemental aas Atomic Absorption Spectroscopy vPd-aas Vapor Phase Decomposition - Atomic Absorption Spectroscopy Gfaa Graphite Furnace Atomic Absorption
Introducción
33
faa Flame Atomic Absorption icP-Ms Inductively Coupled Plasma - Mass Spectrometry icP Inductively Coupled Plasma la-icP-Ms Laser Ablation ICP-MS icP-Optical Inductively Coupled Plasma Optical Emission icP-Oes Inductively Coupled Plasma - Optical Emission Spectroscopy icP-aes Inductively Coupled Plasma - Atomic Emission Spectroscopy Microscopías electrónicas e instrumentos de haces de electrones TeM Transmission Electron Microscopy cTeM Conventional Transmission Electron Microscopy sTeM Scanning Transmission Electron Microscopy HrTeM High Resolution Transmission Electron Microscopy saed Selected Area Electron Diffraction aeM Analytical Electron Microscopy cbed Convergent Beam Electron Diffraction lTeM Lorentz Transmission Electron Microscopy seM Scanning Electron Microscopy, Scanning Electron Microprobe, Secondary Electron Microscopy seMPa Secondary Electron Microscopy with Polarization Analysis seM-edaX Scanning Electron Microscopy - Energy Dispersive X-Ray Spectroscopy cl Cathodluminescence sPM Scanning Probe Microscopy sTM Scanning Tunneling Microscopy sfM Scanning Force Microscopy afM Atomic Force Microscopy ePMa Electron Probe Microanalysis eMPa Electron Microprobe Analysis eds Energy Dispersive (X-Ray) Spectroscopy edX Energy Dispersive X-Ray Spectroscopy Xeds X-Ray Energy Dispersive Spectroscopy edaX Company selling EDX equipment eels Electron Energy Loss Spectroscopy Hreels High-Resolution Electron Energy - Loss Spectroscopy reels Reflected Electron Energy - Loss Spectroscopy reelM Reflection Electron Energy - Loss Microscopy leels Low-Energy Electron - Loss Spectroscopy Peels Parallel (Detection) Electron Energy - Loss Spectroscopy eXelfs Extended Energy - Loss Fine Structure eelfs Electron Energy - Loss Fine Structure ceels Core Electron Energy - Loss Spectroscopy veels Valence Electron Energy - Loss Spectroscopy leed Low - Energy Electron Diffraction rHeed Reflected High Energy Electron Diffraction sreM Scanning Reflection Electron Microscopy
34
Técnicas de análisis y caracterización de materiales
Espectroscopías de emisión de electrones XPs X-Ray Photoelectron Spectroscopy, X-Ray Photoemission Spectroscopy esca Electron Spectroscopy for Chemical Analysis XPd X-Ray Photoelectron Diffraction PHd Photoelectron Diffraction aes Auger Electron Spectroscopy saM Scanning Auger Microscopy saM Scanning Auger Microprobe aed Auger Electron Diffraction adaM Angular Distribution Auger Microscopy sTM Scanning Tunneling Microscopy UPs Ultraviolet Photoelectron Spectroscopy, Ultraviolet Photoemission Spectroscopy MPs Molecular Photoelectron Spectroscopy Instrumentos de rayos X Xrd X-RayDiffraction GiXd Grazing Incidence X-Ray Diffraction GiXrd Grazing Incidence X-Ray Diffraction eXafs Extended X- Ray Absorption Fine Structure seXafs Surface Extended X-Ray Absorption Fine Structure neXafs Near-Edge X-Ray Absorption Fine Structure Xanes X-RayAbsorption Near-Edge Structure Xafs X-RayAbsorption Fine Structure neXafs Near Edge X-Ray Absorption Fine Structure Xanes X-RayAbsorption Near Edge Structure PiXe Particle Induced X-Ray Emission HlXe Hydrogen/Helium Induced X-ray Emission Wds Wavelength Dispersive (X-Ray) Spectroscopy WdX Wavelength Dispersive X-Ray Spectroscopy Xas X-Ray Absorption Spectroscopy Xrf X-Ray Fluorescence Xfs X-Ray Fluorescence Spectroscopy TXrf Total Reflection X-Ray Fluorescence TrXfr Total Reflection X-Ray Fluorescence vPd-TXrf Vapor Phase Decomposition Total X-Ray Fluorescence Espectroscopías de radiofrecuencias ePr Electron Paramagnetic Resonance esr Electron Spin Resonance nMr Nuclear Magnetic Resonance fTnMr Fourier Transform Nuclear Magnetic Resonance Mas Magic-Angle Spinning Cromatografías Gc Gas Chromatography Gc-Ms Gas Chromatography - Mass Spectrometry cG-fTir Gas Chromatography - Fourier Transform Infra-Red Spectroscopy lc Liquid Chromatography
Introducción
35
HPlc High Performance Liquid Chromatography lc-Ms Liquid Chromatography-Mass Spectrometry sfc Supercritical Fluid Chromatography ic Ion Chromatography ice Ion Exchange Chromatography Tlc Thin Layer Chromatography Instrumentos de haces de iones y átomos ais Atom Inelastic Scattering iss Ion Scattering Spectrometry leis Low - Energy Ion Scattering rce Resonance Charge Exchange Meiss Medium-Energy Ion Scattering Spectrometry Meis Medium-Energy Ion Scattering rbs Rutherford Backscattering Spectrometry Heis High - Energy Ion Scattering ers Elastic Recoil Spectrometry Hfs Hydrogen Forward Scattering Hrs Hydrogen Recoil Spectrometry frs Forward Recoil Spectrometry erda Elastic Recoil Detection Analysis erd Elastic Recoil Detection Prd Particle Recoil Detection siMs Secondary Ion Mass Spectrometry dynamic siMs Dynamic Secondary Ion Mass Spectroscopy static siMs Static Secondary Ion Mass Spectrometry Q-siMs SIMS using a Quadruple Mass Spectrometer Magnetic siMs SIMS using a Magnetic Sector Mass Spectroscopy TOf-siMs SIMS using Time-of-Flight Mass Spectrometer PisiMs Post Ionization SIMS Otras técnicas instrumentales afM Atomic Force Microscopy ce Capillary Electrophoresis cGe Capillary Gel Electrophoresis cv Cyclic Voltammetry asv Anodic Stripping Voltammetry dPv Differential Pulse Voltammetry fia Flow Injection Analysis QcM Quartz Crystal Microbalance
1.6. caracTerísTicas de lOs insTrUMenTOs analíTicOs En la sección anterior hemos repasado, de manera muy general, la información que podemos obtener de los instrumentos de análisis y qué técnicas usar para lograrla. Pero, adicionalmente, tenemos que conocer otros detalles importantes respecto a
Técnicas de análisis y caracterización de materiales
36
la muestra. Todos estos detalles definen de manera precisa el problema analítico que tenemos entre manos, y son básicamente los siguientes: 1. 2. 3. 4.
Qué precisión y exactitud requiere el análisis de la muestra. De qué orden de magnitud es la concentración del analito a determinar. De qué cantidad de muestra disponemos. Cuáles son las posibles interferencias con otros analitos presentes en la muestra (aunque no sean de nuestro interés). 5. Cuáles son las propiedades físico-químicas de la muestra (disolución, líquido, sólido). 6. Cuál es el número de muestras a analizar. Los tres primeros puntos determinarán la sensibilidad de la técnica a usar. Las posibles interferencias condicionarán su selectividad. Dependiendo de las propiedades de la muestra, necesitaremos realizar un pretratamiento adecuado o este será innecesario. Y por último, si el número de muestras es suficientemente elevado, podrá ser interesante desarrollar un método de análisis optimizado para el tipo de muestras que estemos tratando. Junto a estos parámetros cuantificables, tenemos otros criterios más cualitativos que nos pueden hacer decidirnos por una técnica u otra, si es que tenemos abierta esta posibilidad, como son: – – – – –
El tiempo disponible para realizar el análisis El coste por muestra El coste y disponibilidad del instrumento analítico La facilidad y comodidad de manejo La habilidad del operador
Aunque estos últimos criterios nos ayuden a tomar la decisión final sobre qué instrumento usar, existen determinadas características de funcionamiento de los instrumentos analíticos fácilmente cuantificables y que nos van a indicar si un determinado equipo es adecuado para el análisis de nuestra muestra o no. Estas características son la precisión, la exactitud, la sensibilidad, el límite de detección, el rango dinámico, la selectividad y la resolución, que pasamos a continuación a definir brevemente.
1.6.1. Precisión La precisión de un instrumento se define como el grado de concordancia mutua entre datos obtenidos de la misma forma. Es un reflejo del error aleatorio que se produce en la medida, y por lo tanto su cuantificación se realiza mediante cálculo estadístico aplicado a una serie de mediciones supuestamente iguales. El valor usual que cuantifica la precisión de un instrumento analítico es la desviación estándar absoluta:3
3
Debido a que el número de medidas (N) que se realizan al cuantificar la precisión es relativamente pequeño, la definición matemática usada es realmente la de la desviación estándar de muestreo.
Introducción
37 N
s=
∑ ( Xi
− X )2
i
[1.1]
N −1
En donde Xi es el valor obtenido en una medida concreta, X es la media aritmética de las diferentes medidas realizadas, y N es el número de medidas realizadas. También son habituales la varianza, que es el cuadrado de la desviación, s2, así como la desviación estándar relativa, que es el cociente entre le desviación estándar y la media aritmética s/X .
1.6.2. exactitud La exactitud es el grado de desviación entre el valor medio obtenido en una serie de medidas X y el valor verdadero de la medida XT. La exactitud es un reflejo del error sistemático absoluto de la medida, y es justamente este el parámetro que la cuantifica, definido como e = X − XT
[1.2]
También es posible usar el error sistemático relativo, que sería el cociente entre el error sistemático absoluto y el valor verdadero e/XT . La cuantificación de la exactitud requiere conocer XT , y para ello se utilizan materiales estándar de referencia, también conocidos por patrones, que son materiales con un valor conocido de concentración de analito y que son medidos en el equipo a calibrar. En dicha medida conviene reducir el error aleatorio para aumentar la precisión, por lo que conviene que el número de medidas con patrones sea del orden de 20 o 30 cuando la precisión es baja. Este calibrado, del que se hablará más extensamente en la siguiente sección, elimina en la mayor medida de lo posible el error sistemático del instrumento y maximiza su exactitud. Precisión
Exactitud Baja exactitud: alto error sistemático
Figura 1.3. Precisión y exactitud.
Baja precisión: alta desviación estándar
38
Técnicas de análisis y caracterización de materiales
Una visualización útil de los conceptos de precisión y exactitud se recoge en la Figura 1.3. En ella, las medidas realizadas en el instrumento se representan como lanzamientos contra una diana, cuyo centro representa el valor verdadero XT . La diana de la izquierda corresponde a un instrumento de gran precisión, pero de una baja exactitud (no está calibrado), siendo el error sistemático absoluto el módulo del segmento de separación entre el centro de la diana y el valor medio de los lanzamientos. La diana de la derecha corresponde a un instrumento de buena exactitud, ya que el valor medio de los lanzamiento se corresponde con el valor verdadero (está bien calibrado), pero de baja precisión (lo cual suele ser una característica intrínseca del equipo y no puede ser cambiado), y el módulo del segmento representado sería la desviación estándar.
1.6.3. sensibilidad La sensibilidad de un instrumento representa su capacidad de discriminar entre pequeñas cantidades de analito. Cuantifica cómo cambia la señal analítica frente a un cambio pequeño de la concentración de analito. La sensibilidad es un parámetro que depende simultáneamente de la precisión y la exactitud. Un equipo de baja precisión no puede ser muy sensible, ya que un cambio de la concentración de analito producirá un cambio de la señal analítica más pequeño que la desviación estándar, que será alta. La dependencia con la exactitud viene dada a través de la curva de calibrado. Como veremos más adelante, una forma corriente de realizar un calibrado que maximice la exactitud es mediante un ajuste lineal entre la señal analítica (S ) y la concentración de analito (c): S = m ⋅ c + Sbl
[1.3]
La pendiente de esta recta, m, se define como la sensibilidad de calibrado, y es independiente de la concentración de analito. Sin embargo tiene la desventaja de que no tiene en cuenta la precisión del instrumento, y si se utiliza como característica para comparar dos equipos diferentes, se tiene que tener presente que esta comparación solo es posible si ambos tienen la misma precisión. Para evitar este problema, se define la sensibilidad analítica como el cociente entre la sensibilidad de calibrado y la desviación estándar, γ = m/s. Este es un valor adimensional que además es independiente de la amplificación de la señal eléctrica producida en el detector, y que en algunos instrumentos se puede variar. Su único inconveniente es que, al igual que la desviación estándar s, depende de la concentración.
1.6.4. límite de detección El límite de detección es la concentración mínima de analito que es posible detectar con el instrumento, de forma que nos permita concluir que el analito está presente en la muestra. Para cuantificarlo, debemos introducir aquí el concepto de señal del blanco. Esta es la señal analítica que produce una muestra donde la concentración de analito es cero, y coincide con el valor de ordenadas a concentración cero de la recta de calibrado mencionada en el punto anterior, Sbl. En muchos equipos, esta
Introducción
39
señal es nula, pero en otros muchos tiene un valor discreto que hay que determinar como valor medio de varias medidas de muestras sin analito. Usando un calibrado lineal, tendremos que la concentración de analito del límite de detección será: cDL =
S DL − S bl
[1.4]
m SDL= Sbl +3sbl sbl
Sbl
Figura 1.4. Límite de detección.
El límite de detección depende fundamentalmente de la desviación estándar de la señal del blanco (sbl). En la Figura 1.4 se representa la oscilación que podrían tener diferentes medidas de la señal del blanco con respecto al valor medio. Se puede definir límite de detección con una confianza estadística del 90% como el que corresponde a una señal analítica cuya diferencia con el valor medio de la señal del blanco es de tres veces dicha desviación estándar: S DL = S bl + 3 sbl
[1.5]
1.6.5. rango dinámico El rango dinámico es el intervalo de concentraciones en el que es aplicable la recta de calibrado con el fin de realizar análisis cuantitativo. En la Figura 1.5 se representa una curva de calibrado (señal analítica frente a concentración de analito). Se toma un umbral de concentración mayor que el límite de detección, denominado límite de cuantificación, para tener una confianza estadística mayor en dicha cuantificación, y que corresponde a una señal analítica cuya diferencia con la señal del blanco es 10 veces la desviación estándar: S LQ = S bl + 10 sbl
[1.6]
El límite superior es el límite de linealidad, y es el punto en que la curva de calibrado deja de tener un comportamiento lineal.
1.6.6. selectividad La selectividad es el grado de ausencia de interferencias debidas a la presencia de otros analitos diferentes del analito de interés. Es difícil dar un criterio de cuantifica-
Técnicas de análisis y caracterización de materiales
40
ción general de la selectividad, ya que suele ser muy específica de la técnica utilizada, en algunas ocasiones del tipo de instrumento utilizado dentro de las posibles modificaciones que admite una técnica, o incluso puede depender del analito problema y su relación con una determinada interferencia.
1.6.7. resolución La resolución de un equipo es la capacidad para distinguir entre dos señales analíticas frente a un cambio de la señal estímulo. La definición de este parámetro no es siempre posible en todas las técnicas instrumentales, pero es bastante general sobre todo en las técnicas espectroscópicas. Su cuantificación es el valor absoluto de la señal estímulo que permite distinguir entre dos señales analíticas. En otras ocasiones es el valor absoluto de un parámetro relacionado con la señal estímulo. Un ejemplo típico de resolución es la mínima separación entre dos señales diferentes de espectroscopía infrarroja expresada en numero de ondas (cm-1) de la señal estímulo, o entre dos señales de análisis térmico expresada en temperatura (grados). S = m . c + Sbl LL
Señal
m LQ CDL Rango dinámico Sbl C= 0
Concentración
Figura 1.5. Curva de calibrado.
1.7. calibradO de las Técnicas insTrUMenTales Al definir exactitud, hemos comentado que la forma de maximizarla es realizando un calibrado de la técnica instrumental que permita minimizar el error sistemático. El calibrado suele ser la parte más importante cuando se pone a punto un método analítico en un determinado instrumento. Consiste en la obtención de la relación entre la señal analítica y la concentración de analito. Existen esencialmente tres métodos de calibrado, que deben ser adaptados a cada instrumento en función de las cir-
Introducción
41
cunstancias que concurran en un determinado análisis. A continuación se describen brevemente las características de cada uno de estos tres métodos, así como las claves fundamentales para llevarlos a cabo.
1.7.1. curva de calibrado Es el método más habitual por su facilidad de manejo. Consiste en utilizar varios patrones de concentración conocida de analito, y en medir la señal analítica correspondiente a cada uno de ellos. También se debe medir la señal analítica de un patrón que no contenga el analito. Este producirá la señal del blanco que, como se ha comentado anteriormente, no es nula en muchas ocasiones. Idealmente, este patrón para la señal del blanco debe contener todos los componentes de la muestra real menos el analito a cuantificar. Esto es lo que se denomina matriz de la muestra. La curva de calibrado, también denominada curva de trabajo o curva analítica, es la representación de la señal analítica frente a la concentración de analito de los patrones utilizados (Figura 1.5). Su expresión matemática, que es la que a efectos prácticos se utiliza en al análisis cuantitativo, es el ajuste por mínimos cuadrados a una recta: S = m ⋅ c + Sbl
[1.7]
Es posible también usar curvas de calibrado no lineales, pero esto requiere un número de puntos de calibrado mucho mayor y suelen estar sometidas a menor exactitud, por lo que siempre se prefiere el ajuste lineal para la cuantificación (uso del rango dinámico). La sencillez del método se basa en que solo es preciso realizarla una vez, al poner a punto el método de análisis, y posteriormente se utiliza directamente la ecuación de calibrado para cuantificar una muestra desconocida, sobre la que solo sería necesario realizar una única medida si el instrumento es lo suficientemente preciso. Sin embargo, tiene el inconveniente de que, para que la exactitud sea adecuada, es necesario conocer sin error la concentración de analito en los patrones, y, sobre todo, la matriz de las muestras reales debe ser adecuadamente reproducida en los patrones y en el blanco si existen efectos importantes de esa matriz sobre la medida, esto es, si matrices diferentes dan lugar a valores diferentes de la señal analítica para la misma concentración de analito.
1.7.2. Método de adiciones estándar Este método es útil cuando hay que cuantificar muestras en las que el efecto matriz es muy importante, donde, como se acaba de mencionar, el método de la curva de calibrado no es adecuado. En este método, se adicionan diferentes concentraciones conocidas de analito a partes alícuotas de la muestra, y se mide la señal analítica tanto en la muestra original como en la muestra con diferentes adiciones (en el caso de disponer de una cantidad limitada de muestra se van realizando adiciones sucesivas al tiempo que se realizan las medidas). De esta manera, la única diferencia entre
Técnicas de análisis y caracterización de materiales
42
las diferentes medidas es la concentración de analito, ya que la matriz es la misma: la que proporciona la propia muestra. Muestra VX
Analito
cX
VS
cS
VT Constante
Variable
Figura 1.6. Método de las adiciones estándar.
Para poder ilustrar cómo se cuantifica la concentración de analito de una muestra usando este método, vamos a usar una muestra líquida cuya concentración de analito a determinar es cx, y de la que vamos a tomar siempre una parte alícuota de volumen Vx (Figura 1.6). Estos volúmenes Vx los vamos a mezclar con volúmenes variables Vs de un patrón de concentración conocida cs, y los vamos a enrasar a un volumen final VT . De esta manera, tendremos diferentes disoluciones de volumen VT que dan diferentes señales analíticas S para diferentes valores de Vs añadidos. Suponiendo que la señal analítica es proporcional a la concentración, tendremos que: S =
k ⋅ cs ⋅ Vs VT
+
k ⋅ cx ⋅ Vx
[1.8]
VT
donde k es la constante de proporcionalidad. En esta expresión, las únicas variables para los diferentes volúmenes VT preparados son S y Vs, por lo que la ecuación anterior se puede expresar como: [1.9]
S = m ⋅ Vs + b donde: m=
k ⋅ cs VT
;
b=
k ⋅ cx ⋅ Vx VT
y la relación entre ambos valores es: k ⋅ cx ⋅ Vx VT c ⋅ Vx b = = x m k ⋅ cs VT cs
⇒ cx =
b ⋅ cs m ⋅ Vx
[1.10]
Introducción
43
Señal
S = m . VS + b
m
b
VS = 0
(VS)0
VS
Figura 1.7. Curva de calibrado para el método de las adiciones estándar.
Si realizamos un ajuste lineal de la señal analítica frente a los diferentes volúmenes Vs añadidos (Figura 1.7), obtenemos los valores de b y m, y dado que cs y Vx son conocidos, podemos calcular el valor de cx mediante esta última ecuación. Este valor se puede también obtener del punto de corte de la recta del ajuste con el eje de ordenadas (S= 0, (Vs)o): S =
k ⋅ cs ⋅ ( Vs )o VT
+
k ⋅ cx ⋅ Vx VT
=0
cx = −
⇒
( Vs )o ⋅ cs Vx
[1.11]
El inconveniente principal del método de las adiciones estándar es el elevado número de medidas que hay que realizar para una determinada muestra (se requiere realizar una «curva de calibrado» como la de la Figura 1.7 para cada muestra). Si se requiere un análisis más rápido, con menor exactitud, se puede recurrir a realizar una sola adición, de manera que se mide la señal de la muestra (S1) y la señal de la muestra con solo una adición (S2), cuyos valores serán: S1 =
k ⋅ cx ⋅ Vx VT
;
S2 =
k ⋅ cs ⋅ Vs VT
+
k ⋅ cx ⋅ Vx VT
[1.12]
Y el valor de la concentración de analito en la muestra será: cx =
S1 ⋅ cs ⋅ Vs ( S2 − S1 ) ⋅ Vx
[1.13]
1.7.3. Método del patrón interno Existen dos versiones diferentes de este método. En una de ellas, se adiciona una cantidad constante de un determinado analito (que actúa como patrón interno) a to-
Técnicas de análisis y caracterización de materiales
44
das las muestras de una serie determinada que se van a analizar. En este caso debemos asegurarnos de que el analito adicionado no está presente en ninguna de las muestras a analizar. En la otra versión del método, en todas las muestras a analizar existe un componente mayoritario (que es ahora el patrón interno) cuya concentración al ser muy alta con respecto al resto de los analitos que se quieren analizar, puede considerarse constante. En este método, el calibrado es la medida de la relación de las señales analíticas del analito y el patrón interno: R=
Sanalito S patrón interno
[1.14]
Esta relación se mide en diferentes patrones que contengan diferentes concentraciones de analito, pero siempre la misma concentración de patrón interno (bien porque se añada o bien porque es el componente mayoritario). De aquí se obtiene, al igual que al usar la curva de calibrado, un ajuste lineal de R frente a la concentración de analito. Este método permite compensar los errores aleatorios de la medida que afectan a la precisión, así como errores sistemáticos en la preparación de la muestra que afectan a la exactitud. Esto es debido a que las señales analíticas del patrón interno y del analito fluctúan de la misma manera frente a las fluctuaciones aleatorias del método y del instrumento de medida, y, por lo tanto, la relación entre ambas señales permanecerá constante frente a dichas fluctuaciones. Por otra parte, si las señales analíticas del analito y el patrón interno son afectadas de igual manera debido a la influencia del efecto matriz de la muestra, su relación será independiente de dicho efecto. Y, finalmente, los errores producidos en la preparación de la muestra por pérdidas de la misma durante su manipulación no se reflejarán en la cuantificación, pues tanto todos los analitos presentes en la muestra así como el patrón interno se perderán en las mismas proporciones. A pesar de estas importantes ventajas, la utilización de este método presenta algunas dificultades, ya que no es sencillo conseguir un patrón interno adecuado. Este tiene que ser un componente cuya señal analítica sea similar a la del analito, para que la relación entre ambas sea apropiada. Pero debe ser suficientemente diferente para que el análisis pueda diferenciar claramente entre la señal de analito y la de patrón interno. Si se trata de un patrón interno añadido a la muestra, debemos asegurarnos que este va a ser un componente que nunca estará presente en la serie de muestras a analizar. Y si se trata de un patrón interno que es componente mayoritario, hay que tener la seguridad de que siempre estará presente en una concentración suficientemente alta como para que pueda ser considerada constante.
1.8. ManiPUlación de MUesTras En esta sección, vamos a considerar solo algunos conceptos muy generales sobre cómo debe realizarse tanto la toma de muestras representativas como su posterior manipulación en el laboratorio. No se pretende recoger aquí toda la información re-
Introducción
45
ferente a este tema, sino solo servir de recordatorio sobre qué consideraciones se deben realizar antes de llevar a cabo este importante paso del análisis y caracterización de materiales. Aunque pueda resultar evidente, no está nunca de más recordar lo imprescindible que resulta un cuaderno de laboratorio para cualquier actividad que se realice, y el análisis de muestras es una de ellas. En este sentido, cada muestra debería tener una entrada independiente dentro de nuestro cuaderno, y de cada una de las muestras deberíamos anotar al menos la siguiente información: 1. Número de muestra. Cada muestra debe tener un número asignado que nos sirva de referencia para una identificación rápida y no sometida a la ambigüedad de un nombre, que podría repetirse en varias muestras similares o dar lugar a confusión si los nombres son similares. Este número puede ser también una combinación sencilla de caracteres alfanuméricos (por ejemplo, A32), y la forma más sencilla de asignarlo es de manera consecutiva según se reciban las muestras. 2. Nombre de la muestra. De manera adicional al número de muestra, siempre merece la pena tener un nombre corto que identifique la muestra, pues muchas veces es mejor referirse a ella usando este nombre, y es un mecanismo de seguridad adicional en caso de una asignación incorrecta del número de muestra. El sistema apropiado es usar un nombre que se refiera a alguna de las características propias de la muestra, y que la distinga de otras similares, pero intentando que sea corto y no muy complicado. 3. Origen y referencia cruzada. Aquí se incluye información sobre el lugar del que proviene la muestra, así como todos los datos adicionales que se conozcan de ella. También se deben incluir su nombre y número de referencia previamente asignados en origen, que en principio no coincidirán con el nombre y número de referencia de nuestro cuaderno. 4. Fecha y hora de recepción. Estos datos permiten en muchas ocasiones aclarar problemas que surgen con la identificación de las muestras, que en ocasiones no se generan en nuestro laboratorio sino en el lugar de donde provienen. 5. Peso y volumen de muestra. Conviene registrar un valor aproximado de estos parámetros en el cuaderno, pues es una identificación más de una característica de la muestra, en caso de confusión con otras, y porque nos limitará también las técnicas que podemos usar. 6. Información requerida. Aquí se define el problema analítico que nos plantea la muestra, esto es, qué información especifica es necesario obtener de ella, y en qué condiciones, en el caso de que se requiera un pretratamiento concreto o un tratamiento in situ. 7. Técnicas a aplicar. En función de la información que se requiera y/o de la solicitud que nos hagan, se seleccionarán las técnicas apropiadas. De una manera similar a lo que hemos hecho para la muestra, registraremos los datos correspondientes a la aplicación de cada una de las técnicas sobre dicha muestra, anotando al menos los siguientes datos:
Técnicas de análisis y caracterización de materiales
46
– Fecha y hora de realización del análisis – Identificación de la información obtenida (nombre y localización del fichero de datos, por ejemplo, si se utiliza una computadora como dispositivo de lectura) – Datos específicos de la técnica (tipo de instrumento, parámetros del equipo y del análisis, etc.) – Observaciones vamos ahora a mencionar tres aspectos de interés general en la manipulación de muestras y a describir algunas de sus características generales.
1.8.1. Muestreo Antes de disponer de la muestra en el laboratorio, es necesario tomar una muestra del mundo real. En general, esta muestra será de un volumen o peso muy inferior al sistema que pretendemos analizar, pero deberá ser representativa, esto es, las propiedades de la muestra deben ser las mismas que las del sistema del que la hemos obtenido. La obtención de esta muestra representativa se realiza mediante muestreo de sistema real, y este muestreo puede ser muy complejo en algunos casos, llegando a requerir diferentes formas de realizarlo, lo que significa diferentes muestras con sus correspondientes análisis, como puede ser el caso de un río, que al menos requiere tres muestras (orilla, superficie y profundidad), o una mina, que puede generar multitud de muestras dependiendo de qué tipo de caracterización necesitemos. En muchos muestreos es conveniente recurrir a la legislación correspondiente al respecto, ya que esta es la que va a establecer si nuestros análisis tendrán validez legal o no, lo que en muchos casos es el objetivo de un análisis de materiales. El objetivo final es obtener una muestra que es la que se utilizará en el laboratorio. Esta muestra puede ser básicamente de cuatro tipos diferentes: 1. Gaseosa. Los recipientes habituales para las muestras gaseosas son tubos metálicos o de vidrio de entre 0,2 y 1,0 litros de capacidad. En algunos casos es posible utilizar bolsas de plástico de capacidad similar, siempre que tengamos la seguridad de que ninguno de los analitos es permeable al plástico utilizado, y de que el plástico utilizado no permea humedad ambiente, o que esta no afecta a la muestra. En algunos casos, en los que se quiere muestrear un gas a nivel de trazas en una determinada atmósfera, se puede hacer pasar esa atmósfera por un material adsorbente selectivo que acumule el analito gaseoso de interés, para después desorberlo durante el análisis. 2. Líquida. Se pueden usar recipientes tradicionales con una sola boca con tapa, o recipientes más complicados, con apertura automática y diferentes entradas si se requiere un muestreo complicado y a distancia. Hay que tener en cuenta aquí que podemos obtener muestras no homogéneas, en las que haya presente fase acuosa y fase orgánica, y tendremos que decidir, en función de las necesidades, si son analizadas simultáneamente o por separado. Igualmente, si tenemos sólidos en suspensión, el filtrado previo al análisis y el lavado del sólido, si es necesario, tendrán que ser considerados.
Introducción
47
3. Sólida. El muestreo de un sólido es el que suele generar muestras más heterogéneas. Aquí sí que se debe considerar cuidadosamente si el análisis se realiza sobre una parte de la muestra o sobre otra, en el caso de que sean perfectamente distinguibles. El conocimiento exacto del sistema que pretendemos analizar nos permitirá decidir esta cuestión. En otros casos, será necesaria una homogeneización de la muestra. En cualquiera de los dos casos, un tratamiento previo común a casi todas las técnicas es la reducción del tamaño de partícula hasta obtener un tamaño de partícula manejable en el laboratorio. 4. Metales. Aunque se trata de muestras sólidas, se han separado aquí los metales y en general los sólidos compactos que se ven afectados de manera importante por una exposición prolongada a las condiciones ambientales, como es la corrosión en el caso de los metales. En este tipo de sólidos, hay una diferencia importante entre analizar la superficie macroscópica de la muestra (del orden del milímetro) y analizar su interior, por lo que en este caso siempre deberemos separar la muestra en dos: superficie exterior y masa interior. Dado que con el tiempo la muestra del interior se transformará de nuevo en superficie exterior, la separación se realiza siempre inmediatamente antes del análisis correspondiente o aislando convenientemente la muestra.
1.8.2. Muestra instrumental representativa En el punto anterior se han comentado algunos aspectos sobre cómo obtener una muestra representativa del sistema que vamos a analizar. Pero aun así, la muestra que llega al laboratorio puede tener un volumen muy superior al que una técnica instrumental requiere. Por ello, es habitual reducir el volumen de la muestra. En muestras de gran homogeneidad esto no es ningún problema, pues cualquier porción que se tome de ella será una parte alícuota. Pero en muestras más heterogéneas, lo cual se suele restringir a muestras sólidas, habrá que recurrir a métodos más sistemáticos, como el amontonamiento y división en cuartos, o al uso de tolvas de división. Una vez reducido el volumen de muestra sólida, es posible que el tamaño de partícula no sea aún el adecuado para la técnica instrumental, y necesitemos reducirlo. En la mayor parte de las técnicas el tamaño adecuado es del orden de micras. En este segundo proceso de reducción y selección del tamaño de partícula es donde comienzan a aparecer los errores experimentales de manipulación de muestra. Estos errores son debidos fundamentalmente a la pérdida de analito, ya que puede darse el caso de que uno de los analitos se pierda más que otros, y a la contaminación, es decir, a la introducción de analitos que originalmente no estaban en la muestra o al aumento de la concentración de uno de los analitos presentes. Los sistemas de reducción del tamaño de partícula son variados, aunque los más usados en el laboratorio son los morteros y los molinos de bolas. Para evitar la pérdida de analito o la contaminación, hay que seleccionar adecuadamente el material para el mortero o para las bolas del molino en función de la naturaleza de la muestra. Los materiales más habituales son ágata, alúmina, carburo de silicio, carburo de boro, porcelana y acero.
Técnicas de análisis y caracterización de materiales
48
Después de cada pulverizado se realiza un tamizado de la muestra, el cual va seleccionando el tamaño de partícula dentro de un determinado rango o por debajo de un determinado valor máximo.
1.8.3. Humedad Debido a la exposición al ambiente, la práctica totalidad de las muestras sólidas analizadas en este planeta, excepto los metales nobles, materiales hidrófobos y similares, contienen agua en mayor o menor medida. Por esta razón, el análisis del agua suele ser un capítulo aparte del análisis de materiales, y como ya se comentó en la sección 5.3.1, puede ser considerada en este sentido como uno de los componentes básicos del material. El agua puede estar presente en la muestra en diferentes formas: 1. Agua absorbida. Es la que se encuentra en el interior de los poros abiertos de la muestra sólida, y que no interacciona con la superficie, de manera similar al agua en el interior de una esponja. 2. Agua adsorbida. Es la que se encuentra interaccionando con la superficie de la muestra. Dependiendo de la naturaleza de dicha superficie, esta interacción será más o menos intensa. 3. Agua ocluida. Es la que se encuentra en el interior de los poros cerrados del material, y que por lo tanto no tiene posibilidad de escapar si no se forma una grieta que abra el poro. Es agua que queda en el interior del sólido cuando este se forma o sintetiza. 4. Agua de cristalización. Es el agua que forma parte de la estructura cristalina del sólido, y cuya pérdida produce, por tanto, un cambio importante en su estructura. Forma parte de su fórmula estructural, por ejemplo CaC2O4 · 2H2O, pero la molécula de agua constituye una unidad separada. 5. Agua de constitución. Esta es la que se forma en la descomposición de determinados sólidos, sin que se encuentre previamente de una forma diferenciada, como es el caso, por ejemplo, del hidróxido de calcio: Ca(OH)2 → CaO + H2O. Aquí, las diferentes formas de agua se han ordenado de forma creciente según su estabilidad, esto es, es más fácil eliminar del sólido el agua absorbida que el agua adsorbida y así sucesivamente. Ya se comentó que una forma útil de caracterizar el contenido de agua es el análisis térmico, por lo que este sería también el orden en que el agua sería eliminada al aumentar la temperatura. En muchas ocasiones, no solo conviene analizar el agua, sino también hay que eliminarla antes de proceder con otro tipo de análisis. En estos casos se recurre al secado de la muestra, en las condiciones que hayamos determinado en el análisis térmico, y que se puede realizar de diversas formas: – Estufa de temperatura controlada, con la precaución de que a la temperatura de secado no estemos eliminando componentes de la muestra diferentes del agua.
Introducción
49
– Desecador, en que la muestra se pone en contacto en la misma cámara con materiales muy hidrofílicos que eliminan el agua selectivamente a temperatura ambiente. – Secado de líquidos orgánicos, que se puede realizar por destilación en presencia de agentes desecantes que eviten la formación de azeótropos con el agua. – Métodos especiales, como la liofilización, las membranas de intercambio, los hornos de microondas, etc. En otros casos necesitaremos utilizar sistemas de control de humedad, que mantienen una humedad constante en caso de que nos interese que la muestra permanezca con su humedad original.
bibliOGrafía 1. SkooG, Douglas A.; Holler, F. james; NieMan, Timothy A. Principles of Instrumental Analysis, 5.ª ed., Saunders College Publishing, 1998. 2. SkooG, Douglas A.; Leary, james j. Análisis Instrumental, 4.ª ed., McGrawHill, 1994. 3. Brundle, C. Richard; Evans, Charles A., jr.; Wilson, Shaun (eds.), Encyclopedia of Materials Characterization, Butterworth-Heinemann, 1992. 4. Dean, john A. Analytical Chemistry Handbook, McGraw-Hill, 1995. 5. Coyne, Lelia M.; McKeever, Stephen W. S.; Blake, David F. Spectroscopic Characterization of Minerals and Their Surfaces, American Chemical Society, 1990. 6. Delannay, Francis (ed.). Characterization of Heterogeneous Catalysts, Mercel Dekker, INC., 1984. 7. Anderson, Robert B.; Dawson, Peter T. (eds.). Experimental Methods in Catalytic Research. Academic Press, 1976. 8. Fierro, j. L. G. Spectroscopic Characterization of Heterogeneous Catalysts. Studies in Surface Science and Catalysis, vol. 57, Elsevier, 1990.
2. esPecTrOscOPía UlTraviOleTa-visible (Uv-vis) María del Mar alonso lóPez Instituto de Ciencias de la Construcción Eduardo Torroja (CSIC)
2.1. inTrOdUcción La materia y las radiaciones electromagnéticas pueden interaccionar entre sí con un intercambio de energía. La espectroscopía es considerada como la ciencia que estudia el comportamiento de la materia frente a la radiación electromagnética. Podemos clasificar las espectroscopías atendiendo a diversos criterios: la naturaleza de los materiales implicados: atómica, molecular...; la zona espectral: Uv-vIS, IR, Microondas...; la naturaleza de las transiciones: electrónica de enlace, vibracional, de espín nuclear...; por la interacción entre materia y energía: de absorción, de reflexión, de emisión…; por el paso de la energía de la materia al campo electromagnético o viceversa: de emisión, absorción... Hoy en día se consideran no solo las radiaciones electromagnéticas, sino también, por ejemplo, la radiación con iones (espectroscopía de masas), con electrones (espectroscopía de electrones), o con ondas de sonido (acústica).
2.1.1. la radiación electromagnética La radiación electromagnética es una forma de energía radiante que posee naturaleza doble: a) Como función de onda, formada por un componente eléctrico y otro magnético, con oscilaciones sinusoidales en planos perpendiculares entre sí, y perpendiculares a la dirección de propagación de la onda. Las propiedades de onda están relacionadas con la velocidad de la luz por: c=λ·n
[2.1]
n=c/λ
[2.2]
de donde se deduce que
donde c es la velocidad de la luz, λ es la longitud de onda y n la frecuencia.
Técnicas de análisis y caracterización de materiales
52
Se considera la longitud de onda, como la distancia entre dos puntos en fase en ondas adyacentes, medida a lo largo de la línea de propagación, y la frecuencia, como el número de ondas que pasan por un determinado punto en la unidad de tiempo. La longitud de onda λ se suele expresar en micras (m), milimicras (mm), ángstrom (Å) o nanómetros (nm). 1 m = 1 000 mm = 1 000 nm = 10 000 Å = 10–4 cm La frecuencia se expresa en s–1 o en hertz, que corresponde a un ciclo por segundo. b) Como partícula energética o fotones, cuya energía es: E=h·n
[2.3]
donde h es la constante de Planck. Sustituyendo por la expresión de la frecuencia, n = c / λ, resulta E = h (c / λ)
[2.4]
E=h·c·n
[2.5]
y de aquí
donde n es el número de onda por centímetro y se expresa en cm–1 n=1/λ
[2.6]
De esto se deduce, que cuanto mayor es la longitud de onda, menor es la frecuencia y menor la energía asociada a esa onda.
Campo eléctrico Y
Longitud de onda
X
Campo magnético Z Tiempo o distancia
Figura 2.1. Onda electromagnética.
Denominamos espectro electromagnético al conjunto de todas las longitudes de onda de la radiación electromagnética. Las regiones del espectro electromagnético en orden creciente de longitud de onda y decreciente de energía son: rayos cósmicos, rayos g, rayos X, ultravioleta, visible (Uv-vIS), infrarrojo (IR), microondas y radio.
Espectroscopía ultravioleta-visible (UV-VIS)
53
La relación de la energía con la frecuencia permite comprender que la energía de los fotones aumenta con la frecuencia y decrece con la longitud de onda. Por esto, los efectos de los diferentes tipos de radiación sobre la materia se explican en función de la energía de sus fotones. La radiación Uv-vIS produce efecto sobre los electrones de enlace. Las energías son del orden de 1 a 25 ev. La zona del espectro electromagnético Uv-vIS se divide a su vez en: – La región del vIS. Comprende longitudes de onda de 400 a 900 nm. – La región del Uv cercano. Comprende de 190 a 400 nm – La región del Uv de vacío. Comprende de 10 a 190 nm. Azul
Verde
Amarillo
Naranja
UV cercano
Visible Infrarrojo Microondas Radioondas
Espín de los electrones (RSE) y de los núcleos (RMN) en un campo magnético
UV lejano
Vibración y rotación de moléculas
Rayos X
Aumento de
Electrones de enlace
Rayos
Electrones internos
Rayos cósmicos
Nuclear
Aumento de energía
Rojo
Rotación de moléculas
Violeta
Figura 2.2. Regiones del espectro electromagnético y tipos de transiciones asociadas.
2.2. TeOría de la esPecTrOscOPía Uv-vis Cuando un material transparente (ya sea un sólido, un líquido o un gas) es irradiado con una radiación electromagnética, parte de la energía es absorbida por los átomos y moléculas del material, que como consecuencia pasan de un estado de más baja energía o fundamental y0 a un estado de mayor energía o excitado y1. Para que se produzca esta absorción, la energía de los fotones excitantes hn debe ser igual a la diferencia de energía entre el estado fundamental y algún estado excitado del material transparente. Es decir: DE = E (y1) – E (y0) = h · n
[2.7]
Por lo tanto, en un haz policromático, solo parte de la radiación es absorbida, y el resto, es transmitida. Los fotones de energía diferente producen distintos efectos en
Técnicas de análisis y caracterización de materiales
54
la materia; la absorción en las diferentes regiones del espectro electromagnético produce diferentes transiciones energéticas. Dado que parte de la energía hn de una frecuencia determinada se absorbe, la intensidad de la radiación disminuye, lo que sirve a efectos prácticos para la identificación o cuantificación de compuestos. El sistema puede volver al estado basal por conversión de la energía de excitación en calor, por reemisión de radiación fluorescente o fosforescente, o por la producción de una reacción fotoquímica. La energía total de una molécula se puede considerar como la suma de cuatro componentes: Etotal = Eelectrónica + Evibracional + Erotacional + Ecinética
[2.8]
Si prescindimos de la energía asociada a la traslación (energía cinética), la energía total estará dada por: DEtotal = DEelectrónica + DEvibracional + DErotacional
[2.9]
El componente rotacional implica energías menores que el componente vibracional, que a su vez implica energías mucho más bajas que el componente electrónico. Para un mismo estado electrónico existen un estado vibratorio fundamental y varios excitados, y para cada estado vibracional, existen un estado rotatorio fundamental y varios excitados. Las radiaciones de microondas o del IR cercano, producen transiciones en los estados de rotación; las radiaciones comprendidas dentro de la región del infrarrojo, con energías más elevadas que las anteriores, producen cambios en los estados de vibración; la radiación Uv-vIS debido a sus altas energías producen transiciones electrónicas, además de cambios vibracionales y rotacionales. Por ello, dada la gran cantidad de subniveles implicados con energías tan próximas, el espectro de absorción Uv-vIS da como resultado una banda ancha y no una banda aguda como cabría esperar. E2 V3 V2
Energía
V1 E1
V0 V3 V2
E0
R2 R3 R1
V1 V0
Figura 2.3. Estados electrónicos, vibracionales y rotacionales de una molécula poliatómica.
Espectroscopía ultravioleta-visible (UV-VIS)
55
Utilizando espectrofotómetros de alta resolución, y trabajando con líquidos y disoluciones, cuando se analiza el vapor de ciertas moléculas orgánicas, o se utilizan ciertos disolventes orgánicos es posible apreciar la estructura fina de ciertas moléculas, debido sobre todo a la pérdida de estructuras vibratorias y rotatorias. Una banda de absorción tiene dos características principales: – La posición del máximo de absorción, designado por λmax, que corresponde a la longitud de onda responsable de la transición. – La intensidad de la absorción, que depende de la diferencia de energía entre los dos estados y de la probabilidad de la transición. El espectro de absorción ultravioleta-visible de un compuesto se debe por lo general a tres tipos de transiciones: – Transiciones producidas por electrones p, s y n. – Transiciones producidas por electrones d y f. – Transiciones producidas por transferencia de carga.
2.2.1. Orbitales moleculares y transiciones electrónicas con electrones s, p y n Cuando dos átomos, con sus respectivos orbitales atómicos equivalentes en valor energético, se unen para formar una molécula, se forman dos orbitales moleculares: uno enlazante o de baja energía y otro antienlazante (*) o de más alta energía por cada tipo de orbital atómico implicado. Los electrones situados en orbitales antienlazantes hacen decrecer la estabilidad de la molécula. Existen tres tipos de orbitales implicados en la absorción: – Orbitales moleculares s. Asociados a enlaces sencillos, con una distribución de carga simétrica alrededor del eje de enlace. – Orbitales moleculares p. Formado por la superposición paralela de orbitales atómicos p, y por lo tanto asociado a un doble o un triple enlace con una distribución de carga a lo largo del eje de enlace. – Orbitales atómicos no enlazantes n. Correspondientes a electrones que no participan en la formación de orbitales moleculares. Basándonos en los tipos de orbitales moleculares implicados, podemos clasificar los distintos tipos de transiciones electrónicas: – Transiciones N→v. Desde un orbital enlazante del estado fundamental hasta un orbital de energía superior. Comprende las transiciones s→s* y p→p*. La interacción entre electrones s y p no se considera. Las transiciones s→s* suponen un gran salto energético y por lo tanto se dan en la región del ultravioleta de vacío. Las transiciones p→p* requieren menos energía y por lo general se registran en la zona del ultravioleta, produciéndose en moléculas que contienen dobles o triples enlaces o anillos aromáticos.
Técnicas de análisis y caracterización de materiales
56
– Transiciones N→Q. Desde un orbital no enlazante hasta otro de energía superior. Son más débiles que las transiciones N→v. Comprende las transiciones n→s* y n→p*. Las transiciones n→s* se producen en ultravioleta lejano y a veces en el cercano. Suelen presentarse en moléculas saturadas que contienen átomos con pares de electrones sin compartir. Los máximos de absorción se desplazan a longitudes de onda más cortas (más energía) en presencia de disolventes polares como agua o etanol. Las transiciones n→p* requieren menos energía que las n→s* y por lo tanto ocurren a longitudes de onda mayores. Se producen en las moléculas en las que un heteroátomo con electrones no compartidos está unido por un enlace múltiple a otros átomos. Estas transiciones están prohibidas y sus intensidades, por tanto, son muy inferiores a las correspondientes para n→s* y p→p*. – Transiciones N→R. Desde un orbital en el estado fundamental hasta un estado de energía próximo al nivel de ionización de la molécula. Estas transiciones se muestran como una progresión de bandas (serie de Rydberg) que termina en ionización. Rydberg
Energía
Antienlazante *
N Q n
Antienlazante *
N Q n
V
No enlazante n
N *
N R N V *
N R
Enlazante Enlazante
Figura 2.4. Transiciones electrónicas posibles en una molécula.
En general, las especies químicas de este grupo comprenden moléculas e iones orgánicos, así como varios aniones inorgánicos. Los compuestos orgánicos absorben radiación de este tipo pues contienen normalmente electrones de valencia que pueden ser excitados a niveles más altos. Las energías de excitación asociadas a enlaces sencillos son altas y se limitan a la región del UV de vacío, donde hay dificultades experimentales. La mayor parte de las aplicaciones en estudios de química (sobre todo orgánica), comprenden tanto las transiciones n→p* como las p→p* en la región entre 200-700 nm. Ambas transiciones requieren un grupo funcional insaturado para proporcionar los orbitales p (es decir, un cromóforo), que son grupos con uno o varios enlaces covalentemente insaturados que contienen electrones de valencia con energías de excitación relativamente bajas. Existen tres tipos de cromóforos simples: – Enlaces múltiples entre dos átomos que no poseen electrones sin compartir: C=C. – Enlace múltiple entre dos átomos con pares electrónicos sin compartir: C=O. – Anillos aromáticos: el benceno.
Espectroscopía ultravioleta-visible (UV-VIS)
57
El valor de Absmax varía de un cromóforo a otro y depende de la diferencia de electronegatividades de los elementos del doble enlace y de la facilidad de formación del mismo. La presencia de cromóforos conjugados produce el desplazamiento de la absorción a longitudes de onda mayores debido a que los electrones son desplazados por el efecto de conjugación cuyo efecto es reducir el nivel de energía de p* y darle menos carácter de antienlace. Por otra parte, existen ciertos grupos funcionales que, aunque no producen color y no absorben en el Uv, pueden incrementar el poder colorante de un cromóforo (aumentar la intensidad de la banda) y producir desplazamientos hacia longitudes de onda más larga (menos energéticas). Estos grupos se denominan auxocromos, y suelen ser heteroátomos con un par electrónico no enlazante. La sustitución en los compuestos, los cambios estructurales, la polaridad, disolventes, radicales adyacentes... pueden producir cambios en la intensidad y en la posición de los máximos de absorción (Figura 2.5). Hipsocrómico Hipsocrómico
Absorbancia Absorbancia
Absorbancia Absorbancia
Batocrómico Batocrómico
Longitud de onda Longitud de onda
Longitud de onda Longitud de onda Hipocrómico Hipocrómico
Absorbancia Absorbancia
Absorbancia Absorbancia
Hipercrómico Hipercrómico
Longitud de onda Longitud de onda
Longitud de onda Longitud de onda
Figura 2.5. Tipos de desplazamientos en los máximos de absorción de una molécula.
Técnicas de análisis y caracterización de materiales
58
– Los cambios hacia longitudes de onda mayores se denominan desplazamientos batocrómicos o hacia el rojo. Por ejemplo, los máximos de absorción de las transiciones p→p* sufren desplazamiento batocrómico por efecto de la polaridad del disolvente. – Los desplazamientos a longitudes de onda menores se denominan hipsocrómicos o hacia el azul. Por ejemplo, los máximos de absorción de las transiciones n→p* son desplazados a longitudes de onda menores, al aumentar la polaridad del disolvente. – Si se produce un incremento de la señal, se denomina desplazamiento hipercrómico. – Si lo que sucede es una disminución de la intensidad, se conoce como desplazamiento hipocrómico.
2.2.2. Transiciones producidas por electrones d y f Los espectros de los iones y complejos de la mayor parte de los metales de transición, así como de las series de los lantánidos y actínidos, se caracterizan por una o varias bandas en las regiones del infrarrojo cercano, visible y ultravioleta del espectro. En el caso de los lantánidos y los actínidos, la transición se produce por electrones f (4f y 5f) y para los metales de transición por electrones d (3d y 4d).
2.2.2.1. Metales de transición Los metales de transición forman una gran cantidad de compuestos en los que la capa externa d no está totalmente llena. Los colores de estos compuestos están producidos precisamente por transiciones d-d, cuyos coeficientes de extinción molar suelen ser bajos, y por lo tanto, las bandas no son muy intensas, pero están muy influidas por los factores químicos del entorno. Podemos considerar a estos complejos como formados por un ión central positivo, rodeado por una serie de ligandos, que suelen ser aniones monoatómicos o poliatómicos (Cl–, OH–, CN–) o moléculas dipolares neutras, con uno o más pares de electrones solitarios (H2O, CO NH3) con el polo negativo orientado hacia el ión positivo central. La estructura de estos complejos suele ser muy simétrica, octaédrica, tetraédrica o cuadrada plana, aunque la disposición octaédrica suele ser la más común. Se utilizan dos teorías para explicar la interacción entre los ligandos y el átomo central: – La teoría del campo cristalino: considera a los ligandos como cargas puntuales negativas, y la interacción supone una repulsión electrostática entre los electrones del átomo central y las cargas de los ligandos. – La teoría de orbitales moleculares: los orbitales correspondientes a pares solitarios de los ligandos se combinan y dan lugar a orbitales enlazantes y antienlazantes.
Espectroscopía ultravioleta-visible (UV-VIS)
59
Ambas teorías, aunque de distinta manera, predicen en último término el mismo cuadro de niveles energéticos de los orbitales d. La reunión de ambas teorías se denomina Teoría del campo de ligando. Los ligandos más comunes en orden creciente de fuerzas son: I– < Br – < Cl– < F– < OH– < C2O42– < H2O < SCN– < NH3 < etilendiamina < < o-fenantrolina < NO2– < CN– La absorción de radiación supone el paso de un electrón de un orbital d de baja energía a uno mayor. Dado que las diferencias de energías aumentan al aumentar el campo, los máximos de absorción de estos complejos se desplazarán hacia longitudes de onda más cortas. Así por ejemplo, la longitud de onda máxima para el Cr(III) cambia de 736 nm con un ligando 6Cl– a 573 nm con 6H2O, a 456 con 3etilendiamina y a 380 nm con 6CN–.
2.2.2.2. Lantánidos y actínidos Se presenta en las series de los lantánidos y los actínidos, también llamados elementos de transición interna. La absorción se produce como consecuencia del paso de un electrón de un nivel inferior de energía correspondiente a un orbital 4f en el caso de los lantánidos y 5f para los actínidos, a otro de mayor energía. Dado que la transición se produce en orbitales internos, que están protegidos de influencias externas por orbitales de números cuánticos superiores, la absorción no resultará casi afectada por el tipo de ligando asociado al ión metálico. Los picos resultantes son generalmente estrechos y bien resueltos y se presentan tanto en la región ultravioleta como en la visible del espectro.
2.2.3. Transiciones producidas por transferencia de carga Los espectros de transferencia de carga se presentan muy frecuentemente, sobre todo en la región ultravioleta. Muchos complejos de metales de transición presentan absorción de este tipo, pero con coeficientes de extinción mucho más altos que los correspondientes a transiciones d-d. Constituye el tipo más importante de absorción por especies inorgánicas con fines analíticos en los denominados complejos de transferencia de carga, aunque también existen compuestos orgánicos que forman complejos de este tipo. Suelen carecer de estructura sobre todo en disolución ya que pueden existir muchas configuraciones diferentes en equilibrio debido a las pequeñas energías de enlace de los complejos. Las transiciones producidas por transferencia de carga son de alta probabilidad, y por lo tanto los coeficientes de absortividad molar son muy grandes (emax @ 104-105). Debido a ello, estos complejos constituyen un medio muy sensible para determinar las especies absorbentes. Por lo general, la intensidad de color del complejo se debe a una transferencia de carga y resulta muy útil en la determinación de trazas de metales. Se produce por la absorción de un fotón por un complejo débil formado entre un dador electrónico (D) y un aceptor (A) acompañado por la transferencia de un electrón de (D) a (A).
Técnicas de análisis y caracterización de materiales
60
El complejo se estabiliza por la interacción entre el estado fundamental (D,A) y un estado excitado (D+A–). Es decir, uno de sus componentes debe actuar como donador de electrones y el otro como aceptor, y por lo tanto podía considerarse como un proceso interno de oxido-reducción. En general se debe a dos tipos particulares de transición: – Paso de un electrón del orbital s del ligando a un orbital desocupado asociado con el ión metálico. – Paso de un electrón del orbital p del ligando a un orbital desocupado asociado con el ión metálico. Es decir, generalmente el ión metálico se reduce y el ligando se oxida, aunque puede darse el fenómeno opuesto cuando metales en un estado de oxidación bajo se combinan con ligandos de gran afinidad electrónica. Al aumentar la tendencia a la transferencia electrónica, se requiere menos energía radiante y consecuentemente los complejos absorben en longitudes de onda menores.
2.2.4. intensidad de las bandas de absorción y reglas de selección En espectroscopía Uv-vIS, las diferentes bandas se caracterizan por sus propiedades de posición, intensidad, forma y estructura fina. La posición de las bandas depende de la naturaleza de la transición electrónica. La intensidad de las bandas de absorción depende de la probabilidad de dicha transición y del tamaño de la molécula absorbente. La superficie de la banda (S) es la medida real de la intensidad de absorción, que permanece invariable frente al coeficiente de extinción molar, que puede resultar afectado por el disolvente o por la fase en la que se encuentre. S =
∫ εd ν
[2.10]
La superficie de la banda S está relacionada con la intensidad oscilatoria f, que representa la fracción efectiva de unidades de masa (m) y carga (e) responsables de la absorción: f = mc 2 / N A πe2 ⋅ 103 (ln 10 ) S = 4 , 32 ⋅ 10−9 S
[2.11]
donde NA es el número de Avogadro y c es la velocidad de la luz. El equivalente mecánico cuántico de f es el vector del momento de transición Q → que representa la variación del momento dipolar M durante la transición. Q=
→
∫ ψi M ψ f d τ
[2.12]
donde t representa el producto de los elementos de volumen en las coordenadas de todos los electrones. La intensidad de la banda de absorción se calcula a partir del
Espectroscopía ultravioleta-visible (UV-VIS)
61 →
cuadrado de Q. Una transición no es posible cuando M = 0, incluso aunque se cumpla que la diferencia entre los estados energéticos es DE = hn. El coeficiente de extinción molar se puede expresar como e = K · P · a en la que a representa la sección de absorción, K es una constante de proporcionalidad y P es la probabilidad de la transición, que depende del momento de transición Q. P = cte/Q
[2.13]
De este modo, por regla general, la intensidad de una banda se valora simplemente a través de emax y, según el valor que adopta, se consideran transiciones prohibidas o permitidas: – e ≤ 10: transición prohibida; 10 < e < 1.000: débilmente permitida; – 1.000 < e < 100.000: permitida; e ≥ 100.000: fuertemente permitida Cuando Q = 0, es decir cuando la integral se anula, la transición está prohibida. A partir de todas estas consideraciones se establecieron una serie de reglas de selección que predicen si una transición es o no posible, basándose en la regla de conservación del momento angular. Aunque estas reglas no son rigurosas, pues dependen de numerosos factores, se pueden generalizar como siguen: – La primera regla de selección predice las transiciones prohibidas en moléculas con centro de simetría. Sus funciones de onda pueden ser simétricas (g=gerade) o antisimétricas (u=ungerade) en relación con la inversión respecto del centro de simetría. Estarán prohibidas aquellas transiciones entre orbitales de la misma paridad (regla de Laporte). Es decir están permitidas las transiciones g→u y u→g, y prohibidas las u→u y g→g. Esto se debe a que el producto de dos componentes es únicamente ungerade si uno es ge→ rade y otro ungerade. Además los componentes del momento dipolar M son necesariamente antisimétricos (ungerade); por lo tanto, para que el producto de la integral del momento de transición sea simétrica (gerade), el producto de yi y yf debe ser antisimétrico (ungerade) y por lo tanto yi y yf deben ser de distinta paridad (u-g). – La segunda regla de selección afecta a los orbitales con distinta multiplicidad de espín. El estado en el cual los números cuánticos de espín son opuestos o antiparalelos se denomina estado singlete, que generalmente es el estado fundamental (S0). Cuando los dos electrones tienen el mismo número de espín se denomina estado triplete. Los estados singlete y triplete de menor energía se denominan S1 y T1 y a partir de niveles superiores de energía S2, S3...T2, T3., dándose la particularidad de que en general el estado T1 es de menor energía que S1. Al pasar de un estado singlete a uno triplete, el integrando de la ecuación resulta impar, y por lo tanto, la integral se anula. Es decir, las transiciones singlete-triplete están prohibidas. – La tercera regla tiene relación con la simetría de los estados como ocurre en las transiciones n→p* de aldehídos y cetonas, con coeficientes de extinción muy bajos.
Técnicas de análisis y caracterización de materiales
62
Además de los motivos expuestos en las reglas, la anulación del momento de transición se puede producir además por la exclusión de solapamiento, esto es, que la transición no se produce si los orbitales implicados no solapan o solapan muy poco. Hay que destacar, además, que muchas moléculas poseen transiciones prohibidas con intensidad muy débil, como ocurre, por ejemplo, con transiciones singlete-triplete que pueden darse en presencia de sustancias paramagnéticas (NO u O2) o en disolventes con átomos pesados.
2.2.5. efecto de los disolventes Los disolventes utilizados en espectroscopía Uv-vIS deben cumplir ciertos requisitos para asegurar unos resultados óptimos y fiables: – – – –
Debe ser transparente en la región en estudio. Debe disolver la muestra. No debe utilizarse cerca de su punto de corte en el Uv. Debe ser compatible con las celdas de trabajo.
Los disolventes más comunes para estudios en Uv-vIS son el agua, alcoholes, dioxano, isooctano, cloroformo, benceno, ciclohexano, acetonitrilo..., cuyos límites de aplicación termina en torno a los 220-240 nm, es decir, en el punto de corte o absorción final, aunque para el UV de vacío hasta los 170 nm pueden utilizarse el heptano y hexano purificados. Tabla 2.1. lOnGiTUdes de Onda de cOrTe O final de alGUnOs sOlvenTes UTilizadOs en esPecTrOscOPía solvente Acetona Benceno Disulfuro de carbono Etanol Ciclohexano Heptano Agua Piridina Metanol Hexano Tolueno
longitud de onda (nm) 330 280 380 210 210 197 191 330 215 210 286
Las transiciones electrónicas y efecto de los disolventes fue estudiado por Burawoy (1941), que denominó bandas K (del alemán Konjugation) a las bandas N→v en los sistemas p en los que observó desplazamientos de bandas intensas hacia longitudes de onda mayores y de menor energía. Asimismo, denominó bandas R (del
Espectroscopía ultravioleta-visible (UV-VIS)
63
alemán Radikalartig) a bandas poco intensas que se desplazaban a longitudes de onda menores de mayor energía. Estas bandas R corresponden a transiciones N→Q y más concretamente a n→p*. Esta nomenclatura se debe a los estudios que efectuó con azocompuestos, aldehídos y cetonas en varios disolventes. Existen dos maneras generales en que los disolventes pueden afectar a los espectros de absorción: por formación de enlaces de hidrógeno y por efecto de la polaridad del disolvente. La formación de enlaces de hidrógeno entre pares electrónicos sin compartir del soluto con hidrógenos del disolvente y que afectan a las transiciones n→p* (bandas R) produce desplazamientos batocrómicos. La diferencia en la posición de la longitud de onda es una medida de la fuerza de los enlaces de hidrógeno con diferentes disolventes. Es decir, cuanto mayor sea la capacidad del disolvente para formar enlaces de hidrógeno, mayor será el desplazamiento, correspondiendo aproximadamente el cambio energético al valor de la energía asociada con un enlace de hidrógeno. veamos esto con un ejemplo (Figura 2.6), utilizando como disolventes el agua (con mucha tendencia a formar enlaces de hidrógeno) y el hexano (con menos tendencia): las bandas de absorción de la acetona en agua se desplazan a 264,5 nm correspondientes a unas 126 kcal/mol con respecto a los 279 nm en hexano con una energía de aproximadamente 121 kcal/mol. Las 5 kcal/mol de diferencia en el desplazamiento corresponden aproximadamente a la energía de un enlace de hidrógeno. 4,0 3,5 agua etanol
3,0
n-hexano Absorbancia
2,5
ciclohexano 2-propanol
2,0 1,5 1,0 0,5 0,0 200
220
240
260
280
300
320
340
360
Longitud de onda (nm)
Figura 2.6. Efecto de la polaridad de diferentes disolventes sobre el espectro de la acetona. Obsérvese que, cuanto más polar es el disolvente, más se aproxima el máximo de absorción hacia longitudes de onda más cortas.
Técnicas de análisis y caracterización de materiales
64
Las diferencias de polaridad de los disolventes afectan a transiciones del tipo N→v en concreto p→p* (bandas K) y producen en general desplazamientos batocrómicos o al rojo, aunque en ocasiones pueden producirse desplazamientos hipsocrómicos, dependiendo de la interacción con el soluto. En solución, las moléculas están asociadas entre sí y solvatadas por las moléculas del disolvente, por lo que los espectros suelen poseer bandas anchas. La interacción disolvente-soluto aumenta cuanto mayor sea la polaridad del disolvente. Los efectos resultantes de estas interacciones se muestran en la Tabla 2.2. Tabla 2.2. efecTO de la POlaridad de sOlUTO y disOlvenTe y sUs inTeracciOnes sObre esPecTrOs Uv disolvente
Polar
soluto
no polar
Polar
no polar
• Interacción depende de las fuerzas dipolo-dipolo (fuertes) • Si momento dipolar disminuye, se produce desplazamiento al azul • Si momento dipolar aumenta, se produce desplazamiento al rojo • Estructura vibracional: rápida relajación de la estructura orientada del disolvente. No se observa estructura vibracional
• Interacción depende de las fuerzas dipolo inducidodipolo • Si momento dipolar disminuye, se produce desplazamiento al azul • Si momento dipolar aumenta, se produce desplazamiento al rojo
• Interacción depende de fuerzas permanentes dipolo inducidodipolo, más fuertes que las fuerzas de dispersión de London • Se produce desplazamiento al rojo
• Interacción solo por fuerzas temporales dipolo inducidodipolo (fuerzas de dispersión de London)
• El disolvente (polar o no polar) no está orientado y se puede observar estructura vibracional.
2.3. leyes de la esPecTrOfOTOMeTría Las leyes de la espectrofotometría fueron enunciadas basándose en una radiación monocromática, que atraviesa un sistema homogéneo, donde solo se producen procesos de absorción y no existan modificaciones en la especie química absorbente. Son dos las leyes fundamentales: la ley de Bouguer y Lambert, y la ley de Beer.
2.3.1. la ley de bouguer (1729) y lambert (1760) La ley tiene dos partes. Por una parte, establece que la energía transmitida en un medio homogéneo es proporcional a la potencia radiante incidente. Esta relación es una constante denominada transmitancia:
Espectroscopía ultravioleta-visible (UV-VIS)
T = P / P0
65
[2.14]
Por otra parte establece que, en un medio transparente, cada capa sucesiva de igual espesor del medio absorbe una fracción igual de la luz incidente. Matemáticamente se expresa como: loge T = a · l
[2.15]
donde a es la absortividad del medio y l es el espesor de la capa o camino óptico. También se puede expresar en forma exponencial T = P / P0 = 10– al
[2.16]
A = – log10 T = a · l = log10 (P0 / P)
[2.17]
o también como:
donde A se denomina absorbancia.
2.3.2. la ley de beer (1852) Relaciona la absorción de la radiación incidente y la concentración de material absorbente. Un fotón es absorbido por una molécula si colisiona con ella, y la probabilidad de colisión es directamente proporcional al número de moléculas, y por lo tanto a la concentración. – log10 T = a · c
[2.18]
donde c es la concentración. La ley fundamental de la espectrofotometría se obtiene por combinación de ambas leyes y se conoce como ley de Lambert-Beer, o simplemente ley de Beer. A = a · l · c = – log10 T
[2.19]
Cuando la concentración se expresa en moles por litro y el camino óptico en centímetros, la absortividad a se llama absortividad molar y se define por e. ε=
A A = l ( cm ) × c ( moles / litro ) lc
[2.20]
En general, por lo tanto, la ley se expresa como A=e·l·c
[2.21]
En una representación gráfica de absorbancias frente a concentraciones, se obtendrá una línea recta de pendiente a; la representación de log T frente a concentraciones dará una línea recta, de pendiente –a (Figura 2.7).
Técnicas de análisis y caracterización de materiales
Pendiente = a
Pendiente = –a
log T
Absorbancia
66
Concentración (moles/litro)
Concentración (moles/litro)
Figura 2.7. Representación de la ley de Lambert-Beer.
Matemáticamente, la absorbancia se relaciona con el porcentaje de transmisión del siguiente modo: A = log P0 / P = log 100 / T = log 100 - log T = 2 – log T =a · l · c
[2.22]
Suponiendo que no existe interacción entre las diferentes especies absorbentes de una mezcla, podremos aplicar la ley de Beer del siguiente modo: Atotal = A1 + A2 + A3 +… An = e1 · l · c1 + e2 · l · c2 + e3 · l · c3 +........+ en · l · cn
[2.23]
2.3.3. desviaciones y limitaciones de la ley
Absorbancia
Una representación gráfica de absorbancias frente a concentraciones sirve de comprobación de la conformidad de la ley de Beer para nuestro sistema en estudio (Figura 2.8). En ocasiones, no se obtiene una recta que pase por el origen de coordenadas, sino que para concentraciones cada vez más elevadas se produce una desviación hacia el eje de ordenadas (desviación positiva) o hacia abscisas (desviación negativa). Las desviaciones positivas pueden resultar útiles si estudiamos análisis de trazas, siempre que los resultados sean reproducibles. Por el contrario, las desviaciones negativas no son nunca deseables. Desviación positiva Desviación negativa
Concentración
Figura 2.8. Desviaciones de la ley de Lambert-Beer.
Las limitaciones de la ley pueden ser de tres tipos: reales, químicas e instrumentales.
2.3.3.1. Limitaciones reales La ley de Beer describe bien la absorción de disoluciones diluidas. En general, estas desviaciones son insignificantes para concentraciones menores de 0,01 M.
Espectroscopía ultravioleta-visible (UV-VIS)
67
Cuando la concentración es elevada, las partículas de soluto están tan juntas que la distribución de cargas y la capacidad para absorber radiaciones de una determinada longitud de onda quedan alteradas. Además de esto, la especie absorbente puede modificar su naturaleza al variar su concentración, lo que produce frecuentes desviaciones a la ley. Por otra parte, la ley fue enunciada para un material isotrópico, esto es, que la velocidad de la luz (y por consiguiente el índice de refracción) es igual en todas las direcciones del material. Por lo tanto, cambios en el índice de refracción afectan a la absorción, por lo que se debe utilizar la expresión: A = e · l · c · n/(n2 + 2)2
[2.24]
donde n representa el índice de refracción.
2.3.3.2. Desviaciones químicas Las desviaciones químicas de la ley se producen por desplazamientos en la posición de equilibrio, que afecta a especies absorbentes. Esto ocurre por ejemplo, cuando las especies absorbentes no representan la totalidad de la concentración, por asociación, disociación o interacción con el disolvente, dando lugar a un producto diferente. Los efectos producidos por efecto de pH no regulado pueden dar lugar también a desviaciones del equilibrio. Lo mismo ocurre con un electrolito débil, por ejemplo, un ácido débil. En disoluciones concentradas predomina la forma HA, mientras que en disoluciones diluidas predomina la forma A–. Si las absortividades de HA y A– no son las mismas, la disolución se aleja de la ley. Cuando esto ocurre, puede usarse la longitud de onda de un punto isosbéstico, esto es, la longitud de onda, en la que las absortividades de dos especies interconvertibles son iguales, o bien la longitud en la que los espectros de una misma especie, que varía con el pH coincidan (Figura 2.9). Tomemos como ejemplo las especies HA y A– cuyos espectros a diferentes pHs se cruzan en una longitud de onda λX. La ecuación para la absorbancia de la disolución será: AλX = eλX · l · ([HA] + [A–])
[2.25]
Dado que los espectros de ambas especies se cruzan en X, entonces las absortividades son iguales, por lo que la ecuación anterior queda: λX λX AλX = eHA · l · [HA] + eA– · l · [A–]
[2.26]
La suma de las concentraciones es constante y por lo tanto la absorbancia en ese punto es también constante. Asimismo, la temperatura y la presión, debido al efecto que producen en el equilibrio y sobre el volumen de las disoluciones, pueden provocar desviaciones de la ley. Por último, también pueden producir desviaciones en la absorción, reacciones competitivas entre iones metálicos, presencia de agentes complejantes y procesos de fotodescomposición y de fluorescencia.
Técnicas de análisis y caracterización de materiales
68
3,5 3,0
pH 4 pH 6
2,5
pH 7
Absorbancia
pH 8 pH 9
2,0 1,5 1,0 0,5 0,0 320
340
360
380
400
420
440
460
Longitud de onda (nm)
Figura 2.9. Equilibrio químico y puntos isosbésticos en función del pH para una disolución 0,2mM de p-Nitrofenol termostatizada a 25 ºC.
2.3.3.3. Desviaciones instrumentales La ley de Beer está enunciada bajo el supuesto de una radiación monocromática, es decir, de una única longitud de onda, y esto raramente se consigue experimentalmente, excepto si se utilizan fuentes de emisión de líneas. En la práctica, suelen utilizarse fuentes continuas de emisión, y las desviaciones instrumentales provienen en la mayor parte de los casos de los selectores de longitudes de onda (filtros o monocromadores) que originan una banda más o menos simétrica de longitudes de onda alrededor de la señal deseada. Sin embargo, cuanto más parecidas sean las absortividades molares del absorbente a diferentes longitudes de onda, menores serán las desviaciones (Figura 2.10). ε1 = ε2
Absorbancia
ε1 ε2 ε1 ε2
Concentración
Figura 2.10. Desviaciones instrumentales. Efecto de las absortividades para λ1 y λ2.
Espectroscopía ultravioleta-visible (UV-VIS)
69
Además, las absortividades cambian más lentamente en el pico de absorción que a los lados de la banda, por lo que para la mayor parte de las determinaciones cuantitativas se fija la longitud de onda del pico y las variables instrumentales no se cambian durante la medición y calibración, para minimizar las desviaciones debidas a radiación policromática. Las desviaciones dependen en gran medida de la relación existente entre el ancho de rendija (banda instrumental) y el ancho de banda. Cuanto mayores sean las rendijas y menores las bandas de absorción, mayores serán las desviaciones.
2.4. refracción y refleXión Cuando un haz de radiación incide sobre un cuerpo (Figura 2.11), esta puede ser transmitida, reflejada, dispersa o absorbida produciendo fluorescencia. La transmisión supone que la radiación que no es absorbida, atraviesa la muestra sin sufrir cambios. La dispersión se produce cuando el fotón es absorbido e inmediatamente reemitido uniformemente en todas direcciones sin producirse cambios energéticos. Se produce cuando la radiación choca con partículas de menor tamaño que la longitud de onda, por lo que se polarizan y oscilan a la misma frecuencia que la radiación original, actuando como una fuente que se propaga en todas direcciones. En fluorescencia, el átomo, ión o molécula pasa al estado excitado por absorción de un fotón, pero la partícula pasa a un estado de energía más baja reemitiendo un fotón con menos energía y mayor longitud de onda que el fotón absorbido. Al igual que en la dispersión, la radiación fluorescente es emitida uniformemente en todas direcciones. En la espectroscopía Uv-vIS los fenómenos de interés son la absorción y la transmisión de la radiación, y la reflexión para el estudio de sólidos, como se verá más adelante. Reflexión
Radiación incidente I0
Dispersión
Radiación transmitida It
Radiación absorbida
Reflexión
Dispersión
Fluorescencia
Figura 2.11. Interacción de la radiación y la materia.
Cuando una radiación incide con un ángulo dado en la interfase entre dos medios transparentes con densidades diferentes, se produce un choque elástico entre el fotón y el ión, átomo o molécula, no se produce intercambio energético, pero sí direccional en el fotón o refracción, como consecuencia de las diferencias en las velocidades en ambos medios. El índice de refracción se determina a partir de:
Técnicas de análisis y caracterización de materiales
70
ni =
c vi
[2.27]
donde ni es el índice de refracción a una frecuencia determinada, c es la velocidad en el vacío y vi es la velocidad en el medio. Cuando la radiación atraviesa una interfase entre medios con diferente índice de refracción, siempre se produce una reflexión, tanto mayor cuanto más aumente la diferencia entre los índices. Esto sucede por ejemplo en muestras sólidas, o en las interfaces pared/solución en las medidas de líquidos y gases. La fracción del haz reflejada viene dada por: Ir I0
=
( n2 − n1 )2
[2.28]
( n2 + n1 )2
donde Ir es la porción reflejada, I0 es la intensidad del haz incidente, y n1 y n2 son los índices de refracción de ambos medios. Dado que la porción reflejada depende de los índices de refracción, dependerá entonces a su vez de la longitud de onda. Asimismo, depende también del ángulo de incidencia, creciendo rápidamente para ángulos de más de 60 grados.
2.5. insTrUMenTación La mayor parte de los componentes de los instrumentos espectroscópicos son esencialmente semejantes, aunque difieren algo en su configuración y propiedades dependiendo de la región del espectro y del fenómeno en estudio. En general son: – – – – –
Una fuente de energía estable. Selector de longitud de onda. Recipiente de muestra. Detector de radiación. Dispositivo de procesamiento y lectura de las señales.
En el caso de la espectroscopía de absorción Uv-vIS el esquema de los componentes es el mostrado en la Figura 2.12:
Fuente
Selector de longitud de onda
Recipiente de muestra
Detector
Amplificador + Lector de señal
Rendijas de entrada y de salida
Figura 2.12. Esquema de los componentes básicos de los equipos de Uv-vIS.
Espectroscopía ultravioleta-visible (UV-VIS)
71
Para los fenómenos de emisión, fluorescencia, dispersión…, el orden de los componentes varía, y ya se verá con detalle en otros temas. Además de los componentes básicos, hay una serie de lentes y espejos que dirigen y focalizan el haz desde la fuente al detector.
2.5.1. fuentes Para las medidas de Uv-vIS se precisa una fuente de radiación continua con dos requisitos esenciales: – Debe generar un haz de potencia suficiente para que se detecte y se mida con facilidad a lo largo de toda la región de longitudes de onda de interés. – Su potencia de salida debe ser estable por encima del intervalo de tiempo que duren las medidas. Dado que la potencia radiante de una fuente varía de manera exponencial con el potencial de la fuente de alimentación eléctrica, con frecuencia se utilizan transformadores de voltaje constante y reguladores de potencial electrónicos que proporcionan estabilidad a las fuentes. A partir de una porción de la energía radiante y gracias a un segundo detector en la ruta óptica, se puede utilizar la señal observada para corregir la salida de la lámpara, disminuyendo o aumentando la corriente de salida según se precise. De este modo, se pueden reducir las ondulaciones ópticas en un corto plazo de tiempo. Las lámparas más utilizadas en esta región son las siguientes:
2.5.1.1. Lámpara de filamento de tungsteno o wolframio La fuente más común de radiación visible (además del sol, por supuesto) es la lámpara de filamento de wolframio. Consta de un filamento, generalmente enrollado para aumentar su emisividad y eficacia, que se encuentra en un bulbo de vidrio al vacío o con un gas inerte. Generalmente, está soportada sobre una base fija, de modo que el cambio de lámpara no hace necesario un alineamiento posterior. Aun así hay que tener especial cuidado en no tocar el bulbo de vidrio con los dedos, pues las huellas pueden causar pérdidas de energía. La causa más común de cambio de la lámpara es la pérdida de señal debida al oscurecimiento del bulbo de vidrio causado por la evaporación del filamento de tungsteno. Posee la ventaja de no ser muy cara y se puede obtener una potencia bastante estable con una fuente eléctrica común. El proceso de emisión de la lámpara se inicia aplicando una corriente eléctrica al filamento, el filamento empieza a emitir calor, pasa luego a adquirir un color rojo intenso y gradualmente va emitiendo una luz cada vez más blanca y una considerable cantidad de calor. La energía emitida aumenta con la temperatura al tiempo que los máximos de intensidad se desplazan a longitudes de onda menores. Es lo que habitualmente se conoce como radiación de un cuerpo negro.
72
Técnicas de análisis y caracterización de materiales
Una lámpara de filamento de tungsteno emite en la región comprendida entre 330 y 2.500 nm (región del IR cercano) quedando el límite inferior restringido debido al vidrio que aloja el filamento.
2.5.1.2. Lámparas de tungsteno-halógeno Una variante sobre la lámpara anterior es la conocida como de tungsteno-halógeno (o también conocida como de cuarzo-yodo) y se utiliza también para la región visible del espectro. Contienen una pequeña cantidad de yodo dentro de la cubierta de cuarzo donde está el filamento. Durante su uso, se forma tungsteno gaseoso (o wolframio) por sublimación, que reacciona entonces con el yodo para dar WI2 volátil, que al chocar con el filamento dan lugar a la deposición de tungsteno. Esto supone un alargamiento de la vida media, conservando más del 90% de su luz inicial a lo largo de su vida útil. Trabajan a temperaturas considerablemente más altas que las tradicionales de tungsteno, lo que mejora la energía efectiva. Otra importante ventaja de estas lámparas es que al estar incluidas en un bulbo de cuarzo, para tolerar las altas temperaturas de operación (3.500 K) se obtiene una ganancia de energía, especialmente entre 300-400 nm, debido a las características de transmisión del cuarzo (mejores que el vidrio), y por otra parte, el cuarzo no se oscurece con el uso y, por lo tanto, redundan de nuevo en una vida útil más larga. Por todo ello, en la actualidad son las que más se utilizan en los espectrofotómetros modernos.
2.5.1.3. Lámparas de deuterio e hidrógeno Por debajo de los 330 nm aproximadamente, la lámpara más adecuada es la de arco de deuterio, que emite un espectro continuo en la región ultravioleta. Además, emite una serie de líneas en la región visible que, aunque en principio puedan resultar incomodas, pueden ser útiles para calibrar las longitudes de onda de los equipos. Consiste en un bulbo de cuarzo que contiene deuterio a baja presión con un ánodo y un cátodo en su interior entre los que se forma un arco. El proceso de emisión de la lámpara es el siguiente: el cátodo se calienta por el paso de una pequeña corriente eléctrica hasta que comienza a emitir electrones de manera continua. Entonces se aplica un alto voltaje entre ambos electrodos para que se establezca el arco. En contacto con el deuterio a baja presión, se produce una reacción que implica la formación de una especie molecular excitada, que se disocia y da lugar a dos especies atómicas y a un fotón ultravioleta. D2 + Ee → D2* → D’ + D’’ + h n donde Ee es la energía eléctrica producida por el arco, D2 es la molécula inicial y D2* es la molécula en estado excitado. El rango de trabajo es de 165 a 375 nm.
Espectroscopía ultravioleta-visible (UV-VIS)
73 Bulbo de cuarzo
Filamento
Bulbo de cuarzo
Bulbo de cuarzo
Ánodo/Cátodo
Filamento
Soporte Lámpara de filamento de wolframio
Lámpara de tungsteno-halógeno
Lámpara de arco de deuterio
Figura 2.13. Esquema de los tipos de lámparas más comunes en espectroscopía Uv-vIS.
2.5.1.4. Lámparas de arco de xenón Si se precisa una fuente que emita de manera especialmente intensa, se utilizan lámparas de arco llenas de xenón, aunque también pueden ser de argón o mercurio a alta presión. La radiación se produce cuando se hace pasar una corriente eléctrica a través de la atmósfera del gas. En equipos de última generación se utilizan lámparas de flash de xenón, que proporcionan del orden de 3·109 flashes o destellos en toda su vida útil, por lo que podemos considerar que son eternas. Dado que se trata de una lámpara de flash, es capaz de hacer un barrido en el rango de 190-1.100 nm en menos de 3 segundos, lo que resulta de gran utilidad en ensayos cinéticos. Su radiación es especialmente intensa, más que la de la luz solar, y por lo tanto no se utilizan si se van a medir muestras que puedan sufrir problemas de fotodegradación. La temperatura de trabajo de este tipo de lámparas se aproxima a los 6.000 K. La lámpara de argón se utiliza en medidas en la región de ultravioleta de vacío, hasta los 100 nm aproximadamente. Hay que hacer notar que dado que estas fuentes se aproximan a la emisión de un cuerpo negro, cuanto mayor sea la temperatura, más se desplazan los picos de energía a longitudes de onda más cortas.
2.5.2. selectores de longitudes de onda Para el análisis espectroscópico se necesita una radiación constituida por una banda estrecha de longitudes de onda, de modo que la señal de salida ideal sería una radiación de una única longitud de onda o frecuencia (radiación monocromática). Las ventajas de la radiación monocromática son: – La ley de Beer se basa en este tipo de radiaciones. – La sensibilidad de las medidas aumenta. – Las interferencias disminuyen. Sin embargo, no existe ningún selector de longitud de onda que se aproxime al caso ideal; en su caso, se obtiene una distribución de longitudes de onda. Fundamentalmente hay dos tipos de selectores: los filtros y los monocromadores.
Técnicas de análisis y caracterización de materiales
74
2.5.2.1. Filtros Poco utilizados en equipos que permitan medidas de sólidos. Los filtros pueden ser de dos tipos: – filtros de absorción. Este tipo de filtros actúa absorbiendo ciertas zonas del espectro. Generalmente son vidrios coloreados o una suspensión de un colorante en una gelatina entre dos placas de vidrio. Para obtener cierta versatilidad en el instrumento suelen colocarse diferentes filtros en un rotor circular que va cambiando de posición. Debido al uso de vidrio en estos filtros, su uso se restringe a la región visible del espectro. La amplitud efectiva de banda efectiva varía según el tipo de filtro, pero suele estar entre los 20 y 50 nm, por lo que los equipos con este tipo de selectores no se obtienen datos lineales de absorbancia con el incremento de concentración. – filtros de interferencia. Los filtros dieléctricos o de interferencia están construidos a partir de un dieléctrico transparente (fluoruro de calcio o de magnesio) prensado entre dos películas metálicas semitransparentes adheridas a sendas placas de vidrio o de cuarzo. El mecanismo de funcionamiento (Figura 2.14) es el siguiente: una radiación perpendicular incide en el filtro de manera que una parte pasa a través de la primera película metálica y la otra se refleja. La radiación que pasa sufre una partición similar en la segunda capa metálica. Si la porción reflejada en la segunda película es de la longitud de onda adecuada, se refleja de nuevo en la parte interna de la primera capa metálica, de modo que esta longitud de onda se va reforzando por sucesivas reflexiones. Las otras porciones de radiación son reflejadas o absorbidas por el filtro o sufren interferencias destructivas si están desfasadas. 1
1’
t
3
5
7
2
4
6
Películas de Ag semitransparentes
8
Figura 2.14. Esquema del funcionamiento de un filtro de interferencia.
El grosor del dieléctrico (t) determina la longitud de onda de la radiación transmitida. La condición de refuerzo es: nλ' = 2t/cos q = 2t donde cos q suele ser 1
[2.29]
Espectroscopía ultravioleta-visible (UV-VIS)
75
Es decir: la distancia recorrida por el haz debe ser un múltiplo de la longitud de onda en el medio (λ'). Por otra parte: λ = h · λ'
[2.30]
donde h es el índice de refracción del medio. La expresión para las longitudes de onda en las que ocurrirá refuerzo total será por lo tanto: λ = 2th /n
[2.31]
donde n es el número de orden. Un tipo especial de filtros de interferencia lo constituyen los filtros de cuña que pueden seleccionar un rango continuo de longitudes de onda. Esto se debe a que el material dieléctrico varía su espesor de manera gradual, y variando la posición de la cuña linealmente o por rotación se permite que diferentes longitudes de onda lleguen al detector. Con respecto a los filtros de absorción, los de interferencia poseen las siguientes ventajas: – – – –
Poseen anchos de banda efectivos menores (alrededor de 10 nm). La fracción de luz transmitida es mayor. El grado de pureza del espectro es muy alto. Existen filtros tanto para la región visible como para la ultravioleta del espectro.
2.5.2.2. Monocromadores Los monocromadores tienen por objeto descomponer la radiación policromática en sus componentes, dando un haz monocromado cuya longitud de onda pertenezca a la región en estudio. Los componentes básicos de un monocromador son: – – – – –
Una ranura de entrada de radiación Una lente o espejo colimador Un elemento dispersor (prisma o rejilla) Una lente de enfoque Una ranura de salida de la radiación
Dependiendo del tipo de elemento dispersor, los monocromadores se dividen en monocromadores de prisma, de red y redes holográficas. Monocromadores de prisma. El elemento dispersor lo constituye un prisma construido con material transparente para la zona en estudio y con índices de refracción que reduzcan al máximo las pérdidas por reflexión. La radiación entra en el monocromador a través de la rendija de entrada, se colima (es decir, transforma la radiación en haces paralelos) por medio de una lente o un espejo cóncavo e incide en el prisma que produce la deflexión o cambio de dirección del haz de diferentes longitudes de onda. El haz resultante se enfoca en un espejo y sale por la rendija de salida.
Técnicas de análisis y caracterización de materiales
76
Si movemos la rendija a lo largo del plano focal, las radiaciones que en el caso anterior fueron rechazadas pueden ahora enfocarse sobre la salida. De este modo, con una variación continua de la rendija, podemos obtener un espectro continuo de longitudes de onda. Dado que el índice de refracción del material del prisma varía con la longitud de onda se puede aprovechar esta cualidad denominada dispersión, para separar un haz policromático en haces monocromáticos. Si esto no fuera así, los haces monocromáticos saldrían con el mismo ángulo de refracción. Cuanto mayor sea la dispersión de un prisma, más separadas estarán las longitudes de onda adyacentes. El grado de dispersión del vidrio es mucho mejor que el de cuarzo o sílice fundida, pero posee el inconveniente de que solo puede ser usado en la región visible del espectro. El tipo de prisma más sencillo lo constituye un prisma de 60° construido a partir de un único bloque de material, generalmente cuarzo fundido; se denomina monocromador de Bunsen. En el caso de estar constituido por cuarzo cristalino, el prisma se forma uniendo dos prismas de 30°, uno dextrógiro y el otro levógiro, de modo que no se produce una polarización neta de la radiación, constituyendo un prisma Cornu (Figura 2.15). 30º Radiación incidente λ1 λ2
60º Littrow
Superficie aluminizada
60º
Espejo
Radiación incidente
Radiación incidente
λ1
+
λ2 Bunsen
– Cornu
Figura 2.15. Esquema de un prisma Littrow, un prisma de 60º de cuarzo fundido Bunsen y uno de cuarzo cristalino de tipo Cornu.
El poder de resolución de un prisma viene determinado por: R = t (dh/dλ)
[2.32]
donde t es el ancho de la base del prisma. De este modo, concretamos que la amplitud de banda efectiva de un prisma disminuye al aumentar el espesor de la base del mismo. Para evitar prismas excesivamente grandes, una solución para mantener la amplitud de banda al mínimo, con el tamaño de prisma constante y sin embargo más compacto, la constituye el prisma de Littrow. Este se obtiene con un prisma de 30° con una cara reflectante o especular con una película de plata que produce una doble refracción. Uno de los montajes más frecuentes de monocromadores de prisma lo constituyen los de tipo Littrow, con una sola lente que sirve como espejo colimador y como lente de enfoque, y que puede llevar bien un prisma Littrow, bien uno Bunsen con un espejo en su parte posterior (Figura 2.16).
Espectroscopía ultravioleta-visible (UV-VIS)
77
a
b
Figura 2.16. Montajes de tipo Littrow: a) con un prisma de 30º, b) con un prisma de 60º.
Para la región ultravioleta el ancho efectivo de banda es de 1,5 nm por milímetro de abertura de la rendija de salida en la zona correspondiente a los 250 nm. Para obtener una amplitud fija es necesario disminuir continuamente la salida a medida que aumenta la longitud de onda. Monocromadores de red. En la actualidad el elemento dispersivo más utilizado consiste en una red de difracción consistente en una serie de surcos paralelos situados sobre una superficie plana y dura (a menudo un bloque de vidrio). Dado que los surcos deben ser idénticos y perfectamente paralelos, las redes suelen construirse a partir de una red patrón con una resina líquida que posteriormente puede recubrirse con aluminio, oro o platino, para producir reflexiones. Este sistema se denomina red de escalerilla (Figura 2.17).
i
r
Superficie aluminizada
C
B A
D
Resina Vidrio
d
Figura 2.17. Esquema del funcionamiento de una red de escalerilla.
Los haces paralelos de una radiación monocromática inciden con un ángulo a y se reflejan con un ángulo b; sin embargo, la distancia que recorren ambos haces no es la misma, sino que el segundo haz recorre una distancia mayor, cuya diferencia es (CD-AB). Para que entre ambos haces se produzca interferencia constructiva, esta distancia debe ser igual a nλ, donde n es el orden de difracción. nλ = (CD-AB)
[2.33]
Técnicas de análisis y caracterización de materiales
78
y de aquí nλ = d (sen a + sen b)
[2.34]
Es decir, para que se produzca interferencia constructiva, la distancia d entre surcos debe ser un número entero de longitudes de onda. Las interferencias máximas para las que n=1 se denominan de primer orden y concentran hasta un 90% de la radiación incidente. La de segundo orden (n = 2) de una determinada λ1 tendrá menos intensidad y además no se reflejará con el mismo ángulo b. Sin embargo, las líneas de segundo orden para una λ2 de valor λ1/2 coincidirán en r y lo mismo para las de tercer orden de una λ3 con valor λ1/3. Por ejemplo, la línea de primer orden de 700 nm coincide con la de segundo orden de 350 nm, con la de tercer orden de 233 nm, con la de cuarto orden para 175 nm, etc. Todas estas radiaciones no deseadas pueden eliminarse mediante filtros La red de difracción se va moviendo constantemente para así abarcar el rango completo de longitudes de onda. Si aumentamos mucho la velocidad de la red de difracción, puede darse el caso de que las bandas salgan con menor intensidad y algo desplazadas. Esto se debe a que a velocidades muy altas, al variar la posición de la red, las medidas de muestra y referencia no se hacen exactamente a la misma longitud de onda, produciéndose el desplazamiento. En ciertos equipos comerciales, esto se soluciona haciendo que la red se mueva a saltos y solo en los momentos en los que el haz coincida con la zona negra del chopper. De este modo, tanto referencia como muestra, se miden a la misma longitud de onda y, a continuación, varía la red de posición. Dependiendo de la colocación de los espejos y las rejillas hay diferentes tipos de monocromadores, de los que los más usuales se presentan en la Figura 2.18. Rejilla
E
E
Rejilla E
Rejilla
E
Littrow
S
Rejilla
S
S
Lente
S Czerny-Turner
Czerny-Turner cruzado
Monk-Gilieson
Figura 2.18. Monocromadores de red más usuales.
Las redes de difracción poseen, respecto a los prismas, ventajas tales como: – Son más resistentes a cambios de temperatura. – La dispersión sigue una ley geométrica y no depende del material de la red, lo que implica que es menos susceptible a cambios según la longitud de onda. Redes holográficas. Un tipo especial de redes lo constituyen las redes holográficas, basadas en la formación de una red óptica por medio de la tecnología láser. Dos láseres idénticos inciden en determinados ángulos sobre una superficie vidriada recubierta con un material fotorresistente. Las interferencias entre ambos haces provo-
Espectroscopía ultravioleta-visible (UV-VIS)
79
can la formación en el material de una serie de surcos que se pueden recubrir con aluminio o con otra sustancia reflectora para dar una red de reflexión. El espaciado entre surcos varía modificando el ángulo que forman entre sí los dos rayos. Al igual que en las redes de escalerilla, se pueden obtener copias a partir de una red patrón, sin constatarse diferencias ópticas entre ellas. Poseen además la ventaja de dar lugar a menos radiación parásita y los haces son más monocromáticos. Las redes holográficas cóncavas presentan además la ventaja de que en sí mismas constituyen un monocromador completo, pues no requieren de ningún otro elemento, ni espejos, ni lentes focalizadores, ya que crea por rotación una imagen perfecta sobre la rendija de salida.
2.5.2.3. Las rendijas de entrada y salida La rendija de entrada permite el paso de radiación hacia un espejo colimador que hace los rayos paralelos y los enfoca sobre la red o el prisma. Una vez que el haz ha sido descompuesto en haces monocromáticos, estos inciden sobre una lente que enfoca los haces sobre la rendija de salida. Dependiendo de la posición de la red o el prisma, quedará enfocada una longitud de onda diferente. La distancia entre la lente de enfoque y la rendija de salida se conoce como distancia focal del monocromador. Generalmente, la anchura de ambas rendijas es igual y afecta como veremos más adelante de manera importante a la resolución. Las mordazas de las rendijas están construidas de metal con bordes agudos, paralelos entre sí y que se encuentran en el mismo plano.
2.5.3. divisores del haz En los equipos de doble haz, necesarios para las medidas de sólidos, tras salir la radiación por la rendija de salida, esta incide en un divisor que divide la radiación en un haz que se dirige a la referencia y otro haz hacia la muestra. Los divisores del haz son fundamentalmente de dos tipos: – Espejos semitransparentes donde la mitad del haz es reflejado y la mitad transmitido, de manera que se reduce la energía total que llega al detector. – Cortadores circulares del haz, conocidos como chopper (en castellano «segadores»), que tienen generalmente tres sectores de igual tamaño, uno de los cuales es un espejo, otro está hueco y el tercero es negro. Dependiendo del sector en el que incida el haz, la radiación se dirige a la muestra, la referencia o el haz llega al detector que lo utiliza para ajustar la corriente oscura del equipo. Lógicamente, este tipo de divisor se asegura que los haces de referencia y muestra lleguen al tiempo al detector y sin pérdidas de la energía total.
2.5.4. recipientes para las muestras Las celdas o cubetas utilizadas en espectroscopía Uv-vIS, para el análisis de muestras líquidas, están construidas con materiales que no absorban radiación de la zona de estudio.
Técnicas de análisis y caracterización de materiales
80
– Para el rango visible, pueden estar fabricadas de vidrio o de plástico. – Para el rango Uv, deben ser de cuarzo o sílice fundida. – Para el UV de vacío de fluoruro de magnesio o de cuarzo. Las más modernas las constituyen las celdas de poliestireno, como sustitutas de las de vidrio, y poseen la ventaja de ser tan baratas, que son desechables, evitándonos la limpieza de las cubetas. Sin embargo, su exactitud y precisión en las medidas es bastante peor que las de vidrio.
2.5.4.1. Tipos de celdas o cubetas Las celdas más comunes suelen ser rectangulares con ventanas perfectamente perpendiculares, y pulidas. Generalmente dos de las caras son opacas para coger la cubeta. Las celdas suelen colocarse en portaceldas colocados de tal modo que las caras ópticas queden perfectamente perpendiculares al haz. Las celdas se venden, habitualmente, en parejas o en grupos de cuatro donde están emparejadas de modo que las diferencias de transmisión del material óptico sean mínimas. Las celdas de vidrio deben tener una diferencia máxima del 0,5% T a 365 nm y las de cuarzo del 1,5% T a 240 nm, en ambos casos llenas con agua destilada. De este modo es conveniente que las celdas de referencia y muestra pertenezcan a la misma pareja. Las cubetas pueden tener pasos variables entre 1 y 100 mm, aunque las más usuales son las de 10 mm. Las celdas con pasos grandes son útiles cuando la sensibilidad analítica es pequeña. Por el contrario, las celdas de 1, 2 y 5 mm son las adecuadas cuando la muestra tiene un elevado coeficiente de extinción y no es recomendable la dilución de la muestra. En ocasiones se pueden utilizar espaciadores transparentes que acortan el camino óptico de la muestra. Ciertas cubetas poseen unos tapones especiales que evitan cambios en la absorbancia debido a la evaporación y que además evitan el escape de vapores que puedan afectar a la óptica del equipo. Además del paso óptico hay otras características que pueden variarse, dando lugar a diferentes tipos de cubetas (Figura 2.19):
a
b
c
d
e
f
g
h
i
Figura 2.19. Diferentes tipos de celdas para medidas en espectroscopía Uv-vIS: a) de paso 1 mm; b) de paso 10 mm; c) de paso 100 mm; d) semi-micro; e) sub-micro; f) circular; g) anaerobia; h) semi-micro de flujo; i) termostatizada.
Espectroscopía ultravioleta-visible (UV-VIS)
81
– Microceldas: muy útiles en aquellos experimentos en los que resulta imposible o demasiado caro conseguir grandes cantidades de muestra. El volumen de trabajo se reduce para un mismo paso óptico de 10 mm de 3,5 ml a 0,5 ml (microcubetas) e incluso hasta 0,001 ml en sub-micro cubetas. Dado que es necesario que el haz atraviese únicamente la muestra, deben estar perfectamente alineadas frente al haz. En muchas ocasiones las microceldas y submicroceldas poseen paredes negras para evitar la absorción por los laterales de la muestra, o incluso solo un pequeño orificio por donde debe pasar el haz. Por ello en estos casos es importante conocer la llamada dimensión «Z» del equipo y de la celda, que corresponde a la distancia entre la base de la cubeta y el centro del compartimento de muestra, y debe ser idéntica a la distancia entre la base del portacubetas al centro del haz incidente (Figura 2.20). Generalmente esta distancia suele ser de 8,5 o 15 mm. Para distintos valores de «Z» las cubetas son de diferente tamaño.
Figura 2.20. Dimensión Z.
– Celdas circulares: se utilizan para análisis de gases y poseen en los extremos dos ventanas del material transparente para esa región espectral. Las hay también con diferentes pasos ópticos. – Celdas anaeróbicas: como su nombre indica, se utilizan para trabajos en ausencia de oxígeno gracias a un tubo por el que se hace vacío y a un tapón hermético. – Celdas de flujo: ciertas celdas poseen dos orificios (uno de entrada y otro de salida) por el que puede circular una solución, o bien se puede utilizar como sistema de llenado, vaciado y limpieza semiautomático. – Celdas termostatizadas: para trabajar a temperatura controlada. Sobre todo se utilizan para cinéticas. – Tubos de ensayo: en ocasiones se utilizan los tubos de ensayo habituales de trabajo en laboratorio, siempre que no se requiera un alto grado de precisión en el ensayo. Esto es debido a que dado que son circulares, al llenarse de líquido, el tubo actúa como una lente, y pequeñas variaciones en la posición del tubo y por consiguiente en el espesor de la pared pueden provocar variaciones en la medida. Por eso suele disponerse de unos portamuestras especiales que aseguren la máxima reproducibilidad en la posición del tubo.
82
Técnicas de análisis y caracterización de materiales
2.5.4.2. Limpieza de las cubetas La calidad de los datos que obtenemos en un espectrofotómetro depende en gran medida de cómo utilicemos y mantengamos las cubetas en buen estado. En general pueden quedar restos de contaminantes, no detectables a simple vista y que absorban radiación ultravioleta. Por otra parte los depósitos de grasa, las huellas dactilares o la absorción de disolventes orgánicos en las paredes pueden afectar seriamente las medidas. En general cuando se trabaja con disoluciones acuosas suele ser suficiente lavar las celdas con agua varias veces, para terminar con agua destilada o desionizada y secarlas con calor o en vacío. El secado puede ser más rápido si se enjuaga una última vez con etanol o con metanol, pero nunca con papel de celulosa o algodón, pues dejan restos en la cubeta. Si hubiera contaminantes aún, se utilizarán detergentes e incluso se puede dejar la cubeta durante toda la noche en ácido sulfúrico concentrado en el que previamente habremos disuelto algo de dicromato potásico (mezcla crómica). Esto sucede sobre todo cuando se produce adsorción inespecífica de proteínas en el vidrio o el cuarzo. Si se ha trabajado con algún disolvente orgánico, se debe lavar la cubeta con disolvente puro y a continuación con algún disolvente miscible en agua y compatible con el disolvente original, para terminar con la secuencia de lavados acuosos.
2.5.5. detectores Existen principalmente tres tipos de detectores para esta región, que difieren en el rango de longitudes de onda que abarcan, velocidad de respuesta, sensibilidad, tiempo de respuesta... Su función consiste en convertir la energía radiante que les llega en una señal eléctrica directamente proporcional al poder radiante y que pueda ser procesada de manera que el usuario obtenga información de ella. La corriente generada por un detector tiene dos componentes: la corriente oscura «D», independiente de la cantidad de luz, y la señal, que es proporcional a la potencia radiante. En general los equipos actuales cuentan con un circuito compensador que reduce la corriente oscura «D» a cero. Los fotones correspondientes a las radiaciones UV-VIS tienen suficiente energía para emitir electrones cuando chocan con superficies tratadas con compuestos específicos que actúan como cátodos.
2.5.5.1. Células fotovoltaicas o de capa-barrera Son un tipo de detectores con poco uso en la actualidad debido al restringido rango de longitudes de onda para los que son útiles (400-750 nm), su baja sensibilidad, respuesta lenta y la presencia de fatiga con el uso. Sin embargo, son baratos, pequeños y no requieren un sistema de amplificación. Las células fotovoltaicas se usan solo en la región visible, especialmente en colorímetros, y consisten en un tubo plano metálico (generalmente cobre o hierro) sobre el que se ha depositado una capa de un material semiconductor (generalmente óxido cuproso o selenio), y sobre la cual hay una película metálica transparente (de oro, plata o plomo) que se utiliza como electrodo colector. Todo el conjunto está cubierto
Espectroscopía ultravioleta-visible (UV-VIS)
83
por un material transparente (vidrio). La interfase entre el material semiconductor y la película metálica sirve como barrera para el paso de electrones. Sin embargo, cuando una radiación de suficiente energía incide sobre el semiconductor, se rompen enlaces covalentes y se producen electrones y agujeros conductores. Los agujeros se dirigen hacia la base del semiconductor. Los electrones, por su parte, poseen suficiente energía para atravesar la barrera y alcanzar la película metálica. Si esta se conecta a través de un circuito externo a la parte de la placa metálica no cubierta, se produce una corriente eléctrica proporcional al número de fotones que inciden sobre la célula y que puede ser medida con un amperímetro.
2.5.5.2. Fototubos de vacío Consiste en un bulbo de vidrio o de cuarzo al vacío, que contiene un cátodo semicilíndrico cubierto con una película de un metal que ceda electrones fácilmente (generalmente cesio u otro metal alcalino, o combinaciones como Cs-Sb, K-Cs-Sb...). Tiene también un alambre que actúa como ánodo y entre ambos electrodos se aplica una diferencia de potencial. Cuando la radiación incide sobre el cátodo, los electrones emitidos fluyen hacia el ánodo generando una corriente. El número de electrones emitidos es directamente proporcional a la intensidad de la radiación y la longitud de onda. La fracción de los electrones emitidos que llegan al ánodo aumenta con la diferencia de potencial entre electrodos.
2.5.5.3. Fotomultiplicadores Son los detectores más utilizados para instrumentos de doble haz, en los que la luz llega alternativamente de los haces de muestra y referencia. La radiación que pasa a través del recubrimiento de cuarzo del fotomultiplicador incide sobre una superficie conocida como cátodo fotoemisor, que emite electrones. Estos electrones dínodos 3
5
4
fotocátodo 1 e
2 colector
λ
fotocátodo
6
λ
7 9
1 2 3
dínodos
colector
Figura 2.21. Representación de un corte transversal en un fotomultiplicador lateral.
Técnicas de análisis y caracterización de materiales
84
son entonces atraídos hacia un segundo electrodo (el primer dínodo) que se mantiene a mayor voltaje que el primero. Cada electrón que llega al primer dínodo da lugar a dos o más electrones que son atraídos por un segundo dínodo a mayor voltaje que el primero. Y así consecutivamente en nueve o más dínodos, hasta que al último pueden llegar millones de electrones a partir de un único fotón. Hay dos tipos principales de fotomultiplicadores: – lateral. Es del tipo que hemos explicado anteriormente (Figura 2.21). Posee la ventaja de tener un diseño muy compacto, pero suele limitarse a nueve dínodos. – de fondo. Los dínodos están colocados secuencialmente de manera paralela desde la ventana, situada en la base del fotomultiplicador hasta el colector en el extremo opuesto. Se puede disponer de más de nueve dínodos, y por lo tanto la amplificación es mayor, pero resultan muy costosos. Las ventajas de los fotomultiplicadores son fundamentalmente que no presentan fatiga, detectan radiaciones de baja intensidad y poseen una respuesta rápida, mientras que como desventajas podemos decir que son más caros y que implican la utilización de una fuente de alto voltaje.
2.5.5.4. Detectores de diodo de silicio Un diodo es un dispositivo no lineal, que presenta una conductividad mayor en una dirección que en otra. El rango espectral de detección de los diodos de silicio abarca de los 190 a los 1.100 nm. Los detectores de este tipo suelen consistir en una serie lineal de diodos integrados en un cristal de silicio (Figura 2.22). El funcionamiento de cada diodo por separado consiste en lo siguiente: la excitación térmica de un electrón en un cristal de silicio deja una región cargada positivamente llamada hueco. Tanto los electrones, como los huecos son móviles y contribuyen a la conductividad del cristal. Esta conductividad puede aumentarse cuando el cristal es dopado, es decir, se le introduce una pequeña impureza. Cuando el dopaje se traduce en un aumento de los electrones no ligados, se dice que tenemos un semiconductor tipo n. Si el dopaje da lugar a mayor número de huecos, disponemos de un semiconductor tipo p. Los diodos se SiO2 Tipo p
Región de agotamiento Tipo n
Figura 2.22. Sistema de diodos de silicio de unión p-n.
Espectroscopía ultravioleta-visible (UV-VIS)
85
fabrican generando regiones adyacentes de tipo n y de tipo p; esta interfase se denomina pn. Cuando esta interfase se polariza de manera inversa, se forma una zona en la que se reduce la conductancia de la unión, de manera que si la radiación incide sobre el circuito, se produce una corriente proporcional a la potencia radiante. Un detector de diodos de silicio consta de una serie lineal de fotodiodos donde cada diodo detecta la radiación de una determinada longitud de onda, y todos de manera simultánea. La radiación ha sido previamente dispersada por una red. Así, a cada diodo le corresponde una longitud de onda determinada.
2.5.6. Amplificadores y registros de señal Para poder medir las señales transmitidas por los detectores, es necesario que, a través de una serie de operaciones electrónicas, estas sean amplificadas. A la relación entre la señal de entrada y de salida se le denomina ganancia del amplificador. Actualmente la mayor parte de los equipos dispone de ordenadores asociados, lo que proporciona más rapidez en el cálculo, en integración de resultados, en posibilidades gráficas, etc.
2.6. TiPOs de insTrUMenTOs Los aparatos utilizados en espectroscopía óptica reciben diferentes nombres y se clasifican de distinto modo atendiendo al selector de longitudes de onda (fotómetros, si son filtros o espectrofotómetros si utilizan monocromador), a la utilización de uno o dos haces, al sistema de detección o a la región del espectro que utilizan para la medida. La clasificación más usual es la siguiente:
2.6.1. fotómetros sencillos Consisten únicamente en una fuente, filtros de interferencia como selectores de longitud de onda, compartimento de muestra y detector con un sistema de amplificación. Son en general bastante robustos y fáciles de mantener, al tiempo que se obtienen buenas relaciones señal/ruido incluso con componentes bastante sencillos. Pueden ser de un haz o de doble haz, y abarcar tan solo un rango espectral (el Uv o el visible) o ambos a la vez. No suelen ser utilizados para medidas de sólidos. La elección del filtro es uno de los parámetros esenciales ya que la sensibilidad de la medida depende directamente de él.
2.6.2. espectrofotómetros de haz simple Existen equipos solo para la región visible y otros para todo el rango Uv-vIS. El haz que proviene de la fuente pasa al selector de longitud de onda, donde se dispersa. Las radiaciones de diferentes longitudes de onda se enfocan a la rendija de salida y pasan al detector a través de la celda. Estos equipos requieren que la fuente,
Técnicas de análisis y caracterización de materiales
86
el detector y el amplificador sean de alta calidad para evitar la variación de señales durante la medida. Generalmente utilizan como monocromador una red de difracción. Los instrumentos de haz sencillo son especialmente útiles para análisis cuantitativos basados en medidas de absorbancia a una determinada longitud de onda y, sobre todo, en análisis de rutina. Poseen la ventaja además de ser muy fáciles de manejar y son bastante robustos.
2.6.3. espectrofotómetros de doble haz Estos equipos tienen un dispositivo que divide en dos el haz antes de pasar a la muestra y a la referencia. Ambos haces se comparan continua o alternativamente varias veces por segundo. Por lo tanto las fluctuaciones de la fuente y el detector se compensan con la relación de señal referencia-muestra. La unidad divisora del haz se encuentra después del monocromador y puede ser un sistema de espejos frontales o un chopper. Debido a que la medida de referencia y muestra se realizan simultáneamente, estos instrumentos compensan las fluctuaciones eléctricas, así como irregularidades en el detector, el amplificador y, por lo tanto, no se requiere que los componentes sean de tan alta calidad. HAZ SIMPLE Fuente
Monocromador
Compartimiento de celda
Detector Amplificador Registro
Rendijas de entrada y salida DOBLE HAZ Fuente
Divisor del haz
Rendijas de entrada y salida
Haz de referencia
Haz de muestra
Detector Amplificador Registro
Divisor del haz
Figura 2.23. Esquema de un instrumento de haz simple y otro de doble haz.
Espectroscopía ultravioleta-visible (UV-VIS)
87
Ciertos espectrofotómetros disponen de un sistema de doble monocromador (en realidad un pre-monocromador y un monocromador), lo que proporciona una mayor resolución y reduce la luz dispersa hasta un 0,0003%. Los equipos de doble haz son particularmente útiles para análisis cualitativos, en los que deban realizarse varias medidas en un amplio rango de longitudes de onda, y por supuesto son necesarios para la utilización de ciertos accesorios, como los de medidas de sólidos.
2.6.4. espectrofotómetros de matriz de diodos Una matriz de diodos consiste en una serie lineal de diodos separados físicamente por unos pocos nanómetros donde cada uno detecta una determinada longitud de onda. Generalmente en el mercado se conocen con el nombre de diodo-array. Este tipo de espectrofotómetros posee la particularidad de hacer una medida de todas las longitudes de onda de manera simultánea y no secuencial como en los espectrofotómetros clásicos o en los fotómetros de filtro. El diseño de equipo se basa en la posición del recipiente de muestra previo al monocromador. De este modo, la muestra es irradiada con luz blanca y, posteriormente, al llegar a la red de difracción y separarse la radiación en cada uno de sus componentes cada uno incide en un diodo diferente. Una ventaja evidente es la velocidad de análisis, puesto que es instantánea. Por esto, este tipo de detectores se utilizan mucho acoplados a HPLC. De todos modos, actualmente existen espectrofotómetros secuenciales con una velocidad de barrido de hasta 24.000 nm por minuto, que es lo mismo, prácticamente, que decir instantáneo. El único problema de este tipo de espectrofotómetros sería la inconveniencia de la muestra a ser irradiada por problemas de fotodegradación. La resolución en la medida viene dada por la separación física entre diodos. Fuente Obturador
Celda
Rendija Monocromador
serie lineal de diodos
Figura 2.24. Esquema de un instrumento de diodo-array.
2.6.5. equipos comerciales Existen en el mercado gran cantidad de equipos de diferentes características, de gran calidad óptica y con una amplísima variedad de accesorios, posibilidades de medida, precios...
Técnicas de análisis y caracterización de materiales
88
Lo más importante a la hora de decidirse por un determinado instrumento es determinar por anticipado qué es lo que esperamos de él, qué tipo de medidas vamos a hacer, si será un equipo para medidas de rutina, etc. Muchas veces ciertos instrumentos sencillos pueden satisfacer nuestras necesidades analíticas como lo haría un gran espectrofotómetro con todas las novedades. En España, diferentes casas comerciales distribuyen fotómetros y espectrofotómetros para Uv-vIS, de las cuales las más importantes son. – – – – –
Agilent. Distribuye los equipos de la marca varian. Izasa. Distribuye equipos de la marca Shimadzu. Perkin Elmer. Distribuye equipos de la marca Lambda. Unicam Ibérica. Distribuye equipos propios de la marca Unicam. Microbeam S.A. Distribuye equipos Kontron.
2.7. accesOriOs Para Uv-vis Como accesorios, entendemos aquellos objetos o utilidades que no suelen venir integrados en los espectrofotómetros de manera habitual para medidas de absorción. A continuación se exponen los accesorios más comunes para efectuar distintos tipos de medidas.
2.7.1. fibra óptica El accesorio de fibra óptica permite la medida desde el envase original de la muestra sin necesidad del uso de cubetas, pues es capaz de transmitir radiación a distancias del orden de centenares de metros. Consta de un núcleo ópticamente transmisor con un elevado índice de refracción fabricado con numerosas fibras de vidrio, sílice fundida o de material plástico fundido en sus extremos. Este núcleo está recubierto por una capa de acero inoxidable con menor índice de refracción. En el caso de núcleos de fibras plásticas (generalmente polimetacrilato de metilo), el recubrimiento es de otro polímero con menor índice de refracción. La luz incide en el núcleo con un ángulo dado, y parte de la luz se reflejará en el núcleo por reflexión interna total y parte pasará al recubrimiento. La diferencia de índices de refracción posibilitará que exista un intervalo de ángulos de incidencia a los cuales toda la luz se refleje en las paredes del núcleo y nada pase al recubrimiento de acero inoxidable (Figura 2.25). Fibra (η1) θ
Cono de aceptación
Medio (η3 ) Recubrimiento (η2)
Figura 2.25. Esquema de una fibra óptica.
Espectroscopía ultravioleta-visible (UV-VIS)
89
Este accesorio resulta especialmente útil en trabajos de rutina a la misma longitud de onda en líquidos, como ocurre por ejemplo en la industria enológica, del aceite, en análisis de detección de sustancias tóxicas en orina, etc., donde la fibra puede irse introduciendo en los envases sin necesidad de verter el líquido en cubetas especiales, o bien en análisis donde la solución fluye.
2.7.2. esfera integradora La esfera integradora es un accesorio que requiere un instrumento de doble haz con una buena óptica, buena resolución y fuentes intensas en muy buen estado, pues el accesorio limita la energía de entrada. Su rango de aplicación depende del material que recubre la superficie interna de la esfera, puede extenderse desde los 2.500 nm a los 180 nm. Fundamentalmente consta de una esfera recubierta de un material de referencia o blanco (tradicionalmente el BaSO4 y más recientemente un material sintético de referencia: el espectralón) que recoge las reflexiones producidas en la referencia y en la muestra y las dirige hacia un detector, en concreto un fotomultiplicador que el accesorio lleva asociado. El esquema básico se representa en la Figura 2.26. Espejo cóncavo
Haz de referencia
Celda de referencia para transmisión Celda de muestra para transmisión Espejo cóncavo
Muestra para reflexión
Fotomultiplicador (al fondo) Referencia para reflexión
Haz de muestra
Figura 2.26. Esquema de una esfera integradora.
Las celdas de muestra también están especialmente pensadas para la técnica.
2.7.2.1. Reflectancia difusa Esta técnica se usa cuando interesa estudiar una muestra en polvo o con una superficie rugosa. Para gran parte de materiales estos pueden ser estudiados directamente sin que sea necesario diluirlos en una matriz transparente. Es, por lo tanto, una
90
Técnicas de análisis y caracterización de materiales
técnica no destructiva, lo que es bastante importante en el trabajo rutinario de laboratorio. En ciertas ocasiones se hace necesaria la dilución cuando el espectro resultante es de una calidad bastante baja o resulta distorsionado. El material usado como referencia en este tipo de medidas puede ser sulfato de bario, espectralón, teflón, etc. El tamaño de partícula es un parámetro importante, puesto que reduce la intensidad de la radiación dispersada. Además, cuanto menor y más homogéneo sea el tamaño de partícula, mejor será la calidad del espectro, incrementando la relación señal/ruido del mismo.
Figura 2.27. Representación del fenómeno de la reflexión al incidir la radiación partículas de un material rugoso.
El espectro resultante se obtiene en porcentaje de reflexión en ordenadas (% R) frente a la longitud de onda en abscisas, tal como se muestra en la Figura 2.28. Hay que señalar que este espectro no guarda una relación numérica directa entre la intensidad de la banda y la concentración, en contra de lo que habitualmente sucede en espectros de absorción. Esto es consecuencia de las distorsiones espectrales debidas a que la longitud efectiva de paso varía constantemente (definida también como el coeficiente de penetración en la muestra). Este parámetro depende de la absortividad de la muestra a una longitud de onda en particular. La corrección que se aplica para linearizar estos datos es la transformación de Kubelka-Munk: f (R ) =
( 1 − R∞ )2 2 R∞
[2.35]
Donde f (R) o función de Remisión es el resultado de una conversión del espectro a un formato similar a los de absorción, que puede correlacionarse con la concentración, siempre que se trate de muestras no diluidas. R∞ es la relación entre la reflectancia de la muestra y referencia medidas a una distancia de penetración infinita (en la práctica esta distancia depende de la profundidad del portamuestras que se utilice, que suele ser de unos dos milímetros).
Espectroscopía ultravioleta-visible (UV-VIS)
91
% de reflexión
60
40
20
200
400 600 Longitud de onda (nm)
800
Figura 2.28. Espectro en porcentaje de reflexión de un catalizador de tipo óxido.
En muchos casos se puede encontrar en la bibliografía espectros de reflectancia difusa con la indicación de Abs en el eje de ordenadas. Hay que tener en cuenta siempre que, aunque % R sea análogo a % T y f (R) a la Abs, la función que debe utilizarse es la de Kubelka-Munk y nunca la de Abs = - log10 T. En la Figura 2.29, podemos observar cómo el espectro de la Figura 2.20 ha sido transformado en valores de f (R) y de absorbancia, y cómo aunque el aspecto es similar, no es idéntico y no posee los mismos valores absolutos ni relativos en ordenadas. 1
Absorbancia
f(R)
3 2 1 0
0,5
0 200
400 600 Longitud de onda (nm)
800
200
400 600 Longitud de onda (nm)
800
Figura 2.29. Conversión del espectro de la Figura 2.28.
Se pueden utilizar distintos tipos de portamuestras según el tipo de muestra utilizado (films, tejidos, papeles, muestras con superficie rugosa, etc.), aunque para muestras en polvo, en general el más utilizado consiste en un portamuestras de aluminio anodizado con un rebaje circular en el que se coloca la muestra en polvo y se compacta con un cilindro de metacrilato hasta obtener una superficie compacta. Dado que estos portamuestras pueden crear problemas de pérdida de muestra durante la medida por la colocación en vertical, es recomendable utilizar ventanas circulares de cuarzo.
Técnicas de análisis y caracterización de materiales
92
Básicamente, el procedimiento de análisis es similar al de las muestras líquidas: se colocan sendos portamuestras con el material de referencia en la posición de muestra y en la de referencia (éste no es necesario en el caso de esferas con referencia interna) y se ajusta al 100% de reflexión, se hace una línea base y para terminar se coloca la muestra en el portamuestras de la posición de medida. La reflectancia difusa puede ser útil en multitud de aplicaciones de las cuales se exponen a continuación tan solo unos ejemplos: – En el trabajo con polímeros, por ejemplo, se ha utilizado esta técnica para determinar cuantitativamente la concentración de tinta utilizada en el blanqueo de estos materiales. La adición de tinta es necesaria puesto que el color natural amarillento de estos materiales los hace poco atractivos para el comercio. Generalmente se formaban pastillas circulares por fundido de estos materiales y posterior enfriamiento, y el tiempo que requería era de al menos dos horas. Con la reflectancia difusa se utilizaron cubetas de 10 mm de paso llenas de pequeños trozos de polímero y se procedió a la medida a las longitudes de onda establecidas. – Otro campo en el que se utiliza esta técnica es en el de la fabricación de protectores solares, para comparar los agentes protectores de las radiaciones Uv. Tradicionalmente se habían utilizado productos orgánicos como agentes, pero más recientemente se utilizan el dióxido de titanio y el óxido de zinc. Se prepararon unas películas de dispersiones de estos óxidos (por separado y conjuntamente) y se estudiaron por RD. Los resultados demostraron que la combinación del TiO2 y ZnO ofrece menos protección frente a las radiaciones solares que el TiO2 por separado, que es el que más absorbe en esta región del espectro. – En el campo de la catálisis también se utiliza ampliamente esta técnica. En las gráficas (Figura 2.30) podemos observar los espectros con sus correspondientes correcciones de Kubelka-Munk de tres sales utilizadas para impregnaciones de catalizadores. Estos espectros se utilizaron más tarde para observar, entre otras cosas, a la vista de los catalizadores ya preparados el estado de coordinación de las especies. Cloruro Nitrato
3
Acetato
f(R)
2
1
0 200
400 600 Longitud de onda (nm)
800
Figura 2.30. Espectro de tres tipos de sales metálicas utilizadas en impregnación de catalizadores.
Espectroscopía ultravioleta-visible (UV-VIS)
93
2.7.3. Accesorio de reflectancia especular Este tipo de medidas se utiliza en materiales con una superficie lisa y pulida como un espejo. Los ángulos de incidencia y reflexión son idénticos. Las aplicaciones más comunes en UV-VIS son el estudio de películas, semiconductores, superficies metálicas, materiales ópticos… En ocasiones, se utiliza para estudiar el recubrimiento de una superficie de modo que el haz penetre ligeramente en el recubrimiento y se refleje en la superficie especular, dependiendo el grado de penetración del ángulo de incidencia (Figura 2.31a). Una operación numérica conocida como conversión de Kramers-Kronig permite obtener una representación equivalente a un espectro de absorción.
2.7.4. Accesorio de reflectancia interna Este tipo de medida es un fenómeno de superficie, y se basa en la transmisión de radiación a través de un elemento fabricado con un material con un índice de refracción muy alto al que se le adhiere la muestra en estudio. Existen tres tipos de accesorios de ATR: el vertical (tradicional), el horizontal y el cilíndrico. El ATR tradicional es útil para estudiar superficies continuas, tales como hojas, films o piezas en forma de lámina de algún material. El accesorio horizontal es ideal para líquidos, muestras en polvo o también para films. Si queremos estudiar una muestra en polvo, se debe aplicar una cierta presión para conseguir una superficie lo más homogénea posible y evitar las burbujas de aire que reducen la intensidad del espectro. Por esto, las muestras muy rugosas o con gránulos grandes no son las más adecuadas para este tipo de técnica. Por último, el accesorio cilíndrico se utiliza casi exclusivamente para líquidos. El principio de medida se basa en la transmisión de luz a través de un elemento óptico fabricado a partir de un material con un alto índice de refracción. Radiación incidente
Hacia el detector θ
Muestra
θ
Muestra a
Muestra Del monocromador
b
Hacia el detector
Figura 2.31. Esquema del funcionamiento de la reflexión especular (a) y reflexión interna (b).
La fracción del haz incidente que se refleja es mayor a medida que aumenta el ángulo de incidencia. El ángulo de incidencia se ajusta de tal modo que se generen el mayor número posible de reflexiones internas. El haz de radiación que pasa a través de la muestra va sufriendo sucesivas reflexiones, penetrando una cierta profundidad en el medio, antes de reflejarse. El grado de penetración depende de la longitud de
Técnicas de análisis y caracterización de materiales
94
onda, del índice de refracción de ambos materiales y del ángulo de incidencia del haz. Esta interacción de la radiación con la muestra resulta en una atenuación de la luz reflejada como consecuencia de la absorción por el material a determinadas longitud de onda, se produce una atenuación del haz, de aquí el nombre de ATR (Attenuated Total Reflectance). El espectro resultante es similar a uno de transmitancia, pero con variaciones en las intensidades según la longitud de onda.
2.8. PreParación de MUesTras – Muestras líquidas: generalmente la mayor parte de los análisis se realizan en disolución de modo que para el registro de espectros se utiliza como referencia el disolvente utilizado. La elección del disolvente es de vital importancia, no solo por su particular espectro de absorción, que no debe interferir con el de la muestra, sino por el efecto en las bandas de absorción. En general, los disolventes polares tienden a modificar la posición de las bandas y disminuir la estructura vibratoria. Los disolventes más usados son: el agua, metanol, etanol, alcohol isopropílico, benceno, tetracloruro de carbono, tolueno, ciclohexano, triclorometano…, dependiendo su elección de la región en estudio. Para el Uv lejano son necesarios el hexano y heptano purificados. – Muestras gaseosas: los espectros gaseosos se realizan con las cubetas cilíndricas antes mencionadas y se emplea como referencia una cubeta igual en la que se ha hecho el vacío. – Muestras sólidas: la espectroscopía Uv-vIS no es una técnica que requiera de una preparación difícil de las muestras para su estudio, pero sí que hay que tener en cuenta ciertas variables para lograr la máxima precisión en la medida y evitar pérdidas de absorción. Los sólidos pueden analizarse formando unas pastillas por prensado de una pequeña cantidad de muestra con KBr y colocándolas en la trayectoria del haz. Se utiliza como referencia una pastilla de KBr similar a las utilizadas en infrarrojo. Para muestras de superficie rugosa o en polvo, o simplemente para films, fibras, plásticos, etc., lo más cómodo y que da los mejores resultados es el accesorio de reflectancia difusa. Muestra
Compactadora Rebaje circular
a
b
Figura 2.32. Celdas para medida de muestras en polvo.
Espectroscopía ultravioleta-visible (UV-VIS)
95
2.9. ManejO de eQUiPOs Una medida espectrofotométrica comprende varias etapas: – Un ajuste de corriente oscura o del 0% de transmitancia: se realiza cortando el acceso de la radiación que proviene de la fuente hacia el detector por medio de un obturador mecánico. El ajuste a 0% de T supone la aplicación de una señal opuesta de tal magnitud que dé una lectura de cero en la escala. – Un ajuste del 100% T: se realiza con el obturador abierto y el disolvente en la trayectoria de la luz. En el caso del doble haz, con disolvente en ambas cubetas. Se ajusta la lectura que dé el 100% de % T. Por lo tanto, cuando se reemplaza el disolvente por la cubeta de muestra, la escala indica de manera directa el tanto por ciento de transmitancia %T =
P P × 100 = × 100 = P P0 100
[2.36]
– Línea base: si la medida se va a hacer a una determinada longitud de onda, con los pasos previos es suficiente antes de medir la muestra, pero en el caso de realización de espectros, una vez ajustado el 100% de T, debe realizarse la medida de la línea base de modo que quede ajustada la señal para todo el rango espectral. – Medida de la muestra: por último se realiza la medida con la muestra en la trayectoria del haz. Los tipos de medidas más generales que se pueden obtener en Uv-vIS son: • Scan o barrido de todo el espectro: obtendremos datos de transmitancia o absorbancia frente a las diferentes longitudes de onda. • Cuantitativo: datos de absorbancia frente a concentración a una longitud de onda determinada. Se realiza previamente a la medida una calibración con patrones de concentración conocida. • Time-drive: absorbancia frente al tiempo a una λ característica. Es decir, una cinética de reacción.
2.9.1. Parámetros de medida – resolución: la resolución de un espectrofotómetro es su capacidad para distinguir bandas de absorción adyacentes o dos líneas espectrales muy próximas como entidades separadas. Está determinada por el tamaño y características de dispersión del prisma o de la red de difracción, por el sistema óptico, o por la anchura de rendija del monocromador. También es una función de la velocidad de barrido. – anchura de rendija: la anchura de rendija es una de las variables más importantes, ya que determina la resolución y la medida de los coeficientes de extinción de las bandas. En general, es conveniente medir el espectro con diferentes anchuras, hasta conseguir que su disminución no suponga cambios apreciables en el coeficiente de extinción. La anchura de banda efectiva está determinada por la anchura de rendija y por la dispersión de la red o el prisma. Cuanto menor sea la anchura efectiva, mayor será la resolución. La resolución completa de dos líneas solo se logra si la
Técnicas de análisis y caracterización de materiales
96
anchura de rendija se ajusta de forma que la anchura de banda efectiva sea igual a la mitad de la diferencia entre sus longitudes de onda. Es decir, en el caso por ejemplo de dos bandas a 450,8 y 450,4 nm. Dλef = 1/2 (450,8-450,4) = 0,2 nm Para saber la rendija que necesitamos, aplicamos la siguiente ecuación: w = Dλef / D–1
[2.37]
donde D–1 representa la dispersión lineal del monocromador. La disminución de la anchura de rendija tiene el inconveniente de causar una reducción exponencial de segundo orden en la potencia radiante, y por lo tanto, para ajustes muy estrechos, los detalles pueden desaparecer debido a la disminución de la relación señal/ruido. – nivel de ruido: el nivel de ruido es la fluctuación de las lecturas que ocasiona una información fotométrica errónea. La magnitud del ruido varía a través de todo el rango espectral; por lo tanto, debe ser especificada para la longitud de onda en particular.
2.9.2. energía del sistema La energía que un espectrofotómetro posee a lo largo de todo el rango espectral de 190-800 nm varía debido a diferentes causas: – El límite inferior de medidas a 190 nm se debe a la absorción provocada por oxígeno atmosférico. – El límite superior en cada equipo está, en cambio, determinado por la sensibilidad de cada detector. – Alrededor de los 320-340 nm existe una caída de energía común a todos los equipos de fuente intercambiable, debido a la baja energía de ambas lámparas. – A 490 nm suele existir una pequeña caída de energía conocida como anomalía de Wood, que se produce en las rejillas de difracción.
2.9.3. Procedimiento de calibración Los aspectos de un espectrofotómetro Uv-vIS que deben ser calibrados periódicamente son: – Longitud de onda: debe realizarse frecuentemente con la ayuda de un material de referencia, que frecuentemente viene ya con el equipo, y empleando cualquiera de los picos agudos que aparecen. La diferencia entre el valor observado y el real debe encontrarse dentro de los límites de tolerancia, por lo usual ± 0,5 nm. – Sistema fotométrico: dentro del sistema fotométrico debemos comprobar a su vez, la exactitud fotométrica y la linealidad fotométrica. La exactitud fotométrica es la cercanía de una medida a su valor real y se comprueba midiendo los valores de absorbancia de patrones específicos del NIST (antiguo National Bureau of Standards), que generalmente son filtros de vidrio, o estándares líquidos donde
Espectroscopía ultravioleta-visible (UV-VIS)
97
los valores de absorbancia están certificados a determinadas longitudes de onda. Cuando no se dispone de estos patrones, se pueden sustituir por patrones de dicromato potásico. La linealidad fotométrica es la capacidad para dar una relación lineal entre la potencia radiante y la lectura final, y puede comprobarse representando la absorbancia frente a la concentración conocida de una serie de soluciones patrón de K2Cr2O7 (dicromato potásico) en solución 0,05 N de KOH. – Luz parásita: no se calibra tan frecuentemente como la longitud de onda, la exactitud o la linealidad fotométrica. Se detecta la luz parásita midiendo la absorbancia de una muestra, solución o filtro que tenga alta absorbancia, de modo que toda la luz que pase sea luz parásita. – Ruido: debe comprobarse frecuentemente dado que sus cambios afectan de manera importante a los resultados del equipo. El nivel de ruido debe comprobarse en las mismas condiciones experimentales en las que trabajemos evaluándolo en diferentes longitudes de onda, rendijas y tiempos. Las causas más frecuentes de ruido pueden ser: lámparas bajas de energía, rendijas demasiado estrechas, fallos del detector... – Alineamiento de accesorios: debe realizarla generalmente un técnico con los aparatos necesarios para alinear la óptica perfectamente. Actualmente los equipos suelen incorporar accesorios prealineados de fácil colocación.
2.10. aPlicaciOnes de la Técnica La espectroscopía Uv-vIS es una herramienta muy útil para el análisis cualitativo y la determinación estructural de especies, así como una técnica clásica para el análisis cuantitativo. Con el avance de la tecnología y la combinación con otras técnicas analíticas, las posibilidades de aplicación van en aumento.
2.10.1. análisis cualitativo La absorción Uv-vIS proporciona datos para la identificación de sustancias disueltas, lo que se logra por la forma del espectro, longitudes de onda a las que se presentan los máximos y mínimos de absorción, por los valores de absortividad molar, o por los cambios que experimenta el espectro al variar el pH, el disolvente, o la concentración. Para este tipo de aplicación es necesario que la amplitud de banda sea lo más pequeña posible para que los picos de absorción queden perfectamente definidos. Sin embargo, dado que el número de máximos y mínimos no es muy elevado, la identificación inequívoca resulta bastante difícil.
2.10.1.1. Aplicación a grupos orgánicos. Elucidación estructural La aplicación de la espectroscopía Uv-vIS para la elucidación estructural de moléculas orgánicas es bastante amplia y son innumerables los compuestos determinados y tabulados. Asimismo, son bien conocidos los efectos de los sustituyentes y la conjugación en los espectros, las diferencias entre isómeros, la presencia de uno o más cromóforos, etc., y se encuentran bien especificados en la literatura.
98
Técnicas de análisis y caracterización de materiales
En moléculas de hidrocarburos saturados donde solamente son posibles transiciones del tipo s→s*, la absorción se produce en la región de Uv de vacío, pero a medida que aumenta el número de carbonos, también lo hace la longitud máxima de absorción. Dado que no presentan en general absorción en la región Uv son compuestos muy adecuados como disolventes. La presencia de anillos aromáticos, sustituciones alquílicas, diferencias de electronegatividades con el auxocromo… producen cambios en las longitudes máximas de absorción. En compuestos que presentan un cromóforo, sus bandas están influidas por factores ambientales, y por lo tanto, podemos conocer la naturaleza de los sustituyentes en un compuesto mediante el estudio de los desplazamientos de su λmax. En general, distintos compuestos, con el mismo cromóforo, absorben a longitudes de onda muy similares. La situación se complica con la existencia de varios cromóforos: si estos están separados entre sí por enlaces sencillos, entonces podremos considerar el espectro como la suma de los de los cromóforos aislados, pero se puede producir un efecto hipercrómico según la posición de los mismos. Si los grupos están conjugados, y por lo tanto constituyen en sí un nuevo cromóforo, el espectro variará sustancialmente y se producirán desplazamientos batocrómicos. Cuanto mayor sea la conjugación, la transición p→p* será más pobre en energía y por lo tanto, de mayor longitud de onda. Por otra parte, la eliminación de un cromóforo no conjugado produce un efecto hipocrómico. Las reglas de Woodward-Fieser permiten predecir de manera bastante aproximada la λmax de absorción de dienos conjugados con sustituyentes alquilo en las insaturaciones. Se parte del valor de 217 nm para el butadieno y se le suman 5 nm por cada grupo alquilo unido a carbonos insaturados y otros 5 nm por cada doble enlace exocíclico. La razón de sumar nanómetros al valor inicial de 217 estriba en que tanto los sustituyentes alquílicos como la presencia de un doble enlace exocíclico producen un efecto batocrómico en la absorción (desplazamiento a longitudes mayores). Los valores calculados difieren en muy pocos nanómetros del valor observado. Por ejemplo: el 1,3, hexadieno (CH2=CHCH3–CHCH3=CH2) se calcularía como 217 nm +10 nm (2 grupos metilo)= 227 nm λmax.calculada. La λmax.observada es de 226 nm. Existen otras reglas de predicción, para dienos conjugados en sistemas alicíclicos con valores base algo distintos (253 nm para un sistema homoanular y 214 nm para un heteroanular) y para las cetonas a,b no saturadas. Tabla 2.3. increMenTOs Para el cálcUlO de la λMaX en dienOs y TrienOs Tipos de incrementos Cada doble enlace conjugado Cada doble enlace exocíclico Cada resto -C Cada auxócromo O-alquilo Cada auxócromo O-acilo Cada auxócromo S-alquilo Cada auxócromo N(alquilo)2 Cada auxócromo Cl o Br
valor (nm) + 30 nm + 5 nm + 5 nm + 6 nm 0 nm + 30 nm + 60 nm + 5 nm
Espectroscopía ultravioleta-visible (UV-VIS)
99
En cuanto a los compuestos aromáticos, presentan tres bandas denominadas a, p y b con longitudes de onda λmax a > λmax p > λmax b con valores de emax del orden de 102, 103 y 104–105 respectivamente. Las bandas a y p resultan de transiciones prohibidas y por eso sus coeficientes de extinción son menores, aunque la banda p ve aumentada algo su intensidad por la proximidad de la banda b. En el análisis enzimático la espectroscopía Uv-vIS se utiliza mucho para determinar tipo de enzima y reacción asociada, pues estos datos se encuentran ampliamente tabulados en la literatura. Tabla 2.4. diferenTes enziMas, sU reacción asOciada y sU lOnGiTUd de Onda de Medida Tipo de enzima Fosfatasa alcalina Catalasa Glucosa oxidasa
Tipo de reacción y λ de medida Absorbancia directa a 550 nm Liberación de agua y Abs. a 240 Reacción de color a 436
b Galactosidasa
Productos de hidrólisis a 405
2.10.1.2. Análisis inorgánico La espectrofotometría Uv-vIS permite conocer si determinada especie en disolución se encuentra como ión libre o formando complejos, por comparación con el espectro de la sustancia pura. En el caso de que dos bandas de iones inorgánicos estén interferidas, se puede adicionar alguna sustancia que reaccione selectivamente con uno de ellos y de este modo facilitar las medidas. Esto se hace, por ejemplo, con el sistema de Fe y Ni (II) cuyas bandas están interferidas y por medio de la adición de dimetilglioxima que reacciona con el Ni (II) se forma una banda intensa, que nos permite separar ambas medidas. Las medidas de reflectancia difusa de materiales tales como catalizadores nos dan la posibilidad por ejemplo de conocer el estado de coordinación de las especies implicadas. Una de las últimas novedades en la utilización de la espectroscopía de Uv-vIS la constituye el proyecto FUSE (Far Ultraviolet Spectroscopic Explorer), que consiste en un potentísimo telescopio puesto en órbita en un satélite de la NASA a mediados de 1999 para estudiar los gases fuera de la atmósfera. Este telescopio consta de un espectrofotómetro y una cámara que opera en el rango de 90 a 120 nm aproximadamente (rango del Uv de vacío), con una gran sensibilidad y poder de resolución. En el plasma espacial, parte del hidrógeno se convierte en deuterio, y parte del deuterio en helio, por adición de un protón al núcleo. En el proceso de formación del universo, la relación D/H ha variado de manera importante. La alta tecnología de que dispone permite captar la radiación Uv de grandes distancias, y determinar la presencia de deuterio, hidrógeno y otros iones en la trayectoria del haz. Con este proyecto se pretende estudiar el comienzo del universo, de las supernovas y del Big-Bang.
Técnicas de análisis y caracterización de materiales
100
2.10.2. análisis cuantitativo Los métodos clásicos gravimétricos o volumétricos ampliamente utilizados en la determinación cuantitativa de concentraciones han sido sustituidos por métodos espectrofotométricos siempre que se cumpla la ley de Beer y se pueda construir la correspondiente curva de calibrado. Además es posible determinar más de una especie, siempre que sus máximos de absorción no interfieran. Las ventajas que la espectroscopía de absorción presenta en el análisis cuantitativo son: – Gran aplicabilidad, tanto a especies absorbentes como no absorbentes (por formación de complejos) y tanto para compuestos orgánicos como inorgánicos. – Selectividad bastante alta. – Sensibilidades del orden de 10–5 M llegando en ocasiones a 10–7 M. – Sencillez en la adquisición de datos y buena precisión del método. El primer paso en la determinación cuantitativa de concentraciones es seleccionar la longitud máxima de absorción a la que se van a efectuar las medidas, pero hay que tener en cuenta que son muchos los factores que pueden afectar al valor máximo, como son el exceso de un reactivo, el pH, el efecto del tiempo y de la temperatura, la estabilidad de los compuestos, las interferencias, el cumplimiento de la ley, etc. En general, para la determinación de concentraciones, las condiciones experimentales se deben encontrar entre el 20 y 70% de T (A=0,15 y 0,7), para que el error relativo de concentración sea lo menor posible. Los cálculos se pueden hacer: – Aplicando directamente la ley de Beer: utilizando el coeficiente de extinción molar y aplicando la ley de Beer si se cumple para nuestro sistema. – Mediante la utilización de un blanco y patrones para crear una recta de calibrado, dada la cantidad de desviaciones que puede sufrir dicha ley. Actualmente los espectrofotómetros no solo elaboran rápidamente la recta sino que nos proporcionan la ecuación de la recta, eliminan puntos que se desvíen demasiado, permiten su almacenamiento para usos posteriores, etc.
2.10.2.1. Análisis de un solo componente Los compuestos orgánicos suelen tener un coeficiente de extinción molar alto y, por lo tanto, las concentraciones se pueden determinar directamente en la longitud de onda de máxima absorción Los compuestos inorgánicos suelen tener un coeficiente de extinción bajo, y por lo tanto se suele preparar un complejo cuyo coeficiente sea alto, o bien lograr el desplazamiento de bandas a longitudes de onda que nos interese para evitar perturbaciones y aumentar la selectividad. Son típicas la adición de 1,10-fenantrolina con hierro (II), de dimetilglioxima con el Ni (II) o la difenilditiocarbazona para el Pb. Esto es también aplicable para ciertos compuestos orgánicos no absorbentes, como los alcoholes, que por adición de isocianato de fenilo absorben fuertemente.
Espectroscopía ultravioleta-visible (UV-VIS)
101
Para tener resultados reproducibles debemos tener en cuenta los siguientes factores: – La reacción debe ser estequiométrica y completa. – La constante de equilibrio debe ser alta. – El espectro del ligando no debe interferir con el del complejo. Mediante la formación de complejos estables fuertemente coloreados (sobre todo de tipo quelato) y su extracción en disolventes orgánicos, la sensibilidad aumenta de manera importante y permite el análisis de trazas en el orden de las ppm. Esta técnica se denomina espectrofotometría extractiva. Tabla 2.5. liGandOs cOMUnes UTilizadOs en la deTerMinación de iOnes MeTálicOs ión metálico Aluminio
ligando Ácido sulfosalicílico
Bismuto
Tiourea
Cobalto
2, 2', 2" Terpiridina
Estaño Iv
3, 3-ditiol tolueno
Hierro II
2, 2' bipiridina
Molibdeno v
3, 4-ditiol tolueno
Titanio Iv
Ácido sulfosalicílico
2.10.2.2. Análisis de multicomponentes El análisis de varios componentes implica la utilización de ecuaciones simultáneas. Si se han de determinar n componentes, habrá que disponer de n ecuaciones que relacionen concentraciones y absorbancias. De acuerdo con la ley de LambertBeer, la absorbancia medida a una determinada longitud de onda corresponde a la suma de las absorbancias de todos los componentes de la mezcla a esa longitud dada. Así, por ejemplo, en una mezcla de tres componentes, a, b y c, para una longitud de onda λ1, la absorbancia corresponderá a: Absλ1= eaλ1 · l · caλ1 + ebλ1 · l · cbλ1 + eλ1 · l · cλ1 c c
[2.38]
y para una λ2 y λ3: Absλ2 = eaλ2 · l · caλ2 + ebλ2 · l · cbλ2 + ecλ2 · l · ccλ2 Absλ3 = eaλ3 · l · caλ3 + ebλ3 · l · cbλ3 + ecλ3 · l · ccλ3 Disponiendo de tantas ecuaciones a diferentes longitudes de onda como componentes tiene la mezcla, y conociendo los coeficientes de extinción de cada componente a las diferentes longitudes de onda, podremos resolver las ecuaciones y hallar las concentraciones de cada componente. Para más de tres componentes, los cálculos resultan muy complejos y requieren el uso de un ordenador.
Técnicas de análisis y caracterización de materiales
102
Los resultados más exactos se consiguen cuando las absortividades molares de los diferentes componentes son muy distintas a la misma longitud de onda, y siempre, claro está, que se cumpla la ley de Beer.
2.10.2.3. Determinación de la composición de complejos A partir de datos espectroscópicos, se puede estudiar la constante de formación de un complejo en disolución, así como la relación molar metal-ligando. La determinación de la composición del complejo puede determinarse por tres métodos: – Método de las variaciones continuas. Suponemos la reacción de formación de un complejo ML coloreado a partir de M y L que son incoloros M + L ↔ ML Se preparan mezclas de la misma concentración de M y L, con diferentes proporciones M/L, pero donde la concentración total M+L es constante. Se grafican los datos de absorbancia obtenidos para cada una de las mezclas frente a la fracción molar de uno de los componentes. Para el caso del metal, su fracción molar sería volM/(volL + VolM) y para el ligando volL/(volM + VolL). Se obtendrá entonces una curva como la de la Figura 2.33a. A partir de las tangentes de la curva se determina la fracción molar de M o L respectivamente y de ahí la composición del complejo. – Método de la relación de pendientes. Partiendo de la misma reacción, suponemos que el complejo posee una constante de formación baja. Si utilizamos un exceso de L la reacción se desplazará a la derecha y [M] y [ML] se consideran iguales. Si graficamos la absorbancia de M frente a [M], obtendremos una recta de pendiente AbsM/[M]. Lo mismo se puede hacer con un exceso de M en la que la reacción se desplace de manera que [L] y [ML] sean iguales, y obtendremos otra recta de pendiente AbsL/[L]. A partir de la relación de ambas pendientes podemos obtener la relación M-L. Este método queda ilustrado en la Figura 2.33b. – Método de las relaciones molares. Partiendo de la misma reacción se preparan distintas mezclas M + L en la que los moles (generalmente del metal) se mantienen constantes y va variando el número de moles del ligando. Al graficar frente a absorbancia se obtiene una curva del tipo de la que observamos en la Figura 2.33c. De la tangente de la curva podemos obtener la relación molar metal-ligando M/L. Si mantuviésemos constante L y variásemos M, en el cambio de pendiente obtendríamos la relación L/M. K =
ML M ⋅ L
[2.39]
A partir de este último método se puede calcular además la constante de formación del complejo.
Espectroscopía ultravioleta-visible (UV-VIS)
103
b
a
c
Fracción molar
L M
Concentración del componente variable
Absorbancia
M
Absorbancia
Absorbancia
L
Moles de ligando por moles de metal (o viceversa)
Figura 2.33. Representación del método de las variaciones continuas (a); del método de la relación de pendientes (b) y del método de las relaciones molares (c).
2.10.2.4. Determinación de equilibrios y constantes de disociación La determinación de una constante de equilibrio requiere del conocimiento de las actividades o de las concentraciones de reactivos y productos. Dado que a partir de la espectroscopía de absorción Uv-vIS podemos determinar la concentración de especies absorbentes, esta técnica resulta una herramienta muy eficaz en la determinación de constantes de equilibrio. El campo en el que mayor aplicación ha encontrado es en el de la determinación de los valores de pK de ácidos y bases. Suponemos la reacción: Ácido + H2O ↔ H3O+ + base La determinación de Ka se realiza a partir de diferentes disoluciones de igual concentración de ácido (o base) pero a diferentes pH y la determinación del punto isosbéstico Absorbancia total = ·eácido · b · cácido + ebase · b · cbase = ·e · b · (cácido + cbase)
[2.40]
Los valores de eácido y ebase se obtienen de disoluciones muy diluidas de ácidos y bases fuertes, en las que las concentraciones de base o ácido sean despreciables respectivamente. Para la determinación de e se utilizará una disolución tampón con un pH intermedio. En el punto isosbéstico de longitud de onda λa, las absortividades de la reacción en medio ácido y básico, así como la solución tampón coinciden. Conociendo el valor de pH de esta disolución tampón se obtiene: pK a = − log
cH 3 O+ ⋅ cbase cácido
= pH + log
cácido ε − ε base = pH + log cbase εácido − ε
[2.41]
Técnicas de análisis y caracterización de materiales
104
Para determinar con mayor exactitud el valor de pK se debe obtener el promedio de los resultados obtenidos para diferentes longitudes de onda. De manera semejante se procede para la determinación de Kb de una base.
2.10.3. cinéticas La base del estudio de la cinética de las reacciones es la de determinar la concentración a lo largo del tiempo, y la espectroscopía Uv-vIS es una herramienta particularmente útil en estos estudios, especialmente si uno de los reactantes o de los productos absorbe de manera intensa. La reacción se sigue a partir de una especie cuyo coeficiente de extinción molar es diferente al de la especie inicial a la misma longitud de onda. Se obtiene de este modo la representación de las absorbancias frente al tiempo que da lugar a una recta cuya pendiente representa la cinética de la reacción (Figura 2.34). 2,00
Absorbancia
1,50
1,00
0,50
0,00 0,0
40,0
80,0 120,0 160,0 Tiempo (segundos)
200,0
Figura 2.34. Representación esquemática de las cinéticas de un componente al variar las condiciones de ensayo.
Esta aplicación es muy utilizada para determinar actividades enzimáticas, en las que se utiliza un sustrato sintético análogo a los sustratos naturales que contienen un grupo cromóforo. El grupo cromóforo interviene formando parte del enlace cuya hidrólisis cataliza el enzima, de modo que al producirse la reacción se libera el cromóforo y experimenta un desplazamiento a su longitud de onda máxima. Es a esta longitud de onda a la que se realizan los ensayos, pues es donde hay mayores diferencias de absorbancia con el sustrato. El valor óptimo de longitud de onda debe determinarse en unas condiciones de pH y temperatura que vienen definidas por las condiciones del enzima en ensayo. Para mantener estas condiciones a lo largo de todo el estudio
Espectroscopía ultravioleta-visible (UV-VIS)
105
se utilizan disoluciones tampón, y celdas termostatizadas y con agitación magnética para que la mezcla se mantenga homogénea. El ensayo de actividad se realiza añadiendo sobre una solución del sustrato una alícuota del enzima y se registra a la longitud seleccionada el incremento de la absorbancia del producto de la reacción (el cromóforo liberado). La pendiente corresponde al aumento de absorbancia por unidad de tiempo. El cálculo de las unidades de enzima se realiza a partir de: U =
∆Abs / min× Vcubeta ( ml) ε producto ( mol−1 ) × Valícuota ( ml)
[2.42]
El espectro de la reacción debe medirse lo más rápidamente posible, por lo que un equipo multicanal con un detector de fotodiodos resulta lo más adecuado. Sin embargo, con aparatos con lámparas de flash se consiguen espectros en unos 10–15 s, lo que nos permite captar los intermedios químicos producidos en la reacción. Además, en lugar de obtener el valor de absorbancias para una longitud de onda determinada, podemos obtener el espectro completo resultante de la reacción a lo largo del tiempo.
2.10.4. Valoraciones espectrofotométricas Se utilizan para la identificación del punto de equivalencia de una valoración, cuando el reactivo o el producto absorben radiación, o bien mediante un indicador absorbente. Los datos se presentan como los cambios de volumen en ordenadas frente a absorbancia en abscisas. Las gráficas que se obtienen están constituidas por dos segmentos lineales, anterior y posterior al punto estequiométrico, que se extrapolan para determinar el punto final. Para que podamos hallar un punto final adecuado, es necesario que el sistema absorbente cumpla con la ley de Beer, pues si no, la curva carecerá de las zonas lineales para la extrapolación del punto final. Además, es necesario corregir los datos de absorbancia debido al cambio constante de volumen multiplicándolas por el factor: Abscorregida = (V+ v) / V x Absobservada
[2.43]
donde V representa el volumen inicial de la disolución y v el del reactivo añadido hasta el punto de que se trate. Este tipo de valoraciones se ha utilizado ampliamente tanto en sistemas redox como ácido-base, y posee la ventaja sobre otros métodos (potenciométricos, de indicador...) de que el punto final es más preciso, debido a que se toman datos más allá del punto de equivalencia y por lo tanto no requieren constantes de equilibrio tan favorables como las requeridas por otros métodos. Además, se utilizan para valoraciones con agentes complejantes e incluso para valoraciones de precipitación. En este último caso, el producto suspendido disminuye el poder radiante por dispersión y las valoraciones se efectúan en condiciones de turbidez constante.
Técnicas de análisis y caracterización de materiales
106
Dependiendo de las características de absorción de reactivos y productos, son posibles distintos tipos de curvas de valoración, dos de las cuales se muestran en la Figura 2.35. 0,05
0,10
a
0,08 Absorbancia
Absorbancia
0,04 0,03 0,02 0,01
b
Punto final
0,00
0,06
Punto final o 2. catión
0,04 0,02
Punto final er 1. catión
0,00 Volumen de reactivo
Volumen de reactivo
Figura 2.35. a) Curva de valoración en la que los reactivos absorben y el producto no; b) Curva de valoración sucesiva de dos cationes.
2.11. esPecTrOscOPía fOTOacúsTica La espectroscopía fotoacústica o espectroscopía optoacústica se utiliza para obtener espectros de absorción de sólidos y líquidos turbios, por detección de una señal acústica. La muestra se coloca en una celda cerrada que contiene algún tipo de gas o líquido no absorbente y un micrófono muy sensible. Un haz intermitente incide sobre la muestra que absorbe la radiación y como consecuencia de esta absorción se produce un calentamiento de la misma que provoca un flujo de calor periódico hacia el gas que lo rodea y que da lugar a fluctuaciones de presión en la cámara. Si la intermitencia de las fluctuaciones corresponde con el intervalo de frecuencia acústica, estas variaciones pueden ser detectadas por el micrófono. La potencia del sonido es proporcional a la absorción de radiación por la muestra. La radiación reflejada por la muestra no produce señal y sale a través de las ventanas transparentes de la celda. El espectro se representa como la señal acústica relativa frente a la absorbancia. Los instrumentos utilizados en este tipo de espectroscopía difieren algo de los convencionales de Uv-vIS. La fuente de radiación suele ser una lámpara de arco de xenón y la radiación debe ser pulsada a una frecuencia acústica, generalmente 501.200 Hz. Las celdas fotoacústicas están especialmente diseñadas para este fin y se llenan generalmente con aire o helio libres de CO2 y vapor de agua. Por otro lado, se necesita un amplificador de la señal acústica. En instrumentos de doble haz, la celda de referencia está llena con carbón en polvo que absorbe toda la radiación y sirve como referencia para determinar la absorbancia de la muestra. Las aplicaciones de la espectroscopía fotoacústica abarcan desde el estudio de minerales, semiconductores, tejidos animales y vegetales, plásticos, fármacos, catalizadores, espectros de cromatogramas de capa fina, etc.
Espectroscopía ultravioleta-visible (UV-VIS) Fuente de radiación modulada
Monocromador
107
Celda fotoacústica
Micrófono
Amplificador
Muestra
Figura 2.36. Diagrama de un espectrómetro fotoacústico de haz simple.
2.12. cálcUlO de TriesTíMUlOs La técnica de espectroscopía Uv-vIS es de gran importancia en el estudio de los vidrios, pues se puede obtener información sobre su historia térmica, composición, ordenación estructural..., a partir de sus propiedades ópticas. El estudio de las propiedades ópticas es un requisito esencial para obtener sistemas de alta calidad como vidrios de joyería, filtros de luz… En este sentido la espectroscopía Uv-vIS permite determinar las propiedades tricromáticas o coordenadas de color de un vidrio, así como obtener resultados sobre la longitud de onda dominante, pureza de color y luminosidad. La luz de cualquier color puede ser dividida en una mezcla de rojo, azul y verde, representado en la ecuación de triestímulos. c ( C ) = r ( R ) + g ( G ) + b( B )
[2.44]
Es decir: a c unidades del color (C), le corresponden r unidades de rojo (R), g unidades de verde (G) y b unidades de azul (B). La expresión de esta ecuación para una unidad de color C es: (C ) =
g r b ( R) + (G ) + ( B) r +b+ g r +b+ g r +b+ g
[2.45]
Donde podemos representar los triestímulos normalizados g r b , , r+g+b r+g+b r+g+b como x, y y z de manera que su suma sea la unidad. Estas coordenadas se representan en un diagrama de color y se determina la cromaticidad del cristal. veamos esto con un ejemplo práctico: supongamos que obtenemos el espectro de un vidrio, tal y como se muestra en la Figura 2.37a, y a partir del mismo hallamos sus coordenadas tricromátricas, que resultan ser x = 0,52; y = 0,44; z = 0,06. Los valores de x e y se representan en el esquema de la Figura 2.37b dividido en regiones
Técnicas de análisis y caracterización de materiales
108
coloreadas. La intersección de los valores en el esquema da el color del vidrio, en este caso amarillo. 80 0,8
verde
% Transmisión
60 0,6 amarillo 40
Y 0,4
azul blanco
20
rojo
0,2 violeta
0
0,0 400
500 600 700 Longitud de onda (nm)
800
0,0
0,2
0,4 X
0,6
0,8
Figura 2.37 a y b. Espectro de un vidrio y representación de sus coordenadas tricromátricas.
bibliOGrafía 1. Harris, D. C. Quantitative Chemical Analysis, W. H. Freeman and Company ed., 1991. 2. Dixon, R. N. Espectroscopía y estructura, Alhambra, 1967. 3. PretsCh, E.; ClerC, T.; Seibl, j.; SiMon, W. Tablas para la elucidación de compuestos orgánicos por métodos espectroscópicos, Alhambra, 1980. 4. jaFFé, H. H.; OrChin, M. Theory and applications of ultraviolet spectroscopy, john Wiley and Sons, Inc., 1962. 5. Hollas, j. M., Modern espectroscopy, john Wiley and Sons, Inc., 1993. 6. KortüM, G. Reflectance espectroscopy, Springer-verlag, 1969. 7. Rao, C. N. Espectroscopía ultravioleta y visible, Alhambra, 1970. 8. SkooG, D. A.; Leary, j. j. Análisis instrumental, Mc Graw-Hill, 1994. 9. WorkMan, j. Applied spectroscopy, en j. Workman y A. Springsteen (eds.), Academic Press, 1998. 10. WriGht, W. D., The measurement of colour, Hilger & Watts Ltd., 1958.
3. esPecTrOscOPía de lUMiniscencia: flUOrescencia y fOsfOrescencia Cristina otero hernández Instituto de Catálisis y Petroleoquímica (CSIC)
3.1. inTrOdUcción Los relámpagos, piedras preciosas fosforescentes, animales, algas y hongos fluorescentes son fenómenos fotoluminiscentes conocidos desde la antigüedad. El descubrimiento en 1603 de la fosforescencia («portador de luz» en griego) es atribuido al alquimista italiano vicenzo Casciarola, quien observó una emisión de luz rojiza en «piedras pesadas» al calentarlas para convertirlas en oro o plata. Más tarde, en el siglo xvii, se estudió científicamente. La primera teoría sobre el fenómeno se atribuye a Philipp Lenard. El descrubrimiento de la fluorescencia (de fluorita o espato de flúor) se atribuye a Sir George G. Stokes, quien propuso su empleo con fines analíticos en 1854. Actualmente, gracias al desarrollo de nuevos instrumentos, software, sondas fluorescentes y aplicaciones, los métodos luminiscentes constituyen una poderosa herramienta analítica, especialmente en ciencias de la vida y de los materiales. Esta permite la determinación cuantitativa de una gran variedad de especies inorgánicas y orgánicas a nivel de traza. Su sensibilidad permite límites de detección de attomoles ( 0,05-1 cm de paso de luz), porque se excitan solo la fracción de moléculas más superficiales (efecto de filtro interno) y/o parte de luz emitida es reabsorbida por otros fluoróforos presentes (autoabsorción). En esos dos casos la señal de fluorescencia es menor que la que corresponde a la concentración de analito presente. El proceso de fluorescencia de un analito A puede esquematizarse de la forma: a) Excitación A + hνex → A * b) Emisión F A * k → M + hν flúor N A * k →A
siendo la velocidad de desaparición de la especie activada −
d A * dt
= A * ( kF + kN )
La constante kF engloba la emisión de fluorescencia y kN las emisiones no radiantes. El tiempo de vida de fluorescencia de A* viene dado por τ=
1 kF + kN
Técnicas de análisis y caracterización de materiales
114
y el rendimiento cuántico de fluorescencia, o razón entre el número de moléculas excitadas que fluorescen y el número total de moléculas excitadas, viene dado por φF =
kF τ = τ0 kF + kN
Una vez cesa la radiación, la intensidad de fluorescencia decae según la siguiente ecuación exponencial Ft = F 0 ∗ e− (k F + kN )
o
Ft = e− ( kF + kN ) t F0
donde F0 y Ft son las intensidades de fluorescencia a t = 0 y t = t. kN = kI + kT + kE [Q] + kPD + kD y la inversa de τ es la probabilidad por unidad de tiempo de que el electrón retorne al estado fundamental. 1/τ = kF + kN = kF + kI + kT + kE [Q] + kPD + kD donde I, T, E, PD y D hacen referencia a las posibles pérdidas de energía por procesos de transferencia interna, cruce entre sistemas, conversión externa con un aceptor Q, predisociación y disociación, y ki las constantes de velocidad de los respectivos procesos. La intensidad de emisión de fluorescencia de una sustancia depende de: – Su capacidad para absorber luz (absortividad molar). – La eficacia con que convierte la luz absorbida en luz fluorescente emitida (rendimiento cuántico). El producto de estos dos parámetros es proporcional a la intensidad de fluorescencia por molécula de fluoróforo, y permite comparar capacidades fluorescentes de distintos analitos. Normalmente la absortividad molar y el rendimiento cuántico tienen valores de 5000-200.000 cm–1 · M–1 y 0,05-1,0 respectivamente. Además, la intensidad de fluorescencia depende de la eficiencia del aparato en la colección de la emisión fluorescente. Normalmente la emisión se detecta en el centro de la cubeta, por lo que tanto la luz excitadora como la emitida recorren media cubeta antes de ser detectadas. Por ello en muestras con alta auto-absorción por la disolución (efecto de filtro interno), la intensidad de emisión puede resultar subestimada por efecto de la densidad óptica. La intensidad de fluorescencia para este tipo de muestras se corrige por las densidades ópticas de emisión y excitación, de la forma2,4 Fcorr = F * 10 [DO (em) + DO (ex)]/2 La difusión de luz (Rayleigh y Raman) puede interferir en los espectros de emisión. Los fotones se difunden con la misma energía que se excitan. Dado que la difusión Rayleigh y la excitación tienen la misma longitud de onda, los espectros de
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
115
emisión deben comenzar a longitudes de onda mayores que la de excitación. Los enlaces O-H originan difusión Raman en agua. La difusión Raman aparece a longitudes de onda mayores que la Rayleigh, y debe substraerse del espectro de emisión. La posición del pico Raman se calcula de la forma4 1/ λ raman = 1/ λ excitación – 0,00034 Expresando las longitudes de onda en nm.
3.2.3. Factores que afectan a la fluorescencia Los espectros de absorción y emisión de fluorescencia de un átomo o molécula caracterizan las distribuciones electrónicas en sus estados fundamental y excitado, respectivamente (Figura 3.1). Cualquiera que sea la longitud de onda de excitación, la emisión de fotones ocurre desde el estado excitado S1 de la molécula (Figura 3.2). En consecuencia, la energía (longitud de onda máxima) de emisión fluorescente no depende de la energía de la fuente excitadora. La energía (o longitud de onda) de la luz fluorescente emitida tampoco depende de la intensidad de luz incidente (véase Figura 3.2). Por el contrario, según se ha demostrado la intensidad de la emisión fluorescente es función de la intensidad y longitud de onda de la fuente excitadora (Figura 3.2), y de la concentración y capacidad fluorescente del analito. La fluorescencia depende además de otros factores.
Intensidad de luz
Espectro de excitación
Espectro de emisión EM1
EM2
EM1
EX3
EX2 EX3 Longitud de onda
EM1, 2, 3
Figura 3.2. Excitación de una sonda fluorescente a diferentes longitudes de onda (λex1, λex2, λex3) y las distintas intensidades de emisión (I1, I2, I3) que producen.
3.2.3.1. Factores estructurales del analito La capacidad de una sustancia para emitir fluorescencia depende de la existencia y tipo de cromóforos, el tipo y posición de sustituyentes, la simetría, rigidez y planaridad de la molécula.
116
Técnicas de análisis y caracterización de materiales
La molécula debe contener grupos cromóforos, capaces de absorber energía Uv o del visible próximo. No obstante moléculas con cromóforos pueden no emitir fluorescencia si coexisten procesos no radiantes que lo impiden. Además, la estructura química del analito tiene una gran influencia. Los procesos de emisión van asociados a procesos de transferencia de carga, que modifican la simetría molecular. Moléculas planas y con gran simetría tienen espectros de absorción y emisión de fluorescencia muy netos. La planaridad determina la emisión de fluorescencia. La rigidez favorece una orientación constante de los componentes del cromóforo. La rigidez en sí no es determinante, pero favorece la permanencia de la configuración plana en la molécula. La presencia de sustituyentes ejerce una mayor influencia en la fluorescencia que en la fosforescencia; estos alteran el rendimiento cuántico, el desplazamiento de Stokes y los tiempos de vida del estado singlete excitado. Ello permite diferenciar isómeros de una molécula por fluorescencia (ej., neopina y proteína o morfina y heroína). Cuando los factores estéricos inhiben la resonancia total de la molécula, dos cromóforos diferentes en una molécula contribuyen independientemente al espectro. Sustituyentes no coplanares con el grupo cromóforo ejercen una mínima influencia en las bandas de absorción y emisión. Un fluoróforo presentará valores diferentes de vida media de fluorescencia en los siguientes casos: – Su estado fundamental es heterogéneo, formado por diferentes confórmeros con distinta vida media. – El movimiento interno de toda la macromolécula, proteína, etc. – Existencia de más de un fluoróforo (ej., triptófanos en una proteína) con distinto microentorno, que diferirán en su emisión. Fluoróforos intrínsecos de proteínas son los aminoácidos Phe, Tyr y Trp, cuya fluorescencia permite estudiar su entorno en la proteína, cambios conformacionales en la misma, etc. Fluoróforos extrínsecos son los que al unirse o no covalentemente a la macromolécula (péptidos, proteínas, membranas, DNA) aportan información sobre la región de la macromolécula por donde interaccionan.
3.2.3.2. Propiedades fisico-químicas de la preparación El rendimiento cuántico y los espectros de excitación y emisión de un analito pueden verse afectados por la fuerza iónica, pH y polaridad del entorno, temperatura, intensidad de luz excitante, su unión covalente a un ligando, interacciones no covalentes con otras moléculas, presencia de oxígeno que puede actuar como amortiguador, etc. (Figura 3.3, Tabla 3.1). Muchos proveedores de reactivos fluorescentes indican las características fluorescentes de estos en varias condiciones. Las movilidades globales y locales del fluoróforo, de las moléculas de disolvente y de los amortiguadores dependen de la temperatura, de la viscosidad, y de la densidad del medio. Estos parámetros del entorno modifican los espectros de emisión (intensidad de fluorescencia, rendimiento cuántico, etc.). En el caso de macromoléculas (proteínas, etc.), la rigidez de la estructura del entorno de los fluoróforos (aminoácidos próximos) modifica la emisión fluorescente.
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
117
Los fluoróforos pueden ser dependientes o no de la temperatura según lo sea o no el proceso de fluorescencia de los mismos. El aumento de temperatura favorece el movimiento Browniano de las moléculas en disolución (fluoróforo, disolvente, etc.). A mayores temperaturas aumenta el número de colisiones entre moléculas de fluoróforo y disolvente, favoreciéndose así la transferencia de energía entre las mismas. La vida media de fluorescencia es menos sensible a cambios de temperatura que el rendimiento cuántico. Para fluoróforos dependientes de temperatura, la constante global de velocidad del proceso de fluorescencia dada por la ecuación de Jablonski, incluye además un término correspondiente a la constante del proceso de desactivación debido a la temperatura.2 La energía de activación del fluoróforo puede calcularse mediante la clásica representación de Arrhenius para esa constante.2 Tabla 3.1. efecTO de la cOnsTanTe dielécTrica del MediO en la eMisión de flUOrescencia del PirenOcarbOXaldeHidO a 30 ºc (laura robledo, tesis doctoral, 1996) Medio Hexanol Butanol Propanol Micela de AOT en agua (Wo = 5) Etanol Metanol Agua
constante dieléctrica 13 17,5 20,3 – 24,5 32,7 78,5
λ máxima de Emisión (nm) 431 431 432 442 444 457 468
400
agua
Intensidad (u.a.)
300
AOT
200
100
AOT-Tween
0 350
375
400
425
450
475
500
Longitud de onda (nm)
Figura 3.3. Emisión de fluorescencia del pireno en agua, en micelas simples de AOT (W0=5,20 y 50) y en micelas mixtas de AOT-TWEEN. Tesis doctoral de Laura Robledo, 1996.
118
Técnicas de análisis y caracterización de materiales
Las interacciones entre el cromóforo y moléculas del disolvente son de tipo dipolo-dipolo: electrostático y enlaces de hidrógeno. Las orientaciones del dipolo del fluoróforo son diferentes en el excitado y fundamental. La interacción del estado excitado es inestable, y rápidamente aumenta su estabilidad reorientando el dipolo mediante transferencia de energía del fluoróforo al microentorno (fenómeno de relajación). La emisión de fluorescencia ocurre tras la reorientación del momento bipolar, es decir, tras la relajación. Cuando el disolvente es muy polar, las interacciones dipolo-dipolo requieren mucha energía. La cantidad de energía para relajar el dipolo es importante. La fluorescencia es de menor energía, y el pico de absorción se desplaza a valores bajos de longitud de onda. Al disminuir el número de fotones emitidos, la intensidad y el rendimiento cuántico disminuyen. Por el contrario, las interacciones dipolo-dipolo con disolventes de baja polaridad son débiles, y la energía requerida para el proceso de absorción es baja, localizándose el pico de absorción a mayores longitudes de onda. Los desplazamientos del valor de longitud de onda hacia el rojo y el azul se denominan desplazamientos batocrómicos e hipsocrómicos, respectivamente. Un ejemplo típico es de los cromóforos unidos a proteínas, cuyo espectro de absorción se desplaza hacia el azul al localizarse normalmente en un entorno más hidrofóbico que el del cromóforo libre en disolución. Dado que el entorno del cromóforo en la proteína (ej., Trp) es relativamente flexible, y la relajación del momento bipolar es más rápida que la emisión de fotones, la fluorescencia se emite desde el mismo nivel energético. Así la longitud de onda de emisión resulta independiente de la de excitación en moléculas flexibles. Sin embargo, la emisión fluorescente ocurre antes que la relajación en moléculas rígidas. La emisión fluorescente ocurre a mayores longitudes de onda cuando se excita a mayor longitud de onda si el entorno es rígido. Por tanto, desplazamientos del pico de emisión pueden ser debidos al aumento de la densidad del medio o de la rigidez (emisión desde un estado no relajado). Sustancias presentes en el medio pueden afectar tanto a la intensidad como a la longitud de onda de los espectros de absorción y emisión del fluoróforo. En 1980 se descubrió la primera sonda (del inglés probe) sensible a iones calcio. Desde entonces se han desarrollado sondas que permiten identificar la localización, medir cambios y niveles de concentraciones de iones intracelulares. Cromóforos sensibles a la presencia de iones (H+, Mg+2, Ca+2) son útiles para determinar cambios de concentración de los iones en lípidos. Por ej., la fluoresceína es sensible a los tres iones, y el rojo fenol es un indicador de pH en cultivos celulares. Hoy en día se conocen sondas fluorescentes de gran utilidad para el estudio de membranas biológicas, sistemas coloidales e interacciones proteína-membrana.5 Existen además moléculas activadoras o inhibidoras de la fluorescencia de otros compuestos (véase quenching en apartado 2.4). La fotodestrucción (fotobleaching) de un cromóforo es debida a empleo de luz muy intensa. Ocurre porque generalmente la molécula en estado excitado es químicamente más reactiva que en el estado fundamental. Se debe a múltiples reacciones fotoquímicas. La fluoresceína es muy sensible a la luz láser intensa. Se origina en un triplete excitado procedente de un singlete excitado (entrecruzamiento de sistemas). Se reduce usando sistemas de detección de luz poco intensa, como cámaras CCD, alta apertura numérica del objetivo y filtros con la mayor anchura de banda de emi-
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
119
sión compatible con una buena separación de banda espectral. También pueden usarse etiquetas fluorescentes (labels) más foto-resistentes. La autofluorescencia o fluorescencia endógena de una muestra produce una línea base en el espectro y reduce notablemente la sensibilidad del método. La línea base típica de fluidos biológicos se reduce usando marcas excitables a >500 nm. La difusión de luz de medios densos como tejidos se reduce con luz excitadora más penetrante.
3.2.4. Interacciones fluoróforo-fluoróforo: amortiguación de fluorescencia (quenching), autoquenching, formación de excímeros y freT1, 6 Aun en ausencia de efecto de filtro interno o autoabsorción, la señal de fluorescencia de A puede disminuir en presencia de otro tipo de molécula (Q). La amortiguación puede ser colisional, estática o de Föster. La amortiguación colisional requiere la colisión entre el amortiguador y el cromóforo (por ejemplo, moléculas de oxígeno difunden y colisionan con los Trp de una proteína, reduciendo su emisión fluorescente). La amortiguación estática ocurre cuando el amortiguador forma un complejo no fluorescente con el analito fluorescente (por ejemplo, un ligando unido a la proteína puede reducir la fluorescencia de sus Trp). La amortiguación colisional implica transferencia de energía del estado excitado del analito, por interacción entre las moléculas de este y del amortiguador. Ocurre después de haber experimentado el analito su relajación vibracional, según kQ A * + Q → N + Q ' kQ A * + Q → N * + Q ' donde el tiempo de vida es τ' =
1 kF + kN + kQ
∗ Q
y el rendimiento cuántico de fluorescencia φ' F =
kF kF + kN + kQ ∗ Q
Al aumentar el número de moléculas de amortiguador, el de fotones emitidos se reduce. Así, la intensidad de fluorescencia y su rendimiento cuántico disminuyen al aumentar la concentración de amortiguador. Debido a la colisión, la vida media del proceso fluorescente disminuye. La relación de intensidad de fluorescencia en ausencia (F) y presencia (F’) de amortiguador es igual a la de sus rendimientos cuánticos, dada la proporcionalidad entre F y f. Dicha relación se conoce como ecuación de Stern-Volmer: kQ Q φF F = = 1+ F' kF + kN φF '
Técnicas de análisis y caracterización de materiales
120
o bien
F = 1 + k ∗ Q F'
donde
k =
kQ kF + kN
La determinación experimental de la relación F/F’ frente a la concentración de amortiguador Q permite determinar la velocidad de amortiguación (kQ). La amortiguación o quenching colisional permite estudiar la proximidad de los fluoróforos al amortiguador, y la velocidad de difusión del último (ej., aminoácidos fluorescentes en proteínas). La accesibilidad de ciertos aminoácidos en una proteína puede ser determinada mediante amortiguadores que perturban la fluorescencia de estos. Valores bajos de kQ corresponden a grupos poco accesibles al amortiguador (dentro de la estructura proteica). Estos residuos experimentan un desplazamiento hacia el azul, correspondiente a un entorno menos polar. En el caso de amortiguadores iónicos, una fuerte dependencia de la señal con la fuerza iónica indica efectos electrostáticos. Por ej., Lys, Arg, His, Asp o Glu afectan a la amortiguación. El valor de kQ disminuye si amortiguador y fluoróforo son de la misma carga. Un experimento típico de determinación del número de agregación del tensioactivo y tamaños micelares mediante estudios de amortiguación de fluorescencia se muestra en la Figura 3.4. 1,2
1
Ln (Io/I)
0,8
0,6
0,4
0,2
0 0
5
10
15
20
25
30
35
40
[Q] x 10 M 4
Figura 3.4. Variación de ln (Io/I) de sonda fluorescente con la concentración de amortiguador en micelas inversas de AOT en agua de diferentes tamaños de gota (de menor a mayor pendiente Wo = 5, 10, 15 y 20, respectivamente). Tesis doctoral de Laura Robledo, 1996.
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
121
La amortiguación estática ocurre al interaccionar el analito en estado singlete fundamental con el amortiguador Q. A este caso corresponde la amortiguación de señal de riboflavina por cafeína. En el caso de amortiguación estática el número de moléculas que fluorescen disminuye, pero, para las que lo hacen, el proceso tiene la misma vida media. La intensidad y el rendimiento cuántico disminuyen, pero la vida media no varía en presencia de amortiguación estática. La amortiguación de Försted se debe a la transferencia de energía del analito en el estado excitado al amortiguador en estado fundamental. La transferencia de energía Försted ocurre a distancia entre el donor y el aceptor (otro cromóforo o fluoróforo) y se transfiere por resonancia. El electrón de la molécula excitada induce un campo eléctrico oscilante que excita al electrón del aceptor. La intensidad y el rendimiento cuántico de fluorescencia disminuyen en presencia de amortiguador (aceptor). La eficacia de la transferencia energética depende de la distancia donor-aceptor, el grado de solapamiento de los espectros de emisión del donor y excitación del aceptor, y de un factor de orientación que relaciona las alineaciones relativas de los dipolos del aceptor no excitado y del donor en estado excitado. La transferencia de energía ocurre cuando la distancia es un valor de 10-100 Å. Este tipo de amortiguación permite estudiar membranas de fusión donde se fusionan vesículas marcadas y no marcadas. Entre otras interacciones fluoróforo-fluoróforo, el autoquenching ocurre en muestras de gran concentración de analito o marcador fluorescente, cuando una molécula de fluoróforo amortigua la señal de la otra. También algunos fluoróforos como el pireno forman excímeros o dímeros en estado excitado con espectros de emisión diferentes al del monómero. La transferencia de energía fluorescente de resonancia (FRET) ocurre cuando la emisión de un fluoróforo se acopla con la excitación de otro. Depende de las distancias intermoleculares de estos (precisamente de la inversa de la sexta potencia de la distancia), lo que permite estudiar dimensiones de macromoléculas biológicas. Tanto los experimentos de autoquenching, como los de FRET y formación de excímeros son útiles en estudios de agregados moleculares o fragmentación de membranas, interacciones ligando-aceptor, e hidrólisis de polipéptidos. El oxígeno, la acrilamida, el yodo e iones cesio permiten determinar la accesibilidad y polaridad del entorno de los Trp en proteínas mediante experimentos de amortiguación colisional. Mediante análisis de amortiguación estática, las lecitinas (se unen específicamente a azúcares) se emplean para analizar cambios en la membrana plasmática en casos de neoplasia. También el ácido húmico interacciona con agentes contaminantes como el pireno o el antraceno, y es muy útil en estudios de polución. Este tipo de amortiguación estática permite también estudiar parámetros del enlace formado entre fluoróforo y amortiguador.
3.3. insTrUMenTación 3.3.1. componentes de los equipos Son similares a los empleados en espectroscopía de absorción Uv-vIS. La sensibilidad del aparato para la recepción de luz fluorescente depende de sus componentes y di-
122
Técnicas de análisis y caracterización de materiales
seño. Una disposición de componentes de alta eficiencia óptica se caracteriza por valores bajos de f (ej., si f=2 es más eficiente o rápido que si f=4,5). Además, depende de las pérdidas ópticas debidas al tipo y número de lentes, espejos y demás componentes.
3.3.1.1. Fuentes En espectrofluorímetros son fuentes de radiación ultravioleta muy potentes (no inferior de 120 watios). La lámpara de vapor de mercurio es la más sencilla, de bajo coste y larga duración (más de diez años). Es muy válida para muestras que no requieren excitación a 210 nm donde su radiación no es intensa. Las lámparas de arco de Xenon proporcionan gran uniformidad de intensidad emitida, aunque dan líneas características muy intensas en la región del Uv-visible. Este tipo de fuente es una lámpara de descarga con dos electrodos de Xe a unas 20 atm en su interior. Tienen una potencia entre 75 y 450 watios, y emiten un espectro continuo de alta intensidad entre 200 y 900 nm. Es más versátil que la lámpara de mercurio, pero más cara y perecedera. La intensidad de radiación de la lámpara depende de la potencia y tamaño del arco. Actualmente se utilizan fuentes de láser, son más caras pero proporcionan mayor sensibilidad y selectividad. Los láseres se emplean en espectrofluorímetros, microscopios de barrido, citómetros de flujo, escáneres y secuenciadores de DNA. Pero la excitación por láser suele reducirse a las bandas de 488 nm y 514 nm. Ello restringe los experimentos basados en determinación simultánea del color de varias sondas. Se requieren sondas con máximos de absorción próximos a la de las fuentes de láser. No obstante, la excitación electrónica puede producirse por diferentes fuentes (tubo de rayos X o fuentes radiactivas para fluorescencia de rayos X, etc.). Los espectrofluorímetros para tiempos de vida de fluorescencia emplean el flash de una lámpara durante nanosegundos, a partir del cual el instrumento mide la caída de emisión fluorescente con el tiempo. Todas estas lámparas pueden dañar seriamente los ojos.
3.3.1.2. Selectores de radiaciones Los instrumentos de fluorescencia se caracterizan por incorporar dos selectores de radiaciones antes y después de la cubeta portamuestras. Mientras el fluorímetro emplea filtros de vidrio o cuarzo, el espectrofluorímetro utiliza dos monocromadores de red o redes de difracción. En ambos casos, generalmente los selectores de radiación primario o de excitación y secundario o de emisión se disponen en ángulo de 90º. La anchuras de rendijas de los monocromadores actuales pueden variarse entre 0,5 y 30 nm. Duplicar el tamaño de rendija equivale a multiplicar por cuatro la cantidad de luz seleccionada. A menudo esto va asociado a una disminución de resolución. El analista debe encontrar el compromiso óptimo entre sensibilidad y resolución. En un fluorímetro, el filtro primario selecciona una banda estrecha de longitudes de onda adecuadas en la radiación policromática que emite la fuente de radiación ultravioleta. Los filtros primarios evitan:
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
123
– la excitación de otros compuestos presentes en la cubeta que podrían excitarse a longitudes de onda distintas a las del analito; – errores de detección, al minimizar la cantidad de radiación excitadora que llega al filtro secundario; y – la fotodescomposición de analitos fotosensibles, al minimizar la energía radiante que incide en la muestra. Los filtros secundarios seleccionan la longitud de onda captada por el detector. Estos pueden ser de corte de vidrio o interferencial. Las posibles interferencias de la luz excitadora en el espectro de emisión se reducen además diseñando aparatos con distintos caminos ópticos para la luz excitadora y la luz emitida.
3.3.1.3. Polarizadores Se utilizan para análisis de anisotropía o polarización de fluorescencia. La polarización de fluorescencia fue descrita por primera vez en 1926 (Perrin) y permite estudiar la movilidad del entorno del fluoróforo en la molécula (ej., una macromolécula o proteína) y las interacciones moleculares. El polarizador es un filtro selectivo cuya absortividad molar es mayor para la radiación polarizada en un plano que para la radiación polarizada en otro plano. Mediante esta propiedad (dicroísmo), el filtro convierte la radiación no polarizada incidente en radiación polarizada verticalmente. Se colocan polarizadores en los canales de excitación y emisión y se mide la caída de intensidad fluorescente con el tiempo en los planos perpendicular y paralelo. Los polarizadores son muy útiles para determinaciones cuantitativas de compuestos de elevado peso molecular, o realización de espectros en medios que resultan fluorescentes en las condiciones de elección para la fluorescencia del analito. Solo las moléculas con momento dipolar paralelo al de la fuente de excitación se excitan. En general, utilizando polarizadores se realiza una preselección de dipolos. Solo se excita y se recoge la fracción de moléculas con el dipolo apropiado para los polarizadores. Por ello, la intensidad de fluorescencia con luz polarizada es menor que con luz normal. Las moléculas excitadas emiten luz en el mismo plano de polarización que el de la luz empleada para excitarlas. Pero si las moléculas se mueven de este plano mientras están excitadas, emiten en un plano distinto. Si se excita en un plano horizontal y se recoge la emisión en los planos horizontal y vertical, la extensión en la que la emisión se desplaza del plano horizontal al vertical está relacionada con la movilidad de la molécula fluorescente. Grandes moléculas tienen movimientos lentos y viceversa. En el primer caso la luz emitida continúa estando muy polarizada. Los fenómenos en los que se da una reorientación del dipolo de emisión son movimientos locales o globales de la molécula fluorescente y la transferencia de energía a moléculas próximas (ej., disolvente). En espectrofluorímetros, esta radiación se hace incidir en un cristal líquido. Se aplican voltajes alternativamente de arriba a abajo, y horizontalmente a la luz polarizada de excitación. Así se rota la luz polarizada 90º. La muestra es excitada alternativamente (varias veces por segundo) con luces polarizadas vertical y horizontalmente.
Técnicas de análisis y caracterización de materiales
124
La polarización de fluorescencia se aplica para determinar la movilidad local de proteínas o macromoléculas mediante una marca fluorescente. También se aplica a immunoensayos competitivos en la detección de drogas terapéuticas e ilegales. La droga pequeña marcada emite luz no polarizada, pero si esta se mezcla con un anticuerpo, rota más lentamente y su luz es más polarizada. El ensayo se basa en el grado de competición de la droga presente en un paciente y la droga marcada, por el anticuerpo. A mayor concentración de droga, mejor competirá con la marcada y menor será la polarización de la luz emitida.
3.3.1.4. Recipientes para muestras En los espectrofluorímetros las cubetas portamuestras son de sílice fundida o cuarzo, tienen forma prismática tetragonal. También existen microcubetas cilíndricas. En cromatografía de HPLC se trabaja en continuo, por lo que el compartimento de la muestra consiste en lo que se denomina una célula de flujo, que se aparta de la conocida «cubeta» tradicional. Para evitar procesos de relajación por desactivación no radiante al elevarse la temperatura, el compartimento de cubetas debe estar termostatizado.
3.3.1.5. Detectores Suelen ser tubos fotomultiplicadores que convierten la intensidad de la luz en corriente eléctrica. Se colocan a 45º, 90º y 180º respecto de la fuente de radiación, siendo más frecuente en posición perpendicular, porque la dispersión Rayleigh es menor que a 180º. Los fluorímetros de filtro y espectrofluorímetros de haz sencillo disponen de un fototubo para determinar la intensidad de la fuente enviada a través de un espejo. El voltaje del fotomultiplicador se ajusta a las variaciones de la fuente regulando la amplificación del fotomultiplicador. Alternativamente, estas variaciones se compensan haciendo que la señal sea el cociente entre la señal del fotomultiplicador y la del fototubo. Los detectores de fluorescencia en HPLC son semejantes en diseño a los de los fluorímetros y espectrofluorímetros. En la mayoría de los casos son detectores fotoeléctricos colocados perpendicularmente respecto al haz de excitación. También son particularmente útiles los detectores de diodos en serie que permiten un registro rápido de los espectros de excitación y emisión. El detector de fluorescencia para cromatografía de líquidos posee en mayor o menor medida las siguientes características: 1. 2. 3. 4. 5. 6. 7.
Adecuada sensibilidad. Buena estabilidad y reproducibilidad. Una respuesta lineal para los analitos (varios órdenes de magnitud). Un tiempo de respuesta corto. Alta fiabilidad y fácil manejo. No destructivo con respecto a la muestra. Un volumen interno mínimo, para reducir ensanchamientos de los picos.
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
125
3.3.1.6. Procesadores de señal Pueden ser indicadores analógicos (de aguja) o registradores gráficos, que expresan la señal de fluorescencia en unidades arbitrarias de intensidad relativa. Los instrumentos que recopilan información espacial lo hacen girando la muestra y recogiendo la luz emitida mediante espejos controlados por galvanómetros o motores, recopilando separadamente las emisiones de distintos puntos mediante un fotodiodo. Existen softwares que analizan las imágenes obtenidas con los ficheros de luz emitida por diferentes coordenadas de la muestra.
3.3.2. Tipos de equipos Cabe distinguir cuatro tipos que permiten el análisis cualitativo y cuantitativo de sustancias fluorescentes: – Espectrofluorímetros y lectores de microplacas: miden valores promedio de propiedades de pequeñas muestras (μl, ml). – Microscopios de fluorescencia: determinan las características fluorescentes de muestras microscópicas (diámetro < 0,1 mm) en función de coordenadas espaciales en 2 o 3 dimensiones. Mientras que en un microscopio convencional se emplea luz para iluminar la muestra cuya imagen será aumentada, el microscopio de fluorescencia emplea luz más intensa con la que excita la muestra, y la imagen ampliada que proporciona de esta se basa en la luz emitida por la muestra excitada. – Escáneres de fluorescencia: similar al anterior pero para muestras macroscópicas (cromatogramas y geles de electroforesis). – Citómetros de flujo: dan la fluorescencia por célula en sistemas de flujo; para identificación y cuantificación de subpoblaciones en grandes muestras biológicas.
3.3.2.1. Espectrofluorímetros de filtros Mejor llamados fotómetros de fluorescencia compensados, generalmente utilizan fuentes de lámpara de vapor de mercurio y no disponen de registrador. Pueden también utilizar una fuente de arco de Xe. En general disponen de fuente, filtro primario y secundario, cubeta portamuestras, detector y espejo para compensar variaciones en la intensidad de la fuente.
3.3.2.2. Espectrofluorímetros de haz sencillo Disponen de similares componentes que el fluorímetro de filtros, salvo que un monocromador primario y otro secundario se encargan de seleccionar las longitudes de onda de excitación y emisión. Requieren frecuentes calibraciones o sistemas de compensación similares a los de los fluorímetros de filtros para minimizar los cambios de intensidad de la fuente excitadora.
Técnicas de análisis y caracterización de materiales
126
3.3.2.3. Espectrofluorímetros de doble haz Difieren de los de haz sencillo únicamente en la utilización de una segunda cubeta de referencia. Un espejo desdoblador de haz envía la radiación excitadora a las dos cubetas. El fotomultiplicador recibe primero la señal de fluorescencia de la muestra y después la de la cubeta de referencia tras combinarse en un espejo las dos señales desfasadas en el tiempo. Un esquema sencillo se representa en la figura 3.5. Espejo desdoblador Rendija de entrada
Espejo
Red Difracción
Rendija de salida
Espejo
Desdoblador de haz Cubeta con analito
Cubeta de referencia Espejo
Red Difracción
Espejo
Rendija de salida Espejos
Rendija de entrada Fuente
Fotomultiplicador
Figura 3.5. Esquema de un espectrofotómetro de fluorescencia de doble haz.
3.3.2.4. Equipos comerciales Existen en el mercado espectrofluorímetros comerciales de diferentes marcas. Además, recientemente han surgido equipos para análisis que básicamente emplean como sistema de detección la señal de fluorescencia. En estos casos el analizador de fluorescencia va conectado en serie al equipo en cuestión: un HPLC, fibras ópticas para sensores y biosensores, otros equipos de diseño específico para análisis clínico, etc. Los equipos que miden vida media de fluorescencia pueden usar diferentes técnicas (Strob, Time Correlated Single Photon Counting o TCSPC, multifrequency y cross-correlation spectroscopy). Unas hacen una determinación directa del tiempo, mientras que con las dos últimas la vida media se obtiene de forma indirecta.2
3.4. PreParación de MUesTras La calidad del trabajo analítico redundará muy beneficiosamente en la deseada calidad de los resultados. Un aspecto fundamental es el trabajo realizado fuera del
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
127
laboratorio que corresponde a la toma, transporte y conservación de las muestras objeto del análisis.
3.4.1. distintos tipos de muestras Las muestras pueden ser sólidas, líquidas y gaseosas. Existen cubetas específicas para el análisis de cada tipo de muestra.
3.4.2. características que debe tener la muestra Las muestras deben ser fluorescentes. No obstante, esta técnica analítica puede aplicarse a gran número de sustancias no fluorescentes. En general el análisis fluorimétrico permite analizar: – Sustancias con fluorescencia natural. – Compuestos que después de un tratamiento fisicoquímico (ej. hidrólisis) muestran fluorescencia. – Los que sin ser fluorescentes son capaces de interaccionar, reaccionar o formar complejos o derivados con otras moléculas fluorescentes (labels o etiquetas fluorescentes). Las etiquetas fluorescentes deben exhibir una elevada afinidad por el ión o molécula a estudiar. Existen moléculas (sondas) cuya fluorescencia es sensible al pH, concentración de iones, polaridad del medio, y que por tanto proporcionan información sobre estos factores. Otras, denominadas etiquetas, se pueden unir o entrecruzar con proteínas, ácidos nucléicos, lípidos o polisacáridos. Por ejemplo, los anticuerpos mono y policlonales marcados fluorescentes. También es posible realizar multimarcaje, marcando específicamente distintos componentes de la muestra y analizándolos separadamente con filtros ópticos y un algoritmo de separación de fluorocromos. Las etiquetas fluorescentes deben generar una señal fluorescente intensa y diferente de la del medio de reacción, con un alto rendimiento cuántico. Su reacción con las sustancias a analizar se denomina derivatización y debe ser suave, versátil, rápida y rendir productos de reacción estables. Las etiquetas fluorescentes típicas (una sola línea de excitación y de emisión) tienen limitaciones. Por ejemplo, en el análisis de iones el volumen celular afecta a la intensidad de emisión de fluorescencia en forma impredecible, y la concentración del ión en la célula es incontrolable. Para solventar estos problemas, en 1985 se introdujo la técnica basada en la relación cuantitativa de la fluorescencia. Esta técnica emplea etiquetas de longitud de onda dual, caracterizadas por el desplazamiento de los picos de excitación y/o de emisión tras su unión al ión analizado. Hoy en día estos colorantes se clasifican en (i) etiquetas fluorescentes de excitación desplazable (excitation-shifted fluorescent dyes), (ii) etiquetas cuya emisión resulta desplazada (emisión-shifted fluorescent dyes), (iii) fluoróforos duales para los que se desplazan tanto los máximos de emisión como de excitación (dual fluorescent dyes) y (iv) etiquetas tradicionales cuyos espectros no son desplazables (non-ratiometric fluorescent dyes).
128
Técnicas de análisis y caracterización de materiales
Etiquetas utilizadas para algunas aminas, aminoácidos, aminoazúcares y/o péptidos son la ninhidrina, benzoquinona, OPA (ortoftalaldehído), fluorescamina, cloruro de dansilo, halógenos derivados de nitrobenzoxadiazol (NBD-X), sales de quinolizinio. Entre los que permiten marcar compuestos carbonílicos figuran las hidrazinas, cloruro de N-metilnicotinamida, o-fenilenodiamina, 4,5-dimetoxi-1,2-diamino benceno, sistemas catecolamina/etilenodiamina, 1,2-difeniletilenodiamina (DPE), 1,2-diaminobenceno y derivados. Marcadores para ácidos carboxílicos son 4-bromometil-7-metoxicumarina y 4-bromometil-7-acetoxicumarina. Para hidroxiderivados son de aplicación el cloruro de dansilo, cloruro de 2-fluoreno sulfonilo, 7(clorocarbonil)metoxi-4-metilcumarina. En el análisis de tioderivados se emplean las dansilaziridinas, bimanos, halogenoderivados de benzoxadiazol y análogos (SBD-F, CBD-F y ABD-F).
3.4.3. Métodos de preparación Además de un esmerado control de pH, temperatura y concentración (recomendable en el intervalo de respuesta lineal), se requiere evitar contaminaciones por moléculas orgánicas. Por ello no deben utilizarse recipientes de plástico para almacenar las disoluciones y disolventes. Estos y el material utilizado (cubetas, vasos, etc.) no pueden lavarse con detergente, debido a que este puede presentar fluorescencia. Se recomienda que no estén demasiado limpios, para evitar adsorciones en su superficie. Deben eliminarse los agentes amortiguadores de la fluorescencia, así como la separación previa de aquellos cuyo espectro interfiere con el del analito. Los microorganismos que crecen en el agua destilada pueden asimilar compuestos orgánicos y descomponer el analito.
3.5. MeTOdOlOGía 3.5.1. Obtención de las longitudes de onda de excitación y emisión óptimas Cuando se desconocen las propiedades fluorescentes del analito, deben determinarse en primer lugar las longitudes de onda de excitación y emisión más apropiadas. Para ello, a la vista del espectro de absorción ultravioleta-visible del analito, se realiza su espectro de emisión a la longitud de onda de excitación (λexc) que coincida con un máximo en su espectro de absorción. La elección de λexc dependerá del tipo de fuente del instrumento. En el caso de la imipramina se excita a 216 nm con un fluorímetro de lámpara de Xe. Esto es debido a que a esta longitud de onda la imipramina presenta su máxima absorbancia y la fuente de Xe emite de forma intensa. Pero si se utiliza una lámpara de Hg como fuente de excitación, se selecciona la excitación a 254 nm, debido a la mayor intensidad de emisión de la lámpara en esa región, la cual coincide con una banda ancha de menor intensidad que la anterior en el espectro de absorción Uv-vIS de la imipramina. Entonces es posible obtener el espectro aparente de emisión de fluorescencia, que en el caso de la imipramina tiene un máximo de intensidad a 405 nm. El espectro
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
129
es aparente dado que a su configuración contribuyen el tipo de detector y las propias características del analito. Los espectros de emisión suelen presentar cuatro bandas indeseables que deben restarse: dispersión Rayleigh, dispersión Raman, fluorescencia del disolvente y de la cubeta. Además con selectores de radiaciones de redes de difracción también presentan máximos de segundo orden. Recuérdese que los espectros de fluorescencia son además muy afectados por factores ambientales (disolvente, pH, concentración de muestra, temperatura). El espectro de excitación aparente se obtiene entonces seleccionando la longitud de onda de emisión coincidente con el valor máximo encontrado previamente. El espectro de excitación se realiza solo en el intervalo de longitudes de onda donde el analito presenta absorción en el espectro Uv-vIS. El espectro de excitación aparente indica la λexc del monocromador primario que produce mayor señal de fluorescencia. Por tanto debe determinarse como confirmación de la idoneidad de la λexc elegida cuando el espectro Uv-vIS del analito presenta más de una banda. El espectro aparente de excitación está afectado por la señal de la fuente y las características fluorescentes del analito. El espectro de excitación representa el número de fotones absorbidos por la molécula a diferentes longitudes de onda. Si el espectro es corregido debe resultar similar al de absorción Uv-vIS. En general los espectros de excitación y emisión de analitos en disolución se desplazan hacia menores energías que el correspondiente espectro del analito en fase gaseosa.
3.5.2. corrección de espectros En general los espectros publicados en la literatura no son corregidos. Las diferentes respuestas para cada longitud de onda, que ofrece cada tipo de fotomultiplicador, hacen que los espectros realizados con distintos instrumentos no sean comparables a menos que se hayan corregido. Además incluso las fuentes de excitación más uniformes en intensidad de radiación emitida tienen rayas más intensas. Los espectros obtenidos deben corregirse para contrarrestarlas. El espectro de emisión presenta variaciones debidas a la fuente de radiación cuya intensidad, I0, varía notablemente en algunas longitudes de onda. Para corregir el espectro de excitación se utiliza el espectro de compuestos que, como la rodamina B, presentan un gran intervalo de longitudes de onda con absorbancia constante, y que son muy fluorescentes. Su espectro consistirá en una señal de emisión constante excepto por las posibles variaciones de intensidad de la fuente de excitación (I0). Esto permite determinar el espectro de emisión de la fuente de radiación, que se contrarrestará del espectro de emisión del analito. Normalmente el equipo corregirá el espectro de excitación de la muestra dividiéndolo por el de excitación de la rodamina B. La corrección del espectro de emisión a una longitud de onda de excitación fija se realiza mediante una curva de calibrado para diferentes respuestas del fotomultiplicador. Se suman o restan, a la señal de fluorescencia, los valores de señales de fluorescencia obtenidos para una misma solución con lámparas patrones distintas.
Técnicas de análisis y caracterización de materiales
130
3.5.3. interpretación de espectros La interpretación de los espectros de absorción y emisión proporciona información del analito tanto en estado fundamental como en el excitado. Los parámetros a considerar son el número de bandas de absorción y emisión, la longitud de onda máxima de la(s) bandas de absorción y de la(s) de emisión, sus respectivas intensidades relativas, rendimiento cuántico de la fluorescencia, desplazamiento de Stokes y vida media del estado excitado.
3.6. aPlicaciOnes de la Técnica 3.6.1. análisis cualitativo Este tipo de espectroscopía permite el análisis cualitativo de analitos fluorescentes en soluciones muy diluidas, aventajando en sensibilidad a otros métodos. Para ello se requiere realizar los espectros de excitación y emisión del analito puro y de la muestra a analizar con el mismo instrumento. También se pueden obtener los espectros reales y compararlos con los espectros reales del analito puro obtenidos con distinto aparato. La existencia de parámetros múltiples (varios máximos de emisión y/o excitación, sus correspondientes λmax, rendimiento cuántico, vida media, etc.) facilita la distinción de moléculas con señales próximas. No obstante compuestos con bandas de emisión muy solapadas resultan difíciles de estudiar, y en general los compuestos orgánicos emiten bandas anchas que dificultan el análisis. La adición de una cámara de vaporización de la muestra permite lograr bandas más estrechas.
3.6.2. análisis cuantitativo1, 6 3.6.2.1. Relación entre intensidad de fluorescencia y concentración En comparación con el límite de sensibilidad de los espectrofotómetros Uv-vIS (de 10–7-10–8M hasta 10–10M con los más sofisticados), los de fluorescencia alcanzan entre 10–11 y 10–13M, esto es, son mil veces más sensibles. La determinación cuantitativa de analitos fluorescentes se basa en la relación entre la concentración del analito y la intensidad de la fluorescencia emitida por este. Si se considera, la relación entre la energía emitida y absorbida puede expresarse por la ley de Beer, que en forma exponencial es P ε ∗ b∗ A = e P0 donde e = 2,718 y b es la longitud de la cubeta. Relacionando la ecuación anterior con el rendimiento cuántico se deduce la expresión − ε ∗ b∗ A
F = K ∗ φ ∗ P 0 ∗ (1 − e
)
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
131
donde K es una constante geométrica que expresa la razón entre el número de fotones detectados y el total de fotones emitidos (muchos fotones no alcanzan el detector al medir únicamente una cara de la cubeta). Esta expresión se corresponde con la ley de Beer en espectroscopía de absorción, y demuestra una variación no lineal de la intensidad de fluorescencia con la concentración de analito A. Únicamente predice una dependencia lineal para disoluciones de analito de concentración inferior a aproximadamente 0,02M, cuando el término e b [A] se hace despreciable y F = K ' A donde K ' = K ∗ φ ∗ P 0 ∗ ( ε ∗ b) La ecuación permite deducir el intervalo de comportamiento lineal para el calibrado: A max = 0 , 05 ε∗b Una vez determinada la curva de calibrado en el intervalo lineal, se determina la concentración del analito en la muestra mediante extrapolación de su valor de fluorescencia a la concentración correspondiente. Cuando la muestra emite fuera del intervalo lineal de la curva de calibrado, se recomienda su dilución con un disolvente no fluorescente. La selectividad, sensibilidad y reproducibilidad de la fluorescencia permiten realizar un análisis cuantitativo y muy fiable de numerosas moléculas y átomos.
3.6.2.2. Método de la curva de calibrado La determinación cuantitativa de los analitos por medidas de luminiscencia se basa en la obtención de la curva de calibrado. Dicha curva proporciona la relación entre la señal analítica (intensidad de luminiscencia) y la concentración de analito. Se determina preparando una serie de disoluciones patrón del analito puro en un disolvente apropiado no fluorescente. Se mide la intensidad de fluorescencia de estos patrones, ajustando el aparato de forma que la intensidad del disolvente sea cero y la del estándar más concentrado sea 100. Si se utiliza un espectrofluorímetro de doble haz, debe llenarse la cubeta de referencia con el disolvente puro y el blanco de reactivos. Los valores obtenidos para los estándares se representan gráficamente en función de sus concentraciones (Figura 3.6). Mediante interpolación se determina la concentración de analito en la(s) muestra(s) problema. Curvas de calibrado no lineales pueden obtenerse si se utilizan estándares con absorbancias superiores a 0,02. Los patrones del calibrado deben aproximarse a la composición de las muestras a analizar, con objeto de minimizar los efectos de los diversos componentes de la muestra en la medida de luminiscencia, lo que se conoce como efectos de matriz.
Técnicas de análisis y caracterización de materiales
Intensidad de fluorescencia
132
Concentración
Figura 3.6. Curva de calibrado.
3.6.2.3. Método de las adiciones patrón
Intensidad de fluorescencia
Para contrarrestar el problema de linearidad, se puede recurrir a un procedimiento de calibración denominado método de las adiciones patrón. La forma más habitual de aplicar este método consiste en la adición de incrementos conocidos de un patrón a una alícuota de la muestra, diluir todas las disoluciones al mismo volumen y realizar sobre ellas la medida. El procedimiento permite determinar por extrapolación la concentración del analito en la muestra analizada (véase Figura 3.7).
Cx
Concentración añadida de patrón MÉTODO DE LAS ADICIONES PATRÓN
Figura 3.7. Determinación de la concentración de analito por extrapolación.
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
133
3.6.3. aplicaciones de la fluorescencia molecular a especies inorgánicas Los métodos inorgánicos fluorimétricos son de dos tipos. El primero implica la formación de un quelato fluorescente (derivatización) y se utiliza en la determinación de cationes. Se determina la intensidad de los complejos formados por las especies inorgánicas con agentes quelantes o reactivos fluorimétricos7 (generalmente aromáticas con dos o más grupos funcionales dadores). El otro tipo se basa en la disminución de la fluorescencia de un indicador por el analito y se aplica fundamentalmente al análisis de aniones. En fluorescencia de rayos X cada elemento se caracteriza por un único conjunto de energías de absorción y emisión. Esto la convierte en un extraordinario método no destructivo para el análisis de composición elemental de materiales. La fluorescencia de rayos X permite analizar concentraciones muy bajas de plomo (Pb) y otros metales pesados en suelos contaminados (Figura 3.8). Permite obtener la distribución espacial y las asociaciones de los metales contaminantes con otros materiales. Con ello se pretende conocer los mecanismos de fijación a minerales y materiales orgánicos, su solubilidad química y abundancia. 1.000.000
Pb Lα
Log Intensidad
100.000
Pb Lβ Pb 22.1 109 Cd Lγ 25
10.000
Pb kα
1.000
Pb kα Pb kβ 109
100
Cd
88
10 0 0
8
15
23
30
38
45
53
60
67
75
82
90
97
Energía (Kev)
Figura 3.8. Espectro de fluorescencia de rayos X de plomo obtenida por radiación con 109Cd.
3.6.4. aplicaciones de la fluorescencia molecular a especies orgánicas Las aplicaciones más importantes del análisis fluorimétrico están en el campo del análisis de productos alimentarios, farmacéuticos, muestras bioquímicas, clínicas y productos naturales.8-11 Weissler y White12 han recogido métodos para la determinación de 200 sustancias, incluyendo una gran variedad de compuestos orgánicos, proteínas, enzimas, productos naturales, vitaminas, etc. Trp, Tyr y Phe son los aminoácidos responsables de la absorción y emisión de fluorescencia en el ultravioleta. Cambios conformacionales de proteínas pueden detectarse
134
Técnicas de análisis y caracterización de materiales
mediante cambios en sus espectros de excitación, que normalmente requieren corregirse por el efecto de filtro interno, y mediante cambios en los espectros de emisión. Fundamentalmente se analiza la emisión del Trp, cuya banda está más libre de interferencias que la de los otros dos aminoácidos. El pico de emisión de fluorescencia de los Trp en un entorno de baja polaridad se localiza en torno a los 320 nm, y se desplaza hasta 355 nm en entornos polares (por ej., si la proteína se desnaturaliza, la banda de emisión se desplaza acercándose a la banda del Trp libre en agua). Tyr es más fluorescente que Phe y Trp, pero su emisión en proteínas suele inhibirse por la transferencia de energía Tyr → Trp. La nitración de residuos Tyr por tetranitrometano (TNM) permite estudiar el papel del TNM en la proliferación celular. Además, la producción de nitrotirosinas se relaciona con ciertas patologías como la artritis reumática, transplante de hígado, esclerosis, etc. (Albani, 2007). Cofactores como el NADH, FMN y FAD pueden estudiarse por fluorescencia, dado que NAD+ y NADH+ no fluorescen. En agricultura, análisis de la fluorescencia de la clorofila en vegetales permiten determinar carencias nutricionales, etc. En alimentación, el efecto retardador de la recristalización de hielo por polisacáridos e hidrocoloides proteicos durante la conservación de congelados puede estudiarse comparando tamaños de cristal y velocidades de cristalización. Imágenes de los cristales son analizados por fluorescencia de un hidrocoloide marcado con rodamina isotiocianato. Hoy día la fluorescencia permite la detección precoz del cáncer, estudios de arteriosesclerosis y defectos genéticos. Permite estudiar cambios en las proteínas de las células y relacionarlos con problemas genéticos o hereditarios. Permite estudios de fotofísica y fotoquímica acerca de la estructura electrónica de moléculas, interacciones soluto-disolvente, etc. Se aplica a estudios medioambientales (control de gases en la atmósfera, contaminación de vegetación y aguas), de la química del petróleo (caracterización de aceites), farmacología (interacciones droga-sistemas biológicos, anestesiología), etc. En particular, la anisotropía y polarización de fluorescencia permiten detectar movimientos internos de proteínas. La FRET permite estudiar estructuras y conformaciones de proteínas y ácidos nucleicos, organizaciones proteicas y su distribución espacial, detección primaria de mutantes, secuenciación automática de DNA, interacciones ligando-aceptor, inmunoensayos, transporte de lípidos, fusión de membranas, actividad enzimática mediante sustratos fluorogénicos. Análisis de tiempos de vida de fluorescencia son útiles en estudios de mezclas complejas como fluoróforos con distintas vidas medias, interacciones con disolventes, complejos de transferencia de carga o reacciones en estado excitado. Dada la corta vida media de la emisión de fluorescencia (de cientos de picosegundos a cientos de nanosegundos), estos estudios permiten estudiar eventos moleculares que ocurren en la misma escala de tiempos. Los estudios basados en la detección de mezclado de vesículas o contenidos celulares utilizan pares fluoróforo-amortiguador. Permiten estudiar la función de aminolípidos y fosfolípidos en fusión de membranas, fusión de proteínas virales a membranas, fusión de péptidos del SIDA y apolipoproteínas. Los estudios de permeabilidad de membranas se basan en el autoquenching de una determinada sonda fluorescente. El aumento de intensidad de fluorescencia de este se corresponde con el incremento de permeabilidad de la membrana, y la dilución de la
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
135
sonda conforme difunde al medio externo. El método HTRF® (homogeneous time resolved fluorescente) desarrollado por Cisbio (http://www.htrf-assays.com/) combina el método de transferencia de energía Föster y del de fluorescencia resuelta en el tiempo. Se basa en una medida ratiométrica patentada mediante la conjugación del Eu+3 y criptato, que permite corregir por efectos de quenching e interferencias de la muestra. Es muy útil para estudios de detección e identificación de drogas.
3.6.5. aplicaciones de la fosforescencia molecular Los métodos fosforescentes y fluorescentes tienden a ser complementarios, ya que los compuestos que son fuertemente fluorescentes presentan una débil fosforescencia y viceversa. Las técnicas fosforimétricas han sido utilizadas para la determinación de una gran variedad de especies orgánicas y bioquímicas (ácidos nucléicos, aminoácidos, enzimas o pesticidas).13-14 Durante las dos últimas décadas, se han desarrollado métodos fosforimétricos que puedan llevarse a cabo a temperatura ambiente, de los que cabe destacar los basados en el empleo de sistemas micelares.15-16
3.6.6. aplicaciones de la fluorescencia atómica Los métodos analíticos basados en la fluorescencia atómica vienen desarrollándose desde el año 1964.17-19 La fluorescencia atómica se emplea en el estudio de estructuras atómicas y análisis cuantitativos. Se han aplicado sobre todo al análisis de metales en aceites lubricantes, en agua de mar o en muestras agrícolas. La fluorescencia atómica se usa en diagnosis de plasma y llama. Pero en la mayoría de los casos se ve desplazada por técnicas de absorción y emisión atómica de gran eficacia.
3.6.7. aplicaciones de la fotoluminiscencia para la detección en cromatografía líquida y electroforesis capilar Cuando la muestra del analito contiene otras sustancias que interfieren en su análisis, se debe realizar la conveniente separación previa del analito de interés. Tanto la cromatografía líquida como la electroforesis capilar son técnicas que permiten realizar separaciones de compuestos en numerosas muestras de materiales químicos y biológicos. En ambas técnicas se utilizan sistemas de detección fotoluminiscentes para detectar analitos de estas características con elevada sensibilidad.
3.6.8. aplicaciones de la quimioluminiscencia Las quimio y bioluminiscencia son de aplicación tanto para el análisis de gases como para el de sustancias orgánicas e inorgánicas en fase líquida y gaseosa. Tienen buenos límites de detección y una dependencia lineal entre la señal y la concentración en un intervalo de concentraciones de varios órdenes de magnitud.
Técnicas de análisis y caracterización de materiales
136
3.6.9. Fluorimetría para sensores de fibra óptica Las moléculas fluorescentes tienen gran aplicación tanto como reactivos fluorogénicos, como en sensores y sondas fluorescentes. Las técnicas fluorimétricas son de aplicación en: – Sensores o sondas (dispositivos que responden de forma continua y reversible a la variación de señal fluorescente). – Marcadores o etiquetas (sensores que no son totalmente reversibles). – Dosímetros (sensores diseñados para ensayos acumulativos). Hoy día los sensores se han acoplado a las fibras ópticas, y ello ha supuesto poder realizar los análisis a larga distancia. La fluorimetría permite así analizar muestras de difícil acceso (exploraciones y cirugía laparoscópica, análisis de aguas profundas o subterráneas), muestras peligrosas, radiactivas o explosivas, etc. Son de aplicación en control de aguas y contaminantes industriales, control de calidad, análisis biomédicos, biotecnología y otros como la detección a larga distancia de sustancias utilizadas en la guerra biológica. Las fibras ópticas constan de dos cuerpos concéntricos, el interior tiene índice de refracción n1 y el exterior es de otro material de índice de refracción inferior (n2). Su funcionamiento se basa en el fenómeno de la reflexión total interna, según el cual solo la radiación electromagnética que incide con un ángulo superior al ángulo crítico (q) se propaga. Esta lo hace por el cuerpo central. Las radiaciones que pueden penetrar en la fibra óptica dependen de a, y este a su vez de los índices de refracción del medio externo, n1 y n2 (Figura 3.9). Se han desarrollado sensores fluorescentes para determinaciones y valoraciones de pH a base de ácido 7-hidroxicumarin 3-carboxílico y la 5-carboxifluoresceína. Otros sensores son para O2 y están basados en el quenching tanto de fluorescencia como de fosforescencia que este produce en tripaflavina o la clorofila. Hay sensores de haluros de Cl, Br y I basados en la amortiguación de fluorescencia de los cationes acridinio e isoquinolinio. Los fármacos con fluorescencia nativa pueden determinarse con sensores de fibra óptica en sangre, en el líquido cefalorraquídeo y otros. En otras ocasiones se recurre al uso de sensores que permiten determinar oxígeno, pH, Ca2+ y CO2. Envoltura inerte n2 (Cubierta) n1 (Cuerpo central)
θ α
Figura 3.9. Esquema de la propagación de luz en una fibra óptica.
Espectroscopía de luminiscencia: fluorescencia y fosforescencia
137
3.6.10. inmunoanálisis El inmunoanálisis está particularmente basado en la especificidad de reacciones antígeno-anticuerpo, y la introducción de marcadores fluorescentes que permiten cuantificarlas. Cabe distinguir: – El inmunoanálisis de fluorescencia polarizada (FPIA) utiliza antígenos marcados fluorescentes, es un método competitivo, y permite medir fármacos (antígeno) en suero sanguíneo. Mientras el fármaco marcado rota rápidamente y pierde la polarización de la radiación no dando señal significativa, el complejo antígeno-anticuerpo rota más despacio y emite señal. Al ser competitivo, cuanto más fármaco hay en el suero del paciente compitiendo por el anticuerpo con el fármaco marcado del ensayo, menor señal se recibe. – El inmunoanálisis con sustrato marcado (SLFIA). Es también competitivo. El fármaco unido a un sustrato marcado es el antígeno. Se añade una enzima capaz de liberar el marcador solo cuando el antígeno no está complejado con el anticuerpo. Solo el marcador libre emite fluorescencia intensamente. SLFIA se basa en que el fármaco en el suero del paciente compite con el fármaco marcado del ensayo. Cuanto mayor es la cantidad de fármaco en la muestra del paciente, mayor es la cantidad de fármaco marcado no complejado que produce señal. – El inmunoanálisis de transferencia de excitación fluorescente (FETIA). Es un método de unión competitiva, utiliza antígeno marcado y un amortiguador de fluorescencia del marcador. Se basa en la menor acción amortiguadora sobre el antígeno unido al anticuerpo. Se mide la velocidad de amortiguación, que es proporcional a la relación entre fármaco (antígeno) en el paciente y antígeno marcado. Otro caso son los inmunoensayos para la detección de pesticidas como la atrazina. Se basan en la competición del pesticida presente en el entorno y el pesticida marcado que se añade en el ensayo. Ambos compiten por el anticuerpo en un experimento de amortiguación de fluorescencia.
3.6.11. campos de aplicación Tanto las técnicas fluorescentes (espectrofluorímetros, etc.) como la utilización de marcadores fluorescentes son una herramienta muy estimada en control de calidad, análisis clínico, análisis bromatológico, control medioambiental, bioquímica, biofísica, enzimología, química de polímeros, caracterización de membranas, de interacciones fármaco-proteína, en reacciones de derivatización química, HPLC, fluoroinmunoanálisis, etc.
bibliOGrafía 1. LakowiCz, j. R. Principles of Fluorescence Spectroscopy, 2.a ed., Kluwer Academic/Plenum Publishers, june, 1999.
138
Técnicas de análisis y caracterización de materiales
2. Albani, j. R. Principles and applications of fluorescence spectroscopy, Blackwell Science Ltd., Oxford, 2007. 3. Albani, J. R. «New Insights in the interpretation of tryptophan fluorescence. Origin of the fluorescence lifetime and characterization of a new fluorescence parameter in proteins: the emission to excitation ratio», J. Fluoresc., 17 (2007), pp. 406-417. 4. Albani, j. R. Structure and Dynamics of Macromolecules Absorption and Fluorescence Studies, Elsevier, Amsterdam, 2004. 5. Mateo, C. R. et ál. «New fluorescent octadecapentaenoic acids as probes of lipid membranes and protein-lipid interactions», Biophysical J., 71 (1996), p. 2.177. 6. Mathies, R. A.; PeCk, K.; Stryer, L. Anal. Chem., 62 (1990), p. 1.786. 7. HauGland, R. P. «Introduction to Reactive Probes», Handbook of Fluorescent Probes and Research Chemicals, Molecular Probes, Inc., Eugene, OR, 1992. 8. Shulman S. G. (ed.). Molecular Luminiscence Spectroscopy, Parte 1, Caps. 2, 3 y 5, Wiley, New York, 1985. 9. BriGht, F. v. Anal. Chem., 60 (1983), 1031A. 10. Rye, H. S. et ál. «Stable Fluorescent Complexes of Double-stranded DNA and Bisintercalating Asimmetric Cyanin Dyes: Properties and Applications», Nucleic Acid Research, 20 (1992), p. 2.803. 11. Rye, H. S. et ál. «Stable Fluorescent Dye-DNA Complexes in High Sensitivity Detection of Protein-DNA Interactions: Application to Heat Shock Transcription Factor», J. Biol. Chem., 268, (1993), p. 2.529. 12. Weissler, A.; White, C. E. Handbook of Analytical Chemistry, L. Meites (ed.), McGraw-Hill, New York, 1963, pp. 6-182-6-196. 13. Hurtubise, R. j. Anal.Chem., 55 (1983), 669A. 14. Hurtubise, R. j. Phosphorimetry, Wiley, New York, 1990. 15. Cline Love, L. j.; SkrileC, M.; Habarta, j. G.; Anal. Chem., 52 (1980), p. 754. 16. SkrileC, M.; Cline Love, L. j. Anal. Chem., 52 (1980), p. 1.559. 17. KirkbriGht, G. F.; SarGent, M. Atomic Absorption and Fluorescence Spectroscopy, Academic Press, London, 1974. 18. veillon, C. Trace Analysis, j. D. Wineefordner (ed.), Wiley, New York, Cap. vI, 1976. 19. vandeCasteele, C.; BloCk, C. B. Modern Methods for Trace Element Determination, Wiley, New York, Chichester, 1993.
4. esPecTrOscOPía infrarrOja (ir) Carlos Márquez álvarez antonio lóPez de laCey Instituto de Catálisis y Petroleoquímica (CSIC)
4.1. inTrOdUcción La espectroscopía infrarroja (IR) estudia la interacción entre la materia y la radiación infrarroja, radiación que corresponde a la región del espectro electromagnético que abarca las longitudes de onda entre 0,7 y 1.000 µm. Esta región se subdivide en infrarrojo cercano, infrarrojo medio e infrarrojo lejano (NIR, MIR y FIR, respectivamente, en sus siglas en inglés), correspondientes a los intervalos de longitud de onda 0,7 – 2,5 µm, 2,5 – 25 µm y 25 – 1.000 µm o, expresado en número de ondas,1 4.000 – 14.300 cm–1, 400 – 4.000 cm–1 y 10 – 400 cm–1, respectivamente. La radiación IR fue descubierta en el año 1800 por William Herschel, quien ocupaba el cargo de astrónomo del rey en Inglaterra. En un intento por determinar el calor asociado a las diferentes regiones del espectro de radiación visible, Herschel expuso un conjunto de termómetros de mercurio (lo que constituía en aquel momento la tecnología más sofisticada para la medida de temperatura) a los diferentes colores en que se descomponía la luz solar al atravesar un prisma de vidrio. En este experimento Herschel encontró que existía una radiación invisible, más allá del extremo rojo del espectro solar, que transportaba calor. Esta radiación, que inicialmente se llamó radiación térmica, posteriormente se denominó radiación infrarroja, nombre que se atribuye a Becquerel. La espectroscopía IR es sensible a la presencia de grupos funcionales en una molécula, es decir, fragmentos estructurales con unas propiedades químicas comunes (un metileno, CH2, en un hidrocarburo, un carbonilo, C=O, en una cetona, o un hidroxilo, OH, en un alcohol, son ejemplos de grupos funcionales). La característica principal de la espectroscopía IR es que permite identificar especies químicas a través de la determinación de la frecuencia (número de ondas) a la que los distintos grupos funcionales presentan bandas de absorción en el espectro IR. Además, la intensidad de estas bandas puede utilizarse para determinar la concentración de estas especies en la muestra. Por otra parte, mediante la comparación de los espectros IR de dos muestras se puede determinar si ambas tienen o no la misma composición. 1
La relación entre longitud de onda (λ), número de ondas (ω) y frecuencia (ν) viene dada por las expresiones: ν = c/λ = c · ω, donde c es la velocidad de la luz.
Técnicas de análisis y caracterización de materiales
140
Esta espectroscopía presenta importantes ventajas como técnica analítica. Permite analizar muestras en cualquier estado de agregación, sólido, líquido o gas. Es una técnica sencilla y rápida (en muchos casos, se puede preparar la muestra, registrar el espectro y representarlo en pocos minutos) y de una alta sensibilidad. Además, los espectrómetros IR son relativamente baratos. Entre sus desventajas, la principal es que para que una muestra presente un espectro IR debe poseer enlaces químicos. Por lo tanto, los átomos y los iones monoatómicos no absorben radiación IR. Tampoco pueden detectarse las moléculas diatómicas homonucleares, como O2 o N2. También presenta limitaciones el análisis de mezclas complejas y de disoluciones acuosas (ya que el agua absorbe fuertemente la radiación infrarroja).
4.2. fUndaMenTOs de la Técnica 4.2.1. el espectro infrarrojo El espectro infrarrojo consiste en una representación gráfica de la intensidad de radiación infrarroja medida en función del número de ondas. Un ejemplo se muestra en la siguiente figura:
Absorbancia
1,0
0,5
0,0 4.000
3.000
2.000
1.000
Número de ondas (cm-1)
Figura 4.1. Espectro infrarrojo de PvC en unidades de absorbancia.
En el eje de abscisas se representan números de ondas (aunque tradicionalmente era común representar longitudes de onda) en sentido decreciente, es decir, que al leer el espectro de izquierda a derecha se hace un barrido de mayor a menor energía de la radiación infrarroja. En el eje de ordenadas se representa, generalmente, absorbancia o transmitancia. La transmitancia (T) se define como la relación entre la intensidad de radiación de una determinada longitud de onda que emerge de la muestra (I) y la que esta recibe (I0). Lo habitual es representar la transmitancia porcentual (%T): T = I/I0 %T = 100 T El parámetro I contiene información de la muestra, pero también contribuciones del espectrómetro y el ambiente. Estas dos contribuciones son las que mide I0, que se
Espectroscopía Infrarroja (IR)
141
denomina espectro de fondo. Por lo tanto, al calcular la relación entre I e I0, es decir, la transmitancia, las contribuciones del equipo y el ambiente se eliminan. Para el análisis cuantitativo el espectro debe representarse en unidades de absorbancia (A), que se calcula como el logaritmo decimal de la inversa de la transmitancia: A = log (1/T) = log (I0/I)
4.2.2. Principios teóricos en los que se basa la técnica El espectro infrarrojo se origina por una absorción de fotones con energía correspondiente a la región del infrarrojo, que genera en una molécula una transición a un estado vibracional de mayor energía dentro del estado electrónico en que se encuentre esa especie.
4.2.2.1. Vibración de una molécula diatómica La vibración de dos núcleos en una molécula diatómica puede representarse por el movimiento periódico de una sola partícula de masa m, cuyo desplazamiento x desde su posición de equilibrio es igual a la variación de la distancia interatómica. La masa m se denomina masa reducida y está relacionada con las masas m1 y m2 de los dos núcleos mediante la siguiente expresión: 1/m = 1/m1 + 1/m2 En el modelo de oscilador armónico, la energía potencial de este sistema viene dada por la parábola: V = ½ Kx2 donde K es la constante de fuerza del oscilador. En este caso, en términos de mecánica clásica, la posición x del oscilador en función del tiempo viene representada por una función seno. En la descripción mecanocuántica, los niveles energéticos (vibracionales), que son solución de la ecuación de Schrödinger, vienen dados por la expresión: Eν = hcω (ν + ½) donde ν es el número cuántico vibracional, que puede tomar los valores 0, 1, 2, 3, ... y ω es el número de ondas de la vibración, que está relacionado con la constante de fuerza y la masa reducida por la expresión siguiente: ωω==
1 2π c
K m
En el modelo de oscilador armónico, por lo tanto, todos los niveles energéticos (Eν) están igualmente espaciados y la energía correspondiente al nivel vibracional
Técnicas de análisis y caracterización de materiales
142
ν = 0 (energía del punto cero) es ½hcω. La regla de selección para el número cuántico vibracional en el modelo de oscilador armónico es Δν = ±1, de manera que solo son permitidas transiciones entre dos niveles energéticos contiguos. Dada la equidistancia entre niveles energéticos, esto implica que la energía requerida para la transición vibracional es la misma, cualesquiera que sean los niveles vibracionales implicados. Así, el espectro vibracional de una molécula diatómica considerada como un oscilador armónico tiene una sola banda intensa en el infrarrojo. El modelo de oscilador armónico no representa exactamente el comportamiento de una molécula real. Las curvas de energía potencial no son realmente parabólicas, sino que se representan más exactamente añadiendo un término cúbico: V = ½Kx2 – Gx3 donde G C=N–
1725-1625
=CH2
3095-3075
>C=C
UV) que en IR. Pues vidrio o cuarzo son válidos y permite trabajar en condiciones extremas de presión y temperatura. – Gracias a los accesorios de microscopía Raman se puede trabajar con cantidades mínimas de muestras, del orden de picogramos. – La presencia de agua no es un problema, lo que permite realizar estudios en disoluciones acuosas y en condiciones supercríticas. – La espectroscopía Raman es muy sensible a los microcristales (< 4 nm). – Amplia ventana espectral pues puede medir desplazamientos de hasta 9.000 cm–1, con respecto a la luz visible, llegando a ser versátil para espectroscopía de luminiscencia. – La morfología de la muestra no es crítica (gas, líquido, sólido liso o en polvo, etc.). – Resolución espacial para microscopía Raman cercana al micrómetro.
5.2.5.2. Limitaciones frente a la espectroscopía IR Entre las limitaciones que presenta la espectroscopía Raman frente a la espectroscopía IR cabe destacar:
Espectroscopía Raman
181
– Los Raman son equipos más caros que los IR, aunque la proliferación de nuevos fabricantes esta reduciendo el coste de adquisición de un equipo Raman. – Un mismo equipo Raman pierde resolución espectral conforme disminuye la frecuencia de la radiación excitante. – En Raman, la cuantificación de la intensidad es difícil, pues la dispersión se ve afectada por muchos parámetros y se hace necesario un patrón interno, que no siempre es posible incorporar. – La fuerte energía del haz láser en la espectroscopía Raman puede calentar la muestra, lo que supone degradación de la misma, imprecisión acerca de la temperatura de las muestras, desorción de moléculas sonda, etc. Aunque este problema suele solucionarse con la utilización de motores que hacen girar la muestra de modo que el haz no incide siempre en el mismo punto. – La fluorescencia en la gran limitación de la espectroscopía Raman, pues su intensidad es 10.000 veces superior a la señal Raman y la más mínima impureza fluorescente puede arruinar la medida Raman. Como alternativas a este problema se suelen hacer varias cosas: a) Calcinar la muestra a unos 400-500 ºC. válido para muestras que son estables a estas temperaturas. Este procedimiento es bueno si el material posee un área elevada (más de 150 m2/g) pues puede retener en su superficie hidrocarburos del ambiente (principalmente poliaromáticos, presentes en muchos plásticos) que producen fluorescencia. Con este tratamiento son quemados y la muestra queda limpia. b) Excitar en IR cercano, pero la señal Raman disminuye. En sistemas con señales muy débiles no es una opción recomendable. c) Excitar en Uv; esta opción empieza a ser viable desde 1998, cuando ya se empezaron a distribuir equipos Uv-Raman comerciales. Aunque son todavía sensiblemente más caros que otros equipos Raman. d) Excitar con láseres pulsados.
5.2.5.3. Limitaciones y ventajas de las diferentes líneas de excitación Raman 5.2.5.3.1. Raman Uv (250 nm) Este sistema posee una señal Raman muy elevada y permite superar casi todos los problemas de fluorescencia, pues trabaja en una ventana espectral alejada de la zona de emisión de la fluorescencia. No tiene limitaciones en cuanto a la temperatura de la muestra. Sin embargo, al trabajar en Uv posee la peor resolución espectral aunque la resolución espacial es la mejor. Necesita que toda la óptica sea de cuarzo para permitir el paso de la radiación hasta la muestra. Tras la excitación la señal recogida debe llegar a un detector. Sin embargo, los detectores tipo CCD no son sensibles a los fotones en Uv, por lo que necesitan un recubrimiento especial de una sustancia que libere fotones visibles por cada fotón Uv que le llegue. Todos estos problemas están resueltos y los equipos comerciales vienen preparados para su utilización.
Técnicas de análisis y caracterización de materiales
182
5.2.5.3.2. Raman visible (514 o 633 nm) Esta configuración es la más extendida, la óptica no tiene los requisitos de los sistemas de Uv y además la señal Raman es muy buena. Los problemas de fluorescencia son notables en los equipos Raman que trabajan en la zona visible, conforme la excitación se desplaza a menores energías (mayor longitud de onda) el problema se presenta de manera menos acusada. Estos sistemas no poseen limitación en cuanto a la temperatura de la muestra hasta los 1.000 ºC aproximadamente, donde la radiación visible (al «rojo vivo») enmascara la señal Raman. 5.2.5.3.3. Raman de IR-cercano (785 nm) Conforme aumenta la longitud de onda de la línea excitante decae la señal Raman. También trabaja en una zona espectral relativamente alejada de la zona de emisión de la fluorescencia. Estos sistemas pueden trabajar con muestras a temperaturas elevadas, cercanas a 400 ºC. 5.2.5.3.4. FT-Raman (1.064 nm) Este sistema es el que presenta la menor señal Raman. Son muy rápidos, pues al excitar en IR pueden utilizar la óptica FT, como los equipos de IR, acelerando la adquisición de espectros. Estos sistemas poseen la mejor resolución espectral y la peor resolución espacial. La temperatura de la muestra está limitada a unos 150 oC, donde la radiación de cuerpo negro «ahoga» la señal Raman. Esto limita el estudio de muestras oscuras, que absorben la radiación IR y se calientan. En ocasiones se observan problemas de fluorescencia. La presencia de agua es una limitación pues absorbe la radiación IR y, por ende, la señal Raman en esos equipos. Y además, la utilización de celdas para confinar las muestras está limitada por la utilización de materiales transparentes al IR. Finalmente, los detectores de Ge o de InGaAs refrigerados por nitrógeno líquido (–196 oC) dan peor lectura que los de tipo CCD de los equipos dispersivos. Sin embargo, son muchas las aplicaciones donde los equipos FT-Raman destacan. En comparación con la espectroscopía Raman convencional (dispersiva), la espectroscopía FT-Raman presenta una elevada precisión de frecuencia, de modo que las substracciones de espectros pueden hacerse con precisión. Esta resolución espectral y capacidad de trabajar con los espectros proporcionan un gran atractivo a la espectroscopía FT-Raman.
5.3. insTrUMenTación 5.3.1. componentes de los equipos Los equipos de espectroscopía Raman están formados por varios elementos: a) Fuente de excitación b) Iluminación de la muestra y recolección de la señal dispersada
Espectroscopía Raman
c) d) e) f)
183
Portamuestras o celdas de tratamiento Eliminación de la dispersión elástica Espectrómetro, rejillas, o sistemas FT-Raman Detectores
Todos los equipos Raman convencionales miden el espectro utilizando la dispersión de la luz. Sin embargo, el sistema FT-Raman, al trabajar con radiación IR utiliza una la metodología de transformada de Fourier (FT). El esquema de la Figura 5.7 muestra un equipo Raman dispersivo. El láser genera el haz que llega a la muestra. Los espejos y elemento de enfoque permiten mejorar la calidad de la señal que llega al detector tras dispersarse en la muestra. Tras la incidencia del haz en la muestra de dispersan ambas radiaciones, la elástica y la Raman. Es necesario eliminar la dispersión elástica, de modo que solamente la señal Raman llegue al espectrómetro, donde será dispersada y registrada en el detector. Cada una de las etapas de este proceso se describe con más detalle en los apartados siguientes.
Eliminación de la dispersión elástica
Láser
Dispersión Detector
Muestra
Enfoque
Espectrómetro
Luz excitante Dispersión Raman Espejos
Figura 5.7. Esquema de un equipo Raman dispersivo.
5.3.1.1. Fuentes de excitación Debido a la necesidad de una radiación monocromática de fuerte intensidad, la fuente de excitación de los equipos Raman son láseres. Normalmente estos son de Ar+, Kr+ o de He-Ne, así como los de Nd:YAG para la espectroscopía FT-Raman. Usos más específicos utilizan láseres de pulso, que sin embargo no son habituales en metodologías de rutina y en los que no entraremos. La potencia de los láseres utilizados puede cambiar bastante. Tradicionalmente se utilizaban láseres de 1-5 W de potencia, pero la incorporación de sistemas de micros-
184
Técnicas de análisis y caracterización de materiales
copía Raman ha permitido usar láseres de potencia mucho menos (25 mW) pues el microscopio concentra el haz en la muestra compensando la baja potencia del láser. La gran ventaja experimental de los láseres de baja potencia es que se refrigeran por ventilación con aire y no necesitan un circuito de agua a presión. Lo cual simplifica notablemente el coste del láser y los requerimientos de la instalación del equipo. Como referencia, conviene señalar que los punteros láseres que usamos en las presentaciones pueden poseer hasta 2 mW, que no es mucho menos si se considera que los láseres no se suelen usar al máximo de su potencia, sino a un régimen mas moderado (50 o 25% de su potencia).
5.3.1.2. Iluminación de la muestra y recolección de la señal dispersada Encaminar el láser hacia la muestra es fácil, el principal reto consiste en recoger de forma eficaz la radiación dispersada y dirigirla al espectrómetro. La posición relativa del haz que excita y del que se encamina al detector establece dos configuraciones habituales de trabajo, que son a 90o y a 180o. En la configuración de 90o debe orientarse la muestra cuidadosamente de modo que el haz dispersado alcance el detector. Por otro lado, la configuración a 180o solamente precisa de acercar o alejar la muestra hasta que se enfoque de forma nítida. Esto supone una simplificación notable pues la calidad depende solo de una variable.
5.3.1.3. Eliminación de la dispersión elástica Una vez que la radiación dispersada entra en el espectrómetro se hace necesario separar la dispersión elástica (Rayleigh) de la inelástica (Raman), pues aquella es un millón de veces más intensa que esta. Los detectores están preparados para registrar la señal Raman. Por tanto, si no se elimina la dispersión elástica, el detector sería dañado seriamente. Existen varias opciones para eliminar la dispersión elástica que deciden la resolución, señal/ruido, tamaño y precio del equipo. Un monocromador dispersa la radiación en sus diferentes componentes, y su utilización proporciona a los equipos Raman la posibilidad de eliminar la radiación Rayleigh. 5.3.1.3.1. Sistemas de doble monocromador De este modo, existen equipos con dos monocromadores, donde el primero elimina la dispersión elástica evitando que esta alcance al segundo monocromador, que dispersa la radiación hacia el detector. Esto supone dos dispersiones de la radiación que por un lado mejora la resolución espectral del equipo, pero diluye la señal, al reducir el número de fotones que llegan al detector. 5.3.1.3.2. Sistemas de triple monocromador En esta configuración se aumentan las virtudes y defectos del sistema de doble monocromador, la resolución espectral aumenta notablemente pero la señal decae muy fuertemente. Además, esta configuración permite registrar espectros en zonas muy cercanas a la dispersión elástica sin riesgo para el detector.
Espectroscopía Raman
185
5.3.1.3.3. Sistemas de un monocromador y filtro holográfico Estas dos configuraciones previas son relativamente caras y reducen la señal debido a la dispersión reiterada de la radiación dispersada. Más recientemente, se han incorporado unos nuevos sistemas en los que la dispersión elástica se elimina con filtros holográficos tipo Notch. Estos filtros se intercalan en la trayectoria del haz dispersado en su camino al detector y en un ángulo de 45o (Figura 5.8). Los filtros holográficos se fabrican específicos para una longitud de onda. Debe utilizarse el que corresponde al láser que se utiliza en el equipo. La forma de operar de un filtro holográfico es que no permite el paso de la radiación para la que es específico, reflejándolo, y resulta transparente para cualquier radiación que no posea la longitud de onda en cuestión. Así, la dispersión elástica es eliminada mientras que la inelástica (Raman) puede seguir su camino hacia el detector. Filtro holográfico Al detector
Luz excitante Dispersión Raman
Figura 5.8. Esquema del funcionamiento de un filtro holográfico.
Las ventajas de esta configuración se centran en que la eliminación de la dispersión elástica no supone un descenso en la intensidad de la radiación que llega al detector, pues esta no se ve afectada por el filtro holográfico. La limitación de esta configuración se basa en la precisión con la que se elimina la dispersión elástica. Normalmente, se elimina la radiación elástica con un intervalo de ±80 cm–1. Así que con estos sistemas no se puede estudiar la zona que se acerque a la dispersión elástica a menos de 120 cm–1. Sin embargo, esta zona no es crítica en el estudio de muchos materiales y suele ser una necesidad más acusada en otras aplicaciones de la espectroscopía Raman. Como consecuencia esta configuración se ha extendido debido a su mayor economía y mejor señal.
5.3.1.4. Detectores La señal Raman es muy débil, por lo que el registro de la señal es un problema serio. Inicialmente se trabajaba con material fotográfico y tiempos de exposición largos. Esto hacía de la espectroscopía Raman una metodología extremadamente lenta. Hoy en día existen distintos sistemas de detección que han superado este problema.
186
Técnicas de análisis y caracterización de materiales
5.3.1.4.1. Fotomultiplicadores Los fotomultiplicadores son fotocátodos que emiten electrones cuando un fotón les impacta. Un ánodo recoge los electrones. Por medio, una serie de dínodos generan electrones secundarios que amplifican la señal. La eficacia cuántica del electrón primario depende de la longitud de onda incidente. De modo que los fotomultiplicadores son mucho más sensibles a los fotones con longitudes de onda entre 200 y 400 nm (Uv al azul), decae con longitudes de onda mayores y es casi nula por encima de los 800 nm (IR cercano). El principal problema de los fotomultiplicadores se debe a la «corriente oscura» que sucede por emisiones espontáneas de electrones desde el fotocátodo y fugas dieléctricas a lo largo de los dínodos. Estos problemas se remedian si los detectores se enfrían. Normalmente por dispositivos de efecto Peltier. Esto permite registrar señales muy bajas. 5.3.1.4.2. Detectores multicanal Las medidas en Raman dispersivo, el espectro se obtiene barriendo todas las frecuencias, con un detector. Pero esto supone un tiempo de acumulación que en ocasiones la estabilidad de la muestra o las necesidades de trabajo no lo permiten. Para ello, la detección simultánea de todas las señales Raman puede ser realizada con sistemas de detección multicanal. Los detectores multicanal de fotones son grupos de elementos fotosensibles que convierten los fotones en corriente. Existen varios tipos en el mercado. 5.3.1.4.3. Detectores tipo CCD Un dispositivo CCD (del inglés charge-coupled device o detección de acoplamiento de carga) se ha convertido en el principal sistema de detección en los últimos años. Los CCD son unos detectores ópticos basados en semiconductores silicio-metal. Es un dispositivo bidimensional de unos 1.000 × 1.000 píxeles (un millón de píxeles). El tamaño de cada píxel es de 6 a 30 µm. Son dispositivos como los que habitualmente tienen las cámaras portátiles de vídeo o las fotográficas digitales. La principal ventaja de los detectores tipo CCD es el bajo ruido que tienen, por lo que no es necesario amplificar la señal. Poseen además una elevada eficiencia cuántica y una sensibilidad elevada en un rango muy amplio de trabajo (120 a 1.000 nm, esto es, desde el Uv hasta el IR). La elevada sensibilidad de los detectores tipo CCD presenta un tipo de interferencia que procede del espacio exterior, como son los rayos cósmicos. Estos atraviesan el universo sin encontrar problemas o limitaciones, pasan a través de la masa de la tierra sin mayor problema y, ocasionalmente pasan por el detector CCD en el momento de la adquisición de un espectro. Esto resulta en unos picos característicos, muy intensos y finos. Que no son bandas Raman y que deben ser eliminados. Normalmente hay softwares que contemplan la eliminación automática de los espectros contaminados por rayos cósmicos, pero suponen que el equipo realiza tres espectros, los compara y elimina aquel que presente indicios de que un rayo cósmico alteró la
Espectroscopía Raman
187
adquisición. En muchas ocasiones el buen criterio y «ojo» del usuario permite discriminar rápidamente este tipo de interferencias. 5.3.1.4.4. Detectores para FT-Raman Si bien los CCD son utilizables en IR, su sensibilidad es relativamente baja. La detección de la radiación infrarroja se realiza mejor con detectores de arseniuro de indio y galio. Apenas poseen corriente oscura (ruido mínimo), aunque no pueden registrar a desplazamientos Raman superiores a 3.000 cm–1. Estos detectores también pueden operar a temperatura ambiente, pero su rango de trabajo se limita hasta 200 cm–1. Los detectores de germanio de elevada pureza también son utilizados en FT-Raman y pueden llegar a desplazamientos de 3.500 cm–1. Pero, como los CCD, son sensibles a los rayos cósmicos.
5.3.2. calibrado del equipo Como todo equipo espectroscópico las lecturas de frecuencia e intensidad no deben darse por buenas, pues es necesario calibrar el equipo antes de la realización de espectros. Esto es especialmente importante en Raman, pues en ocasiones los equipos pueden desplazar su lectura de frecuencia hasta unos 3 cm–1. Por otro lado, el calibrado de la intensidad permite optimizar el alineamiento del equipo y comprobar el buen estado del detector.
5.3.2.1. Calibrado de la frecuencia Cuando se necesita una precisión cercana a 1 cm–1 deben utilizarse referencias internas, como pueden ser las bandas del disolvente, de solutos que no afectan a la muestra para disoluciones o de sólidos añadidos en muestras de estado sólido. Es crítico que este patrón interno no interfiera ni reaccione con la muestra. Normalmente, si las precisiones en la determinación de la frecuencia son menos estrictas 2 o 3 cm–1), se puede calibrar el equipo antes de su utilización y trabajar sin patrón interno. Para este calibrado se suelen utilizar sustancias conocidas con bandas Raman muy intensas y finas. Por ejemplo, las obleas de silicio presentan una banda a 520 cm–1, o el diamante a 1.330 cm–1.
5.3.2.2. Calibrado de la intensidad La intensidad Raman depende de muchos factores. A diferencia de la espectroscopía IR, donde la cantidad de radiación absorbida depende linealmente de tres factores, en la espectroscopía Raman se mide una radiación dispersa, y esto complica sobremanera el número de factores que determinan la intensidad. Esta depende, entre otros, de la potencia del láser incidente, de la frecuencia de la radiación que se dispersa, de la eficacia del espectrómetro, de la absorción de los materiales que participan en la dispersión, concentración y estado de la muestra.
188
Técnicas de análisis y caracterización de materiales
Muchos de estos factores no son totalmente conocidos, por lo que los análisis cuantitativos están muy limitados en Raman y precisan de la utilización de un patrón interno de referencia frente al cual cuantificar la cantidad de muestra estudiada. En cualquier caso, las determinaciones cuantitativas están más cerca de seguir la variación de la cantidad de una especie (se duplica, se reduce 1/3, etc.) que su valor absoluto.
5.3.3. Tratando con la muestra A diferencia del IR, en Raman el tratamiento de las muestras es muy variable y extremadamente versátil. De hecho existen casi tantas manipulaciones como necesidades. Por otro lado, el estudio Raman frente al IR presenta grandes ventajas. Las muestras son estudiables en estado sólido, líquido o gas. Cuando se estudian líquidos o gases en IR se necesita confinar la muestra en materiales trasparentes al IR. En Raman recipientes de vidrio son perfectamente válidos, lo cual supone una gran facilidad de trabajo. Incluso, si se utiliza Raman-Uv, la limitación sería trabajar con material de cuarzo, en vez de vidrio, que es relativamente fácil de obtener y su manipulación es ligeramente más complicada que la del vidrio. En cualquier caso, existe una gran variedad de accesorios en cuarzo que cubren prácticamente todas las necesidades cubiertas por el vidrio. El FT-Raman comparte con el IR esta limitación en los materiales de recipientes, pues ambas técnicas trabajan en el IR. En lo que a disoluciones acuosas se refiere, el Raman presenta también una ventaja notable, pues el agua apenas dispersa en Raman y por tanto no interfiere en el estudio de moléculas en disolución acuosa. A efectos del Raman es como si el agua no estuviera presente. No ocurre así con el IR, que es absorbido con intensidad por el agua y no es posible realizar IR en medios acuosos. Esto supone a su vez una limitación para el FT-Raman. El FT-Raman trabaja en IR y aunque el agua no es dispersador Raman, la señal Raman que produzca la molécula en estudio se encuentra en la zona de IR y será absorbida por el agua.
5.3.3.1. Gases Los gases se suelen confinar en un tubo de vidrio de 1-2 cm de largo con paredes no muy gruesas (ca. 1 mm).
5.3.3.2. Líquidos Las muestras líquidas se pueden sellar en tubos o bulbos. Incluso si se trabaja con cantidades muy reducidas, se pueden usar tubos capilares de poco más de una décima de mm de diámetro. Se debe tener cuidado con el calentamiento de las muestras por la incidencia del láser.
5.3.3.3. Sólidos Las muestras de polvo se pueden empaquetar en tubos capilares o compactar como pastillas, de forma parecida a como se preparan las pastillas con KBr en IR. Aunque en
Espectroscopía Raman
189
Raman no siempre es necesario diluir la muestra en KBr y normalmente se puede compactar la muestra pura. De todos modos el atractivo de la utilización del KBr con sólidos en Raman es que reduce la cantidad de muestra necesaria para el estudio y reduce los fenómenos de calentamiento de la muestra por la incidencia del láser. Este calentamiento puede llegar a degradar la muestra, por lo que es fundamental evitarlo.
5.3.3.4. Calentamiento local Si las muestras no son blancas o transparentes, el problema del calentamiento se hace más intenso. Este problema puede ser especialmente intenso en microscopía Raman (vide infra). Son varias las formas de operar para evitarlo. En las muestras En el láser En el haz incidente
Diluir la muestra en una pastilla (KBr, por ejemplo) Habilitar un sistema de refrigeración de la muestra Rotar la muestra Cambiar la frecuencia del láser Desenfocar el láser de la muestra o distribuirlo Rotar el láser
Las opciones más extendidas son las de diluir la muestra o las de rotar la muestra. Para esto, la muestra en forma de pastilla se deposita en un pequeño disco, a modo de plato de tocadiscos, y se hace girar. Se enfoca el láser en la muestra, que gira en un eje paralelo oblicuo con el haz de incidencia (Figura 5.9A). Cuando se utiliza microscopía Raman es difícil mover la muestra y mantener el haz enfocado. Por este motivo, diferentes fabricantes proponen diferentes soluciones. Así, Dilor desarrolló el barrido de línea en el que el haz barre la superficie de la muestra y se evita el calentamiento local (Figura 5.9B). Se ha propuesto el uso de una lente cilíndrica que dispersa el haz a lo largo de una línea en la muestra, con lo que la energía incidente por punto se reduce notablemente (Figura 5.9C). Estas dos opciones son válidas si la muestra presenta una superficie lisa, pero no es aplicable a polvos, donde la superficie no es homogénea. Rotor
A
B
C
Muestra
Haz
Figura 5-9. (A) rotor de muestras; (B) barrido de láser y (C) láser distribuido con una lente cilíndrica.
190
Técnicas de análisis y caracterización de materiales
5.3.3.5. Celdas de tratamiento in situ (Microscopía y Fibra óptica) Existen celdas preparadas para aplicaciones específicas con control de temperatura y en ocasiones también de los gases que fluyen por ella. 5.3.3.5.1. Celdas de temperatura baja Estas pueden trabajar desde la temperatura del nitrógeno líquido (–196 oC) hasta temperatura ambiente. Muchas de estas celdas están basadas en Dewar que confinan a la muestra en una zona fría y accesible a la iluminación y recolección de la radiación dispersada. Existen sistemas más avanzados que combinan la refrigeración por nitrógeno líquido con el flujo de gases a su través; de este modo se puede someter la muestra a diferentes tratamientos. Linkam es una empresa británica que fabrica este tipo de accesorios. Muchas son de fabricación casera, a la medida de las necesidades del estudio. 5.3.3.5.2. Celdas termostatadas En el estudio de biología y biomoléculas, muchas proteínas y ácidos nucleicos pueden sufrir cambios de su estructura cuaternaria en intervalos muy estrechos de temperatura, por lo que el control de temperatura es crítico en estos sistemas. varias celdas están diseñadas para mantener la temperatura entre poco más de cero grados hasta casi la temperatura de ebullición del agua. Muchas son de fabricación casera, a la medida de las necesidades del estudio. 5.3.3.5.3. Celdas de temperatura elevada En los estudios de materiales cerámicos, vidrios y sales fundidas es necesario que las muestras se encuentren a temperaturas elevadas. Son muchas las celdas que se utilizan, aunque la mayoría son de fabricación casera. Acaso conviene destacar la celda fabricada por Linkam para alta temperatura, que puede llegar a 1.500 oC. En el estudio de reacciones de estado sólido o de cambio de fases es también importante la naturaleza de los gases presentes en la celda que han de afectar al proceso. Este requerimiento adquiere especial relevancia en los estudios de catalizadores, los cuales suelen operar a temperaturas elevadas y cuya misión es facilitar la conversión de los reactivos en los productos deseados. En muchas ocasiones la estructura que presenta un catalizador en condiciones de reacción no es la que presenta a temperatura ambiente o ni siquiera la que tiene a temperatura de reacción si los reactivos no están presentes. Celdas in situ de reacción comerciales para Raman no existen, aunque se pueden hacer aproximaciones con la celda de flujo de alta temperatura de Linkam. Sin embargo, para que el estudio catalítico sea preciso es necesario que los gases fluyan a través de la muestra, algo que no es una configuración habitual en los equipos comerciales. Por ello los equipos de investigación desarrollan sus propias celdas in situ de reacción amoldadas a las necesidades de su equipo y reacción.
Espectroscopía Raman
191
5.3.3.5.4. Fibra óptica La utilización de la fibra óptica presenta grandes ventajas, especialmente dentro de las aplicaciones industriales del Raman. En las sondas de fibra óptica el láser llega a la muestra a través de la fibra óptica y la radiación Raman dispersada es recogida por la misma fibra óptica. Esta metodología no requiere alineamiento de la muestras con el haz incidente y tampoco requiere óptica de recogida de la radiación incidente. Además, la muestra puede estar localizada a gran distancia del espectrómetro. Esto permite tener varias sondas conectadas a un mismo espectrómetro o tener una sonda en una zona peligrosa mientras que el espectro se puede estudiar con seguridad en el equipo. Sin embargo, la resolución espectral disminuye, lo cual no es crítico en muchos estudios y aplicaciones.
5.3.3.6. Microscopía Raman Las primeras medidas por microscopía Raman se realizaron en 1975 y destacaron el gran potencial de dicha metodología para el microanálisis. Se puede alcanzar una resolución espacial de una micra (una milésima de milímetro) y por tanto se puede trabajar con muestras de no más de un picogramo (milmillonésima de gramo). Rápidamente se inició su producción a escala comercial. Normalmente la microscopía Raman usa radiación visible, aunque se han desarrollado equipos de microscopía FT-Raman. Sin embargo, la utilización de radiación de infrarrojos limita la resolución espacial a 5 micras debido a su mayor longitud de onda. En la microscopía Raman presenta aplicaciones en la identificación de contaminantes y en la caracterización de nuevos materiales. Asociada a la microscopía Raman se han desarrollado la imagen global, los mapas Raman y la microscopía confocal. 5.3.3.6.1. Imagen global: cuando desenfocamos con estilo Esta metodología consiste en desenfocar el láser sobre la muestra de modo que en lugar de iluminar una zona muy localizada de poco más de 2 micras cuadradas se desenfoca el láser iluminando de forma homogénea una zona más amplia de hasta 100 µm (Figura 5.10). Es fundamental que la iluminación en esa superficie sea homogénea. Los fabricantes proporcionan los medios. El tipo de muestras en que se utiliza la imagen global son aquellas en las que buscamos la presencia y distribución de diferentes compuestos y queremos hacerlo de una manera rápida. Para ello se necesita que las sustancias que estudiamos no posean superposición importante de bandas. Por otro lado el soporte o medio donde se encuentran las sustancias no debe poseer una señal Raman muy intensa. A diferencia de una espectroscopía convencional, la imagen global presenta una resolución espectral muy baja, de casi 30 cm–1. La imagen global da una distribución de intensidades de la ventana espectral seleccionada, por tanto se debe decidir qué zonas han de ser medidas. Se realiza un espectro para cada banda espectral deseada y se obtiene la distribución de la especie o especies seleccionadas.
Técnicas de análisis y caracterización de materiales
192
Distribución de la iluminación 100 80 0 -a
0
+a
Posición
Figura 5.10. Distribución de iluminación sobre una muestra en imagen global.
5.3.3.6.2. Mapa Raman Se pueden hacer mapas de superficies en los cuales se sigue la distribución de los distintos grupos funcionales o fases a lo largo de una superficie. Esto puede realizarse integrando una plataforma motorizada controlada por el mismo programa que controla el espectrómetro Raman de microscopio. Normalmente se corre el riesgo de que la superficie no sea perfectamente perpendicular al haz de incidencia. En este caso, las plataformas motorizadas XY se arriesgan a perder información de aquellos puntos que no queden perfectamente enfocados. Por este motivo se han desarrollado sistemas XYZ o «autofocus» donde el desplazamiento vertical (Z) también está controlado por el ordenador, de modo que ningún punto quede fuera de foco. Las aplicaciones de los mapas Raman están creciendo rápidamente y ya no solamente se aplica al estudio de semiconductores, films de diamantes, o muestras cerámica, sino que su aplicación es cada día más corriente a escala industrial como control de calidad. Por ejemplo, en el control de las películas que recubren el soporte magnético de los discos de ordenador. 5.3.3.6.3. Microscopía confocal La microscopía confocal proviene de la biología donde se observa el interior de las células sin destruirlas y eliminando las imágenes que están más cerca y más lejos del punto enfocado. Son varios los fabricantes que han desarrollado microscopía confocal (Dilor) o pseudo-confocal (Renishaw) para sus equipos. A diferencia de la imagen global y a semejanza del mapa Raman, cada punto constituye un espectro completo. Por este motivo se genera una cantidad de datos tal que es sumamente difícil procesar. Por este motivo, se suelen seleccionar bandas características de cada fase para simplificar los análisis.
5.3.4. bases de datos y referencias Debido a la reciente generalización de la metodología Raman no existe una base de datos oficial de referencia para la caracterización de compuestos. Sin embargo, están surgiendo una serie de manuales de espectroscopía Raman, que normalmente se presentan asociados a los más consolidados manuales de referencia de infrarrojos. Por ejemplo, Academic Press ha publicado Electronic Handbook of Infrared and Raman
Espectroscopía Raman
193
Spectra of Inorganic Compounds and Organic Salts en soporte informático, que automáticamente compara el espectro que hemos registrado con los de la base de datos. Existen en la Red varios sitios, gestionados por departamentos universitarios principalmente, que presentan pequeñas bases muy especializadas, como la del University College London, que tiene una base de tintes y materiales utilizados para dar color a las pinturas. Un terreno donde la espectroscopía Raman se muestra especialmente versátil. Como comentaremos más adelante sirve para identificar las pinturas utilizadas en un cuadro y determinar su autenticidad o estimar la época en la que fue pintado.
5.3.5. equipos comerciales El mercado Raman es uno de los de mayor crecimiento en los últimos años, y en el que se espera un avance espectacular, muy por encima de cualquier otra técnica. Los modelos, incluso los fabricantes, están en constante cambio y aparecen nuevos modelos y nuevas marcas que abarcan un espectro amplio tanto en características, prestaciones, aplicaciones y precios.
5.3.5.1. Raman dispersivo El mercado mayor es el de los equipos Raman dispersivos. Tanto aquellos acoplados a un microscopio como los que solo traen una sonda de fibra óptica para medidas con menos resolución espacial, o para sumergir en muestras líquidas o sólidas, como en forma de polvo. Las marcas más habituales son: – – – – – – – – – – – – – – – – – – – – –
Ahura Scientific, Inc. - Wilmington, MA, Estados Unidos Avantes Inc. - Broomfield, CO, Estados Unidos Bruker Optics Inc. - Billerica, MA, Estados Unidos ChemImage Corp. - Pittsburgh, PA, Estados Unidos Cobolt AB - Solna, Suecia Craic Technologies - San Dimas, CA, Estados Unidos DeltaNu, Inc. - Laramie, WY, Estados Unidos HORIBA Jobin Yvon SAS, HORIBA Scientific - Longjumeau, Francia Innovative Photonic Solutions - Monmouth junction, Nj, Estados Unidos InPhotonics, Inc. - Norwood, MA, Estados Unidos jASCO Inc. - Easton, MD, Estados Unidos Kaiser Optical Systems, Inc. - Ann Arbor, MI, Estados Unidos Kimmon Electric US, LP - Centennial, CO, Estados Unidos Lahat Technologies Ltd. - Misgav, Israel LaserPath Technologies, LLC - Oviedo, FL, Estados Unidos Lavision GmbH - Goettingen, Alemania Lavision Inc. - Ypsilanti, MI, Estados Unidos Ocean Optics EMEA - Duiven, Holanda Ondax, Inc. - Monrovia, CA, Estados Unidos Perkin-Elmer, Reino Unido Photon Technology International, Inc. - Birmingham, Nj, Estados Unidos
Técnicas de análisis y caracterización de materiales
194
– – – – – – – – – –
Real-Time Analyzers, Inc. - Middletown, CT, Estados Unidos Renishaw, Inc. - Hoffman Estates, IL, Estados Unidos Renishaw plc, Spectroscopy Products Div. - Wotton-under-Edge, Reino Unido RSP Systems - Odense M, Dinamarca Senspex Inc. - Albuquerque, NM, Estados Unidos Serstech AB - Lund, Suecia Symphotic TII Corp. - Camarillo, CA, Estados Unidos Taboada Research Instruments, Inc. - San Antonio, TX, Estados Unidos Tautec LLC - Columbia, MD, Estados Unidos Thermo Fisher Scientific Inc., Molecular Spectroscopy - Madison, WI, Estados Unidos – Warsash Scientific Pty. Ltd. - Strawberry Hills, Australia – WITec GmbH - Ulm, Alemania
5.3.5.2. FT-Raman – – – – –
Bio-Rad Bomem Bruker jasco Inc. Nicolet Instrument Corporation
Una excelente recopilación de sitios de Internet con documentación de equipos, accesorios, aplicaciones y publicaciones se encuentra en la hoja gestionada por Gary Ellis, del Instituto de Ciencia y Tecnología de Polímeros del CSIC, en http://www. ictp.csic.es/ramanft/raman7.htm. Además, en el ámbito internacional, se pueden encontrar sitios asociados a usuarios de espectroscopía, como el de la revista Photonics: http://www.photonics.com/directory/.
5.4. aPlicaciOnes de la esPecTrOscOPía raMan La espectroscopía Raman encuentra aplicación en un elevado número de campos como son la ciencia de materiales, bioquímica/biología/medicina, química estructural, química de catalizadores, química combinatoria, ciencias de la tierra y otras aplicaciones. De estas cabe destacar las relacionadas con el arte (restauración de pinturas, identificación de la autenticidad de los cuadros), falsificación de billetes, detección de narcóticos o explosivos, etc.
5.4.1. Química 5.4.1.1. Química estructural La simetría de las moléculas determina las bandas Raman posibles y las frecuencias de las vibraciones de los enlaces se ven afectadas por cambios en la distancia de los enlaces. Estos se pueden ver afectados por efecto de la presión. En este sentido es posible medir cuán compresible es un material o si sufre cambios de fase bajo pre-
Espectroscopía Raman
195
sión. El exceso o déficit de algún componente en un compuesto resulta en un desequilibrio que el sistema compensa con algún cambio en su naturaleza. En ocasiones estos se pueden seguir por espectroscopía Raman. También puede que se incorpore un nuevo elemento a una fase ya existente y esta podrá alojar a ese extraño por un tiempo sin afectarse permitiendo soluciones sólidas, o dando lugar a una reacción de la fase con el nuevo componente, reacción de estado sólido. La aproximación diatómica desarrollada por Hardcastle y Wachs permite determinar órdenes de enlace y su distancia de enlace. Hardcastle y Wachs trabajaron con datos cristalográficos y determinaron la ecuación que establece la distancia de enlace entre dos iones de un enlace que vibra. De esta forma se puede establecer una correlación entre la longitud de enlace y el desplazamiento Raman, así como entre el orden de enlace y el desplazamiento Raman. Esto ha sido realizado para compuestos de vanadio, niobio, bismuto, wolframio (tungsteno), fósforo y titanio. Las modificaciones en las distancias de enlace, tengan los aditivos, la presión, la temperatura u otros parámetros, se verán por tanto reflejadas en los espectros Raman. 5.4.1.1.1. Compresibilidad de sólidos De esta manera, los vanadatos de terbio y disprosio (TbvO4 y DyvO4) pueden ser estudiados bajo el efecto de la presión. Básicamente, el estudio consiste en determinar la distancia del enlace v=O. Su longitud se correlaciona con el tamaño de la celda unidad del cristal; así se determinan los cambios de volumen de los cristales a partir del espectro Raman. Este método es más rápido y cómodo que si se trabaja en un equipo de difracción de rayos X. De esta forma, se pudo determinar una reducción del volumen de la celda unidad frente a la presión según se ilustra en la Figura 5.11 [Chen, G. et ál., «Compressibilities of TbvO4 and DyvO4 Calculated from Spectroscopic Data», Applied Spectroscopy, 46 (1992) 1495].
Volumen Relativo V(P) / V(O)
1,000 0,995 0,990 0,985 0,980 0,975
TbVO4
0,970
DyVO4
0,965 0
2
6
8
Presión (GPa)
Figura 5.11. Compresibilidad de vanadatos de tierras raras frente a la presión. Adaptado de Chen, Haire, Peterson en Applied Spectroscopy, 46 (1992) 1495.
196
Técnicas de análisis y caracterización de materiales
5.4.1.1.2. Cambio de fase bajo presión La espectroscopía Raman permite seguir los cambios de fase bajo presión que puede llegar a tener implicaciones en procesos geológicos, pues muchas transformaciones de fases en minerales inducidas por la presión afectan a los aspectos estructurales del interior de la Tierra. Un ejemplo ilustrativo es el trabajo de Kouvouklis et ál. [Kourouklis, G. A. et ál. «High-pressure Raman study of CsvO3 and pressure-induced phase transitions», J. Raman Spectroscopy, 22 (1991) 57] acerca de las fases del vanadato de cesio (CsvO3) frente a la presión. A temperatura ambiente el CsvO3 posee una estructura ortorrómbica. La espectroscopía Raman muestra la formación de nuevas fases conforme aumenta la presión. Se llegan a detectar hasta cuatro fases, cuyas génesis radican en ligeros cambios de los enlaces en el ángulo vO. 5.4.1.1.3. Solubilidad en disoluciones sólidas Muchos óxidos forman un amplio número de disoluciones sólidas binarias. El uso de la espectroscopía Raman puede estudiar estas fases y determinar el contenido máximo hasta el cual se forma la disolución sólida. Debido a la extremada sensibilidad de la espectroscopía Raman con fases cristalinas, presenta ventajas notables frente a metodologías como la difracción de rayos X, que apenas son sensibles a los cambios en las composiciones de las disoluciones en estado sólido. Con microscopía Raman Capel et ál. [Capel, F. et ál. «The solid solubility limit of TiO2 in 3Y-TZP studied by Raman spectroscopy», Materials Letters, 38 (1999) 331] pudieron determinar el límite de solubilidad de titanio en óxido tetragonal de zirconio estabilizado con itrio. En particular, los espectros Raman presentan dos bandas que se ven afectadas por el contenido de titanio (Figura 5.12). Las bandas a 260 y 640 cm–1 se desplazan progresivamente conforme aumenta el contenido de titanio. Esto refleja una progresiva deformación del zirconio tetragonal estabilizado con itrio hasta un momento en el cual cantidades de titanio adicionales carecen de efecto. Esta estabilización se debe a que el zirconio tetragonal estabilizado con itrio ya no admite más titanio y este se segrega como óxido de titanio. 5.4.1.1.4. Reacción en estado sólido La reacción entre dos óxidos para formar una nueva fase también se puede ver por espectroscopía Raman, como es por ejemplo el caso del vanadato de cerio, que se forma por reacción a temperatura elevada del óxido de vanadio con el óxido de cerio. La Figura 5.13 ilustra una banda muy intensa a 480 cm–1 característica del óxido de cerio. Las nuevas bandas que se observan entre 700 y 900 cm–1 son características del vanadato de cerio. Cabe destacar que la temperatura a la que esta reacción de estado sólido ocurre disminuye conforme aumenta la cantidad de vanadio presente en el sistema. Los dominios que se forman de CevO4 son demasiado pequeños para ser observados por difracción de rayos X, que unido a la rapidez de la medida Raman ponen de manifiesto el gran potencial de esta espectroscopía.
Espectroscopía Raman
197
Desplazamiento Raman (cm-1)
660
650
640 300 280 260 240 0
5
10
15
20
% Ti-YTZP
Figura 5.12. Solubilidad de Ti en óxido tetragonal de zirconio estabilizado con itrio. Adaptado de Capel, Bañares, Moure y Durán, Materials Letter, 38 (1999) 331. Se forma a
V205/Ce02
700 C 1%VCe
600 C
2%VCe
400 C
4%VCe
VCe04
100
300
500
700
900
1.100
Ramanshift/cm-1
Figura 5.13. Reacción de estado sólido entre v2O5 y CeO2 para formar vanadato de cerio. Datos del autor (M. Á. Bañares).
5.4.1.2. Catalizadores: estructura de óxidos soportados La catálisis desempeña un papel fundamental en la industria química pues prácticamente todos los productos químicos se obtienen vía catalítica o de un precursor que se ha obtenido por vía catalítica. Por este motivo el conocimiento de los cataliza-
198
Técnicas de análisis y caracterización de materiales
dores es de un gran alcance. En particular, para el estudio de los óxidos soportados la espectroscopía Raman presenta una gran sensibilidad y conveniencia. 5.4.1.2.1. Raman frente a Infrarrojo Cuando se compara la utilización de Raman e infrarrojo para el estudio de óxidos soportados surgen de inmediato las diferencias en las reglas de selección entre ambas metodologías, que en este caso juegan a favor del Raman. Los óxidos soportados están constituidos por una fase activa (cantidades muy pequeñas, menos de 1% en peso, en ocasiones) y el resto es el soporte. En IR los soportes presentan bandas de absorción muy intensas que no permiten el estudio de la fase soportada, mientras que en Raman los óxidos apenas dan emisión Raman (sílice, alúmina) o la dan por debajo de 700 cm–1 (titania, circonia, ceria, etc.). La zona más importante en la caracterización de un óxido soportado (de molibdeno, cromo, vanadio, niobio, renio, wolframio) es entre 800 y 1.100 cm–1. En esta zona ningún soporte presenta problemas. 5.4.1.2.2. Recubrimiento del soporte En los óxidos soportados, la fase activa se suele encontrar altamente dispersa. Es deseable incorporar la máxima cantidad de fase activa que pueda permanecer altamente dispersa, en contacto directo con el soporte, sin que se segregue del soporte formando agregados tridimensionales, en los que no toda la fase activa está expuesta. Este contenido máximo en el que la fase soportada permanece disperso se ha llamado tradicionalmente contenido de la monocapa, que más propiamente sería el contenido del límite de dispersión. Este valor de monocapa podría determinarse por difracción de rayos-X, pero es una metodología que necesita dominios grandes, de al menos 4 nm, para poder detectarlos. Por otro lado, la espectroscopía Raman es sensible a la mínima expresión de estructura regular cristalina, con lo que los límites de dispersión pueden determinarse con extremada precisión. 5.4.1.2.3. Impurezas en la estructura La presencia de impurezas puede tener un efecto muy importante en la estructura de los óxidos soportados; por ejemplo, en sistemas de óxido de molibdeno soportado sobre sílice, la presencia de mínimas impurezas de sodio, potasio o cesio reordena las especies superficiales en molibdatos alcalinos. 5.4.1.2.4. Impurezas en la actividad Este cambio de fase afectará a la actividad de catalizador. Pero lo hará en distinta manera según en qué reacción se está usando, de modo que una misma contaminación en un mismo catalizador puede tener efectos muy distintos. Así, siguiendo con el ejemplo del párrafo anterior, en la oxidación de metano a formaldehído hay un descenso de actividad directamente proporcional a la disminución de especies dis-
Espectroscopía Raman
199
persas de molibdeno no ligadas a las impurezas alcalinas. Sin embargo, la oxidación de metanol presenta una reducción de su actividad en función de la reducibilidad del óxido soportado.
5.4.2. ciencias de la Tierra La espectroscopía Raman es de una gran versatilidad en los estudios de gemas y minerales, los cuales pueden ser identificados en tiempos extremadamente cortos. Un aspecto llamativo es que el Raman no solo mira a la Tierra, sino que mira a otros mundos. En la NASA se han adquirido espectrómetros Raman para el estudio de muestras recogidas de fuera, y se está trabajando en un pequeño vehículo que incorpora un pequeño espectrómetro Raman con el que se pretende estudiar la composición del suelo marciano.
5.4.3. Química combinatoria La química combinatoria es una tecnología que se dedica al descubrimiento de nuevos materiales por medio de la preparación de muchos compuestos y su caracterización casi simultánea. Desde 1996 es una tecnología que está creciendo muy rápidamente y que se empezó utilizando en la industria farmacéutica para el descubrimiento de nuevas moléculas bioactivas, medicinas, etc. La química combinatoria se ha extendido en muchas direcciones, a las que no escapa la preparación de nuevos materiales inorgánicos. Así, se han logrado preparar pantallas para televisores de mucho mayor contraste o materiales con unas propiedades determinadas de magnetorresistencia. En general, todas las preparaciones deben ser estudiadas de una forma rápida, pues se pueden preparar miles de compuestos por día. Por este motivo se necesitan tecnologías de caracterización adecuadas. La capacidad de la espectroscopía Raman de trabajar por microscopía y realizar mapas Raman e imágenes globales la convierte en una tecnología de gran atractivo para los métodos combinatorios.
bibliOGrafía 1. RaMan, S. C. v.; Krishnan, K. S. Nature, 121 (1928), p. 619. 2. Ferraro, j. R.; NakaMoto, K.; Brown, C. W. Introductory Raman spectroscopy, 2.a ed., Academic Press, New York, 2003. 3. WeCkhuysen, B. M. In situ spectroscopy of catalysts, American Scientific Publishers, 2004. 4. Lewis, R.; Edwards, H. G. M. Handbook of Raman Spectroscopy, Marcel Dekker, Inc., New York, 2001. 5. SoCrates, G. Infrared and Raman Characteristic Group Frequencies: Tables and Charts, 3.a ed., john Wiley and Sons, Hoboken, Nj (EE.UU.), 2001.
6. análisis QUíMicO: esPecTrOscOPía de absOrción y eMisión aTóMica. PreParación de MUesTras. análisis eleMenTal Marisol Faraldos izquierdo Instituto de Catálisis y Petroleoquímica (CSIC)
6.1. inTrOdUcción El análisis químico de una muestra comprende la determinación cualitativa y cuantitativa de uno, varios o todos los elementos que la constituyen, tanto si se encuentran a nivel mayoritario como minoritario o en trazas. La caracterización cualitativa de los elementos que componen un material o una disolución se puede abordar por varias técnicas instrumentales, pero su cuantificación queda limitada a aquellas cuya señal específica es proporcional a la concentración atómica y permite elaborar las correspondientes curvas de calibración. Actualmente la mayoría de los análisis químicos para determinar los elementos constituyentes de una muestra se aborda por espectroscopía de absorción o emisión atómica, fluorescencia de rayos x o técnicas electroquímicas, aunque tradicionalmente se han utilizado volumetrías, gravimetrías, espectroscopía ultravioleta-visible, espectroscopía de fluorescencia y fosforescencia molecular, por métodos directos o indirectos. La caracterización de un material mediante espectroscopía de absorción o emisión atómica pasa por una etapa fundamental y de enorme repercusión en el resultado del análisis, como es la preparación de muestra. Las determinaciones cualitativas y cuantitativas solo serán posibles si los elementos a medir se encuentran en disolución o en la forma adecuada para ser transportados a la llama o plasma donde se romperán los enlaces quedando como átomos libres. Este capítulo comienza por el desarrollo de la espectroscopía de absorción y emisión atómica puesto que el libro trata de las técnicas de análisis y caracterización, aun sabiendo que el orden lógico y práctico indica abordar al principio la preparación de muestra. La espectroscopía de absorción atómica se basa en la absorción de radiación por átomos libres en estado fundamental mientras que la espectroscopía de emisión atómica estudia la emisión de radiación por átomos o iones libres en estado excitado. La longitud de onda de la radiación emitida o absorbida es específica para cada elemento, lo que permite su identificación. Mientras que la intensidad de la radiación a esa longitud de onda específica es proporcional a la cantidad del elemento presente en la muestra.
202
Técnicas de análisis y caracterización de materiales
Los principios de estas técnicas se remontan a mediados del siglo xviii, cuando se observaron las primeras emisiones de llama. Entre 1732 y 1758 Geoffray, Melville y Marggraf observaron una coloración brillante emitida al quemar en una llama una mezcla de alcohol y distintas sales metálicas. Si solo se quemaba alcohol, esta emisión desaparecía. Poco después, en 1776, volta descubrió la forma de producir un arco eléctrico suficientemente fuerte para crear chispas, le sorprendieron los diferentes colores de las mismas cuando bombardeaba diferentes materiales. Hacia 1802 Wollaston observó unas líneas oscuras en el espectro de la luz solar, considerado continuo hasta entonces, y en 1814 Fraunhofer diseñó algunos dispositivos para observar y confirmar la existencia de estas líneas oscuras en el rango visible del espectro solar. Talbot observó y publicó, en 1826, la variación en la coloración de la llama para diferentes sales, pero su trabajo no fue suficientemente reconocido. Continuaron los avances en el conocimiento del espectro solar, y en 1832 Brewster descubrió que las líneas observadas se debían a la presencia de ciertos vapores en la atmósfera solar, deduciendo que un gas sometido a determinadas condiciones emite una serie de radiaciones que es capaz de absorberlas también. Kirchoff, hacia 1860, demostró la presencia de ciertos elementos en la atmósfera solar, relacionó los fenómenos de absorción y emisión, y dedujo que cada elemento presenta un espectro característico. Poco después, en 1861, junto a Bunsen y Fraunhofer establecen los fundamentos y utilidad de un nuevo método de análisis espectroquímico, asumiendo que las finas líneas tanto de la emisión como de la absorción están generadas por átomos. Corroborando estos estudios, en 1873, Champion, Pellett y Grenier llevaron a cabo las primeras determinaciones cuantitativas de sodio por emisión de llama como había apuntado Talbot cuarenta y siete años atrás. Los primeros experimentos que demostraron la relación entre la emisión y absorción fueron realizados por Wood en 1902. Entre 1924 y 1928, Angerer y joos estudiaron los espectros atómicos de absorción de los metales del grupo del hierro, Frayne y Smith los del indio, aluminio, galio y talio, Hughes y Thomas perfeccionaron los estudios del vapor de mercurio en aire por absorción atómica y, finalmente, Lunegardh demostró la versatilidad de la espectroscopía de emisión por llama. El primer fotómetro de llama aparece en 1937 y a partir de 1950 se comercializan instrumentos más sofisticados. Las primeras aplicaciones reales de la espectroscopía de absorción atómica aparecen en 1955 por Alan Walsh y Alkemade. Poco después, en 1960, se comercializa el primer instrumento de espectrometría de absorción atómica. En 1974 aparece en el mercado el primer equipo de emisión atómica por plasma con detección óptica, ICP-OES (Inductively Coupled Plasma-Optic Emission Spectroscopy); unos años después lo hacen los equipos de emisión atómica por plasma con detector de masas, ICP-MS. Desde entonces estas técnicas se han desarrollado rápidamente gracias a los avances en electrónica e informática, alcanzando gran relevancia y sofisticación tecnológica.
6.2. fUndaMenTOs de la Técnica Las técnicas de absorción y emisión atómica se basan en la absorción de radiación o generación de la misma, respectivamente, por parte de los átomos presentes
Análisis químico: espectroscopía de absorción y emisión atómica…
203
en un material que es sometido a una serie de procesos consecutivos (Figura 6.1) de disolución, nebulización, ruptura de enlaces para obtener átomos en estado fundamental y excitación de estos átomos. Un átomo que se encuentra en su estado fundamental (M 0) se somete a la acción de una radiación electromagnética de manera que un electrón situado en un nivel energético E 0 puede absorber la energía asociada a dicha radiación y desplazarse hasta un nivel energético superior E 1, con lo que queda el átomo en un estado excitado electrónicamente (M *). La transición entre dos niveles de energía E 0 y E 1 solo tendrá lugar si la frecuencia del cuanto absorbido es n=
E1 – E0
[6.1]
h
Cuando el electrón pasa nuevamente del nivel energético E 1 al E 0, esto es, cuando un átomo excitado vuelve de forma espontánea a su estado fundamental, emite una radiación cuya energía es exactamente la misma que la absorbida previamente, es decir, E 1 – E 0. La ecuación que refleja esta transición es M 0 + hν ⇔ M*
[6.2]
Disolución
Nebulización
Partículas sólidas Partículas fundidas Drenaje
Partículas gaseosas
Eliminación disolventes Moléculas Otras moléculas
Iones Átomos en estado fundamental
Moléculas excitadas
Átomos en estado excitado
Figura 6.1. Esquema del proceso de atomización.
Iones excitados
Técnicas de análisis y caracterización de materiales
204
Cada elemento tiene una estructura electrónica única que lo caracteriza, y su configuración orbital es compleja, por lo que existen muchas transiciones electrónicas posibles, cada una de las cuales corresponderá a la absorción o emisión de radiación de una determinada frecuencia (Figura 6.2), es decir, entre los distintos estados energéticos: M 0 + hν1 + hν2 + hν3 + … ⇔ M*
[6.3]
Se puede decir, por tanto, que los átomos en estado excitado se encuentran en equilibrio con otros átomos en estado fundamental emitiendo o absorbiendo radiaciones, respectivamente, de diferentes longitudes de onda, específicas para cada uno de los distintos elementos y que constituyen su espectro característico. Absorción hv E = hv = E1 – E0
E1
v = (E1 – E0)/h
E0 M0
M*
Emisión
hv1
hv3
Horno gráfico Llama E1
Chispa
E0
Plasma
M1 M2 M3
M0
Arco eléctrico hv2
Figura 6.2. Esquema del proceso de absorción y emisión atómica.
Esas radiaciones absorbidas por los átomos en el proceso de excitación o emitidas en el proceso de relajación pueden cuantificarse para ser utilizadas con fines analíticos; para ello, es necesario disponer del elemento M en forma de átomo, bien en su estado fundamental o bien en su estado excitado, lo que se consigue efectuando un aporte energético mediante una llama, un horno de grafito, un arco eléctrico, una chispa, un plasma, etc. Como la transformación M 0 ⇔ M* es un equilibrio reversible, se podrá desplazar en un sentido u otro en función de la cantidad y forma de la energía que se suministre, es decir, en función de la proporción entre la población de átomos en estado fundamental M 0 y excitado M* según la ecuación de Boltzmann: N* N0
=
P* P0
E * – E0 exp – kT
[6.4]
Análisis químico: espectroscopía de absorción y emisión atómica…
205
donde N * y N 0 representan el número de átomos en estado excitado y fundamental respectivamente, las probabilidades P* y P 0 dependen del número de estados de la misma energía en cada nivel cuántico del átomo, E* y E 0 la energía del estado excitado y fundamental, T la temperatura y k la constante de Boltzmann (1,28 × 10–23 J · K –1). Si el aporte de energía es pequeño, la mayoría de los átomos se encontrarán en el estado fundamental (M 0), y si son sometidos a la acción de aquellas radiaciones que ellos mismos son capaces de emitir (hν1, hν2, hν3, etc.), se producirá una absorción de las mismas por los átomos en estado fundamental desplazándose el equilibrio hacia la derecha y pasando los átomos al estado excitado. La medida de esta radiación absorbida constituye la espectrometría de absorción atómica. Si, por el contrario, el aporte de energía es grande, la mayoría de los átomos se encontrarán en el estado excitado (M*), por lo que el equilibrio se desplazará a la izquierda emitiendo una serie de radiaciones ν1, ν2, ν3 ,..., que pueden ser medidas, lo cual constituye la espectrometría de emisión atómica.
6.2.1. ensanchamiento de picos El ancho de línea de pico se define como el ancho de longitud de onda a la mitad de la intensidad de la señal. La anchura de los picos viene definida por la composición de la muestra y condiciones experimentales, pero existen una serie de efectos que pueden contribuir a su ensanchamiento: – Principio de incertidumbre. Se produce como consecuencia del Principio de Incertidumbre de Heisenberg, debido a que el tiempo de vida de un electrón en un estado excitado es limitado, del orden de 10–8 segundos. Se demuestra que el ensanchamiento natural es inversamente proporcional con el tiempo de vida del estado excitado. Los ensanchamientos de línea por este proceso son del orden de 10–5 nm, bastante inferiores a los debidos a otros efectos. – Efecto Doppler. La longitud de onda de la radiación emitida o absorbida por un átomo en movimiento disminuye si se dirige hacia el detector y aumenta si se aleja del mismo. El máximo desplazamiento Doppler lo presentan los átomos que se mueven a las velocidades más altas y en línea con el detector. Los movimientos perpendiculares de los átomos no contribuyen, por tanto, la distribución de longitudes de onda que alcanza el detector es simétrica. El efecto Doppler, directamente relacionado con la temperatura, como ocurre en el interior de las llamas, se debe a que los átomos individuales presentan una distribución estadística de velocidades de Maxwell-Boltzmann, las frecuencias que llegan al detector muestran una distribución aproximadamente simétrica, con un máximo que corresponde a un desplazamiento Doppler de cero. En las llamas más comunes, estos ensanchamientos son de 5 · 10–4 a 5 · 10–3 nm. – Efecto de presión. Es el resultado de las colisiones entre las especies que absorben o emiten con otros átomos o iones presentes en el medio (ensanchamiento Lorentz) o incluso con átomos del mismo elemento (ensanchamiento Holtsmark). Estas colisiones provocan pequeños cambios en los ni-
Técnicas de análisis y caracterización de materiales
206
veles energéticos atómicos y, en consecuencia, se origina una dispersión de las longitudes de onda emitidas o absorbidas. El ensanchamiento debido a este efecto es del mismo orden de magnitud que el producido por efecto Doppler. El efecto Holtsmark depende de la concentración de analito, si bien, el ensanchamiento que produce puede considerarse despreciable. – Efectos del campo magnético y eléctrico: efecto Zeeman. La presencia de campos eléctricos (efecto Stark) o magnéticos (efecto Zeeman) origina ciertas perturbaciones en las líneas de absorción o emisión, si bien únicamente se ponen de manifiesto al operar en presencia de campos muy intensos o cuando el medio está muy ionizado, como en un plasma. En absorción atómica presenta un cierto interés en cuanto que se han desarrollado algunos sistemas de corrección del fondo basados en ello.
6.3. insTrUMenTación Un equipo de trabajo de espectroscopía de absorción atómica o de espectroscopía de emisión atómica debe consistir en un sistema generador de radiaciones características del elemento que se desea analizar (el propio elemento excitado en espectroscopía de emisión) y un mecanismo de obtención de átomos en estado fundamental en el caso de espectroscopía de absorción. La longitud de onda a la que se produce la absorción o la emisión aparece rodeada del resto de radiaciones de múltiples longitudes de onda que escapan de cada elemento; por tanto, se requiere un sistema de monocromación para aislar una determinada radiación característica. Estas radiaciones deben ser conducidas desde el sistema de obtención de las mismas hasta el monocromador y desde este al detector, lo que requiere un sistema óptico, consistente en lentes, espejos, rendijas, etc. más o menos complejo dependiendo de las prestaciones exigidas al equipo. La radiación resultante debe ser detectada, amplificada y medida por medio de los componentes del sistema electrónico. El conjunto de todo ello constituye el equipo de medida.
6.3.1. componentes de los equipos El empleo de las espectrometrías de absorción atómica y de emisión por plasma acoplada inductivamente (ICP-OES) como técnicas analíticas requiere básicamente los seis dispositivos o sistemas que se indican a continuación: – Medio de producción de radiaciones características del elemento a analizar. Es exclusivo de espectroscopía de absorción atómica. – Dispositivo de introducción de la muestra a analizar. – Mecanismo de atomización y excitación. – Sistema de monocromación. – Sistemas de corrección del fondo espectral. – Sistema de detección, amplificación y medida de las radiaciones.
Análisis químico: espectroscopía de absorción y emisión atómica…
207
6.3.1.1. Medio de producción de radiaciones características Se dispone del elemento M, el mismo que se desea analizar, al que se le suministra una cantidad de energía suficiente para llevarlo a un estado excitado M*. La relajación posterior conlleva la emisión de radiaciones características de ese elemento a diferentes longitudes de onda (hν1, hν2, hν3, ...), que podrán ser absorbidas por el elemento M que se encuentre en la muestra ya atomizado y en estado fundamental. La relación lineal, ley de Beer, entre la absorbancia de un analito y su concentración sufre desviaciones cuando el ancho de banda de la fuente es mayor que el ancho de la banda de absorción, puesto que las líneas de absorción atómicas son muy estrechas se obtendrían curvas de calibrado no lineales. Además la sensibilidad, dada por la pendiente de la curva es pequeña porque solo una fracción de la radiación proveniente del monocromador es absorbida por la muestra. La utilización de fuentes con anchos de banda más estrechos que los picos de absorción resolvería este problema, por eso empezaron a utilizarse fuentes de radiación de emisión del mismo elemento. Las condiciones deben mantener la temperatura de la fuente por debajo de la temperatura de la llama para evitar la contribución del ensanchamiento Doppler al pico de absorción frente al producido en la llama. Los medios clásicos disponibles para generar estas radiaciones son lámparas de cátodo hueco, donde la energía es suministrada por una corriente eléctrica, o con lámparas de descarga sin electrodos, donde la energía aportada es una corriente de radiofrecuencia. Posteriormente, como alternativa versátil surgieron las lámparas multielementales y más recientemente las fuentes de radiación continua. El uso de fuentes de radiación especiales y una cuidadosa selección de la longitud de onda permiten la determinación específica de un elemento en presencia de otros. La calidad de la fuente es uno de los elementos más importantes para obtener la mejor linealidad, sensibilidad y precisión en espectroscopía de absorción atómica. 6.3.1.1.1. Lámpara de cátodo hueco La lámpara de cátodo hueco es el medio de producción de radiaciones características más utilizado, por su estabilidad, rápido calentamiento, sencilla fabricación, vida larga y precio razonable. Está constituida (Figura 6.3) por un ánodo, generalmente un hilo de tungsteno de 1 mm de diámetro y 30-40 mm de longitud, y un cátodo situado en el eje óptico del sistema, en forma de cilindro hueco de 5-6 mm de diámetro y fabricado del elemento a analizar (o por un recubrimiento del mismo sobre otro elemento más económico). Ambos se sitúan en el interior de un tubo de vidrio en el que hay un gas noble (argón o neón) a una presión inferior a 10 mm de mercurio. La radiación generada atraviesa una ventana, que será de cuarzo si se utilizan longitudes de onda en la zona de la radiación ultravioleta. El mecanismo de funcionamiento se inicia cuando al aplicar un potencial entre los dos electrodos se origina una descarga en el gas inerte de relleno que ioniza alguno de sus átomos Ar ⇔ Ar+ + 1e–
[6.5]
208
Técnicas de análisis y caracterización de materiales Cátodo
Gas noble
Ánodo
Ventana
Figura 6.3. Lámpara de cátodo hueco [adaptada de (4)].
Los iones generados se aceleran con gran energía hacia el cátodo, chocan contra el mismo vaporizando parte del metal de su superficie Ar+ M (s) ——→ M (g) ——→ M(g)*
[6.6]
Según esto, la técnica de espectrometría de absorción atómica requiere una lámpara diferente para el análisis de cada elemento. Las lámparas multielementales se han diseñado para paliar este inconveniente; en ellas el cátodo está formado por varios elementos. Su uso presenta ciertas limitaciones, ya que no todos los metales pueden ser combinados con otros debido a las propiedades metalúrgicas o limitaciones espectrales. Estos problemas reducen la especificidad de la técnica que además presenta, en estos casos, menor sensibilidad y problemas de interferencias, por la proximidad de las líneas de emisión de algunos elementos. Aun así, su uso está extendido en algunos casos por la rapidez que imponen a los análisis una vez desarrollados los protocolos de ensayo adecuados. 6.3.1.1.2. Lámpara de descarga sin electrodos La lámpara de descarga sin electrodos es de diseño más complejo (Figura 6.4), el elemento o una sal del mismo se encuentra en un pequeño bulbo de cuarzo con atmósfera de argón a baja presión. Este bulbo está colocado en el interior de un cilindro cerámico y rodeado por una bobina de radiofrecuencia que genera un campo magnético axial, lo que induce a los iones y electrones a moverse en órbitas circulares dentro del bulbo. Este movimiento de iones y electrones provoca un calentamiento del gas ionizado suficiente para conducir al elemento a su estado excitado. El conjunto de componentes se protege por un cilindro metálico con una ventana de cuarzo. Estas lámparas se utilizan casi exclusivamente para aquellos elementos que por ser muy volátiles no permiten disponer de lámpara de cátodo hueco o se agotan rápidamente, como son arsénico, bismuto, cadmio, plomo, antimonio, selenio, estaño, etc. La sensibilidad que ofrecen supera a las de cátodo hueco para esos mismos elementos y su tiempo de vida es mayor, pero muestran algunos inconvenientes como menor estabilidad, calentamiento lento, líneas de emisión más anchas, necesidad de una fuente de radiofrecuencia que encarece el producto.
Análisis químico: espectroscopía de absorción y emisión atómica…
209
Bobina de radiofrecuencia
Ventana de cuarzo Bulbo Soporte de cerámica
Figura 6.4. Lámpara de descarga sin electrodos [adaptada de (1)].
6.3.1.1.3. Lámpara de alta intensidad. Superlámparas Esta lámpara produce intensos espectros de bandas estrechas y están disponibles para un número elevado de elementos. La utilización de superlámparas requiere el uso de fuentes de alimentación especiales porque trabajan a una energía más alta que la convencional. Los átomos presentes en el plasma del interior de la lámpara de cátodo hueco son excitados en dos zonas, lo que permite corrientes mucho más elevadas sin ensanchamiento de la banda de autoabsorción. El incremento de intensidad solo afecta a las líneas de resonancia primarias de los átomos; los otros espectros emitidos como las líneas de gas y las iónicas son componentes mucho más pequeños del total de la intensidad de la lámpara. La pequeña anchura de línea y la gran reducción de los espectros de no resonancia proporcionan una curva de calibración prácticamente lineal. En muchos casos, haría falta un solo patrón para la calibración. Las superlámparas generan fuentes de luz de alta intensidad a costes mucho menores que las EDL (lámparas de descarga sin electrodo), siendo además mucho más rápidas de calentamiento y generalmente más estables. Las superlámparas se recomiendan particularmente para las siguientes determinaciones en absorción atómica: elementos con el espectro de resonancia en el Uv lejano donde la eficacia instrumental es reducida (como arsénico y selenio); elementos con un espectro complejo, cuando se necesita una mejor relación señal/ruido (caso del análisis de níquel/hierro); y determinaciones cerca del límite de detección, puesto que en algunos casos se mejora 10 veces el límite de detección de un elemento. 6.3.1.1.4. Lámpara de xenón La lámpara de xenón de arco corto es una fuente de radiación continua en un intervalo de longitudes de onda entre los 189 y 900 nm, con una intensidad óptima en todo el rango utilizado en espectroscopía de absorción atómica (Figura 6.5). Se puede medir cualquier elemento y cualquier línea ofreciendo una flexibilidad única.
Técnicas de análisis y caracterización de materiales
210
Figura 6.5. Lámpara de xenón de arco corto (Analytik jena, cedida por Inycom).
Esta lámpara no necesita de un tiempo de calentamiento, ya que la deriva se compensa continuamente con algoritmos de corrección, y las características, límites de detección y relación señal/ruido de la fuente continua de xenón mejoran las lámparas de cátodo hueco debido a la mayor densidad de radiación.
6.3.1.2. Dispositivo de introducción de muestra Las muestras tanto líquidas, que es lo más habitual, como sólidas pueden ser introducidas directamente en el sistema de medida de absorción atómica con llama o emisión atómica por plasma. Cuando se requieren condiciones especiales de análisis bien por el tipo de elemento a medir o por las características de la muestra, se recurre a otros sistemas de incorporación como la generación de hidruros o la cámara de grafito. Tabla 6.1. MéTOdOs de inTrOdUcción de MUesTra en esPecTrOscOPía aTóMica sistema
Tipo de muestra
Nebulización neumática
Solución o slurry
Nebulización ultrasónica
Solución
vaporización electrotérmica
Sólido, líquido o solución
Generación de hidruros
Solución de ciertos elementos
Inserción directa
Sólido, polvo
Ablación láser
Sólido, metal
Ablación por arco o chispa Glow Discharge sputtering (Ablación por bombardeo iónico)
Sólido conductor Sólido conductor
6.3.1.2.1. Muestras sólidas La muestra se puede incorporar directamente en estado sólido por distintas técnicas, siendo la más importante mediante ablación por láser o la introducción directa de sólido en la cámara de grafito.
Análisis químico: espectroscopía de absorción y emisión atómica…
211
– Ablación por láser: un haz de radiación de alta potencia impacta directamente sobre la superficie de la muestra sólida generando, con el calor radiante, la vaporización de la muestra. La columna de vapor producida se arrastra al atomizador con un gas portador. Permite el análisis de perfiles en profundidad. – Inserción directa en cámara de grafito: una corriente eléctrica evapora la muestra rápida y completamente en un flujo de argón, produciendo una señal discreta. – Ablación por arco/chispa o Glow Discharge: su aplicación se centra en sólidos conductores, pues aprovecha las propiedades eléctricas de los materiales para erosionar la superficie de los mismos formando un aerosol que es arrastrado al sistema de medida. Permiten realizar análisis de perfiles de concentración o composición en función de la profundidad. 6.3.1.2.2. Muestras líquidas La muestra a analizar se encontrará habitualmente en estado líquido y se introduce mediante un sistema de nebulización, que consta de dos componentes: el nebulizador y la cámara de nebulización. El nebulizador transforma la muestra líquida en un conjunto de gotas muy pequeñas, denominado aerosol primario; este presenta normalmente una elevada dispersión de tamaños de gota. El fin de la cámara de nebulización es homogeneizar, e incluso disminuir el tamaño de esas gotas, además de seleccionar la fracción más uniforme y fina del aerosol, que constituye el aerosol secundario. En espectroscopía de absorción atómica se emplean generalmente nebulizadores concéntricos de tipo neumático. Están constituidos por un fino capilar (normalmente de una aleación de platino-iridio) por el que se aspira la muestra, bien por efecto venturi o mediante una bomba peristáltica, se encuentra con un flujo de gas (el oxidante) a elevada velocidad para formar un aerosol. La cámara de premezcla, como se denomina en espectroscopía de absorción atómica, sirve para mezclar los gases (combustible y comburente) y el aerosol antes de alcanzar la llama (Figura 6.6). El aerosol secundario se logra interponiendo una bola de impacto o un conjunto de aletas contra el que colisiona el aerosol primario (Figura 6.7). Oxidante
Combustible
Mechero
Nebulizador
Membrana de seguridad
Capilar Bola de impacto Muestra Drenaje
Figura 6.6. Cámara de premezcla [adaptada de (4)].
Técnicas de análisis y caracterización de materiales
212
Aerosol primario Bola de impacto
Aletas
Muestra
Muestra
Aerosol secundario
Drenaje
Drenaje
Figura 6.7. Formación del aerosol primario y secundario (adaptada de Perkin Elmer Inc.).
Los sistemas comerciales de introducción de la muestra en la llama (Figura 6.8) siguen fielmente este esquema. El principal problema de los sistemas de nebulización es el escaso rendimiento que se obtiene, pues no sobrepasa nunca el 10%.
Cabeza mechero
Oxidante auxiliar
Tornillo retención mezclador de flujo
Válvula de sobrepresión
Combustible Ajuste nebulizador Muestra
Ajuste cabeza mechero
Mezclador de flujo
Capilar Nebulizador
Oxidante nebulización
Drenaje
Figura 6.8. Sistema comercial de introducción de muestra en espectrofotometría de absorción atómica con llama (adaptada de Perkin Elmer Inc.).
El tiempo de residencia de la muestra en el plasma, cuando se analiza mediante espectroscopía de emisión atómica por plasma, es muy pequeño; por tanto, es necesario que el tamaño de las gotas que forman el aerosol sea lo más pequeño posible para facilitar el proceso de excitación. Para obtener mejores resultados en los análisis es necesario mantener o aumentar ese tiempo de residencia, es decir, operar con flujos de muestra del orden de 1 l·min-1 o inferiores, lo que exige trabajar con nebulizadores de secciones muy estrechas que obliga a un diseño de los mismos y de las
Análisis químico: espectroscopía de absorción y emisión atómica…
213
cámaras de nebulización muy sofisticado y preciso pues va a tener una influencia extraordinaria sobre los resultados analíticos. En espectroscopía de emisión atómica por plasma, se suelen utilizar los nebulizadores y cámaras de nebulización que se describen seguidamente. 6.3.1.2.2.1. Nebulizadores Introducen flujos variables de muestra, dan estabilidad al plasma y condicionan la precisión y límite de detección de la medida. Nebulizadores neumáticos. Utilizan un flujo de gas a elevada velocidad para producir el aerosol. Son los de uso más generalizado y existen dos diseños: nebulizadores de flujo cruzado y nebulizadores concéntricos. a)
b)
Muestra
Argón
Puntas de nebulizador
Argón
Muestra 1 mm
Ar
c)
Muestra
Muestra
Muestra
Perfil en V
Salida muestra Salida argón Muestra
Aerosol Ar
d)
Ar Argón
Figura 6.9. Tipos de nebulizadores neumáticos: a) Nebulizadores concéntricos, b) Nebulizadores de flujo cruzado, c) Nebulizador tipo Babington en «V» y d) Nebulizador tipo Babington conespray (adaptada de Perkin Elmer Inc.).
– Nebulizadores concéntricos (Figura 6.9a). Este tipo de nebulizadores utiliza capilares muy estrechos que originan gran sensibilidad y estabilidad en el plasma, y esto se traduce en muy buena precisión en los resultados. Sin embargo, cuando se introducen muestras de contenidos salinos apreciables, se obstruyen fácilmente. Suelen estar construidos de vidrio o cuarzo, lo que limita su resistencia química. Estos inconvenientes limitan su uso.
Técnicas de análisis y caracterización de materiales
214
– Nebulizadores de flujo cruzado (Figura 6.9b). El gas de nebulización fluye perpendicularmente al capilar de la muestra cuyo diámetro puede ser mayor que en los nebulizadores concéntricos; esto disminuye su eficiencia de nebulización, pues la formación de gotas de pequeño tamaño es más difícil, pero es menos propenso a la obstrucción cuando se trabaja con soluciones de elevadas concentraciones salinas. Son los más extendidos comercialmente, pues se fabrican en materiales altamente resistentes a la corrosión. – Nebulizadores de flujo cruzado de alta presión. Proporcionan mejores precisiones al eliminar vibraciones del capilar de muestra y elevada tolerancia para muestras de altos contenidos salinos. – Nebulizadores de flujo cruzado tipo Babington. La muestra fluye sobre una esfera formando una película que recubre su superficie. El gas emerge a elevada velocidad a través de un orificio en la esfera rompiendo la capa de muestra formada y originando el aerosol. Este nebulizador presenta la máxima tolerancia a soluciones muy concentradas e incluso suspensiones. La muestra puede fluir a lo largo de una ranura que presenta un orificio por el que emerge el flujo de gas a elevada velocidad, es el nebulizador en «v» (Figura 6.9c). Una variación de este es el llamado nebulizador conespray (Figura 6.9d), que presenta elevadas precisiones tanto para soluciones con alto contenido en sólidos como en muestras muy diluidas. En general, el rendimiento de todos estos nebulizadores suele estar entre el 1% y el 5 %, variando con el tipo de nebulizador, flujos de muestra y de gas de nebulización. Nebulizador ultrasónico. La muestra líquida se rompe en pequeñas partículas mediante ultrasonidos. Cuando un material piezoeléctrico se excita con un campo eléctrico situado en el rango de frecuencias de los ultrasonidos, este comienza a vibrar. La muestra en disolución es aspirada haciéndola incidir sobre la superficie del transductor de forma que las vibraciones se trasmiten a la disolución (Figura 6.10). Salida refrigerante
Entrada refrigerante
Aerosol desolvatado al ICP
Refrigerante Drenaje
Ar
Tubo en «U» termostatizado
Cámara de aerosol
Aerosol Muestra
Transductor Drenaje
Figura 6.10. Nebulizador ultrasónico (adaptada de Cetac Technologies, Inc.).
Análisis químico: espectroscopía de absorción y emisión atómica…
215
Estos nebulizadores tienen un altísimo rendimiento y además producen un aerosol formado por gotas muy pequeñas y regulares. Para incrementar la eficiencia de nebulización se puede eliminar completamente el disolvente del aerosol colocando a su salida un sistema de desolvatación de forma que el aerosol que llega al plasma está más concentrado y exento del disolvente. Este nebulizador aporta más analito al plasma pues su eficacia de nebulización se aproxima al 100%, mejorando los límites de detección entre 5-50 veces. Esta ventaja puede generar problemas si las muestras presentan una matriz complicada o una elevada concentración de sólidos en disolución. 6.3.1.2.2.2. Cámaras de nebulización Los nebulizadores neumáticos producen aerosoles con distribuciones muy heterogéneas de tamaños de gota; las cámaras de nebulización favorecen la reducción de los tamaños de gota y seleccionan las de menor tamaño para introducirlas en el plasma arrastradas por un gas portador (argón), que a su vez envía al drenaje las de diámetro superior. – Cámaras de sedimentación. Son las más utilizadas (Figura 6.11a); el tubo concéntrico interno disminuye las fluctuaciones en la intensidad de señal que se ve afectada por cambios en la densidad del aerosol. En estas cámaras las gotas de mayor tamaño que forman parte del aerosol van cayendo hacia el fondo para eliminarse por el drenaje y las más pequeñas son arrastradas por el gas auxiliar (argón) hasta el plasma; también se denominan frecuentemente cámaras de doble paso de Scott. Están fabricadas con materiales resistentes a los agentes químicos más extremos. – Cámara ciclónica. Estas cámaras de centrifugación de forma cónica y que proporcionan una elevada eficiencia reciben el nombre del movimiento helicoidal que describe el aerosol constituido por las gotas más ligeras hasta llegar al plasma (Figura 6.11b). Suelen ser de vidrio o cuarzo, por lo que su uso está limitado cuando se analizan muestras químicamente agresivas. b)
a)
Muestra nebulizada
Muestra nebulizada
Plasma Plasma
Plasma
Drenaje
Drenaje
Muestra nebulizada
Figura 6.11. Tipos de cámaras de nebulización: a) Cámara de sedimentación o de Scott y b) Cámara ciclónica (adaptada de Perkin Elmer Corp.).
Técnicas de análisis y caracterización de materiales
216
Los nebulizadores y cámaras de nebulización operan a flujo menor que en espectroscopía de absorción atómica, de forma que la eficiencia del sistema de nebulización es del 5% en espectroscopía de emisión atómica por plasma y del 10%, como máximo, en absorción atómica. 6.3.1.2.2.3. Generación de hidruros Es otra técnica para introducción de muestras, aunque de utilización más restringida, consiste en la reacción de la muestra en medio ácido con borohidruro sódico para generar in situ el hidruro volátil de antimonio, arsénico, selenio, teluro, bismuto, plomo y estaño [también se puede generar cloruro de estaño (II) (SnCl2)] presentes en la disolución que se hace llegar al plasma o a la llama (Figura 6.12), puesto que este sistema de aportación de muestra es compatible con espectroscopía de absorción y emisión atómica. Esta técnica proporciona límites de detección 10-100 veces mejor para estos elementos, pues la eficacia del aporte de muestra es del 100% y está controlada por la reacción química que tiene lugar; además la técnica reduce al mínimo la absorción de fondo porque elimina el efecto matriz. El mercurio se determina mediante la técnica de vapor frío aprovechando la volatilidad característica del mercurio elemental, y requiere un pretratamiento para reducir el mercurio presente en la muestra y arrastrarlo posteriormente hasta la cámara de medida de elevado paso óptico para mejorar los límites de detección. NaBH4
850…1.000 ºC
Gas inerte Celda de cuarzo AsH
Hidruros gaseosos AsH
AsH As H
H As
Muestras en solución ácida Vaso de reacción
Figura 6.12. Generación de hidruros (adaptada de Analytik jena, cedida por Inycom).
6.3.1.2.2.4. Cámara de grafito Una pequeña cantidad de muestra se coloca sobre un conductor (carbono o tántalo). Una corriente eléctrica evapora la muestra rápida y completamente en un flujo de argón, produciendo una señal discreta. La introducción de muestras líquidas y suspensiones en horno de grafito da excepcionales resultados en espectroscopía de absorción atómica, rebajando los límites de detección a niveles de partes por billón (ppb) para muchos elementos, puesto que se produce la atomización completa de la muestra, opera con tiempos de residencia elevados y no se produce la dilución del vapor atómico con los gases de la llama.
Análisis químico: espectroscopía de absorción y emisión atómica…
217
6.3.1.3. Mecanismo de atomización y excitación La muestra, ya transformada en un fino aerosol, se somete a un aporte de energía capaz de provocar su desolvatación (evaporación del disolvente), fusión, vaporización, disociación (atomización) y, en el caso de emisión atómica, además, excitación. En espectroscopía de absorción atómica la llama realiza el aporte de energía necesario para atomizar los elementos presentes en el aerosol. Este aerosol, además de un nebulizador neumático, puede provenir de un sistema de generación de hidruros, o de una cámara de grafito, que se calienta hasta una temperatura elevada aportando la energía suficiente de manera controlada (Tabla 6.2). En estos casos el vapor atómico generado está constituido por átomos libres que se hallan en estado fundamental y son susceptibles de absorber radiaciones de longitudes de onda características correspondientes a las transiciones de su estado fundamental a niveles superiores. Tabla 6.2. sisTeMas de aTOMización eMPleadOs en esPecTrOscOPía aTóMica cOn sUs cOrresPOndienTes inTervalOs de TeMPeraTUra TíPica de aTOMización sistema de atomización
intervalo de temperaturas (°c)
Llama
1.700-3.150
vaporización electrotérmica (ETv)
1.200-3.000
Plasma de argón con acoplamiento inductivo (ICP)
4.000-6.000
Plasma de argón corriente continua (DCP)
4.000-6.000
Plasma de argón inducido por microondas (MIP)
2.000-3.000
Plasma por Glow Discharge (GD)
No térmico
Arco eléctrico
4.000-5.000
Chispa eléctrica
40.000 aprox.
En espectroscopía de emisión atómica el plasma realiza un gran aporte de energía, capaz de excitar la mayoría de elementos existentes en la muestra (Tabla 6.3). El vapor atómico generado, al estar a temperatura más elevada, está integrado por una mayor proporción de átomos en estado excitado con un tiempo de vida breve que originan una emisión de radiación que acompaña su retorno al estado fundamental. Tabla 6.3. efecTO de las diferenTes enerGías de lOs esTadOs y de la TeMPeraTUra sObre la POblación de lOs esTadOs eXciTadOs (basadO en la ecUación [6.4], cOnsiderandO P* = P0 = 1) fracción en estado excitado (n*/n0)
longitud de onda (nm)
energía (j/atom)
2.500 K
6.000 K
250
7,95 · 10–19
1,0 · 10–10
6,8 · 10–5
500
3,97 · 10–19
1,0 · 10–5
8,3 · 10–3
750
2,65 · 10–19
4,6 · 10–4
4,1 · 10–2
Técnicas de análisis y caracterización de materiales
218
6.3.1.3.1. Llama El mechero de flujo laminar es donde se forma la llama y su diseño (Figura 6.13) proporciona una llama estable, homogénea, simétrica y vertical, características de gran importancia para obtener medidas reproducibles, puesto que cualquier turbulencia en la llama dificulta la medida.
Ranura
Camino óptico
Cubierta (titanio) Hendiduras
Figura 6.13. Mechero de flujo laminar [adaptada de (4)].
Los mecheros empleados para llamas de aire/acetileno y óxido nitroso/acetileno difieren en su paso óptico, menor en la llama más energética de óxido nitroso/acetileno para disminuir el efecto matriz de las muestras y el ruido de fondo de la llama. Existen otros mecheros para casos particulares: – Mechero Fuwa-vallee de tubo largo: este diseño incrementa el paso óptico al proyectar la llama con la muestra en el interior de un tubo cerámico que se encuentra en el eje óptico del espectrofotómetro. Las ventajas que presenta son muy limitadas y se restringen a algún elemento. – Mechero Boling de tres ranuras: incluye más partes de la llama en el paso de radiación, reduce el ruido de fondo, la relación combustible/aire es menos crítica y mejora la sensibilidad para elementos que forman óxidos refractarios. – Mechero de alimentación forzada: es una modificación del mechero estándar. La muestra es alimentada mecánicamente a la base de la llama, de forma que la viscosidad de la muestra no controla la velocidad de aspiración, permite introducir diferentes disolventes a flujos constantes. Una llama resulta de la reacción exotérmica de un gas combustible y un gas comburente (oxidante). Se pueden obtener llamas de temperaturas y características muy variadas combinando la naturaleza y proporciones de ambos gases adecuadamente, de manera que las posibilidades de sus aplicaciones analíticas se multiplican (Tabla 6.4). La elección del tipo de llama dependerá de las propiedades espectroquímicas del elemento, de su forma química en disolución, de la especie química que se puede originar en el seno de la llama, etc. Las llamas más frecuentemente utilizadas son las de acetileno/aire y, para aquellos elementos refractarios que requieren un mayor aporte energético (aluminio, silicio, titanio, vanadio, zirconio...), las de acetileno/óxido nitroso. También se usan a veces llamas menos energéticas para evitar los problemas de ionización de elementos alcalinos y alcalino-térreos.
Análisis químico: espectroscopía de absorción y emisión atómica…
219
Tabla 6.4. TeMPeraTUras (K) de diferenTes llaMas comburente (oxidante)
combustible
aire
óxido nitroso
Oxígeno
Acetileno
2.300 K
2.900 K
3.000 K
H2
2.000 K
2.700 K
2.600 K
Propano
1.900 K
–
2.800 K
Butano
1.900 K
–
–
Gas natural
1.800 K
–
2.700 K
La reacción química que genera la llama viene dada por la relación estequiométrica de los gases correspondientes. Esta proporción de gases en la llama suele modificarse ligeramente, dependiendo del elemento a determinar, para originar llamas más oxidantes o más reductoras, lo que permite optimizar las condiciones de análisis de forma particular e in situ, pues se ajustan todos los parámetros hasta conseguir la máxima relación señal/ruido. Además, de esta forma se pueden prevenir posibles interferencias, sobre todo de origen químico. En Espectroscopía de Absorción Atómica los dos gases se mezclan previamente a fondo en la cámara de premezcla para después generar la llama, en la que se pueden distinguir cuatro zonas cuya amplitud y aspecto se ven modificados por la naturaleza y proporción entre combustible y oxidante (Figura 6.14): 1.700 5,0
1.750
1.600 Zona secundaria de reacción
Altura de observación (cm)
4,0
1.400
1.830 1.860
3,0
Zona interconal
1.870 Zona primaria de reacción
2,0 Zona precalentamiento 1.830 1.800 1.700 Gas premezcla
1,0
0
0
1,0
0,5
cm
0
0,5
1,0
1,5
cm
Ranura del mechero
Figura 6.14. Zonas de una llama e isotermas de una llama gas natural/aire [adaptada de (1)].
Técnicas de análisis y caracterización de materiales
220
– Zona de precalentamiento, es el cono inferior. – Zona primaria de reacción, donde se inicia la reacción entre combustible y oxidante. Se encuentra una gran cantidad de productos de oxidación intermedios y de radicales libres (OH, H, C–C, C–H...) procedentes de la combustión incompleta de los gases que originan una fuerte emisión de luz. Su espesor es tan pequeño que no es posible que se alcance en ella el equilibrio térmico local. El extremo superior de esta zona es la parte más caliente de la llama donde se evapora el disolvente del aerosol. – Zona interconal, donde se establece el equilibrio térmico por la rápida recombinación de los radicales libres mediante reacciones exotérmicas que hacen de esta región la más caliente de la llama. Es la parte más útil para las determinaciones al ser rica en átomos libres, pues en ella tienen lugar los procesos de fusión, vaporización y atomización. – Zona secundaria de reacción, que es donde se completa la reacción de combustión. Está constituida fundamentalmente por los productos de la combustión: H2O, CO2, CO, H2, H, O, OH (si el comburente es el aire) y N2, N, NO (si el comburente es el óxido nitroso) y otros óxidos moleculares estables. Es poco útil desde el punto de vista analítico. La optimización de la altura de observación de la llama, como se deduce de lo expuesto anteriormente, es de gran importancia. 6.3.1.3.2. Cámara de grafito La cámara de grafito constituye el sistema de atomización electrotérmico y consiste en un pequeño tubo hueco de grafito de 20-30 mm de longitud y 5-10 mm de diámetro, con un orificio por el que se introduce la muestra en solución o suspensión (1-100 μl) mediante una micropipeta o un inyector automático. La radiación procedente de la lámpara lo atraviesa a lo largo de su eje longitudinal (Figura 6.15). Muestra Monocromador Detector
Lámpara 2-3 cm
Figura 6.15. Esquema dispositivo experimental con tubo de grafito.
Se hace pasar una corriente eléctrica elevada (varios cientos de amperios) a bajo voltaje (10 voltios); como el grafito es mal conductor, al aplicar corriente se calienta el tubo hasta alcanzar una temperatura suficiente para atomizar la muestra. Se mantiene un flujo de gas inerte por el exterior del tubo de grafito, que evita su oxidación a alta temperatura, y por el interior del tubo, para eliminar los componentes de la muestra volatilizados y que pueden interferir la medida. Las ventajas que presenta son la atomización completa de la muestra, tiempos de residencia altos y se evita la dilución del vapor atómico con los gases que forman la llama; todo ello consigue
Análisis químico: espectroscopía de absorción y emisión atómica…
221
mejorar la señal hasta mil veces. El principal inconveniente es el tiempo de análisis por muestra, que puede llegar a varios minutos. Todo el sistema de atomización se mantiene refrigerado para conseguir un enfriamiento rápido entre cada análisis. La gran variedad de campos de aplicación de este sistema de vaporización ha obligado a desarrollar diferentes tipos de tubos adecuándolos a la naturaleza de las distintas muestras: – Tubo Massmann de grafito: es el tubo estándar, se pueden introducir entre 5-100 ml de muestra, se generan gradientes de temperatura entre el centro donde se inyecta la muestra y los extremos más fríos que puede derivar en efectos de memoria. – Tubo de grafito con plataforma o mini-Massmann, debido a su reducido diámetro que permite inyectar volúmenes menores, entre 0,5-2 ml de muestra, aunque existen modificaciones para volúmenes mayores con tubos de diámetros más grandes que originan señales más intensas. – Barra de grafito: en vez de tratarse de un tubo hueco, se utiliza una varilla maciza en la que se practican rebajes que alojan a la muestra; los perfiles que presentan varían según el volumen y las características de la muestra que se va a analizar. – Es frecuente el recubrimiento interno de los tubos de grafito con una capa de grafito pirolítico, pues la porosidad del grafito puede originar problemas durante la atomización. El inconveniente es el encarecimiento que esto supone y la degradación del recubrimiento con el uso. Añadiendo de manera continua una mezcla de hidrocarburos al gas de purga se puede mantener el recubrimiento, pero este procedimiento es incompatible con la determinación de algunos elementos. – Atomizador de cinta de tántalo: una pequeña lámina de tántalo se coloca en una cámara total o parcialmente cerrada; permite volúmenes de 1-25 ml de muestra y debe utilizarse argón como gas inerte porque el nitrógeno reacciona con el tántalo a temperaturas elevadas. También se pueden usar tungsteno o molibdeno, pero no presentan ventajas para la mayoría de elementos. Los problemas que tiene es la fragilidad de la lámina de tántalo con el uso prolongado, pérdida de reproducibilidad y ataque de la superficie metálica con algunos ácidos usados en la disgregación de muestras, lo que manifiestamente le hace menos versátil que los usuales tubos de grafito. La ventaja fundamental de la cámara de grafito es que permite controlar las etapas del proceso de atomización de una muestra (evaporación del disolvente, fusión, vaporización y disociación de las moléculas, etc.) al dosificar la energía mediante un programa de temperaturas y tiempos, optimizado para cada muestra según su naturaleza y composición. El principal objetivo de la programación térmica de la cámara de grafito es conseguir límites de detección muy bajos al eliminar, previamente a la atomización del analito, la mayor cantidad posible de componentes de la matriz que puedan interferir en la medida al absorber radiación. La temperatura del horno y el tiempo de calentamiento de cada una de estas etapas dependen de la volatilidad tanto del analito como
Técnicas de análisis y caracterización de materiales
222
de la matriz, y su optimización empírica es fundamental en el desarrollo del método analítico. El proceso de atomización se lleva a cabo en cuatro etapas (Figura 6.16): 1. 2. 3. 4.
Secado Mineralización Atomización Limpieza limpieza
2.500
atomización
T (ºC)
2.000 1.500 1.000 500
mineralización
secado
500 0
10
20
30
40
50
t (s)
Figura 6.16. Ejemplo de programa de energía para cámara de grafito.
1. etapa de secado Se mantiene una temperatura de 100-150 ºC durante 45-60 segundos con el fin de provocar la evaporación del disolvente. El calentamiento progresivo evita proyecciones de la muestra dentro del tubo. 2. etapa de mineralización Esta etapa pretende eliminar la mayor cantidad posible de interferentes de matriz, pero sin pérdidas de analito. La muestra ya seca se calienta gradualmente a temperaturas de 400-1.000 ºC durante 30-45 segundos para eliminar toda la materia orgánica y descomponer la matriz inorgánica hasta transformarla en un compuesto simple. La temperatura de esta etapa no debe superar la de volatilización del compuesto. 3. etapa de atomización Se alcanzan temperaturas elevadas (2.000-3.000 ºC) en un corto espacio de tiempo (5-8 segundos) para atomizar la muestra. Este calentamiento debe ser lo más rápido posible para asegurar la formación eficiente y concentrada del vapor atómico susceptible de absorber o emitir radiación característica originando señales que requieren un sistema electrónico de respuesta rápida, ya que debe ser capaz de seguir el proceso transitorio de atomización. 4. etapa de limpieza La cámara de grafito se somete a temperaturas superiores a la etapa de atomización con el fin de arrastrar los residuos formados y así evitar efectos de memoria.
Análisis químico: espectroscopía de absorción y emisión atómica…
223
La espectroscopía de absorción atómica con cámara de grafito se caracteriza por una elevada sensibilidad, con límites de detección mucho más bajos (entre 100 y 1000 veces) que la atomización con llama, que permite la determinación de numerosos elementos a nivel de trazas y ultratrazas, y el análisis de micromuestras. La optimización de los programas de atomización y reproducibilidad de las medidas son las principales dificultades que se plantean al operar con esta técnica. 6.3.1.3.3. Generador de vapor El generador de hidruros es una accesorio de introducción de muestra gaseosa que solo sirve para elementos que forman hidruros volátiles, los más frecuentes arsénico, antimonio y selenio, en menor medida bismuto, plomo y estaño. Los hidruros se forman por adición a la muestra en medio ácido de una solución acuosa de borohidruro sódico al 1%. El compuesto volátil formado in situ se arrastra al atomizador mediante un gas inerte que lo inyecta en la llama. Al tratarse de una reacción selectiva se elimina el efecto matriz, con lo que resulta una absorción de fondo mínima o inexistente. El ciclo de generación y medida dura aproximadamente 1 minuto y la eficiencia de aporte de muestra viene controlada por la extensión de la reacción química, próxima al 100%, lo que consigue límites de detección inferiores a partes por billón (ppb). El método de atomización con vapor frío es aplicable solo a la determinación de mercurio porque es el único metal que tiene una adecuada presión de vapor a temperatura ambiente. Se convierte todo el mercurio de la muestra en mercurio (II) y posteriormente se reduce a mercurio (0) por adición de cloruro de estaño (II) (SnCl2). El principal inconveniente que presenta este método es la forma reactiva del elemento, que puede requerir pretratamientos de la muestra que interfieran posteriormente. 6.3.1.3.4. Plasma El plasma es un estado de la materia compuesto por una mezcla de partículas neutras (átomos y moléculas) y una fracción significativa de partículas cargadas (iones y electrones), siendo estas últimas las responsables de las propiedades peculiares del plasma. Un plasma es, por tanto, un gas altamente ionizado (capaz de conducir electricidad y susceptible a campos magnéticos) aunque globalmente neutro, que emite radiación. La ionización del gas que forma el plasma es un proceso endotérmico que requiere un aporte de energía continuo que mantenga la reacción estacionaria y que el plasma no se extinga (Figura 6.17). En espectrometría de emisión atómica lo más habitual es acoplar energía de radiofrecuencia (RF) mediante una bobina de inducción, generando un potente plasma de acoplamiento inductivo que emite energía radiante y térmica y es capaz de generar iones simples a partir de los elementos que constituyen la muestra. Mediante una chispa eléctrica se genera un electrón que inicia la reacción en cadena, esta evoluciona hasta alcanzar el equilibrio, es el tiempo de estabilización del plasma. +E Ar ←—— ——→ Ar+ + 1 e– –E
[6.7]
Técnicas de análisis y caracterización de materiales
224
El gas empleado generalmente para formar el plasma es argón por ser un gas monoatómico que proporciona un espectro de emisión muy simple, dada su escasa reactividad y su elevada energía de ionización (15.76 ev). Ranura para visualización Bobina inducción
Flujo plasma Tubo inyector Flujo auxiliar
Flujo auxiliar
Figura 6.17. Antorcha para espectroscopía de emisión atómica, ICP-OES [adaptada de (1)].
El plasma se genera en un tubo de cuarzo denominado antorcha por el que circula argón, está rodeado en su parte superior por una bobina metálica de inducción alimentada por un generador de RF (Figura 6.18). La corriente de RF que pasa a lo largo de dicha bobina genera un campo magnético alterno que se acopla (cede su energía) al gas argón debido a las cargas eléctricas originadas por la ionización que provoca una chispa que inicia el proceso. Los electrones e iones Ar+, generados por el fuerte calentamiento que experimenta el gas y por la colisión de los electrones libres con los átomos de gas, son inducidos por el campo magnético a moverse dentro del tubo de cuarzo y mantienen la reacción de ionización del gas (y por tanto el plasma): Ar + calor ⇔ Ar+ + 1 e– Ar + 1 e– ⇔ Ar+ + 2 e–
[6.8] [6.9]
La antorcha se compone de un tubo exterior de cuarzo que estabiliza el plasma y lo aísla eléctricamente de la bobina de inducción, un tubo intermedio, también de cuarzo, que guía y acelera el gas formador del plasma que llega entre ambos tubos (con lo que su consumo es menor), e introduce el gas auxiliar; y un tubo inyector, de cuarzo o cerámico, que da acceso al aerosol de la muestra. Dentro de la antorcha circulan, por tanto, tres gases: – El gas externo o plasmógeno, que circula tangencialmente entre el tubo exterior y el intermedio con un flujo de 7-15 l · min–1, cuya misión es formar el plasma, enfriar las paredes del tubo exterior y estabilizar el plasma en el centro de la antorcha.
Análisis químico: espectroscopía de absorción y emisión atómica…
225
– El gas intermedio o auxiliar, que circula tangencialmente entre el tubo intermedio y el interior con un flujo de 0-2 l · min–1, mejora los resultados del análisis, evita la formación de carbón y conduce la muestra a lo largo de la antorcha. – El gas interno o de nebulización es el portador del aerosol y circula axialmente dentro del tubo interior con un flujo de 0,5-2 l · min–1, con el que se introduce la muestra. Temperatura 10% (K) 6.000 Pluma Región analítica Zona de radiación primaria Zona de inducción
6.200 6.500 6.800 8.000 10.000
Zona de precalentamiento
Figura 6.18. Perfil de temperaturas y zonas del plasma [adaptada de Perkin Elmer Inc.].
Otros parámetros importantes a controlar son: – La potencia del generador de RF transferida al gas argón mediante una bobina toroidal puede variar entre 700 y 1.500 W. – El flujo de muestra oscila entre 1-2 ml · min–1. – Las coordenadas de observación de la antorcha se optimizan para obtener la mejor señal, generalmente entre 10-20 mm por encima de la espira superior de la bobina. – Tiempos y flujos de lavado entre muestras para evitar efectos de «memoria». La radiación intrínseca que emite un plasma ICP-OES da origen a tres tipos de espectros que acompañarán siempre a los espectros de emisión de las líneas atómicas e iónicas del analito: – Espectro de líneas, formado por las líneas de emisión de los componentes del plasma: argón (fundamentalmente), hidrógeno, carbono, nitrógeno, oxígeno. – Espectro de bandas, originado por transiciones electrónicas en moléculas existentes en el plasma (aire que difunde del entorno hacia el plasma, agua de la muestra) excitadas por la energía del mismo: OH, NO, N2, NH, CN.
Técnicas de análisis y caracterización de materiales
226
– Espectro continuo, debido a la recombinación de los electrones y los iones del gas: Ar + 1 e– ⇒ Ar + (hν)continuo
[6.10]
6.3.1.4. Sistema de selección de radiaciones La radiación de una longitud de onda característica que suministra una lámpara es parcialmente absorbida por el vapor atómico en la llama, y debe ser apartada de todas las demás radiaciones (procedentes de la propia lámpara, de emisiones de la llama, etc.) para poder ser cuantificada la señal en espectroscopía de absorción atómica. En espectroscopía de emisión atómica por plasma es aún más importante separar con suficiente resolución las longitudes de onda con interés analítico, puesto que la radiación emitida por los átomos e iones excitados es abundante y muy variada en intensidades, perfiles y longitudes de onda. Este aislamiento y selección de longitudes de onda se lleva a cabo con un monocromador, que permite separar, por dispersión geométrica, las distintas longitudes de onda de una radiación policromática. Los componentes habituales son: – Rendija de entrada de la radiación policromática. – Sistema óptico que elimina la radiación no paralela y canaliza la radiación de interés. – Elemento dispersor de la radiación que separa la radiación incidente según sus longitudes de onda. – Sistema óptico de enfoque. – Rendija de salida de la radiación monocromática. El componente más importante es el elemento dispersor de la radiación, que puede ser un prisma o una red de difracción. 6.3.1.4.1. Prisma El prisma descompone, mediante dispersión geométrica, la radiación incidente y la longitud de onda deseada se puede dirigir a la rendija de salida girando el prisma (Figura 6.19). Su capacidad de dispersión es pequeña, por lo que, actualmente, solo se utilizan en combinación con otro tipo de elemento dispersor. Rendija de entrada 1 2 3 4
Lente de enfoque Lente colimadora f
Σn
Rendija de entrada
f
Figura 6.19. Forma de operación de un prisma [adaptada de (1)].
Análisis químico: espectroscopía de absorción y emisión atómica…
227
6.3.1.4.2. Red de difracción Una red de difracción está constituida por una superficie dura, reflectante y ópticamente plana, cuya superficie se graba con un gran número de líneas idénticas, igualmente espaciadas y perfectamente paralelas entre sí. Las redes holográficas, en las que se utiliza tecnología láser para el grabado, ofrecen la máxima densidad de líneas. Al incidir un haz de radiación sobre los surcos, cada longitud de onda se difracta con un ángulo diferente dando lugar a la descomposición de la radiación policromática en sus constituyentes (Figura 6.20). 1
Ra
dia
Ra
ció
ni
1
2
dia
nc
ide
nte
ció
ni
nc
2
ide
nte
Figura 6.20. Forma de actuación de una red de difracción.
Los monocromadores pueden ser de varios tipos: Monocromadores de red plana Se seleccionan las distintas longitudes de onda haciendo un barrido de ángulos de difracción. Disponen de una única rendija de salida de la radiación monocromática, por la cual las distintas longitudes de onda salen secuencialmente, mediante el giro de la red. Los dos montajes más frecuentes son el de Czerny-Turner (Figura 6.21a) y el de Ebert (Figura 6.21b). Se emplean en espectroscopía de absorción atómica y en espectroscopía de emisión; debido a la enorme cantidad de líneas obtenidas, es necesario el empleo de redes de alto poder de resolución (redes de hasta 3.600 líneas · mm–1 trabajando en primer orden) para evitar en lo posible las interferencias espectrales. Rendija de entrada
Rendija de entrada Espejos de colimación
Espejos de colimación Red de difracción
Red de difracción
Rendija de salida Distancia focal
Rendija de salida a)
b)
Distancia focal
Figura 6.21. a) Monocromador Czerny-Turner, b) Monocromador Ebert.
Técnicas de análisis y caracterización de materiales
228
Permiten una gran flexibilidad espectral que facilita la determinación adecuada de la señal de fondo mediante lecturas a ambos lados del máximo de absorción o emisión. Presentan una elevada capacidad para evitar interferencias seleccionando otra longitud de onda de manera sencilla. La principal limitación se presenta cuando se requieren determinaciones de grandes cantidades de muestras, pues el número de determinaciones por sesión es pequeño. Monocromadores de red cóncava En realidad se trata de un policromador, pues la red es fija pero existen varias rendijas de salida, cada una de las cuales recoge un ángulo de difracción y, por tanto, una determinada longitud de onda. Todos estos componentes están situados en el denominado círculo de Rowland (Figura 6.22), cuyo diámetro es igual al radio de curvatura de la red cóncava, caso en el que las distintas longitudes de onda difractadas están focalizadas a lo largo de dicho círculo. Situando un detector en cada rendija de salida, se pueden medir simultáneamente las diversas longitudes de onda preseleccionadas. El sistema más empleado de esta geometría se aplica en espectroscopía de emisión atómica y se denomina montaje de Paschen-Runge (Figura 6.22). Fototubos
Fuente
Lentes de condensación Rendijas de salida
Rendija de entrada
Círculo Rowland
Red de difracción cóncava
Figura 6.22. Policromador. Montaje Paschen-Runge dispuesto en un círculo de Rowland.
Monocromadores de red plana con dispersión cruzada Se combinan dos sistemas de dispersión, que pueden ser red-red o red-prisma, dispuestos perpendicularmente un elemento frente al otro. La red plana que se usa en estos monocromadores es una red de escalera, de baja resolución, con pocas líneas por mm y relativamente anchas. La dispersión conseguida es muy buena, pero presenta numerosos órdenes superpuestos. La separación de estos órdenes se realiza mediante una segunda dispersión con un prisma situado perpendicularmente (Figura 6.23), de manera que se obtiene un espectro en dos dimensiones, donde los órdenes varían en una de las direcciones del plano y las longitudes de onda lo hacen en la otra dirección.
Análisis químico: espectroscopía de absorción y emisión atómica…
229
Este tipo de policromadores presenta elevada eficiencia óptica y, al trabajar con los primeros órdenes, su resolución es muy buena. Dispersión primaria: alta resolución pero solapamiento de varios órdenes espesctrales
Prisma Haz incidente
dispersadas con diferentes órdenes Dispersión secundaria por prisma: separación de los diferentes órdenes
Red echelle
Figura 6.23. Doble dispersión con monocromador de escalera (echelle) y prisma.
Sistemas de corrección de fondo espectral Las espectroscopías de absorción atómica por llama y emisión atómica por plasma llevan asociado un fondo espectral debido a la absorción por moléculas o radicales originados en la llama por la matriz de la muestra, a la propia llama o plasma, así como la dispersión de radiación por partículas sólidas o gotas de líquido, etc. La presencia de un fondo espectral elevado incrementa los límites de detección y se hace necesario establecer algún sistema para la corrección de este fenómeno. Dependiendo de la técnica empleada (absorción o emisión) se puede abordar de diferentes formas: – Método de barrido: se registra el espectro a ambos lados del pico de absorción/ emisión y se traza una nueva línea base para cada pico restándole el fondo. – Fuente de radiación continua: se utiliza una lámpara de deuterio en la zona del ultravioleta donde la radiación de fondo suele ser mayor, y, si fuera necesario, de wolframio en el visible que emiten radiación de manera continua (Figura 6.24). Se hacen pasar alternativamente por la muestra tanto la radiación de esta lámpara como la de la lámpara de cátodo hueco; esta es absorbida por el analito (banda muy estrecha) y por el fondo (banda ancha). Sin embargo, la señal de absorbancia medida procedente de la lámpara de deuterio será debida, casi exclusivamente, a la absorción del fondo, ya que la cantidad de radiación absorbida por el analito sobre una banda ancha será prácticamente despreciable. La diferencia de señales entre ambas lámparas elimina o reduce
Técnicas de análisis y caracterización de materiales
230
considerablemente el efecto del fondo al reproducir el mismo camino que recorre la señal de análisis, pero no corrige problemas de dispersión o interferencias espectrales. Lámpara de deuterio
Lámpara de cátodo hueco del analito
Cortador rotatorio
Al monocromador Atomizador electrotérmico
Figura 6.24. Esquema de un espectrofotómetro de absorción atómica con lámpara de deuterio.
– Óptica doble haz. En estos equipos el haz de referencia no pasa por la llama y por lo tanto no existe una corrección debida a la absorción o dispersión de la radiación por la propia llama (Figura 6.25b). Los equipos de espectroscopía de absorción atómica con óptica de doble haz compensan los errores introducidos durante el recorrido de la radiación por el sistema. Además, al dividir el haz incidente resulta una disminución en la intensidad de la señal y obligan a trabajar con dispositivos ópticos de alta calidad. El equipamiento comercial más sencillo y económico es un espectrómetro de absorción atómica con llama y de haz sencillo (Figura 6.25a), sin corrector de fondo; necesitan hacer la lectura de un blanco para evaluar la contribución del fondo espectral, pero diferida en el tiempo respecto al análisis de la muestra. – Método Smith-Hieftje: se basa en el fenómeno de autoabsorción cuando la fuente de radiación opera con alta corriente. Se aplican alternativamente corrientes normales y elevadas a la fuente. La autoabsorción elimina la señal del analito cuando se aplica una corriente alta; la diferencia genera una respuesta corregida limpia de fondo espectral. La dificultad radica en disponer de lámparas de cátodo hueco que puedan operar con esta técnica y proporcionen buena sensibilidad. – Método de efecto Zeeman: se basa en el desdoblamiento en tres señales que sufren las líneas de absorción bajo la influencia de un campo magnético, la señal central aparece a la misma longitud de onda y las otras dos adyacentes a menor y mayor longitud de onda. Cuando el polarizador está en paralelo al haz
Análisis químico: espectroscopía de absorción y emisión atómica… a)
231
Dispositivo de lectura Tubo fotomultiplicador Amplificador Red
Monocromador de Ebert
Fuente de E modulada Lámpara
Llama Monocromador de Czerney-Turner
b)
Red Lámpara
Llama
Tubo fotomultiplicador Amplificador
Divisor de haz
Espejo semiplateado
Dispositivo de lectura
Figura 6.25. Esquema de un espectrofotómetro de absorción atómica (AAS): a) Óptica de haz sencillo, b) Óptica de doble haz.
la radiación es absorbida por el elemento, mientras que las dos líneas satélites no se absorben. Cuando el polarizador está en perpendicular no hay absorción por la muestra; sin embargo, la luz dispersada y absorción molecular tiene lugar en ambas configuraciones. Restando ambas señales se obtiene la señal corregida incluso minimiza las interferencias espectrales. Este método considera que la absorción del fondo se debe, fundamentalmente, a dispersiones y absorción molecular, la cual no es afectada por la presencia de un campo magnético, contrariamente a lo que sucede con la absorción atómica. El efecto Zeeman se puede aplicar sobre el haz incidente o la señal producida por la muestra, Zeeman inverso. Este sistema de corrección de fondo es el más costoso. Los equipos de Absorción Atómica con Cámara de Grafito ofrecen una elevada sensibilidad y reducen los límites de detección hasta los niveles de ppb para muchos elementos; esto exige una corrección de fondo de gran precisión y es frecuente comercializarlo con este sistema (Figura 6.26), con lo que resulta un producto sofisticado, pero de elevado precio. – Sistema de doble haz y doble canal: se caracteriza por la capacidad del análisis simultáneo de dos elementos o elemento y patrón interno; para ello requiere duplicar algunos elementos del espectrofotómetro. Sin embargo, la precisión analítica que presenta este sistema no consigue superar la de equipos de doble haz de calidad.
Técnicas de análisis y caracterización de materiales
232 Lámpara de cátodo hueco A
Perfil de emisión
Polarizador rotativo
Horno Monocromador de grafito Fotomultiplicador
B P
Electrónica
Imán
P
Absorción atómica
D E Perfil de absorción Zeeman
Solo señal de fondo
Señal de fondo más absorción atómica
Figura 6.26. Esquema de un espectrofotómetro de absorción atómica con corrección Zeeman (adaptada de Hitachi Scientific Instruments).
6.3.1.6. Sistema de detección Una vez aislada la radiación de longitud o longitudes de onda características, se conduce a través de un sistema óptico hasta el detector, para medir la intensidad de la línea de emisión o de absorción, el cual convierte la señal luminosa en una señal eléctrica que puede ser amplificada y medida cuantitativamente. En función del sistema de monocromación empleado se utilizan dos tipos de detectores: los tubos fotomultiplicadores y los detectores de estado sólido de transferencia de carga. 6.3.1.6.1. Tubos fotomultiplicadores Un tubo fotomultiplicador es una fotocélula que transforma la luz incidente en una corriente eléctrica; está compuesto por un tubo al vacío que contiene: – Un fotocátodo o cátodo de material fotosensible. – Una serie de dínodos (cátodos capaces de emitir varios electrones por cada electrón incidente), situados a potencial creciente respecto al fotocátodo. – Un ánodo que recoge y mide la corriente eléctrica generada. La radiación incide en el fotocátodo arrancando electrones (Figura 6.27) que son atraídos por el primer dínodo y caen sobre él con una energía cinética proporcional al gradiente de potencial entre ambos. El impacto de los electrones acelerados libera un cierto número de electrones secundarios que son de nuevo acelerados hacia el segundo dínodo, donde al chocar originarán un número todavía mayor de electrones que irán acelerándose hacia el tercer dínodo, y así sucesivamente. Este proceso repetido a lo largo de todos los dínodos permite que la corriente recogida en el ánodo se haya multiplicado por 106-108 respecto a la fotocorriente inicial.
Análisis químico: espectroscopía de absorción y emisión atómica… Dínodos
233
hν
eLectura Ánodo
e- secundarios
Fotocátodo
Figura 6.27. Tubo fotomultiplicador (adaptada de Perkin Elmer Inc.).
Este tipo de detectores son los que se emplean habitualmente en espectrofotómetros de absorción atómica, así como en los equipos de espectrofotometría de emisión atómica por plasma secuenciales con monocromadores de red plana y simultáneos con policromadores de red cóncava, en los que es necesario un tubo por cada línea de emisión. 6.3.1.6.2. Detectores de estado sólido de transferencia de carga Estos detectores CTD (Charge Transfer Detector) son dispositivos multicanal que acumulan la información de la señal cuando la radiación incide sobre ellos como si se tratara de una película fotográfica. Se pueden fabricar con diversidad de formatos y presentan una sensibilidad y rango dinámico que excede cualquier otro tipo de detector de radiación capacitándolos para su introducción en espectroscopía analítica. Los CTD deben mantenerse refrigerados para reducir la señal de fondo. Son detectores bidimensionales formados por un bloque de silicio cristalino de elevada pureza cuya superficie está recubierta de óxido de silicio (Figura 6.28), al incidir la radiación provoca la ruptura de un enlace silicio-silicio que libera un electrón, creándose un par hueco-electrón que presentará diferente movilidad en función de la corriente generada al aplicar un potencial a lo largo del bloque de silicio. Los electrones se moverán hacia la capa de óxido de silicio o en sentido contrario a la dirección de la corriente; los huecos, en sentido opuesto. Cuanto mayor sea la cantidad de radiación incidente, más electrones serán capturados en la capa de óxido de silicio, posteriormente esta carga es transferida y leída. La lectura de la carga se hace por transferencia de la misma entre los dos electrodos de cada píxel, midiendo el cambio de potencial inducido. Los espectrofotómetros de emisión atómica dotados de monocromador de red plana con dispersión cruzada emplean este tipo de detectores. Cada píxel recibe la radiación de una pequeña zona del espectro correspondiente a una línea de emisión y su «entorno», con lo cual se pueden medir simultáneamente todas las longitudes de onda y sus respectivos fondos espectrales situados a la izquierda y a la derecha.
Técnicas de análisis y caracterización de materiales
234
Electrodos
Aislante (SiO2) Campo eléctrico
Si dopado
Electrodo
Figura 6.28. Detector de transferencia de carga.
Este tipo de detectores presentan ventajas como la posibilidad de corrección simultánea de fondo, tiempo de lectura independiente del número de elementos, medida a varias longitudes de onda para cada elemento o para elementos diferentes. Esto permite la optimización de la señal en función de la concentración, haciendo posible la medida simultánea de componentes mayoritarios y minoritarios en una misma muestra. Los detectores de transferencia de carga pueden ser de dos tipos según el sistema electrónico que usen para medir y almacenar la cantidad de carga generada: Detector CID (Charge Injection Device) La carga generada por el fotón incidente es transferida durante la lectura de cada píxel, siendo una medida no destructiva. La principal ventaja de este dispositivo es su capacidad para tomar sucesivas medidas simultáneamente con la integración de las anteriores. Recoge todas las señales correspondientes a todos los elementos presentes en la muestra, resultando una información de la muestra muy valiosa. La señal de fondo es elevada y requiere estar refrigerado a temperatura de nitrógeno líquido para minimizarlo. Además, el sistema informático requiere una elevada capacidad de almacenamiento por el volumen de información que contiene cada análisis. Detector CCD (Charge Coupled Device) La carga generada por el fotón incidente se almacena y posteriormente se procede a la lectura fila por fila a gran velocidad. A diferencia del CID, en este caso la lectura neutraliza la carga acumulada. Este dispositivo presenta como ventajas una mayor sensibilidad a niveles bajos de radiación. La refrigeración suministrada por unidades Peltier es suficiente para estos detectores.
Análisis químico: espectroscopía de absorción y emisión atómica…
235
6.3.2. Tipos de equipos Las técnicas de espectrometría de absorción atómica (AAS) y espectrometría de emisión atómica por plasma de acoplamiento inductivo con detección óptica (ICPOES) presentan distintas alternativas en cuanto a instrumentación. Tanto en espectroscopía de absorción atómica como en espectroscopía de emisión atómica de plasma se emplean diferentes fuentes de atomización: llama, cámara de grafito, generación de hidruros, que originan equipos bien diferenciados tanto en configuración como en aplicaciones; se pueden variar también los sistemas de monocromación y detección dando lugar a equipos secuenciales o simultáneos. Todas las configuraciones permiten la determinación cuantitativa de elementos, si bien presentan grandes diferencias en cuanto a la forma de abordar esa determinación y al número de elementos y rango de concentración que son capaces de medir. En consecuencia, el potencial analítico de cada una de ellas es muy diferente, y por tanto también lo son sus precios. La elección de la técnica más adecuada para abordar el análisis de una muestra va a depender de una gran cantidad de factores: características analíticas, condiciones económicas y recursos de personal, que llevarán a la optimización de la relación calidad/coste de la medida.
6.3.2.1. Espectrómetros de absorción atómica secuenciales (AA-SEC) La inmensa mayoría de los equipos de espectroscopía de absorción atómica son de este tipo, en los que se van midiendo los elementos secuencialmente. En estos equipos se optimizan los parámetros de cada elemento independientemente, de forma que las determinaciones se realizan en las condiciones más adecuadas en cada caso. Se pueden utilizan en esta disposición sistemas de atomización con llama, cámara de grafito o generación de hidruros. El monocromador suele estar compuesto por una red de difracción en configuración Czerny-Turner y detector mediante tubo fotomultiplicador. El principal inconveniente de este sistema secuencial es el tiempo de medida cuando se analizan varios elementos en la misma muestra, además del consumo de muestra, que es elevado, pues requiere un volumen adicional por cada determinación. Entre los equipos secuenciales algunos han incorporado dispositivos para analizar automáticamente todos los elementos en cada muestra. Esto requiere un cambio rápido de lámpara y longitud de onda, así como de las condiciones de medida y un potente programa informático que gestione todo; se ha solucionado la instrumentación con un espejo que enfoca secuencialmente la radiación de cada una de las múltiples lámparas incorporadas, que pueden ser multielementales.
6.3.2.2. Espectrómetros de absorción atómica simultáneos (AA-SIM) Estos equipos acaban de comercializarse, utilizan una fuente de radiación continua en el intervalo de medida, por tanto evita el cambio de lámpara que tradicionalmente ha sido la fuente de radiaciones características de la técnica. El resto del sistema óptico es el mismo que utilizan los equipos de espectroscopía de emisión atómica por plasma, monocromador de dispersión cruzada mediante prisma-red de difracción
Técnicas de análisis y caracterización de materiales
236
y detector CCD (Figura 6.29). Presentan la ventaja de la incorporación de los diferentes sistemas de atomización perfectamente desarrollados para espectroscopía de absorción atómica, incluyendo la inmersión directa de muestra sólida en el vaporizador electrotérmico. Los inconvenientes vienen dados por la pérdida de especificidad de la fuente y el elevado coste de estos equipos. Horno
Llama
Detector CCD
Red de difracción (echelle) Lámpara Arco de xenón
Prisma Monocromador alta resolución
Figura 6.29. Esquema de un espectrofotómetro de absorción atómica simultáneo (AAS-SIM).
6.3.2.3. Espectrómetros de emisión atómica secuenciales (ICP-SEC) Están dotados de red de difracción plana móvil y un único tubo fotomultiplicador, que permiten el análisis secuencial de cualquier línea (Figura 6.30). Monocromador Rendija de salida
Rendija de entrada
Tubo fotomultiplicador
a
olad contr ráfica nte g lo o h lme Red digita
Antorcha de plasma
Espejo móvil
Óptica de transferencia (purgable) Espejo (rotatorio)
Figura 6.30. Esquema de un espectrofotómetro secuencial.
Análisis químico: espectroscopía de absorción y emisión atómica…
237
Estos equipos de emisión atómica por plasma (ICP-OES) secuenciales son los más sencillos y económicos, no se ahorra tiempo respecto a un espectrofotómetro de absorción atómica de llama, puesto que se mide un elemento tras otro en ambos casos. La mejora que introduce el ICP-OES es en cuanto a rango lineal, sensibilidad y límites de detección para algunos elementos.
6.3.2.4. Espectrómetros de emisión atómica simultáneos multicanal (ICP-MUL) Están dotados de red de difracción cóncava y varios tubos fotomultiplicadores, que permiten el análisis simultáneo exclusivamente de una serie de líneas prefijadas, tantas como tubos dispuestos. En estos casos la rendija de entrada, las rendijas de salida y la superficie de la red se localizan a lo largo de la circunferencia de un círculo de Rowland, cuya curvatura corresponde a la curva focal de la red cóncava (Figura 6.31). La radiación que proviene de las distintas rendijas fijas se refleja mediante espejos hacia los correspondientes tubos fotomultiplicadores. Las rendijas vienen fijadas de fábrica para el número de elementos, longitudes de onda y concentraciones previamente elegidos por el usuario, lo que le confiere muy poca flexibilidad, aunque son equipos que al no poseer ningún componente móvil tienen una elevada estabilidad. Son equipos caros puesto que hay que acoplar tantos tubos fotomultiplicadores como elementos se quieran medir. La modificación de los elementos es relativamente sencilla, pero ha de hacerse en fábrica. El número de elementos a medir vendrá dado por la limitación física de los tubos fotomultiplicadores que caben a lo largo del círculo de Rowland. Los equipos de ICP-OES simultáneos multicanal se han visto rápidamente desplazados por la flexibilidad y el alto nivel de prestaciones de los ICP-OES con detectores de estado sólido que no limitan el número de elementos que pueden medirse simultáneamente, lo que proporciona una gran velocidad de análisis sin perder en prestaciones de precisión y sensibilidad, por supuesto a un coste elevado. Círculo de Rowland
Tubos fotomultiplicadores Espejo
Red de difracción cóncava
Motor de pasos Rendija movible Lámpara de mercurio
Lente Abertura
Fuente
Espejo pivotante Lente
Compensadores integración
Rendija de salida prealineada Espejo Ventana de cuarzo
Electrónica de medida A/D
Microprocesador Ordenador
Figura 6.31. Esquema de un espectrómetro ICP-OES multicanal.
Técnicas de análisis y caracterización de materiales
238
6.3.2.5. Espectrómetros de emisión atómica simultáneos (ICP-SIM) Están dotados de red de difracción plana echelle con dispersión cruzada de prisma y un detector de estado sólido de transferencia de carga (CCD o CID), que permiten el análisis simultáneo de cualquier línea y su correspondiente fondo espectral (Figura 6.32). Dispersor Schmidt Cross Prisma visible Lentes compuestas Rendija de entrada Espejo plano
Espejo toroidal
Detector UV
Echelle
Cámara esférica de UV Plasma
Espejo toroidal controlado por ordenador
Figura 6.32. Esquema de un espectrofotómetro de emisión atómica por plasma (ICP-OES) simultáneo (ICP-SIM) (adaptada de Perkin Elmer Inc.).
Las ventajas de este sistema incluyen el amplio conjunto de longitudes de onda que se abarca, la rapidez, elevada resolución, gran exactitud en la posición de longitudes de onda, amplio intervalo dinámico y la alta eficacia del sistema óptico utilizado. Hasta ahora han sido equipos de precio elevado, pero la gran demanda y la amortización de la inversión en I+D han conseguido precios más asequibles. Los equipos de ICP simultáneos de más altas prestaciones ofrecen la posibilidad de uno o dos detectores que cubren un amplio intervalo de longitudes de onda en el Uv-vIS (170-900 nm). La visualización del plasma puede ser en posición radial o plasma vertical, que es el estándar, y observación axial o plasma horizontal (Figura 6.33), que tiene una mayor sensibilidad, disminuye el límite de detección en un orden de magnitud respecto al radial debido al incremento del camino óptico, también presenta un nivel de ruido más elevado y aumentan las posibilidades de interferencias de ionización y autoabsorción; además, disponen de un sistema de «corte» de la llama para evitar las interferencias de la zona más fría del plasma que hace de pantalla de la señal, limitar y reproducir el camino óptico e impedir que alcance la ventana colectora de radiación. Se encuentran también comercializados equipos que contemplan la posibilidad de la doble visualización con el simple giro de un espejo móvil.
Análisis químico: espectroscopía de absorción y emisión atómica…
239
Espejo móvil (control automático)
Vista axial
Vista radial
Figura 6.33. Plasma radial y axial (Perkin-Elmer Inc.).
En el campo del análisis de elementos traza y ultratraza es una técnica reciente pero consolidada la espectrometría ICP-masas. Consiste en el acoplamiento de un detector de masas a la técnica de plasma, presenta los límites de detección más bajos [1 ppt (parte por trillón) en disolución] en cuanto a análisis elemental se refiere, con gran reproducibilidad y precisión; su única complicación radica en la dificultad de manejo e interpretación de resultados, así como las exigentes condiciones del entorno de trabajo. Estos equipos permiten hacer análisis isotópico. Los inconvenientes son el elevado coste, mínima tolerancia a sólidos disueltos en la disolución de medida (inferior a 0,2%), puesto que la muestra se introduce en el espectrómetro para medir las relaciones masa/carga y generaría un exceso de señales. Las grandes casas comerciales, como Agilent, Perkin-Elmer, Thermo Instruments, Horiba-Yobin-Yvon, suelen tener equipos desde los más sencillos a los más sofisticados ICP y AAS simultáneos con detectores de estado sólido. Muchas otras casas ofrecen equipos de AAS-Llama a precios asequibles para trabajos de rutina. Es importante a la hora de adquirir un equipo plantearse la compra sin olvidar las características de los análisis a realizar, el número de muestras, la velocidad en obtención de resultados, el consumo en gases, la cualificación técnica requerida, el coste del equipo y de mantenimiento anual, gastos en fungible, en lámparas, en reactivos, en patrones, etc.
6.3.2.6. Accesorios Los equipos de espectroscopía atómica permiten acoplar distintos accesorios para adecuar la instrumentación a los límites de detección y sensibilidad de los elementos a determinar. De esta forma, un único equipo ofrece la versatilidad suficiente para cubrir las necesidades analíticas más variadas, incluso es posible ir adquiriendo estos módulos posteriormente según se vayan necesitando.
240
Técnicas de análisis y caracterización de materiales
– Cámara de grafito o vaporizador electrotérmico. Cuando se requiere mejorar la sensibilidad del análisis en algunos tipos de muestras la llama no es el sistema de atomización idóneo; es necesario controlar las etapas que llevan a los átomos constituyentes hasta el estado fundamental suministrando la energía de forma programada por medios electrotérmicos. La señal, cuando se utiliza la cámara de grafito, es muy dependiente de la inyección, puesto que corresponde a la cantidad inyectada, no se trata de una medida en continuo; esto prácticamente hace imprescindible el uso de un inyector automático para reproducir exactamente el volumen, ángulo, presión ejercida, etc., variables que afectan a la señal y las desviaciones estándar obtenidas. Este sistema de introducción de muestra se ha desarrollado también para ICP, pero su uso no está tan extendido como en AAS. – Generador de hidruros. Es un accesorio que se acopla para nebulizar la muestra e introducirla en la llama. Se utiliza para medir elementos volátiles como selenio, teluro, estaño, arsénico, antimonio, etc., susceptibles de formar el correspondiente hidruro mediante reacción in situ, mejorando considerablemente los límites de detección. Existen espectrómetros con calentamiento eléctrico, en vez de la llama, que mejora el ruido y permite análisis automático sin riesgo. La técnica de vapor frío ofrece unos límites de detección excepcionales para las determinaciones de mercurio. – Ablación láser. Es una técnica para introducir materiales sólidos directamente en el plasma; se trata de un sofisticado accesorio provisto de un microscopio que permite hacer un muestreo superficial de la zona específica de interés. Tiene múltiples campos de aplicación, aunque la difícil reproducibilidad de la ablación en muestras y patrones no permite análisis de elevada precisión. – Inserción directa. Este accesorio permite la introducción directa de muestras sólidas o en polvo en un vaporizador electrotérmico. – Muestreador automático y/o sistema de dilución inteligente. Son accesorios que se incorporan a la mayoría de los equipos que se adquieren, pues permiten la programación de análisis y la medida autónoma del equipo; sobre todo está justificado cuando el número de análisis del mismo tipo es elevado. En los equipos simultáneos es todavía más frecuente su uso, pues se realizan las medidas de todos los elementos de manera automatizada.
6.3.3. Procedimiento operativo de medidas instrumentales La espectroscopía atómica de absorción y emisión son técnicas que generalmente solo precisan poner la muestra en disolución y realizar las medidas en las condiciones estándar de trabajo. En algunos casos, debido a las condiciones de los elementos a determinar, resulta necesario utilizar procedimientos especiales de trabajo para obtener un correcto análisis: optimización de la sensibilidad, mejora de la precisión, aumento de la exactitud, etc., lo que se consigue mediante la eliminación o compensación de las posibles interferencias (Tabla 6.5), así como con una buena calibración.
Análisis químico: espectroscopía de absorción y emisión atómica…
241
6.3.3.1. Origen y corrección de interferencias Las señales observadas en espectroscopía de absorción atómica suelen verse afectadas con frecuencia por bandas de absorción molecular, dispersión de la radiación por condensación de la muestra vaporizada, interferencias químicas e interferencias espectrales consistentes en solapamientos de otras líneas o bandas, depresiones o incrementos de intensidad. En espectroscopía de emisión atómica por plasma (ICP-OES), al operar en un rango de energías más altas a las que se vaporiza y atomiza completamente la muestra, las interferencias se reducen a las de tipo espectral, cuya solución se busca analizando en líneas de emisión alternativas, o, en último caso, mediante aplicaciones informáticas de modelos matemáticos para la deconvolución de picos. Tabla 6.5. inTerferencias en esPecTrOfOTOMeTría de absOrción y eMisión aTóMica OriGen
TiPO espectrales
Sistema óptico
De líneas atómicas Moleculares físicas volatilización incompleta
Sistema Efecto matriz de atomización
Absorción de fondo Químicas Fase condensada Composición de la muestra Fase vapor
cOrrección Midiendo la absorción del blanco en la longitud de onda de interés. Empleando líneas alternativas que no sufran interferencias. Mediante monocromadores de alto poder de dispersión. Adicionando sales como NH4Cl, AlCl3 o Na2SO4. Igualando las propiedades físicas de la muestra y de los patrones de calibrado Empleando método de adición estándar. Añadiendo la matriz a los patrones de calibrado. Eliminando la matriz. Separando los elementos de la matriz. Lámpara de arco de deuterio. Efecto Zeeman. Sistema Smith-Hieftje. Aumentando la temperatura de atomización. Igualando el contenido del interferente en la muestra y en los patrones. Empleando llamas reductoras. Añadiendo agentes relajantes: La, Sr... Añadiendo un agente protector: AEDT, 8-hidroxiquinoleina, fenol... Disminuyendo la energía de la célula de atomización. Añadiendo un exceso de elemento fácilmente ionizable: Na, K...
En general, las interferencias pueden clasificarse en físicas, químicas y espectrales.
242
Técnicas de análisis y caracterización de materiales
Interferencias físicas. Este tipo de interferencias se debe a cambios en las propiedades físicas, tales como viscosidad, densidad, tensión superficial, etc. en la disolución del analito y en los patrones, los cuales pueden afectar al proceso de nebulización y, en consecuencia, al número de átomos presentes en la llama. En ocasiones se utilizan disolventes orgánicos para aumentar la eficacia de la nebulización y también la temperatura de la llama, si bien la presencia de sustancias orgánicas origina una gran variedad de interferencias, sobre todo al aumentar la emisión de fondo de la llama y provocar fluctuaciones en su temperatura. Cuando se utiliza atomización electrotérmica, no suelen tener lugar interferencias físicas como las descritas anteriormente, ya que el analito se coloca directamente en el atomizador, sin nebulización previa. Sin embargo, determinados disolventes suelen causar problemas cuando se introducen en el tubo de grafito, ya que producen una absorción de fondo entre 200-250 nm a 2.500 ºC, incluso después de haber secado previamente la muestra. En cualquier caso, las interferencias físicas pueden evitarse procurando que las propiedades físicas y la matriz sean las mismas en la muestra y en los patrones, utilizando el método de adición estándar o un estándar interno, incluso, a veces, simplemente operando con disoluciones más diluidas. Interferencias químicas. Son las de mayor incidencia en espectroscopía de absorción atómica; están generadas por reacciones químicas que ocurren durante el proceso de atomización originando compuestos poco volátiles, reacciones reversibles del metal en forma elemental, o reacciones de ionización asociadas al uso de llamas de temperatura más elevadas, con la consiguiente disminución de la población de átomos libres. La causa más común de este tipo de interferencia es la formación de óxidos, hidróxidos, carburos o nitruros metálicos térmicamente estables. Estas interferencias se evitan operando con llamas más calientes, ya que el grado de disociación de estos compuestos aumenta con la temperatura. En otras ocasiones, la interferencia se produce cuando en la muestra existen aniones o elementos que pueden formar aniones, tales como aluminio, boro, etc. Estos aniones pueden formar sales con el analito lo suficientemente estables como para disminuir la población de átomos neutros. La interferencia debida a la formación de estas especies puede evitarse aumentando la temperatura, o bien empleando agentes liberadores, que son cationes que reaccionan preferentemente con la interferencia, impidiendo así su interacción con el analito. También pueden utilizarse agentes complejantes protectores, los cuales evitan la combinación del elemento de interés con la especie interferente. Uno de los más usados con esta finalidad es el AEDT, que, además de formar quelatos estables con muchos cationes metálicos, se descompone fácilmente en la llama. Cuando la especie de interés pierde algún electrón, formando los iones correspondientes, se origina la llamada interferencia de ionización. Se produce en los elementos fácilmente ionizables, como alcalinos y alcalinotérreos. Esta interferencia se evita con la adición de un supresor de ionización, el cual es un elemento que proporciona una concentración de electrones relativamente alta, con lo que inhibe la ionización del elemento de interés.
Análisis químico: espectroscopía de absorción y emisión atómica…
243
Por tanto, las interferencias químicas tienen vías de subsanación: cambiando la composición de la llama, adicionando agentes liberadores, como lantano; protectores del analito, como AEDT o supresores de la ionización, como potasio. Interferencias espectrales. Una interferencia espectral tiene lugar cuando se produce absorción o emisión por una especie a la misma longitud de onda que el analito, o a una longitud de onda tan próxima que la resolución del monocromador no permite separar ambas señales. También se deben a productos de combustión que poseen bandas de absorción o aerosoles que dispersan la radiación. En general, en absorción atómica secuencial, las interferencias espectrales son poco corrientes, debido a que las líneas de la fuente son extremadamente estrechas y específicas. Sin embargo, la técnica no está totalmente libre de este tipo de interferencias. Si se conoce la causa de la interferencia se puede añadir un exceso de la sustancia interferente tanto a la muestra como a los patrones. Esta sustancia se denomina amortiguador de la radiación. La materia orgánica presente en la muestra o un elevado contenido salino generan una señal de fondo no específica que se corrige con la utilización de lámpara de deuterio, efecto Zeeman y efecto Smith-Hieftje. En el desarrollo de un método completo de análisis debe tratarse la puesta en disolución con especial cuidado para no generar interferencias químicas; si esto no fuera posible, deberían compensarse estos efectos mediante la utilización de un calibrado por adiciones estándar.
6.3.3.2. Calibrado Las medidas de absorción atómica siguen la ley de Beer; por tanto, la absorbancia medida debe ser proporcional a la concentración del elemento absorbente en la disolución. Esto no es totalmente cierto y se presentan desviaciones a la ley de Beer en disoluciones muy diluidas y en las muy concentradas, puesto que tienen lugar otros fenómenos conjuntamente con la absorción de radiación por los átomos: a altas concentraciones disminuye tanto la distancia entre las moléculas que interaccionan alterando su distribución de carga. Estas desviaciones pueden ser tanto instrumentales como químicas. Por consiguiente no se podrá abordar el estudio de una muestra sin la elaboración previa de una curva de calibrado y la determinación del rango dinámico de linearidad, que en espectroscopía de absorción atómica es corto y limitado por estas desviaciones de la ley de Beer. En espectroscopía de emisión atómica por plasma (ICP-OES) la intensidad de emisión es proporcional a la concentración extendiéndose el rango lineal a varios órdenes de magnitud. Los patrones elegidos para construir la curva de calibrado deben ser de una naturaleza similar a la muestra que se ha de analizar para minimizar los efectos matriz y con cantidades conocidas del elemento a determinar. Las características de los patrones es la primera dificultad, puesto que es prácticamente imposible conseguir que su comportamiento físico-químico en la llama o plasma sea idéntico a la muestra. La construcción de la curva de calibrado se realiza midiendo la absorbancia o intensidad de emisión para cada uno de los patrones de concentración conocida y re-
244
Técnicas de análisis y caracterización de materiales
presentando estos resultados gráficamente; normalmente se obtendrá una recta hasta un cierto valor de concentración a partir del cual se comienza a curvar. Esto nos da el intervalo de linealidad, que es de varias unidades en espectroscopía de absorción atómica (AAS) y varios órdenes de magnitud en ICP-OES. Esta es una de las grandes ventajas del análisis por ICP-OES. Una vez obtenida la curva de calibración se procede a la medida de absorbancia o intensidad de las muestras y por interpolación en la gráfica se conoce la correspondiente concentración. Actualmente todo este proceso está controlado por un ordenador que da directamente la concentración junto con algunos datos estadísticos derivados de la lectura. Cuando el efecto matriz es importante y origina interferencias espectrales y/o químicas en primer lugar se recurre a la dilución de las muestras. Si este sencillo procedimiento no da resultado o el elemento no presenta sensibilidad, se puede recurrir a la calibración por el método de adiciones estándar, que consiste en añadirle cantidades conocidas y crecientes de patrón a un mismo volumen de muestra a analizar; la representación gráfica de las lecturas de absorbancia frente a las concentraciones de patrón originará el valor de la concentración del elemento en la muestra por extrapolación hasta el punto de corte con el eje de abscisas. Es un método sujeto a errores, puesto que se determina la magnitud de la variable fuera del intervalo de concentraciones del calibrado, y se restringe su uso a casos específicos. En espectroscopía de emisión atómica por plasma (ICP-OES) es frecuente el empleo de un patrón interno para compensar diferencias de comportamiento entre muestras y patrones en los procesos de nebulización, atomización y excitación en el plasma.
6.3.3.3. Metodología de uso Cuando se precisa analizar en una muestra los elementos que la componen inmediatamente se piensa en la espectroscopía atómica de absorción o emisión. Si la muestra se encuentra en estado sólido, se procurará encontrar un método de disolución. A continuación se estudiarán los niveles de concentración de los diferentes elementos para saber si se utilizará la llama como sistema de obtención de átomos en estado fundamental o bien técnicas sin llama, o la emisión por plasma. Siempre que sea posible se utilizará la llama, por ser el sistema más rápido, sencillo y económico. Se emplea el generador de hidruros para arsénico, antimonio, selenio y mercurio, cuando se requiere bajar el límite de detección y si la matriz es relativamente sencilla. Si es necesario utilizar la cámara de grafito se prepara la muestra con mucho cuidado para no contaminarla y se estudia detenidamente el programa de energía en temperaturas, tiempos y flujos de gases. En AAS es fundamental realizar un estudio de posibles interferencias (Tabla 6.5) para proceder a su corrección o eliminación. En espectroscopía de emisión por plasma (ICP-OES) es muy importante la corrección de la línea base (Figura 6.34) para integrar la señal, puesto que pueden ser frecuentes las interferencias espectrales (Figura 6.35) y se necesita la existencia de un bajo fondo en los alrededores del pico analítico.
Análisis químico: espectroscopía de absorción y emisión atómica… A
B
Fondo plano
Fondo plano con pendiente lineal
C
D
Fondo plano con pendiente curva
Fondo plano con pendiente parcial
Figura 6.34. Corrección de fondo espectral [adaptada de (2)]. A
B
Ineta
Intensidad
Ineta
C
D Ineta
Ineta
λ
Figura 6.35. Detección y corrección de interferencias espectrales [adaptada de (2)].
245
246
Técnicas de análisis y caracterización de materiales
Actualmente la mayoría de las ofertas comerciales disponibles ofrecen sistemas informáticos capaces de compensar interferencias mediante calibraciones previas, de forma que permite descomponer la señal obtenida calculando la contribución del elemento interferente a la señal de interés, lo que facilita abordar el estudio de la composición de una muestra con precisión.
6.4. aPlicaciOnes de la Técnica Se puede decir que la espectroscopía atómica de absorción y emisión es capaz de analizar cualquier muestra que se encuentre ya en disolución o bien que mediante un método u otro se pueda disolver. Una vez que las muestras se encuentran perfectamente disueltas, se estudiarán las posibles interferencias que ciertos elementos ejercen sobre los demás, operación facilitada por los actuales espectrómetros con potentes programas informáticos que identifican, mediante bases de datos, los posibles elementos interferentes. Los elementos que se encuentran en menor concentración en la disolución son los que condicionarán el tipo de análisis a realizar por la exigencia en el límite de sensibilidad.
6.4.1. análisis cualitativo La espectroscopía atómica de absorción y emisión permiten el análisis cualitativo aunque no es su objetivo y, por tanto, se emplea un tiempo excesivo en los equipos secuenciales, más en el caso de AAS-SEC, que supone cambio de lámpara para cada elemento. En los equipos de ICP-OES o AAS simultáneo es mucho más sencilla la identificación de elementos en un breve intervalo de tiempo.
6.4.2. análisis cuantitativo El análisis cuantitativo es lo que ha llevado a la espectroscopía atómica de absorción y emisión a ocupar un lugar destacado entre las técnicas habituales del laboratorio, haciéndola, en la mayoría de los casos, imprescindible. El equipo más sencillo de absorción atómica es capaz de ofrecer resultados de composiciones elementales de cualquier tipo de muestra con reproducibilidad, precisión y exactitud, de una manera simple, rápida y económica, características difíciles de conseguir con cualquier otra técnica instrumental. La cuantificación de un elemento en la disolución se realiza mediante la elaboración previa de la recta de calibrado con los patrones más adecuados, en número y concentración, utilizando como blanco la mezcla empleada en la puesta en disolución de la muestra, o el disolvente de la disolución.
Análisis químico: espectroscopía de absorción y emisión atómica…
247
En disoluciones orgánicas, es importante evaluar el papel del disolvente en la llama (AAS): evaporación rápida, eficacia de nebulización mayor, menor tensión superficial, densidad, etc. Pero también disminuye la temperatura de la llama, al actuar como combustible y aumenta la posibilidad de interferencias químicas. En ICP se han de cambiar los parámetros de nebulización y gas portador, para no saturar el plasma puesto que se extinguiría. Para seguir un protocolo que garantice la calidad de los resultados analíticos en cuanto a precisión y exactitud se deben seguir unas pautas de verificación de resultados que pueden consistir en: verificar la curva de calibrado cada 5-10 muestras analizadas utilizando un patrón de composición conocida de concentración similar a las muestras, realizar análisis duplicados, incluir el análisis de un material de referencia certificado de composición similar al lote de muestras analizado, dopar alguna muestra de la serie con el elemento a medir para comprobar la recuperación del mismo, son algunas de las acciones que se deben programar habitualmente en la secuencia de análisis.
6.5. cOMParación de las disTinTas Técnicas de esPecTrOscOPía aTóMica Las técnicas de espectroscopía de absorción atómica con llama (AAS-LL), con cámara de grafito (AAS-GF), con generación de hidruros (AAS-HG/AAS-vapor frío), emisión atómica por plasma (ICP-OES), plasma acoplado a espectrómetro de masas (ICP-MS) tienen en común la determinación de elementos en disolución, el uso de una u otra técnica depende de las características analíticas, condiciones económicas, disponibilidad y cualificación de personal. Los límites de detección condicionan la utilización de cada espectroscopía: Tabla 6.6. líMiTes de deTección Para cada Técnica de esPecTrOscOPía aTóMica límite detección
Técnica adecuada
ppt
ICP-MS
ppb
AAS-HG, AAS-vapor frío, AAS-GF, ICP-OES
ppm
AAS-LL, ICP-OES, AAS-GF
%
AAS-LL, ICP-OES
La expresión del límite de detección corresponde a la concentración de elemento necesaria para generar una señal tres veces mayor que la desviación estándar del ruido de fondo. Este parámetro depende del instrumento (Tabla 6.7) y variables de operación como detector, flujos de gases, rendija y sistemas de corrección de fondo e interferencias.
Técnicas de análisis y caracterización de materiales
248
Tabla 6.7. líMiTes de deTección (PPM) de Técnicas de esPecTrOscOPía aTóMica [datos de (5)] elemento
λ(nm)
Ag
328,068
Al
167,081 396,152
As
emisión aas- aas- icPllama ll Gf Oes 2 3,6
250
Au
267,595
500
B
249,773
(BO2)
518,5
50
Ba
455,403
3
553,552
1,5
313,042 313,107
Bi
223,061
C
193,091
Ca
393,366 422,673
0,05
120
0,5
Cl
134,722
Co
239,739
Ni
232,003
50
Os
225,585
43
1,5
P
177,499
Pb
220,353
9
0,04
2
0,003
100 18
0,35
Pd 0,2
1 1
6
0,075
Cs
852,112
0,02
4
0,55
Cu
324,754
1,5
3
0,3
Dy
353,170 30
50
1,5
1
244,791
20
10
0,48
340,458
25
80
2,3
50
5
337,271
0,35
20
10
0,05
500
3 0,0065
11
346,046
200
1000
10
Rh
343,489
10
5
0,4
Ru
267,876 349,894
S
180,734
4
(S2)
393,329
Sb
217,581
2 Sc
5 5,5
80
100
0,75
10
150 20
1600 18
231,147
70
259,805
200
30 0,08
361,384
0,4 50
6
120
196,026
500
0,7
37
Si
251,611
300
0,75
5
Sm
442,434
Se 0,7
100
227,525
393,338
30
7 0,8
420,155
7
0,3
30
10
2,6
50
6
60
404,645
Re
50 14
2000
30
267,716
110
283,306
780,023
10
18
265,945
Rb
0,24
100
Pt
0,03 0,01
4
5
12
150
421,173
8
417,939
1,0
1000 2
Pr
0,03
6
250
1 44
1,5
4
213,618
0,9
357,869
400,802
405,894
12
700
0,21
Er
309,418 401,225
5,5
5
404,601
Nb Nd
0,22
5
Cr
20
8
413,380 569,921
3
emisión aas- aas- icPllama ll Gf Oes
290,906
214,438 228,802
Ce
30
188,985 234,984
Cd
0,035
λ(nm)
1,5
193,696
Be
0,9
elemento
21
7
Análisis químico: espectroscopía de absorción y emisión atómica…
elemento
λ(nm)
Eu
381,967 459,402
Fe
emisión aas- aas- icPllama ll Gf Oes 0,3 0,45
248,334
1,5
1,3
6
0,06
259,940 385,990 Ga
12
Sn
21 30
3
30
1
6,5
440,189
72
1000
8
Ge
265,118
400
200
0,45
Hf
264,141
Hg
184,950 253,652
Ho
15
40
100
40
0,7
22
Ir
208,882
400
500
6,8
K
766,490
0,15
3
0,02
La
379,478 5
2000
0,5
670,784
0,003
2
0,2
Lu
261,542
Mg
285,213
Mn
257,610
Na
300 4,5
0,1 0,32
220
20
0,35
588,995
0,01
0,2
0,005
2
0,02 0,1
268,517
9 2000
350,917
5
431,889
150
300
150
30
274,716
17
334,941
0,6
364,272 Tl
210
276,787
0,45
100
2,5
20
0,75
351,924 377,572 Tm
3
0,5 1,5
4
20
384,802 U
10 0,02
v
0,6
W
358,486
Y Yb
1
7 100
30
385,958
18
309,311
2
437,917
3,6
27
16
346,220 371,787
4
313,120
0,1
Ti
0,03
202,030
200
Th
0,3 1
100
50
0,05 0,018
15
8,5
3,5
579,130
30
214,281
2
Li
1
Te
6,8
224,268
100
4
3
451,131
Mo
13
60
303,936
110
271,474 Tb
0,7
178,276
279,482
Ta
0,5
183,998 In
7,5
345,600 405,388
I
200
500
407,771 460,733
2,5
150
30
224,605 283,998
Sr 0,23
342,247
emisión aas- aas- icPllama ll Gf Oes
242,949
100
Gd
λ(nm) 476,028
1,5
294,364 417,206
elemento
249
15
239,709
17
400,866
450
1000
362,087
40
50
10
371,030
0,2
328,937
0,3
398,798
0,45
4
0,15
Zn
213,856
1000
1
0,008
Zr
339,198
0,2 1,5
Una comparativa de las características generales de las distintas técnicas se resume en la tabla 6.8.
Técnicas de análisis y caracterización de materiales
250
Tabla 6.8. cUadrO cOMParaTivO de Técnicas de esPecTrOscOPía aTóMica icP-Ms
icP-Oes
aas-ll
aas-Gf
aas-HG
Límite detección
característica
Excelente
Muy bueno
Bueno
Excelente
Excelente
Productividad
Excelente
Muy alta
Alta
Baja
Baja
Linealidad
10
10
10
10
102
Precisión
1-3%
0,3-2%
0,1-1%
1-5%
0,5-1,5%
Interf. espectrales
5
5
3
2
Ninguna
Bastantes
Pocas
Muy pocas
Muy pocas
Interf. químicas
Moderadas
Mínimas
Bastantes
Bastantes
Muy pocas
Interf. ionización
Mínimas
Mínimas
Algunas
Mínimas
Mínimas
Efectos masa
Altos
No
No
No
No
Interf. isotópicas
Sí
No
No
No
No
Sólidos disueltos
0,1-0,4%
2-25%
0,5-3%
>20%
1-5%
75
73
68
50
10
Medio
Medio
Alto
Muy bajo
Medio
N.º elementos volumen muestra Semi-cuantitativo
Sí
Sí
No
No
No
Análisis isotópico
Sí
No
No
No
No
Operación rutinaria
Delicada
Sencilla
Sencilla
Delicada
Delicada
Desarrollo métodos
Complejo
Sencillo
Sencillo
Complejo
Medio
Costes operativos
Alto
Alto
Bajo
Medio
Medio
Costes adquisición
Muy alto
Alto
Bajo
Medio
Bajo
La cuantía de la inversión que es necesaria para adquirir y mantener el equipamiento necesario sigue la serie: AAS-Llama < AAS-Generador de Hidruros/Vapor Frío < AAS-Cámara de Grafito < ICP-OES < ICP-MS. En cuanto al coste por análisis considerando el tiempo de operación empleado por el personal: AAS-Llama < ICP-OES < ICP-MS < AAS-Generador de Hidruros/vapor Frío < AAS-Cámara de Grafito.
6.6. PreParación de MUesTras Las muestras pueden llegar al laboratorio en cualquiera de sus estados: sólidas, líquidas y, menos habitualmente por la dificultad que implica su manejo, en forma de gas. Es muy común subrayar en los problemas asociados a la etapa final de un análisis, especialmente a la medida de alguna variable (señal analítica) que pueda estar relacionada con la concentración del problema. Sin embargo, debido al espectacular desarrollo que han experimentado en los últimos años las técnicas instrumentales y
Análisis químico: espectroscopía de absorción y emisión atómica…
251
los sistemas de adquisición y tratamiento de datos, esta etapa final del análisis es relativamente sencilla en la mayoría de las ocasiones ya que se realiza en una disolución en la que se han estudiado las interferencias, en consecuencia, son pocas las variables desconocidas que influyen en la medida, y basta con los conocimientos teóricos actuales para explicar los efectos de aquellas. La realidad es que la labor compleja se centra, para los laboratorios en la diversidad de nuevos materiales, en problemáticas actuales con valores límite legales (contaminación, control del dopaje, forense...) y de compuestos a analizar: inorgánicos (metales de matriz variada, suelos, rocas, minerales...); orgánicos (plantas, algas, alimentos...); organometálicos (sensores, pinturas, aditivos de gasolinas...); numerosos productos industriales (grasas y aceites, plásticos, cementos, abonos...), farmacéuticos; fluidos y tejidos biológicos (sangre, orina, saliva, vísceras...). Otros aspectos son la variedad de estados físicos en que se pueden encontrar las muestras (sólido, líquido o gaseoso) y la posibilidad de realizar análisis de algunos elementos o varias decenas de ellos tanto macroconstituyentes, trazas o incluso ultratrazas en la misma muestra. Estos materiales están, a menudo, lejos de ser ideales en cuanto a su homogeneidad, solubilidad, estabilidad, volatilidad. Con estas sustancias, varias etapas han de preceder a la medida final, que en general suele ser la de más fácil ejecución. Las dificultades que se encuentran en el análisis de muestras radican en su complejidad o en las diferencias en su composición, en la precisión requerida, tiempo necesario o disponible, número de muestras/día procesadas, metodología a seguir, lo que requiere, en muchas ocasiones, adaptar los procedimientos existentes cuando no cambiarlos. Desarrollar un procedimiento para el análisis no es sencillo, incluso para químicos experimentados. La importancia de estas etapas previas es a menudo superior a la instrumental y deben ser abordadas con el objetivo de transformar el material a analizar en una «muestra medible», constituyendo el proceso de preparación. Para dar una idea de la importancia de la preparación de muestras basta con analizar los siguientes datos relativos al tiempo utilizado en diferentes etapas de un ensayo (Tabla 6.9): Tabla 6.9. POrcenTajes de TieMPO UTilizadOs en cada eTaPa de Un análisis etapa del análisis
Tiempo (%)
Preparación de muestras
40-90%
Tratamiento de datos
12-25%
Toma de muestra
2-10%
Análisis
9-32%
Las técnicas actuales de preparación de muestras, a diferencia de las técnicas instrumentales, no han avanzado en la medida de lo deseable, y constituyen todavía en la actualidad la etapa que controla el análisis. En este sentido han surgido los hornos microondas, algunos capaces de operar a elevadas presiones, equipos automáticos de fusiones, los ultrasonidos...
Técnicas de análisis y caracterización de materiales
252
El proceso de preparación de muestra consta generalmente de un número considerable de sucesivas manipulaciones, cada una de las cuales conlleva la posibilidad de cometer numerosos errores (las condiciones de ataque suelen ser muy drásticas y la relación reactivo/muestra es muy grande), lo que puede tener un impacto sobre los resultados finales. Estos errores son normalmente acumulativos, aunque se pueden contrarrestar unos con otros, y se deben básicamente a: a) Pérdidas de muestra, que pueden tener lugar por: – Volatilización, formación de compuestos volátiles, como fluoruros o cloruros en ataques con ácido fluorhídrico (HF) y ácido clorhídrico (HCl), o a altas temperaturas en fusiones. – Oclusión en precipitados, en fusiones. – Adsorción de elementos en las paredes del recipiente de ataque, frecuente en reactores de teflón. – Reacción química con la superficie del crisol. – Aleación con el metal del crisol, como en fusiones con crisol de platino en condiciones no oxidantes. – Arrastre por vapor, cuando hay desprendimiento de gases. b) Contaminaciones, que pueden estar originadas por: – Impurezas de reactivos utilizados. – Segregación de componentes de los recipientes. – Restos de otras muestras. – Ambiente del laboratorio, sustancias desprendidas de hornos u otros equipos. Por tanto, si el proceso no se lleva a cabo con suficiente cuidado puede invalidar no solo el resultado sino las conclusiones que deriven del mismo, siendo determinante en la calidad de los resultados analíticos. De aquí la importancia de verificar el procedimiento completo de análisis con un material de referencia y/o una muestra dopada con los elementos a determinar. Un proceso de preparación de muestra requiere una adecuada recopilación bibliográfica de datos y consta de una serie de etapas básicas: – Muestreo. – Tratamientos previos. – Transformación de la muestra en forma observable o medible. Y debe tener en cuenta: – – – – – – – – – –
Cantidad de muestra disponible. Estado de agregación y naturaleza de la muestra. Concentración del analito en la muestra. Naturaleza de la matriz. Ataque de la muestra. Disponibilidad de instrumentos y equipos. Exactitud y precisión. Personal, plazo y tiempo disponibles. Número de análisis. Costes.
Análisis químico: espectroscopía de absorción y emisión atómica…
253
6.6.1. Tratamientos previos Normalmente se requieren una serie de operaciones o tratamientos previos que ofrecen una problemática diferente. En muchos casos algunas no son necesarias y en otros no se sigue un orden definido. – Filtración de material sólido en muestras líquidas. – Trituración, tamizado, homogeneizado. Las muestras sólidas deben ser molturadas para homogeneizar el tamaño de partícula. Esto facilita la disgregación, pues aumenta la superficie de contacto y reduce considerablemente el tiempo necesario para su completa disolución. La molturación se hará manual o en diferentes tipos de molinos en función de la cantidad y tipo de muestra, del tamaño de partícula deseado y tiempo empleado. Esta etapa puede ser fuente de errores por: • Cambios en la composición química de la muestra. • Pérdidas de componentes de la muestra (calor generado en la molienda). • Contaminaciones (morteros, humedad, microbianas...). – Secado. Tiene por objeto eliminar el agua que no forma parte de la constitución química de la muestra. El agua de adsorción, absorción y oclusión es variable con el tiempo, lo que cambiaría los porcentajes de todos los componentes de la muestra. El agua de adsorción se elimina, por lo general, a 105 ºC. Se realizan estudios previos con análisis térmico (TG) o análisis térmico diferencial (ATD) para evaluar la temperatura de secado más adecuada, a la que se consigue peso estable. Los errores en esta etapa se deben a: • Eliminación incompleta de diferentes tipos de agua. • Cambios en la composición de la muestra. – Medición (peso y/o volumen) de la muestra. Referencia para la expresión de los resultados.
6.6.2. Transformación de la muestra en especie medible La mayoría de técnicas espectroscópicas atómicas requieren la disolución de la muestra. El procedimiento será algo diferente si se trata de analitos orgánicos o inorgánicos. En general, están implicados diferentes procesos como disgregación, disolución, cambios de número de oxidación, técnicas de separación, adición de enmascarantes, modificación de las características del medio (pH, disolvente), preconcentración de analito... Si la muestra es líquida y de naturaleza inorgánica, en principio es adecuada para analizarla directamente. Si la muestra es sólida o en polvo y disponemos de un accesorio de inserción directa o ablación láser, también estará en condiciones de medirse directamente; en caso contrario, su transformación consiste en la solubilización.
254
Técnicas de análisis y caracterización de materiales
El tratamiento a seguir en las muestras orgánicas o biológicas consiste, en la mayoría de los casos, en la destrucción total o volatilización de la matriz orgánica (desprendimiento de agua, dióxido de carbono, dióxido de azufre, nitrógeno...) que presenta una seria limitación en el proceso analítico.
6.6.2.1. Mineralización por vía húmeda mediante disolución ácida Tanto las muestras de naturaleza inorgánica —que incluyen principalmente tres grandes tipos de materiales: materiales metálicos, materiales geológicos y cerámicos, refractarios y vítreos—, como las muestras de naturaleza orgánica o biológica se pueden mineralizar por vía húmeda con algunas restricciones en cuanto a los agentes recomendados en la degradación de la materia orgánica. La mineralización de muestras mediante vía húmeda implica el uso de ácidos. Los más utilizados son: ácido clorhídrico, ácido nítrico, ácido sulfúrico, ácido fosfórico, ácido perclórico, ácido fluorhídrico, agua regia. El ácido nítrico (HNO3) forma azeótropo con el agua al 69% de punto de ebullición 122 ºC. Es el ácido más empleado debido a que es un oxidante fuerte, aumentando su capacidad de oxidación a medida que aumenta la presión. Este ácido descompone la mayoría de los sulfuros, actúa sobre numerosos óxidos y fosfatos poniendo sus componentes metálicos en solución al máximo grado de oxidación al formar nitratos de metales solubles. Las muestras con un contenido elevado de materia orgánica deben ser calcinadas previamente. Se usa en combinación con ácido clorhídrico (HCl), ácido fluorhídrico (HF), ácido sulfúrico (H2SO4) y peróxido de hidrógeno (H2O2). El ácido clorhídrico (HCl) forma azeótropo al 20% con agua de punto de ebullición 109 ºC que, aunque no es de naturaleza oxidante, es un agente complejante y se emplea para disolver ciertos metales y óxidos metálicos. A elevadas presiones y temperaturas puede llegar a disolver materiales de tipo refractario y muchos silicatos, rocas carbonatadas, cementos. Raramente se consigue una puesta en solución total de la muestra con el empleo único de este ácido. La mezcla 3:1 ácido clorhídrico:ácido nítrico, 3HCl + HNO3 (agua regia) es un agente oxidante de carácter sinérgico, durante el proceso se produce NOCl que posteriormente se disocia originando cloro. 3HCl + HNO3 ——→ NOCl + Cl2 + 2H2O
[6.11]
La fuerza ácida de la mezcla y el poder oxidante de los componentes obtenidos en su descomposición hacen del agua regia un importante reactivo para atacar sulfuros, óxidos, minerales, etc. También se usa en combinación con ácido fluorhídrico (HF). El ácido sulfúrico (H2SO4) concentrado, de punto de ebullición 336 ºC que forma azeótropo al 98%, de reconocido uso para muchos productos orgánicos, en los que produce deshidratación y carbonización, e inorgánicos que consigue disolver debido a su poder oxidante y fuertemente ácido. No puede utilizarse en contenedores de teflón estándar pues el teflón funde aproximadamente a 300 ºC, antes de que el ácido sulfúrico comience a ebullir.
Análisis químico: espectroscopía de absorción y emisión atómica…
255
Este ácido se aplica relativamente poco cuando las determinaciones elementales se van a efectuar por espectrometría de absorción atómica, puesto que da lugar a una depresión en la señal de los analitos; con cámara de grafito también está limitado su uso. En ICP-OES puede originar problemas su elevada viscosidad. Se usa en combinación con ácido nítrico (HNO3), ácido fluorhídrico (HF), ácido perclórico (HClO4) y peróxido de hidrógeno (H2O2), elevando el punto de ebullición de las mezclas. Aunque el ácido por sí solo se emplea para la puesta en solución de ciertos óxidos, carbonatos y sulfuros, su utilización unida al sulfato de amonio [(NH4)2SO4] es mucho más extensa potenciada por el trióxido de azufre (SO3) producido durante la descomposición de la sal en esta combinación, que se emplea en cerámicas con matrices de óxidos de circonio y titanatos. El ácido fluorhídrico (HF) forma azeótropo al 36% en agua, de punto de ebullición 111 ºC. Es particularmente útil para la disolución de silicatos, debido a la formación de tetrafluoruro de silicio (SiF4) (volátil) y a la formación de complejos fluorados solubles, de aquí su amplia aplicación en los esquemas para analizar elementos mayoritarios y minoritarios en rocas, suelos y sedimentos. En combinación, a escasa concentración, con otros ácidos, generalmente ácido sulfúrico (H2SO4), ácido nítrico (HNO3), ácido perclórico (HClO4) o mezclas de ellos, puede liberar algunos elementos, especialmente a nivel de trazas. En el curso de la operación, además del tetrafluoruro de silicio (SiF4) ya mencionado, se forman fluoruros y silicofluoruros que se descomponen por el calor o son solubles en ácidos minerales con liberación de fluoruro de hidrógeno (HF) y tetrafluoruro de silicio (SiF4) que se evaporan. El ácido nítrico (HNO3), al ser más volátil que el ácido sulfúrico (H2SO4), descompone con mayor dificultad los fluorosilicatos. Sin embargo, la formación de nitratos en lugar de sulfatos es más conveniente en razón de su mayor solubilidad. El ácido perclórico (HClO4) también conduce a sales muy solubles y su anión no interfiere en los análisis posteriores. Aunque presenta estos aspectos favorables, la eliminación del HF residual es difícil precisándose continuar el calentamiento hasta sequedad completa. Otra alternativa para suprimir el flúor y evitar sobrecalentamientos es adicionar ácido bórico (H3BO3) al comienzo de la operación, se favorece la eliminación en forma de trifluoruro de boro (BF3) y ácido fluorobórico (HBF4) volátiles. Un aspecto a tener en cuenta de este ácido es su capacidad para formar fluoruros insolubles (con lantano, calcio, ytrio, …), que da lugar a pérdidas en muchas ocasiones. El ácido perclórico (HClO4) forma azeótropo al 28% con agua, de punto de ebullición 203 ºC. En solución diluida es el ácido mineral más fuerte conocido. Los percloratos son extremadamente solubles. En solución concentrada y a temperatura de ebullición se comporta como oxidante fuerte. Ataca casi todos los metales, aceros, refractarios y cromitas, así como silicatos transformando sus elementos en compuestos de máxima oxidación. No es muy aconsejable su uso en contacto con materiales orgánicos, ya que en caliente es un oxidante muy enérgico y puede llegar a ser explosivo, esto se puede prevenir añadiendo ácido nítrico (HNO3) antes que el ácido perclórico (HClO4). En recipientes cerrados aumenta mucho la presión probablemente debido a la formación de cloro.
256
Técnicas de análisis y caracterización de materiales
El peróxido de hidrógeno (H2O2) forma azeótropo al 30%, de punto de ebullición 107 ºC. Incrementa su poder oxidante al aumentar la acidez del medio. El producto final es agua lo que reduce fuertemente la acidez final de la disolución resultante. Genera altas presiones en su utilización en vasos cerrados. Se usa en combinación con ácido sulfúrico (H2SO4) y/o ácido nítrico (HNO3). Su adición a cualquier mezcla disgregante aumenta la acción disolvente y acelera la oxidación de la materia orgánica. El ácido fosfórico (H3PO4) forma azeótropo al 85% con agua, de punto de ebullición 261 ºC. Aumenta el punto de ebullición de las mezclas, en caliente disuelve los óxidos refractarios insolubles en otros ácidos. Se emplea como agente complejante en muestras geológicas facilitando la recuperación de silicio. Presenta interferencias analíticas en espectroscopía de absorción atómica y, por su viscosidad, en ICP-OES, pero el uso en pequeñas proporciones minimiza estos problemas. En muestras orgánicas o biológicas se requiere siempre la presencia de un agente oxidante, que puede ser el propio ácido [ácido nítrico (HNO3), ácido perclórico (HClO4) ó ácido sulfúrico (H2SO4)] u otro reactivo como peróxido de hidrógeno (H2O2) ó pentóxido de vanadio (v2O5). Las mezclas de ácidos más usadas son ácido nítrico/ácido perclórico (HNO3/HClO4) y ácido nítrico/ácido perclórico/ácido sulfúrico (HNO3/HClO4/H2SO4). Las descomposiciones ácidas pueden llevarse a cabo en: – Recipientes abiertos, como vasos o cápsulas, que pueden ser de vidrio, teflón, platino (cuando se usa ácido fluorhídrico (HF)) u oro (cuando se emplea ácido fosfórico (H3PO4) a temperaturas superiores a 300 ºC). El aporte de energía a las muestras puede realizarse por calefacción convencional, microondas o luz ultravioleta. Este sistema obliga a elevados consumos de reactivos, que puede generar problemas con los blancos, contaminación de muestras o volatilización de las mismas, por otro lado las temperaturas están limitadas y los tiempos de digestión son largos. – Recipientes cerrados, suelen ser reactores de teflón (con mezclas de ácido fluorhídrico) o cuarzo. El calentamiento de las muestras puede ser por calefacción convencional o microondas. Este sistema aumenta la temperatura del medio, lo que disminuye el tiempo necesario para la digestión, no hay volatilización y se reducen los riesgos de contaminación de las muestras, el consumo de reactivos es menor y se está obligado a trabajar con una cantidad de muestra limitada.
6.6.2.2. Mineralización por vía seca mediante fusiones Las fusiones tienen lugar a elevada temperatura y provocan profundos cambios en la estructura de los sólidos por recombinación de los iones. La velocidad y efectividad de la descomposición depende de factores como el área superficial del fundente y de los compuestos a disgregar, carácter químico del fundente y propiedades del sólido a disolver: energía de sus enlaces, potenciales redox, carácter ácido o básico, etc.
Análisis químico: espectroscopía de absorción y emisión atómica…
257
La fusión suele emplearse cuando la disgregación ácida no consigue disolver los compuestos de interés o para separar grupos de elementos a analizar aprovechando las diferencias de solubilidad. La descomposición con fundentes puede conducir a productos solubles o a especies más fáciles de disolver en medios ácidos. El fundente debe encontrarse en exceso en proporción con la muestra. Las reacciones que tienen lugar en la mezcla de sales fundidas son ácido-base o redox, atendiendo a esto los fundentes más empleados se pueden clasificar: – Fusiones alcalinas: carbonatos, boratos e hidróxidos • Hidróxidos alcalinos: NaOH, KOH. El hidróxido sódico (NaOH) funde a 323 ºC y permite la disgregación de numerosos silicatos, vidrios, fosfatos, sulfatos. El hidróxido potásico (KOH) funde a 406 ºC, tiene las mismas aplicaciones que hidróxido sódico (NaOH) pero su acción es algo más enérgica por su punto de fusión más elevado. El inconveniente de este reactivo radica en la solubilidad menor de las sales potásicas que las sódicas. Requiere crisoles de oro, plata o níquel. • Carbonatos alcalinos: Na2CO3, K2CO3, Na2CO3-K2CO3. Desde un punto de vista químico el carbonato sódico es menos activo que los álcalis cáusticos, pero su punto de fusión de 852 ºC le permite disgregar materiales variados. Es el fundente más utilizado en la puesta en disolución de silicatos naturales. El carbonato potásico funde a 891 ºC, pero se utiliza poco de forma aislada por ser higroscópico. La mezcla de carbonatos sódico y potásico equimolar funde a 700 ºC, y se recomienda para disgregar muestras naturales con componentes volátiles que se desean analizar cuantitativamente. Se utilizan habitualmente crisoles de Pt. • Metaborato y tetraborato de litio: LiBO2, Li2B4O7, LiBO2-Li2B4O7. Los compuestos de boro son fundentes mucho más enérgicos que los precedentes. Los componentes de la muestra se transforman en metaboratos vítreos fácilmente solubles en ácidos. El metaborato de litio (LiBO2) con temperatura de fusión 850 ºC es adecuado para óxidos ácidos y el tetraborato de litio (Li2B4O7), que funde a 920 ºC está indicado para óxidos básicos. Se puede emplear cualquier mezcla de ambos en proporciones variables para compuestos intermedios. Se emplean cuando hay que analizar un volumen considerable de muestras por la rapidez de las fusiones. Permite la determinación de sodio y potasio en las muestras y disminuye el riesgo de polimerización del ácido silícico durante la digestión del fundido con lo que la sílice permanece soluble. Los crisoles de Pt son los más usados. • Carbonato sódico (Na2CO3) + compuestos de boro: B2O3, H3BO3, NaBO2, Na2B4O7. Mezclados con carbonato sódico aseguran la puesta en solución de materiales altamente refractarios. El inconveniente de este tipo de ataque radica en la introducción de boro en la solución problema, puesto que este elemento interfiere en ciertas determinaciones del análisis convencional. Los crisoles de Pt son adecuados. • Carbonato sódico (Na2CO3) + óxido refractario: MgO, MnO2, ZnO. Al carbonato sódico se le añade una cantidad de un óxido refractario para que tengan lugar reacciones de disgregación en estado sólido. El óxido de zinc es el más utilizado. Crisoles de platino.
258
Técnicas de análisis y caracterización de materiales
• Carbonato sódico (Na2CO3) + Nitrato sódico (NaNO3) (ó KNO3). Se emplea fundamentalmente en silicatos. Crisoles de platino. – Fusiones ácidas, con disulfatos, fluoruros y óxidos de boro • Sulfatos ácidos y pirosulfatos alcalinos. Los bisulfatos alcalinos pierden con facilidad agua transformándose en pirosulfatos, en el caso del potasio esto ocurre a 200 ºC, descomponiéndose a 350 ºC. En las reacciones que tienen lugar se produce trióxido de azufre (SO3) naciente que a temperatura elevada posee una fuerte reactividad que permite la puesta en solución de óxidos y minerales, fosfatos y escorias. En todos los ataques la sílice queda insoluble, por eso no se emplea en muestras con óxido de silicio, boro, plomo y estroncio. Es compatible con crisoles de platino o porcelana. • Fluoruros alcalinos o amónicos. • Carbonato sódico (Na2CO3) + Cloruro amónico (NH4Cl). Para descomponer algunos silicatos. Crisoles de níquel. – Fusiones oxidantes, con fundentes alcalinos y oxidantes, peróxidos • Peróxido de sodio: Na2O2. Es el agente fundente y oxidante por excelencia. Se descompone y funde a 460 ºC permitiendo las mismas disgregaciones que la sosa, pero llevando todos los elementos a su grado de oxidación superior estable. Su aplicación es muy extensa: minerales, aleaciones, aceros, óxidos refractarios y geoquímica en general. Incompatible con el uso de crisoles de platino, tienen que utilizarse de hierro o níquel previamente protegidos con carbonato fundido. – Fusiones reductoras, con fundentes alcalinos y reductores, azufre y álcali • Carbonato sódico (Na2CO3) + Azufre (S). Este ataque es prácticamente específico para aquellos materiales que contengan fundamentalmente óxidos de arsénico, antimonio y estaño en su composición. Estos compuestos forman con el fundente polisulfuros solubles en medio alcalino. En las muestras orgánicas y biológicas solo se recurrirá a las fusiones cuando tengan un elevado contenido en constituyentes inorgánicos. Los fundentes serán de naturaleza oxidante: pirosulfatos alcalinos, peróxido de sodio (Na2O2), y a veces hidróxido sódico (NaOH), fluoruro potásico (KF) y metaborato de litio (LiBO2). La utilización de fundentes en los ataques aporta elevadas cantidades de sales a las soluciones de las muestras. Por supuesto no se podrán determinar los elementos del disgregante en la muestra. Los ataques suelen ser más activos que las digestiones ácidas, pero producen una impurificación variable del metal que constituye el crisol, a la solución de la muestra y un efecto matriz de los propios fundentes. Para paliar este inconveniente se diluyen bastante las muestras una vez fundidas y disueltas en ácido. Actualmente se comercializan equipos para la realización automática y simultánea de 3 o más fusiones con programación de temperaturas, tiempos, agitación, caudales y tipo de gas, y posterior disolución del fundido en medio ácido. Estos robots de fusión han acelerado los procesos de fusión frente a la realización manual en mechero o en mufla, con la única limitación de la menor versatilidad en cuanto a combinaciones de crisoles y sales fundentes disponibles para acoplar en los equipos.
Análisis químico: espectroscopía de absorción y emisión atómica…
259
6.6.2.3. Mineralización por vía seca mediante calcinación Es un procedimiento indicado para muestras orgánicas y biológicas, como paso previo de mineralización; también se puede utilizar para eliminar los componentes orgánicos de una muestra inorgánica. La calcinación puede realizarse a baja o a alta temperatura. En el primer caso (50-100 ºC), la oxidación se lleva a cabo en corriente de oxígeno a baja presión. La ventaja de este sistema es que no hay riesgo de pérdidas por volatilización. Sin embargo, los costes de los equipos son elevados, los tiempos de calcinación largos (≈36 h) y la capacidad de procesar muchas muestras es baja. A altas temperaturas, 500-700 ºC (dependiendo de la naturaleza del material), la muestra se oxida por acción del aire. A veces se añaden aditivos que facilitan el proceso con diferentes objetivos como catalizar la reacción con oxidantes o prevenir volatilizaciones. Se realiza normalmente en cápsulas de porcelana o de Pt y no requiere atención constante, puede durar 2-24 h, disolviéndose el residuo con descomposiciones ácidas o fusiones alcalinas.
6.6.3. digestión con microondas La radiación microondas, de la que hace uso esta técnica de digestión, fue descrita a mediados del siglo xx y los primeros equipos se comercializaron hacia 1975 para uso doméstico y una década después a nivel de laboratorio, una vez estudiadas y habilitadas las necesarias medidas de seguridad. En la actualidad existen en el mercado hornos adaptados a las exigencias y necesidades de cualquier laboratorio, que permiten la preparación de muestras tanto orgánicas como inorgánicas y presentan una serie de ventajas sobre otras técnicas de preparación más convencionales como son rapidez y menor coste efectivo, reproducibilidad de condiciones, sin pérdida de volátiles, sin contaminación, sin humos o vapores (Figura 6.36).
Absorbente de energía Guía de ondas MW
Magnetrón
Microondas reflejadas
Plato giratorio
Figura 6.36. Horno microondas (adaptada de Milestone s.l.r.).
260
Técnicas de análisis y caracterización de materiales
Debido a las características de las microondas: penetración y capacidad de calefacción de los materiales (factor de disipación), velocidad de propagación, etc., se requiere una cuidadosa elección de los materiales de trabajo, que se pueden clasificar en: – Reflejantes, reflejan las microondas y nunca llegan al material que se quiere calentar. La penetrabilidad es nula y no son adecuados para recipientes, se emplearán en la construcción de las paredes de los hornos. Ejemplo son los metales. – Transparentes, permiten que las microondas pasen a través de ellos absorbiendo poca o ninguna energía. La penetrabilidad es infinita, por tanto no se calientan y son ideales para recipientes de digestión con microondas. Ejemplos son los teflones y otros polímeros. – Absorbentes, los materiales que contengan iones libres o moléculas con momento dipolar son capaces de absorber la energía de las microondas y se calentarán. Su penetrabilidad es media. Las disoluciones acuosas de ácidos concentrados, agua y algunos disolventes orgánicos son un ejemplo. Así pues, el calentamiento por microondas está basado en la absorción directa de su energía por una muestra, siendo instantánea la liberación de calor en la masa. En consecuencia, los tiempos de reacción son mucho más cortos.
6.6.3.1. Mecanismos de calefacción mediante microondas Como ya se ha comentado, las sustancias polares se calientan más rápidamente mediante las microondas que por cualquier otro método, ya que tienen capacidad de penetrar en una muestra y calentar la totalidad de un líquido debido a dos mecanismos: la rotación dipolar y la conducción iónica. – Rotación dipolar: las moléculas iónicas poseen naturaleza dipolar, por lo que se forma un campo eléctrico alrededor de ellas que cuando interacciona con el campo eléctrico de una microonda puede hacerla girar. Los momentos dipolares de las moléculas están orientados al azar en ausencia de campos eléctricos externos, pero en presencia de un campo eléctrico se crea un momento de giro en cada molécula obligándola a rotar primero en una dirección y luego en la opuesta debido al carácter oscilante del campo eléctrico de la microonda. La elevada frecuencia de las microondas (2.450 MHz) obliga a la molécula a girar sobre su eje para alinearse con el campo 2,45 billones de veces por segundo. El elevado número de oscilaciones del campo produce un gran número de giros de las moléculas y consecuentemente colisiones entre ellas, causando una fricción intensísima que se traduce en un rápido calentamiento del medio. Estas colisiones aumentan la energía cinética y, por tanto, la temperatura del líquido. – Conducción iónica: los iones presentes en la disolución migran primero en una dirección, hacia la fase positiva del campo y luego en la contraria, y así sucesivamente. En su movimiento colisionan con otras moléculas del líquido aumentando la temperatura mediante este mecanismo. Cada ión en solución contribuye a la conducción según su concentración relativa y su movilidad en el medio. El factor de disipación aumenta con la concentración de sales y con la temperatura.
Análisis químico: espectroscopía de absorción y emisión atómica…
261
6.6.3.2. Aplicaciones de las microondas El desarrollo que ha alcanzado el uso de las microondas en el tratamiento de muestras para su análisis obedece fundamentalmente al ahorro de tiempo que supone frente a los métodos tradicionales. En la actualidad estos equipos incorporan sistemas para el control de la presión interna en los vasos, estimación de la temperatura de la disolución sin sondas en contacto con la muestra y agitación de la mezcla reactiva (Figura 6.37); estos dispositivos permiten conocer mejor los procesos químicos que tienen lugar en cada vaso de reacción y la optimización del procedimiento de digestión o extracción que tiene lugar.
Control de pesión por luz polarizada
Control de pesión por luz polarizada
Figura 6.37. vaso de microondas cerrado con dispositivos de medida de presión y temperatura (adaptada de Berghof, www.inycom.es).
6.6.3.2.1. Digestión de muestras Los equipos de digestión de muestras por microondas se utilizan para disgregar muestras de muy diversa naturaleza y su posterior análisis elemental. Estas mineralizaciones se pueden llevar a cabo en recipientes cerrados o abiertos, aunque estos son mucho menos habituales y versátiles quedando reservados para aplicaciones muy concretas. – En recipientes cerrados, bajo presión. Cuando interaccionan las microondas con una determinada mezcla ácida en la que se encuentra la muestra sólida, esta se calienta y comienza el proceso de digestión, se liberan gases que aumentan la presión y temperatura. Debido a las altas presiones de trabajo, las temperaturas de ebullición de los ácidos son mayores (diferencia con los ataques a presión atmosférica). Otro aspecto interesante de este sistema es la capacidad para evitar pérdidas de elementos volátiles. Al minimizar la evaporación se opera con menores volúmenes de reactivos.
Técnicas de análisis y caracterización de materiales
262
– En recipientes abiertos, a presión atmosférica. Son equipos que utilizan radiación microondas focalizada en la muestra, se aplica a muestras difíciles, que requieren un prolongado tiempo para completar la digestión o la adición dosificada de reactivos. 6.6.3.2.2. Extracción Esta aplicación de la radiación microondas para la extracción con disolventes es de más reciente desarrollo. Los principios en los que se basa son similares a los descritos en el proceso de digestión para conseguir acortar los tiempos de tratamiento. Se lleva a cabo en un digestor con vasos cerrados y control de temperatura y presión. Los hornos microondas más modernos que se encuentran en el mercado permiten trabajar a elevadas presiones, con óptimos diseños de los vasos de reacción que van evolucionando con los años.
6.7. análisis eleMenTal Carbono, hidrógeno, nitrógeno y azufre son, sin lugar a duda, los elementos que centran el interés en la mayoría de las aplicaciones orgánicas. Como ya se ha visto previamente, por espectrometría de absorción y emisión atómica es imposible ver carbono e hidrógeno, la cuantificación de nitrógeno es prácticamente imposible, puesto que es fácil la contaminación; en cambio el azufre se cuantifica sin problemas por ICP-OES, siempre que se disponga de un detector de Uv y una óptica purgada con gas inerte (Figura 6.38).
Filtro polvo de metal
Horno de inducción
Trampa H2O
Trampa CO2
Sistema purificación
O2 portador
Trampa H2O
O2
CO CO2 SO2 O2
Muestra Controlador de flujo electrónico
Celda IR para SO2
Transformación CO CO2 O2 SO4
Trampa SO3 Unidad electrónica integrada: • Pesada de la muestra • Controles de flujos • Controles de temperaturas • Registro de lecturas IR • Etc.
Celda IR para baja concentración de CO2 CO2
Celda IR para alta concentración de CO2
Salida
Figura 6.38. Esquema de un analizador elemental para azufre y carbono con detectores IR.
Análisis químico: espectroscopía de absorción y emisión atómica…
263
En algunos casos es necesaria la determinación de oxígeno y se ha de recurrir a otro tipo de análisis, puesto que no es detectable por espectrometría de absorción y emisión atómica. En cuanto a los halógenos, solo cloro se puede cuantificar por ICP-OES aunque con escasa sensibilidad; el resto, flúor, bromo y iodo, aunque la bibliografía describe condiciones espectroscópicas para su determinación, requieren condiciones específicas de análisis y presentan muy baja sensibilidad, por lo que se recurre a otros métodos para su evaluación, como electrodos selectivos u otros métodos eléctricos como valoraciones amperométricas.
6.7.1. determinación de carbono, hidrógeno y nitrógeno Los compuestos orgánicos están constituidos mayoritariamente por carbono e hidrógeno; por tanto, es extremadamente importante la determinación precisa de estos elementos. El principal método para la determinación de carbono, hidrógeno y nitrógeno es la técnica de microcombustión. Los analizadores elementales automatizados realizan la operación de manera programada para un carrusel de muestras, el seguimiento de la composición se hace a partir de las medidas de los gases de combustión. El análisis implica varias etapas: 1. Etapa de desgasificación en la que se eliminan de la muestra previamente pesada los gases que puedan interferir en la determinación. 2. Etapa de combustión en flujo de oxígeno puro a 900 ºC. Se pesa el residuo. Los posibles productos de combustión de un compuesto orgánico son dióxido de carbono, vapor de agua, nitrógeno, óxidos de nitrógeno (NOx) y de azufre (SOx). 3. Se eliminan los elementos que puedan interferir. En la determinación de carbono e hidrógeno interfieren azufre, halógenos y nitrógeno. 4. Se mide el dióxido de carbono (CO2), nitrógeno y vapor de agua formado. Las técnicas para separar y medir los componentes de los gases de combustión son varias: cromatografía de gases, detección por conductividad térmica, detección por celda de infrarrojos o detección coulombimétrica. Todas las técnicas de determinación requieren una separación previa, bien mediante retención en columnas o por transformación en otros compuestos derivados.
6.7.1.1. Analizadores de carbono total y carbono orgánico total Estos analizadores aspiran la muestra en disolución a una cámara de alta temperatura donde es quemada con una corriente de nitrógeno con un porcentaje constante de oxígeno. Todos los componentes oxidables se queman hasta sus estados de oxidación estables y el carbono tanto orgánico como inorgánico se convierte en dióxido de carbono (CO2), se purifica y se analiza en una celda de infrarrojo.
264
Técnicas de análisis y caracterización de materiales
Paralelamente se trata una muestra con ácido, que oxida el carbono inorgánico a dióxido de carbono (CO2) y se elimina, se procede como se ha descrito previamente resultando la determinación de carbono orgánico.
6.7.1.2. Determinación Kjeldahl de nitrógeno La muestra se digiere para destruir la materia orgánica y transformar el nitrógeno en amonio, este se recoge en una disolución ácida y el exceso de ácido que no se ha neutralizado se valora. Los compuestos con enlaces nitrógeno-oxígeno o nitrógeno-nitrógeno deben pretratarse antes de la digestión Kjeldahl. También en presencia de altas concentraciones de haluros pueden facilitar la oxidación de amoniaco a nitrógeno. Se han comercializado analizadores automáticos basados en la digestión Kjeldahl con detector fotométrico que evitan cualquier manipulación tediosa y larga de la muestra.
6.7.2. determinación de azufre La determinación de azufre sigue los principios básicos descritos para el análisis de carbono, hidrógeno y nitrógeno. La muestra, sólida o líquida, pesada se somete a una corriente de oxígeno que oxida la materia orgánica a dióxido de carbono (CO2), agua, dióxido de azufre (SO2) y trióxido de azufre (SO3). Un incremento de temperatura hasta 1.350 ºC asegura el desplazamiento hacia la formación de dióxido de azufre (SO2). La determinación de azufre tras la oxidación puede hacerse por varios métodos: detector infrarrojo, es un método simple y directo, o valoración amperométrica.
6.7.3. determinación de oxígeno La determinación de oxígeno se lleva a cabo en un tubo de cuarzo para pirólisis, en atmósfera de helio se calienta a 900 ºC, todo el oxígeno de la muestra forma monóxido de carbono (CO), que se transforma en dióxido de carbono (CO2) y se mide según lo descrito previamente.
6.7.4. equipos comerciales Se encuentran comercializados equipos para macroanálisis, cuando la muestra orgánica es de gran tamaño y de naturaleza heterogénea, así como de microanálisis cuando se disponen de escasos miligramos para la determinación elemental. La determinación de carbono, hidrógeno, nitrógeno, azufre y oxígeno se lleva a cabo en pocos minutos en los equipos comerciales; están equipados con celdas de infrarrojo para la cuantificación de carbono, hidrógeno, azufre y oxígeno (Figura 6.39) y celdas de conductividad térmica para nitrógeno.
Análisis químico: espectroscopía de absorción y emisión atómica…
265
Figura 6.39. Equipo comercial de análisis elemental (Eltra en www.equilab.es).
Leco, Horiba, Eltra, Analytik-jena tienen equipos muy competitivos en este campo.
bibliOGrafía 1. SkooG, d. a.; Holle, F. J.; NieMan, t. a. Principles of Instrumental Analysis, 5.a ed., McGraw-Hill, 1998. 2. Boss, C. B.; Fredeen, K. j. Concepts, Instrumentation and Techniques in Inductively Coupled Plasma Optical Emission Spectrometry, 2.a ed., Perkin-Elmer, 1997. 3. Hernández Hernández, L.; González Pérez, C. Introducción al Análisis Instrumental, 1.ª ed., Ariel, Barcelona, 2002. 4. Montaser, A.; GoliGhtly, D. W. Inductively Coupled Plasmas in Analytical Atomic Spectrometry, 2.a ed., vCH, 1992. 5. XiMénez, L. Espectroscopía de Absorción Atómica, vols. I y III, Publicaciones Analíticas, 1980. 6. Dean, j. A. Analytical Chemistry Handbook, McGraw-Hill, 1995. 7. ThoMPson, K. C., Reynolds, R. j. Absorption, Fluorescence and Flame Emission Spectroscopy. A practical approach, Charles Griffin & Company Ltd., 2.a ed., 1978. 8. SbulCek, Z.; Povondra, P. Methods of Decomposition in Inorganic Analysis, C. R. C. Press, Inc., 1989.
266
Técnicas de análisis y caracterización de materiales
9. KinGston, H. M.; jassie, L. B. Introduction to Microwave Sample Preparation, Washington, American Chemical Society, 1988. 10. Ayres, G. H. Análisis Químico Cuantitativo, Ediciones del Castillo, Madrid, 1970. 11. Burriel, F. et ál. Química Analítica Cualitativa, Paraninfo, Madrid, 1983. 12. Hollas, j. M. Modern Spectroscopy, john Wiley and Sons, 2.a ed., 1993. 13. LaMothe, P. j.; Fries, T. L.; Consul, j. j. «Evaluation of a microwave oven system for the disolution of geologic samples», Anal. Chem. 58 (1986), pp. 1.8811.886. 14. CáMara, C. «Calidad en la toma y tratamiento de la muestra», cap. II, en M. valcárcel y A. Ríos (eds.), La calidad de los laboratorios analítico, Reverté, Barcelona, 1992. 15. workMan, j. jr.; sPrinGteen, A. (eds.). Applied Spectroscopy. A Compact Reference for Practitioners, Academic Press, 1998. 16. Handbook of analytical methods for materials: http://mee-inc.com/chemicalanalysis.html. 17. Inorganic ventures: www.inorganicventures.com/tech/ (Notas de aplicación y recomendaciones de tratamiento de muestra. Comercialización de patrones). 18. Analytik jena y Berghof: www.inycom.es (Instrumentación analítica). 19. Analytik jena: www.analytik-jena.com (Instrumentación analítica). 20. Perkin Elmer: www.perkinelmer.com (Instrumentación de Espectrocopía). 21. varian Inc. (Agilent Technologies): www.varianinc.com (Instrumentación de Espectroscopía). 22. Anton Paar: www.anton-paar.com/Digestion-System (Notas de aplicación. Hornos microondas). 23. Milestone: www.milestonesci.com/dig-resources.php (Métodos de digestión de muestras. Hornos microondas). 24. Cetac: www.cetac.com (Nebulizador ultrasónico). 25. Claisse: http://www.claisse.com (Robot de fusiones. Notas de aplicación). 26. Horiba Instruments: http://www.horiba.com/es (Instrumentación analítica). 27. Eltra: http://www.eltragmbh.com (Análisis Elemental). 28. Leco: http://www.leco.com (Análisis Elemental).
aGradeciMienTOs Agradezco a las distintas representaciones comerciales las facilidades ofrecidas para reproducir algunos de sus equipos y accesorios, en especial a Perkin Elmer Inc., varian Inc., Anton Paar GmbH e Inycom (Analytik jena y Berghof), por aportar su documentación.
7. esPecTrOMeTría de Masas Manuel oJeda Pineda Manuel lóPez Granados Instituto de Catálisis y Petroleoquímica (CSIC)
En el año 1897 Sir joseph Thompson descubrió que los rayos catódicos podían desviarse mediante un campo eléctrico superpuesto a otro magnético. Este descubrimiento se considera como el nacimiento de la espectrometría de masas. El propio Thompson estaba convencido de que esta técnica jugaría un papel relevante en el análisis químico. Hoy día, los equipos modernos no se parecen en nada al equipo diseñado y construido por Thompson, pero el fundamento y los conceptos generales que permitieron a Thompson realizar sus descubrimientos siguen siendo los mismos en los que se basan los más modernos y sofisticados espectrómetros de masas.
7.1. PrinciPiOs básicOs de la esPecTrOMeTría de Masas Los principios básicos de la espectrometría de masas son los siguientes (Figura 7.1): – Es una técnica basada en el análisis y detección de iones. Como hábilmente descubrió Thompson, la trayectoria de los iones es mucho más fácil de manipular y controlar que la de los átomos o moléculas neutras. – Por lo tanto se necesita una primera etapa de ionización que convierta átomos o moléculas en especies iónicas gaseosas. Esta primera etapa se puede hacer en dos pasos (uno primero de vaporización y otro de ionización propiamente dicha) o en un solo paso en el que los dos procesos ocurren simultáneamente. La selección de uno u otro depende del estado de agregación de la muestra o de la volatilidad de sus componentes. La fragmentación del ión en iones más pequeños puede producirse o no; dependiendo de la agresividad del método de ionización empleado. En caso de que se produzca la fragmentación se podrá deducir de ella información estructural de la molécula original. – En una segunda etapa se necesita separar o analizar los iones formados mediante diferentes analizadores y/o filtros basados en fundamentos físicos de diferente naturaleza que permite separar y discriminar los diferentes iones presentes en la muestra iónica gaseosa. La separación no solo se hace en función de la carga sino también en función de su masa, es decir, en función de la relación masa/carga del ión (m/z).
Técnicas de análisis y caracterización de materiales
268
– En una tercera etapa se procede a la detección de los iones formados y separados en forma de espectro de masas en función de la relación m/z de los diferentes iones detectados. Ionización
Fragmentación
Aceleración
m/z Átomos o moléculas de la muestra
Átomos o moléculas ionizados
Iones Separación fragmentados
Análisis y Espectro registro de masas de datos
Figura 7.1. Etapas básicas en un espectrómetro de masas.
Estos principios básicos definen los diferentes componentes de un espectrómetro de masas (Mass spectrometer, MS). Independientemente del tipo de espectrómetro de masas, todos tienen los siguientes componentes (véase Figura 7.2): Control informatizado Gaseo líquidos volátiles (EI, CI o FI)
Fuente iónica
Líquidos o sólidos (APcl, ESI, MALDI, FAB, LSIMS, etc.)
Analizador de iones
Detector
Sistema de vacío
Figura 7.2. Componentes básicos de un espectrómetro de masas.
– Un sistema de introducción de muestra. – Un sistema de ionización. – Un analizador de iones.
Espectrometría de masas
269
– Un detector de fragmentos iónicos. – Un sistema computerizado de control automatizado del equipo y de adquisición y manipulación de datos. – Un sistema o varios para mantener las diferentes zonas que atraviesan los iones en un régimen de alto vacío. En resumen la espectrometría de masas es una técnica analítica de iones que identifica compuestos gaseosos, líquidos y sólidos, que permite medir su masa molecular, que puede proporcionar información estructural, y que proporciona información cuantitativa hasta niveles inimaginables hace unos años. Incluso puede utilizarse en estudios de dinámica de reacciones iónicas o dar información de propiedades físicas como energía de ionización, entalpía de reacción, afinidades iónicas o de protón o incluso para verificar cálculos de orbitales moleculares basados en predicciones teóricas.
7.2. esPecTrOMeTría de Masas Para el análisis de Gases La espectrometría de masas se basa fundamentalmente en la ionización de moléculas en fase gaseosa seguida de la separación y detección de los iones generados. A continuación, se explica en detalle el análisis de muestras gaseosas mediante espectrometría de masas.
7.2.1. Métodos de ionización de gases Tal como se ha indicado anteriormente, la ionización o formación de un ión del analito es el primer paso en el análisis de cualquier tipo de compuesto gaseoso mediante espectrometría de masas. De hecho, gran parte del éxito de esta técnica radica en la conversión de un compuesto gaseoso neutro en especies iónicas de un modo efectivo y reproducible. Existen diversas técnicas de ionización, aunque ninguna de ellas posee un carácter universal. La elección del método de ionización más adecuado para una aplicación concreta viene dada fundamentalmente por las propiedades físico-químicas del analito o analitos de interés (volatilidad, peso molecular, estabilidad térmica, complejidad de la matriz que incluye el analito). A continuación se describen las técnicas de ionización más comunes que se aplican a moléculas en fase gaseosa.
7.2.1.1. Ionización por impacto electrónico La ionización por impacto electrónico (electron ionization, EI) es el método más desarrollado y utilizado en espectrometría de masas. Se basa en la interacción de un haz de electrones energéticos (generalmente del orden de 70 ev) con la muestra gaseosa a baja presión (10–7-10–5 torr). La colisión de la corriente de electrones con la molécula objetivo (M) genera un ión positivo como consecuencia de la extracción de
Técnicas de análisis y caracterización de materiales
270
un electrón de la molécula analito [ecuación 7.1]. Este ión positivo se denomina ión molecular y se representa generalmente por el símbolo M+•: M + e– → M+• + 2e–
[7.1]
Tal como se explicará posteriormente, el valor de la relación masa/carga (m/z) determinado por espectrometría de masas constituye una medida directa de la masa molecular ya que la masa del electrón es prácticamente despreciable. Además de la formación del ión molecular, el haz de electrones energéticos puede provocar también la ruptura de este en fragmentos iónicos más pequeños. Asimismo, los diferentes iones pueden transformarse en otros diferentes mediante procesos de reordenamiento molecular. En cualquier caso, es importante señalar que el patrón de fragmentación que se obtiene es reproducible y característico de la estructura de la molécula analito, y por tanto, el espectro constituye una «huella» inequívoca de la identidad de la muestra problema. En cuanto al dispositivo de ionización por impacto electrónico, este se realiza en el interior de una cámara metálica a alto vacío (Figura 7.3). Los electrones ionizantes se generan por calentamiento de un filamento fino (cátodo) de un material conductor y resistente a altas temperaturas (Re, W, Ir-Th, LaB6). De esta forma, se produce un flujo de electrones que son colimados por una serie de rendijas y que los acelera a la energía cinética requerida por la acción de la diferencia de potencial aplicado (normalmente 70 V). El impacto de este flujo electrónico con las moléculas a analizar genera su ionización. El número de electrones generado en el filamento se puede controlar con la temperatura del filamento, mientras que el potencial aplicado determina su energía. La dirección de los electrones ionizantes es perpendicular a la trayectoria de las moléculas de analito, y por medio de un sistema magnético se consigue que los electrones recorran una trayectoria en espiral para así maximizar la probabilidad de colisión. Posteriormente, los iones positivos formados en la cámara de ionización son desalojados por acción de un pequeño campo electrostático formado entre las placas repulsoras y una serie de rendijas de aceleración que además coliman los iones producidos hacia el analizador. e-
muestra
rendijas salida e-
e-
repulsor
e10-5-10-7 torr e- (70 eV)
Figura 7.3. Esquema simplificado de un ionizador por impacto electrónico.
Espectrometría de masas
271
La ionización por impacto electrónico suele producir una fragmentación relativamente elevada de las moléculas a analizar. Este hecho puede considerarse en general como una ventaja, ya que facilita la identificación inequívoca de sustancias y la determinación de la estructura molecular. La Figura 7.4 muestra los espectros de masas obtenidos por impacto electrónico de dos moléculas orgánicas sencillas: etilbenceno y cloruro de metileno. En ambos casos, los picos del ión molecular aparecen a la masa correspondiente al peso molecular del analito. Así, se observan picos de iones moleculares a relaciones m/z iguales a 106 y 84 para el etilbenceno y el cloruro de metileno, respectivamente. El pico del ión molecular es, naturalmente, de gran importancia en las determinaciones estructurales, debido a que su masa proporciona el peso molecular del analito. Sin embargo, la reducida intensidad o incluso la ausencia de este pico pueden dificultar en algunos casos la interpretación de los espectros y la determinación del peso molecular. El pico más intenso en un espectro de masas se llama pico base, y en algunos casos corresponde a un fragmento de la molécula con una masa significativamente menor que el peso molecular del compuesto original. Por ejemplo, para el caso de etilbenceno, el pico base aparece a una relación m/z = 91, que corresponde al ión formado por la pérdida de un grupo CH3. En el caso del cloruro de metileno, el pico base aparece a una relación m/z = 49, correspondiente a la pérdida de un átomo de 35C1. Normalmente, los picos base en espectros de impacto de electrones corresponden a fragmentos en lugar del ión molecular. Es también interesante señalar que en los espectros mostrados en la Figura 7.4 aparecen picos a masas que son mayores que la del ión molecular. Estos picos se pueden atribuir a iones que tienen la misma fórmula química, pero diferentes composiciones isotópicas. Por ejemplo, para el cloruro de metileno, las especies isotópicas más importantes son 12C1H235Cl2 (m = 84), 13C1H235Cl2 (m = 85), 12C1H235Cl37Cl (m = 86), 13C1H235Cl37Cl (m = 87) y 12C1H237Cl2 (m = 88). Como se verá posteriormente, los picos de los isótopos de los átomos que forman las moléculas proporcionan a menudo un medio útil para la determinación de la fórmula de un compuesto. 120
120 Pico base 91 + (C6H5-CH2 )
+
Pico base (CH2CI2 )
80 60
40
49
100
+
(C6H5-CH2CH3 ) 106
20
Abundancia relativa
Abundancia relativa
100
80 +
+
CH2CI2 (M ) 60
40 20
0
0 20
40
60
80 m/z
100 120 140
20
40
60
80
100
120
m/z
Figura 7.4. Espectros de masas por impacto electrónico de etilbenceno (a) y cloruro de metileno (b).
Técnicas de análisis y caracterización de materiales
272
7.2.1.2. Ionización química La ionización química (chemical ionization, CI) es un tipo de ionización menos energética que el impacto electrónico y por consiguiente, es una opción interesante para analizar aquellos compuestos que no originan un ión molecular mediante el método de ionización electrónica debido a una excesiva fragmentación del ión molecular. Conceptualmente, la ionización química se produce a través de una serie de reacciones ácido-base en fase gas entre las moléculas de analito y los iones de un gas reactivo. La ionización química ocurre en tres pasos. En el primer paso, el gas reactivo, cuya presión parcial es 10-100 veces superior a la del analito, se ioniza mediante el bombardeo con un haz de electrones (200-500 ev). A continuación, se producen uno o más iones estables mediante reacciones ión-molécula. Finalmente, las moléculas de analito se ionizan por acción de estos iones estables. A modo de ejemplo, consideremos el uso de metano como gas reactivo para la ionización química. En primer lugar, se produce la ionización de las moléculas de metano por impacto electrónico: CH4 + e– → CH+• + 2 e– (+ CH+3 + otro iones) 4
[7.2]
Posteriormente se forman los iones estables del gas reactivo, es decir: CH4 + CH4+• → CH5+ + CH3•
[7.3]
CH4 + CH → C2H + H2
[7.4]
+ 3
+ 5
Finalmente, tiene lugar la ionización de las moléculas de analito según uno o varios de los siguientes procesos: i. transferencia protónica: M + CH5+ → [M+H]+ + CH4
[7.5]
ii. formación de aductos: M + CH5+ → [M+CH5]+
[7.6]
M + C2H5+ → [M+C2H5]+
[7.7]
iii. abstracción de iones hidruro: M + C2H5 → [M-H] + C2H6 +
+
[7.8]
Los iones reactivos formados en las ecuaciones [7.3] y [7.4] actúan como ácidos tipo Brønsted. La ionización de las moléculas de analito tiene lugar a través de una variedad de reacciones ión-molécula. La más importante es la transferencia protónica para originar iones [M + H]+. Esta reacción ocurre cuando la afinidad protónica de la molécula analito es superior a la del metano. También se pueden formar aductos del tipo [M + CH5]+ o [M + C2H5]+, aunque estas reacciones ocurren en menor proporción. Finalmente, la abstracción de iones hidruro para formar [M – H]+ también ocurre en ciertos compuestos. Otros gases que también se usan comúnmente en la ionización química son el isobutano y el amoníaco. Energéticamente, los iones formados en la ionización química son muy diferentes de aquellos formados mediante ionización por impacto electrónico. En primer lugar,
Espectrometría de masas
273
la ionización ocurre debido a las colisiones energéticas entre las moléculas de analito y los iones reactivos. En segundo lugar, la energía de los iones formados por ionización química es rápidamente disipada mediante reacción con moléculas neutras del gas ionizador. Consecuentemente, la fragmentación de los iones producidos por ionización química es mucho menos significativa, originándose un patrón de fragmentación que contiene fundamentalmente la señal del ión molecular y quizás algunos de iones fragmento. A modo de ejemplo, la Figura 7.5 compara los espectros de masas obtenidos para la molécula de anfetamina (C9H13N; 135,2 g · mol–1) mediante el método de ionización por impacto electrónico e ionización química. En el primer caso, la fragmentación de la molécula es prácticamente completa, produciéndose concentraciones muy bajas del ión molecular (M+•, m/z = 135). Destacan los fragmentos de relación m/z igual a 44 y 91. Estos fragmentos no son exclusivos de la molécula de anfetamina, por lo que en muestras complicadas, es imposible confirmar con seguridad la presencia de anfetamina simplemente por la aparición de estos dos últimos fragmentos. Por el contrario, si se utiliza la ionización química con metano como gas reactivo, se produce en concentraciones importantes la anfetamina protonada [M + H]+ con relación m/z = 136. 120
44
80 60
40 20 0
(b) 119
100
Abundancia relativa
Abundancia relativa
100
120
(a)
56 65
40
60
120 135 80 m/z
136 (MH)+ 60 91 40
44
20
91 42
80
100
120
140
0 40
60
80
100 120 140 m/z
Figura 7.5. Espectros de masas de la molécula de anfetamina obtenidos mediante ionización por impacto electrónico (a) e ionización química (b).
7.2.1.3. Foto-ionización La foto-ionización (photoionization, PI) ocurre cuando una molécula gaseosa se irradia con un haz de fotones de energía conocida. La fuente de foto-ionización e ionización electrónica son similares, usándose bien un haz de fotones o de electrones.
274
Técnicas de análisis y caracterización de materiales
La mayoría de los compuestos orgánicos requieren una energía en el rango 8-10 ev para expulsar un electrón desde los orbitales moleculares ocupados más externos (HOMO). Por tanto, la corriente de fotones se obtiene con una lámpara de radiación ultra-violeta a alto vacío. La posibilidad de seleccionar la energía de la radiación fotónica en función de la lámpara usada permite controlar en cierta medida el grado de fragmentación de las moléculas de analito, por lo que se facilita la identificación estructural.
7.2.1.4. Ionización por campo La ionización por campo (field ionization, FI) se produce cuando las moléculas en fase gas de la muestra se hacen pasar por una región en la que existe un campo eléctrico fuerte del orden de 108 v cm–1. La ionización por campo utiliza alambres emisores de W con fibras de carbono en los extremos a los que se le aplica el campo eléctrico. Dicho campo eléctrico distorsiona la nube de electrones alrededor de las moléculas de la muestra y provoca la disminución de la energía requerida para expulsar un electrón. De esta forma, se produce un ión M+• por efecto túnel de este electrón hacia la correspondiente banda de conducción. La ionización por campo es una técnica de ionización muy suave sin apenas fragmentación que produce principalmente la señal de ión molecular. Su principal limitación es, sin embargo, la sensibilidad, ya que es al menos un orden de magnitud inferior al método de ionización por impacto electrónico.
7.2.2. analizadores Como se ha indicado anteriormente, el analizador de masas es uno de los componentes más importantes de un espectrómetro de masas. Es el dispositivo encargado de separar los distintos iones formados en la cámara de ionización en función de la relación masa/carga (m/z) mediante la interacción con una serie de campos eléctricos y magnéticos. La principal característica de un analizador de masas es su resolución (R), que se define como la capacidad para discriminar los diferentes iones. Así, la resolución necesaria para separar dos iones de masa m y m+Δm viene dada por R =m
Dm
[7.9]
Una mayor resolución se traduce en la práctica en una mayor capacidad para discriminar entre iones de masa similar.
7.2.2.1. Analizadores magnéticos Los analizadores magnéticos se desarrollaron a principios del siglo pasado. Su funcionamiento (Figura 7.6) se basa en la desviación controlada del haz iónico mediante un campo magnético perpendicular a su trayectoria. De esta forma, los iones
Espectrometría de masas
275
de carga z y masa m acelerados por un potencial V entran en el analizador con una energía cinética dada por: Ec = zev = ½ mν 2
[7.10]
donde e representa la carga del electrón (e = 1,60 · 10–19 C) y v la velocidad. La trayectoria de estas especies cargadas dentro del arco del sector magnético viene determinada por la relación entre las distintas fuerzas que actúan sobre ellas. Así, para que un ión determinado atraviese el campo magnético y siga la curvatura del imán sin colisionar con las paredes, la fuerza centrípeta en una trayectoria a través del analizador de radio r debe igualar la ejercida por el campo magnético B, es decir: Bzv =
mv 2 r
[7.11]
Combinando las ecuaciones 7.10 y 7.11: m
z
2 2 = B r
2V
[7.12]
Esta ecuación implica que para un instrumento determinado con un radio definido, la magnitud del campo magnético y potencial de aceleración aplicados condicionan la relación masa/carga que deben tener los iones para que puedan alcanzar el detector. Los iones que posean valores masa/carga distintos describirán órbitas diferentes a la del haz iónico seleccionado, impactarán contra las paredes del analizador, de tal modo que no podrán ser detectados. De esta forma, el campo magnético clasifica y discrimina los diferentes iones en haces individuales de relación m/z diferente. Experimentalmente, el espectro de masas se puede obtener variando bien el voltaje de aceleración o bien la intensidad del campo magnético, de modo que cada haz de iones alcanza el detector de forma secuencial a una velocidad determinada. No obstante, se suele utilizar un voltaje de aceleración alto y constante mientras se varía la intensidad del campo magnético con el objetivo de mantener una sensibilidad elevada e invariable. La principal limitación de los analizadores magnéticos está relacionada con la resolución que pueden ofrecer. La resolución del espectrómetro de masas depende en gran medida de la distribución de velocidades de los iones formados en la cámara de ionización. En principio, la energía cinética de los iones viene dada por el valor del campo de potencial. Sin embargo, como resultado fundamentalmente de la diferente posición en la que se generan estos iones, la velocidad de dichos iones no es homogénea, lo cual origina un ensanchamiento de los picos obtenidos en el espectro de masas. Con el fin de evitar esta pérdida de resolución, los analizadores magnéticos se encuentran normalmente acoplados con un analizador electrostático. La función de este componente es discriminar los diferentes iones en función de su velocidad, de tal forma que únicamente las especies cargadas que posean la energía cinética correspondiente a la tensión de aceleración son capaces de atravesar este filtro. Los instrumentos que incorporan este sistema se conocen como analizadores de doble
Técnicas de análisis y caracterización de materiales
276
enfoque. Habitualmente, la selección de iones por el campo eléctrico anterior se sitúa a la entrada en el analizador magnético. Esta configuración se denomina doble enfoque convencional o de Nier-Johnson. Otras disposiciones consisten en el ordenamiento inverso de los filtros iónicos (geometría inversa), o incluso en ambas configuraciones a la vez (geometría de triple sector). Los analizadores de sector magnético permiten analizar un extenso rango de masas (hasta 200.000 Daltons) con una elevada sensibilidad. Su mayor ventaja radica en su gran capacidad para discriminar entre iones de masa muy similar. Así, la resolución que presentan estos equipos es del orden 2 · 104 – 6 · 104, aunque a veces se pueden alcanzar valores de hasta 5 · 105. Convencionalmente, se considera que es posible distinguir una masa de otra contigua cuando la altura del valle es menor del 10% de la altura máxima del pico. Esto significa que para una resolución de 104, es posible distinguir entre dos masas de 100 y 100,01 unidades. Sin embargo, el uso de analizadores magnéticos de doble enfoque se encuentra relativamente restringido hoy en día debido fundamentalmente a las limitaciones que presentan en cuanto al tamaño que poseen y como consecuencia del éxito de otros tipos de analizadores más efectivos y ventajosos. Los iones pesados se desvían poco
Imán Solo los iones de m/z adecuada pueden llegar al detector
Haz de iones
Muestra
Los iones ligeros se desvían en exceso Colimadores Haz de electrones
Bomba de vacío
Colimadores Detector Espectro de masas
m/z
Figura 7.6. Esquema simplificado de un analizador magnético.
7.2.2.2. Analizadores cuadripolares Los analizadores cuadripolares o de cuadripolo son los más utilizados en la actualidad debido a que se trata de instrumentos compactos, de tamaño reducido, alta velocidad de barrido, y relativo bajo coste. En este tipo de equipos, los iones se desplazan por el canal que definen cuatro barras o polos de sección cilíndrica o hiperbólica (Figura 7.7). Las barras opuestas están conectadas eléctricamente de tal manera que una pareja está en contacto con el polo positivo de una fuente variable de corriente continua, mientras que la otra pareja de cilindros se encuentra unida al polo negativo. Además, a cada pareja de barras se le aplica un potencial variable de radiofrecuencias desfasado en 180º. Esta configuración origina superficies equipotenciales hiperbólicas paralelas al eje del analizador en el espacio existente entre las cuatro barras.
Espectrometría de masas
277
En un experimento típico, el voltaje de corriente continua y de radiofrecuencias se aumenta simultáneamente de forma que la relación entre ellos se mantiene constante. Se consigue así que en un momento concreto del barrido, todos los iones excepto aquellos con un valor específico m/z entren en contacto con las barras, perdiendo su carga y convirtiéndose en moléculas neutras. El resultado final de este proceso es una selección de los iones que consiguen alcanzar el detector. Por otro lado, puesto que el potencial de aceleración empleado es del orden de 5 voltios, las velocidades alcanzadas por los iones no son muy importantes. Este hecho puede dar lugar a una pérdida significativa de iones en los espacios entre los componentes, por lo que se suelen emplear sistemas cuadripolares de pre- y post-filtro para evitar una pérdida de sensibilidad del instrumento. Estos dispositivos son similares al analizador correspondiente, aunque son de menor longitud y únicamente se aplica un potencial de radiofrecuencias que permita la transmisión de un amplio rango de masas. Aunque las trayectorias que adquieran los iones al penetrar en el analizador cuadripolar son complejas, es posible visualizar el mecanismo de discriminación de masas si se analiza el efecto sucesivo de cada uno de las diferencias de potencial aplicadas. Considerando exclusivamente el plano formado por los dos polos positivos (Figura 7.7), los iones tenderán a seguir una trayectoria rectilínea y a mantenerse alejados de los cilindros en ausencia de voltaje de radiofrecuencia. Sin embargo, durante el ciclo de polaridad negativa de radiofrecuencias, los iones se desviarán de su trayectoria en dirección hacia las barras y en sentido contrario durante el ciclo positivo. Durante estas oscilaciones, dependiendo de la relación m/z y de la magnitud y de la frecuencia de la tensión alterna, los iones pueden llegar a colisionar con los cilindros, impidiéndose su transmisión. Si la masa de una determinada especie es elevada, y la frecuencia de variación de la polaridad alta, la inercia tenderá a mantener la trayectoria de los iones y estos alcanzarán el detector. Por el contrario, los iones ligeros muestran una respuesta más rápida y si la frecuencia de los ciclos es suficientemente baja, colisionarán con los cilindros. El efecto conjugado en el plano que contiene los polos positivos será que todos los iones con una masa superior a un valor límite fijado por la magnitud del potencial atravesarán el filtro. Por otra parte, en el plano perpendicular definido por los polos negativos y en ausencia del potencial alterno, los iones tenderán a ser capturados por los cilindros. Sin embargo, cuando se aplica la radiofrecuencia, la dirección de los iones se perturba, en mayor medida cuanto menor es la masa. Por consiguiente, los iones más ligeros, cuya relación m/z es inferior a un cierto valor, pueden llegar a eludir la atracción hacia los polos negativos. Globalmente, el efecto combinado de la transmisión de iones en ambos planos perpendiculares es delimitar, para cada potencial, el intervalo de masas de los iones transmitidos. La mayor limitación de los analizadores cuadripolares frente a los de sector magnético radica en su menor resolución y el estrecho rango de masas que permite analizar. La capacidad de discriminar entre masas viene determinada fundamentalmente por la relación entre los potenciales de corriente alterna y continua, siendo máxima para un valor ligeramente inferior a 6. En estas condiciones, los cuadripolos son capaces de resolver picos que difieren en una unidad de masa. Por otra parte, el límite de masa asociado a la magnitud de potencial y aunque puede alcanzar
Técnicas de análisis y caracterización de materiales
278
hasta una relación m/z = 4.000 en algunos instrumentos comerciales, en general es mucho menor. Un valor típico del rango de masas de muchos instrumentos está en m/z = 0-2.000, que puede obtenerse con un voltaje continuo de unos 250 voltios en combinación con un potencial de radiofrecuencias de 1.500 voltios. DETECTOR Cilindros cuadripolo
Iones con trayectoria estable s
Ione
Iones con trayectoria inestable
Figura 7.7. Esquema simplificado de un analizador de cuadripolo.
7.2.3. detectores Un detector proporciona información sobre la abundancia de los iones que salen del analizador de masas. Un detector convierte el haz de iones en una señal eléctrica que puede ser amplificada y medida. Las características más importantes en cualquier detector de iones son la sensibilidad, precisión, resolución, tiempo de respuesta, estabilidad, amplio rango dinámico y bajo ruido.
7.2.3.1. Detector de copa de Faraday El detector de copa de Faraday es uno de los transductores de iones más corrientes. Es un dispositivo relativamente simple y robusto en forma de copa o caja (Figura 7.8) que consiste en un simple electrodo colector formado por una lámina delgada de oro y alineado con el haz iónico, así como un par de electrodos supresores (destinados a suprimir la emisión secundaria de electrones) y rendijas. Tanto el electrodo como la caja de Faraday están conectados a tierra por medio de un resistor para neutralizar la carga generada por los iones incidentes. Este proceso genera una pérdida de potencial que puede ser convenientemente amplificada y posteriormente transformada en una señal eléctrica. La intensidad medida es independiente de la masa, la energía, y la naturaleza química de los iones, y solo depende del número de partículas incidentes. Este detector resulta económicamente asequible, y puede operar a una presión relativamente alta (en torno a 10–4 torr). Sin embargo, la velocidad de respuesta y sensibilidad es por lo general menor que con otros sistemas.
Espectrometría de masas
Haz iónico
279
Electrodo colector
Copa de Faraday
Amplificador
Figura 7.8. Esquema simplificado de un detector tipo copa de Faraday.
7.2.3.2. Detector multiplicador de electrones El detector multiplicador de electrones, basado en el fenómeno de emisión secundaria de electrones, es el más común en la técnica de espectrometría de masas (Figura 7.9). Los iones positivos o negativos separados por el analizador son acelerados y atraídos por un voltaje constante impuesto a un primer dínodo de conversión. El haz iónico impacta por tanto con el primer dínodo de conversión, el cual consiste en una placa metálica capaz de convertir este haz de iones en una cantidad proporcional de electrones. Estos electrones impactan a continuación sobre un segundo dínodo. El proceso de multiplicación se repite sucesivamente en los demás dínodos, obteniéndose al final del sistema una amplificación de señal del orden de 106 a 108. Un multiplicador de dínodos discretos posee de 12 a 24 dínodos individuales que se encuentran recubiertos con una película de óxido metálico (generalmente Al2O3) que posee una alta propiedad de emisión de electrones secundarios. Los electrones secundarios emitidos por cada dínodo son atraídos por la acción de un pequeño campo magnético, lo que provoca que choquen con las superficies de los demás dínodos. Este tipo de detectores son mucho más sensibles que el de copa de Faraday, con una señal mínima detectable del orden de 10–18. Requiere alta tensión y un mayor vacío para operar (< 10–6 mbar). Es un detector de vida limitada porque se va desgastando con el uso, por lo que la ganancia no es estable y va cambiando con el tiempo. Es muy sensible a subidas de presión, pudiendo destruirse prácticamente si se produce una ruptura de vacío. La velocidad de respuesta del multiplicador de electrones, típicamente inferior a 50 ns, es mucho más rápida que la del detector Faraday, lo que permite mayores velocidades de barrido en el espectrómetro de masas. Haz iónico
Ánodo
Amplificador
Dínodo conversión
Figura 7.9. Representación simplificada de un detector multiplicador de electrones de dínodos discretos.
Técnicas de análisis y caracterización de materiales
280
Otro tipo de detector multiplicador de electrones es el llamado multiplicador de dínodos continuos o channeltron (Figura 7.10), que son de los más utilizados hoy en día en espectrometría de masas. Es similar al multiplicador de electrones anteriormente descrito, con la única diferencia de que no tiene múltiples dínodos discretos, sino que está formado por un tubo de vidrio dopado con plomo que contiene una mezcla de óxidos metálicos, y que forma un tubo curvo para impedir la retroalimentación iónica. Si se desea detectar iones positivos, se aplica un potencial negativo en la boca del detector para que los iones procedentes del espectrómetro de masas, desviados de su trayectoria por una placa repulsora con potencial positivo, sean atraídos a su interior y choquen con la cara interna, produciendo la emisión de cierto número de electrones. El final del tubo del detector se sitúa a un potencial cercano a tierra, con lo que existirá un gradiente continuo de potencial desde la boca al fondo del detector. Debido a esto, los electrones arrancados en el impacto inicial del ión se desplazarán en la dirección de los potenciales menos negativos, hacia potencial cero, produciéndose una gran cantidad de impactos en el camino, en cada uno de los cuales se multiplicará el número de electrones, con lo que se puede conseguir un efecto multiplicador del orden de 108. Al final del recorrido del tubo multiplicador, se encuentra un cono colector con la electrónica de pre-amplificación y amplificación asociada. Si se desean detectar iones negativos, en principio basta con cambiar el signo de los potenciales aplicados a la placa repulsora y a la bocal del channeltron. Por tanto, este detector, al igual que otros, es susceptible de ser empleado tanto para detectar iones positivos como negativos. El hecho de situar el detector fuera del «eje óptico» del espectrómetro produce una ventaja importante, además de permitir la detección selectiva de iones positivos o negativos, como es la de evitar que alcancen el detector partículas o radiaciones no deseadas, tales como fragmentos neutros o fotones procedentes del filamento de la fuente de ionización, que podrían incrementar el ruido de fondo. Requieren un vacío mínimo de trabajo del orden de 5 · 10–5 torr, lo que no debe ser ningún problema en espectrometría de masas donde es habitual trabajar a presiones inferiores a 10–6 torr en el analizador.
Haz iónico
Cascada de electrones
Figura 7.10. Representación simplificada de un detector multiplicador de electrones de dínodos continuos o channeltron.
Espectrometría de masas
281
La vida de un detector tipo channeltron, aunque superior a la de los multiplicadores de dínodos discretos, es también limitada y depende de la carga total acumulada, es decir, del voltaje aplicado y del número de iones detectados. A medida que la superficie interior se va desgastando, se va haciendo necesario incrementar el alto voltaje aplicado para conseguir una señal adecuada. Cuando este fenómeno se acelera, es síntoma evidente de que el final de la vida útil del detector se acerca.
7.2.3.3. Detector de conversión fotónica o foto-multiplicador Este detector es uno de los más eficientes, sensibles y duraderos. Aquí, los iones procedentes del analizador se desvían de su trayectoria mediante un potencial eléctrico. El voltaje aplicado es de signo contrario a la carga de los iones que se deseen detectar para así provocar su atracción y choque sobre el dínodo inicial. Este choque produce múltiples electrones que son atraídos, a su vez, por un voltaje más positivo que el del dínodo, de tal forma que estos electrones impactan sobre una pantalla fosforescente. Al recibir el impacto de los electrones, la pantalla de centelleo emite un gran número de fotones, los cuales se dirigen a un fotomultiplicador convencional sellado a vacío, produciéndose la consiguiente cascada de electrones que multiplica la señal. Esta es detectada al final de su recorrido por el interior del tubo fotomultiplicador, siendo posteriormente de nuevo amplificada, digitalizada y elaborada mediante circuitos electrónicos, para su manipulación por el sistema de tratamiento de datos del espectrómetro de masas. Una ventaja de este detector sobre los clásicos channeltron, aparte de su mayor sensibilidad y estabilidad, es su extraordinaria duración, ya que el elemento que envejece principalmente es el fotomultiplicador, que sufre en todo caso menos deterioro, pues recibe el impacto de fotones y electrones que causan menor daño que el impacto directo de los iones. Además, la sustitución del multiplicador no es nada costosa, ya que se trata de un componente normal, disponible en el mercado a bajo precio. Existen además varios tipos de detectores que se incluyen dentro de los denominados multicanales. Se basan en la utilización de una o dos capas de baterías de micromultiplicadores, seguidas de un sistema de detección más o menos sofisticado y eficiente, encargado de detectar simultáneamente todas las señales. Este tipo de detectores son capaces de detectar simultáneamente una amplia zona espectral, lo que aumenta enormemente el tiempo de observación de cada ión, y consecuentemente, se mejora así la estabilidad, capacidad de amplificación, etc., lo cual conduce a una sensibilidad aumentada en varios órdenes de magnitud. Existen distintas denominaciones para este tipo de detectores, tales como multiple channel detector o multichannel photo diode array.
7.2.4. análisis cualitativo por espectrometría de masas La espectrometría de masas juega un papel de gran importancia en la elucidación estructural y la identificación de compuestos orgánicos (e inorgánicos). Esta elucidación se lleva a cabo determinando la masa molecular y la composición elemental del compuesto a partir del patrón isotópico del ión molecular o de la masa molecular exac-
282
Técnicas de análisis y caracterización de materiales
ta. Además, el estudio de los modos de fragmentación obtenidos mediante ionización por impacto electrónico proporciona información sobre la presencia de varios grupos funcionales. Tal como se mostrará a continuación, la identidad real de un compuesto puede establecerse a menudo por comparación de su espectro de masas con una biblioteca de espectros de compuestos conocidos hasta llegar a una total coincidencia. La información que aquí se presenta con respecto al análisis de sustancias hace referencia fundamentalmente a sustancias orgánicas debido a un mayor desarrollo de la espectrometría de masas en este campo. No obstante, gran parte de estas aplicaciones y consideraciones se pueden extender a sustancias de naturaleza inorgánica.
7.2.4.1. Identificación de sustancias La identificación de una sustancia química puede realizarse por comparación directa de su espectro de masas (generalmente obtenido mediante ionización por impacto electrónico) con otro conocido y registrado en las mismas condiciones. De esta forma, es posible en principio diferenciar entre compuestos cuya masa nominal es prácticamente idéntica, como es el caso de N2 y CO. Así, los distintos patrones de fragmentación observados para ambas moléculas (m/z = 14 y 28 para N2; m/z = 12, 16 y 28 para CO) permiten identificar claramente la identidad del analito. Este proceso de identificación presupone que: (i) el patrón de fragmentación es único; (ii) las condiciones experimentales se pueden controlar de tal forma que sea posible obtener espectros totalmente reproducibles. En general, la probabilidad de que compuestos diferentes originen el mismo espectro de masas disminuye significativamente a medida que aumenta el número de picos. Por esta razón, la comparación e identificación de sustancias se suele realizar mediante la ionización por impacto electrónico, la cual genera un mayor grado de fragmentación. Es posible también diferenciar entre distintos isómeros funcionales, ya que en algunos casos, la fragmentación puede ser suficientemente característica y única para cada uno de ellos, y por tanto, es posible distinguirlos mediante el análisis de los correspondientes espectros de masas. Un ejemplo podría ser la distinción entre 1-butanol y 2-butanol, que forman predominantemente un ión de relación m/z = 31 y 45, respectivamente, debido a los diferentes patrones de fragmentación (Figura 7.11). Por el contrario, la distinción entre diferentes isómeros geométricos es mucho más compleja, ya que las diferencias en los correspondientes espectros de masas son mucho menos importantes. En el caso de mezclas de sustancias, es posible identificar los componentes individuales a través de un proceso de deconvolución de los espectros obtenidos mediante la combinación lineal de los patrones de fragmentación de varias moléculas. Evidentemente, el solapamiento entre patrones se incrementa y la separación matemática de los espectros puede resultar imposible si la complejidad de la mezcla aumenta. Una posibilidad en este caso consiste en aplicar diferentes potenciales a la fuente de ionización. De esta forma, la información que se obtiene de los espectros de masas puede conducir a la resolución del problema puesto que la diferente energía de impacto electrónico afecta de forma distinta a cada molécula. No obstante, en la práctica es más común recurrir a técnicas cromatográficas para analizar mezclas complejas.
Espectrometría de masas
283 +-
OH H2 C H3C
H2 C C H2
H2 C
+-
OH H3C
.
CH2
+
OH
+
H3C C H2
H2C m/z= 31
CH2 CH3
H3C
+
+
OH
H3C
C H2 m/z= 45
120
120 31
100
45
100
80
Abundancia relativa
Abundancia relativa
.
CH
60
40
80 60
40 20
20
0
0 10
20
30
40
50
60
70
80
m/z
10 20 30
40
50
60
70
80
m/z
Figura 7.11. Espectros de masas por impacto electrónico de 1-butanol (izquierda) y 2-butanol (derecha).
En la actualidad, la forma más común de llevar a cabo la comparación de espectros es mediante el uso de un programa informático que permite relacionar el patrón de fragmentación experimental con una base de datos informatizada. Esto es posible hacerlo por el método directo, que busca en la biblioteca de espectros aquellos que contengan todos los picos del espectro problema. Aunque la mayoría de las bases de datos disponibles se circunscriben a espectros obtenidos mediante impacto electrónico, cada vez son más frecuentes las bibliotecas de espectros que usan otras fuentes de ionización.
7.2.4.2. Determinación de la masa molecular Si en un espectro de masas concreto se puede establecer inequívocamente el pico que corresponde al ión molecular, se puede determinar la masa molecular de la sustancia analizada. En este sentido, la espectrometría de masas es una técnica insuperable para la determinación de la masa molecular. Una determinación del peso molecular por espectrometría de masas requiere conocer con seguridad la identidad del pico del ión molecular. Por esta razón es siempre aconsejable ser precavido, en particular
Técnicas de análisis y caracterización de materiales
284
con fuentes de impacto de electrones, donde el pico del ión molecular puede estar ausente o ser pequeño en relación con los picos debidos a impurezas. Una opción para identificar el ión molecular es trabajar con menores potenciales de ionización. De esta forma, se disminuye la fragmentación del analito y resulta más fácil identificar el ión molecular. Cuando aún existen dudas para identificar dicho ión, son particularmente útiles espectros adicionales usando otras técnicas blandas de ionización, como por ejemplo la ionización química. Si la resolución del espectro es alta, como ocurre cuando se utilizan analizadores de sector magnético de doble enfoque, es posible obtener un valor exacto de la masa, que puede ser empleado para identificar el compuesto. Por ejemplo, la masa molecular de la purina (C5H4N4) es 120,044, mientras que la de la benzamida (C7H8N2) es 120,069. Por consiguiente, considerando una precisión en la medida de unas partes por millón, se puede llegar a obtener la formula empírica de un compuesto. Para facilitar esta asignación, existen tablas que recogen las posibles combinaciones de átomos de C, H, O y N con sentido químico. Un ejemplo para compuestos cuyo ión molecular esté en torno a 84 se presenta en la Tabla 7.1. Por otra parte, la medida de masa con precisión implica el calibrado riguroso de la posición de los picos. Esto se realiza introduciendo una sustancia patrón, que generalmente es perfluorobutilamina o perfluoroqueroseno, que se caracterizan por ser inertes y producir iones con un amplio intervalo de masas. Tabla 7.1. cOMPOsición eleMenTal y abUndancia isOTóPica Para Un ión MOlecUlar M/z = 84 abundancia (%, ión molecular) m/z = 84
fórmula
Peso molecular
[M+1]+
[M+2]+
CN4O C2N2O2 C2H2N3O C2H4N4 C3O3 C3H2NO2 C3H4N2O C3H6N3 C4H4O2 C4H6NO C4H8N2 C5H8O C5H10N C6H12 C7
84,0073 83,9960 84,0198 84,0437 83,9847 84,0085 84,0324 84,0563 84,0211 84,0449 84,0688 84,0575 84,0814 84,0939 84,0000
2,65 3,00 3,38 3,75 3,36 3,73 4,11 4,48 4,46 4,84 5,21 5,57 5,94 6,68 7,56
0,23 0,43 0,24 0,06 0,64 0,45 0,27 0,08 0,48 0,29 0,11 0,33 0,15 0,19 0,25
Otra fuente de información útil sobre la composición atómica de un compuesto son los picos [M+1]+ y [M+2]+. Estos iones se deben a la distribución estadística de moléculas con diferente composición isotópica. La abundancia relativa isotópica y la
Espectrometría de masas
285
masa exacta de los elementos más comunes en compuestos orgánicos aparecen en la Tabla 7.2. Por ejemplo, el hidrógeno se encuentra presente en la naturaleza en una mezcla de 1H (99,985%) y 2H (0,015%), mientras que el carbono consiste fundamentalmente en 12C (98,98%) y 13C (1,11%). Puesto que la masa y la abundancia relativa de cada uno de los isótopos se conocen con precisión suficiente, es posible determinar la fórmula elemental de un compuesto midiendo la relación entre la abundancia de los iones [M + 1]+ o [M + 2]+ con respecto a [M]+. Por ejemplo, un pico de ión molecular de relación masa/carga igual a 84 y con valores relativos de la intensidad de los picos [M + 1]+ y [M + 2]+ de 5,6 y 0,3% con respecto al ión molecular sugiere un compuesto de fórmula C5H8O (Tabla 7.1). De forma análoga, la intensidad relativa de los picos [M + 1]+ o [M + 2]+ se puede determinar a partir de la composición elemental del ión molecular. Consideremos un compuesto de fórmula general CxHyNzOn. La abundancia relativa del ión [M + 1]+ con respecto [M] vendrá dada por: M + 1 = 1,11 x + 0 , 015y + 0 , 37x + 0 , 04 n % M + 1 = 100 M
[7.13]
donde x, y, z y n son el número de átomos de carbono, hidrógeno, oxígeno, y nitrógeno, respectivamente. Tabla 7.2. abUndancia relaTiva isOTóPica y Masa eXacTa de lOs eleMenTOs Más cOMUnes en cOMPUesTOs OrGánicOs a
a+1
núcleo
masa
ar
H
1,00783
100
2
C
12,00000
100
13
N
14,00307
100
15
O
15,99492
100
17
1
12 14 16
F
18,99840
100
Si
27,97693
100
P
30,99738
100
19 28
31
a+2
masa
ar
núcleo
masa
ar
H
2,01410
0,015
–
–
–
C
13,00336
1,11
–
–
–
N
15,00011
0,37
O
16,99913
0,04
núcleo
–
–
–
Si
28,97650
5,1
–
–
–
29
–
–
–
O
17,99916
0,2
18
–
–
–
Si
29,97377
3,4
–
–
–
30
S
31,97207
100
S
32,97146
0,73
Cl
34,96885
100
–
–
–
37
Br
78,91834
100
–
–
–
81
I
126,90448
100
–
–
–
32 35 79
127
33
S
33,96787
4,4
Cl
36,96590
32,0
Br
80,91629
97,3
34
–
–
Este método es especialmente de utilidad para detectar y estimar el número de átomos de azufre, cloro y bromo en una molécula debido a la gran contribución que tienen sobre la intensidad de los picos [M + 2]+. Por ejemplo, la presencia de un pico [M + 2]+ que es alrededor del 65% del pico [M]+ indica que la molécula tiene dos átomos de cloro; por otro lado, un pico [M + 2]+ del 4% sugeriría la presencia de un átomo de azufre.
Técnicas de análisis y caracterización de materiales
286
A continuación se muestra un ejemplo práctico acerca del procedimiento de cálculo de la relación isotópica para el cloroformo (Cl3CH), cuyo peso molecular es 118 uma. Sabemos que la abundancia relativa del isótopo de 35Cl, al que llamaremos A, es del 100%, y la del isótopo 37Cl, al que llamaremos B, es del 32%. Las distintas posibilidades de combinación de los tres átomos de cloro que podrían darse en una molécula serían: a) tres átomos de 35Cl: A A A (1 × 1 × 1 = 1) Total (3A) = 1 b) dos átomos de 35Cl y uno de 37Cl: A A B (1 × 1 × 0,32 = 0,32) A B A (1 × 0,32 × 1 = 0,32) B A A (0,32 x 1 × 1 = 0,32) Total (2A + B) = 0,96 c) un átomo de 35Cl y dos de 37Cl: B B A (0,32 × 0,32 × 1 = 0,10) B A B (0,32 × 1 × 0,32 = 0,10) A B B (1 × 0,32 × 0,32 = 0,10) Total (A + 2B) = 0,30 d) tres átomos de 37Cl: B B B (0,32 × 0,32 × 0,32 = 0,03) Total (3B) = 0,03 Por tanto, las intensidades relativas de los picos [M]+, [M + 2]+, [M + 4]+, y [M + 6]+ serían 1, 0,96, 0,30 y 0,03, respectivamente.
7.2.4.3. Determinación de la estructura molecular e interpretación de espectros de masas La fragmentación de las moléculas en la cámara de ionización no se produce al azar, sino que obedece a la estabilidad relativa de los posibles iones que se puedan originar. Del estudio sistemático de los patrones de ruptura de diferentes sustancias, ha sido posible extraer una serie de reglas que permiten interpretar un espectro de un determinado analito, lo que además aporta valiosa información estructural. La fragmentación simple, es decir, la ruptura directa de un enlace químico σ sin formar nuevos enlaces, es la reacción de fragmentación más importante y habitual. La fragmentación simple de un ión origina un radical (que no es detectado en el espectro de masas) y un catión (Figura 7.12). H3C
H3C
H3C
CH3 + eCH3
CH3 + 2eCH3
. H2C + + CH CH3
Figura 7.12. Fragmentación simple de la molécula de isopentano.
CH3
Espectrometría de masas
287
El fragmento cargado que se formará será aquel capaz de estabilizar mejor la carga positiva. Por ejemplo, los carbocationes secundarios y terciarios son mucho más estables que los primarios, por lo que los primeros tienen más posibilidades de originarse. A su vez, los cationes formados en esta fragmentación primaria pueden sufrir nuevas fragmentaciones secundarias. También son importantes las reacciones de transposición o reordenamiento, que son aquellas en la que la ruptura del ión ocurre a través de una estructura intermedia. Dentro de estas, destaca la transposición tipo McLafferty, la cual se da en cationes radicálicos de una variedad de compuestos que poseen una funcionalidad insaturada, como son los alquenos, aldehídos, cetonas, ácidos carboxílicos, ésteres, etc. La reacción consiste en la transferencia de un átomo de hidrógeno en posición γ hacia el grupo funcional insaturado, seguida (o acompañada) por la escisión del enlace α-β del intermedio para así resultar en la formación de un alqueno y un ión con un número impar de electrones (Figura 7.13). R3
H γC β
Y α
R1
+. C
R3
. γC β
H
R1 XH
Y α
γ CH R2
β CH2
+. XH
+
+ . Y α
XH R2
Y α
R2
X= O, NH, CHR Y= CH2, O, NH
Figura 7.13. Esquema general de la transposición McLafferty.
Los requisitos que se deben cumplir para que esta reacción ocurran son: (i) presencia de un átomo de hidrógeno en posición γ; (ii) un grupo que pueda aceptar el átomo de hidrógeno; (iii) capacidad para formar un estado de transición de seis miembros; (iv) que el enlace en posición α,β sea sencillo. Las tendencias observadas en el modo de ionización de las moléculas pueden ser racionalizadas considerando la reactividad y los tipos de enlace implicados. Así, resulta posible identificar los grupos funcionales presentes en una sustancia analizando cuidadosamente el espectro obtenido. Puesto que cuanto mayor es el número de picos detectados, mayor es la información disponible, para este tipo de estudios es conveniente que la ionización se produzca por impacto electrónico. A continuación se presenta un resumen de las reacciones de fragmentación que ocurren en los compuestos orgánicos más comunes: (i) Alcanos de cadena lineal. El espectro de masas de estos compuestos se caracteriza por la baja intensidad del pico correspondiente al ión molecular. Además, este disminuye a medida que aumenta el tamaño de la cadena. Estos compuestos sufren reacciones de ruptura del enlace C–C y originan agrupaciones separadas por 14 unidades de masa correspondientes a la pérdida de fragmentos CH2. Los iones [CnH2n+1]+ (m/z = 29, 43, 57, 71…) son los más abundantes, especialmente aquellos que poseen 3 y 4 átomos de carbono (m/z = 43 y 57, respectivamente). El espectro de masas suele presentar una forma de campana característica.
Técnicas de análisis y caracterización de materiales
288
(ii) Alcanos de cadena ramificada. La ramificación de la cadena reduce la intensidad del ión molecular, cuya ruptura se produce preferentemente en el punto de ramificación. (iii) Alquenos. La ionización ocurre preferentemente en el punto del doble enlace, siendo la intensidad relativa del ión molecular (aparentemente formado por la pérdida de un electrón π) mayor que aquella correspondiente al alcano saturado. La ruptura del enlace alílico forma predominantemente iones [CnH2n – 1 ]+ (m/z = 27, 41, 55, 69…). (iv) Hidrocarburos aromáticos. La fragmentación del anillo aromático requiere altas energías, y por tanto, el pico correspondiente al ión molecular es con diferencia el más importante en la mayoría de los compuestos aromáticos. Si son ramificados (alquil-bencenos), la ruptura más característica suele corresponder a la formación del ión tropilio (C7H7, m/z = 91) o iones tropilio sustituidos, normalmente acompañados de un pico m/z = 65 que aparece como consecuencia de la eliminación de acetileno del mismo. Si la cadena es suficientemente larga, también se observan los picos de la transposición McLafferty (m/z = 92). (v) Alcoholes. En los alcoholes alifáticos, la ionización tiene lugar preferentemente en el átomo de oxigeno del grupo OH. El ión molecular posee una muy baja intensidad en alcoholes primarios y secundarios, mientras que no aparece en los alcoholes terciarios. Los espectros de los alcoholes aparecen dominando por reacciones del tipo: H2 C H3C
. OH +
CH . 3 + H2C
+
OH
siendo el ión [R – CH = O]+ el principal producto. Así, la presencia de un pico m/z = 31 [H2C = OH]+ es típico de alcoholes primarios. Otra característica de alcoholes primarios es la pérdida de un fragmento m/z = 18, correspondiente a la reacción de deshidratación (pérdida de [H2O]+). En el caso de los alcoholes aromáticos y fenoles, el ión molecular es relativamente abundante. (vi) Éteres. La abundancia del ión molecular en los éteres alifáticos es relativamente baja, aunque superior a la del correspondiente alcohol. La fragmentación suele ocurrir en el enlace C–C en posición α con respecto al átomo de oxígeno. Los éteres aromáticos presentan una intensidad relativamente elevada del ión molecular. (vii) Aldehídos y cetonas. La ionización de aldehídos y cetonas ocurre por eliminación de un electrón del átomo de oxígeno del grupo carbonilo para dar un ión molecular relativamente intenso (comparado con alcanos y alquenos). La formación de un ión [M – 1]+ asociado a especies R – C+ = O es también característico de estos compuestos. Los aldehídos y cetonas alifáticas muestran también iones a m/z = 29, 43, 57, 71,… debido a iones acilo (CnH2n+1 CO+) y alquílicos (CnH2n + 1 +). (viii) Ácidos carboxílicos. Los ácidos alifáticos forman pequeñas concentraciones del ión molecular, es decir, este es poco intenso. En los ácidos de cadena corta predominan los picos resultantes de la pérdida de grupos OH y COOH ([M – 17]+ y [M – 45]+ respectivamente). Aquellos ácidos que poseen una cadena de 4 o más átomos de carbono originan un ión intenso de relación m/z = 60 [CH2C(OH)+• ] debido a 2 la transposición McLafferty (Figura 7.14).
Espectrometría de masas H
289
+. O
.
H
OH R
+. OH
+
OH
OH R
OH R= H (m/z= 60)
Figura 7.14. Esquema general de la transposición McLafferty en un ácido carboxílico.
En el caso de ácidos de cadena larga, la disociación de cada enlace C–C de la cadena alquílica produce dos familias de iones, una en la que la que la carga se retiene en el fragmento que posee los átomos de oxígeno, es decir, [CnH2nCOOH]+, y otra familia característica de cadenas hidrocarbonadas [CnH2n + 1]+. El ión molecular de ácidos aromáticos es más estable, y por tanto, más abundante. (ix) Ésteres. Los ésteres metílicos suelen dar fundamentalmente el ión acilo [RCO]+ y carboximetilo (m/z = 59; [CH3COO]+). Si es de cadena larga, también suele aparecer el producto de la transposición McLafferty (m/z = 74, [CH3COH = CH2]+. Los ésteres de ácidos aromáticos suelen dar importantes iones acilo [A r– CO]+ por perdida del radical alcoxilo y transposiciones de McLafferty. Los bencílicos suelen dar un pico a [M – 42]+ por pérdida de cetena [CH2 = C = O]+. (x) Aminas. Las alifáticas no suelen presentar ión molecular, y el pico más intenso suele corresponder a la pérdida de un grupo alquilo en posición β con respecto al átomo de nitrógeno ([R2C = NR’2]+), que en el caso de las aminas primarias corresponde a m/z = 30 ([CH2 = NH2]+). Las aminas aromáticas suelen dar un pico de ión molecular intenso que suele estar acompañado de un pico moderado [M – 1]+.
7.2.5. espectrometría de masas acoplada a cromatografía de gases El acoplamiento de un espectrómetro de masas (mass spectrometer, MS) con un cromatógrafo de gases (gas chromatograph, GC) se llevó a cabo por primera vez en la década de 1960, e inmediatamente, la comunidad científica reconoció el enorme potencial de esta nueva técnica de análisis. Para una mejor comprensión de esta técnica, se recomienda estudiar previamente los conceptos básicos de la cromatografía de gases. En un principio, las columnas cromatográficas que se emplearon eran empaquetadas, las cuales operan con un flujo de gas portador en torno a 10 cm3 · min–1. Como resultado, el acoplamiento directo de un cromatógrafo y un espectrómetro (GC/MS) fue prácticamente imposible debido a que no era posible mantener las condiciones de vacío (del orden de 10–5 torr) de este último dispositivo. Estas limitaciones iniciales desaparecieron totalmente con la introducción de las columnas capilares, que operan con flujos de gas portador significativamente inferiores. Hoy en día, existen un gran número de equipos comerciales GC/MS que son robustos, fiables, sensibles, y altamente específicos, en los que la columna cromatográfica se conecta habitualmente a la fuente de iones de forma directa (Figura 7.15). A menudo la cromatografía de gases se emplea para confirmar la presencia o ausencia de un compuesto en una muestra determinada. Esto se lleva a cabo por
Técnicas de análisis y caracterización de materiales
290
comparación del cromatograma (tiempo de retención) de la sustancia pura con el de la muestra, siempre que las condiciones para la obtención de ambos sean idénticas. Una de las dificultades de esta comparación es que puede haber diferentes compuestos que presenten el mismo comportamiento cromatográfico bajo condiciones idénticas, lo que llevaría a identificaciones erróneas. Por otra parte, la espectrometría de masas puede identificar de manera casi inequívoca cualquier sustancia pura. Sin embargo, no es capaz normalmente de identificar los componentes individuales de una mezcla sin separar previamente sus componentes, debido a la extrema complejidad del espectro obtenido por superposición de los espectros particulares de cada componente. Por lo tanto, la asociación de las dos técnicas, cromatografía de gases y espectrometría de masas (GC/MS), da lugar a una técnica combinada que permite la separación e identificación de mezclas de gran complejidad. Por otra parte, la cromatografía de gases también se utiliza para el análisis cuantitativo de los componentes individuales presentes en una muestra, empleando curvas de calibración de los correspondientes patrones. A tal efecto, se pueden emplear diferentes detectores basados generalmente en la medida de una determinada propiedad física de los componentes a analizar. Algunos de ellos son universales, mientras que otros resultan más selectivos y responden únicamente a algunos de los componentes de una mezcla. En este sentido, la espectrometría de masas acoplada a la cromatografía de gases puede resultar en un detector universal para la cuantificación de sustancias si se registran el total de los iones generados o bien un detector más específico cuando se seleccionan unos iones de masa determinada. Muestra
Columna
Cámara Analizador Detector ionización cuadrupolo Cromatógrafo de gases
Espectrómetro de masas
120
31
100 80 60 40 20 Cromatograma
0
0
20
30
40
50
60
Espectro de masas
Figura 7.15. Esquema general de un cromatógrafo de gases acoplado a un espectrómetro de masas (GC/MS).
Espectrometría de masas
291
La utilización de la cromatografía de gases acoplada a un espectrómetro de masas requiere sistemas especiales de conexión. En principio, se trata de dos técnicas que trabajan en fase gaseosa y necesitan una muy pequeña cantidad de muestra para su análisis, por lo que son muy compatibles. El único obstáculo serio a la hora de realizar su acoplamiento es que el efluente que emerge de la columna cromatográfica sale a presión atmosférica y debe introducirse en el interior del espectrómetro de masas que trabaja a alto vacío. Actualmente, el acoplamiento directo resulta fácil cuando se utiliza la cromatografía de gases capilar, que es el caso más habitual. Así, el extremo de la columna capilar se introduce directamente en la cámara de ionización del espectrómetro de masas. No obstante, puede ser necesario desechar una porción del efluente si el flujo es demasiado alto. En la Figura 7.16 muestra un esquema simplificado de una interfase GC/MS de reducción de flujo.
GC
MS
Vacío
Figura 7.16. Esquema simplificado de una interfase GC/MS con reducción de flujo.
Supongamos una mezcla de compuestos inyectada en el cromatógrafo de gases que se separa en la columna cromatográfica, obteniéndose así la elución sucesiva de los componentes individuales aislados que pasan inmediatamente al espectrómetro de masas. Cada uno de estos componentes se registra en forma de pico cromatográfico y se identifica mediante su respectivo espectro de masas. En este proceso, el espectrómetro de masas, además de proporcionar los espectros, actúa como detector cromatográfico al registrar la corriente iónica total generada en la fuente iónica, cuya representación gráfica constituye el cromatograma de corriente iónica total (total ion current, TIC). En efecto, la corriente iónica generada por todos los iones da lugar a un pico gaussiano de área proporcional a la concentración del compuesto detectado. No obstante, se debe tener en cuenta que diferentes compuestos pueden presentar un rendimiento de ionización distinto, y por lo tanto, pueden conducir a una señal TIC diferente. Por tal motivo, es esencial el uso de un estándar interno para obtener datos cuantitativos fiables. Una vez registrado el cromatograma de corriente iónica total, es posible obtener el cromatograma específico para un determinado valor m/z (extracted ion chromatogram, EIC) con ayuda de un sistema informático. Otra posibilidad consiste en analizar el espectro de masas en el máximo de cada uno de los picos cromatográficos. Esto posee la ventaja de ser relativamente rápido, aunque se puede perder información de una mezcla si los distintos componentes no se resuelven adecuada-
292
Técnicas de análisis y caracterización de materiales
mente por la columna cromatográfica. En el caso de mezclas de mayor complejidad, el cromatograma obtenido puede presentar varios picos, algunos de ellos muy próximos, resultando difícil la identificación rápida y fiable de algún compuesto de interés. Cuando se desea explícitamente localizar la presencia de uno o varios compuestos determinados, de espectro conocido, con la mayor rapidez o con la máxima sensibilidad posible se recurre a la técnica de monitorización selectiva de iones (selected ion monitoring, SIM). En esta modalidad de trabajo, se detectan solamente algunas masas de interés en lugar de trabajar con el total de los iones. De esta forma, se aumenta la selectividad del método, reduciéndose las interferencias. Es la metodología de trabajo para el análisis cuantitativo de trazas de compuestos conocidos.
7.3. esPecTrOMeTría de Masas aPlicada a líQUidOs Los métodos de introducción de muestra y de ionización descritos hasta ahora para gases no son aplicables a muestras que no sean vaporizables o que se puedan destruir al calentar. No sirven para compuestos líquidos o sólidos con alto punto de ebullición o baja volatilidad y/o de elevado peso molecular. Por otro lado, el analizador de cuadripolos presenta un límite práctico de funcionamiento que no permite analizar moléculas de elevado peso molecular. Afortunadamente, el desarrollo de nuevas técnicas de introducción de muestras, de ionización y nuevos analizadores ha permitido aplicar la técnica MS a muestras líquidas, sólidas y moléculas de elevado peso molecular (polímeros, lípidos, proteínas, enzimas, carbohidratos, etc.) de interés en el área de la química orgánica, inorgánica y bioquímica. A continuación repasaremos las técnicas de espectrometría de masa para muestras líquidas. En el apartado 7.5 se abordarán las aplicaciones a sólidos. Por razones de espacio, solo nos vamos a centrar en las técnicas que han tenido más éxito en acoplar la espectrometría de masas con equipos de cromatogafía de líquidos de alta resolución (High Performance Liquid Chromatography, HPLC). La razón es que se están imponiendo en la mayor parte de los laboratorios de análisis. Otras técnicas menos generalizadas pueden consultarse en la bibliografía sugerida al final del capítulo. Para una mejor comprensión de este capítulo sería conveniente tener nociones básicas de cromatografía de líquidos (véase capítulo 19).
7.3.1. introducción e ionización de muestras líquidas Como se ha indicado anteriormente, la espectrometría de masas es una técnica que analiza iones acelerados en cámaras de alto vacío. La ionización directa de las muestras líquidas que salen de la columna del HPLC con los procedimientos descritos para las muestras gaseosas es técnicamente muy complicado ya que se requerirían equipos de vacío muy potentes, resistentes y caros. Además es inviable para aquellos compuestos poco volátiles o lábiles térmicamente. Las técnicas que se describen a continuación (APcI, ESI, FAB y MALDI) permiten ionizar los compuestos presentes en un líquido a medida que salen de la columna cromatográfica e introducir los iones formados en la cámara de análisis con ingeniosos sistemas que combi-
Espectrometría de masas
293
nan zonas de voltaje y de vacío diferenciales. Las dos primeras son técnicas de ionización química a presión atmosférica, lo que permite introducir directamente el líquido en la cámara de ionización.
7.3.1.1. Ionización química a presión atmosférica (Atmospheric Pressure Chemical Ionization, APcI) La cámara APcI consta de: (i) una sonda tubular precalentada por la que fluye el líquido que sale de la columna HPLC (que contiene el disolvente cromatográfico y el analito); (ii) un jet de gas nebulizador (normalmente de N2) coaxial a la sonda; y (iii) un electrodo de descarga a 2-3 kv con respecto a un contraelectrodo colocado antes de los orificios de muestreo que separan la cámara APcI del espectrómetro de masas (Figura 7.17). Esta diferencia de potencial hace que los iones formados (a continuación veremos cómo se forman) se aceleren hacia el orificio de entrada al MS. A partir de este orificio de muestreo comienza el vacío de la cámara del MS. El sistema de transmisión de iones consiste en un sistema multipolar (normalmente hexa u octapolar) que con un voltaje oscilante de radiofrecuencias adecuado concentra y colima el haz de iones para que pase al analizador del MS. Conos de muestreo (Skimmer)
Gas auxiliar
Gas nebulizador Muestra líquida
Gas envolvente
Calefacción Transmisión de iones
Calefacción
Iones al analizador
Electrodo de descarga
Contraelectrodo
Salida
Bombeo mecánico
Bombeo turbomolecular
Figura 7.17. Cámara de ionización química a presión atmosférica (APcI).
El líquido entra en la cámara de ionización a través de la sonda precalentada a 300-400 °C. El jet de gas nebulizador produce un spray de microgotitas. Una corriente adicional de gas envolvente y otra de gas auxiliar permiten disminuir progresivamente el tamaño de las microgotitas por evaporación del disolvente. Entre el electrodo de descarga y el contraelectrodo se produce un plasma reactivo que produce la ionización
294
Técnicas de análisis y caracterización de materiales
en cascada del gas y de las moléculas de disolvente (H2O, metanol, CH3CN, etc.). Existen dos modos de trabajo: (i) modo de iones positivo, que utiliza N2 como gas. Este se ioniza a N2+ y entonces mediante un mecanismo complejo de cascada, se forman iones solvatados del disolvente utilizado en la cromatografía del tipo H3O+(H2O)n, CH3OH2+(CH3OH), CH3CNH+(CH3CN)n; y (ii) modo de iones negativo, que utiliza aire, el oxígeno se ioniza dando lugar al final a especies del tipo OH–(H2O). Los iones solvatados a su vez ionizarán químicamente las moléculas de analito (M) mediante procesos de transferencia de protones para producir iones (M–H)+ para el modo de iones positivo o iones (M–H)– en el modo negativo. El resultado final es que se producen gotitas nanométricas conteniendo moléculas de disolvente e iones de analito. El vacío de la cámara del espectrómetro provoca que las moléculas de disolvente se evaporen y el tamaño de la gotita comience a disminuir. Entonces se producen repulsiones eléctricas muy fuertes entre los iones presentes en las nanogotitas, lo que favorece la formación de iones moleculares de analito aislados (lo que se conoce como fenómeno de evaporación iónica). El resultado final es que se obtiene una alta concentración de iones moleculares de analito, diluidos en una nube densa de moléculas de disolvente ionizadas, listos para ser introducidos en la cámara del MS. Una característica que hay que resaltar es que fundamentalmente se genera el ión molecular ±1 Da (con una carga positiva o negativa). La técnica APcI solo es aplicable para analitos con suficiente presión de vapor como para que puedan existir en fase gaseosa en cantidades significativas para ser analizadas. Además el analito tiene que ser térmicamente estable puesto que la sonda y la APcI están calefactadas a alta temperatura. En la práctica, esta técnica está limitada a analitos volátiles de hasta alrededor de 2.000 Da. Hay que advertir también que la identificación de analitos ligeros (PM < nL j G > En
(0)
– EG
(0)
donde G representa al estado fundamental y n a los estados excitados. S es un operador que actúa exclusivamente sobre las variables de espín y que corresponde al espín aparente o efectivo del estado fundamental y no necesariamente al espín real, aunque opera de la misma forma. Se escoge un valor para este término, tal que el número total de niveles en que se desdobla el estado fundamental tras aplicación del campo magnético es 2S + 1. Resulta conveniente, en general, el empleo del hamiltoniano de espín, ya que este describe de manera completa las propiedades del sistema paramagnético y las características de los espectros EPR. Los parámetros obtenidos experimentalmente tras aplicación de un campo magnético a una muestra se ajustan generalmente a un hamiltoniano de espín según la ecuación [8.10a]. En este, no se suele incluir el segundo término de la ecuación [8.10a], el cual es efectivo solo en sistemas con S ≥ 1, quedando el hamiltoniano de espín exclusivamente con el término Zeeman electrónico: Hs = β H · g · S
[8.11]
La consecuencia de introducir la contribución de acoplamiento espín-órbita es, por tanto, la obtención de valores de g diferentes de ge. Además, dichas desviaciones dependen de la orientación del campo magnético con respecto a la muestra. Existe un sistema de ejes principales, que coincide con los ejes de simetría de la muestra, en el que el tensor g es diagonal; los valores de g correspondientes se denominan valores principales del tensor g. Una vez determinados dichos valores principales (considerando coordenadas cartesianas, estos se denominan gx, gy y gz), el valor de g que obtendríamos para cualquier orientación del campo magnético en dicho sistema viene determinado por el elipsoide que se muestra en la Figura 8.4. La desviación de g respecto a ge, según [8.10b], aumenta con la constante de acoplamiento espín-órbita y con el grado de mezcla mediante los operadores L entre el estado fundamental y los estados excitados. A modo de ejemplo, si consideramos un catión d 1 (como Ti3+ o v4+) sometido a un campo cristalino octaédrico con una compresión tetragonal, obtendríamos el desdoblamiento de niveles de energía mostrado
Técnicas de análisis y caracterización de materiales
330
en la Figura 8.5. Aplicando la ecuación [8.10b], llegaríamos a expresiones para los valores principales de g de estos iones como: gz (= g||) = ge - 8λ/Δ
y
gx = gy (= g^) = ge - 2λ/δ
[8.12]
z
gz
H
g θ y gx
φ
gy
x
Figura 8.4. Elipsoide formado con los valores principales del tensor g en coordenadas cartesianas, mostrando el valor de g que se obtendría para una orientación cualquiera del campo magnético H con respecto a los ejes principales.
Estos corresponden a las orientaciones en el eje z (sobre el que se aplica la distorsión tetragonal) y en el plano x-y del campo magnético externo. Resulta relativamente sencillo entender la dependencia de Δ y δ en estas expresiones si se consideran las expresiones de las funciones de onda de los diferentes estados (Figura 8.5) y se tiene en cuenta que el operador Lz sólo «mezcla» estados (es decir, da contribuciones no nulas en los elementos del tensor Λ) con el mismo Ml, mientras que los operadores Lx y Ly sólo pueden «mezclar» estados que difieran en 1 en su Ml. Por tanto, el tensor g, que se extrae —como se abordará en la sección 8.4— a partir de los espectros experimentales, contiene una importante cantidad de información químico-física sobre la especie paramagnética en cuestión. Algunas consecuencias prácticas importantes que surgen del análisis detallado de las expresiones mostradas en [8.10], más fácilmente visibles en el caso particular mostrado por las expresiones [8.12], serían las siguientes: – La simetría de un determinado centro paramagnético aparece directamente reflejada en el tensor g.
Espectroscopía de resonancia paramagnética electrónica (EPR)
331 dz2= 0>
eg
-1/2
dx2-y2= 2
1
ión d
∆
-1/2
dxz= 2
(+2> + -2>)
(+1> + -1>)
dyz= 2 i (-1> + +1>) -1/2
t2g
δ dxy= -2 i (+2> - -2>) -1/2
Oh
Octaedro comprimido
Figura 8.5. Desdoblamiento de los niveles de energía de orbitales d en un campo cristalino octaédrico seguido de una compresión tetragonal en el eje z, mostrando las expresiones de los orbitales resultantes en función de los valores de Ml.
– Los valores de g de un determinado ión o centro paramagnético sometido a un campo eléctrico serán más próximos a ge a medida que aumenta la fuerza de dicho campo, si tenemos en cuenta el factor que aparece en el denominador de los elementos del tensor Λ. Esto resulta de suma utilidad para determinar la naturaleza de las interacciones con el entorno de los centros (por ejemplo, con los ligandos en un complejo inorgánico o de superficie) en un determinado ión o centro paramagnético. – A modo de ejemplo, dentro de las series de metales de transición, los valores de g para iones de la serie 5d sufren, de manera general, mayores desviaciones de ge que los iones de la serie 3d, debido a la magnitud relativa de la constante de acoplamiento espín-órbita (λ) en cada caso. – Dado que el signo de la constante de acoplamiento espín-órbita (λ) cambia entre capas electrónicas más que semillenas y menos (o igual) que semillenas (por ejemplo, para metales de transición, configuraciones electrónicas dn > d5 y dn ≤ d5, respectivamente) los valores de g serán, de manera general, mayores que ge para los primeros y menores que ge para los últimos. Conviene tener en cuenta que en este análisis (como en todos los aspectos mencionados en esta sección) no se consideran las eventuales influencias de enlaces covalentes del centro paramagnético con los ligandos, que pueden tener influencias significativas en las magnitudes de desviación de los valores de g respecto a ge para cada orientación. – Como se deduce del análisis realizado para el ejemplo de la Figura 8.5, que conduce a las expresiones [8.12], el análisis de los valores de g permite extraer conclusiones sobre la configuración electrónica del estado fundamental de la especie paramagnética, de enorme importancia para la comprensión de la química de dicha especie. Se puede seguir un tratamiento similar al mostrado en esta sección para el caso de estados fundamentales en los que el campo cristalino no elimina completamente
Técnicas de análisis y caracterización de materiales
332
la degeneración orbital. En ese caso, no se pueden tratar de forma independiente los momentos angulares de espín y orbital, y se debe considerar el efecto del operador de acoplamiento espín-órbita en términos de momento angular total del estado fundamental. Esto resulta en un desarrollo más complejo que no será tratado aquí (el lector interesado puede consultar los libros mencionados en bibliografía para un desarrollo más completo de ese problema). Solo cabe mencionar que las ideas generales mostradas en esta sección se aplican también en esos casos.
8.2.4. interacción nuclear hiperfina Cuando la especie paramagnética (o, en general, el complejo o el sistema paramagnético) contiene núcleos con espín nuclear diferente de cero (este dato se puede encontrar en tablas de características generales de los elementos), es necesario tener en cuenta la interacción entre el espín electrónico y el espín nuclear, denominada interacción nuclear hiperfina. Esta consta de dos términos que incluyen, respectivamente, la interacción clásica espín electrónico-espín nuclear y una interacción de origen cuántico, denominada interacción de contacto de Fermi. Estas dan lugar, respectivamente, a términos anisótropos e isótropos que se incluyen conjuntamente en el hamiltoniano de espín en un término S · A · I, donde el tensor A se conoce como tensor hiperfino e I es el (operador de) espín nuclear. El resultado de la aplicación de la energía de interacción clásica entre el espín electrónico y el espín nuclear (véase abajo, ecuación [8.14]) es nulo para distribuciones de carga esféricamente simétricas como sería el electrón 1s en un átomo de hidrógeno. En cambio, el espectro de dicho átomo muestra la existencia de niveles de energía que deben surgir de dicha interacción. Esta aparente contradicción fue resuelta por Fermi, mostrando que existe una interacción de origen cuántico, correspondiente a la parte isótropa de la interacción hiperfina, y que en sistemas de un solo electrón corresponde aproximadamente a: Eiso = 8π/3 |ψ(0)|2 μez μNz
[8.13]
ψ(0) representa a la función de onda evaluada en el núcleo. Solo electrones en orbitales s presentan una densidad electrónica no nula en el núcleo y, por tanto, solo electrones que estén en (o contengan contribuciones de) orbitales tipo s pueden dar lugar a esta interacción hiperfina isótropa. Por otro lado, μez y μNz corresponden a las componentes z de los momentos dipolares magnéticos electrónico y nuclear, respectivamente. La introducción de la energía correspondiente a la interacción de Fermi en el hamiltoniano de espín se realiza mediante un término del tipo hA0S · I donde A0 se denomina (constante de) acoplamiento hiperfino isótropo. Por otro lado, la energía clásica de interacción entre dos dipolos magnéticos (en este caso de origen, respectivamente, electrónico y nuclear) separados por una distancia r es: Edipolar =
me · m N r3
–
3( m e · r ) ( m N · r ) r5
[8.14]
Espectroscopía de resonancia paramagnética electrónica (EPR)
333
donde el vector r une el electrón y el núcleo, y μe y μN son, respectivamente, los momentos magnéticos electrónico y nuclear. Sustituyendo los valores de μe y μN en la ecuación [8.14] por los correspondientes operadores mecanocuánticos (teniendo en cuenta que μe = –g β S y que μN = gN βN I) se llega al hamiltoniano dipolar: S⋅I 3( S ⋅ r )( I ⋅ r ) H dip = – g ββ N β N – r3 5 r
[8.15]
El hamiltoniano completo para la interacción espín electrónico-espín nuclear debe incluir también el término isótropo (a partir del cual se extrae la ecuación [8.13]) hA0S · I. En el caso de un sistema con un electrón desapareado y un núcleo con espín no nulo, el hamiltoniano de espín quedaría: Hs = β H · g · S + h S · A · I – gnβN H · I
[8.16]
donde el último término corresponde a la interacción Zeeman nuclear y a incluye tanto la parte isótropa como la anisótropa de la interacción hiperfina según: A = A01 + T
[8.17]
La presencia de interacciones hiperfinas en una determinada especie paramagnética se traduce en la aparición de una serie de líneas, caracterizadas por su similar separación, en el espectro. En general, el espectro presentará 2I + 1 líneas cuya intensidad depende de la abundancia natural de los correspondientes isótopos con espín nuclear del elemento objeto de estudio y que estarán separadas entre sí en la magnitud determinada por los valores del tensor A. Se puede deducir que el análisis del número de líneas que presenta el espectro así como de la magnitud de la separación entre dichas líneas permite la identificación completa de una determinada especie paramagnética. A modo de ejemplo, teniendo en cuenta los valores correspondientes de espín nuclear, cuando tengamos un espectro de especies que contienen vanadio (51V, con 99,75% de abundancia natural, presenta I = 7/2) observaremos, de manera general, desdoblamientos hiperfinos en 8 líneas (2 x 7/2 + 1) mientras que si la especie paramagnética contiene nitrógeno (14N con 99,64% de abundancia natural, presenta I = 1) observaremos desdoblamientos hiperfinos en 3 líneas (2 × 1 + 1). Por otro lado, según [8.13] – [8.15], la magnitud del desdoblamiento hiperfino es proporcional al momento magnético nuclear que es diferente para cada tipo de núcleo, lo que puede permitir diferenciar entre especies que presentan el mismo espín nuclear. En algunos sistemas se observan líneas provenientes de la interacción del electrón desapareado del átomo (o ión) central con núcleos de ligandos que rodean al mismo. En estos casos, las líneas que aparecen en el espectro debido a esta interacción hiperfina se conocen como estructura superhiperfina, denominándose en ese caso estructura hiperfina a la proveniente exclusivamente de la interacción del electrón desapareado con el núcleo del átomo (o ión) central. La presencia de dicha estructura superhiperfina en un determinado espectro pondría de manifiesto la existencia de enlaces covalentes entre el ión central y los ligandos en el complejo.
Técnicas de análisis y caracterización de materiales
334
8.2.5. interacción cuadrupolar Los núcleos con I > ½ presentan momento cuadrupolar. La interacción de este con el gradiente de campo eléctrico debido a los electrones que rodean al núcleo es denominada interacción cuadrupolar y viene medida por el tensor cuadrupolar Q. Este aparece incluido en un término HQ = h I · Q · I, que, en simetría axial, es proporcional a [Iz2 – 1/3I(I + 1)]. En primer orden, aplicable cuando esta interacción no presenta una magnitud apreciable respecto a la energía Zeeman, esta interacción produce cambios en la energía de los niveles de espín correspondientes aunque no modifica la energía de las transiciones permitidas respecto a lo esperado en ausencia de la misma, como se muestra en el ejemplo de la Figura 8.6. Zeeman electrónico
hiperfino
cuadropolar mI 5/2 3/2
ms= 1/2
1/2 -1/2 -3/2 -5/2
-5/2 -3/2 ms= -1/2
-1/2 -1/2 3/2 5/2
Figura 8.6. Desdoblamiento de niveles de energía y transiciones esperadas en un sistema con un electrón desapareado en interacción con un núcleo con espín I = 5/2.
8.2.6. interacción espín electrónico-espín electrónico Si en el sistema estudiado existen electrones desapareados suficientemente próximos entre sí, se obtienen nuevos términos en el hamiltoniano de espín que incluyen las interacciones entre estos electrones. En este caso, de manera similar al caso descrito en la sección anterior, existe una contribución clásica, similar a la ecuación [8.14]: Edipolar =
me1 · m e 2 3 r 12
–
3( m e 1 · r 12 ) ( m e 2 · r 12 ) 5 r 12
[8.18]
Espectroscopía de resonancia paramagnética electrónica (EPR)
335
Por otro lado, si los orbitales de ambos electrones se superponen de forma apreciable, hay que considerar los efectos de origen cuántico de la interacción de intercambio de la forma hJS1 · S2, donde J es la integral de intercambio. Esta interacción tiende a separar los estados singlete y triplete resultantes de la interacción entre los dos espines. De la misma forma que en la sección anterior, ambas interacciones se integran en un único tensor D, llegando a un hamiltoniano para la parte de la interacción espín-espín de la forma: Hss = S · D · S
[8.19]
Esta interacción, así como el término final que presenta la misma forma en la ecuación [8.10a] —y del cual no es experimentalmente separable—, resulta efectiva (es decir, produce cambios en la magnitud del desdoblamiento de niveles con el campo magnético aplicado) solo en sistemas con dos o más electrones desapareados (estados S ≥ 1). Estos casos relativamente más complejos, cuyos rasgos esenciales aparecen desarrollados en los textos mencionados en bibliografía, no serán tratados aquí.
8.2.7. fenómenos dependientes del tiempo Los dipolos magnéticos presentes en un sistema paramagnético interaccionan química o magnéticamente entre sí y con su entorno. El efecto principal de estas interacciones es que las líneas del espectro presentan una anchura finita. El análisis de las anchuras de línea de un espectro puede dar información importante sobre fenómenos dependientes del tiempo que ocurren en el sistema paramagnético. Para ello, es necesario conocer primero los procesos de relajación que afectan al sistema.
8.2.7.1. Relajación espín-red Si se tiene un sistema paramagnético en el que, para mayor simplicidad, los dipolos magnéticos que lo constituyen estén suficientemente alejados los unos de los otros, al aplicarle un campo magnético se producirá una separación de sus niveles de espín, según se mostró anteriormente en la Figura 8.3. La cantidad de dipolos que se encontrarán a una determinada temperatura, T, en cada uno de los estados de energía resultantes de dicha interacción corresponde a la dada por la distribución de Boltzmann.5 Entonces, en el caso de un sistema con S = 1/2, como el mostrado en la Figura 8.3, y denominando estados β y α a los dos estados de energía resultantes de la interacción Zeeman (Figura 8.7), la relación entre las poblaciones de dichos estados sería: nα nβ 5
= e– nE / kT = e– gbH / kT
[8.20]
Estrictamente hablando, los electrones siguen estadísticas de Fermi-Dirac, pero cuando las interacciones entre electrones son débiles se puede aplicar la estadística de Boltzmann.
Técnicas de análisis y caracterización de materiales
336
Al introducir una radiación electromagnética de la frecuencia adecuada para producir transiciones entre los estados β y α se producirá un cambio en las poblaciones según: dn/dt = –2 nβ P↑ + 2 nα P↓
[8.21]
donde n = (nβ – nα) y P↑ y P↓ son las probabilidades de transición de β a α y de α a β, respectivamente (Figura 8.7). El factor 2 aparece porque n cambia en 2 al producirse una transición individual. Sz
estado α
+1/2gβH
Población
+1/2
nα
-1/2
nβ
P
P
-1/2gβH estado β
Figura 8.7. Niveles de energía de espín electrónico de un sistema paramagnético con dipolos magnéticos con espín S = 1/2 diluido magnéticamente sometido a un campo magnético H.
Cuando se alcanza el estado estacionario no se produce cambio en las poblaciones de los dos niveles, es decir, dn/dt = 0. El valor de n en dicho estado estacionario sería, sustituyendo en [8.21]: P↓ − P↑ n0 = N P↓ + P↑
[8.22]
donde N = (nβ + nα). El análisis de la ecuación [8.22] pone de manifiesto que si las probabilidades de transición fuesen iguales, en el estado estacionario se igualarían las poblaciones de ambos estados de espín (se saturaría completamente el sistema de espín). En dichas condiciones, no se produciría una absorción neta de radiación. Por otro lado, considerando la ecuación de Boltzmann (ecuación [8.20]), el sistema de espín alcanzaría T = ∞, es decir, no mantendría un equilibrio termodinámico con su entorno. Estos hechos están en contradicción con los resultados experimentales ya
Espectroscopía de resonancia paramagnética electrónica (EPR)
337
que se puede mantener de manera permanente una absorción neta de radiación electromagnética (siempre que se mantenga a un nivel moderado —que depende de cada tipo de especie— la potencia de las microondas) al situar el campo magnético del espectrómetro en la posición de resonancia de una determinada especie. Esto es debido a que existe un mecanismo por el cual el sistema de espín disipa su energía al entorno (la red) manteniendo así el equilibrio termodinámico con su entorno. Dicho mecanismo se denomina relajación espín-red. La ecuación [8.21] se puede reformular de la siguiente manera: n – n0 dn =– dt T1
[8.23]
donde T1 = 1/(P↓ + P↑) se denomina tiempo de relajación espín-red, el cual es característico de cada sistema paramagnético. T1 es característico del tiempo de vida media de los estados de espín. Teniendo en cuenta el principio de incertidumbre de Heisenberg (ΔE Δt ≥ h/2π), T1 se puede considerar como una medida de Δt. Por tanto, cuanto menor sea T1 mayor será la incertidumbre en la energía. En otras palabras, la anchura de las líneas de un determinado espectro será mayor cuanto menor sea el tiempo de relajación espín-red. Se han propuesto dos tipos de procesos que contribuyen a T1. El proceso directo corresponde a una transición entre los dos estados de espín con la emisión o absorción (dependiendo de si la transición en el sistema de espín es down o up, respectivamente) de un fonón de la red. En el proceso Raman las energías del fonón absorbido y emitido serían diferentes. Para ambos casos se propone que T1 es directamente proporcional a (E2 – E1)n –siendo n = 4 o 6–, donde E1 es la energía del estado fundamental y E2 es la energía del siguiente nivel orbital excitado. Es decir, la presencia de niveles orbitales excitados próximos al estado fundamental producen una importante disminución del tiempo de relajación espín-red. Un ejemplo típico de esta situación lo constituyen determinados estados de cationes de tierras raras, por ejemplo Ce3+. Por otro lado, se propone que T1 es inversamente proporcional a λ2, a Hn, con n = 4 o 2, y a Tn, con n = 1 o 7. Es decir, cabe esperar menores tiempos de relajación espín-red para especies con mayor constante de acoplamiento espín-órbita. Por otro lado, la dependencia de T1 con la temperatura, junto con la distribución de Boltzmann (ecuación [8.20]) motivan el empleo de temperaturas lo más bajas posibles para la realización de espectros EPR. Esto conduce a la obtención de mejores resoluciones (disminución de anchuras de línea debido a la influencia de T1) y mayores intensidades (proporcional a la diferencia de poblaciones de espín) en las señales. Se puede forzar la saturación, en mayor o menor medida, del sistema de espín (es decir, se le puede sacar del equilibrio termodinámico) empleando potencias de microondas relativamente altas que no permitan la relajación completa del sistema. Estos experimentos, denominados de saturación, pueden resultar muy útiles para diferenciar especies que solapan en el espectro y que presenten diferentes tiempos de relajación.
338
Técnicas de análisis y caracterización de materiales
8.2.7.2. Otras fuentes de ensanchamiento de línea y mecanismos que contribuyen al ensanchamiento En general, se pueden distinguir dos tipos de contribuciones a la anchura de las líneas presentes en un espectro EPR. En primer lugar, el ensanchamiento homogéneo incluye la contribución espín-red tratada en la sección anterior así como otras interacciones que afectan de idéntica manera a cada uno de los dipolos presentes en el sistema paramagnético. Es decir, interacciones en las que el campo magnético efectivo que «ve» cada dipolo magnético en el sistema, en la escala de tiempo del experimento EPR, es igual para cada uno de ellos. La forma de línea del espectro resultante de estas interacciones homogéneas es normalmente lorentziana. Se debe definir un nuevo tiempo de relajación resultante de este tipo de interacciones como T2, tal que: 1/T2 = k γe G
[8.24]
donde G es la anchura a mitad de altura de la línea del espectro, k es una constante que depende de la forma de línea y γe es el factor giromagnético electrónico. Entre los mecanismos que contribuyen a esta fuente de ensanchamiento se incluyen tanto la mencionada interacción espín-red así como, en general, interacciones espín-espín (tanto electrónico como nuclear). Un ejemplo de estas sería el caso de interacciones entre espines electrónicos iguales entre sí; en el caso de dos electrones, considerando el esquema de la Figura 8.7, las interacciones entre ellos pueden hacer que uno pase del estado α al β y el otro, simultáneamente, del β al α. Esta interacción no cambiaría la energía total del sistema, pero sí los tiempos de vida de los estados de espín y, por tanto, contribuiría al ensanchamiento de línea. Existen además otras fuentes de ensanchamiento de línea denominadas inhomogéneas, ya que en este caso los campos magnéticos efectivos a los que está sometido cada dipolo en el sistema paramagnético son diferentes. Como consecuencia, la línea observada en el espectro en este caso es una superposición de un gran número de componentes individuales, cada una de ellas ligeramente diferente a la otra. El resultado del solapamiento de estas componentes se aproxima a una forma de línea gaussiana. Algunas de las causas de este ensanchamiento inhomogéneo pueden ser las siguientes: – Un campo magnético externo inhomogéneo. – Interacciones anisótropas en sistemas orientados al azar o poco ordenados en estado sólido. Estas pueden provenir de centros paramagnéticos que presenten entornos químicos ligeramente diferentes entre sí o directamente de la anisotropía en los tensores g o A para sistemas policristalinos.
8.2.7.3. Ensanchamiento de origen químico o por efectos de movilidad El tiempo de vida de un determinado estado de espín puede estar limitado por procesos químicos a los que esté sometida la especie paramagnética (cambios conformacionales, transferencias electrónicas desde o hacia los radicales paramagnéti-
Espectroscopía de resonancia paramagnética electrónica (EPR)
339
cos, intercambios de espín entre radicales similares, etc.) o, simplemente, por la movilidad del propio radical. Estos fenómenos dan lugar a cambios en el espectro observado produciendo ensanchamientos o estrechamientos en las líneas del espectro. Estos van a depender de manera general de la velocidad a la que ocurren los cambios en las especies paramagnéticas con respecto al tiempo necesario para realizar la medida EPR. Un modelo general de los cambios producidos en el espectro en estos casos se muestra en la Figura 8.8, que presenta los puntos característicos en un ejemplo hipotético de un radical libre que puede existir en dos formas distintas A y B (en un equilibrio conformacional, por ejemplo), cada una dando lugar, en principio, a una línea en el espectro a diferente campo magnético. Si no hay interconversión o la velocidad de interconversión entre las conformaciones A y B es muy lenta, el espectro estará formado por las dos líneas correspondientes a cada una de las conformaciones (Figura 8.8a). A medida que se aumenta la velocidad de interconversión, se observará un primer efecto de ensanchamiento de las dos líneas, debido a la disminución en el tiempo de vida de cada una de ellas —y a la aplicación del principio de incertidumbre de Heisenberg, según se comentó anteriormente— (Figura 8.8b). En este estadio, que se puede denominar como de interconversión lenta, la anchura de línea (G) y el tiempo de vida de las especies A o B (2τ) se relacionan por la fórmula indicada en la Figura 8.8b, donde G0 es la anchura en ausencia de interconversión y, de manera general: τ = (τa τb)/( τa + τb)
[8.26]
de forma que si τa = τb, el tiempo de vida media de las especies A o B es 2τ. A medida que la velocidad del proceso de interconversión se aproxima a la diferencia entre las frecuencias resonantes de ambas especies, las líneas continúan el proceso de ensanchamiento y comienzan un proceso de coalescencia desplazándose (suponiendo el mismo tiempo de vida para cada una de las especies) hacia su punto medio (Figura 8.8c). Por fin, cuando la interconversión es suficientemente rápida, la técnica no puede distinguir el estado A del estado B, resultando una única línea en el espectro, que se va estrechando a medida que aumenta la velocidad de interconversión (Figuras 8.8d,e). En procesos de intercambio de espín entre radicales, a este último estrechamiento se le denomina exchange narrowing (o estrechamiento por intercambio). En el caso de que los tiempos de vida de cada una de las especies fuesen diferentes, si suponemos que cada una tiene probabilidades pA y pB, el punto de convergencia de las dos líneas sería: =
p A H A + pB H B p A + pB
[8.27]
Estos conceptos se pueden aplicar al caso en el que un determinado radical en un entorno anisótropo presente movilidad. En esos casos se observarían promediados de las componentes de los tensores g y A correspondientes a las componentes espaciales asociadas al movimiento que lleva a cabo el radical, lo que resulta muy útil en estudios sobre la dinámica molecular de dichos radicales. En términos generales, el
Técnicas de análisis y caracterización de materiales
340
ensanchamiento producido en estos casos va a depender de δH0 (suponiendo que el movimiento del radical conlleve el promediado de dos líneas en el espectro), según una fórmula similar a la ecuación de la Figura 8.8d, lo que conduce normalmente a diferencias entre las anchuras de línea dentro de un determinado espectro y sirve de ayuda (además del correspondiente promediado) para identificar el tipo de movimiento que lleva a cabo el radical. Resulta sumamente útil en estos estudios la realización de espectros a temperatura variable, que permiten pasar de situaciones más estáticas a situaciones de mayor movilidad en los radicales. A
B τ→ Γ= Γ0
(a)
(b) (c)
δH0 Γ= Γ0 + (2τγe)
-1
δH2
(d)
(e)
(δH0 - δHe ) = 2 (2τγe) 2
2 1/2
1/2
-1
Γ= Γ0 + 1/4 (τγe) 2
τ→ 0 Γ= Γ0
Figura 8.8. Simulaciones de espectros EPR mostrando el efecto de la velocidad de interconversión entre dos conformaciones A y B de un radical libre (reproducido del libro de Wertz-Bolton).
8.3. insTrUMenTación Como en cualquier espectrómetro, el espectrómetro de EPR contiene una fuente de radiación, así como dispositivos para la detección de la absorción de radiación en la muestra. Además, para producir la separación energética de los niveles de espín, el espectrómetro EPR contiene unos electroimanes que generan el campo magnético externo al que es sometida la muestra. A diferencia de otros espectrómetros ópticos, la fuente de radiación (el klystron) emite radiación monocromática, no requiriendo un monocromador. Como se comentó en el apartado 8.2.2, debido a la mayor versatilidad en los componentes implicados, el espectrómetro EPR opera a una frecuencia de microondas fija, variándose la separación energética de los niveles de espín mediante variaciones en el campo magnético. Esta disposición, junto al empleo de un sistema de detección sensible a la fase, permite obtener una sensibilidad significativamente mayor que en otros espectrómetros, que puede alcanzar típicamente (en banda X) las 1011 especies.
Espectroscopía de resonancia paramagnética electrónica (EPR)
341
8.3.1. espectrómetro básico Los componentes típicos de un espectrómetro EPR (en este caso, de banda X que es el habitualmente empleado), así como su disposición, se muestran en la Figura 8.9.
8.3.1.1 Sistema de la fuente de microondas La fuente de microondas es un klystron. El klystron es un generador de microondas que consiste en un tubo de vacío que produce oscilaciones de microondas en un rango pequeño de frecuencia. Los modos de operación del espectrómetro vienen determinados por la frecuencia de la microonda emitida. La mayoría de los espectrómetros operan en banda X que corresponde a una emisión en torno a 9,5 GHz. Existen también fuentes de microondas a otras frecuencias dando lugar a los modos de operación en bandas L (1,5 GHz), S (3,0 GHz), C (6,0 GHz), K (23 GHz), Q (36 GHz), v (50 GHz), W (95 GHz), etc. La estabilización (monocromática) de la frecuencia emitida por el klystron se realiza mediante un dispositivo de control automático de frecuencia, siendo necesario evitar reflexiones de microonda hacia el klystron, lo que se realiza por medio del aislador que es un dispositivo que atenúa en gran medida las ondas dirigidas de vuelta hacia el klystron al tiempo que permite el paso de las ondas hacia la parte de absorción-detección del espectrómetro. Terminación
Medidor de ondas Klystron
Aislador
Guía de ondas rectangular (12,7 x 15,4)
Circulador o T mágica
Electroimanes
Cristal detector
Atenuador
Celda y muestra Anillos de modulación
Sintonizador Cavidad resonante
100 kHz
Figura 8.9. Componentes básicos de un espectrómetro EPR en banda X y disposición de los mismos.
El medidor de ondas es una cavidad resonante cilíndrica que permite medir la frecuencia de la microonda, aunque generalmente con baja precisión. Se puede acoplar un contador de frecuencia para mayor precisión en esta medida, o utilizar un
342
Técnicas de análisis y caracterización de materiales
compuesto químico patrón (como el DPPH). En este último caso, realizando el espectro de dicho patrón en cada medida y considerando su valor de g (2,0036) y la condición de resonancia (ecuación [8.7]), se calcula la frecuencia a la que se realiza cada experimento. El atenuador ajusta (disminuye) la potencia de la microonda emitida, para tratar de evitar fenómenos de saturación en los espectros.
8.3.1.2. Cavidad resonante La cavidad resonante es considerada el corazón del espectrómetro ya que sirve para concentrar la potencia de microondas en la muestra que se sitúa en su centro. La reflexión de las ondas en sus paredes hace que aquellas ondas cuya longitud de onda no sea submúltiplo de una dimensión de dicha cavidad interfieran destructivamente. La frecuencia a la que la mitad de la longitud de onda corresponde a la dimensión de la cavidad se conoce como frecuencia resonante fundamental y es la que se busca en el experimento EPR. Otras funciones fundamentales de la cavidad resonante, que determinan la geometría de la misma, son las siguientes: (a) debe permitir una alta densidad de energía; (b) debe disponer la muestra en una posición en la que el campo magnético de la microonda sea máximo y el campo eléctrico de la misma sea mínimo; (c) además, como se comentó anteriormente, el campo magnético de la microonda debe disponerse perpendicular al campo magnético externo. La respuesta de una cavidad resonante, en términos de la cantidad de energía capaz de acumular, se mide mediante un factor de mérito denominado factor Q. Dicho factor Q disminuye cuando la muestra presenta una alta constante dieléctrica e interacciona con la parte eléctrica de la microonda. Un caso típico, en este sentido, es la presencia de agua en la muestra. Por ello, se emplean celdas planas especiales para realizar espectros en medios acuosos o, en general, con alta constante dieléctrica. Por otro lado, en la cavidad resonante existe un dispositivo que permite la entrada y salida de radiación y que se conoce como iris.
8.3.1.3. Sistema de generación del campo magnético El espectrómetro dispone de un sistema de electroimanes para la generación del campo magnético externo. El campo magnético generado por dichos electroimanes debe presentar unas características de estabilidad y uniformidad sobre el volumen de la muestra con una homogeneidad de ± 10 mG. Además, el campo magnético que «ve» la muestra está modulado, empleando normalmente una frecuencia de modulación de 100 kHz. Para ello, se disponen unas pequeñas bobinas de Helmholtz en la parte externa de la cavidad. El empleo de este sistema de modulación tiene ventajas tanto para la obtención de relaciones señal/ ruido menores como respecto de la sensibilidad del aparato. El sistema de detección es sensible a esta modulación, lo que tiene como consecuencia la obtención de señales en primera derivada de la curva de absorción, en lugar de obtener (como ocurre
Espectroscopía de resonancia paramagnética electrónica (EPR)
343
en otras espectroscopías) directamente la curva de absorción, como se muestra en la Figura 8.10. Es importante, en este sentido, aplicar amplitudes de modulación no demasiado grandes en comparación con la anchura de la señal que se mida, para evitar distorsiones en la señal obtenida, si bien hay que tener en cuenta que la amplitud de la señal obtenida será proporcional a dicha amplitud de modulación, por lo que interesa buscar un compromiso entre ambos aspectos.
8.3.1.4. Sistema de detección y modo de operación El detector más comúnmente empleado es un cristal de silicio. Este cristal produce un ruido inherente que es inversamente proporcional a la frecuencia de modulación de la señal detectada. El empleo generalizado de 100 kHz como frecuencia de modulación se basa en el hecho de que, a esta frecuencia, el ruido producido por el detector es menor que el producido por otras fuentes. Otro detector menos empleado es el denominado bolómetro, que consiste en una resistencia en forma de espira que se calienta con la interacción con la componente de campo eléctrico de la microonda. El cambio producido en la resistencia de la espira se puede detectar con un puente de Wheatstone. Aunque opera correctamente a bajas frecuencias, su sensibilidad es muy baja a frecuencias de modulación por encima de 1.000 Hz. Primera derivada
Amplitud de modulación
Curva de absorción
respuesta
Campo magnético (G)
Campo magnético (G)
Figura 8.10. Curva de absorción y respuesta del detector como primera derivada debido a la modulación del campo magnético.
Por otro lado, el espectrómetro tiene un elemento de cuatro ramas en el centro del puente, que se denomina circulador, T mágica o anillo híbrido. Este es un componente de microondas que divide la potencia enviada desde el klystron entre la rama de terminación y la rama de la cavidad resonante. Cuando se produce un desequilibrio en esta distribución de potencia, es decir, cuando se produce absorción en la cavidad resonante, se compensa enviando potencia hacia el detector.
Técnicas de análisis y caracterización de materiales
344
8.4. aPlicaciOnes. caracTerísTicas Generales de lOs esPecTrOs ePr de sisTeMas MOnO y POlicrisTalinOs. ParTicUlaridades de sisTeMas en fase líQUida La mayor parte de los casos en estado sólido responden a un caso general en el que los centros paramagnéticos están en un entorno químico anisótropo que se refleja en las características del espectro EPR. En esta sección se van a mostrar algunos ejemplos de estos casos para el caso más simple, que corresponde a una gran mayoría de los casos reales, de especies con un solo electrón desapareado (S = ½); la extensión a casos en los que la especie paramagnética contiene más de un electrón desapareado requiere, salvo en determinados casos particulares, análisis más complejos que se salen del ámbito de este capítulo y que se pueden encontrar, más o menos completamente, desarrollados en los libros mencionados en bibliografía. Los ejemplos que se presentan en esta sección cubren, en principio, una gran cantidad de sistemas (con S = ½) que nos podemos encontrar, tanto en estado sólido (en muestras mono o policristalinas) o líquido. En el caso de los sistemas en estado sólido, se incluirían los siguientes: – Radicales libres orientados en sólidos. Tales radicales son a menudo generados mediante irradiación. – Iones de metales de transición en mono y policristales. – Defectos puntuales en mono y policristales. En el apartado 8.2 se mostraron los diferentes parámetros que definen un sistema paramagnético. Estos están representados por tensores que contienen las diferentes interacciones presentes en dicho sistema. Como se explicó de forma breve en dicha sección, para cada uno de los citados tensores existe un conjunto de ejes espaciales en los que el tensor es diagonal (sistema principal de ejes). Los valores de estos tensores son los parámetros buscados en la espectroscopía EPR.
8.4.1. espectros en sistemas monocristalinos El primer caso a considerar sería el caso isótropo en el que el centro paramagnético presenta el mismo entorno químico en los tres ejes cartesianos. En este caso (en ausencia de estructura hiperfina), se obtiene una única línea en el espectro, independiente de la orientación del cristal, a un valor de g correspondiente a la condición de resonancia (ecuación [8.7]; véase también Figura 8.4). Se van a analizar en más detalle los casos anisótropos en que el centro paramagnético presenta simetría axial y simetría ortorrómbica o menor, en ausencia de interacción hiperfina. En una sección posterior se muestra también algún caso particular, en el que la obtención de la constante de acoplamiento hiperfino es relativamente sencilla, de la influencia de la presencia de acoplamiento hiperfino.
8.4.1.1. Sistemas con simetría axial Un ejemplo de sistema con simetría axial lo constituye el defecto puntual V – en óxidos alcalino-térreos o en haluros alcalinos o alcalino-térreos, que se muestra en la
Espectroscopía de resonancia paramagnética electrónica (EPR)
345
Figura 8.11. Este defecto se propone que está formado por un ión O– adyacente a una vacante catiónica. El sistema tiene simetría axial presentando un eje de orden 4 en la dirección que une el O– con la vacante. 2+
M
2-
O
-
2-
O
2+
M
2+
M
O
2-
O
2+
M
Figura 8.11. Geometría propuesta para el defecto V – en óxidos alcalino-térreos.
Se toma como costumbre designar a dicho eje único como el eje z. En el caso, por ejemplo, de CaO, cuando el campo magnético H es paralelo al eje z y empleando una frecuencia de microonda de ν = 9,0600 GHz, se observa una línea a 3233,2 G. Si se rota el cristal, de forma que H sea paralelo al plano (100), la línea se desplaza hasta 3127,6 G. La variación típica de la posición de las líneas con la orientación del cristal en estos casos se muestra en la Figura 8.12. Hay que tener en cuenta en la interpretación del espectro completo que al tratarse de un sistema cúbico, las direcciones [001], [010] y [100] son equivalentes y que, por tanto, la probabilidad de que el defecto esté orientado en cualquiera de ellas es la misma. Entonces, para este caso de simetría tetragonal, las posiciones de las líneas se repetirían cada 90º al rotar la muestra; en el caso de que tengamos el cristal orientado según el eje z, obtendríamos las posiciones de línea en función de la orientación que se muestran en la Figura 8.12. El espectro completo viene descrito por dos valores de g correspondientes a los campos máximo y mínimo a 3233,2 y 3127,6 G. Aplicando la condición de resonancia (ecuación [8.7]), estos valores (denominados g paralelo (g||) y g perpendicular (g^)) son: g par =
6,6262 ⋅ 10 –27 × 9,0600 ⋅ 109 hn = = 2,0021 nH par 9, 2741 ⋅ 10 –21 × 3233, 2
[8.28a]
g perp =
6,6262 ⋅ 10 –27 × 9,0600 ⋅ 109 hn = = 2,0697 nH perp 9, 2741 ⋅ 10 –21 × 3127,6
[8.28b]
Por otro lado, las líneas del espectro, que aparecen en las posiciones mostradas en la Figura 8.12, vienen descritas por un factor g efectivo según: g2eff = g2|| cos2θ + g^2 sen2θ
[8.29]
donde θ es el ángulo entre H y el eje z, y que daría lugar al elipsoide mostrado en la Figura 8.4 (en este caso con gx = gy ≠ gz).
Técnicas de análisis y caracterización de materiales
346
3250
H (Gauss)
3233,2 G
3200
3150 3127,6 G
0
15
30
45
60
75
90
(grados)
Figura 8.12. Dependencia angular de las líneas del espectro EPR del centro V –.
Como se mostrará en la sección 8.4.1.3, los valores g|| y g^ son los que resultan de la diagonalización del tensor g en un hamiltoniano general de la forma mostrada en la ecuación [8.11]. En este caso particular, la diagonalización lleva a un hamiltoniano de la forma: H = β [g^ (HxSx + HySy) + g|| HzSz]
[8.30]
8.4.1.2. Sistemas con simetría ortorrómbica o menor Un ejemplo de un sistema con simetría ortorrómbica es el ión O2– inmerso en la estructura de un cristal de haluro alcalino-térreo, como se muestra en la Figura 8.13. En este caso, la simetría del centro paramagnético es ortorrómbica. A diferencia del caso axial, el espectro está caracterizado en este caso por tres valores principales de g, que para el ejemplo propuesto en la Figura 8.13 son gx = 2,0069, gy = 1,9994 y gz = 2,1124. Suponiendo que el sistema no mostrase estructura hiperfina, el hamiltoniano de espín que lo describe sería: H = β (gx HxSx + gy HySy + gz HzSz)
[8.31]
Por otro lado, el valor de g efectivo sería, en este caso (véase Figura 8.4): g2eff = gx2 cos2θHX + gy2 cos2θHY + g2z cos2θHZ
[8.32]
Espectroscopía de resonancia paramagnética electrónica (EPR)
347
donde θHX, θHY y θHZ son, respectivamente, los ángulos entre el campo magnético H y los ejes xyz. Si llamamos a los cosenos de esos ángulos lx, ly y lz, se puede observar que el valor de g efectivo sale, de forma general, del producto tensorial: g2eff = l · g2 · l
[8.33]
donde l es un vector tridimensional y g2 es un tensor 3 × 3, diagonal, con los valores principales gx2, gy2 y gz2. Las componentes del vector l se denominan cosenos directores. = F– = Ca2+
z
= O2–
x
–
y
Figura 8.13. Orientación propuesta para el ión O2– en CaF2.
8.4.1.3. Determinación experimental general del tensor g en sólidos En el caso en que el monocristal no esté orientado, se escogen tres ejes de laboratorio cualesquiera xyz. A partir del valor de geff que se obtiene para cada orientación se puede obtener un tensor g2, aplicando la ecuación [8.33], que en el caso general no será diagonal. Los valores principales del tensor g salen de diagonalizar la matriz g2 anterior, es decir, de resolver la ecuación L · g2 · L+ = g2d donde L es una matriz 3 × 3, cuyas componentes son los cosenos directores que conectan los ejes moleculares XYZ del centro paramagnético con los ejes xyz de laboratorio, L+ es la transpuesta de L y g2d es la matriz diagonal buscada.
8.4.1.4. Presencia de estructura hiperfina El hamiltoniano general que se aplica en estos casos es el mostrado en la ecuación [8.16]. Si se supone, para mayor simplicidad, un factor g isótropo y que el término Zeeman electrónico es dominante (desde el punto de vista energético), la ecuación [8.16] se puede escribir como:
Técnicas de análisis y caracterización de materiales
348
H = gβHSz – gNβNHeff · I
[8.34]
Heff = H + Hhf Hhf = –h/gNβN S · A = –hSz/gNβN l · A donde l es, en este caso, un vector unidad en la dirección de H · Hhf es el campo magnético generado en el núcleo debido a la interacción hiperfina electrón-núcleo. El espín nuclear I debe estar cuantizado a lo largo de Heff. Se pueden considerar entonces tres casos particulares: a) |H| >> |Hhf |. En este caso, se puede considerar que I está cuantizado en la dirección del campo externo H. El hamiltoniano de la ecuación [8.16] se puede escribir entonces: H = gβHSz + hSzIz 1 · A · 1 – gNβNHIz
[8.35]
donde 1 es un vector unitario en la dirección de H. Un ejemplo de este caso podría ser el centro VOH en MgO formado por un ión O– unido a una vacante catiónica con un grupo hidroxilo adyacente. En este, la constante de acoplamiento hiperfino (que surge de la interacción con el protón del grupo hidroxilo) varía, en función de la orientación del cristal, entre –0,83 G y 1,72 G, correspondiente a |Hhf | = 538 G para el máximo desdoblamiento, frente a |H | ~ 3200 G (cuando se usa un espectrómetro en banda X). En ese caso, la constante de acoplamiento hiperfino muestra una dependencia angular, en función de los términos isótropo y anisótropo del acoplamiento hiperfino (A0 y B, respectivamente) según: A(θ) = A0 + B(3 cos2θ – 1)
[8.36]
b) |H | ≈ |Hhf |. En este caso, el eje de cuantización de i no es el mismo para Sz = ½ o –½ . Esto tiene como consecuencia, a diferencia de los casos (a) y (c) en que se observarían en todo caso grupos de 2I + 1 líneas, la aparición de nuevas líneas satélite (que podrían asimilarse a transiciones prohibidas) en el espectro, lo que puede llevar a confusión a la hora de identificar los centros paramagnéticos. c) |H | > 2 πS ( v )
[9.8]
donde S (v) es el rango de frecuencias ocupado por las distintas señales que componen el espectro. En el caso de ωi = ωo (frecuencia de resonancia) el campo efectivo será 1 Bef ≈ B
[9.9]
en el plano y'z'. y la magnetización precesionará en torno de B 1 En el caso de que la muestra sea irradiada con un impulso de π/2 la magnetiza se dispondrá según el eje y'. Para ello, el campo B deberá satisfacer la expreción M 1 sión (Figura 9.5b) π / 2 = γ ⋅ B1 t p
[9.10]
La introducción de la condición [9.8] en la ecuación [9.10] conduce a t p 1/2.
Técnicas de análisis y caracterización de materiales
372
– HP es la interacción del momento magnético del núcleo con los momentos magnéticos de centros paramagnéticos (defectos, cationes de transición, electrones en metales…). – HDQ es la interacción del momento magnético del núcleo con la nube electrónica que lo rodea. Esta interacción es la responsable del desplazamiento químico.
9.5. MéTOdOs de alTa resOlUción En sólidos la interacción dipolar entre núcleos, el desplazamiento químico y las interacciones cuadrupolares varían con la orientación del cristal. En muestras policristalinas, esta variación produce un ensanchamiento importante de la señal RMN que reduce drásticamente la resolución experimental. Este ensanchamiento disminuye considerablemente cuando la muestra es girada en torno de un eje inclinado (técnica MAS) (Figura 9.7) o cuando son 54o 44’ con respecto al campo magnético B o utilizados métodos de doble resonancia (polarización cruzada, desacoplamiento) o secuencias cíclicas de impulsos.
N
θ= 54º 44’
S
Figura 9.7. Representación esquemática de un experimento MAS.
En el caso de la técnica MAS la muestra debe ser girada a una velocidad mayor que la anchura de la línea expresada en Hz (ciclos/seg). Si la velocidad es inferior, aparecen bandas laterales cuya separación está dada por la velocidad de rotación y la intensidad disminuye a medida que se separan de la línea principal. En la Figura 9.8 se muestra el efecto de distintas velocidades de rotación en el espectro RMN fósforo-31de un fosfato. Del análisis de esta figura se deduce que en el caso de que la velocidad de rotación sea lo suficientemente elevada, la línea detectada estará centrada en el valor del desplazamiento químico isotrópico (σiso). En el caso de que la velocidad de rotación sea pequeña, el espectro estará formado por un conjunto de bandas de rotación cuyas intensidades reproducen el perfil del espectro tomado en condiciones estáticas. Un análisis de las bandas de rotación permite determinar las anisotropías del tensor desplazamiento químico ∆σ (anisotropía) y η (asimetría). Del análisis de los valores de ∆σ y η se pueden deducir ciertas consideraciones sobre la simetría del sitio ocupado por los átomos. En particular ∆σ ≠ 0 indica que la simetría puntual es inferior a la cúbica y η ≠ 0 indica que el entorno que rodea el átomo tiene una si-
Espectroscopía de resonancia magnética nuclear (RMN)
373
metría menor que axial (ortorrómbica, monoclínica o triclínica). En el caso de que ∆σ ≠ 0 y η ≠ 0, se dice que el entorno del núcleo presenta simetría ortorrómbica. En el caso de núcleos con momento cinético I > 1/2, la técnica MAS no es capaz de eliminar por completo las interacciones cuadrupolares. Estas interacciones producen el desplazamiento y el ensanchamiento de las líneas RMN, pudiendo llegar en el peor de los casos a impedir su detección. Estos efectos disminuyen cuando los espectros se obtienen en presencia de campos magnéticos Bo más intensos, cuando la muestra gira en torno de dos ángulos diferentes (técnica DOR) o utilizando técnicas bidimensionales (Multiple-Quantum o MQ-MAS).
9.5.1. experimentos bidimensionales En la actualidad existen una gran variedad de técnicas bidimensionales que permiten resolver mejor las señales que componen un espectro RMN. Estas técnicas se basan en la existencia de dos frecuencias de trabajo asociadas: 1) al proceso de evolución (tiempos t1) de la magnetización, después de haber preparado el sistema de espines en unas condiciones iniciales deseadas, y 2) al proceso de detección (tiempo t2). De un modo general, la magnetización registrada dependerá de estos dos tiempos, por lo que podrá llevarse a cabo una doble transformada de Fourier, que permita visualizar la intensidad espectral en función de estas dos frecuencias. A partir de esta representación es posible detectar la posible correlación/cercanía de dos especies detectadas. correlaciones homonucleares. Entre los métodos más utilizados destacaremos las técnicas COSY e INADEQUATE, puestas a punto para estudiar las correlaciones entre desplazamientos químicos de átomos iguales en el estado líquido. La utilización de la técnica doble cuanto-cuanto sencillo (DQ/SQ) en vidrios ha permitido identificar diferentes entornos: grupos de final de cadena, y grupos intermedios. Un análisis completo de los espectros 1D y 2D (DQ/SQ) de una serie de vidrios evidencia el mecanismo de la polimerización de estos vidrios inorgánico. correlaciones heteronucleares a través del enlace o a través del espacio. El paso necesario para obtener un espectro de correlación heteronuclear es transferir coherencia de una familia de núcleos a otra. Esto se realiza generalmente con el experimento de polarización cruzada que utiliza la interacción dipolar residual a través del espacio (HETCOR). Entre las técnicas bidimensionales utilizadas para el estudio de las interacciones anisotrópicas destaca la reintroducción selectiva de las interacciones anisotrópicas. Al realizar RMN de alta resolución de material policristalino se pierde la componente anisotrópica de las diferentes interacciones (dipolar, desplazamiento químico o de las interacciones cuadrupolares). varios experimentos tienen como objetivo la reintroducción de estas componentes anisotrópicas mientras que mantienen (o mejoran) la alta resolución. La puesta a punto de la técnica MQ-MAS por L. Frydman en 1995 ha revolucionado el campo de los experimentos de alta resolución para los núcleos cuadrupolares de espín semientero, de gran utilidad en el estudio de los materiales inorgánicos (ma-
Técnicas de análisis y caracterización de materiales
374
teriales cerámicos, zeolitas, materiales macro o mesoporosos...) y abre la posibilidad de una descripción muy exacta de estructuras locales a corto y a medio alcance. Finalmente, en el caso de las interacciones paramagnéticas poco puede ser llevado a cabo para su eliminación. La utilización de campos magnéticos bajos o de temperaturas altas permite reducir estas interacciones; sin embargo, en la mayor parte de estudios de alta resolución, la presencia de centros paramagnéticos en la muestra reduce fuertemente la resolución experimental.
νr= 0
σiso
νr= 3 kHZ
νr= 6 kHZ
νr= 15 kHZ
200
100
0
-100
-200
ppm
Figura 9.8. Espectros de fósforo-31 de fenilfosfato sódico, registrados en estático y a tres velocidades de rotación (νrot).
9.6. aPlicaciOnes de rMn al esTUdiO de MaTeriales Las interacciones mantenidas por el núcleo con el entorno son de carácter local por lo que la técnica RMN nunca podrá ser utilizada para determinar la estructura de un determinado compuesto. Sin embargo, esta técnica permite estudiar aspectos locales que son difíciles de ser abordados por las técnicas de difracción (rayos X, neutrones, electrones...). La elección de los ejemplos presentados en este capitulo está orientada a mostrar la utilidad de la espectroscopía RMN, mostrando como el estudio de varias señales (átomos) aumenta considerablemente las posibilidades de esta técnica.
Espectroscopía de resonancia magnética nuclear (RMN)
375
9.6.1. análisis estructural 9.6.1.1. Poliedro de coordinación El estudio del desplazamiento químico y de las interacciones cuadrupolares permite en bastantes casos determinar el tipo de coordinación y las distorsiones presentes en el poliedro de coordinación de los átomos [6]. De un modo general, un aumento del número de coordinación produce un desplazamiento de la señal RMN hacia valores más negativos. En el caso de óxidos, el estudio de la resonancia de 27Al (I = 3/2) ha permitido identificar tres regiones en el espectro RMN que corresponden a Al en coordinación octaédrica (–10 a +10 ppm), pentaédrica (+30 ppm) y tetraédrica (+ 50 a + 70 ppm) [7], [6]. En la Figura 9.9a se muestran los espectros de una alúmina obtenida a 500 ºC, en donde aparecen tres picos asociados a aluminio en coordinación octa, penta y tetra. Cuando la alúmina se calienta a 850 ºC la coordinación penta desaparece y el espectro que se obtiene es de una γ-Al2O3 con coordinación octaédrica (9,1 ppm) y tetraédrica (66,5 ppm) en proporción 3:1. Según la naturaleza de los cationes que comparten los oxígenos del tetraedro las posiciones pueden variar considerablemente: en el caso de las zeolitas (Al rodeado por cuatro tetraédros de Si) la línea está situada alrededor de +60 ppm y en el caso de los fosfatos AlPO4 (Al rodeado por cuatro tetraedros de P) la línea está próxima de + 40 ppm. 27 A1 9,1
a)
b)
29 S1 -179
T= 850 ºC 66,5 sb
sb 35,8 -98 60,6
9,3
sb 160 120
-109
T= 500 ºC
sb 80
40 ppm
0
-40 -80 -120
-60 -80 -100 -120 -140-160 -180 -200 ppm
Figura 9.9. a) Espectros de 27Al de muestras con composición Al2O3 obtenidas a 500 ºC y 850 ºC. b) Espectro de 29Si de un cemento que contiene taumasita. Las líneas designadas con SB corresponden a bandas producidas por la rotación de la muestra (técnica MAS).
Técnicas de análisis y caracterización de materiales
376
El estudio de la señal de 29Si (I = 1/2) en óxidos ha permitido identificar dos regiones bien diferenciadas: la comprendida entre –70 y –110 ppm debida a Si tetracoordinado y la región –180 a –210 ppm debida a Si octacoordinado. En la mayor parte de los compuestos analizados el Si es tetracoordinado; sin embargo, en el caso del fosfato SiP2O7 [8] y de vidrios SiO2 × Na2O en los que se añade P2O5 [9], el espectro de Si muestra la coordinación octaédrica del Si. Otro caso en donde el Si presenta coordinación octaédrica es la taumasita (Ca6[Si(OH)6]2(CO3)(SO4)2 · 24H2O) (Figura 9.9b), que se forma en los cementos expuestos a sulfatos y carbonatos. El espectro de Si muestra la coordinación octaédrica del Si en –179 ppm, posición bien diferente a la tetraédrica del cemento (–98/–109 ppm). La posición de la línea tetraédrica depende como en el caso del Al de la naturaleza de los cationes que comparten los oxígenos con el átomo de Si.
9.6.1.2. Grado de polimerización tetraédrico En el caso de los silicatos, se ha visto que a medida que aumenta el grado de condensación tetraédrica la línea se desplaza hacia valores más negativos, habiéndose identificado cinco regiones en el espectro que corresponden a Si en tetraedros aislados (Q0), en dimeros (Q1), en cadenas (Q2), en planos (Q3) y en estructuras tridimensionales (Q4) (Figura 9.10a). Por otro lado, la sustitución de Si por Al en tetraedros adyacentes produce un desplazamiento de la línea hacia valores más positivos, siendo este efecto el responsable de la detección de varias líneas en el espectro RMN de algunos aluminosilicatos, correspondientes a entornos con distinto número de átomos de Si y Al [10] (Figura 9.10b). O-OSiOO-
O-OSiOiO-
Q0
Q1
SiOOSiOSiOSi SiOSiOSi O OQ2
Q3
SiOSiOSiOSi OSiQ4
AlOAIOSiOAl OAlQ4(4Al)
AlAlAlSiOOOOAIOSiOSi AIOSiOSi SiOSiOSi SiOSiOSi O O O OAlSiSiSiQ4(3Al) Q4(2Al) Q4(1Al) Q4(0Al)
Q0 Q1
Q4(4Al) Q4(3Al) Q4(2Al) Q4(1Al)
Q2 Q3 Q4 -60
-70
-80
-90 -100 -110 -120 d(ppm)
Q4(0Al) -80
-90
-100
-110
-120
d(ppm)
Figura 9.10. a) Representación de las regiones del espectro de Si correspondientes a los diferentes grados de polimerización identificados en silicatos. b) Representación de las regiones del espectro de Si correspondientes a entornos Q4(nAl.(4 – n)Si) en tectosilicatos.
El estudio del número de coordinación y del grado de condensación tetraédrico es importante en la caracterización de vidrios en los que un estudio por difracción de rayos X es poco rentable dado el carácter amorfo de estos. En el caso de vidrios con
Espectroscopía de resonancia magnética nuclear (RMN)
377
composición SiO2 × B2O3 × Na2O (pyrex, vycor) es posible correlacionar la estructura local del vidrio, determinada por RMN, con sus propiedades físico-químicas [11].
9.6.1.3. Sitios estructurales En el caso de que todos los átomos estudiados estén rodeados por un mismo entorno químico (igual poliedro, iguales vecinos), la detección de varias líneas en el espectro RMN normalmente es debida a la ocupación por los átomos estudiados de distintos sitios cristalográficos. En estos casos, la existencia de distorsiones en los poliedros (modificaciones de ángulos o distancias) suele ser la causa de esta diferenciación. En el caso del tectosilicato nefelina (Figura 9.11 a, b, c y d) existen dos sitios tetraédricos ocupados por Si y Al y otros dos sitios ocupados por los cationes alcalinos. De acuerdo con este hecho, el espectro de 23Na esta formado por dos señales centradas en torno de –13 y –21 ppm que corresponden a átomos de Na+ en los sitios cristalográficos I y II [12]. De un análisis de las posiciones de estos picos es posible averiguar que tipo de distorsiones existen en los canales que contienen los cationes Na+ y a partir del análisis de las intensidades de las dos líneas demostrar la clara preferencia de los cationes Na+ por ocupar los canales ovales de la estructura. Los espectros de 27Al y 29Si de la nefelina presentan dos picos que corresponden a entornos diferentes con respecto a los cationes alcalinos de acuerdo con la estructura cristalina, donde hay dos sitios tetraédricos distintos con una multiplicidad 3:1, correspondiente a seis sitios TG (general) y dos sitios TS (especial) por celdilla. El sitio general corresponde a tetraedros de Si (–84,7 ppm) o Al (64,3 ppm) que se encuentran entre dos cavidades ovales y una hexagonal y el sitio TS corresponde a tetraedros de Si (–88,4 ppm) o Al (59,8 ppm) rodeados por tres cavidades ovales.
9.6.1.4. Distribución de cationes La sustitución de Si por Al en la red tetraédrica de algunos aluminosilicatos produce una diferenciación química de los átomos de Si que es la responsable de la aparición de varias líneas en los espectros RMN. En el caso de los filosilicatos 2:1, esta sustitución produce la detección de cuatro líneas (denominadas 0, 1, 2 y 3 en Figura 9.12a), que son debidas a Si rodeado de 3Si, 2Si 1Al, 1Si 2Al y 3Al. A medida que el contenido en Al crece, la intensidad de las líneas con un mayor número de Al aumenta. En el caso de que la cantidad de Si y de Al sea la misma en la capa tetraédrica del silicato (Si/AlT = 1) el espectro RMN de 29Si esta formado por una sola línea asociada a Si rodeado de 3Al (espectro de Margarita). Este hecho solo puede ser explicado mediante la existencia de una distribución ordenada del Si y del Al, en la que estos átomos alternan en la ocupación de tetraedros adyacentes en la estructura. Un estudio detallado de los espectros correspondientes a muestras con diferente composición ha mostrado que la regla de Loewenstein, según la cual dos tetraedros contiguos no pueden ser ocupados por Al, es respetada en todas las muestras [13]. Basados en
Técnicas de análisis y caracterización de materiales
378
este hecho, es posible determinar el cociente Si/AlT a partir de los espectros RMN. Para ello se utiliza la expresión: ∑ In n Si = [9.16] Al 0 , 33∑ n ⋅ I n n
donde In es la intensidad de la componente asociada a Si rodeado de n Al y (3–n) Si. a) b
c
I
b)
II
Na
23
-13
-21 a Na K Na
Na0,75 (Na0,20 K0,05) AlSiO4 Na0,75 K0,25 AlSiO4
c)
20
27
Al
0
-20 (ppm)
-40
-60
d) -84,7
64,3 59,8
-88,4
70
65
60 (ppm)
55
-80
-95 -90 (ppm)
-95
Figura 9.11. a) Representación de la estructura de la nefelina, en la que se muestran los dos sitios estructurales para el Na. b) Espectros de 23Na de dos nefelinas con distinto contenido en Na. c) Espectro de 27Al y d) 29Si para las dos composiciones de nefelina indicadas. Los espectros representados fueron obtenidos con la técnica MAS.
Espectroscopía de resonancia magnética nuclear (RMN)
379
Un análisis detallado de distintos modelos de distribución de los cationes Si y Al ha permitido averiguar qué tipo de distribución existe en la capa tetraédrica de estos silicatos y reproducir los espectros RMN de todas las muestras analizadas (Figura 9.12b). En la distribución encontrada, el Al no solo no ocupa tetraedros contiguos sino que tiende a estar más dispersado a fin de reducir las repulsiones electrostáticas entre las cargas introducidas en el silicato mediante sustitución de Si por Al. Un estudio de esta distribución no se puede llevar a cabo mediante difracción de rayos X, dada la semejanza de los factores de estructura de los cationes Si y Al y el carácter desordenado de su distribución. a)
b)
0
1
Talco 2
1
0
I
Vermiculita
1
2
1 III
3
0
2
V
0 1
2 1
Flogopita 2
-70
IV 0
3
Margarita
0
-80
-90
-100
-60
-70
(ppm)
-80 (ppm)
-90
-100
b) 100
I0
100
50 0
50
0,1
0,2
0,3 X1
0,4
100
0,5 I1
0
0,1
100
50 0
I2
0,2
0,3 X1
0,4
0,5
0,3 X1
0,4
0,5
I3
50
0,1
0,2
0,3 X1
0,4
0,5
0
0,1
0,2
Figura 9.12. a) Espectros de 29Si de filosilicatos 2:1 con contenido creciente de Al tetraédrico. Las muestras I, III, Iv y v son sintéticas y las restantes naturales. Los espectros fueron obtenidos con la técnica MAS. b) variación de las intensidades de las cuatro componentes con el contenido de Al tetraédrico x1 = AlT/(Al + Si). Las curvas representadas con líneas (– – – – – – ), (––––––) y (–·–·–·) corresponden a los valores deducidos a partir de modelos teóricos en los que el grado de dispersión del Al aumenta.
Técnicas de análisis y caracterización de materiales
380
9.6.1.5. Movilidad iónica La interacción del momento magnético del núcleo con los momentos magnéticos de otros átomos (interacción dipolar) produce un ensanchamiento de la señal RMN. El estudio de la anchura de la señal permite en ciertos compuestos determinar la naturaleza de los átomos que rodean al átomo estudiado. Por otro lado, el movimiento de los átomos produce la eliminación de las interacciones dipolares y la redución de la anchura de la señal RMN, lo que permite analizar la movilidad de los átomos. En efecto, del estudio de los espectros RMN obtenidos a distintas temperaturas es posible identificar las especies móviles y en ciertos casos determinar la energía de activación del movimiento. Li-NMR 2 Gauss
485K
Log10(7Li)σ
2,0 18LiO0.5-82TeO2 32LiO0.5-68TeO2 50LiO0.5-50TeO2 29LiF-71TeO2 47LiF-53TeO2 27LiO0.5-23LIF-50TeO2
1,5
1,0
430K 373K 291K
2,0 HO 19
F-NMR
432K
3,5
2,0 Log10(19F)σ
2 Gauss
460K
2,5 3,0 1.000/ T (K-1)
1,5 47LiF-53TeO2 29LiF-71TeO2 27LiO0.5-23LIF-50TeO2
1,0
373K 2,0
90K HO
2,5 3,0 1.000/ T (K-1)
3,5
Figura 9.13. a) Espectros de 7Li de 19F de un vidrio con composición 47%LiF. 53%TeO2, obtenidos a distintas temperaturas. b) variación de log. de la anchura de las señales RMN de Li y de F de vidrios LiF.Li2O.TeO2 en función de la temperatura. La anchura es tomada a mitad de altura.
Espectroscopía de resonancia magnética nuclear (RMN)
381
En el caso presentado en la Figura 9.13, se puede observar como las especies móviles en los vidrios Li2O · TeO2 y LiF · TeO2 son los átomos de Li+, no presentando movilidad apreciable los átomos de flúor (F) [14]. Una representación del logaritmo de la anchura de la línea RMN en función de la inversa de la temperatura permite comparar la movilidad de los átomos de Li en los distintos vidrios. Este análisis permitió mostrar como esta aumenta a medida que lo hace el contenido en Li. Sin embargo, en el caso de vidrios, la complejidad del movimiento del Li hace muchas veces difícil la determinación de la energía de activación del movimiento. Un estudio de la movilidad de los átomos en conductores iónicos es importante dada la utilización de estos compuestos en baterías, sensores químicos, dispositivos electrocrómicos...
9.6.2. síntesis de materiales El estudio mediante RMN de muestras tratadas térmica o químicamente, permite analizar las modificaciones producidas a nivel microscópico durante estos tratamientos. En ciertos casos este análisis permite averiguar los mecanismos de formación de otros materiales. En esta sección vamos a presentar dos casos sobre la formación de materiales a partir de caolines naturales.
9.6.2.1. Transformación caolín-mullita El calentamiento de muestras de caolín Si2Al2050H4, produce la descomposición de este y la formación de mullita. Este compuesto es interesante como material cerámico dado su bajo coeficiente de dilatación térmico. El estudio de los espectros de 27Al y 29Si, obtenidos mediante la técnica MAS en caolines tratados a distintas temperaturas, muestra como la perdida de grupos OH produce un cambio en la coordinación del Al que pasa de ser octaédrico (AlO) a tetra (AlT) y pentaédrico (AlP) (Figura 9.14d). Esta transformación viene acompañada de la detección de un pico endotérmico en 570 ºC en las curvas ATD (Figura 9.14b). Al mismo tiempo, la posición del pico de Si pasa de –91 a –100 ppm [15]. Un calentamiento del caolín a temperaturas próximas a 1.000 ºC produce otra vez un importante cambio en la coordinación del Al, el cual viene acompañado de un segundo pico, extremadamente fino, de carácter exotérmico en las curvas ATD (Figura 9.14b). En esta transformación el Al pentaédrico es eliminado y el pico octaédrico aumenta fuertemente en intensidad mostrando la formación de una espinela de Si y de Al. Un calentamiento posterior de la muestra a temperaturas superiores a 1.000 ºC produce la aparición progresiva de los picos debidos a la mullita 3:2 en los espectros de aluminio (+60, +45 y +2 ppm). En el caso de las muestras tratadas a altas temperaturas, el espectro de silicio muestra la presencia de un pico en –87 ppm, debido a la formación de la mullita, y de un pico en –110 ppm, que es debido a la segregación de sílice, producida durante la descomposición del caolín (Figura 9.14c).
Técnicas de análisis y caracterización de materiales
382 a)
b) Si Al OH O
200
c)
850 ºC
725 ºC
450 ºC
MULLITA
400
600
800
980 ºC
610 ºC
d)
MULLITA
SB
1150 ºC SB
1150 ºC
1000 1200 1400 ºC
SB
SB
SB
SB
725 ºC AlP
AlO
1055 ºC
AlO
980 ºC SB
-60 -100 -140 -60 -100 -140 ppm ppm
SB
100
SB SB
0 ppm
SB
SB
SB
-100 100
AlO
AlT
AlT CAOLONITA
SB
0 ppm
SB
-100 100
SB 0 ppm
-100
Figura 9.14. a) Representación esquemática de la estructura del caolín. b) Curva de análisis térmico diferencial de una muestra de caolín. c) Espectros de 29Si de muestras de caolín calentadas a temperaturas crecientes. d) Espectros de 27Al de muestras de caolín calentadas a temperaturas crecientes. Los espectros de Si y de Al fueron obtenidos con la técnica MAS.
9.6.2.2. Síntesis de la zeolita filipsita El tratamiento con NaOH a 90 ºC de un caolín tratado a 1.000 ºC produce fuertes modificaciones en los espectros de 27Al y 29Si de este material. Este tratamiento produce la rápida disolución de la sílice segregada y la aparición de especies mono y poliméricas de Si en disolución. Estos dos hechos son los responsables de la eliminación del pico –110 ppm en el espectro de silicio de la fase sólida y de la aparición de picos centrados en –71,3; –79,4; –81 y –89 ppm en los espectros de la fase líquida (Figura 9.15 a y c) [16]. Este tratamiento produce además la desaparición progresiva del pico octaédrico y el estrechamiento del pico tetraédrico (40-60 ppm) en los espectros de aluminio de la fase sólida (Figura 9.15b). Al mismo tiempo, los espectros de la fase líquida muestran la aparición de especies monoméricas de Al en disolución, las cuales polimerizan a medida que avanza la reacción (Figura 9.15d). Durante este proceso de polimerización, las especies de silicio y aluminio se incorporan en entidades más complejas, las cuales aca-
Espectroscopía de resonancia magnética nuclear (RMN)
383
ban por precipitar. La formación de un gel amorfo es responsable de la aparición de una línea ancha en –89 ppm en el espectro RMN de la fase sólida obtenida después de 7 horas de reacción (Figura 9.15a). A medida que el tiempo de reacción aumenta, el gel va estructurándose y a partir de 100 horas de reacción se produce la aparición de cinco picos en el espectro del silicio de la fase sólida, que son debidos a átomos de Si rodeados de 4Si, 3Si 1Al, 2Si 2Al, 1Si 3Al y 4Al. La observación de estas líneas corresponde a la formación de la zeolita fílipsita, detectada por DRX, siendo esta fase mayoritaria después de 160 horas de reacción (Figura 9.15a y b). El estudio de los mecanismos de formación de las zeolitas es de gran interés en catálisis heterogénea. a) 29
b)
Si (79,5 MHz)
27
-96 -92 -103,5 -87,5 -106
58
Al (104,3 MHz)
60
165 h 165 h 60 20 h
-69
7h
-110
-90
0
30 min
60 42
-90 -80
-100
-120
c)
ppm
-100
0
-100
ppm
d)
-71,3
77,4
77,4 71 71 65,5
-79,4 -81,4 89
-71,3
90 min 61,5
20 h
71 65,5
3h
-60
-80 -100
15 min ppm
60 min 40 min
30 min -79,4
25 h
61,5 50 h
-71,3
50 h
15 min 120
80
40 ppm
Figura 9.15. a) Espectros de 29Si y b) espectros de 27Al de la fase sólida, obtenidos para distintos tiempos de reacción, durante el ataque con NaOH de una muestra de caolín calentada a 1.000 ºC. Los espectros fueron obtenidos con la técnica MAS. c) Espectros de 29Si y d) espectros de 27Al, obtenidos para distintos tiempos de reacción en la fase líquida.
384
Técnicas de análisis y caracterización de materiales
9.6.3. Estudio de la superficie de los materiales 9.6.3.1. Adsorción de H2 en el sistema Rh/TiO2 La deposición de una sal de Rh (Cl3Rh) en la superficie de una muestra de alta superficie de Ti02 y su posterior reducción en H2 a 500 ºC produce la formación de partículas metálicas de Rh de pequeño tamaño (30-100 Å) en la superficie del oxido. Un estudio de la adsorción de H2 en estos catalizadores por métodos de volumetría es difícil dada la capacidad de adsorber H2 que tiene tanto el metal como el óxido utilizado como soporte. Una diferenciación de estos dos tipos de adsorción es posible mediante RMN, al ser detectadas dos líneas en el espectro del protón que corresponden a hidrógeno adsorbido en cada una de las dos fases. A medida que la presión de H2 aumenta, la intensidad de la línea asociada al hidrógeno adsorbido en el metal (–120 ppm) aumenta, disminuyendo su separación respecto a la frecuencia de resonancia (Figura 9.16a). Un estudio de la intensidad I y posición ∆ de esta línea con la presión pH2 ha mostrado la presencia de dos sitios de adsorción en el metal y la presencia de procesos de intercambio entre los dos tipos de hidrógeno (Figura 9.16b). La adsorción del segundo tipo de hidrógeno produce un debilitamiento de la interacción metal-hidrógeno (disminución de ∆) y un aumento de la movilidad del hidrógeno [17]. Este hecho favorece la transferencia de hidrógeno al oxido, el cual puede ser seguido mediante el aumento de la línea-A no desplazada (Figura 9.16a). Por otro lado, la reducción del catalizador con H2 favorece la extracción de oxígenos de red y una amorfízación de la superficie del oxido. Ambos procesos inducen la formación de enlaces Rh-Ti en la interfase metal-soporte y la migración de especies TiOx en la superficie del metal, las cuales producen un debilitamiento de la interacción metal-hidrógeno y una disminución en la capacidad de adsorber H2 en la fase metálica (efecto SMSI) (Figura 9.16d). La oxidación del catalizador a 400 ºC devuelve la capacidad de adsorber H2 en el metal. Todos estos aspectos han podido ser estudiados mediante la técnica de RMN [18] demostrando las posibilidades que esta técnica tiene en la caracterización de catalizadores formados por partículas metálicas soportadas sobre óxidos reducibles (TiO2 y CeO2). Estos catalizadores tienen gran interés en catálisis heterogénea, dada su utilización en reacciones de hidrogenación, en problemas de descontaminación (eliminación de CO y NO).
9.7. cOnclUsiOnes En este capítulo se han mostrado las ventajas derivadas de la utilización de la espectroscopía RMN en la caracterización estructural de materiales tanto cristalinos como amorfos. En materiales amorfos, esta técnica permite analizar el tipo de coordinación de los átomos así como el grado de polimerización tetraédrico existente en bastantes compuestos. En materiales cristalinos la resolución espectral es mayor, lo que permite además determinar el número de sitios cristalográficos, así como la distribución de las sustituciones isomórficas en ciertas disoluciones sólidas. Tanto en materiales
Espectroscopía de resonancia magnética nuclear (RMN)
385
amorfos como cristalinos, la técnica RMN puede ser utilizada para estudiar la movilidad de los átomos en función de la temperatura. a)
A A 50 ppm -120 B
-120 B
32 torr 16 torr 2,5 torr 0,5 torr evac 523 K HO b)
HO c)
Rh/ TiO2-HR
125 100 75 50 25 I 0
0
evac 295 K 300 torr 154 torr 60 torr
100
200 P (Torr)
300
I (u. a.) -8 -6 -4 -2 -0 400
d)
H
125 100 75 50 25 0
0
2
4 P (Torr)
6
8
0,15 100 0,10 75 0,05 50 0
0
373
573 T(K)
773
0
0
373
573 T(K)
773
Figura 9.16. a) Espectros de 1H obtenidos durante la adsorción de H2 en los catalizadores Rh/Ti02. b) variación de la posición y de la intensidad de la línea desplazada B con la presión pH2. c) variación de la posición de la línea B en función de su intensidad. d) variación de la posición y de la intensidad de la linea B con la temperatura de reducción. Los espectros fueron tomados a una presión de 35 torr después de desgasear a 150 ºC la muestra reducida a las temperaturas indicadas.
386
Técnicas de análisis y caracterización de materiales
Finalmente, la técnica RMN permite abordar aspectos relacionados con la alteración térmica o química de materiales, así como estudiar los procesos de adsorción ocurridos en la superficie de catalizadores. La investigación de todos estos temas es de gran interés en ciencia de materiales, dadas las implicaciones de carácter práctico que pueden derivarse de estos estudios.
bibliOGrafía 1. SliChter, C. P. Principles of Magnetic Resonance, Harper Raw, New York, 1963. 2. FukushiMa, E.; Roeder, S. B. W. Experimental Pulse NMR, Addison-Wesley, New York, 1981. 3. Farrar, T. C.; BeCker, E. D. Pulse and Fourier Transform NMR, Academic Press, New York, 1971. 4. Sanz, j. «Alta resolución en sólidos: acceso al desplazamiento químico del núcleo por eliminación de interacciones dipolares», Escuela de verano de RMN, jaca, SEDO y CSIC, Madrid, 1980. 5. FrydMan, L; Harwood, j. S. «Isotropic spectra of half-integer quadrupolar spins from bidimensional magic-angle-spinning NMR», Journal of the American Chemical Society, 117, 19 (1995), pp. 5.367-5.368. 6. EnGelhardt, G.; MiChel, D. High-Resolution Solid-State NMR of Silicates and Zeolites, john Wiley & Sons, New York, 1987. 7. Müller, D.; Gessner, W.; Behrens, H. j.; SCheler, G. J. Chem. Phys. Lett., 79 (1981), pp. 59-62. 8. GriMMer, A. R.; von LaMPe, F. Chem. PhyS. Lett., 32 (1986), pp. 549-552. 9. DuPree, R. M.; Holland, D.; Mortuza, M. G. Nature, 328 (1987), pp. 416-417. 10. a) LiPPMaa, E.; MäGi, M.; SaMoson, A.; EnGelhardt, G.; GriMMer, A. R. J. Am. Chem. Soc., 102 (1980), pp. 4.889-4.893. b) LiPPMaa, E.; MäGi, M.; SaMoson, A.; TarMak. M.; EnGelhardt, G. J. Am. Chem. Soc., 102 (1981), pp. 4.992-4.996. 11. ZhonG, j.; Bray, P. j. J. non Cryst. Solids, 151 (1989), pp. 67-76. 12. Stebbins, j. F.; Farnan, I.; WilliaMs, E. H.; Roux, j. Phys. Chem. minerals, 16 (1989), pp. 763-766. 13. Herrero, C. P.; sanz, j.; Serratosa, j. M. Solid State Communications, 53 (1985), pp. 151-154. 14. RoJo, j. M.; Sanz, j.; Reau, j. M.; TanGuy, B. J. non Cryst. Solids, 156 (1990), pp. 167-174. 15. Sanz, j.; Madani, A.; Serratosa, j. M.; Moya, j. S.; Aza, S. J. Amer. Ceram. Soc., 71 (1988), C418-C421. 16. Madani, A.; Aznar, A.; Sanz, j.; Serratosa, j. M. J. Phys. Chem., 94 (1990), pp. 760-765. 17. Sanz, j.; RoJo, j. M. J. Phys. Chem., 89 (1985), pp. 4.974-4.979. 18. BelzuneGui, j. P.; Sanz, j.; RoJo, j. M., J. Am. Chem. Soc. 152 (1990), pp. 4.0664.068.
10. esPecTrOscOPías de absOrción de rayOs X (Xes y Xafs: eXafs y Xanes) MarCos Fernández-GarCía ana iGlesias-Juez anna kubaCka Instituto de Catálisis y Petroleoquímica (CSIC)
10.1. inTrOdUcción La interacción entre la materia y la radiación electromagnética produce, como es bien conocido, distintos fenómenos físicos en dependencia de la longitud de onda de la radiación. Así, la radiación puede ser transmitida, dispersada por la materia o absorbida. La absorción de radiación se produce por excitación de alguno de los grados de libertad del material, produciéndose transiciones a estados excitados rotacionales, vibracionales (colectivos o no), electrónicos y/o nucleares [1]. Dentro de este amplio campo, en este capítulo se tratarán los fenómenos de absorción y emisión de rayos X, que corresponden a la parte del espectro electromagnético que se sitúa en el rango de energías de los kiloelectronvoltios (kev). El primer espectro de (absorción de) rayos X fue obtenido por De Broglie en 1913 [2]. Dicho espectro, así como muchos otros realizados en la década de los veinte, aparecían dominados por bruscas discontinuidades, llamadas bordes o saltos de absorción, que la mecánica cuántica permitía interpretar como ionizaciones de los átomos constituyentes de la muestra, producidas por eyección de electrones internos de core (núcleo + electrones) a estados por encima del nivel de Fermi. En adición, los espectros contenían una estructura fina, modulada, justo detrás del borde de absorción, que se extendía hasta 1.500 ev por encima de dicho umbral. La primera interpretación teórica del fenómeno fue ensayada por Kronig en 1931, pero no fue hasta 1971 cuando Sayers et ál. [3] cerraron definitivamente su explicación. Ello dio lugar al desarrollo de las espectroscopías XAFS (X-Ray Absorption Fine Structure) y su aplicación al estudio de materiales tal y como se conoce hoy en día. El fenómeno XAFS corresponde esencialmente a un proceso de interferencia entre el electrón fotogenerado y la onda secundaria producida por dispersión (scattering) parcial en los átomos cercanos [4]. Así pues, sobre la contribución de naturaleza atómica correspondiente al borde de absorción, se extienden una serie de ondulaciones progresivamente amortiguadas para energías del fotón incidente crecientes, tal y como se muestra en la Figura 10.1. En todo espectro de absorción de rayos X pueden
Técnicas de análisis y caracterización de materiales
388
Absorción (∝)
0,9 0,8 0,7 0,6
Borde de absorción
distinguirse tres regiones. La primera corresponde a la zona anterior al borde de absorción, dominada por una función decreciente correspondiente a las pérdidas inelásticas provenientes de ionizaciones de menor energía y que, en ocasiones, presenta picos correspondientes a transiciones entre niveles discretos (por debajo del continuo). La zona posterior al borde se divide en dos regiones; la llamada XANES (X-Ray Absorption Near Edge Structure) y la conocida por EXAFS (Extended X-Ray Absorption Fine Structure). Ambas participan del fenómeno XAFS pero se diferencian en estar dominadas, respectivamente, por contribuciones de scattering múltiple y simple. La región XANES abarca la zona inmediata al borde, hasta unos 30-50 ev, extendiéndose la región EXAFS desde dicho límite hasta el siguiente borde de absorción.
preborde
12400
XANES 0-50eV
EXAFS 0-1000eV posborde
EC 12800
13200
13600
Energía (Ev) EF 1S
Figura 10.1. Representación esquemática de un borde de absorción y fenómenos XAFS.
Los bordes de absorción reciben una nomenclatura reminiscente de la usada en espectroscopía en los años veinte, previa al establecimiento definitivo de la mecánica cuántica. Transiciones desde la primera capa, nivel 1s, corresponden a bordes K, desde la segunda, niveles 2s,p, a bordes L (LIII para 2p3/2, LII para 2p1/2 y LI para 2s), y así sucesivamente. Finalmente, en años recientes se ha desarrollado el uso de técnicas basadas en la emisión de rayos X (XES; X-Ray Emission Spectroscopies) como complemento de las técnicas de absorción. Se basan en la detección por fluorescencia y uso intensivo de las propiedades de estados intermedios de la desexcitación para obtener una serie de ventajas que desarrollaremos al final del capítulo.
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
389
10.2. fUndaMenTOs de la Técnica Los fundamentos de la técnica los desarrollaremos para el caso de la absorción de rayos X, si bien cabe mencionar que sus análogos de emisión llevan a fórmulas finales, de aplicación para el análisis de resultados, similares, con algunas características diferenciales menores, que serán detalladas fundamentalmente al final del capítulo.
10.2.1. regla de oro de fermi La absorción de radiación por la materia es descrita en muchos libros de texto [5]. Brevemente diremos que el hamiltoniano de interacción se escribe en función del vector potencial (A) de la radiación, considerada esta como un campo electrostático clásico, y el momento del electrón, p. Asumiendo la aproximación de dipolo, la probabilidad de absorción, llamada sección eficaz (σ), es igual al cuadrado del elemento de matriz que conecta el estado inicial Фi y final Фf: 8 π e2 w2 n 2 φ f / p / φ i σ = 3 h c
δ E f − Ei + Eh ν
[10.1]
La función delta asegura el cumplimiento del principio de conservación de la energía para niveles electrónicos de vida media infinita; en caso de vida media finita, dicha función delta es remplazada por una función lorentziana. El análisis de la ecuación [10.1] indica que la parte angular de la función de onda inicial impone restricciones a la naturaleza angular de los posibles estados finales. En estado sólido, que corresponde a la mayor parte de los materiales, ello da lugar a las reglas de selección, que limitan la variación de los números cuánticos L y S entre los estados inicial y final a los valores ±1 y 0, respectivamente. La aproximación de dipolo usada para obtener la ecuación [10.1] corresponde a considerar el primer término de interacción entre un desarrollo en serie del campo eléctrico generado por los rayos X y la nube electrónica del sólido, y puede ser mejorada incluyendo términos de cuadrupolo, octupolo, etc. Sin embargo, excepto en contadas ocasiones, la aproximación de dipolo permite un análisis cuantitativo de los espectros de absorción. Por otra parte, la extrema localización espacial del estado inicial, un nivel de core, produce que el elemento de matriz solo tenga valores distintos de cero para regiones cercanas al átomo absorbente, lo que infiere un carácter local a las espectroscopías XAFS. En general, las espectroscopías XAFS son sensibles al orden presente en el material hasta aproximadamente 1,5 nm. Dado que la multiplicidad (degeneración) y posición energética de los niveles electrónicos varían en función de la simetría local, las espectroscopías XAFS son sensibles a cambios en dicha estructura y son extremadamente útiles para obtener información relacionada.
10.2.2. región Xanes La resolución exacta de la ecuación [10.1] puede llevarse a cabo mediante el cálculo mecanocuántico a nivel Hartree-Fock (HF) o de Funcional de la Densidad (DFT) de los estados inicial y finales posibles por simetría para sistemas con estruc-
390
Técnicas de análisis y caracterización de materiales
tura geométrica bien conocida, sea ordenada tridimensionalmente o solo a corto alcance. Dado que el cálculo de los distintos estados finales puede resultar muy laborioso y complicado, normalmente se aplica la aproximación del llamado estado de transición [6] que, esencialmente, consiste en estimar por teoría de perturbaciones los efectos que la creación del hueco en el nivel de core produce en el material partiendo del estado inicial, resolviéndose posteriormente la ecuación [10.1]. En otras ocasiones se aplica la llamada aproximación súbita, que considera una respuesta instantánea del sólido a la transición electrónica y permite simplificar la ecuación [10.1] resolviendo el elemento de matriz únicamente en términos de funciones de onda monoelectrónicas. La diferencia entre la resolución exacta de la ecuación [10.1] y la correspondiente a la aproximación súbita corresponde a la llamada relajación extraatómica de los electrones de valencia del sólido en respuesta a la ionización y es importante en relación con la interpretación de las diferencias experimentales observadas en las energías de ligadura medidas mediante XAFS y XPS (X-ray Photoelectron Spectroscopy). En el caso XAFS, el estado final corresponde a un electrón en un estado cuasi-enlazado del continuo del sistema y, por tanto, a un sistema completamente relajado, mientras que en XPS el foto-electrón generado es libre y la medida se realiza sobre un sistema «congelado», que no ha tenido acceso completo a los mecanismos de relajación. La ecuación [10.1] también puede resolverse aplicando el formulismo llamado de multiple scattering [7]. Este método reformula la ecuación [10.1] en términos de caminos de scattering del foto-electrón generado por los rayos X. Esto último infiere una importante ventaja respecto a los cálculos mecanocuánticos pues permite discriminar el efecto de cada uno de los átomos de las cercanías en las distintas resonancias (máximos de las modulaciones en los espectros XANES), resolviendo los espectros XANES en función de las distintas capas de coordinación presentes. Para aquellos sistemas cuya estructura geométrica no es bien conocida, se han desarrollado métodos específicos que genéricamente se conocen como «de corto alcance» y permiten realizar una interpretación de los rasgos principales del espectro XANES. Estos se basan en la aplicación de la teoría del campo de ligandos, que introduce el efecto de la simetría local [8], o del modelo de Anderson (Anderson impurity model), específico para analizar efectos en los niveles 3d de metales de transición y que considera a estos como estados localizados [9]. Para sistemas con estados finales del proceso de fotoexcitación correspondientes a orbitales inicialmente vacíos, la estructura del espectro de absorción es relativamente sencilla de interpretar en el contexto de la teoría de orbitales moleculares. En la Figura 10.2 se presenta el ejemplo de una transición p → d. El espectro superior correspondería a considerar la transición electrónica entre los niveles inicial y final. La interacción espín-órbita produce su desdoblamiento, dando lugar a los bordes de absorción LIII (2p3/2) y LII (2p1/2). Finalmente, la simetría local desdobla los niveles electrónicos, dando lugar a distintos estados finales posibles. En el caso presentado, la simetría octaédrica desdobla los niveles d en dos, correspondientes a las simetrías t2g y eg, lo que produce la aparición de dos resonancias por borde de absorción. La separación entre resonancias es proporcional a la fuerza del campo de ligandos (10 Dq) [9].
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
458
465 Energía (eV)
391
47
Figura 10.2. Efectos de espín-órbita y simetría local en una transición p → d.
Cuando se consideran todos los niveles desocupados, como se describe en la Figura 10.3 para un cluster [TiO6] octaédrico, se observa que, además de los niveles Ti
Orbitales moleculares
O
4tiv 4p 4s
3ok 3eg 2i2g
3d
tig i2v 3tiv It2g 2tiv 2eg 2oig
Itiv Ieg Ioig
2p(π)
2p(σ)
2s
Figura 10.3. Diagrama de orbitales moleculares del fragmento [TiO6].
Técnicas de análisis y caracterización de materiales
392
desocupados t2g y eg, existen otros de simetría a1 y f1 provenientes de los orbitales 4sp del Ti. Así, el borde K del O del TiO2 (Figura 10.4) presenta cuatro resonancias; las dos primeras originadas por la mezcla de orbitales 2p del O con niveles 3d del Ti, seguidas de otras dos componentes correspondientes a mezclas 2pO-4spTi. La naturaleza localizada/deslocalizada de la banda 3d/4sp de Ti se refleja en la anchura de las resonancias, siendo las dos primeras estrechas y las dos segundas anchas. Estas cuatro resonancias dominan los bordes K del O en óxidos con simetría octaédrica, y pueden identificarse (siempre que correspondan a niveles vacíos) para los distintos sistemas incluidos en la Figura 10.4. O borde K
C+D ZnO (d10) C
Intensidad normalizada / u. a.
B
D
C
B
D
A
530
FeO (d6)
C+D B
A B
520
NIO (d8)
Cr2O3 (d3)
C
D
540 550 Energía / ev
TiO2 (d0)
560
570
Figura 10.4. Espectros XANES en el borde K de O de varios óxidos.
Hay que señalar, sin embargo, que la estructura electrónica de los materiales sólidos, aún considerada a nivel local, presenta mayores complicaciones. Dos son las aportaciones necesarias al esquema que hemos descrito para interpretar adecuadamente un espectro XANES. La primera corresponde a la consideración completa de las consecuencias del acoplamiento espín-órbita así como de la interacción espín-espín. Como es conocido, la interacción espín-órbita desdobla los niveles del momento angular (L) produciendo distintos niveles electrónicos, suficientemente cercanos entre sí como para recibir población electrónica a temperaturas cercanas a la ambiente [10]. La influencia del acoplamiento espín-órbita depende de la naturaleza angular de las funciones de onda inicial/final, siendo nula para estados de simetría A1 y A2, leve para simetrías
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
393
E e importante en simetrías T. Para los sistemas comúnmente estudiados, dicha influencia se centra en aquellos con estados fundamentales correspondientes a configuraciones d 1, d 2, d 4LS, d 5LS, d 6HS y d 7HS, donde LS y HS indican configuraciones de bajo y alto espín, respectivamente. Obviamente, los sistemas mencionados muestran que el acoplamiento espín-órbita es de particular importancia en sistemas que contienen capas abiertas en su configuración inicial. Asimismo, la interacción espín-espín cobra también importancia en el caso de sistemas que contengan capas de valencia semi-ocupadas pero, además, sus efectos dependen de la energía del nivel excitado, siendo despreciables (esto es, menores que la resolución experimental) en el caso de bordes K y de gran importancia en bordes LIII/LII. Los efectos del acoplamiento espín-órbita y espín-espín quedan claramente reflejados en la presencia de picos distintos a los arriba mencionados (picos A-D) para los espectros de la Figura 10.4, excepción hecha del TiO2. La segunda aportación al análisis de espectros XANES es más particular y corresponde a aquellos casos en que el estado fundamental puede contener contribuciones de configuraciones del elemento metálico d N y d N + 1 L, siendo llamada esta última de transferencia de carga ligando-metal, y cuya aportación es normalmente importante en aquellos casos en los que permite completar la ocupación de la capa d, con la consiguiente estabilización del sistema. Este ejemplo puede generalizarse considerando que el enlace químico de un sistema tiene, en ocasiones, naturaleza multiconfiguracional. Este hecho complica el análisis de un espectro, en particular si el desdoblamiento energético de los niveles electrónicos por efecto del campo de cristal es semejante a la diferencia energética entre las configuraciones dominantes del estado electrónico. Un efecto secundario en sistemas con transferencia de carga ligando-metal con capas d cuasi-ocupadas, visible en la espectroscopía XANES, se deriva de que, en este último caso, las contribuciones de las configuraciones descritas al estado electrónico inicial y final son diferentes debido a que la contribución de transferencia de carga no puede recibir más electrones en el caso de estar previamente llena. Este hecho produce la aparición de estructuras satélites con alta intensidad, que acompañan al pico principal de la estructura XANES.
10.2.3. región eXafs La región EXAFS se caracteriza por estar dominada por procesos de single scattering, ya que el fotoelectrón generado tiene una energía cinética importante, lo que aumenta drásticamente el camino libre medio, disminuyendo la interacción con los átomos circundantes al fotoexcitado. Este hecho y la consideración de los átomos del entorno como focos puntuales de scattering permiten resolver analíticamente la ecuación [10.1] bajo un número de aproximaciones [4]. La primera, llamada sudden approximation o aproximación súbita, de la que hemos hablado brevemente, se realiza con el fin de simplificar el cálculo del elemento de matriz en [10.1] y permite expresar rigurosamente este como una parte monoelectrónica correspondiente al electrón excitado , multiplicado por otra proveniente de la respuesta «congelada» de los N-1 electrones «pasivos» del átomo 2. Esta última, descrita como S02 en la teoría EXAFS, es prácticamente
Técnicas de análisis y caracterización de materiales
394
constante con la energía del fotón incidente y toma valores entre 0,7 y 0,9 para los distintos materiales. La siguiente es introducir las pérdidas inelásticas del fotoelectrón en el medio sólido mediante una descripción de camino libre medio (λ(k)). Finalmente, se considera que el sólido está descrito mediante capas de coordinación, con números (N) y distancias (R) de coordinación definidas, y con un desorden (tanto estructural como vibracional) de tipo gausiano, caracterizado por el parámetro de Debye-Waller σ2. Con ello, la ecuación [10.1] se expresa en función del fenómeno EXAFS, χ(k), y el coeficiente de absorción atómico, μ0(k): σ( k ) =
χ( k ) = ∑
N i cos 2 ( φ i )
i
k Ri2
χ ( k ) + µ0 ( k )
[10.2]
µ0 ( k )
exp −2 k 2 σ 2 Fi ( k ) exp −2 Ri λ ( k )
(
(
) [10.3]
)
sen 2 k Ri + Φij ( k )
donde k = (2m(E – E0)/h 2)1/2, siendo E0 la energía del borde de absorción. La función Fi(k) es llamada función de amplitud de retrodifusión y es específica del átomo retrodifusor, mientras la función Фij(k), conocida por función de desfase, es dependiente de ambos átomos. Dichas funciones se obtienen de materiales de referencia que contengan el par de átomos excitado y retrodifusor o, en este último caso, de número atómico ±1, debido a que, para altas energías, el scattering es únicamente producido por el core (núcleo + electrones internos) del átomo retrodifusor. Dichas funciones, por otra parte, pueden ser también calculadas teóricamente [10.2], [10.3]. La ecuación [10.3] presenta una dependencia angular, cos2(Фi), útil para el estudio de sistemas ordenados como monocristales, pero que se promedia a 1 en sistemas microcristalinos con ordenación al azar. Así pues, de forma general, cada capa de coordinación viene definida por cuatro parámetros Ni, Ri, Δσ2i, ∆E0. El parámetro ∆σ2i se mide como incremento respecto al desorden de la referencia usada para obtener las funciones F(k) y Ф(k). El parámetro ∆E0 es introducido en el ajuste para corregir inexactitudes en la elección del E0 y eliminar diferencias entre los umbrales o bordes de absorción de la muestra y referencia. Conviene señalar, por último, que para materiales líquidos o sólidos con grado de desorden medio, una aproximación gausiana del desorden es incorrecta y se utiliza la llamada aproximación de cumulantes (consistente en el desarrollo en serie alrededor de k = 0), lo que da lugar a una ecuación más compleja, que incluye dos nuevos parámetros ajustables C3 y C4, en la forma: χ( k )=∑ i
N i cos 2 ( φ i ) k Ri2
exp −2 k 2 σ 2 + 2 C4 k 4 Fi ( k ) exp −2 Ri λ ( k ) 3
sen ( 2 k Ri + Φij ( k ) + 4 C3 k 3 ) 3
(
)
[10.4]
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
395
10.3. insTrUMenTación 10.3.1. radiación sincrotrón La teoría de la relatividad predice que un electrón/positrón (e–/p+) con velocidad próxima a la de la luz pierde energía en forma de radiación en una trayectoria curva. Esta energía tiene unas propiedades muy interesantes; se produce en un rango amplio, entre 50 ev y 500 kev, y está altamente polarizada en el plano tangencial-orbital [4]. La radiación sincrotrón fue, en un principio, un fenómeno no deseado en aceleradores de partículas, pero vista su utilidad en la caracterización de todo tipo de materiales, desde los años setenta se dispone de aceleradores usados en exclusiva para su producción. Por consiguiente, los sincrotrones corresponden a anillos de almacenamiento de e–/p+ para producción de la llamada radiación sincrotrón. En la Figura 10.5 se muestra su estructura interior de forma simplificada. En esencia corresponde a un anillo sometido a alto vacío (10–10 Torr), por el que orbitan los e–/p+. En el anillo, existen secciones rectas que conectan el anillo con el acelerador lineal de electrones (zona llamada inflector en la Figura 10.5), que acelera a estos últimos hasta los 100-500 kev, y otra correspondiente a una cavidad de radio-frecuencias, que permite subsanar las pérdidas energéticas de los electrones durante su vida en el anillo, así como su acomodación inicial a la energía de almacenamiento, que es del orden de los Gev. Los electrones son inyectados en pequeños paquetes, cuya longitud está determinada por las características de la fuente de radio-frecuencias, produciendo una radiación pulsada en el rango 0,1 – 10 ns (ns = 10–9 s). 60 ps Anillo de almacenamiento 311 ps
Línea de transporte
Dipolo
Cuadrupolo-Sextupolo Acelerador lineal Subsuelo Cavidad RF
Línea de luz
Figura 10.5. Representación esquemática de las partes principales de un sincrotrón.
La emisión de radiación se realiza normalmente en las secciones curvas, las llamadas bending magnets en la Figura 10.5, que infieren un movimiento circular uniforme a los electrones. Sin embargo, también es posible obtener radiación en
Técnicas de análisis y caracterización de materiales
396
las zonas rectas con el uso de undulators y wigglers; ambos emplean campos electromagnéticos periódicos que producen movimientos oscilantes helicoidales que, en promedio, no modifican la dirección del haz de partículas. Ambos sistemas se diferencian en la amplitud de oscilación, pero tienen en común la consecución de espectros de radiación más intensos, con máximos desplazados a mayores energías. En el caso de los onduladores (undulators), se produce una acumulación de la intensidad en intervalos de energías, seguidas de otras zonas mucho menos intensas. Una comparación de los espectros de energía obtenidos con estos dispositivos junto al presentado por una bending magnet del tipo ARC se muestra en la Figura 10.6. REC WIGGLER K= 19,24 POLOS 10
fotones/s/ I%
/ 0,5A
16
SC WIGGLER K= 100,6 POLOS
1015
ARCO
ONDULADOR K= 3,48 POLOS
1014
1013
1012
100
10
1,0
0,1
E (kev)
Figura 10.6. Espectros de emisión de dispositivos de salida en sincrotrones.
10.3.2. Set-up experimentales Los sincrotrones actuales, llamados de tercera generación, se caracterizan por proveer el máximo espacio físico para la localización de experimentos en las llamadas líneas. Esencialmente, solo existen dos tipos de set-up en líneas XAFS / XES de sincrotrones actuales. El primero corresponde a un experimento «clásico», que consiste en determinar la absorción o sección eficaz para una serie de energías de fotón
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
397
incidente determinadas. El segundo, llamado dispersivo, únicamente posible en la actualidad en líneas XAFS, permite la obtención del coeficiente de absorción para un intervalo de energías en una única medida, pudiéndose así obtener un espectro XAFS en la región de los milisegundos. En ambos casos el haz encuentra en primer lugar unos slits, que reducen sus dimensiones (altura/anchura) a las de interés. Seguidamente, se hace pasar por un espejo que permite orientar el haz y eliminar parte de las energías presentes, particularmente los armónicos del intervalo de energía a usar en el experimento. Posteriormente, el haz se monocromatiza; para ello, en el experimento XAFS / XES se usa casi con exclusividad monocromadores de dos cristales en los experimentos «clásicos» y uno curvado en los experimentos «dispersivos». En el primer caso, solo la energía que cumple la ecuación de Bragg (h · ν = 2d · sen 2θ) es reflejada por el primer cristal, y el segundo es únicamente utilizado para producir el haz monocromático en una dirección constante. En el segundo caso, la curvatura del monocromador produce un haz de salida en un intervalo (100-600 ev) determinado de energías. Los rangos de utilización de los monocromadores vienen determinados por su espaciado interplanar. Para energías bajas, menores de 2 kev, se utiliza un cristal natural de Be3Se2Si6O8. Para energías superiores y dependiendo del rango de energías de interés y la resolución en energía requerida, se utilizan cristales de Si (111), Si (220), Si (311), Si (400) o Ge (111), Ge (220). Como es bien conocido, la intensidad de luz monocromatizada es inversamente proporcional a la raíz cuadrada de los índices de Miller al cuadrado, mientras que el espaciado interplanar y la resolución en energía son directamente proporcionales a dicha magnitud. Una vez monocromatizado, el haz pasa por un primer sistema de detección para medir la intensidad de referencia (I0), la muestra y, finalmente, un segundo detector. El sistema de detección depende de la naturaleza del experimento (clásico/dispersivo) y de la muestra (componentes en alta/baja concentración y de alto/bajo número atómico). El coeficiente de absorción puede medirse mediante el conteo de los fotones que atraviesan la muestra o de los fenómenos de emisión de fluorescencia (fotones), electrones (Auger o secundarios) o iones producidos por la desexcitación de átomos previamente fotoexcitados. Para detectar fotones se utilizan cámaras de ionización llenas de He, N2, O2 o Ar (según la energía) o bien pantallas «fosforescentes» vigiladas por cámaras de vídeo. El decaimiento o desexcitación por fluorescencia domina al electrónico para Z ≥ 20 en bordes L y Z ≥ 50 en el borde K, siendo Z el número atómico, y es, por tanto, el método escogido para dichos rangos. La fluorescencia es, sin embargo, directamente proporcional al coeficiente de absorción únicamente cuando el elemento a estudiar se encuentra en baja concentración, y se detecta con contadores de centelleo. La detección de electrones puede ser extremadamente sensible a la superficie si se discriminan en energía y se detectan solo los electrones Auger y no los producidos en los procesos secundarios. Finalmente, átomos de la superficie pueden ionizarse como parte del proceso de relajación, maximizándose así la sensibilidad superficial; sin embargo, la actividad de los iones formados es muy pequeña y su detección es siempre difícil, obteniéndose las mayores secciones eficaces para sólidos iónicos.
398
Técnicas de análisis y caracterización de materiales
10.3.3. Metodología experimental La realización de un experimento XAFS / XES requiere, en primer lugar, la preparación de la muestra. Además de su prensado, ello implica el cálculo del coeficiente de absorción atómico. Para ello se utilizan los valores atómicos tabulados en función de la energía por McMaster [11]. La cantidad de muestra se escoge para que el coeficiente de absorción sea de 2.5 o menor para EXAFS y de aproximadamente 1,5 para XANES a una energía dada, inmediatamente posterior al borde de absorción. El máximo de 2,5 proviene de ser el valor que optimiza la relación señal/ruido, sea este último estadístico, prefiriéndose, sin embargo, coeficientes de absorción menores puesto que con ello se reducen posibles efectos adversos provenientes de una pobre homogeneidad en la distribución espacial de la muestra. En cualquier caso, la cantidad mínima de muestra estaría limitada a aquella que presente un salto o borde de absorción mayor a 0,05 unidades. La muestra es introducida en una celda de tratamientos en aquellas ocasiones que requieran tener controlada la temperatura, presión y/o atmósfera circundante. Debido al desorden vibracional, los experimentos EXAFS deben realizarse a temperaturas de nitrógeno líquido o inferiores [12]. En XANES, dado que la información buscada depende de la forma y/o intensidad de las resonancias, debe lograrse la mayor resolución en energía posible. En condiciones óptimas, esta debe estar dominada por la interacción hueco-fotoelectrón, que aumenta con la energía del fotón incidente y puede llegar a ser hasta de 5 ev para energías superiores a los 20 kev. Este hecho implica que los espectros deban ser obtenidos con rejillas de energías de 0,2 a 1 ev para E < 10 kev y de 1 a 2 ev para energías mayores. En EXAFS, el modo de elegir la rejilla es diferente. Dado que la función EXAFS corresponde a una función periódica amortiguada, el teorema de Nyquist establece el paso de rejilla necesario para definir una frecuencia dada. Para obtener señal de capas de coordinación situadas hasta los 7 Å (frecuencia máxima), es necesario un paso en k de 0,1 unidades. Dado que k se relaciona con la raíz cuadrada de (E – E0), normalmente se establece una serie de regiones de energía con diferentes pasos de rejilla; el espectro más simple suele contener tres regiones, una anterior al borde de paso ancho, una que contiene el borde con el paso más estrecho y una tercera (que puede subdividirse en varias) con paso variable según la energía del borde de absorción. En ambas técnicas, XANES y EXAFS, la energía se calibra de una manera fina con la utilización de un foil (lámina delgada) situado posteriormente al segundo detector y cuya señal XAFS se obtiene simultáneamente a la muestra.
10.4. Xanes 10.4.1. Propiedades generales de la técnica La técnica XANES es particularmente útil, ya que rinde información estructural y electrónica del sistema sometido a la temperatura y/o presión deseada, su uso no requiere la existencia de orden tridimensional y goza de una inherente alta relación señal/ruido. En un espectro XANES se analiza tanto la posición de las resonancias
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
399
del continuo respecto al borde de absorción como su intensidad. Además, la posición del borde de absorción es de interés al ser sensible al estado de oxidación, tal y como muestra la Figura 10.7 para distintos óxidos de vanadio y renio. Ello implica que con una simple medida del borde de absorción es posible conocer el estado de oxidación promedio de un elemento en una muestra. 3,5
NH4REO2 V2O5
3,0 V2O4
Energía / eV
2,5
REO3
V2O3 2,0
REO2 VO
1,5 1,0 0,5 0,0 0
1
2
3
4
5
6
7
8
Estado de oxidación
Figura 10.7. Posición del borde de absorción en materiales de V y Re.
En todos los sistemas sólidos, la posición de las resonancias depende tanto de factores electrónicos como geométricos [10], [14], teniendo estos últimos una dependencia inversa con el cuadrado de la distancia de coordinación. Hay que señalar, sin embargo, que la regla 1/R2 solo debe ser usada en resonancias asignables, en términos de la teoría de scattering, a primeros y segundos vecinos de coordinación, perdiendo su sentido para capas de coordinación superiores [14]. Esto indica que su aplicación no es general y que debe ser cuidadosamente contrastada con sistemas de referencia bien conocidos. El uso de sistemas de referencia, tal y como puede ser un metal para una aleación, permite el establecimiento de comparaciones con la muestra de interés útiles para establecer la variación (relativa) de distancias de enlace. Por otra parte, las propiedades electrónicas dependen fundamentalmente de la naturaleza del sólido, sin embargo, la cristalinidad (tamaño de partícula) de este también afecta a las características electrónicas del sistema y, por tanto, a la posición de las resonancias [15]. Respecto a la intensidad de las resonancias, hay que recalcar que esta representa la densidad de estados desocupados en el estado final, que no corresponde a la densidad electrónica del estado inicial al estar modificada por la interacción hueco-electrón. Ello indica que las interpretaciones de las intensidad de las resonancias en relación, por ejemplo, con el estado de oxidación del elemento fotoactivado deben ser cuidadosamente validadas antes de ser aceptadas. Aun con ello, el estudio de sistemas con ayuda de referencias adecuadas permite la obtención de datos de densidad
400
Técnicas de análisis y caracterización de materiales
electrónica o de estados desocupados relativos (a la referencia), lo que es de gran ayuda para comprender las propiedades electrónicas de multitud de materiales tales como, por ejemplo, aleaciones, óxidos multicomponentes, etc. En sistemas con metales de transición, el estudio de la naturaleza y propiedades de la capa d es de vital importancia para interpretar las propiedades magnéticas, eléctricas o de cualquier otro tipo, y el análisis de los bordes LIII/LII de absorción permite la obtención de dicha información.
10.4.2. Métodos de análisis De manera general, el análisis de un espectro XANES solo es posible mediante el cálculo teórico del coeficiente de absorción a través de la regla de oro de Fermi (ecuación [10.1]). Ello implica un conocimiento exacto de la estructura geométrica del sistema, lo que no es posible en la mayoría de los casos de interés actuales. Dentro del campo de los materiales, existen dos situaciones bien diferenciadas por los métodos de análisis aplicados. Una revisión de dichos métodos de análisis puede encontrarse en [15].
10.4.2.1. Sistemas monocomponentes Los sistemas formados por un único componente/fase y que, en general, presentan limitaciones en su orden tridimensional, pueden ser analizados mediante la teoría de orbitales moleculares dentro de la aproximación del campo de ligandos. En términos simples, la transición electrónica producida por la absorción de rayos X puede describirse en términos monolectrónicos, tal y como se ha mostrado para el óxido de TiO2 presentado en la Figura 10.4. Sin embargo, la mayoría de los sistemas requieren de una descripción completa de los estados electrónicos inicial y finales y la realización de cálculo numérico, normalmente dentro de las aproximaciones que hemos denominado de corto alcance en la sección 10.2.2. La complejidad electrónica del sistema, particularmente de su banda de valencia, es la principal responsable del mayor o menor número de resonancias y de la forma del espectro. Dicha complejidad depende tanto del desdoblamiento o caída de degeneración inducida por la simetría local, como de la ocupación electrónica. En los últimos años ha cobrado interés el estudio de las propiedades electrónicas de metales de transición usando hidrógeno como molécula sonda. Esencialmente, estos métodos consisten en la substracción de un espectro de referencia, tomado con la superficie limpia del metal, del espectro obtenido tras la adsorción disociativa de hidrógeno. El más reciente trata con ello de aislar la componente antienlazante del enlace metal-hidrógeno (llamada resonancia de Fano) y con ello obtener información de la posición relativa de la banda d del metal [16]. Dichos estudios implican una partición de la densidad de estados ocupados/desocupados en dos partes correspondientes al sólido sin interacción y al sistema adsorbato-superficie cuya base física es, sin embargo, muy discutida en la actualidad [15].
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
401
10.4.2.2. Sistemas multicomponentes
Absorbancia normalizada (u. a.)
Existen también materiales con más de un componente o fase, en los que un primer objetivo es conocer el número de fases existentes y sus proporciones. Similar situación plantea la interpretación de sistemas que si bien son monofásicos, contienen el elemento de interés en dos o más entornos locales diferentes, queriéndose ahora identificarlos y, sobre todo, conocer sus proporciones. En ambos casos, se utilizan métodos de análisis semicuantitativos para extraer información acerca del número y tipo de las fases o simetrías locales presentes. El primero de estos métodos consiste en el ajuste de espectros normalizados tanto directamente con referencias o, en un método más refinado, ajustando las resonancias presentes. En este último caso, ha de tenerse en cuenta la resolución experimental, el ensanchamiento de vida media del fotoelectrón y la densidad de estados desocupados, que se representa con una función gausiana o parabólica cuyo centro, anchura e intensidad han de determinarse [17]. El resultado del ajuste de un espectro de un material de cerio se muestra en la Figura 10.8. Con la intensidad de las resonancias y su asignación a un componente definido, por comparación con referencias, puede calibrarse, por ejemplo, el peso de cada tipo, reducido u oxidado, en un espectro que contenga ambas contribuciones.
5700
5720
5740
5760
Energía (eV)
Figura 10.8. Ajuste de las resonancias del continuo presente en el borde LIII de un material de cerio.
Un método específico para bordes L de metales de transición o bordes K de elementos con alto número atómico (Z > 45) hace uso del desplazamiento en el borde de absorción debido a la forma sencilla de los espectros, lo que facilita la localización del borde con el uso de derivadas numéricas [18]. Dado que la energía del borde tiene una
Técnicas de análisis y caracterización de materiales
402
A
1,0
B Consumo de H2 (u. a.)
Desplazamiento químico (eV)
relación lineal con el estado de oxidación del elemento absorbente de la radiación, este método es útil para obtener información del estado promedio de dicho elemento o seguir su evolución bajo un tratamiento específico. Particular importancia cobra el uso de este método en sistemas multicomponentes, tales como sistemas multimetálicos, pues la espectroscopía XANES permite obtener información independiente de cada componente. Además, permite seguir con facilidad el estado promedio del elemento en función de una coordenada de reacción (variando la temperatura, la naturaleza de la atmósfera, etc.) o de su variación (a través de la derivada). Así, por ejemplo, este método permite seguir (Figura 10.9) la reducción de sistemas de rodio en función de la temperatura; se produce una evolución térmica diferente en dependencia del soporte, lo que queda de manifiesto con claridad en las derivadas respectivas [19].
0,8 0,6 0,4
Rh/Al2O3 Rh/SiO2
0,2 0,0
Rh/SiO2
Rh/Al2O3 x 1,5
0
100
200
Temperatura (ºC)
300
400
100
200
300
Temperatura (ºC)
Figura 10.9. (A) variación de la energía de ligadura del borde K del Rh en catalizadores soportados de sílica y alúmina. (B) Derivada de las curvas A (línea continua) y consumo de hidrógeno medido durante TPR (línea discontinua).
Otros métodos hacen uso de técnicas diferenciales. Esta aproximación se usa en aquellos casos en que se conoce perfectamente la asignación de las resonancias del continuo presentes en un espectro XANES y utiliza restas de espectros normalizados de la muestra y una referencia correspondiente a un estado de oxidación puro. Con ello, por ejemplo, es posible estudiar la reducción de sistemas continentes de cerio (Ce); dado que las resonancias de Ce(Iv) y Ce(III), los dos estados normalmente accesibles en sistemas oxídicos, aparecen a energías distintivas, la resta de un espectro de Ce(Iv) contiene un mínimo en las resonancias características de este estado y un máximo en las adscritas a Ce(III). Una calibración de las diferencias entre el máximo y el mínimo, hecha con espectros de referencia de sistemas de Ce(III) y Ce(Iv), permite describir el resultado en función del porcentaje del estado reducido presente en el espectro [20]. Hay que considerar, sin embargo, que todos los métodos descritos hasta este momento tienen la limitación de informar sobre el estado promedio del elemento. Además, es importante señalar que los sistemas de referencia usados en dichos métodos deben tener similar cristalinidad (tamaño de partícula) para que, como se ha señala-
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
403
do en la sección 4.1, no se produzcan efectos espurios en aquellos sistemas de análisis de datos que hacen uso de la posición de las resonancias del continuo. Para mejorar la descripción del sistema, se ha desarrollado la aplicación de métodos estadísticos de análisis, conocidos por análisis factorial, a conjuntos de espectros XANES que contengan suficiente información como para definir los componentes presentes [21], [22]. El método asume que la señal (la absorbancia) puede descomponerse en una combinación lineal de espectros Ri, correspondientes a los componentes, más el ruido. El análisis factorial consiste en maximizar la varianza de cada uno de los componentes a la muestra y es matemáticamente equivalente a la descomposición de la matriz de datos D, compuesta por los espectros XANES, en una matriz de pesos C y de espectros R. La aplicación de test estadísticos rigurosos, basados en la norma de los vectores de R, permite la obtención del número de componentes presentes. Una vez hallado este, la imposición de restricciones con significado físico (asociadas al valor no negativo tanto de la absorbancia como de las concentraciones de cada especie) permite identificar el espectro XANES de cada uno de los componentes y cuantificar su evolución durante el tratamiento. El resultado de dicho análisis se muestra en la Figura 10.10 para un catalizador de cobre (Cu) soportado en una zeolita bajo condiciones de reacción; dicho sistema contiene especies de Cu(II) y Cu(I) en posiciones de intercambio y en forma de agregados oxídicos sitos en las cavidades de la zeolita. Los perfiles de concentración (Figura 10.10) de estas especies durante una rampa de temperatura en contacto con una atmósfera reactiva informan acerca de cómo se convierten unas especies en otras mediante fenómenos químicos (de reducción/oxidación) y físicos (de extracción de iones de posiciones de intercambio y agregación). Los instrumentos estadísticos permiten, por tanto, la obtención de información detallada, no accesible más que en promedio con los métodos anteriormente descritos, y son de particular interés en sistemas que, debido a su complejidad, son difícilmente analizables con técnicas de coste computacional más liviano. CuIint.
CuIagre. CuO CuIIagre. CuIIint.
Fracción de componente puro
Cu2O
1,0 a O2
NO+C3H6+O2 CuexII
0,8
CuexI 0,6 CuI,Cu2O 0,4 CuII,Cu2O
0,2 0.0
8960
8980 9000 Energía (eV)
9020
500
550
600 650 700 Temperatura (K)
750
Figura 10.10. Ida: espectros XANES de especies de Cu (línea continua) y referencias (línea discontinua) presentes en el sistema Cu-ZSM-5 en condiciones de reacción (NO + C3H6 + O2). Dcha.: perfiles de concentración de las especies de Ce a lo largo de la reacción.
404
Técnicas de análisis y caracterización de materiales
10.4.3. aplicaciones 10.4.3.1. Materiales multimetálicos Los sistemas con más de un metal forman una amplia familia de materiales con aplicaciones, por ejemplo, en el campo del magnetismo, de la construcción y/o catalíticas. En esencia, la aleación de un metal trata de potenciar, modular o modificar sus propiedades para adecuarlo a la aplicación deseada. La mezcla o disolución sólida de dos o más metales está determinada por las leyes de la termodinámica que, en esencia, considera los factores entálpicos y entrópicos de la formación de homo- y hetero-enlaces [23]. La información correspondiente se recoge en el llamado diagrama de fases que contiene las fases posibles para las distintas razones molares entre los componentes en función de una propiedad como la temperatura o, menos frecuentemente, la presión. En un diagrama de fases pueden existir regiones de inmiscibilidad, esto es, en las que los componentes por separado son más estables que la mezcla, y de miscibilidad o formación de aleaciones, encontrándose dentro de estas últimas aleaciones ordenadas, en las que los átomos ocupan posiciones definidas, o desordenadas, en las que las posiciones atómicas de red son ocupadas indistintamente por todos los tipos de átomos constituyentes de la aleación. En este último caso, es común encontrar sistemas que tienen orden pero únicamente a nivel local, esto es, en los que un átomo tiene marcada preferencia por tener hetero- u homo-vecinos en su primera capa de coordinación, desapareciendo dicha tendencia gradualmente para capas superiores. Las aleaciones de hierro-cobre (Fe-Cu) y cobalto-cobre (Co-Cu) han sido analizadas en relación con sus propiedades magnéticas, de interés debido a la modificación de las interacciones hierro-hierro (Fe-Fe) o cobalto-cobalto (Co-Co), respectivamente, por dilución con átomos de cobre (Cu) [24]. Sin embargo, recientemente los estudios se han centrado en sistemas del tipo FexCo50-xCu50, ya que presentan un acusado aumento de la temperatura de Curie con el contenido en cobalto (Co). La formación de una aleación ternaria es compleja, dificultando el entendimiento de cómo se produce y de qué factores limitan la miscibilidad entre los heteroátomos. La técnica XANES es particularmente útil para responder estas preguntas. Los espectros XANES en los bordes K del hierro, cobalto y cobre (Fe, Co y Cu) de las aleaciones obtenidas en molinos mecánicos tras 80 horas de procesado se muestran en la Figura 10.11. La similitud en la forma del espectro de los tres componentes sugiere poderosamente que se forma una única fase, puesto que la simetría local es semejante para todos los constituyentes. Un análisis del proceso de aleación del sistema Fe30Co20Cu50 (Figura 10.12) muestra, por comparación con el correspondiente metal puro, que en las primeras 20 horas se produce la incorporación del cobalto (Co), que como metal tiene una estructura geométrica hcp, en una estructura fcc característica del cobre (Cu), que, por otra parte, no varía durante todo el proceso. El hierro (Fe), en este periodo de tiempo sufre una disminución de la intensidad de las resonancias, que se atribuye al aumento en el número de defectos existente en la estructura de tipo bcc por efecto térmico/mecánico de la molienda. Es solo a tiempos mayores de procesado cuando la forma del espectro XANES en el borde K del hierro (Fe) cambia, haciéndose progresivamente similar a la característica de
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
405
Absorción normalizada
7080 7100 7120 7140 7160 7180 7200 Energía (eV) (b)
Fe10 Fe20 Fe30 Fe40
Absorción normalizada
7680 7700 7720 7740 7760 7780 7800 Energía (eV) (c)
Fe10 Fe20 Fe30 Fe40 Fe50
Absorción normalizada
Fe10 Fe20 Fe30 Fe40 Fe50
(a)
Fe-foil 20 h 40 h 60 h 80 h
7080 7100 7120 7140 7160 7180 7200 Energía (eV) Absorción normalizada
(a)
(b)
Co-foil 20 h 40 h 60 h 80 h 7680 7700 7720 7740 7760 7780 7800 Energía (eV)
Absorción normalizada
Absorción normalizada
estructuras fcc. Un análisis más detallado muestra que si bien la fase fcc final es mayoritaria, existe una pequeña contribución (8%) de hierro (Fe) en estructura bct (body centered tetragonal) [24].
(c)
Cu-foil 20 h 40 h 60 h 80 h
8950 8970 8990 9010 9030 9050 9070 Energía (eV)
8950 8970 8990 9010 9030 9050 9070 Energía (eV)
Figura 10.11. Espectros en el borde K de Fe (a), Co (b), y Cu (c) de aleaciones FexCo50–xCu50 preparadas por molienda.
Figura 10.12. Espectros en el borde K de Fe (a), Co (b), y Cu (c) de aleaciones Fe30Co20Cu50 a distintos tiempos de molienda.
En una partícula de metal/aleación de tamaño suficiente, mayor de 5 nm, la energía superficial, esto es, la energía necesaria para formar una superficie al cortar un bloque infinito por un plano, produce una aportación despreciable a la energía total del siste-
406
Técnicas de análisis y caracterización de materiales
ma. Sin embargo, los sistemas catalíticos usados por la industria química corresponden a pequeñas partículas soportadas en un óxido, ya que se trata de maximizar el número de átomos expuesto a la atmósfera y, por tanto, en contacto con la mezcla reactiva. En estos materiales, de alta relación superficie/volumen, los fenómenos superficiales son críticos, produciéndose una graduación en la composición de la aleación desde el seno de la fase hasta la superficie, en un fenómeno que recibe el nombre de segregación superficial. Dicho fenómeno depende de la diferencia de los radios metálicos y de la energía superficial de los componentes, así como de la energética de la interacción entre los componentes de la aleación [25]. Estos sistemas pueden además presentar pequeñas diferencias, tanto en las fases termodinámicamente estables como en el grado de orden (ausente/local), con fases tridimensionales. Esta problemática ha sido analizada, por ejemplo, en catalizadores paladio-cobre (PdCu), utilizados en la hidrogenación de CO [26] y la reducción de NO [27]. Dichos sistemas catalíticos forman aleaciones substitucionalmente desordenadas, tal y como se desprende del estudio XANES del borde K del cobre (Cu) (Figura 10.13), que muestra cómo la resonancia alrededor de 9020 ev se desplaza de su posición respecto al metal puro debido al cambio de distancia de coordinación. Dicho desplazamiento es menor para el sistema bimétalico más rico en cobre (Cu) y se hace constante para los sistemas con razón atómica Pd/Cu > 1, que corresponde, justamente, al rango de relaciones atómicas donde se exacerba el orden local. Un primer punto importante desde el punto de vista catalítico es que ambos componentes ven modificadas sus propiedades electrónicas por aleación. En el caso de paladio (Pd), este se carga negativamente respecto al metal, ganando carga en su banda 5sp (evidenciada por la disminución de la intensidad de la resonancia a ≈ 24365 ev, Figura 10.13) a la vez que pierde otra cantidad más pequeña en su banda 4d [28]. Ello implica, por ejemplo, que la interacción con NO se ve notablemente favorecida y que su disociación sea más fácil en sistemas PdCu que en Pd monometálico. El segundo punto de interés para la catálisis es la composición superficial de la aleación, que en PdCu se enriquece notablemente en Cu para caras abiertas del tipo (100) y solo moderadamente en caras compactas tipo (111). La técnica XANES puede aportar poco al respecto; sin embargo, un análisis combinado con técnicas superficiales como infrarrojo [28] permite cuantificar el porcentaje de Cu presente en la superficie de un catalizador. Obviamente, este hecho define el número de centros homo y bimetálicos superficiales, pudiendo estos calcularse mediante métodos estadísticos sencillos, lo que permite comparar catalizadores basándose en su actividad para la transformación de reactivos por centro o unidad activa de metal, uno de los objetivos más importantes de todo estudio catalítico. En general, los estudios XANES de sistemas multimetálicos constituyen una potente herramienta pues informan de las propiedades tanto estructurales como electrónicas, si bien la información corresponde a la totalidad del material, sin que sea posible la obtención de información selectiva, como, por ejemplo, superficial, más que con técnicas selectivas de detección (iones, electrones Auger), no aplicables con generalidad debido a la imposibilidad de obtener espectros con adecuadas razones señal/ruido. Revisiones de estudios por técnicas de XPS y absorción de rayos X [29] como específicos de XANES [15] recientes pueden encontrarse en la literatura científica. Dichos estudios están centrados sobre todo en sistemas de interés industrial en aplicaciones magnéticas, eléctricas, catalíticas o de construcción, que contienen la mayoría de aleaciones metales de transición.
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
Cu(0)
Cu borde K
Pd borde K Pd(0) Absorbancia (u. a.)
Absorbancia (u. a.)
Pd33Cu67 Pd50Cu50 Pd67Cu33
8960
8980
9000 9020 Energía (eV)
407
9040
Pd87Cu33 Pd50Cu50 Pd33Cu67
24340 24360 24380 24400 24420 Energía (eV)
Figura 10.13. Espectros XANES en los bordes K de Cu y Pd de aleaciones Pd-Cu.
10.4.3.2. Sistemas geológicos Los materiales geológicos están sometidos, como es conocido, a altas presiones, lo que produce efectos importantes en sus propiedades [30]. Como ejemplo de los fenómenos que acontecen, puede verse en la Figura 10.14 lo que ocurre con el sulfuro de Samario (SmS), de interés industrial para la obtención de la tierra rara. Además de una transición de fase de primer orden, observada a bajas presiones (menores de 7 kbar) y que cambia la forma del espectro XANES debido a los cambios de estructura geométrica, se observa un desplazamiento continuo de la energía del borde de absorción con 3.0
2.8
XANES
Valencia
2.6
2.4
SMS 300 K
30 kbar 7 kbar 0 kbar
2.2
2.0
72 kbar
0
20
40 Presión (kbar)
60
6685
6705 6725 Energía (eV)
Figura 10.14. Dcha.: espectros XANES de SmS en función de la presión. Izda.: valencia promedio del Sm en función de la presión.
Técnicas de análisis y caracterización de materiales
408
el incremento de la presión hasta los 80 kbar. Dicha variación se presenta en la parte izquierda de la Figura 10.14. Este hecho indica que el estado de valencia/oxidación del samario (Sm) varía en función de la presión, lo que obviamente da idea del cambio en las propiedades electrónicas de la tierra rara en la estructura de SmS en dependencia de la variable analizada, sin que ello implique ninguna variación de la ordenación geométrica tridimensional del material y sí de las distancias interatómicas.
10.5. eXafs 10.5.1. Propiedades generales de la técnica Como se ha comentado en la sección 10.2.3, la técnica EXAFS permite la obtención de los números y distancias de coordinación promedio alrededor del átomo absorbente de la radiación. Para ello es necesario la obtención previa de las funciones de amplitud Fi(k) y desfase Фij(k) desde referencias experimentales o cálculos teóricos [4]. En general, la señal EXAFS está compuesta por un número de capas importante y puede interpretarse como una pseudo-distribución radial de la composición de la muestra centrada en el átomo absorbente [3]. Así, la transformada de Fourier de dicha señal para el óxido de Ce(Iv), Figura 10.15, muestra la aparición de picos a distancias R’, modificadas de las reales R por la presencia de la función Фij(k) en el argumento del seno en la ecuación [4], que, además, corresponden a cada una de las capas de coordinación situadas a distancias sucesivamente más alejadas del átomo central. En el caso mostrado puede verse, por ejemplo, que la primera capa de coordinación Ce-O se separa claramente del resto, mientras que la segunda (Ce-Ce) y tercera (Ce-O) no pueden separarse con el uso de una transformada de Fourier y requieren un análisis más completo, que describiremos brevemente en la sección 10.5.2. En líneas generales puede decirse que la técnica EXAFS informa del orden local en torno a cada uno de los átomos constituyentes del material, al que interpreta por capas de coordinación, rindiendo información acerca de la naturaleza, distancia y número de vecinos. 1
FT (k -wt)
2,3
0
1
2
3
4
5
6
7
R(Å)
Figura 10.15. Módulo (línea continua) y parte imaginaria (discontinua) de la transformada de Fourier de un espectro EXAFS de CeO2.
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
409
Hay que decir, sin embargo, que su dependencia del orden vibracional no permite analizar fácilmente experimentos realizados en función de la temperatura puesto que el uso de las expresiones [10.3] y [10.4] queda limitado a materiales con desorden gausiano o con una anarmonicidad ligera, restringiendo la versatilidad de la técnica para el estudio in situ de sistemas.
10.5.2. Tratamiento de la señal y análisis de datos En la señal obtenida en un experimento de absorción tenemos una contribución atómica, llamada μ0, que hay que separar de la señal EXAFS, lo que requiere un tratamiento de datos experimentales previo a su análisis.
10.5.2.1. Extracción señal EXAFS Dado que, según la ecuación [10.2], la función EXAFS se ha definido como: χ( k ) =
σ ( k ) − µ0 ( k )
[10.5]
µ0 ( k )
la extracción de las oscilaciones EXAFS requiere la substracción de la contribución atómica μ0, seguida de un proceso de normalización de la función diferencia resultante. La eliminación de la absorción de fondo se realiza ajustando la línea base en la zona previa al borde a la fórmula empírica de victoreen, cE–3 + dE–4. Una vez restada esta contribución, se asume que la resultante contiene únicamente la contribución de la excitación o borde de interés. El proceso de separación de las oscilaciones y normalización requiere determinar μ0(k), lo que no es sencillo. Para alcanzar este objetivo existen un número importante de métodos, entre los que el uso del llamado spline suavizante ha alcanzado un notable grado de consenso [4], [31]. Tal se basa en la determinación del spline cúbico S(k), encadenado de polinomios cúbicos con continuidad en la función y sus dos primeras derivadas, que minimiza la función: xn χ ( ki ) − S ( k i ) 2 '' α ∑ + ( 1 − α ) ∫ S ( k i ) k δ ( ) i i x
{
}
2
dk
[10.6]
1
siendo α un factor de peso y δ una función suave que permite dar, en caso necesario, un peso diferente a las distintas partes del espectro, y realizando el sumatorio sobre los distintos puntos experimentales (i = 1, ..., n) del mismo. La minimización de esta expresión corresponde a la necesidad de que S(k) sea un compromiso entre seguir de cerca a χ(k), primer término en [10.6], y ser suave, esto es, presentar la mínima curvatura promedio (segundo término en [10.6]). El parámetro α pondera el peso relativo de ambos criterios y se escoge iterativamente empezando desde el valor 0 y sentido creciente, de tal manera que tras la resta de la función μ0(k), las frecuencias bajas
Técnicas de análisis y caracterización de materiales
410
(R entre 0-0.75 Å) en la transformada de Fourier del espectro diferencia tengan una intensidad razonablemente pequeña respecto a la primera capa de coordinación sin que esta, por otra parte, llegue a ser afectada en el proceso. La extracción de la señal EXAFS concluye con la normalización de la función diferencia, dividiéndola por la magnitud de μ0 en las cercanías del borde E0. Dicho proceso se realiza así ya que el uso de las funciones Fi(k) y Фij(k) tomadas de referencias experimentales elimina la necesidad de tener en cuenta la variación de μ0 con k, al quedar englobada en Fi(k).
10.5.2.2. Análisis de la señal EXAFS Una vez obtenida la función EXAFS debe procederse a su análisis. Puesto que dicha función contiene un cierto número de contribuciones aproximadamente sinusoidales, un método apropiado de análisis es la transformación de Fourier, que se expresa como: kmax
Ψ(r ) =
∫
k n χ ( k ) eikr dk
[10.7]
kmin
donde kn es una función de peso que trata de contrarrestar tanto el efecto del factor 1/k como el carácter decreciente de la función de amplitud Fi(k) de la ecuación [10.3]. La función Ψ(r) permite, usando distintos rangos de r centrados en los máximos de los picos, aislar las contribuciones de las distintas esferas de coordinación, siempre que no solapen. El número de capas necesarias para el ajuste se obtiene considerando el número de picos existente en la transformada de Fourier, así como por comparación con la transformada de sistemas de referencia, tal y como puede ser un metal puro. El uso de la transformada de Fourier corregida de fase (Фij(k)) y amplitud (Fi(k)) permite obtener picos simétricos en el caso de utilizar las funciones correctas, identificando así el átomo retrodifusor. Todo ello permite obtener una primera impresión del número de capas necesarias en el ajuste y de la naturaleza química de los vecinos. Finalmente, se procede a un ajuste por regresión mínimo-cuadrática no lineal de la expresión [10.3], bien de las oscilaciones aisladas por transformación/retrotransformación de Fourier, o en una etapa final, del espectro original, usando las funciones de amplitud Fi(k) y desfase Фij(k) apropiadas para cada esfera de coordinación y tomando como parámetros ajustables N, R, ∆σ2 y ∆E0.
10.5.3. aplicaciones 10.5.3.1. Materiales ópticos Los láseres son sistemas ópticos de gran utilidad ya que el fenómeno de emisión estimulada, en el que se basan, permite la obtención de un haz de luz muy intenso y coherente, esto es, con los fotones emitidos en fase. Dentro de estos sistemas, los lá-
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
411
seres de estado sólido han recibido mucha atención debido a que la interacción entre el átomo excitado, responsable de la emisión láser, y su entorno produce un ensanchamiento de la señal de aproximadamente 102 THz, lo que abre las puertas a los llamados láseres sintonizables, que permiten emitir en un amplio rango continuo de energías. Además, el campo cristalino desdobla los niveles d de los átomos, lo que permite una elección del máximo de intensidad en función de la naturaleza y propiedades de dicho campo. Es obvio por tanto que, en los láseres de estado sólido, un punto de estudio consiste en conocer y modificar, con la introducción de dopantes, la posición del átomo responsable de la emisión láser. El mismo conocimiento de las posiciones dentro del cristal puede llegar a ser un problema complejo, tal y como puede verse en el sistema de niobato de litio (formalmente, LiNbO3) [32]. La estructura de este material puede describirse como octaedros irregulares que comparten caras a lo largo del eje cristalográfico c. Los octaedros estarían ocupados, en una muestra estequiométrica, por un átomo de niobio (Nb), un átomo de litio (Li) y una vacante, repitiéndose dicha estructura ternaria indefinidamente. El estudio mediante EXAFS de muestras con relaciones Li/Nb iniciales diferentes en la etapa de preparación, Figura 10.16/Tabla 10.1, permite observar que el aumento de dicha relación produce la existencia de vacantes de Nb y, lo que es más importante desde el punto de vista que nos ocupa, cierta ocupación de sitios de Li por Nb, que se separan 0.4 Å de las posiciones ideales del centro del octaedro, modificando así las propiedades láser del sistema. Nd: LiNbO3
[Li]/[Nb]= 0,92
[Li]/[Nb]= 0,94 (congruent)
[Li]/[Nb]= 0,96
0
1
2
3 4 5 Distancia (Å)
6
7
8
Figura 10.16 Transformada de Fourier de espectros de LiNbO3 preparados con distintas razones Li/Nb.
En el caso del Niobato de Litio, el dopaje del sistema se realiza usualmente con varios iones, tal como el par magnesio (Mg), hafnio (Hf). Cuando se utiliza únicamente Hf, este ocupa posiciones de Li en la estructura, produciendo láseres cuya red cristalina se degrada en operación con intensidades moderadas. La introducción de Mg en
Técnicas de análisis y caracterización de materiales
412
poca cantidad (1-6%), fuerza al Hf a ocupar progresivamente posiciones de Nb, lo que aumenta la fortaleza de la estructura y el umbral de degradación. Tabla 10.1. ParáMeTrOs eXafs en MUesTras linbO3 Muestra Li/Nb = 0,92
Li/Nb = 0,94
Li/Nb = 0,96
capa coordinación
número coord.
distancia cooord. (Å)
Nb-O
2,0
2,235
Nb-O
4,0
2,94
Nb-Nb
8,0
3,37
Nb-O
3,0
2,165
Nb-O
2,0
2,94
Nb-O
1,0
3,005
Nb-Nb
8,0
3,35
Nb-O
0,85
1,89
Nb-O
1,33
2,11
Nb-O
4,0
2,93
Nb-Nb
7,0
3,45
10.5.3.2. Materiales biológicos El estudio mediante EXAFS de centros metálicos insertos en enzimas es de vital importancia en biología. Hay que señalar, sin embargo, que dichos estudios deben hacerse obligatoriamente a baja temperatura, alrededor de 150 K, ya que la irradiación de las disoluciones continentes de estos materiales produce radicales libres que solo a dichas temperaturas recombinan entre sí, sin afectar substancialmente al sistema biológico. La complejidad de estos estudios queda reflejada en el análisis del comportamiento de la citocromoxidasa, enzima que contiene hierro (Fe) en dos entornos hemo, llamados a y a3, así como cobre (Cu), también en dos entornos diferentes. Dicha enzima cataliza la reducción de O2 produciendo agua, y actúa como regulador celular del pH. La aplicación de la técnica EXAFS a los bordes K del hierro (Fe) y cobre (Cu), Figura 10.17, permite establecer los modelos de los átomos circundantes y orden local alrededor de los dos tipos de centros y observar cómo cambian de manera importante por la adsorción de la molécula de oxígeno. Este análisis se facilita enormemente con la obtención de datos resueltos en ángulo, ya que ello permite localizar la disposición tridimensional de los ligandos en la esfera de coordinación de los metales [33].
10.5.3.3. Sistemas catalíticos La técnica EXAFS también es útil para conocer el tamaño y la forma promedios de fases activas soportadas en óxidos o zeolitas, así como la posición relativa de dicha función activa respecto al soporte. Dicha información es tremendamente compli-
a)
b)
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
413
A
A a)
b)
B
B
C
(u. a.)
CB
(u. a.)
a)
AB
(u. a.)
(u. a.)
A
b)
C
C
DA
AD
D
(u. a.)
0
2
2
4 6 8 4 6 8 RR++a(k) (Å) a(k) (Å)
c)c) c)
c)
D
B10
10
(u. a.)
0
C
0
2
0
2
4
6
4 6 R ++ a(k) a(k) (Å) (Å) R
8
2
4 6 R + a(k) (Å)
8
10
8
10 C
D 0
B
D
10
0
2
4 6 R + a(k) (Å)
8
10
estalocianina oxidada
c) c)
estalocianina oxidada
estalocianina oxidada
oxohemoglobina
estalocianina reducida
d) estalocianina estalocianina reducida
(u. a.)
hemoglobina
reducida
0,5
d)
d)
Magnitud Magnitud Transformada Magnitud Transformada Transformada
e) oxohemoglobina oxo-
e)
(u. a.)
(u. a.)
e) 0,5 0
0
1
2
0,5 0
0
1
2
3 R+ (Å)
3 R+ (Å)
4
4
5
5
1,0 θ= 90º
0,5 0,0
θ= 45º
0,5 0,0 1,0
1,0 0,5 0,0
0,50 0,5
θ= 90º
θ= 15º
1
2 3 R+ (Å)
1
2 3 R+ (Å)
0,0 0,0 0,00 0,5
4
5
θ= θ=15º 45º
0,5 0,5 0,0
θ= 90º
θ= 45º
4
θ= 15º
5
del Fe (a) y Cu (b) de la encima 0 Figura 10.17. Transformada de Fourier del borde K 0,0 en 1 Modelo 2 geométrico 3 4 5 0citocromoxidasa 1 2 solución 3 y tras 4contacto5con O2, CO0 y H2O. del comportamiento de los centros activos del sistema (c). Transformada de Fourier resuelta R+ (Å) R+ (Å) en ángulo de los espectros a) A (d) y b) A (e).
414
Técnicas de análisis y caracterización de materiales
cada de obtener con otras técnicas y es de particular importancia en sistemas con cargas pequeñas, esto es, con tamaño de partícula por debajo del correspondiente a 20-25 átomos. Los números de coordinación obtenidos mediante EXAFS resultan de interés puesto que permiten conocer el tamaño promedio de la partícula y, en algunos casos, la forma de partícula. Esta última información es típica en sistemas metálicos, en los que un análisis de los resultados experimentales de las tres primeras capas permite identificar la forma (esférica, semiesférica o discótica) de los agregados por comparación con cálculos publicados en la literatura y que hemos resumido en la Figura 10.18 [34], [35]. En general, en un espectro EXAFS se observan contribuciones de retrodifusores diversos que, debido a las propiedades del fenómeno de scattering, pueden diferenciarse en función del número atómico. En sistemas catalíticos que contienen partículas metálicas, este hecho permite la adopción de sistemas de análisis específicos que permiten reducir el número de capas que se ajustan simultáneamente y, por tanto, minimizar el error de ajuste al «desacoplar» parámetros de distintas capas que en la transformada de Fourier están o pueden estar próximas. La separación de las contribuciones de átomos pesados (mayoritariamente metal-metal) y ligeros (metal-soporte) se realiza con el llamado análisis k1/k3. En esencia, este método exalta el peso de los átomos ligeros cuando se pesa la función EXAFS en k1, debido a que la correspondiente función de retrodifusión (Fi(k)) se hace cero para valores de k mayores a 1 nm–1, y, por tanto, realza la zona de valores bajos de k. A su vez, un peso en k3 exalta la contribución de los átomos pesados, debido al aumento del peso de la parte del espectro a valores altos de k, y, por consiguiente, de átomos con función de retrodifusión (Fi(k)) con valores no nulos para k > 1 nm–1. El proceso realiza ajustes de la ecuación [10.3] en k1/k3 iterativamente, restando las contribuciones de átomos ligeros/pesados sucesivamente al espectro experimental, hasta alcanzar autoconsistencia [36]. Con ayuda del uso de transformadas de Fourier, el proceso mencionado rinde un modelo del tamaño y forma promedio de las partículas, tal y como puede verse en la Figura 10.19a para un ejemplo consistente en el sistema Pd/zeolita-KL tras reducción con hidrógeno. En este caso, la reducción produce la aparición del estado cero-valente del elemento noble y formación de partículas de tipo discal con una única capa, cuasiplanares, (111) orientadas, caracterizadas inequívocamente por el bajo número de coordinación correspondiente a la segunda capa, tal y como puede verse en la Figura 10.18 [35]. El número de átomos presente en la partícula puede obtenerse directamente con el número de coordinación correspondiente a la primera capa de coordinación. Una vez conocidas las propiedades geométricas de la fase metálica, el análisis de las contribuciones metal-soporte, esto es, de los números y distancias de coordinación, permite proponer un esquema a nivel atómico de la interfase metal-soporte. En el caso presentado, la confrontación con cálculos precisos de la estructura interfacial, posibles puesto que la estructura tridimensional de la zeolita es bien conocida, permite concluir que los átomos de metal presentan una fuerte interacción con los iones óxido de las paredes de la zeolita, situándose perpendicularmente a la pared de las cavidades zeolíticas (Figura 10.19b,c). La peculiar disposición geométrica del sistema es de gran importancia desde el punto de vista industrial ya que, por ejemplo, permite interpretar las especiales características de los sistemas de metal noble depositados en zeolita Kl en reacciones de hidrogenolisis/isomerización de hidrocarburos [35].
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
415
10 3a capa coord.
9 No Coordinación
8 7 6 5 4 3 2 1 0 0
5
10 15 20 25 30 Tamaño de partícula (átomos)
35
40
35
40
35
40
3,0 2a capa coord.
No Coordinación
2,5 2,0 1,5 1,0 0,5
No Coordinación
0,5
0
8,0 7,5 7,0 6,5 6,0 5,5 5,0 4,5 4,0 3,5 3,0 2,5 2,0
5
10 15 20 25 30 Tamaño de partícula (átomos)
1a capa coord.
0
5
10 15 20 25 30 Tamaño de partícula (átomos)
Figura. 10.18. Números de coordinación de las tres primeras capas de sistemas metálicos fcc con simetría esférica (cuadrado), semiesférica (rombo), o de disco de 1 capa (triángulo) y de disco de 2 capas (círculo).
Técnicas de análisis y caracterización de materiales
416 a)
b)
c)
Figura 10.19. a) Morfología de la partícula de Pd. B) y c) vistas de la interfase metal-soporte en el sistema Pd/Zeolita-L.
10.6. Técnicas de eMisión de rayOs X En lugar del espectro de absorción de rayos X, también es posible medir el proceso subsecuente de emisión de rayos X producidos por la desexcitación radiativa de los átomos previamente fotoexcitados; es el llamado proceso de fluorescencia. Este constituye un método indirecto de obtener el espectro de absorción. Como mencionamos en la introducción, las emisiones de rayos X se denominan K, L, M, N dependiendo del nivel desde donde se originaron. Como ilustra la Figura 10.20, se agregan subíndices α, β, γ para diferenciar las diferentes transiciones desde los distintos niveles electrónicos superiores y otros subíndices (1 o 2 generalmente) para diferenciar subniveles u orbitales que estén contenidos en las capas o niveles principales.
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
M
417
N7 N5 N3 N1
α1
M5 M3 M1 L β3 β1 β2
α2α1
β1
β2.15
ψ2.15
L3 L2 L1
K
α2α1
K1
Figura 10.20. Transiciones electrónicas asociadas a las líneas de emisión más comunes.
El estudio de estas transiciones permite la obtención de espectros de emisión que, como decíamos, dependiendo del modo de obtención, pueden recabar una información similar a la presente en un espectro de absorción o bien contienen información adicional, particularmente de carácter electrónico. En esta sección trataremos de describir el segundo caso.
10.6.1. Detección por fluorescencia En un espectro de absorción clásico, la contribución del elemento estudiado a la absorción total y por tanto, al cambio en la absorción a lo largo del borde o salto, depende de su concentración en la muestra. Así, por debajo de un determinado valor de concentración, el cambio en el coeficiente de absorción antes y después del borde se hace indiscernible del ruido mediante medidas en modo de transmisión mientras que en emisión se magnifica, dada la menor fluorescencia antes del borde. Sin embargo, la fluorescencia solo es proporcional al coeficiente de absorción cuando el elemento a estudiar se encuentra en baja concentración, ya que para altas concentraciones (~5%) los problemas debidos a la autoabsorción son significativos. También es preciso tener en cuenta que la recombinación radiativa compite con el llamado efecto Auger; el decaimiento o desexcitación por fluorescencia domina al electrónico para Z ≥ 20 en bordes L y Z ≥ 50 en el borde K, siendo Z el número atómico, y es, por tanto, el método escogido para dichos rangos. En fluorescencia, los fotones producidos por el elemento de interés durante la absorción son analizados mediante un detector de estado sólido (en general, de cen-
Técnicas de análisis y caracterización de materiales
418
telleo), el cual se coloca de forma ortogonal al haz de luz incidente para minimizar la detección no deseada de luz dispersada por la muestra. La señal de fluorescencia es varios órdenes de magnitud menor que la señal obtenida mediante el empleo de cámaras de ionización y por tanto, el ruido electrónico es proporcionalmente mayor. Por ello, se requieren mayores tiempos de conteo para mejorar la relación señal-ruido. Dependiendo de la resolución con la que se discrimine la emisión radiativa y, por tanto, se detecte la fluorescencia, se obtiene un resultado distinto. Así, con uso de detectores de estado sólido, con una resolución por encima de 50 ev, los espectros son análogos a los de absorción. Sin embargo, cuando se usa un monocromador para resolver en energía la emisión (Figura 10.21), pueden abarcarse un sinfín de fenómenos físicos sin analogía en la emisión. Por ser los más sencillos y de mayor uso práctico analizaremos dos de ellos; el más simple consiste en tratar de optimizar la resolución espectral de la señal y, particularmente, de espectros XANES. El segundo consiste en el uso de de la emisión para la obtención de espectros «site-selective». Muestra Cámara de ionización Rendija de apertura Monocromador Rayo X incidente Cristales
Detector
Figura 10.21. Configuración experimental de una línea de emisión.
10.6.2. emisión de rayos X La «absorción selectiva de rayos X» es una metodología experimental basada en el empleo de un único canal específico de fluorescencia. Por tanto, este tipo de mediciones precisan espectrómetros de emisión con una resolución en energías alta y que requieren estaciones especiales con la configuración experimental apropiada para la obtención de espectros de emisión altamente resueltos. Esta técnica permite obtener espectros XANES de alta resolución ya que es posible reducir el ensanchamiento debido al tiempo de vida medio [37]. Para poder medir un espectro de absorción con resolución por debajo del tiempo de vida medio se debe elegir un canal de emisión para cada borde. El criterio de elección se basa en (i) la intensidad, (ii) la energía, y (iii) su tiempo de vida medio. Claramente se busca la mayor intensidad y el menor ensanchamiento de tiempo de vida. Pero, desde el punto de vista experimental el punto más crítico es la energía de emisión ya que determina la elección del cristal analizador y su resolución. En la Figura 10.22 se muestra a modo ilustrativo cómo es posible mejorar el espectro XANES del borde LIII del platino (Pt). El ensanchamiento debido al tiempo de vida medio del estado final 2p es de 4 ev y puede ser reemplazado por aquel de los niveles 3d o 4d, ambos menores de 0,5 ev. Esto da lugar a un espectro con resonancias más intensas y estrechas.
Absorbancia normalizada (u. a.)
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
419
1–
11,52
11,54
11,56
11,58
11,60
11,62
Energía (eV)
Figura 10.22. Espectro XANES LIII de Pt metálico medido mediante fluorescencia (línea continua) y medido con alta resolución usando el canal de emisión 2p3/23d (línea discontinua).
La obtención del espectro con alta resolución permite estudiar pequeñas variaciones en los estados desocupados más bajos. Así, en una muestra de 0,5% Pt-1%Sn sobre alúmina es posible analizar tanto el proceso de formación de la aleación entre los dos metales como los fenómenos de transferencia de carga que tienen lugar durante el tratamiento de reducción en H2 (Figura 10.23). Ambos fenómenos pasan desapercibidos o son muy difíciles de interpretar en espectros XANES normales. Otra posibilidad es poder medir la absorción de rayos X de centros diferentes de un mismo elemento de manera selectiva (Site-selective X-ray absorption) [38]. Las líneas de fluorescencia K de metales emitidas tras la creación de un hueco 1s contienen gran cantidad de información química; en concreto aquellas procedentes de orbitales por encima de la capa 3p del metal, es decir, dejando un hueco en un orbital de valencia (líneas satélites Kβ) se originan principalmente de electrones del metal y ligandos que contribuyen a la densidad de estados ocupados p. La posición en energía de estas líneas, llamadas de cross-over, es característica del tipo de ligando que esté coordinado al ión metálico. Por ejemplo, en una muestra que presente simultáneamente centros en estado metálico y centros oxidados de un elemento, es posible seleccionar el canal de decaimiento cross-over desde el oxígeno al metal. Debido a que el orbital 2s del oxígeno contribuye solo a aquellos átomos metálicos que tengan átomos de oxígenos vecinos, es posible medir el espectro de absorción exclusivamente de esos átomos dentro de la muestra. Es importante tener en cuenta, que el análisis del espectro de absorción (tanto XANES como EXAFS) es esencialmente el mismo que para un espectro clásico, y que todos los átomos que rodean al átomo absorbente contribuyen en la dispersión del fotoelectrón generado. Únicamente la excitación de rayos X y el proceso de decaimiento son específicos de un tipo de vecinos mientras que el fenómeno de dispersión, que determina la forma espectral, no.
Técnicas de análisis y caracterización de materiales
420
final
560 490 420 350 280 210 140 70
11550 11560 11570 11580 11590 11600 Energía (eV)
intermedia
Absorbancia normalizada (u. a.)
Intensidad XANES
Temperatura (ºC)
11555
inicial
11565
11575
11585
Energía (eV)
Figura 10.23. Mapa de contorno de la intensidad de la señal Pt LIII XANES para un catalizador PtSn/Al2O3 durante un tratamiento en hidrógeno.
10.7. sUMariO y PersPecTivas fUTUras Las secciones 10.3 a 10.6 permiten extraer una idea ligera de la información asequible con el uso de las espectroscopías de absorción/emisión de rayos X. Aun asumiendo la complejidad implícita en el fenómeno de respuesta de la materia a los rayos X, el grado de conocimiento actual permite el uso fructífero de este fenómeno para obtener información acerca de las propiedades de muchos tipos de sólidos. Hay que recalcar que estas espectroscopías son únicamente sensibles al orden local (hasta los 1,5 nm), lo que permite el estudio de sistemas tanto ordenados como desordenados, pudiéndose analizar independientemente todos los elementos constituyentes de un material. XANES es, posiblemente, una técnica ideal para el estudio de materiales ya que, además de las características propias de una técnica de absorción, posee una inheren-
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
421
te alta relación señal/ruido al no estar afectada por efectos térmicos, lo que, por otra parte, abre la posibilidad de realizar estudios in situ en función de dicha variable, esto es, la temperatura. Los estudios de las transiciones discretas, energía del borde de absorción y de las resonancias del continuo conducen a un mejor conocimiento de las propiedades estructurales y electrónicas locales (alrededor del átomo excitado) siempre que se realicen con la ayuda de sistemas de referencia adecuadamente escogidos. Ello requiere, además, el uso de métodos de análisis complejos y, en algunos casos, con base teórica todavía por completar [15]. La base teórica de los sistemas de análisis de datos EXAFS está mucho más firmemente afianzada y una revisión de los últimos desarrollos puede encontrarse en [39]. La obtención de funciones ab initio de fase y amplitud, necesarias para realizar los ajustes de datos experimentales, es cada día más cercana y posibilitará (vide supra) la minimización de los errores inherentes al ajuste de espectros EXAFS. Una vez más, hay que señalar que esta espectroscopía es sensible a efectos térmicos (vibracionales) y, por tanto, requiere la obtención de espectros a bajas temperaturas para la utilización de fórmulas cerradas (analíticas). En este caso, la información es de tipo estructural y carácter local, pudiéndose resolver en ángulo o ser un promedio radial en función de las propiedades tridimensionales de la muestra. Es importante señalar que, en el caso de la técnica EXAFS, los resultados se obtienen por ajuste de datos experimentales y que dicho proceso debe llevarse a cabo, para que cobre sentido, con el uso de restricciones de naturaleza física a la solución matemática. Dichas restricciones se obtienen mediante un análisis detallado de la transformada de Fourier de la señal y su comparación con sistemas de referencia. Para finalizar es importante señalar que, en el pasado reciente, los adelantos técnicos han expandido la potencia de las técnicas de absorción/emisión de rayos X en varios aspectos. La resolución temporal cercana al micro-milisegundo, accesible con el uso de sistemas dispersivos, ha permitido el estudio de problemas cinéticos in situ. Beneficios adicionales proceden del uso de set-ups experimentales que combinan la adquisición de datos XAFS con otros derivados de técnicas más convencionales, tales como la difracción de Rayos X [40]. En el caso de XANES, mayores detalles de las propiedades electrónicas de los materiales están siendo actualmente captados con la detección por fluorescencia de niveles de semi-core, que gozan de tiempos de vida media largos. Aun así, el uso combinado de la detección de fluorescencia en set-ups dispersivos podría ir más allá, abriendo el estudio de los fenómenos llamados de cross-over, que rinden información selectiva de aquellas partes del sistema que tengan naturaleza diferente, ya sea por tener simetría/geometría local diferente o por tener propiedades electrónicas diferentes. Ello permitiría, por ejemplo, el estudio selectivo de átomos localizados en interfases sólido-sólido o de cualquier otro tipo, así como la caracterización del entorno de átomos superficiales en condiciones de reacción, esto es, sometidos a atmósferas, temperatura y/o presión [38]. Por otra parte, los últimos avances sugieren que el campo de la microscopía de rayos X podría competir con la de electrones en un futuro no lejano. Hasta ahora, la dimensión característica de un haz de rayos X focalizado está entorno a los μm, sin embargo trabajos muy recientes indican la posibilidad de alcanzar la región de los nm (50 nm) [41]. Ello implicaría el uso extendido de la microscopía de rayos X, que combinaría resolución espacial y química, lo que es de suma importancia en aquellos sistemas hete-
422
Técnicas de análisis y caracterización de materiales
rogéneos, tales como suelen ser, frecuentemente, aquellos que solo gozan de orden a nivel local.
bibliOGrafía 1. BohM, D. Quantum theory, Dover, New York, 1971. 2. De BroGlie, M. C. R. Acad. Sci., 157 (1913), p. 924. 3. Sayers, D. E.; Stern, E. A.; Lytle, F. W. Phys. Rev. Lett., 27 (1971), p. 1.254. 4. koninGsberGer, D. C.; Prins, R. (eds.), X-ray Absorption, john Wiley and Sons, New York, 1988. 5. ChristoFFersen, R. E. Basic Principles and Techniques in Molecular Quantum Mechanics, Springer-verlag, Berlin, 1989. 6. TriGuero, L.; Petterson, L. G. M. Surf. Sci., 70 (1998), p. 83. 7. vvedensky, D. D. Unoccupied electronic states, j. C. Fuggle (ed.), Springer, Berlin, 1992. 8. SuGano, S.; Tanabe, Y.; KitaMura, H. Transitions metal ions, Academic, New York, 1970. 9. De Groot, F. M. F. j. Elec. Spect. Rel. Phen., 67 (1994), p. 529. 10. Levine, I. Spectroscopy, Mcgraw, New York, 1989. 11. MCMaster, W. H.; Del Grande, N. K.; Mallet, j. H. «Compillation of X-Ray Cross Sections», UCRL-50174. 12. Prins, R.; KoninGberGer, D. C. «Catalysis», in ref. 4. 13. ShaM, T. K. Phys. Rev., B 31 (1985), p. 1.888. 14. Kizler, P. Phys. Rev., B 46 (1992), p. 10.540. 15. Fernández-GarCía, M. Catal. Rev. (en prensa). 16. RaMaker, D. E. et ál. Phys. Chem. Chem. Phys., 1 (1999), p. 2.293. 17. EL Fallah, j. et ál. J. Phys. Chem., 98 (1994), p. 5.522. 18. Hibrid, F.; MiChel, C.; Haller, G. L. J. Phys. Chem., 96 (1992), p. 9.893. 19. Ferreira-APariCio, P. et ál. Catal. Lett., 49 (1997), p. 163. 20. Overbury, S.H. et ál. Catal. Lett., 51 (1998), p. 133. 21. Fernández-GarCía, M.; Márquez-Álvarez, C.; Haller, G. L. J. Phys. Chem., 99 (1995), p. 12.565. 22. Márquez-Álvarez, C. et ál. J. Am. Chem. Soc., 119 (1997), p. 2.905. 23. Slater, j.C.; «Introduction to Chemical Physics», Dover, New York, 1970. 24. Prieto, C. et ál. J. non-Cryst. Sol., 246 (1999), p. 169. 25. PoneC, v.; Bond, C. G.; «Catalysis by Metal and Alloys», Elsevier, Amsterdam, 1995. 26. Fernández-GarCía, M.; Anderson, j. A.; haller, G. L. J. Phys. Chem., 100 (1996), p. 16.247. 27. Fernández-GarCía, M. et ál. J. Catal., 187 (1999), p. 474. 28. Fernández-GarCía, M. et ál. J. Phys. Chem., B 102 (1998), p. 141. 29. RodríGuez, j. A. Surf. Sci. Rep., 24 (1996), p. 223. 30. Rohler, j.; Ravet, M. F. EXAFS and Near Edge Structure, Berlin, Springer-verlag, 1983. 31. Cook, j. W.; Sayer, D. E. J. Appl. Phys. 52 (1981), p. 5.024.
Espectroscopías de absorción de rayos X (XES y XAFS: EXAFS y XANES)
32. 33. 34. 35. 36. 37. 38. 39. 40. 41.
423
Prieto, C. Optical Mat., 12 (1999), p. 135. CraMer, S. T. «Biological Applications of XAFS», in ref. 4. GreeGor, R. B.; Lytle, F.W. J. Catal., 63 (1980), p. 476. MenaCherry, P. v.; Fernández-GarCía, M.; Haller, G. L. J. Catal., 166 (1997), p. 75. van Zon, j. B. D. A. et ál. J. Chem. Phys., 72 (1985), p. 5.742. HaMalainen, H. Phys. Rev. Lett., 76 (1991), p. 2.850. De Groot, F. M. F. Topics Catal., 10 (2000), p. 179. Rehr, j. j.; Albers, R. C. Rev. Mod. Phys., 72 (2000), p. 621. Sankar, G.; ThoMas, j. M. Topics Catal., 8 (1999), p. 1. Cai, Z. et ál. X-ray Microscopy: 6th International Conference, American Institute of Physics, 2000, p. 472.
11. esPecTrOscOPía de fOTOelecTrOnes de rayOs X (XPs) Jose MiGuel CaMPos Martín instituto de Catálisis y Petroleoquímica (CSIC)
11.1. inTrOdUcción La espectroscopía de fotoelectrones se basa en el descubrimiento experimental de finales del siglo pasado del efecto fotoeléctrico (Hertz, 1887), posteriormente, Einstein, en 1905, propuso los principios teóricos mediante la formulación de la ley de conservación de la energía del efecto fotoeléctrico. Sin embargo, a pesar de lo atractivo que resultaba el análisis de energía de ligadura de los electrones mediante la medida de la energía cinética de los fotoelectrones, los primeros instrumentos no se desarrollaron hasta cincuenta años después. Este retraso se debió a la existencia de grandes problemas a nivel experimental como: obtención de radiación monocromática de alta energía, fabricación de sistemas de ultra alto vacío, necesidad de detectores de alta eficacia y analizadores de buena resolución de energía cinética. En la actualidad, la espectroscopía de fotoelectrones, que se caracteriza por su elevada sensibilidad superficial, se puede aplicar al análisis de multitud de materiales y se utiliza en una gran variedad de campos de estudio como: catálisis, aleaciones, polímeros, cerámica, semiconductores, por nombrar unas pocas de las múltiples aplicaciones. Históricamente, los primeros experimentos de fotoionización con rayos X se realizaron por Robinson en 1923. En estos espectros se pudo intuir una estructura, a pesar de las graves dificultades técnicas que todavía se tenían. Los primeros espectros electrónicos, que se pueden considerar como tales, se obtuvieron en 1930 por E. Rudberg, aunque se trató de espectros de pérdida de energía de electrones (ELS), se utilizó un analizador de desviación magnética con una resolución de ≈ 0,5% para energías entre 40 y 900 ev. La aparición de analizadores de energía electrostáticos y otros sistemas menores en los años sesenta permitieron a Powell y ayudantes en el NBS, obtener espectros ELS con alta resolución e intensidad. Una mejora muy notable en la resolución de los espectros fue el descubrimiento de Möllenstedt y Börsch alrededor de 1949 de las lentes de electrones, esta técnica, que se ha aplicado en gran medida en la microscopía electrónica, permite una elevadísima resolución del orden de 10–5 – 10–6. Los primeros estudios en el campo de la espectroscopía de fotoelectrones se llevaron a cabo por Siegbahn, con una resolución de 2 · 10–4. Se utilizaron diferentes
426
Técnicas de análisis y caracterización de materiales
radiaciones características de los rayos X como AlKα, MgKα, CuKα y CoKα. Sieghbahn probó que la espectroscopía de fotoelectrones se puede aplicar como un método general para el estudio de la estructura de la materia, así como, que permite la determinación de energías de ligadura de los electrones de una forma precisa. Estos estudios le supusieron a Kai Sieghbahn el premio Nobel en Física en 1981 por sus contribuciones en desarrollo de la espectroscopía de fotoelectrones. Durante los siguientes años y debido a la aparición de analizadores de electrones electrostáticos y magnéticos de alta resolución, capaces de resolver de forma adecuada las líneas de los espectros fotoeléctricos producidos por rayos X, se observó que en las líneas de los espectros de los electrones internos de los elementos se producía un cambio de energía dependiendo del estado de oxidación de los átomos. Otra contribución importante al desarrollo del XPS fue cuando, a principio de los setenta, se mejoraron y abarataron las técnicas de ultra alto vacío y la obtención de rayos X monocromáticos. El análisis más básico de espectroscopía de fotoelectrones de rayos X (XPS) de una superficie proporcionará la información cualitativa y cuantitativa en todos los elementos presentes (excepto H y He). Sin embargo, si se hace un estudio más profundo se obtiene una información muy rica y detallada sobre la química, la estructura electrónica, la organización, y la morfología de una superficie. Así, XPS se puede considerar una de las herramientas analíticas más potentes de las disponibles. La información que puede aportar la técnica de la superficie de las muestras se puede resumir: – La identificación de todos los elementos (excepto H y He) presentes en la muestra con concentraciones > 0,1% atómico. – Determinación semicuantitativa de la composición superficial elemental aproximada (error < ± 10%). – Información sobre el entorno molecular (estado de oxidación, átomos vecinos, etc.). – Información sobre las estructuras aromáticas o no saturadas, o especies paramagnéticas a partir del estudio de los picos satélites (shake-up). – Identificación de los grupos orgánicos que se usan reacciones de derivatización. – Análisis elemental no destructivo hasta profundidades de 10 nm de la muestra y estudio de heterogeneidad en la superficie mediante: (1) medidas XPS a diferentes ángulos y (2) estudio de fotoelectrones con diferentes profundidades del escape. – Análisis elemental destructivo hasta profundidades de cientos de nanómetros de la muestra usando erosión controlada con iones. – Variaciones laterales en la composición superficial (resoluciones espaciales hasta 5 µm para los instrumentos de laboratorio y resoluciones espaciales hasta 40 nanómetros para los instrumentos que emplean radiación sincrotrón). – Identificación de materiales mediante «Huella Dactilar» usando espectros de la banda de la valencia y de la identificación de los orbitales de enlace. – Estudios en superficies hidratadas (congeladas).
Espectroscopía de fotoelectrones de rayos X (XPS)
427
11.2. fUndaMenTOs de la Técnica 11.2.1. Principios teóricos Esta espectroscopía se basa, como todas las espectroscopías, en la interacción entre la materia y los fotones, en este caso, el principio físico aplicado es el efecto fotoeléctrico. hν
e-
Figura 11.1. Esquema del efecto fotoeléctrico.
Cuando un fotón interacciona con un átomo, pueden ocurrir tres fenómenos diferentes: (1) el fotón puede pasar sin ninguna interacción, (2) el fotón puede interaccionar con una pérdida de energía parcial (scattering), y (3) el fotón puede interaccionar con un electrón de un orbital atómico con una transferencia total de la energía del fotón al electrón, dando lugar a la emisión del fotoelectrón del átomo. En el primer caso, al no producirse ninguna interacción no es interesante para este estudio. La segunda posibilidad se conoce como efecto Compton y puede ser importante en procesos de elevada energía. El tercer proceso describe exactamente el proceso de la fotoemisión que es la base del XPS. La transferencia total de la energía del fotón al electrón es el elemento esencial de la fotoemisión. La fotoemisión se basa en la irradiación de una muestra con fotones con una energía superior a la de ligadura de los electrones de los átomos. Esto hace que los electrones salgan de la muestra con una energía cinética igual a la diferencia de la energía del fotón y la energía de ligadura (Figura 11.1). Suponiendo que los electrones no sufren ninguna colisión inelástica hasta que abandonan el sólido, se puede plantear un balance de energía: hγ = Ef – Ei, (Ef = energía del estado final, Ei = energía del estado inicial), una representación gráfica del balance de energía se esquematiza en la Figura 11.2. La energía que aporta el fotón se puede dividir en: la energía necesaria para arrancar un electrón desde su estado fundamental, energía de ligadura (EL, que es la energía de ionización del electrón en su nivel energético), la energía para pasar desde el estado de Fermi, por definición el estado de energía de ligadura igual a cero, al vacío (Φ), y la energía cinética que obtiene el electrón. Pero desde el punto de vista del espectrómetro, es decir, lo que se mide experimentalmente, sufre una ligera va-
Técnicas de análisis y caracterización de materiales
428
riación en la distribución de los valores de energía, de tal forma que el balance de energía se recoge en la ecuación [11.1]: Ecmed = hν - EL – Φespec Muestra
Ef
Ec
[11.1] Espectrómetro
Ecmed
Vacío Φ
Eν
Φespec
Nivel de Fermi El Ei
Figura 11.2. Esquema del balance de energía del proceso fotoeléctrico.
La energía cinética medida (Ecmed) con el analizador del espectrómetro es función de la energía del fotón, la energía de ligadura del electrón y de la función de trabajo del espectrómetro, este factor se puede aproximar a una constante en cada equipo y su valor debe ser comprobado periódicamente, porque depende de diferentes valores experimentales como vacío residual, eficacia de las lentes de electrones, etc. Según este balance de energía el espectro XPS sería muy sencillo, únicamente unas líneas espectrales, pero los espectros experimentales son más complicados. Para explicar la forma de un espectro XPS se va a partir de un caso ideal, con una serie de supuestos que progresivamente se irán eliminando dando lugar a un espectro aproximadamente real.
11.2.1.1. Espectro ideal Para describir un espectro ideal se van a tomar los siguientes supuestos: – – – – – – –
La temperatura es 0 K. No se aplica el principio de incertidumbre de Heisenberg. Los electrones no poseen espín. La interacción entre la radiación y la materia es igual en todos los casos. Todos electrones producidos abandonan la muestra. La fuente de rayos X, el analizador y el detector de electrones son ideales. La muestra presenta un único elemento y es conductora.
Estas suposiciones darán lugar a un espectro ideal en el que se puede apreciar la aparición de unas líneas espectrales de anchura cero que corresponden a la ioniza-
Espectroscopía de fotoelectrones de rayos X (XPS)
429
ción de los electrones presentes en diferentes niveles energéticos profundos del elemento estudiado y una banda ancha que se corresponde a la banda de valencia. Efecto de la temperatura y del instrumento Cuando la temperatura es diferente a 0 K, la distribución de los electrones en los niveles de energía de Fermi cambia siguiendo la ecuación [11.2]. Este efecto modifica ligeramente la forma del espectro, obteniéndose unas bandas estrechas en lugar de líneas de una única energía (Figura 11.3). 1
f =
E − E f kT
1 + e−
[11.2]
Los picos, además, se pueden ensanchar debido a efectos instrumentales debido a la no linealidad de la fuente, ya que no se emite una única radiación sino una banda, tampoco, se puede tomar que el analizador es ideal ya que puede provocar una pérdida de señal y un ensanchamiento de los picos. En general, se asume que la contribución instrumental a la anchura de los picos fotoeléctricos es una curva tipo gaussiana.
Intensidad (C. P. S.)
T0
Energía de ligadura (eV)
Figura 11.3. Ensanchamiento de los picos por el efecto de la temperatura y los efectos instrumentales.
11.2.1.3. Efecto del principio de incertidumbre Según el principio de incertidumbre de la mecánica cuántica, se puede determinar la energía de un evento con una precisión no superior a la que se expresa en la ecuación [11.3]. ∆E∆t
1%) porque este análisis no presenta una elevada sensibilidad a la cantidad de especies presentes. Una ampliación de la zona más intensa del níquel muestra que el nivel 2p presenta una división en la energía de ligadura de los electrones en 2p3/2 y 2p1/2. Por otra parte, se aprecia la aparición de picos que no corresponden a ningún nivel energético definido, y se representan con unos subíndices en forma de letras, son los llamados electrones Auger. Los electrones Auger se emiten debido a la relajación energética de los iones después la fotoemisión. Un esquema que corresponde a las transiciones que se representan en la Figura 11.9.
Técnicas de análisis y caracterización de materiales
434
Cuentas por segundo
2p3/2
Ni2p
300
2p1/2 200
O1s
100 C1s 0
Ni2p 200
400
Ni3s Ni3p
OLMM
OKLL 600
800
1000
1200
Figura 11.8. Espectro fotoeléctrico completo de una muestra de NiO.
L2,3 o 2p
A
L1 o 2s Fotón
Fotoelectrón
K o 1s Fotoemisión
B Electrón Auger L2,3 o 2p
A
L1 o 2s
K o 1s
Figura 11.9. Esquema de la emisión de fotoelectrones y electrones Auger.
Cuando se emite un fotoelectrón (esquema A, Figura 11.9), un electrón de un nivel energético superior cae a la vacante del orbital interno, provocando un exceso de energía que da lugar a la emisión de un segundo electrón o electrón Auger (esquema B, Figura 11.5). Las letras empleadas en los subíndices de los picos de los electrones Auger, corresponden al nivel energético de la vacante (en el ejemplo k), el del electrón que cae
Espectroscopía de fotoelectrones de rayos X (XPS)
435
(en el ejemplo L) y el del electrón emitido (en el ejemplo L). El electrón Auger posee una energía cinética igual a la diferencia entre la energía del ión inicial y el ión doblemente ionizado. La emisión de los electrones Auger ocurre en un tiempo aproximado de 10–14 segundos después del fenómeno fotoeléctrico. La emisión por fluorescencia competitiva de un fotón de rayos X es un efecto menor en el rango de energías que se opera en XPS, que ocurre menos del 1% de las veces. Sin embargo, este proceso es mucho más complejo, debido a que la relajación del átomo tras la emisión de un fotoelectrón se ve afectada por el entorno en el que se encuentre el átomo, lo que modifica la energía de los electrones emitidos en procesos secundarios. Los dos principales modos de relajación transferencia electrónica y polarización de los átomos vecinos se pueden observar en la Figura 11.10. Por esta razón, es necesario definir un nuevo parámetro que incluya este efecto de relajación del estado final. Para este fin, se define el parámetro de Auger como la suma de la energía cinética de los fotoelectrones y la energía cinética de los electrones Auger. De esta forma, se puede decir que la diferencia entre los parámetros Auger modificados en dos compuestos distintos será debida a las variaciones en la relajación del sistema en el estado final.
+
e-
+
+
+–
–+ –+
e-
e-
–
–
e-
–+ +
e-
Figura 11.10. Métodos de relajación del estado excitado.
11.2.2. desplazamiento químico Un cuidadoso análisis de los espectros fotoeléctricos de diferentes muestras indicó que hay una correlación entre la energía de ligadura y estado químico del elemento y de los compuestos en los que forme parte. Esto significa que de alguna forma se produce una transferencia de carga a través del enlace químico con el otro átomo, provocando una variación en los valores de energía cinética observados y que se llama desplazamiento químico. Este hecho, junto a la sensibilidad superficial, es la que ha provocado la gran expansión del XPS como herramienta analítica. La energía de ligadura (EL) de un fotoelectrón emitido es simplemente la diferencia entre la energía del átomo con (n–1) electrones (estado final) y con n electrones (estado inicial).
Técnicas de análisis y caracterización de materiales
436
EL = Ef(n−1) −Ei(n)
[11.5]
En donde, Ef(n−1) es la energía del estado final y Ei(n) es la energía del estado inicial. Si no se produce una reordenación de otros electrones en el átomo, la energía de ligadura será la energía del orbital que abandona el fotoelectrón con signo negativo –εk. Esta aproximación se deduce del teorema de Koopman y se puede expresar como: EL ≈ −εk
[11.6]
Los valores de εk se pueden calcular aplicando el método de Hartree–Fock. Sin embargo, los valores obtenidos tienen un error del orden de 10-30 ev respecto a los valores de energía de ligadura reales. Esta diferencia entre EL y –εk se debe a que el teorema de Koopman y el método de cálculo de Hartree–Fock no tienen en cuenta todas las contribuciones de la energía de ligadura. De especial importancia es la suposición que los otros electrones permanecen quietos durante el proceso de fotoemisión, siendo claramente incorrecta. Durante la emisión de un fotoelectrón, los demás electrones en la muestra responden ante la creación de un hueco reorganizando la nube electrónica para minimizar la energía del átomo ionizado. La reducción de energía debida a la reorganización de la nube electrónica se llama energía de relajación. La relajación se produce tanto por la acción de los electrones del átomo ionizado, el que tiene un hueco (relajación atómica), como en los electrones de los átomos que le rodean (relajación extra-atómica). Además del efecto de la relajación existen otros términos que no se han tenido en cuenta en los cálculos de la energía de ligadura con el esquema Koopman/Hartree-Fock, como son la correlación de electrones y los efectos relativistas. Por lo tanto, una descripción más completa de la EL se puede resumir en: EL = −εk − Er(k) − δεcorr – δεrel
[11.7]
En donde, Er(k) es la energía de relajación y δεcorr and δεrel son respectivamente el diferencial de energía de correlación y relativista. En general los términos de correlación y relativistas son pequeños y se puede despreciar sin incluir mucho error. En resumen, y tal como se describe en [11.5], tanto el estado inicial como el final contribuyen a la energía de ligadura de los fotoelectrones.
11.2.2.1. Efectos del estado inicial El estado inicial es el estado fundamental del átomo antes del proceso de fotoemisión. Si la energía del estado inicial del átomo se modifica, por ejemplo, por la formación de un enlace químico con otros átomos, entonces la EL de los electrones del átomo cambian. El cambio de la energía de ligadura, ΔEL, se llama desplazamiento químico. Como primera aproximación todos los niveles energéticos sufren el mismo desplazamiento químico. Así por ejemplo, el desplazamiento químico de un átomo de silicio unido a un cloro (Si-Cl) respecto al silicio (Si0) es similar para los niveles Si2s y Si2p.
Espectroscopía de fotoelectrones de rayos X (XPS)
437
En general, se asume que los efectos del estado inicial son los responsables del desplazamiento químico, y por lo tanto, al aumentar el estado de oxidación formal de un elemento aumenta la energía de ligadura de los fotoelectrones. Lo que implica que la energía de relajación es similar para los diferentes estados de oxidación. Esta aproximación de ΔEL, únicamente en función del estado inicial, es adecuada en muchos casos. Por ejemplo, la energía de ligadura de los electrones del orbital S1s aumenta en 8 eV al oxidarse el átomo de azufre de +2 (Na2S) a +6 (Na2SO4). La energía de ligadura del nivel C1s aumenta con el número de átomos electronegativos unidos al átomo de carbono (C–C < C–O < C=O < O–C=O < O–(C=O)O–). Esto ocurre porque el oxígeno es más electronegativo que el carbono, y por lo tanto le retira carga al carbono, y el carbono tendrá una carga más positiva, dando lugar a un incremento de la energía de ligadura. Sin embargo, hay que tener cuidado si solamente se tiene en cuenta los efectos del estado inicial al interpretar los desplazamientos químicos. Hay bastantes casos en que el estado final altera significativamente la relación entre estado de oxidación y ΔEL. También, se tiene que tener en cuenta el entorno químico y la densidad electrónica del elemento en ese entorno, puesto que afecta al desplazamiento químico. Otro efecto que puede modificar el ΔEL, es la naturaleza del enlace químico, puesto que el grado iónico/covalente del enlace afecta al desplazamiento químico. Por eso, la mejor correlación se obtiene al relacionar ΔEL y la carga del átomo, y no el estado de oxidación formal. Se han propuesto diferentes modelos para calcular o predecir los desplazamientos químicos, como por ejemplo, la formación de un enlace químico da lugar a la modificación de los potenciales atómicos, por lo que se puede aplicar un modelo muy simple que permite correlacionar los desplazamientos químicos (ΔEL) con los valores de la carga atómica (qm) y el radio atómico (rm): ΔEL ∝
qm
[11.8]
rm
Si el átomo m se encuentra enlazado con el átomo n a una distancia rmn, también contribuye al potencial del átomo M con el factor Σqn/rnm. En estado sólido este sumatorio es el potencial de Madelung del sitio M, con lo que el desplazamiento químico se puede expresar: ∆EL = km
qm rm
+
q
∑r
n
+B
[11.9]
mn
En donde, km y B son constantes que se pueden determinar experimentalmente. Esta relación linear, que se ha comprobado para la mayoría de los elementos, es lo que se conoce como la «regla de oro» de la espectroscopía de fotoelectrones. Sin embargo, existe una dificultad de establecer todos los parámetros de esta fórmula, debido a posibles cambios de coordinación, posibles deformaciones de las estructuras cristalinas, la presencia de especies amorfas, y tamaño de partícula muy pequeño que no le confiere las características aplicables en las ecuaciones de estado sólido.
438
Técnicas de análisis y caracterización de materiales
Todas estas razones obligan a la utilización de sistemas de tablas de compuestos y energías de ligadura para establecer algún tipo de correlación entre valores conocidos y las especies presentes en nuestro sistema. Otro hecho que se observa es el ligero aumento en la energía de ligadura de los electrones en estructuras muy ordenadas frente al mismo tipo de compuesto en estructuras muy desordenadas, debido a que el término del potencial de Madelung es capaz de estabilizar mejor los electrones en estructuras muy ordenadas frente a sistemas desordenados. Aplicando el concepto de desplazamiento químico y que las energías de ligadura son características de los niveles energéticos de átomos específicos, se puede llevar a cabo un análisis cualitativo de la muestra a estudiar. En dicho análisis se estudiarían los elementos presentes, su estado de oxidación, compuestos en los que participa, incluso se podría detectar cambios de la coordinación del átomo. Como se puede apreciar en estas ecuaciones todos estos efectos dependen inversamente de la distancia entre electrón a emitir y el núcleo, esto implica que el desplazamiento químico será mayor para los electrones internos (r menor) que para los niveles energéticos de valencia (r mayor). Los cambios en la energía de ligadura disminuyen según se desciende en la tabla periódica debido al aumento del radio atómico, y puede aumentar a lo ancho de las diferentes series de la tabla periódica porque en principio el radio atómico disminuye.
11.2.2.2. Efectos del estado final Los efectos del estado final tienen relación con la energía de ligadura [11.5]. Los procesos de relajación que ocurren durante la fotoemisión tienden a disminuir el valor de EL. Si la energía de relajación varia significativamente cuando cambia el entorno químico de los átomos, se pueden obtener variaciones en el orden de EL para los diferentes estados de oxidación. Así, por ejemplo, para el nivel Co2p3/2 el orden de energía de ligadura es: Co0 (777,2 ev) < Co+3 (779,6 ev) < Co2+ (780,5 ev), en el que se ve que el Co3+ tiene una energía de ligadura menor que el Co2+. También, en el cobre no se puede distinguir entre Cu0 y Cu+1 que tiene ΔEL = 0. Está claro que los efectos del estado final tienen un gran efecto en los valores de la energía de ligadura, y por lo tanto, se obtienen valores de desplazamiento químico diferentes de los esperados teniendo en cuenta el estado de oxidación formal (estado inicial). Las contribuciones de la energía de relajación provienen del átomo que emite el fotoelectrón (relajación atómica) y de los átomos vecinos (relajación extra-atómica). La mayor parte de la relajación atómica proviene de la reestructuración de los electrones de las capas externas, los que tienen una EL menor que el fotoelectrón emitido. En contraste, los electrones de las capas internas (EL mayor que el electrón emitido) solo hacen una contribución muy pequeña y que se puede despreciar. La relajación extra-atómica se produce en función del material examinado. En muestras conductoras de la electricidad, por ejemplo metales, los electrones de la banda de valencia se pueden mover de un átomo a otro hasta rellenar el hueco. Sin embargo, en los sólidos iónicos los electrones no se pueden mover libremente de un átomo al vecino. Por esta razón, los electrones en estos materiales se polarizan en presencia de un hueco electrónico. La reducción de la EL por relajación extra-atómica es mucho menor en sólidos iónicos que en muestras metálicas.
Espectroscopía de fotoelectrones de rayos X (XPS)
439
También existen otros tipos de efectos de estado final, como son las divisiones de multiplete y los picos satélite de restructuración, que pueden contribuir a la modificación de la energía de ligadura. Las divisiones de multiplete se deben a la interacción entre el hueco producido y los electrones desapareados de los orbitales externos. Los picos satélite de restructuración se producen cuando un fotoelectrón pierde parte de su energía cinética en excitar un electrón de valencia hasta un orbital desocupado (por ejemplo una transición π → π*).
11.2.3. análisis cuantitativo Como se ha descrito anteriormente, el espectro completo de XPS de un material contiene los picos que se pueden asociar a los varios elementos (excepto H y He) presentes en los 10 nm más externos. El área bajo estos picos se puede relacionar con la cantidad de cada elemento presente. Así pues, midiendo las áreas y corrigiéndolas con los factores instrumentales apropiados, se puede determinar la cantidad de cada elemento detectado. La ecuación que relaciona la intensidad y la cantidad de elementos es: I ij = KT (KE) Lij ( γ ) σ ij
∫ ni ( z ) e
–
z λ ( Ke )
cos θ dz
[11.10]
donde Iij es el área del pico j del elemento i, K es una constante del equipo, T (KE) es la función de transmisión del analizador, Lij(γ) es el factor de asimetría angular del orbital j del elemento i, σij es la sección eficaz del pico j del elemento i, ni(z) es la concentración del elemento a la distancia z de la superficie, λ(KE) es el camino libre medio inelástico del electrón, θ es el ángulo de salida de los fotoelectrones medido desde la normal de la superficie. Sin embargo, no es necesario calcular todos los paramentos de la ecuación [11.10], porque en general no se determinan las concentraciones individuales, sino las relaciones atómicas o porcentajes de cada elemento. Por esa razón, una gran parte de los parámetros se simplifican o solo es necesario calcular los valores relativos y no los valores absolutos. La constante instrumental, K, incluye el efecto del flujo de rayos X, el área de muestra irradiada y el ángulo sólido de los fotoelectrones que entran en el analizador. Se considera que estos parámetros no varían durante la adquisición de un espectro XPS, y por lo tanto K se puede considerar constante durante el experimento, por consiguiente, K se anula en los cálculos necesarios para determinar relaciones atómicas o porcentajes. El factor de asimetría angular del orbital Lij(γ) depende del tipo orbital del que se excita el electrón. Así, si todos los orbitales empleados para el cálculo cuantitativo son del mismo tipo se anulan los valores Lij(γ) al calcular las concentraciones relativas. Esta situación puede ser habitual en algunos tipos de análisis, pero en general la variación del parámetro Lij(γ) varía muy poco de un orbital a otro y esa variación es muy pequeña en muestras sólidas, por lo que se suele considerar constante. Aunque se pueden realizar los cálculos cuantitativos con picos de diferente tipo de orbital, se recomienda en la medida de lo posible usar picos del
Técnicas de análisis y caracterización de materiales
440
mismo tipo de orbital para los cálculos cuantitativos. El termino cosθ es constante durante un experimento ya que depende del ángulo entre la superficie y la entrada de los electrones en las lentes. La función de transmisión del analizador incluye la eficiencia de las lentes colectoras, del analizador de energía y del detector. La mayor parte de los instrumentos XPS pueden operar en modo de paso de energía constante, es decir, que independientemente de la energía cinética a analizar el intervalo de energía a analizar es constante en el analizador. Esto ocurre porque las lentes reducen la energía cinética de los electrones para que a la entrada del analizador tenga siempre el mismo valor. Esta función de transmisión es constante para cada instrumento y los fabricantes de los instrumentos dan este valor para sus instrumentos. La sección eficaz de ionización σij es la probabilidad que la radiación X puede generar un fotoelectrón del orbital j del elemento i. Los valores de σij se pueden calcular o bien se encuentran tabulados a partir de datos experimentales. El camino libre medio inelástico del electrón λ(KE) depende del tipo de material, y de la energía cinética del fotoelectrón. Estos dos parámetros son muy importantes y se deben tener buenos valores para poder obtener datos cuantitativos de XPS. Basado en lo descrito en los párrafos anteriores, en la ecuación [11.10], el único término desconocido es la concentración del elemento i, ni, puesto que todos los demás términos se pueden determinar experimentalmente o calcularse. Por lo tanto, se puede determinar la concentración del elemento i resolviendo la ecuación [11.10]. Además, se suele eliminar la integral considerando que la concentración del elemento es homogénea en toda la profundidad de análisis de XPS, y por lo tanto la ecuación queda reducida a: I ij = KT (KE) Lij ( γ ) σ ij ni λ (KE) cos θ
[11.11]
Si se despeja la concentración del elemento ni, y se eliminan las constantes se puede obtener la relación atómica entre dos elementos A y B: nA nB
=
I A σB λB IB σA λ A
[11.12]
donde I es la intensidad del pico o su área experimental, σ es el factor de sensibilidad elemental modulado por la función de transmisión (T) del espectrómetro utilizado para medir el espectro, y λ es el camino medio libre del fotoelectrón. Cabe destacar que la precisión de los cálculos cuantitativos que proporciona la ecuación [11.12] es del orden de décimas por ciento.
11.2.4. sensibilidad superficial A pesar que los rayos X blandos utilizados en XPS pueden penetrar unos pocos micrómetros en una muestra sólida, los fotoelectrones que se emiten provienen solamente de las capas más externas del sólido. Este hecho se debe a que los fotoelectrones producidos de las capas más externas sufren colisiones inelásticas, que provocan una
Espectroscopía de fotoelectrones de rayos X (XPS)
441
pérdida de energía suficiente para que no puedan abandonar la superficie de la muestra. Los fotoelectrones estudiados en la espectroscopía de fotoelectrones poseen una energía cinética entre 0 y 1300 ev, si se aplica la curva universal del camino libre medio de los electrones (que prácticamente no depende del material que se estudia) (Figura 11.11) indica que en un material sólido un electrón puede moverse solamente entre 0.4 y 4 nm antes de sufrir alguna colisión inelástica con los átomos del sólido.
Profundidad de escape (nm)
10 Al Au
Au
Ag Au 1.0
W
Si Ag Se Sr Hg
0.1
1
10
Al2O3
C
Ag
Mo
W Au
Ni
Be
Al2O3
Cu
W
Ag Hg Mo Cu
GeO2
100
1000
Energía cinética del electrón (eV)
Figura 11.11. Profundidad experimental de escape de los electrones en función de su energía cinética.
La dependencia entre el camino medio libre y la energía cinética se puede expresar en la ley empírica [11.13]. 1
a) compuestos metálicos λ m = 538 Ec–2 + 0 , 41( aEc ) 2
[11.13] 1
b) compuestos no metálicos λ m = 2170 Ec–2 + 0 , 71( aEc ) 2 donde λm es el recorrido libre medio en número de monocapas del sólido y a es el espesor de la monocapa atómica M ×1024 a = ρnN
1
2 (cm)
[11.14]
M es el peso atómico o molecular, ρ densidad (Kg m–3), n es el número de átomos por molécula y N el número de Avogadro. Con lo que se puede concluir que los electrones detectados en los picos fotoeléctricos provienen desde una profundidad media de unos pocos nanómetros que pertenecen a las capas más superficiales del sólido, lo
Técnicas de análisis y caracterización de materiales
442
que implica que el análisis por XPS es esencialmente sensible a la superficie. Esta propiedad es muy útil en estudios de superficies, pero como contrapartida este método es muy sensible a la contaminación superficial. Otro hecho derivado de la pérdida de energía cinética de los electrones por choques inelásticos, es la necesidad de realizar las medidas de XPS en cámaras con un vacío residual muy bajo (UHv, Ultra Alto vacío). Esto se debe a que las colisiones con las moléculas de gas presente en la cámara de análisis producirían una pérdida de energía cinética por colisiones inelásticas. Según la teoría cinética de los gases el número de colisiones por unidad de superficie y de tiempo es: N =
2.64 ×1020 × P MT
(moléculas ⋅ m–2 ⋅ s –2 )
[11.15]
donde P es la presión total en Pa, M es el peso molecular y T es la temperatura en Kelvin. A partir de esta ecuación se puede deducir el orden de magnitud de la presión en el interior de la cámara de análisis para recoger un espectro fotoeléctrico que dura aproximadamente unos 30 minutos. Para ello, se va a calcular el tiempo medio para que toda la superficie de un sólido reciba colisiones de moléculas de gas. Suponiendo que la densidad superficial de un sólido es alrededor de 1019 átomos m–2 y aplicando [11.15], se puede calcular el tiempo medio a varias presiones para el nitrógeno a temperatura ambiente, Tabla 11.2. Tabla 11.2. TieMPO MediO de recUbriMienTO de la sUPerficie a diferenTe Presión Presión (Pa)
N (moléculas m–2 s–1)
tm (s)
10–4
1018
1
10
–6
1016
102
10–8
1014
104
10
1012
106
–10
De la Tabla 11.2 se deduce que para obtener la superficie libre de contaminantes y que la medida de la energía cinética de los electrones sea válida se debe operar con una presión en el interior de la cámara de análisis menor de 10–7 Pa.
11.2.5. acrónimos de procesos fotoeléctricos Las técnicas espectroscópicas de procesos fotoeléctricos pueden recibir diferentes nombres según la radiación que se emplee. UPS (Ultraviolet Photoelectron Spectroscopy, espectroscopía de fotoelectrones de radiación ultravioleta) utiliza fotones con una energía de hasta 50 ev; con esta radiación se pueden estudiar las capas electrónicas externas de los átomos, por lo que se lleva a cabo un estudio de las bandas de valencia estructurales o las densidades de estado de los materiales. SXPS (Soft X-ray Photoelec-
Espectroscopía de fotoelectrones de rayos X (XPS)
443
tron Spectroscopy, espectroscopía de fotoelectrones de rayos X blandos) utiliza la radiación con un rango de energía entre 50 y 150 ev; se emplea en instalaciones sincrotrón, en las que se dispone de una elevada densidad de fotones y una elevadísima focalización y polarización. Por último, la radiación más utilizada son los rayos X y se llama XPS (X-ray Photoelectron Spectroscopy, espectroscopía de fotoelectrones de rayos X), aunque en algunas publicaciones también se llama ESCA (Electron Spectroscopy for Chemical Analysis, espectroscopía de electrones para análisis químico); este acrónimo hace referencia a que el estudio de los fotoelectrones de niveles energéticos internos permite el estudio de compuestos y de los efectos del desplazamiento químico.
11.3. insTrUMenTación En esta sección se van a mostrar los elementos básicos necesarios para realizar medidas de espectros de XPS. Lo más habitual es la compra de un equipo comercial, aunque se puede montar un sistema de análisis, debido a la naturaleza modular de sus componentes, existen equipos que permiten análisis con diferentes técnica acopladas. Un sistema típico se puede apreciar en la Figura 11.12, en el que se pueden distinguir como partes más importantes: cámara de análisis y sistema de vacío, fuentes de rayos X, sistema de análisis de electrones y accesorios.
1 11 2
12
3 4 10 9 5 6
8
7
Figura 11.12. Principales componentes de un espectrómetro fotoeléctrico típico: 1. Analizador de electrones; 2. Lentes; 3. Espectrómetro de masas; 4. Fuente de rayos X; 5. Manipulador de muestras; 6. Cámara de análisis; 7. Sistema de vacío; 8. Entrada a la cámara de pretratamiento; 9. Cámara de pretratamiento; 10. ventana; 11. Cañón de electrones; 12. Evaporador de metales.
444
Técnicas de análisis y caracterización de materiales
11.3.1. cámara de análisis y sistema de vacío Tal como se indicó anteriormente, las medidas de XPS se deben realizar en condiciones de ultra alto vacío. Por esta razón, la cámara de análisis se trata de una esfera de metal capaz de operar en condiciones de ultra alto vacío (UHv, Ultra High vacuum), sobre la que se van adicionando los demás componentes. A la cámara se acopla un sistema de bombeo capaz de producir ultra alto vacío, en general mediante bombas del tipo turbomolecular, iónica, sublimación o criogénica. La medida y el control del vacío se realizan mediante medidores de amplio intervalo de utilización como del tipo Pirani. Usualmente los espectrómetros llevan una segunda cámara acoplada a la de análisis; de esta forma permite la realización de tratamientos de las muestras y a continuación realizar un análisis de XPS de las muestras sin tener contacto con el exterior. Esta cámara llevará todos los sistemas necesarios para la realización de los tratamientos como: su propio sistema de vacío, controladores de temperatura, entrada y salida de gases, etc. A continuación, se describen básicamente los diferentes tipos de sistemas de bombeo que se representan esquemáticamente en la Figura 11.13. – Rotatoria: consiste en una serie de aspas que van girando y producen un arrastre del gas; estas bombas presentan una elevada capacidad de bombeo. – Adsorción: el bombeo lo produce la adsorción del gas en un tamiz molecular de elevada área superficial sumergido en nitrógeno líquido. – Turbomolecular: el funcionamiento es muy similar a la bomba rotatoria, pero la velocidad de giro es mucho más elevada (>11.000 rpm); también presentan una elevada capacidad de bombeo. – Difusora: se calienta un líquido que se evapora y el vapor producido se hace pasar por un estrechamiento que provoca una succión del gas y el líquido se reutiliza condensándolo. El principio físico es muy similar al de una trompa de vacío. – Iónica: unas placas de alto voltaje ionizan al gas y un campo magnético desvía las partículas ionizadas produciendo el arrastre del gas. – Criogénica: las moléculas de gas se condensan en una pared muy fría; en general se utiliza helio líquido (4 K). – Sublimación: mediante una corriente eléctrica se calienta un filamento de metal (titanio) que se vaporiza; este metal se condensa en una placa adsorbiendo gas presente en la cámara. Los intervalos de presión de trabajo de estas bombas se recopilan en la Tabla 11.3. Se puede observar que, según el tipo de bomba, se puede operar en un intervalo diferente de presiones, siendo necesario en todos los casos operar con varias bombas en cascada para obtener UHv. Aunque se indica que la bomba difusora y la turbomolecular pueden operar desde presión atmosférica, nunca trabajan en esas condiciones en la práctica, ya que la presión final sería muy elevada. Para la elección del sistema de bombeo se aplican dos criterios, las necesidades de bombeo y el vacío residual necesario. Así, en una cámara de análisis, en la que la necesidad de bombeo no es muy grande, se puede instalar un sistema compuesto por
Espectroscopía de fotoelectrones de rayos X (XPS) Bomba criogénica
445
Bomba difusora UHV
Refrigerante
Bomba iónica Cámara UHV Elementos magnéticos
He líquido
Cámara UHV
Aceite
Calefactor
Refrigerante externo
Placas de alto voltaje
Bomba de sublimación
Bomba de adsorción
Bomba turbomolecular Vacío
Cámara UHV
Tamiz molecular
Capa activa de Ti Filamento Ti
N2 líquido
Fuente eléctrica
Vacío
Bomba rotatoria
Figura 11.13. Esquema de diferentes sistemas de vacío. Tabla 11.3. inTervalOs de OPeración de bOMbas de vacíO bomba Rotatoria Adsorción Turbomolecular Difusora Iónica Criogénica Sublimación
Presión de Trabajo (mbar, 1 mbar = 100 Pa) 1.000 – 10–3 1.000 – 10–5 (1.000) – UHv (1.000) – UHv 10–5 – UHv 10–5 – UHv 10–7 – UHv
Técnicas de análisis y caracterización de materiales
446
una bomba de adsorción y una bomba criogénica; en cambio, para la cámara de tratamiento donde se desgasifican muestras, es necesario tener instalada una elevada capacidad de bombeo, por lo que se suele recurrir a una bomba rotatoria y una bomba turbomolecular. Otra consideración importante, cuando se opera en condiciones de UHv, son las uniones entre los elementos que componen un equipo. La forma de obtener un vacío residual muy bajo es con uniones del tipo soldadura para UHv, solo se puede aplicar a uniones que nunca se desmonten. Para uniones que se monten y desmonten, por mantenimiento de los equipos, se deben utilizar juntas metálicas de aluminio o cobre que presentan elevada estanqueidad. Nunca se deben utilizar juntas de elastómeros puesto que son permeables en condiciones de UHv.
11.3.2. fuente de rayos X Las fuentes de rayos X para producir el efecto fotoeléctrico deben ser lo más monocromáticas posible, presentar un elevado flujo de radiación que alcance la muestra y, por supuesto, que el flujo sea constante con el tiempo. Los principios básicos de funcionamiento se recogen en el capítulo dedicado a la difracción de rayos X. Las fuentes de rayos X más empleadas son las que utilizan ánodos de aluminio o magnesio, que ofrecen una radiación MgKα (1.253,6 eV) o AlKα (1.486,3 eV). Estas radiaciones poseen una energía suficiente para producir la fotoionización de al menos un electrón de niveles internos de cualquier elemento. Aunque esta radiación, de forma natural, es bastante monocromática, permitiría la medida de espectros XPS, pero se puede apreciar la aparición de picos satélites (Figura 11.14). Por esta razón, cuando se requiere una medida muy precisa se utiliza un cristal monocromador, que permite la eliminación de las líneas satélite asociadas a la principal. En contrapartida, se aumentan los límites de detección por la disminución de la energía que recibe la muestra.
Cuentas por segundo
SiO2
O1s
300
OKLL
200
O1s (MGKα3,4)
100
0
Si2s Si2p
200
400
600
800
1000
1200
Figura 11.14. Espectro fotoeléctrico completo de una muestra de SiO2 con radiación MgKα no monocromática.
Espectroscopía de fotoelectrones de rayos X (XPS)
447
11.3.3. óptica y analizador de energía La energía cinética de los electrones se determina experimentalmente por la desviación que sufre la trayectoria de los electrones cuando se someten a campos electrostáticos o magnéticos, lo que permite que lleguen al detector en un determinado momento los de una energía cinética. El sistema que provoca esta selección se conoce como analizador de electrones. Un analizador debe cumplir una serie de características: – Debe transmitir todos los electrones que llegan desde la muestra al detector, es decir, que posean una elevada función de transmisión. – La función de transmisión tiene que ser igual para cualquier energía cinética. – La resolución debe ser independiente del paso de energía. – Opcionalmente, sería interesante poder focalizar la zona de recolección de electrones, para poder realizar análisis de zonas pequeñas (small spot). Los analizadores pueden operar de dos modos diferentes, por reflexión o por desvío. En el modo de desvío, los electrones se mueven a lo largo de líneas equipotenciales, mientras que en el modo de reflexión, atraviesan las líneas equipotenciales. Los analizadores más comunes son: a) rejilla de campo constante (RFA), b) espejo cilíndrico de doble paso (CMA) y c) analizador semiesférico concéntrico (CHA). Un esquema de los mismos se puede apreciar en la Figura 11.15. Colector
Cilindro exterior
Muestra
CHA
Semiesfera exterior
Semiesfera interior
Campo electrostático de retardo Ángulo de entrada al analizador
Lentes
Electrones
Cilindro interior
Detector
Ele
CMA
RPA
es
on ctr
Detector
Electrones
Muestra
Muestra
Figura 11.15. Esquema del funcionamiento de los analizadores de electrones más comunes.
Técnicas de análisis y caracterización de materiales
448
El sistema tipo RFA es el más antiguo y permite solamente análisis cuantitativos simples con baja resolución, y además necesita un periodo largo para la realización de los análisis. Se basa en que se modifica un campo electromagnético, de tal forma que solamente llegan al colector los electrones que posean una energía cinética mayor que la mínima necesaria para atravesar el citado campo. De esta forma se obtiene una curva integral de los electrones frente a la energía cinética, cuya derivada da lugar al espectro. El CMA se basa en la aplicación de un campo electromagnético que provoca una curvatura de la trayectoria de los electrones. Solo los electrones que poseen una determinada energía cinética alcanzarán el detector y los demás se desactivan con las paredes. Aplicando campos electromagnéticos variables se puede hacer un barrido de energía cinética. Este sistema posee un elevado poder de resolución combinado con una eficacia de registro, pequeño tamaño y rápida recolección de datos. En el CHA, el sistema que en la actualidad se instala en todos los sistemas XPS, los electrones que salen de la muestra entran en un sistema de lentes que los focalizan en la entrada del analizador. Gracias a este sistema de lentes, se permite el análisis de zonas pequeñas. A estos electrones se les hace seguir una trayectoria curvada mediante campos electromagnéticos. De esta forma solamente a los electrones de una determinada energía cinética alcanzan el detector. La combinación de lentes y sistema semiesférico permite obtener unos espectros con una elevada resolución y un paso de energía elevado.
11.3.4. detectores Los detectores deben medir la cantidad de electrones que llegan en un determinado momento; este hecho da lugar a una corriente que se mide con un amperímetro. Sin embargo, el flujo de corriente en las medidas XPS es muy bajo, por lo que se debe utilizar una serie de sistemas para aumentar la corriente, llamado sistema de ganancia. La combinación detector-ganancia nos debe permitir operar sin llegar a la saturación de la señal, y asimismo es recomendable que presenten una elevada linealidad entre señal y respuesta. Los detectores más empleados se basan en multiplicadores de electrones, que utilizan sustancias con un elevado coeficiente de emisión de electrones secundarios, es decir, emiten más electrones de los que reciben. En XPS se utiliza un sistema de multiplicador de electrones conocido por channeltron; su esquema se recoge en la Figura 11.16. Este multiplicador de electrones tiene forma de cuerno y
A
Figura 11.16. Esquema de un channeltron.
Espectroscopía de fotoelectrones de rayos X (XPS)
449
ocupa muy poco espacio. El material de elevado coeficiente de emisión de electrones secundarios se encuentra en el interior del cuerno; este tipo de detectores presenta una elevada ganancia del orden 105.
11.3.5. accesorios Se pueden instalar una serie de accesorios a la cámara de ultra alto vacío como: – Manipulador XYZ de precisión que permite modificar el ángulo y posición expuesta al haz de rayos X. – Controlador de temperatura de la muestra que permita calentar o enfriar la misma. – Cañón de iones para limpieza de la superficie o un análisis en profundidad como se mostrará en apartados posteriores. – Espectrómetro de masas cuadrupolar, para el análisis de la fase gas desprendida de la muestra o las sustancias desprendidas de las muestras durante el bombardeo iónico. – Para evitar el efecto de carga de las muestras aislantes se puede disponer de un cañón de compensación de carga. – Asimismo, el espectrómetro XPS se puede utilizar como un sistema multitécnica, por adición de diferentes accesorios que le convierten en espectrómetro de electrones Auger (AES), EELS (Energy Electron Loss Spectroscopy, espectroscopía de pérdida de energía de electrones)...
11.4. PreParación de MUesTras Para la mayoría de las aplicaciones la preparación y el montaje de la muestra no son críticos. La muestra simplemente se coloca en el portamuestras, se compacta mecánicamente y se lleva a la cámara de análisis. Sin embargo, otras posibilidades se pueden aplicar cuando se desea estudiar algunos casos especiales, como: estudio de una superficie muy limpia, modificaciones de la muestra con diferentes tratamientos y estudios en profundidad. Esta técnica por su carácter superficial está indicada para el análisis de muestras sólidas; sin embargo, de forma excepcional se puede utilizar con muestras líquidas o incluso gaseosas. Las muestras líquidas se enfrían para evitar su vaporización en el interior de la cámara de análisis, y las muestras gaseosas se adsorben sobre materiales inertes de muy elevada área superficial (generalmente carbón activo) y se enfrían a muy baja temperatura.
11.4.1. Métodos de preparación 11.4.1.1. Eliminación de compuestos volátiles Generalmente, cualquier material volátil adsorbido en la superficie se debe eliminar de la muestra antes del análisis; esta eliminación se realiza sometiendo la muestra a vacío durante un largo periodo en un sistema de vacío separado de la cámara de
450
Técnicas de análisis y caracterización de materiales
análisis hasta obtener un buen vacío residual. Sin embargo, en algunas muestras puede ser interesante el estudio de las especies adsorbidas, para ello se enfría la muestra antes de introducirla en la cámara de análisis y así evitar la eliminación de la capa de compuestos volátiles de interés.
11.4.1.2. Eliminación de compuestos orgánicos no volátiles Cuando la naturaleza de un contaminante orgánico no volátil no es de interés o cuando oscurece la capa inorgánica, se deben eliminar estos compuestos. El método más tradicional es la utilización de extracción con disolventes que a continuación se puedan eliminar fácilmente por un tratamiento a vacío (apartado anterior). En general, los disolventes preferidos son el hexano u otros hidrocarburos ligeros, debido a que estos disolventes probablemente no modificaran la superficie del sólido a estudiar. La extracción se debe llevar a cabo en una atmósfera de nitrógeno o argón si la muestra es sensible al oxígeno. El sistema de lavado más utilizado es un Soxhlett, en el que el disolvente recién destilado lava la muestra minimizando la contaminación de compuestos de alto punto de ebullición que pueda extraer el disolvente.
11.4.1.3. Limpieza superficial con iones Cuando se desea realizar una limpieza profunda de la superficie se utilizan cañones de iones. Para la eliminación de compuestos orgánicos u otros contaminantes se utilizan iones de oxígeno; sin embargo, hay que hacer notar que de esta forma se modifica la naturaleza de la superficie a analizar. Otra técnica utilizada es el bombardeo con iones de argón, que permite eliminar capas superficiales y poder analizar el contenido de la muestra a diferentes profundidades, no solo en las primeras capas.
11.4.1.4. Tratamientos mecánicos Las muestras se pueden someter a diferentes técnicas de tratamiento mecánico, como la abrasión o la fragmentación. Hay que tener en cuenta que estos tratamientos mecánicos producen calentamientos locales importantes, por lo que se deben realizar en condiciones controladas, mejor si se realiza en el interior de la precámara del espectrómetro, en especial para preservar las nuevas superficies expuestas. También se debe evitar la contaminación de las muestras con los instrumentos empleados, por ejemplo utilizar papel de lija de carburo de silicio para los tratamientos de abrasión. Muchas muestras pueden montarse directamente sobre el portamuestras por ser piezas rígidas; sin embargo, muchas muestras deben molturarse hasta obtener un polvo que se lleva al portamuestras. Durante la molienda hay que ser muy cuidadoso porque, de nuevo, localmente se pueden producir altas temperaturas que modifiquen la naturaleza de la superficie. Las muestras en polvo se montan en el portamuestras y se comprimen ligeramente para que no se vuelen durante el paso a la cámara de análisis, ya que esta se encuentra a ultra alto vacío, o bien en los tratamientos a los que se quiera someter.
Espectroscopía de fotoelectrones de rayos X (XPS)
451
11.4.2. adquisición del espectro En una investigación típica de XPS, la composición de la superficie no se conoce, por lo que en un primer paso se debe realizar un espectro de un amplio rango de energía (espectro de baja resolución) con el fin de identificar los elementos presentes en la superficie. Una vez se han determinado los elementos presentes (o bien se conocen previamente), se procede al análisis de espectros en unos rangos de energía mucho más estrechos, en la zona donde deben aparecer los picos de los elementos detectados. Este análisis de alta resolución permitirá un conocimiento mucho más exacto de las características químicas de la superficie.
11.4.2.1. Espectro de baja resolución Se recoge un espectro con un intervalo de energía de ligadura entre 0 y 1300 ev. De esta forma se pueden detectar prácticamente todos los elementos detectables (Z ≥ 3); solamente zinc (Zn), magnesio (Mg) y sodio (Na) en algunos compuestos pueden presentar sus líneas más intensas fuera de esta zona. Si se sospecha de la presencia de algún elemento en baja concentración, se puede ampliar la zona de energías de ligadura que aparece en las tablas. Durante la adquisición de datos de los espectros de inspección, se suele operar con un paso de energía de 100 ev y la apertura del analizador estándar. Con estos parámetros se obtiene una resolución adecuada (2 eV) para la identificación de elementos, se minimiza el tiempo de adquisición de datos y se maximiza la detección de los diferentes elementos.
11.4.2.2. Espectros de alta resolución Para la determinación del estado químico, análisis cuantitativo y determinación de componentes minoritarios y obtención de datos para la posterior manipulación matemática, se deben realizar análisis de alta resolución. Para este tipo de análisis se deben tener en cuenta los siguientes pasos: – Se realiza el estudio de unas regiones del espectro bastante estrechas, 10-20 ev (resolución 0,1–0,2 ev), la elección de la amplitud de la región depende de lo anchos que sean los picos a estudiar y que se permita trazar adecuadamente la línea base. – Los picos de las especies sensibles al tiempo de exposición a la radiación se recogerán en primer lugar. Si no hay ninguna especie sensible el orden es indiferente. – Si se utiliza el pico C1s como referencia interna, es preferible que se mida al principio y al final del análisis o en todo caso lo más cerca posible de la región de mayor interés. Esto es debido a que el efecto de carga de las muestras aislantes puede cambiar con el tiempo. – No existe una regla general de la duración del análisis, pero hay que tener en cuenta que muchos estados de oxidación de los elementos pueden verse afectados por permanecer mucho tiempo bajo radiación.
452
Técnicas de análisis y caracterización de materiales
11.5. TraTaMienTO de lOs esPecTrOs En los espectros XPS se suele representar la energía de ligadura frente a los electrones recibidos por segundo. La medida que se realiza en el espectrómetro es de energía cinética, por lo que se debe aplicar el balance de energía del efecto fotoeléctrico [11.1]. Por esta razón se suele representar la energía de ligadura en escala descendente (creciente energía cinética). Cuando se utilizan muestras aislantes se suele utilizar un patrón interno de energía de ligadura conocida que permite el cálculo de los parámetros C y Φespec de la ecuación [11.4] y así poder calcular la energía de ligadura de los demás elementos.
11.5.1. interpretación de espectros Un espectro XPS se puede considerar como la superposición de un fondo continuo (background) o línea base y una serie de picos fotoeléctricos. El fondo corresponde a la contribución de los electrones que han perdido energía en choques inelásticos. Esta línea de fondo se debe eliminar previamente a cualquier cálculo que se quiera utilizar sobre los picos. El método del cálculo de la línea base más ampliamente aceptado es el tipo «Shirley»: se basa en que para una energía de ligadura, el valor del fondo es proporcional al área bajo la curva del espectro, siendo más intensa a valores de energía de ligadura mayores. En un espectro XPS se pueden encontrar diferentes tipos de picos, algunos son básicos de la técnica o del espectrómetro y otros dependen de la muestra y el estado de la muestra que lo compone.
11.5.1.1. Picos fotoeléctricos Los picos debidos al efecto fotoeléctrico son los más intensos, simétricos y estrechos que se aprecian en un espectro XPS completo. Aunque los picos de metales pueden presentar una asimetría considerable debido al acoplamiento de los electrones de la banda de conducción. La anchura de los picos depende de varios factores como: la anchura natural, la anchura de la radiación X empleada y factores de construcción del espectrómetro. Así en general, los picos menos intensos a valores altos de energía de ligadura son más anchos (1-4 ev) que los picos a menores energías de ligadura. Todos los picos de las muestras aislantes son más anchos que los sólidos conductores, aproximadamente 0,5 ev. Los valores aproximados de energía de ligadura de los picos fotoeléctricos detectables de diferentes compuestos se encuentran en general en tablas, o en bases de datos electrónicas.
11.5.1.2. Picos Auger Los picos Auger —más bien se deben llamar grupos de picos— presentan un perfil muy complejo. Los grupos más importantes observados en XPS son cuatro: KLL, LMM, MNN y NOO, hay que recordar que la serie de letras que los identifican especifican el nivel energético de las vacantes inicial y final de la transición Auger (Figura 11.9). A pesar de que los picos Auger son independientes de la radia-
Espectroscopía de fotoelectrones de rayos X (XPS)
453
ción ionizante, cuando se representan en escala de energía de ligadura y se utiliza diferente radiación (diferente fuente de rayos X) aparecen en diferentes posiciones. Las posiciones de los grupos de picos Auger más importantes se encuentran recogidas con los valores de energía de ligadura de los picos fotoeléctricos.
11.5.1.3. Picos satélite No todos los picos fotoeléctricos son tan sencillos como los que se han descrito, dando lugar a la formación de un ión en estado fundamental. De forma menos habitual, se puede llegar a la formación de iones en un estado excitado, unos pocos ev por encima del estado fundamental. En este caso, la energía cinética de los fotoelectrones se reduce, con la diferencia entre el estado fundamental y el excitado. Este fenómeno da lugar a la aparición de picos satélite a unos valores de energía de ligadura ligeramente superiores (menor en energía cinética) que el pico principal; por ejemplo, la presencia de compuestos aromáticos da lugar a la formación de un pico satélite debido a la transición π → π* (Figura 11.17). Este efecto es muy acusado cuando se trabaja con sistemas paramagnéticos, en los que la intensidad del pico satélite es muy alta y similar a la del pico principal. Esta propiedad se puede utilizar para identificar la presencia de algunos estados de oxidación, cuando uno es paramagnético y otro no; por ejemplo, Cu2+ tiene pico satélite, mientras que Cu+ o Cu0 prácticamente no presentan pico satélite.
Cuentas por segundo
6,5 eV
C1s satélite
294
292
290
288
286
284
282
Figura 11.17. Pico satélite de C1s en compuestos aromáticos debido a transiciones π → π*.
Técnicas de análisis y caracterización de materiales
454
11.5.1.4. Desdoblamiento de picos La emisión de un electrón produce un cambio de espín en los átomos y debido al acoplamiento espín-orbita se pueden distinguir diferentes niveles energéticos, en los orbitales que presentan espín orbital diferente de cero (electrones procedentes de niveles p, d o f ). Las reglas de selección espectroscópicas nos indican los picos XPS observados y la abundancia relativa de los diferentes valores de energía en cada nivel. Desdoblamiento p: p3/2 : p1/2 2:1; d : d5/2 : d3/2 3:2; f : f 7/2 : f 5/2 4:3.
11.5.1.5. Picos del espectrómetro Existen además otra serie de picos atribuibles a la radiación X utilizada o a contaminación del ánodo utilizado; son respectivamente los rayos X satélites y los picos fantasma. La emisión de rayos X no solamente se produce a una frecuencia determinada, radiación característica, sino que se produce la emisión de fotones debido a otras transiciones (Tabla 11.4), lo que daría lugar a la aparición de una serie de picos poco intensos a valores de energías de ligadura menores y espaciados de igual manera que la radiación X; si bien las fuentes de rayos X empleadas en XPS son bastante monocromáticas, se deben tener en cuenta a la hora de interpretar los espectros. Este problema se resuelve con la utilización de monocromadores para la radiación X empleada. Tabla 11.4. radiación X saTéliTe, desPlazaMienTO e inTensidad relaTiva a la PrinciPal Mg (1253,6 ev)
al (1486,6 ev)
desplazamiento (ev)
intensidad relativa
desplazamiento (ev)
intensidad relativa
0,0
100,00
0,0
100,00
α3
7,4
7,00
9,8
6,40
α4
10,2
4,10
11,8
3,20
α5
17,5
0,55
20,1
0,40
α6
20,0
0,45
23,4
0,30
β
47,5
0,50
69,7
0,55
α1,2
Cuando el ánodo se encuentra contaminado con algún otro elemento este emite su propia radiación característica, lo que implica la aparición de picos adicionales desplazados respecto al pico fotoeléctrico; un ejemplo de los desplazamientos ocasionados por los contaminantes más comunes se muestra en la Tabla 11.5. Este tipo de picos ocurre muy raramente, y se pueden eliminar comprando una fuente de rayos X adecuada o con la utilización de un monocromador para la radiación ionizante.
11.5.2. análisis cualitativo La espectroscopía de fotoelectrones permite la identificación de los elementos presentes en la muestra, aunque en cantidades relativamente elevadas, pero además
Espectroscopía de fotoelectrones de rayos X (XPS)
455
permite la identificación del estado de oxidación de estos elementos y el tipo de entorno en el que se encuentran.
11.5.2.1. Identificación de elementos Para identificar los elementos presentes se recurre a la asignación de los picos detectados en el espectro de inspección. A continuación, se describe el proceso de identificación de los picos de un espectro, paso a paso para evitar ambigüedades de picos. – Se identifican los picos que siempre suelen aparecer en el espectro, y además suelen ser los más intensos C1s, O1s, CKLL y OKLL. Identificando los picos de rayos X satélite si los hubiera. – Identificación de los otros picos intensos presentes en el espectro recurriendo a las bases de datos disponibles. Hay que tener en cuenta que algunos picos se pueden ver interferidos con otros picos más intensos de otros elementos. Por ejemplo: C1s interfiere con Ru3d y V2p y Sb3d con O1s. – Identificación de los demás picos menos intensos suponiendo que estos corresponden a los más intensos de elementos no identificados en los apartados anteriores. Aunque hay que tener en cuenta que existe la posibilidad de que estos picos más intensos no sean tales cuando existen interferencias con otros picos. – Se deben comprobar las conclusiones alcanzadas por la presencia de dobletes de acoplamiento espín-orbita para los picos p d y f y que cumplen de forma aproximada con las relaciones teóricas.
11.5.2.2. Identificación del estado de oxidación Para la identificación de los estados de oxidación de los elementos presentes se recurre a las medidas de los espectros de alta resolución con la corrección del efecto de carga si fuese una muestra aislante. Estas medidas se realizan sobre los picos más intensos de cada elemento (Figura 11.18), y las medidas deben ser muy precisas puesto que el desplazamiento químico de la energía de ligadura es muy pequeño. En primer lugar si la muestra es aislante se debe corregir el efecto de carga. El efecto de carga en estado estacionario puede ser de varios voltios. Esta carga se produce por el balance entre los electrones perdidos desde la superficie por el efecto fotoeléctrico y la ganancia de electrones lentos o térmicos del vacío que rodea a la muestra. La carga se puede reducir por la adición de electrones lentos sobre la muestra; esta técnica reduce el efecto de carga y hace que los picos sean más estrechos. El efecto de carga se puede determinar aplicando los siguientes métodos: – El método más utilizado es medir la posición del pico C1s de la contaminación de hidrocarburos que prácticamente siempre existe en las muestras. Este pico aparece a 284,9 ev, por lo que cualquier desviación de este valor se debe tomar como efecto de carga. Cuando se hace un estudio de perfil de profundidad esta referencia desparece durante el bombardeo con iones.
456
Técnicas de análisis y caracterización de materiales
Figura 11.18. Niveles energéticos de los picos fotoeléctricos más intensos en XPS.
Espectroscopía de fotoelectrones de rayos X (XPS)
457
– Evaporar una capa muy fina de oro sobre la muestra después de la medida, y se vuelve a medir el espectro del doblete del pico Au4f y del pico más intenso de nuestra muestra. Se asume que la desviación del doblete representa el efecto de carga de la muestra. Hay que tener cuidado de añadir cantidades muy pequeñas de oro para no afectar al espectro de nuestro pico más intenso. – Se deposita una capa de muestra lo suficientemente fina para que deje de ser aislante. Esta suposición se considera correcta si en el espectro aparecen los picos correspondientes al metal conductor situado bajo la muestra. – En el estudio de catalizadores o materiales similares se puede suponer un valor constante y conocido a un pico de un elemento en el soporte. Se debe estar seguro que los tratamientos a los que se somete a la muestra no afecta al estado químico del soporte. Una vez se ha corregido el efecto de carga, se resta la línea base y se procede a la deconvolución de los picos, mediante el ajuste a un conjunto de curvas mezcla de curvas tipo gaussiana y tipo lorentziana con proporciones variables. El método de ajuste debe minimizar la diferencia entre los valores experimentales y la envolvente de los picos calculados. Aunque se ha intentado buscar diferentes métodos de cálculo del desplazamiento químico, no se ha encontrado ninguna expresión que se pueda aplicar ampliamente. Por esta razón, se emplean los datos que aparecen en diferentes bases de datos existentes. Existen ocasiones en las que se producen interferencias en los picos principales de los elementos, por lo que se debe recurrir a otros menos intensos que normalmente no se encuentran tabulados. Sin embargo, los desplazamientos químicos son bastante constantes en todos los picos del espectro fotoeléctrico. En muchos elementos existe un desplazamiento químico detectable en todos sus estados de oxidación, mientras que en otros elementos la variación en el estado de oxidación no se puede apreciar correctamente. En los elementos de transición, una herramienta muy útil es la presencia de picos satélite que es característica de estados de oxidación paramagnéticos. Otra posibilidad de detección del estado de oxidación es la utilización de los picos Auger. Estos picos también sufren desplazamiento químico, pero su uso esta mucho menos extendido debido a la complejidad de los picos Auger. Sin embargo, presentan gran utilidad cuando se emplea el parámetro de Auger (α), que viene definido por [11.16], ecuación que relaciona la energía cinética de los electrones Auger y la energía de ligadura de los picos fotoeléctricos Este parámetro viene influido por los procesos de relajación del estado final con los alrededores, y es un instrumento eficaz para determinar el entorno de los elementos analizados. α = EcAuger + ELfoto
[11.16]
El valor del parámetro de Auger es independiente de la energía de ionización empleada, y como norma general los materiales conductores presentan un valor de parámetro más elevado. La forma más habitual de utilizar α es mediante una representación bidimensional de la energía de ligadura y el parámetro de Auger en el que se indican zonas que corresponden a cada estado de oxidación. Estas representaciones
Técnicas de análisis y caracterización de materiales
458
18
54
se llaman gráficos de Wagner (Figura 11.19) y aunque pueden aportar una buena información no se encuentran tan extendidos como las tablas de energía de ligadura de los fotoelectrones.
18
52
Intrazeolita Cu(0) 1 nm clusters
18
Cristales de cobre
18
48
918
Cu(II)
Cu (I)
18
46
916
Parámetro de Auger (eV)
50
920
Cu(II) Intrazeolita
Intrazeolita Cu(I)
18
914
44
Energía Cinética CuL3M4,5M4,5 (eV)
922
912 938
936
934
932
Energía de ligadura (eV)
Figura 11.19. Gráfico de Wagner para el cobre.
11.5.2.3. Bases de datos existentes Los valores de energía de ligadura y parámetro Auger, y los gráficos de Wagner se encuentran generalmente en los manuales que aportan los fabricantes de espectrómetros de XPS y revisiones bibliográficas [3], [4]. También es muy útil la bibliografía de los investigadores que trabajan en el mismo tipo de compuestos que se desea investigar. Por último, se puede encontrar algunas bases de datos interesantes en Internet, entre las que se pueden indicar las direcciones de NIST [5], XPS International Data Inc. [6], CNRS y VG Scientific. [7] y UK Surface Analysis Forum [8].
Espectroscopía de fotoelectrones de rayos X (XPS)
459
11.5.3. análisis cuantitativo Los métodos de análisis cuantitativos se basan en la ecuación [11.12], en la que σ y λ son constantes para unas condiciones experimentales; por esta razón, en general se aplica la ecuación [11.17]: IA A = SA B IB Sb
[11.17]
donde IA y SA son respectivamente la intensidad del pico fotoeléctrico del elemento A y el factor de sensibilidad de ese pico. La intensidad se puede tomar como el área del pico o como la altura del pico, cada una de ellas presenta un factor diferente. Los valores de los factores de sensibilidad se pueden encontrar en diferentes bases de datos [3-8]. También suele aparece el factor para el segundo pico más intenso por si se aprecia solapamiento de picos. En el caso de picos con desdoblamiento de espín, hay que tener en cuenta si el factor hace referencia al doblete o solamente a una parte del desdoblamiento.
11.5.4. análisis de la localización de los elementos La espectroscopía de fotoelectrones es muy sensible a las capas más externas de las muestras, pero hay veces que es necesario realizar un análisis de cómo se modifica la composición desde la superficie al seno de la muestra. Existen principalmente dos técnicas: medidas a diferentes ángulos y erosión controlada de la superficie.
11.5.4.1. Medidas a diferentes ángulos Este tipo de medidas se basan en la diferencia de espesor de material a recorrer por los fotoelectrones cuando se altera el ángulo entre la muestra y la entrada del analizador. De tal forma que para ángulos bajos, la señal de la superficie es mucho mayor que la del seno de la muestra, y para ángulos cercanos a 90º, la señal del interior de la muestra se magnifica (Figura 11.20). Esta propiedad permite apreciar variaciones de composición con la profundidad; sin embargo, es complicado obtener un mapa de profundidad de las concentraciones, debido a que cada compuesto presenta su propia morfología superficial y, por lo tanto, para poder relacionar el ángulo de medida con la profundidad se debe establecer un modelo de la estructura de la muestra, o como mucho intentar obtener un perfil de concentraciones semicuantitativos aplicando las ecuaciones empíricas. Estos tipos de medidas requieren el empleo de una gran cantidad de tiempo, puesto que se debe realizar un análisis a un ángulo determinado, y repetir el proceso modificando el ángulo entre la superficie de la muestra y la entrada al analizador.
Técnicas de análisis y caracterización de materiales
460
A ángulos bajos, los fotoelectrones provienen mayoritariamente de la superficie.
A ángulos elevados, los fotoelectrones provienen de la superficie y de capas más profundas.
Figura 11.20. Esquema del análisis de profundidad por medidas a diferentes ángulos.
Estos problemas se van reduciendo notablemente con los nuevos equipos de medida que combinan un sistema avanzado de lentes de electrones y un sistema de detección tipo matricial, que permite la medida simultánea en varios ángulos, con lo que se obtiene el mapa de concentraciones en profundidad de una forma muy rápida.
11.5.4.2. Medidas de erosión controlada La forma más habitual de realizar un análisis en profundidad es la eliminación de las capas de átomos superficiales por bombardeo con iones. Este método es muy conocido y se emplea en otros análisis como AES, SIMS o ISS. En general, se utiliza un haz de iones de argón que va erosionando la superficie de la muestra, siendo esta técnica destructiva. Un ejemplo de la velocidad de erosión se muestra en la Tabla 11.6. Tabla 11.6. alGUnas velOcidades de erOsión. (Haz de iOnes arGón 2 Kev cOn 100 aMPs · cM–2) Muestra
velocidad de erosión (nm/min)
Ta2O5
10,0
Si
9,0
SiO2
7,5
Pt
22,0
Cr
14,0
Al
9,5
Au
41,0
Espectroscopía de fotoelectrones de rayos X (XPS)
461
Esta técnica ampliamente empleada presenta una serie de ventajas e inconvenientes: – ventajas. a) Posibilidad de realizar el análisis en cada paso de la erosión. b) Fácil control del efecto de carga, llegándose a eliminar completamente. c) Perfiles de erosión conocidos por la gran extensión de la técnica. – Inconvenientes: d) Tiempo de análisis largo comparado con otras técnicas. e) Modificación del estado químico por el haz de iones. f) El análisis de amplias zonas requiere una erosión muy uniforme. g) Puede existir una alteración del perfil por la erosión preferencial de algunas partículas. Tal como se ha indicado, si bien se puede obtener un perfil de concentraciones de los elementos, no se puede tener información de su estado de oxidación debido a que se puede modificar durante el bombardeo con iones.
11.5.5. Mapas X–y e imagen Históricamente la resolución espacial que se alcanzaba con XPS era muy baja, y mucho más baja que la que se puede conseguir con otras técnicas de análisis superficial como la espectroscopía Auger de electrones o SIMS. Esto es debido a que es mucho más difícil enfocar un haz de rayos X que un haz de electrones o iones. Sin embargo, desde la década de 1990 se han producido unas mejoras muy notables en la resolución espacial de los sistemas XPS comerciales. Existe un gran interés en mejorar la resolución espacial de XPS, porque de esta forma se mejora la posibilidad de análisis en determinados tipos de muestra: cómo chips en microelectrónica o microarrays biológicos, o el estudio de los defectos superficiales que requiere la buena resolución espacial. Pero además de una mejora en determinados análisis tiene una segunda ventaja, y es la capacidad de construir imágenes químicas de una muestra. Usando la especificidad química del XPS se puede hacer un mapa de la distribución superficial de los elementos y grupos funcionales. Hay dos métodos para obtener la resolución espacial en espectrómetros XPS. Un método es el «microprobe», donde los rayos X se enfocan a un punto pequeño en la muestra. La mejor resolución espacial obtenida con este modo es 0. El equilibrio termodinámico en procesos faradaicos se alcanza cuando se igualan las velocidades de oxidación y reducción de la reacción electroquímica, con lo que la intensidad de corriente neta (ineta) del proceso es cero. Sin embargo, esto no significa la ausencia de un intercambio de electrones en la interfase, sino que hay una intensidad de corriente de intercambio (io) equivalente en los sentidos de oxidación y reducción. El potencial de equilibrio termodinámico de los procesos faradaicos está determinado por la ecuación de Nernst que relaciona el potencial redox en el electrodo (E) con la relación de concentraciones de la especie oxidada y reducida en la interfase electroquímica y el Eº’ de la reacción redox: E = Eo’ –
[ R] RT ln nF [O ]
[17.6]
donde R es la constante de los gases (8,31 j · mol–1 · K–1) y T es la temperatura expresada en la escala de Kelvin. Se considera que una reacción redox es reversible electroquímicamente cuando un cambio en el potencial aplicado en el electrodo produce un reajuste rápido de la reacción en la interfase de acuerdo a la ecuación Nernst. Si este reajuste es muy lento se denomina la reacción electroquímica como irreversible, y en casos intermedios se denominan reacciones electroquímicas como cuasi-reversibles.
17.1.3. aspectos cinéticos en electroquímica La mayoría de las técnicas electroanalíticas implican condiciones de no equilibrio, lo que significa que la reacción electroquímica está favorecida cinéticamente
Técnicas de análisis y caracterización de materiales
702
bien en sentido de oxidación o bien de reducción. Estas condiciones conllevan que la ineta sea distinta de cero, debido a un sobrepotencial (η) equivalente a la diferencia entre el potencial aplicado al electrodo y el potencial de equilibrio del sistema. Por el convenio de la IUPAC se establece que las intensidades de corriente de reducción son negativas y las de oxidación son positivas. Por lo tanto, si η es negativo se favorece la reacción de reducción y la ineta será negativa. Alternativamente, la aplicación de un η positivo dará una ineta positiva. El valor de ineta en función de η y io viene dado por la ecuación de Butler-volmer: ineta = i0 e( 1– α ) nF η / RT – e– αnF η / RT
[17.7]
En esta ecuación hay dos términos exponenciales, uno positivo y otro negativo, que son proporcionales a la intensidad de corriente de oxidación y de reducción respectivamente. α es el coeficiente de transferencia (tiene un valor entre 0 y 1), el cual depende de la simetría de las coordenadas de reacción en los sentidos de oxidación y reducción, y que refleja cómo afecta el sobrepotencial aplicado a la disminución de la energía de activación en el sentido de la reducción. Hay dos formas límite de la ecuación de Butler-volmer que tienen interés experimental y que conciernen a los casos donde el sobrepotencial es pequeño (η < 8 mv/n) o grande (η > 120 mV/n). En el primer caso se puede considerar que e− αnF η / RT = 1 − αnF η / RT
y
e( 1−α ) nF η / RT = 1 + ( 1 − α ) nF η / RT
Por lo tanto, ineta = i0 nF η / RT
[17.8]
Es decir, que a sobrepotenciales pequeños la intensidad de corriente neta varía linealmente con el sobrepotencial. Cuando el sobrepotencial es grande (ya sea negativo o positivo) la intensidad de corriente anódica (de oxidación) o catódica (de reducción) es despreciable. Cuando la intensidad de corriente anódica es despreciable la ecuación queda reducida a ineta = − i0 e− αnF η/ RT
[17.9]
o ln i
neta
= ln i0 − αnF η / RT
[17.10]
En el caso de intensidad de corriente catódica despreciable: ineta = i0 e( 1−α ) nF η / RT
[17.11]
o ln i
neta
= ln i0 + ( 1 − α ) nF η / RT
[17.12]
Métodos electroanalíticos
703
Es decir, a sobrepotenciales grandes la intensidad de corriente aumenta exponencialmente con el sobrepotencial aplicado. La representación gráfica de log │ineta│respecto a η se la denomina representación de Tafel. Esta gráfica permite determinar el coeficiente de transferencia α a través de la pendiente (m) en la región de dependencia lineal, así como la corriente de intercambio i0 mediante la extrapolación de la ordenada en el origen (Figura 17.22). log inetal
m= -αnF/2,3RT
log i0
η
Figura 17.2. Representación de Tafel para η < 0.
17.1.4. Transporte de masas en electroquímica Las reacciones electroquímicas tienen lugar en la superficie del electrodo mientras que generalmente los compuestos redox están en toda la disolución, por lo tanto la velocidad de la reacción, y en consecuencia la intensidad de corriente generada, podrá estar controlado por el transporte de masas hacia el electrodo. Los modos de transporte de masas de interés en electroquímica son: – Difusión: Movimiento de compuestos debido a la existencia de un gradiente de concentraciones provocado por la reacción redox en la superficie del electrodo. – Migración: Movimiento de iones debido al campo eléctrico entre el electrodo de trabajo y el contraelectrodo. – Convección: Movimiento de compuestos por transporte hidrodinámico, bien por agitación en la disolución o por rotación del electrodo. La ecuación de Nernst-Planck describe la dependencia de la transferencia de masa hacia el electrodo por los tres modos: J i ( x ) = − Di
∂Ci ( x ) ∂x
−
zi F RT
Di Ci
∂φ ( x ) ∂x
+ Ci v ( x )
[17.13]
Técnicas de análisis y caracterización de materiales
704
Donde Ji(x) es el flujo del compuesto i a una distancia x del electrodo, Di es el coeficiente de difusión del compuesto, ∂Ci(x)/ ∂x es el gradiente de concentración del compuesto a la distancia x, zi es la carga del compuesto, ∂f(x)/ ∂x es el gradiente de potencial eléctrico y v es la velocidad con que un elemento de volumen de la disolución se desplaza a lo largo del eje x. Los tres términos de la parte derecha de la ecuación describen las contribuciones de la difusión, migración y convección al flujo del compuesto. Generalmente, se evita la influencia de la migración en los procesos faradaicos añadiendo una concentración alta de una sal en la disolución (electrolito soporte) que sea inerte electroquímicamente en el intervalo de potenciales redox a estudiar. Las técnicas electroanalíticas más comunes se realizan bien en condiciones estacionarias de la disolución, en las cuales el transporte de masa está controlado solo por difusión del compuesto redox, o bien bajo rotación del electrodo, en el cual hay un control hidrodinámico del transporte de materia. En la sección 17.4 se describirán con detalle las ecuaciones que rigen el transporte de materia en cada caso.
17.2. insTrUMenTación Dada la amplitud de aplicaciones de las técnicas electroanalíticas y sus grandes diferencias en cuanto a la metodología empleada, en este apartado y en los siguientes nos vamos a ceñir fundamentalmente a la instrumentación utilizada para electroquímica en disolución.
17.2.1. celdas electroquímicas Existen dos tipos de celdas electroquímicas, las galvánicas y las electrolíticas. Las celdas galvánicas son aquellas en las que al conectar los electrodos a través de un medio conductor sucede una reacción espontánea (ΔG < 0) (Figura 17.3A), mientras que las celdas electrolíticas requieren la aplicación de un sobrepotencial para provocar un proceso electroquímico no espontáneo (ΔG > 0) (Figura 17.3B). A
e-
B
Corriente
Ánodo
e-
(–) Zn Cu
Cátodo
Ánodo
(–)
(+)
Zn Cu Cátodo (+) e-
Figura 17.3. Ejemplos de celdas electroquímicas. (A) Celda galvánica. (B) Celda electrolítica.
Métodos electroanalíticos
705
Los materiales más comunes empleados para la fabricación de la celda electroquímica son el vidrio (Pirex o cuarzo), teflón, Kel-F y Nailon. Estos materiales son fáciles de procesar, asequibles e inertes a la mayoría de reacciones electroquímicas. De ellos, el vidrio es el más habitual, aunque para reacciones en medios agresivos (alto pH, ácido fluorhídrico, etc.) se recurre a los materiales plásticos citados. En cambio, la presencia de ciertos disolventes orgánicos pueden descomponer los plásticos, contaminando e interfiriendo en las medidas. En presencia de algunos ácidos fuertes hay materiales como el nailon que no son estables, y se debe usar vidrio. Una celda electroquímica se describe siguiendo un sistema de notación que especifica los componentes individuales y el medio en el que se aloja. Los componentes presentes en la misma fase se separan mediante una coma, y las interfases electroactivas se representan por una barra. Las interfases que no influyen en el potencial total de la celda (un puente salino por ejemplo) se ilustran con una doble barra. También se deben especificar las concentraciones de las especies, y se debe escribir siempre desde el ánodo al cátodo. Por ejemplo, una batería de volta, que está compuesta de discos de cobre y cinc separados por papel empapado en ácido se representaría como Zn / Zn2+ / / Cu 2+ / Cu La batería de volta es un ejemplo de batería no recargable. Otros tipos de celdas galvánicas importantes son las baterías recargables y las celdas de combustible. Cuando se recarga una celda galvánica se le aplica un potencial que invierte la dirección espontánea del proceso redox y es, en ese momento, una celda electrolítica. Las celdas electrolíticas pueden tener una configuración de dos electrodos, con un ánodo y un cátodo como el mostrado en la Figura 17.3B, o de tres electrodos. En este último caso los electrodos se definen como electrodo de trabajo (WE), electrodo de referencia (RE) y el contraelectrodo (CE) o electrodo auxiliar. Así se consigue evitar la posible confusión del sentido de la corriente: en función del experimento realizado el WE y el CE se alternan en la función de ánodo y cátodo. El WE es donde sucede la reacción que se quiere estudiar o utilizar; el electrodo de referencia es un sistema de composición constante que proporciona un potencial estable para poder medir el valor del potencial del WE frente a un valor conocido. El CE absorbe el exceso de corriente que pueda llegar al RE, evitando así que el RE se polarice.
17.2.2. diseño de celdas electroquímicas El diseño de la celda depende de muchos factores: el número de electrodos de su configuración, la escala de trabajo, la cantidad de muestra disponible, o las reacciones paralelas de interferentes como el oxígeno. A escala de laboratorio y con suficiente cantidad de analitos se puede utilizar una celda entre 20 y 50 ml, muy manejables. Si la cantidad de muestra es limitada se puede medir con unos pocos ml de disolución. Para trabajar en el rango de μl hay que usar microelectrodos, y la configuración de la celda requiere una atención especial.
Técnicas de análisis y caracterización de materiales
706
17.2.2.1. Celdas de dos electrodos Estas celdas solo tienen un electrodo de trabajo y uno de referencia. Como el potencial del WE se monitoriza en relación al RE, este último requiere un valor constante y ajeno a la polarización. Esta configuración es típica de los estudios de polarografía con una gota de mercurio como WE y un reservorio de mercurio como RE, estando ambos electrodos alineados de manera concéntrica. Como el reservorio tiene un área mucho mayor que la gota se puede considerar no polarizado, con lo que se controla el potencial (aunque su valor sea desconocido). Otro factor importante en estas celdas es la resistencia de la disolución (Rs), que puede provocar una caída de potencial óhmica igual a iRs. En polarografía los valores típicos para i son menores de 10 μA y para Rs menores de 100 Ω, con lo que iRs es menor que 1 mv, una caída de potencial despreciable. En sistemas con una resistividad mayor, como disoluciones no acuosas, se puede usar un microelectrodo y mantener un perfil de corrientes del orden de nA. Esto da resultados aceptables con valores de Rs en los órdenes de kΩ y MΩ. Las celdas de dos electrodos sirven para medidas de conductividad en estado sólido. La configuración óptima es una estructura tubular concéntrica de un diámetro milimétrico, donde dos electrodos de disco se pueden conectar sellando el electrolito confinado en el interior del tubo. El electrolito y los electrodos se deben presionar para mejorar el contacto entre ellos, lo que condiciona los materiales para construir la celda. El Kel-F es el más adecuado, ya que el vidrio es frágil, y el nailon y teflón muy blandos.
17.2.2.2. Celdas de tres electrodos
WE RE CE
Figura 17.4. Celda electroquímica de tres electrodos.
Métodos electroanalíticos
707
Las celdas de tres electrodos son las más frecuentes en estudios electroquímicos, sobre todo si la resistencia de la disolución es relativamente alta. El potencial del WE se mide respecto al RE, pero la corriente circula entre el WE y un electrodo separado, el CE. Así se consigue que por el RE apenas pase corriente, acercándose así al régimen ideal de no-polarizabilidad, con lo que el potencial de referencia medido es mucho más fiable. La resistencia de la disolución se minimiza situando el WE y el RE lo más próximos posible sin interferir con la transferencia de masa de las especies del electrolito. En el caso de que se necesiten disoluciones diferentes para los electrodos y la disolución, se puede diseñar una celda de tres compartimentos separados por membranas de vidrio poroso. Dichas membranas reducen la interferencia entre las reacciones electroquímicas del WE y el CE, pero deben permitir la conductividad eléctrica. El compartimento central contiene el electrolito soporte junto con las especies redox, mientras que en los dos compartimentos laterales únicamente se añade el electrolito soporte. Se puede añadir una abertura adicional para poder trabajar con gases. En los casos de que no se produzca ninguna substancia en el CE vía electrólisis que pueda llegar al electrodo de trabajo, la membrana de separación no es necesaria y se trabaja en un único compartimento, evitando barreras innecesarias (Figura 17.4).
17.2.2.3. Celdas electroquímicas de flujo Las celdas de flujo forman parte de un sistema en circulación, y se usan para detección y análisis en tiempo real. Para diseñar la configuración de la celda, una posibilidad es usar electrodos tubulares; otra son electrodos planos con flujo paralelo o perpendicular; también se puede usar la propia pared del tubo como electrodo. Como WE se puede usar una malla de carbón vítreo, a través de la cual fluyen los analitos. Los materiales típicos para hacer electroquímica en flujo abarcan rejillas de platino, redes de oro, apilamientos de grafito, etc. La disolución se añade con flujo constante, para medir la corriente en estado estacionario. El RE se aísla de la disolución con una membrana de intercambio de cationes, de modo que la disolución del RE se renueve continuamente. Este tipo de diseños simplifica la instrumentación, y otorga una alta precisión para medir trazas. La configuración más eficiente tiene el flujo en sentido paralelo a la superficie del WE, el cual se pone frente al CE en las paredes del canal de flujo. De esta manera, la densidad de corriente no sufre una caída de potencial significativa. La eficacia del electrodo se puede mejorar usando varios WE dispuestos en serie o en paralelo. El RE se puede colocar delante o detrás del WE según el sentido del flujo. Este tipo de celdas de flujo tienen aplicación, por ejemplo, como detectores en cromatografía líquida.
17.2.2.4. Celdas para espectroelectroquímica Existen celdas que permiten combinar medidas espectroscópicas con electroquímicas. Si la espectroscopía es de transmisión, lo normal es que un haz de luz pase a través del electrodo de trabajo, obteniendo la absorción óptica en función de potenciales electroquímicos. Se usa una cubeta de cuarzo como celda electroquímica, dentro de la cual se sitúan los electrodos. El electrodo de cuasi-referencia y el CE se si-
708
Técnicas de análisis y caracterización de materiales
túan en las esquinas de la cubeta, mientras que el WE se sitúa en el paso óptico. Existe una variedad de electrodos de alta transparencia, por ejemplo el óxido de indio y estaño (ITO), minirrejillas de oro o platino, o películas de oro ultradelgadas (menos de 50 nm) depositadas en una superficie de vidrio. En muchos casos se produce un gradiente de concentración del producto de reacción en la superficie del electrodo, dificultando la evaluación cuantitativa espectroscópica. Dicho gradiente se puede evitar usando celdas espectroelectroquímicas que trabajen en flujo, así la concentración de analitos es constante en la disolución. Hay que tener en cuenta que las entradas y salidas del flujo no interfieran con el paso óptico, para ello se pone un canal pequeño entre el WE y el CE, controlando el flujo con una bomba externa. Si la espectroscopía se lleva a cabo en modo de reflexión, lo más práctico es realizar la reflectancia en la superficie del electrodo. La adsorción de especies sobre el electrodo, y su oxidación-reducción, conduce en algunos casos a cambios apreciables en la reflexión del electrodo. Gracias a esto se correlacionan los cambios espectroscópicos con los resultados electroquímicos. El ensamblaje de este tipo de celdas permite que se usen diferentes técnicas espectroscópicas, como el infrarrojo, la resonancia de plasmón superficial, o técnicas basadas en rayos X.
17.2.2.5. Líneas de vacío y atmósferas inertes Muchos sistemas electroquímicos son sensibles al aire y/o a la humedad, y requieren una línea de vacío acoplada a la celda electroquímica. Para eliminar el aire y la humedad, primero se burbujea con un gas inerte y seco de muy alta pureza (argón, nitrógeno, etc.) para desplazar el oxígeno, y luego se une la línea de vacío a la celda para extraer el aire residual. Muchas veces conviene trabajar en una atmósfera inerte para evitar la interferencia del oxígeno con el electrodo, para ello se purga la celda con nitrógeno o con argón. El nitrógeno es menos caro, pero el argón protege la disolución del equilibro atmosférico mejor gracias a su mayor densidad. El disolvente debe saturarse de gas antes de preparar la disolución, especialmente cuando se trabaja con volátiles. También se debe burbujear la disolución de la celda con el gas inerte durante 20 minutos o más. Luego se saca el tubo dejándolo abierto unos pocos milímetros sobre la interfase, para ralentizar el equilibrado con la atmósfera. Se consigue una atmósfera más inerte si se tapan las entradas de la celda, dejando una pequeña abertura para equilibrar la presión. El tubo puede ser de plástico para disoluciones acuosas, pero para disoluciones orgánicas, hay que usar materiales inertes en dicho disolvente. Esto es especialmente importante para los estudios de espectroelectroquímica in situ, donde puede aparecer una contaminación que enmascare el resultado.
17.2.3. electrodos de referencia Los electrodos de referencia (RE) deben tener un potencial constante e invariable durante el experimento para la regulación controlada del potencial aplicado al electrodo de trabajo (WE). Idealmente el RE no debe polarizarse nunca, esto es, que su potencial sea independiente del flujo de corriente que pase a través suyo. La reacción
Métodos electroanalíticos
709
del RE tiene que ser reversible, para poder calcular su potencial a partir de la ecuación de Nernst; también tiene que recuperar su potencial tras una tensión de corriente, para ello tiene que actuar como fuente o sumidero de las pequeñas corrientes originadas por imperfecciones del diseño del potenciostato/galvanostato sin que por ello varíe el potencial dentro de la celda. Lo más importante para elegir un RE es que no interfiera en la reacción que se va a estudiar. Algunos iones de baja solubilidad pueden precipitar en la membrana, colapsando el RE e incrementando el potencial en la interfase; algunas especies pueden interferir con el RE y envenenar el control del proceso redox o incrementar la solubilidad del par redox de referencia (por ejemplo, Ag/AgCl). También son importantes las condiciones de presión y temperatura. El uso de un puente salino entre el RE y el WE amplía las posibilidades de elección de un RE. Los RE se componen de un cuerpo, un sellado superior, un puente y el componente activo del electrodo. En algunos casos se pueden adaptar algunos componentes a diferentes condiciones experimentales, pero es el componente activo lo que define el potencial de referencia. El cuerpo del electrodo es el material estructural del RE, y debe soportar los requisitos para el uso del RE y el proceso de fabricación del mismo. Estas restricciones excluyen el uso de plásticos para la mayoría de los electrodos de hidrógeno, y el uso de vidrio en disoluciones muy alcalinas o ácido fluorhídrico. El sellado de la tapa afecta la acción del RE de varias maneras. Los RE de hidrógeno usan un sellado a presión a prueba de fugas que reduce la pérdida y elimina la evaporación de la disolución interna del RE. Un sellado con fugas tendrá el efecto opuesto y solo debe usarse con disoluciones saturadas. El puente separa la disolución interna del RE del electrolito de la celda electroquímica. Si la disolución interna del RE es igual que el electrolito no es necesario, pero en otras ocasiones se necesita un puente doble para evitar la mezcla de dos especies incompatibles. Los más habituales son las siguientes: – Membranas de Vycor, polietileno o teflón. – Puente cerámico. – Lana de vidrio, celulosa o agar. El componente activo del RE define el potencial base que se puede desarrollar con dicho RE y su clasificación. Los más comunes son los electrodos de hidrógeno, mercurio y plata.
17.2.3.1. Electrodo de hidrógeno El Electrodo Normal de Hidrógeno (NHE), también conocido como Electrodo Standard de Hidrógeno (SHE), es el punto de referencia para los potenciales de reducción Standard, y se le asigna por convención el potencial de E0 = 0,0000 v a todas las temperaturas. Por definición, el hidrógeno debe estar a 1 Atm de presión y la actividad de los iones hidronio debe ser igual a uno. Estos requisitos son difíciles de conseguir experimentalmente, ya que normalmente se utilizan concentraciones de ácido menores, así como presiones de hidrógeno mayores. Esto supone que el electrodo de referencia de hidrógeno se desvía del potencial normal definido de 0,0000 V (EºH) hasta un punto calculable a través de la ecuación de Nernst:
Técnicas de análisis y caracterización de materiales
710
a + 2,3 log H F pH 2
E H = E H0 + RT
El cuerpo activo de un NHE es normalmente lámina de platino platinizado, pero puede ser cualquier material que catalice la formación de hidrógeno. Como alternativa se puede usar oro platinizado, oro paladizado o lámina de platino. Las superficies de platino no platinizadas se pueden usar, pero pierden la actividad en unas pocas horas. Si bien el electrodo normal de hidrógeno es la referencia frente a la que se miden todos los potenciales, la dificultad de trabajar con él lleva al uso de electrodos de referencia más prácticos en su manejo, con condiciones constantes respecto al NHE y consecuentemente apropiados para su uso como electrodos de referencia.
17.2.3.2. Electrodos de mercurio Los electrodos de referencia de mercurio se hacen con este metal purificado, en forma líquida, junto a una sal de mercurio con solubilidad moderada (HgCl, Hg2S, HgO). Dada la facilidad de purificar el mercurio por destilación, es sencillo de reutilizar y formar una superficie reproducible. El electrodo de mercurio más extendido es el electrodo de calomelanos (SCE), cuyo principio redox se basa en la siguiente reacción: 0 Hg 2 Cl2 + 2 e− ⇔ 2 Hg + 2 Cl− , EHg|Hg
2
Cl2
= 0 , 268 V vs. NHE ( 25 ºC)
La preparación de este electrodo, en especial la pureza del mercurio y el método de adición del cloruro de mercurio al mercurio, afecta fuertemente al comportamiento y el valor de potencial que muestra dicho electrodo. Este RE puede ser muy reproducible si se prepara cuidadosamente. El potencial del cloruro de mercurio está definido por la concentración de cloruros en la disolución de relleno, que se puede calcular con la expresión: 0 EHg|Hg 2 Cl2 = EHg|Hg
2
Cl2
−
RT ln aCl− F
Este electrodo sufre de histéresis si experimenta cambios de temperatura, por lo que no es recomendable para temperaturas superiores a 70 °C.
17.2.3.3. Electrodos de plata El más común es el de Ag|AgCl y se basa en el control de la siguiente reacción redox: 0 AgCl + e− ⇔ Ag + Cl− , EAg|AgCl = 0 , 222 V vs. NHE (25 ºC)
Métodos electroanalíticos
711
Se trata del electrodo de referencia más popular debido a su simplicidad, su diseño asequible y la ausencia de componentes tóxicos. La simplicidad del RE de Ag|AgCl es compatible con la microfabricación y con su incorporación en sensores. Se puede calcular su potencial a partir de la ecuación: 0 EAg|AgCl = EAg|AgCl −
RT ln aCl− F
La preparación de este electrodo pasa por el uso de un hilo de alta pureza de plata (>99,999%), del cual hay que quitar el óxido de plata de su superficie antes de usarse. Para ello se baña el hilo en HNO3 0,1M durante unos pocos segundos, con el posterior enjuague en agua destilada. Una vez limpio el electrodo se clorifica metiéndolo en una celda compartimentada que contenga una concentración entre 1 M y 100 mM de HCl o KCl al tiempo que se aplica una corriente de 0,4 mA · cm–2 durante 30 minutos. Después de lavarlo, se introduce en la disolución de electrolito, que puede ser KCl saturado (3,5 M) o NaCl saturado (3,5 M). Es importante que el KCl se presature con AgCl, dada la diferencia de solubilidad.
17.2.4. electrodos de trabajo Para que un material funcione como electrodo de trabajo (WE) debe tener varias características: conductividad eléctrica, estabilidad química y electroquímica en un amplio intervalo de condiciones, transferencia de electrones rápida para una amplia variedad de sistemas redox, y propiedades eléctricas, microestructurales y químicas reproducibles. Uno de los mayores retos es encontrar materiales con una corriente de fondo baja y una rápida velocidad de transferencia de electrones para el analito. Los WE más habituales son metales nobles, carbón, metales líquidos (mercurio y sus amalgamas) y semiconductores (óxido de indio y estaño, silicio). El carbón es uno de los materiales más extendidos para usarse como electrodo y está disponible en una gran variedad de microestructuras: grafito, carbón vítreo, fibra de carbono, nanotubos, polvos amorfos y diamante. Algunos de estos tipos se han estudiado y usado ampliamente en las últimas décadas, mientras que otras nanoestructuras de carbón como los fullerenos o las láminas de grafeno son más novedosas y abren nuevos horizontes en la investigación. Existe una amplia variedad de electrodos metálicos para su uso en el electroanálisis, en particular platino, oro, níquel y paladio. De estos, los más habituales son el oro y el platino. En general los electrodos metálicos muestran una cinética de transferencia de electrones rápida para muchos sistemas redox y tienen una ventana de potencial anódico relativamente amplia. La ventana catódica para algunos metales como el platino está más limitada debido a la evolución del hidrógeno. Las curvas voltamperométricas i-E de fondo para los metales se suelen caracterizar por una corriente total mayor por unidad geométrica que en el caso de los electrodos de carbono, y muestran señales o picos asociados con la formación y reducción de óxidos en su superficie, además de la adsorción y desorción de protones u otros iones. La presencia de óxidos en la superficie, por ejemplo, puede alterar la cinética de reacción
712
Técnicas de análisis y caracterización de materiales
del electrodo y el mecanismo para algunos sistemas, lo que puede conducir a una variabilidad en la medida electroanalítica. Debido a la adsorción de aniones específicos, las constantes cinéticas de transferencia de electrones heterogéneas para algunos sistemas redox en electrodos metálicos son bastante sensibles a la composición del electrolito, más que para los electrodos de carbono. Ejemplos de aniones con tendencia a adsorberse son cloruro, bromuro, ioduro, cianuro, sulfuro, etc. Dicha adsorción puede bloquear los sitios activos involucrados en la reacción electroquímica y alterar la cinética y el mecanismo de la reacción. El óxido de indio y estaño (ITO) es un semiconductor tipo n de In2O3 dopado con estaño. Dada su reducida absorción de luz, es un material típico para su uso en medidas espectroelectroquímicas. Sus propiedades más atractivas incluyen una conductividad eléctrica alta (10–5 Ω · cm), una alta transparencia en el visible (85 %), buenas propiedades físicas y químicas (al menos bajo algunas condiciones), y la adhesión de muchos tipos de substratos. Los electrodos de gota de mercurio tienen propiedades gracias a las cuales las técnicas polarográficas han sido muy utilizadas como métodos electroanalíticos. Una de sus ventajas es que durante el experimento su superficie se renueva constantemente siempre de la misma manera, permitiendo medidas muy reproducibles y evitando contaminaciones por parte de productos de la reacción electroquímica. Otra ventaja es que tienen un elevado sobrepotencial para la descarga de hidrogeno, es decir, la reducción de protones del medio, lo que permite realizar medidas a potenciales muy negativos. Sus principales desventajas son que no se deben utilizar a potenciales mas positivos que el electrodo de calomelanos porque se oxida el mercurio, y la elevada toxicidad del mercurio.
17.2.5. electrodos auxiliares o contraelectrodos Los contraelectrodos (CE) tienen que ser inertes en las condiciones de la reacción electroquímica, por lo tanto se usan generalmente metales nobles, como el platino y el oro. Además deben tener un elevado área por que al tener que producirse en ellos la misma cantidad de carga que la generada en el WE, cuanto mayor sea el área del CE menor será el potencial generado en su superficie, y por tanto menor será la posibilidad de producirse reacciones electroquímicas no deseadas en la celda electroquímica. En consecuencia, se suelen usar ovillos de hilo del metal noble o láminas.
17.2.6. Potenciostatos/galvanostatos Un potenciostato es un instrumento electrónico que permite controlar una celda electroquímica de tres electrodos y realizar la mayoría de los experimentos electroanalíticos, es decir aquellos en los que se controla el potencial aplicado en el WE y se miden las intensidades de corriente producidas en este (amperometría). El componente electrónico fundamental de un potenciostato es el amplificador operacional, el cual genera un potencial de salida que es una amplificación de la diferencia entre dos potenciales de entrada, conectados respectivamente al electrodo de trabajo y el de
Métodos electroanalíticos
713
referencia en circuitos con altas impedancias. Esto hace que el potencial de salida del amplificador corresponda a la diferencia de potenciales entre WE y RE, y que no fluya apenas intensidad de corriente por el RE. Además, el potencial de salida del amplificador operacional está conectado al CE mediante un circuito con baja impedancia, lo cual permite que circule la intensidad de corriente entre el WE y el CE y su medida. Un galvanostato es un instrumento electrónico que permite controlar la intensidad de corriente generada en una celda electrolítica. Suele constar de un amplificador que genera un alto voltaje con una impedancia alta, de modo que se mantiene constante la intensidad de corriente generada en la celda electroquímica. En la actualidad los instrumentos más sofisticados integran un potenciostato y un galvanostato, permitiendo realizar medidas de amperometría o potenciometría con el mismo equipo.
17.3. PreParación de Medidas elecTrOQUíMicas Un proceso muy importante antes de realizar cualquier medida electroquímica es la limpieza y pretratamiento del electrodo de trabajo (WE), ya que de ello va a depender la calidad de la repuesta obtenida durante la medida. Además hay que elegir el disolvente y electrolito soporte adecuados para la celda electroquímica, los cuales van a depender de la naturaleza del compuesto redox a estudiar y de las condiciones en las que se quiere estudiar sus propiedades. Además, cabe la posibilidad de modificar químicamente la superficie del electrodo para aumentar la velocidad de la reacción electroquímica, inmovilizar un compuesto redox sobre la superficie del electrodo o evitar interferencias de reacciones no deseadas.
17.3.1. Pretratamiento de electrodos de trabajo Para conseguir condiciones experimentales aceptables y reproducibles es fundamental que la superficie del electrodo de trabajo esté limpia y presente una microestructura equivalente cada vez que se usa. Es muy frecuente que las superficies electroactivas sufran cambios tras haber sido modificadas anteriormente, que estén sucias y tengan materia adsorbida, la cual disminuye el área electroactiva e incluso puede llegar a producir falsas señales que enmascaren la señal analítica o de falsos positivos. Para evitar estos efectos indeseables cada WE es sometido a un proceso de limpieza y pulido antes de ser utilizado o modificado. Dado que cada WE tiene diferentes características mecánicas, los pretratamientos varían según la naturaleza del propio WE. Aun así, existen procedimientos generales que se detallan a continuación.
17.3.1.1. Pulido mecánico El pulido mecánico suele ser el primer paso a la hora de limpiar un electrodo, ya que sirve para renovar la superficie, limpiándola y eliminando la suciedad existente, exponiendo una microestructura fresca. Lo más habitual es presionar la su-
714
Técnicas de análisis y caracterización de materiales
perficie electroquímica contra un material abrasivo y deslizarlo en movimientos circulares, dibujando ochos, durante varios minutos. En el caso de electrodos metálicos sólidos (oro, platino) se usan pastas de alúmina o de diamante de diferente tamaño de partícula contra una manta de pulido; para electrodos grafíticos (carbón vítreo, grafito de baja densidad) se usa una lija específica para pulir grafitos. Al terminar de pulir se deben someter a ultrasonidos en disolución para desprender los restos desprendidos del electrodo y de la pasta de pulido. Algunos electrodos como HOPG (grafito pirolítico altamente orientado) e ITO no se deben pulir ya que dicho tratamiento altera severamente la estructura del electrodo. En cambio, el HOPG basal se puede tratar mediante el corte del plano laminar: para ello se despegan las láminas de grafeno superficiales usadas pegando un papel adhesivo y levantándolo suavemente.
17.3.1.2. Limpieza con disolventes Una manera de incrementar la limpieza y actividad de un electrodo sólido es exponerlo a diferentes disolventes y disoluciones durante un período de 20 o 30 minutos. Los disolventes se eligen según el tipo de substancia que se quiera limpiar y el material que forma el electrodo. Para los metales nobles se utilizan disoluciones fuertemente ácidas (H2SO4 concentrado, HNO3 concentrado, mezcla de H2SO4 y H2O2, HCl concentrado, etc.). Se pueden usar disolventes orgánicos (etanol, acetonitrilo, isopropanol, diclorometano, tolueno) tanto con metales como con electrodos de carbono. Los electrodos de ITO se limpian de manera eficiente con piraña alcalina (1:1:5 de NH4OH/H2O2/H2O) durante 30 min a 80 ºC.
17.3.1.3. Tratamiento térmico En muchas ocasiones un tratamiento térmico ayuda a conseguir superficies limpias y homogéneas, además de activar los electrodos. En el caso de los electrodos metálicos en forma de hilo es habitual pasarlos por una llama de gas, cambiando la posición del electrodo de la zona reductora a la oxidante de la llama. Para el platino se deja que alcance el rojo durante varios segundos, en cambio el oro requiere de un cuidado especial y evitar que se funda al calentarlo demasiado tiempo en la llama oxidante. También se pueden tratar en horno, llevándolo a temperaturas entre 400 y 900 ºC en alto vacío o atmósfera inerte. Los electrodos de disco, al estar engarzados en un soporte polimérico, no se pueden tratar a la llama ni en estufa. Los electrodos de carbono se pueden tratar en hornos a vacío, en atmósfera inerte o en presencia de oxígeno. El calentamiento en vacío promueve la limpieza y activación del carbono en sus defectos de borde de plano. En caso de haber oxígeno se promueve la oxidación de los centros activos, cambiando la hidrofilia del electrodo pero corroyéndolo. El HOPG se puede llevar hasta 500 ºC, el carbón vítreo aguanta temperaturas de 1.000 ºC a presión.
Métodos electroanalíticos
715
Los electrodos de ITO también se pueden activar térmicamente, pero a temperaturas mucho más bajas, como 50 ºC, para evitar que se descomponga el material.
17.3.1.4. Polarización electroquímica Este procedimiento consiste en la aplicación de corrientes anódicas y catódicas al electrodo de trabajo, consiguiendo así dos efectos: la activación del electrodo y la limpieza de ciertas especies por oxidación/reducción. Es común la aplicación de múltiples barridos cíclicos en medios de pH fuertemente alcalinos, seguidos de tratamientos ácidos a alta velocidad de barrido. Para HOPG se usan barridos entre –0,5 y 1,5 v vs. SCE en 0,1-1 M KNO3 a 50 mv · s–1; para carbón vítreo se puede llegar hasta 2,0 v vs. SCE; para electrodos con nanotubos de carbono se aplican dos potenciales, uno oxidativo a +1,7 V y otro reductivo a –1,5 V vs. Ag/AgCl. Para electrodos de oro y platino el barrido en medio básico va desde 0 a –1,5 v vs. Ag/AgCl; y el barrido en medio ácido va desde –0,2 a +1,5 V vs. Ag/AgCl. Este proceso no es recomendable para electrodos de ITO.
17.3.2. Modificación química de electrodos de trabajo Existen varias maneras de modificar químicamente el WE. La naturaleza del electrodo (si está constituido por un metal noble o por carbón) es el factor crítico que determina los métodos de modificación utilizados. El método más extendido y versátil para modificar químicamente electrodos de oro, y en menor medida otros electrodos metálicos (platino, plata, cobre, paladio) es la de formación de monocapas autoensambladas de tioles (SAM). La quimisorción de tioles alifáticos o aromáticos sobre dichos metales es un proceso espontáneo que puede realizarse por inmersión del electrodo en una disolución que contenga el tiol o la mezcla de tioles correspondiente. En esas condiciones se forma una monocapa organizada del compuesto sobre la superficie, tal y como se muestra en la Figura 17.5, en la que se establecen enlaces fuertes S-Au. Las propiedades de la monocapa resultante (densidad superficial, hidrofilicidad, ángulo de contacto, estabilidad) dependen de la naturaleza aromática o alifática del compuesto tiolado, la longitud de la cadena alquílica y la presencia de otros grupos funcionales polares. El extremo del compuesto orgánico opuesto al grupo tiol queda expuesto hacia la disolución de la celda electroquímica, por tanto condiciona la reactividad del electrodo frente a los compuestos redox presentes en la disolución. Por ejemplo, una monocapa formada por tioalcanos de cadena larga ofrece un grupo metilo terminal que impide las reacciones redox de compuestos polares, favoreciendo las de compuestos hidrofóbicos. En cambio, si el grupo terminal tiene carga negativa, como un grupo carboxilato a pH neutro, el electrodo favorecerá las reacciones redox de compuestos cargados positivamente e inhibirá las de compuestos cargados negativamente por interacciones electroestáticas. Además, la presencia de ciertos grupos funcionales en la monocapa autoensamblada permite la inmovilización covalente de especies redox al electrodo, evitando que su respuesta electroquímica esté controlada por la
Técnicas de análisis y caracterización de materiales
716
+
HS
NH2
Au
Au
difusión de la especie hacia el electrodo. Sin embargo, hay que tener en cuenta que el enlace S-Au es poco estable en condiciones reductivas, y por tanto hay que evitar aplicar potenciales muy negativos al electrodo para evitar la desorción de la monocapa autoensamblada de tioles. Los tioles de cadena corta son los menos estables, ya que forman monocapas menos compactas y organizadas debido a la debilidad de las fuerzas intermoleculares de van der Waals en ese caso. El intervalo de trabajo para electrodos de oro modificados con monocapas de tioles va desde –0,8 V hasta +1 V vs. Ag/AgCl.
S
NH2
S
NH2
S
NH2
Figura 17.5. Esquema de modificación de un electrodo de oro con una monocapa autoensamblada de 4-aminotiofenol (SAM).
Para la modificación de electrodos de platino se puede oxidar primero el metal en medio ácido para formar grupos hidroxilos y en una segunda etapa hacerlos reaccionar con un derivado de silano para formar un enlace siloxano. Esto permite unir covalentemente un amplio número de compuestos diferentes. Los electrodos de ITO, al ser óxidos, ya presentan los grupos hidroxilo en su superficie; con lo que se pueden hacer reaccionar con derivados de silano evitando el medio ácido, que por otra parte ataca a este tipo de electrodos. Tradicionalmente, los electrodos de carbono se han modificado por oxidación en medio ácido fuerte (con HNO3 o H2SO4) de su superficie, lo que genera un aumento de los grupos carboxílicos superficiales; dichos grupos se pueden activar con carbodiimida y hacer reaccionar con compuestos aminados para formar enlaces amidas. Sin embargo, la oxidación de la superficie de carbono da lugar a una funcionalización heterogénea, ya que además se forman otros grupos funcionales. Por ello, la modificación ha evolucionado hacia la reducción electroquímica de derivados de sales de diazonio. En este método se genera una especie radical que da lugar a un fuerte enlace covalente C-C entre el compuesto y el electrodo. De este modo se puede funcionalizar la superficie del electrodo formando una monocapa más homogénea y organizada que por el método de oxidación ácida de la superficie de carbón. Es importante controlar adecuadamente las condiciones de reducción de la sal de diazonio para minimizar la polimerización durante el proceso, ya que el intermedio de la reacción es un radical con afinidad por la posición orto de otro anillo aromático (Figura 17.6).
+
717
eN+
NO2
N
Carbono
Carbono
Métodos electroanalíticos
NO2
NO2 NO2
Carbono
Carbono
NO2
NO2
NO2
NO2
Figura 17.6. Esquema de modificación de un electrodo de carbono por reducción electroquímica de una sal de diazonio.
17.3.3. elección de disolvente y electrolito soporte El primer requisito es que el disolvente tenga una resistencia eléctrica baja, con lo que su constante dieléctrica debe ser mayor o igual a 10. Por lo tanto, los disolventes más utilizados son el agua y disolventes orgánicos polares como el acetonitrilo, dimetilsulfóxido, dimetilformamida y los alcoholes. La elección tanto del disolvente como del electrolito soporte depende de las condiciones de la medida electroquímica. Tanto el analito como el electrolito soporte deben ser solubles y estables en el disolvente, además de inertes entre sí. La solubilidad del electrolito soporte en el disolvente debe ser mayor que 0,1 M, mientras que la concentración habitual de las especies redox en medidas electroanalíticas no suele ser superior a 1 mM. Si la especie redox es una biomolécula, por ejemplo una proteína redox, hay que usar agua como disolvente, ya que las proteínas tienden a desnaturalizarse en medio orgánico. En cambio, muchos compuestos orgánicos e inorgánicos redox son poco solubles en medios acuosos, y en consecuencia requieren disolventes orgánicos. Son numerosas las sales iónicas que se pueden usar como electrolito soporte en medio acuoso, siendo las más habituales KCl, NaCl, K2SO4, etc. Un electrolito soporte muy utilizado por su alta solubilidad en medio orgánico, es el hexafluorofosfato de tetrabutilamonio. Además, el disolvente y el electrolito soporte deben ser electroquímicamente inertes en el intervalo de potenciales del experimento y no deben reaccionar con el compuesto redox a estudiar, ni con ninguno de los productos o intermedios de la re-
Técnicas de análisis y caracterización de materiales
718
acción electroquímica. Los electrodos metálicos sufren de adsorción por parte de cloruros y otros haluros, lo que puede pasivar un electrodo de platino, o producir corrientes de oxidación altas a potenciales positivos en el caso del oro. Por lo tanto, para estos electrodos es preferible utilizar sales de sulfatos o fosfatos como electrolito soporte. El agua y los alcoholes se oxidan fácilmente, por lo que para hacer medidas a potenciales muy positivos se utilizan otros disolventes orgánicos como acetonitrilo. A potenciales muy negativos se reducen los protones del medio a H2 dando lugar a intensidades de corriente muy altas. Para evitar este fenómeno en medidas a potenciales más negativos que –1 v respecto al RE de calomelanos, se utiliza un disolvente orgánico aprótico, como dimetil sulfóxido o acetonitrilo.
17.4. Técnicas elecTrOanalíTicas Las técnicas electroanalíticas más habituales consisten en etapas de potencial (cronoamperometrías y cronoculombimetrías), barridos de potencial (voltamperometrías), combinación de barridos y etapas (voltamperometrías de pulsos) o medidas de impedancia faradaica. El sistema modelo para cada técnica se considera el formado por la reducción monoelectrónica de la especie oxidada (O) a la especie reducida (R), donde ambas especies son solubles y solo O está presente al inicio en la disolución.
17.4.1. cronamperometría La cronoamperometría estudia el comportamiento de un sistema electroquímico midiendo la intensidad de corriente en función del tiempo tras una etapa de potencial. Se aplica un potencial de inicio Ei en el que la especie O es inactiva electroquímicamente y a continuación el potencial se lleva al potencial final Ef, al cual O se reduce completamente a R; es decir, Ef se elige de manera que la concentración de O en la superficie del electrodo sea cero según la ecuación de Nernst. Si la velocidad del proceso redox está controlada solo por la difusión de O hacia el electrodo, la expresión teórica para la evolución del perfil de la concentración de O se obtiene resolviendo la segunda ley de difusión de Fick con las condiciones límite apropiadas y para el caso de un electrodo plano. De este modo la intensidad de corriente medida en función del tiempo se ajusta a la ecuación de Cottrell: i(t ) =
FADO1/ 2 CO π1/ 2 t1/ 2
[17.14]
donde DO es el coeficiente de difusión de la especie O, CO su concentración en el seno de la disolución y A es el área del electrodo. La ecuación de Cottrell predice un decaimiento de la corriente frente al tiempo. Es posible comprobar si la corriente de un sistema redox está controlada por difusión representando la corriente i vs. t–1/2. Si el control del proceso es difusional dicha representación es lineal, y ha de
Métodos electroanalíticos
719
pasar por cero en el origen de ordenadas. Además, si A es conocido podemos calcular DO a partir del valor de la pendiente. Si A no se conoce (el área electroactiva puede ser mayor que la geométrica debido a la rugosidad del electrodo) se puede determinar a partir de una medida de cronoamperometría de un compuesto con D conocido. Aunque en la teoría se espera que la corriente que pasa por un electrodo plano decaiga a cero a tiempos largos, en la práctica esto no se observa debido a las convecciones naturales en la disolución tras 30 s, a causa de gradientes de temperatura, densidad y vibración. Además, a tiempos cortos el experimento se ve afectado por la carga de la doble capa. La intensidad de corriente capacitiva ic sucede en paralelo a la corriente faradaica y contribuye a la respuesta global de la corriente, aunque decae más rápidamente con el tiempo que la faradaica. En el caso de que el proceso redox sea irreversible entonces la intensidad de corriente no está controlada solo por el transporte de masa, sino también por la cinética de transferencia electrónica heterogénea (entre el compuesto y el electrodo). En este caso la intensidad de corriente medida a tiempos cortos será menor que la predicha por la Ecuación de Cottrell.
17.4.2. electrólisis En la mayoría de las técnicas electroanalíticas la cantidad de compuesto redox consumido o producido en el electrodo es despreciable frente a la cantidad presente en el seno de la disolución. En cambio, la electrólisis altera significantemente la concentración del analito. Esto requiere una relación grande entre área del electrodo (A) y el volumen de la disolución (V ), así como condiciones de muy alta eficiencia para el transporte de masa. Normalmente la electrólisis se lleva a cabo desde una etapa de potencial Ei, donde no se observa ninguna corriente faradaica, hasta una etapa con potencial Ef, donde la reacción está controlada por el transporte de masa, es decir, que el compuesto se consuma al 100% en el electrodo. Normalmente, en esta técnica se mide la variación de intensidad de corriente con el tiempo i(t ) y se integra la corriente para obtener la carga consumida en función del tiempo Q(t ), que viene dada por la siguiente ecuación: Q ( t ) = nFVCO ( 0 ) −
V i(t ) AmO
[17.15]
Donde CO(0) es la concentración inicial de la especie O en la disolución y mO es el coeficiente de transferencia de masa de la especie O. Las aplicaciones más habituales de la electrólisis son la determinación del número de electrones del proceso redox (n) o la cantidad total de especie redox presente en la disolución (electrogravimetría) a través de la ordenada en el origen de la representación lineal de Q(t ) vs. i(t ). Además, cualquier desviación de la linearidad de la representación indica complejidad en el mecanismo de reacción (por ejemplo, reacciones acopladas).
Técnicas de análisis y caracterización de materiales
720
17.4.3. voltamperometría En esta técnica se mide la intensidad de corriente frente al potencial que se aplica al electrodo, el cual varía linealmente con el tiempo (barrido de potencial) entre dos valores límite. En la voltamperometría de barrido lineal dicho barrido tiene lugar en un solo sentido, mientras que en la voltamperometría cíclica se hace en ambos sentidos, reducción y oxidación. Se pueden medir múltiples ciclos para, por ejemplo, estudiar la formación de una película sobre el electrodo. Se pueden usar otras formas de onda para estudiar la formación y la cinética de intermedios en reacciones químicas acopladas. La elección de los parámetros para formar la onda es el paso más importante en la preparación del experimento. Los potenciales de inicio y de retorno determinan la fuerza impulsora para la transferencia de electrones y el estado de oxidación de las especies químicas involucradas. La elección adecuada de dichos potenciales determinará si las especies se forman o se consumen, y si la reacción está bajo control cinético o de transporte de masa. La velocidad de barrido (ν) determina la escala de tiempo del experimento. En reacciones homogéneas, el valor de ν determinará si los intermedios se forman o se consumen y en qué extensión. Normalmente, la ν seleccionada está entre 1 mv · s–1 a 1 v · s–1. Los métodos de voltamperometría producen curvas de corriente-voltaje, que resultan características del mecanismo de reacción y de las condiciones cinéticas. Al combinar esta información con la facilidad para cambiar los parámetros del análisis, la voltamperometría cíclica se convierte casi siempre en la primera técnica que se utiliza para estudiar un sistema nuevo. Es particularmente útil para dilucidar los mecanismos de reacción, incluso cuando hay complicaciones adicionales como las reacciones homogéneas, o la adsorción en la superficie. Estas técnicas también proporcionan información cuantitativa. A
B
ip I/A
I/A
E/V
E/V
Figura 17.7. (A) voltamperograma cíclico típico para un proceso reversible controlado por difusión. (B) voltamperograma cíclico típico para un proceso irreversible controlado por difusión.
Métodos electroanalíticos
721
El voltamperograma cíclico de un proceso faradáico reversible controlado por difusión sobre un electrodo plano inerte se puede ver en la Figura 17.7 A. Su forma es consecuencia de la evolución de los perfiles de concentración resultantes del barrido de potencial en un sistema difusión planar. Al cambiar el potencial del electrodo se cambia la concentración de las especies O y R, induciendo su difusión entre el electrodo y el seno de la disolución. A partir de la primera ley de Fick de la difusión, la corriente es proporcional al gradiente de concentración en la superficie del electrodo. Cuando se barre el potencial en el sentido negativo se observa una onda debida a la reducción de O, dicha onda llega a un máximo de i a un E más negativo que el potencial formal del par redox (E’), y luego disminuye debido al control del proceso por difusión lineal de O hacia el electrodo. En el barrido de vuelta se observa una onda de forma similar debida a la oxidación de R, con un máximo de i a un E más positivo que E’. El E’ de un par redox reversible se puede determinar a partir de los valores de potencial de pico de la onda anódica (Epa) y catódica (Epc), de modo que: E pa + E pc
E' =
2
[17.16]
Uno de los valores clave que se obtiene de la voltamperometría es la corriente de pico (ip) de ambas ondas, que para un proceso controlado por difusión sobre un electrodo plano viene dada por i p = 0 , 4463
n3 / 2 F 3 / 2 R
1/ 2
T
A D01/ 2 C0 ν1/ 2
1/ 2
[17.17]
Esta ecuación se conoce como la ecuación de Randles-Sevcik y predice que el pico de la corriente es proporcional a la raíz cuadrada de la velocidad de barrido. Así, representando ip vs. ν1/2 se debe encontrar una relación lineal que pase por el origen, cuya pendiente sirve para determinar el coeficiente de difusión. Para caracterizar un voltamograma cíclico como reversible se deben cumplir los siguientes factores: i p ∞ n1/ 2 ∆E p = E pa − E pc =
59 mV a 298 K n
ΔEp es independiente de ν Ep – Ep/2 =
59 mV a 298 K n
Donde Ep/2 es al potencial a la altura media del pico. ip,a = – ip,c
Técnicas de análisis y caracterización de materiales
722
En los experimentos de voltamperometría hay que tener en cuenta la contribución de la corriente capacitiva, que aparece por la variación contínua del potencial. Por lo tanto, en la determinación de los valores ip hay que substraer la ic, que normalmente se estima trazando una línea base en el voltamperograma como se muestra en la Figura 17.7A. Dado que la ic aumenta linealmente con la velocidad de barrido del potencial según la ecuación (2) e ip solo aumenta con la raíz cuadrada de esta, el error de medida de ip será mayor a velocidades de barrido más rápidas. La forma del voltamperograma cíclico cambia significativamente cuando la velocidad de transferencia de electrones es inferior a la velocidad del transporte de masas, es decir, cuando el sistema deja de ser reversible electroquímicamente (Figura 17.7B). En este caso, los picos se ensanchan y la separación de picos aumenta debido al gran sobrepotencial necesario para igualar la velocidad de transferencia de electrones. Además, como la escala de tiempo para cada ciclo disminuye con v, la separación de picos aumenta con ν. En el caso límite en que la velocidad de transferencia de electrones es muy baja desaparece el pico inverso, lo que se conoce como sistema irreversible.
I/A
E/V
Figura 17.8. Voltamograma cíclico típico para un proceso de reducción-oxidación confinado en la superficie del electrodo.
Los experimentos de voltamperometría cíclica son muy sensibles a las reacciones redox que involucran la adsorción de un reactivo o un producto. Esto se debe a que en ese caso no hay que tener en cuenta el transporte de masa. La forma típica de un voltamograma cíclico para una transferencia de electrones ideal Nernstiana con la adsorción descrita según la isoterma de Langmuir (solo son efectivas las interacciones de repulsión de corto alcance entre los adsorbatos) se muestra en la Figura 17.8. Consiste en dos picos simétricos, donde la carga (área bajo los picos) para la oxidación y la reducción son iguales, y todas las especies adsorbidas sufren la reducción/oxidación. Por lo tanto se puede calcular la cantidad de la especie adsorbida mediante la integración del pico. Dado que la carga es constante, si se
Métodos electroanalíticos
723
incrementa la velocidad de barrido el pico de corriente también crece según la expresión: ip =
n2 F 2 νAΓO 4 RT
[17.18]
donde ГO es el recubrimiento máximo de la especie oxidada. La ecuación predice que la corriente de pico aumenta linealmente con la velocidad de barrido. Por consiguiente, una forma clara de distinguir el proceso redox de una especie adsorbida del de una especie en disolución pasa por la representación gráfica de ip frente a υ, encontrando un ajuste lineal solo para especies adsorbidas. Las características que definen el voltamperograma cíclico de una adsorción ideal de Nernst con isoterma de Langmuir son: ∆E p = 0 i p, a = – i p, c Qa = −Qc 90 mV a 298 K ∆E p / 2 = n La forma de los picos es un indicador de la naturaleza de las interacciones entre los adsorbatos. Si las interacciones son repulsivas ΔEp/2 se hace mayor que el valor ideal, mientras que interacciones atractivas causan que ΔEp/2 sea menor. Por otro lado, la separación entre pico anódico y catódico en el eje de potencial es indicativo de la falta de reversibilidad del proceso de transferencia de electrones. Cuanto mayor es ΔEp, más irreversible es la transferencia de electrones.
17.4.4. voltamperometrías por pulsos Estos métodos utilizan formas de onda de potencial complejas que tienen combinaciones de barridos y etapas. Se desarrollaron para mejorar los límites de detección de analitos redox mediante aumentos significativos de la intensidad de corriente medida. Algunos ejemplos de voltamperometrías por pulsos son las técnicas de voltamperometría escalonada (SCv), voltamperometría de pulso normal (NPv), voltamperometría de pulso diferencial (DPv) y la voltamperometría de onda cuadrada (SWv), las cuales se muestran en la Figura 17.9. En estas técnicas se aplica el potencial redox mediante pulsos, y se mide la intensidad de corriente unos 40 milisegundos después de haber mantenido constante dicho pulso. Este proceso incrementa la sensibilidad de la medida amperométrica, ya que al terminar el pulso la corriente capacitiva decae mucho más rápido que la componente faradaica y consecuentemente es despreciable. El resultado es una respuesta voltamperométrica cuasi-gaussiana, caracterizada por una supresión de la corriente no faradaica de fondo excelente y ofreciendo información cuantitativa mejorada en un amplio intervalo de escalas de tiempo.
Técnicas de análisis y caracterización de materiales
724 A
B (a) (a)
(b) Potencial
(b) i
(c)
(d)
(c) (d)
tiempo
E
Figura 17.9. Formas de onda de potencial (A) y respuestas de corriente típicas para un proceso reductivo (B) de las diferentes técnicas de voltamperometrías por pulso: (a) voltamperometría escalonada, (b) voltamperometría de pulso normal, (c) voltamperometría de pulso diferencial y (d) voltamperometría de onda cuadrada. Los puntos representan los tiempos a los que se mide la corriente.
17.4.5. voltamperometría de redisolución Esta técnica, conocida como stripping voltammetry en inglés, se utiliza para determinaciones cuantitativas, en particular de metales y complejos metálicos. El procedimiento consiste en una primera etapa de electrólisis, en la que los analitos se adsorben sobre la superficie del electrodo como consecuencia de sus reacciones electroquímicas, seguida de un barrido de potencial para redisolver las especies preconcentradas sobre el electrodo al producirse la reaccion electroquímica contraria. Dependiendo de la naturaleza del analito se utilizan diferentes modos de la técnica. La más habitual es de voltamperometría anódica de redisolución (ASv) sobre un electrodo de mercurio (gota o película). La aplicación más extendida de este método es el análisis de iones metálicos, ya que el paso de preconcentración por electrólisis permite límites de detección hasta 10–11 M. Mediante este método los cationes se reducen formando una amalgama, para ser oxidados posteriormente durante el barrido de potencial. La cantidad de metal se calcula a partir de la carga bajo el pico de la señal. Usando métodos de calibrado o de adiciones estándar, esta cantidad se puede relacionar con la concentración del metal en el analito. Para esto, todos los parámetros (potencial y tiempo de preconcentración, condiciones de agitación, temperatura, cantidad de mercurio) deben permanecer constantes a lo largo del calibrado e idénticas a las que se usan con la muestra la Figura 17.10.
Métodos electroanalíticos
725
A
B Cese de agitación
M1
M2
I/A
Potencial
M3
Deposición Reposo 10-15 m 30 s
Redisolución 10-100s
Figura 17.10. Evolución del potencial aplicado (A) y respuesta electroquímica de reoxidación de tres especies metálicas M1, M2 y M3.
17.4.6. amperometrías con electrodos rotatorios de disco Es la técnica electroanalítica hidrodinámica clásica que se utiliza para reducir el grosor de la capa de difusión durante la medida. La convección forzada por este método tiene varias ventajas: se establece rápidamente una alta velocidad en el estado estacionario del transporte de masa, y una convección de fácil control y reproducible a lo largo de un rango amplio de coeficientes de transporte de masa. Como inconvenientes se encuentra que la construcción de electrodos y celdas no es sencilla. El electrodo rotatorio de disco (RDE) consiste en un cilindro (metálico o de carbón) insertado en un soporte aislante como PTFE o teflón, ofreciendo únicamente la base del electrodo a la disolución. El electrodo se rota a lo largo de su eje vertical, normalmente entre 400 y 10.000 rpm. La teoría de la hidrodinámica en el RDE asume que el electrodo es accesible de manera homogénea y permite un control preciso y reproducible de la convección y la difusión de reactivo al electrodo. De esta manera, el RDE se puede usar para estudiar la cinética de los procesos en la interfase. El tratamiento teórico conduce a un perfil de concentración del reactivo frente al RDE y define una capa con un grosor δ0 donde la difusión es el único modo de transporte de masa δ0 = 4 , 98 D01/ 3 ν1/ 6 ω –1/ 2
[17.19]
donde ω es la velocidad de rotación en rpm del RDE. A partir del perfil de concentración se deriva una expresión para la intensidad de corriente limitante, que se conoce como ecuación de Levich: il = 0 , 201 nFAD02 / 3 ν−1/ 6 C0 ω1/ 2
[17.20]
Técnicas de análisis y caracterización de materiales
726
Normalmente, la corriente limitante se mide para diferentes valores de ω realizando voltamperogramas de barrido lineal a baja velocidad (1-10 mv · s–1), para asegurar condiciones estacionarias. Para un proceso redox reversible la forma del voltamperograma es sigmoidal, alcanzándose dos platós de corriente que corresponden a las il anódica y catódica, de igual magnitud y signo opuesto. A través de la ecuación de Levich se obtiene una representación de il frente a ω1/2, que debe ser una línea recta que pasa por el origen. Cuando a valores de ω altos se producen desviaciones de la linealidad, quiere decir que hay limitaciones cinéticas del proceso redox. En este caso la intensidad de corriente a un potencial redox dado sigue la ecuación: 1 1 1 = + 2 / i ik 0 , 201 nFAD0 3 ν−1/ 6 C0 ω1/ 2
[17.21]
Representando la dependencia de i –1 frente a ω–1/2 se obtiene el denominado diagrama de Koutecky-Levich, que consiste en una línea recta cuya ordenada en el origen corresponde permite determinar ik, es decir la intensidad de corriente en ausencia de limitación por transporte de masa (ω = ∞). Teniendo en cuenta que: i = nFAkCo
[17.22]
podemos determinar la constante de velocidad (k) de la reacción electroquímica a un potencial redox dado. Una extensión de la metodología RDE es el uso del electrodo rotatorio de discoanillo (RRDE), en el cual el disco central está rodeado por un anillo aislante, y luego por un WE anular secundario. El propósito de esta configuración es generar electroquímicamente una especie reactiva en el disco y luego detectar electroquímicamente la especie según es desplazada por el flujo laminar hacia el anillo. Esta técnica permite estudiar mecanismos de reacciones químicas acopladas a un proceso electroquímico en las que haya intermedios electroactivos, los cuales se detectan en el anillo.
17.4.7. Medidas de impedancia Al igual que para circuitos eléctricos convencionales, la impedancia de la celda electroquímica se define como: Zcell =
Ecell icell
[17.23]
donde Ecell es el voltaje a lo largo de la celda e icell la corriente circulando por la celda. Los experimentos de impedancia electroquímica están compuestos de los siguientes pasos: 1) se aplica a la celda electroquímica una perturbación eléctrica de amplitud periódica pequeña (normalmente sinusoidal, aunque se pueden usar también ondas cuadradas); 2) se mide su respuesta eléctrica sobre un intervalo de frecuencias de
Métodos electroanalíticos
727
perturbación; 3) se dilucida un circuito equivalente; 4) se relacionan los componentes del circuito equivalente frente a las características físicas o químicas clave del sistema electroquímico. La configuración experimental habitual incluye un generador de ondas procesado por el potenciostato, que lleva la señal a la celda. La señal de salida va a un conversor i/E, y del conversor al analizador de respuestas de frecuencia (FRA), que compara la señal con la original para calcular la amplitud y la fase de la respuesta. La parte más importante en los experimentos de impedancia es la construcción de un circuito equivalente que emule el comportamiento eléctrico de la celda. Para esto, es necesario considerar las diferentes vías a través de las cuales las cargas iónicas están involucradas en el paso de la corriente. La espectroscopía de impedancia es una herramienta cuya versatilidad encuentra aplicación en multitud de sistemas tanto de fase líquida como sólida. En el presente capítulo nos ceñimos a una introducción a la impedancia en celdas líquidas, pudiéndose encontrar más información sobre la espectroscopía de impedancia en textos especializados (consúltese la bibliografía del capítulo). La disolución que separa los electrodos se comporta como un conductor con una resistencia, RΩ, lo que se representa como resistencia de la disolución. Por otro lado, la doble capa eléctrica de la interfase electrodo-disolución se comporta como un condensador, Cd. Simultáneamente, las especies redox intercambian electrones con el electrodo, lo que conduce a una intensidad de corriente faradaica cuya magnitud refleja la relación entre la llegada de los reactivos (velocidad de transporte de masa) y la velocidad del proceso de transferencia de electrones. Eléctricamente, esto es equivalente a dos resistencias en serie: una para la cinética de la transferencia de electrones, Rct, conocido como resistencia de transferencia de carga y otro para la velocidad de transporte de masa, ZW, conocido como impedancia Warburg. Por lo tanto, el circuito equivalente más simple consiste en cuatro componentes, tal y como se describe en la Figura 17.11. ic
Cd
R
if + ic Rct
Zw
Figura 17.11. Circuito equivalente para una reacción de transferencia de electrones reversible sencilla.
Rct tiene normalmente un máximo en el potencial de equilibrio, por lo que lo más eficiente es causar las perturbaciones del sistema electroquímico en torno a este valor. En ese punto, la relación corriente-potencial se puede linearizar, y como Rct es inversamente proporcional a la corriente de intercambio, i0:
Técnicas de análisis y caracterización de materiales
728
RT nFi0
Rct =
[17.24]
La impedancia de la transferencia de masa depende del modo de transporte de masa en la celda. Para una difusión lineal semi-infinita, ZW es un número complejo cuyas partes real e imaginaria dependen de la frecuencia de perturbación: Z W = σ ω−1/ 2 − j σ ω−1/ 2
[17.25]
donde σ=
1 1 + / 1 2 2 2 C R D1R/ 2 n F A 2 CO DO RT
y ω = 2 πf donde f es la frecuencia. Combinando la impedancia de los cuatro componentes se obtiene la impedancia global de la celda: Zcell = Z Re + j Z Im
[17.26]
donde Z Re = RΩ +
Rct + σ ω−1/ 2
(Cd σ ω1/ 2 + 1)
(
2
+ ω 2 Cd2 Rct + σ ω−1/ 2
)
2
y
Z Im = −
(
ωCd Rct + σ ω−1/ 2
(Cd σ ω1/ 2 + 1)
2
)
2
(
)
+ σ ω−1/ 2 Cd σ ω1/ 2 + 1
(
+ ω 2 Cd2 Rct + σ ω−1/ 2
)
2
La respuesta de frecuencia de la celda se representa habitualmente mediante –ZIm vs. ZRe. Esto se conoce como representación de Nyquist, Figura 17.12. La información que se puede obtener de este diagrama de impedancia son los valores de: 1) RΩ a partir de la alta frecuencia interceptada en el eje real; 2) Rct a partir del diámetro del círculo; 3) Cd de la frecuencia en el máximo del círculo.
Métodos electroanalíticos -Z Im
729
0
ω=
ω
1 RctCd
ω
45º
RΩ
RΩ + Rct
Z Re
Figura 17.12. Representación de Nyquist para la impedancia, donde se representa mediante puntos la información que se puede obtener.
Se pueden usar circuitos equivalentes cada vez más complejos para modelar un amplio rango de procesos electroquímicos (corrosión, adsorción o electrodos porosos) y para facilitar el análisis. Existen programas informáticos comerciales de impedancia que incluyen bibliotecas de circuitos equivalentes que se pueden ajustar a los datos de impedancia experimental. En todo caso, los parámetros determinados deben contrastarse con los obtenidos mediante otras técnicas electroquímicas.
17.5. aPlicaciOnes de lOs MéTOdOs elecTrOanalíTicOs 17.5.1. sensores y biosensores electroquímicos Un sensor electroquímico es un dispositivo analítico formado por un elemento de reconocimiento específico para un compuesto dado (analito) integrado con un electrodo que actúa como transductor. Dicho transductor genera una señal medible y proporcional a la concentración del analito. Cuando el elemento de reconocimiento es de origen biológico (enzima, anticuerpo, ácido nucleico, microorganismo, etc.) el dispositivo se denomina biosensor electroquímico. Los sensores y biosensores electroquímicos tienen numerosas ventajas sobre otros tipos de sensores: a) son sencillos de fabricar y fácilmente miniaturizables; b) tienen tiempos de respuesta rápidos; c) tienen amplios intervalos de detección y bajos límites de detección. Los sensores electroquímicos se dividen fundamentalmente en dos clases en función del tipo de señal que generan: potenciométricos y amperométricos. Los sensores potenciométricos son muy utilizados para detectar iones (haluros, protones, etc.) o gases (H2, O2, CO2, etc.). Los sensores amperométricos son más versátiles, pudiéndose detectar con ellos todo tipo de compuestos con propiedades redox o que den lugar a productos redox al reaccionar con el sensor. Son muy empleados porque las medidas de intensidad de corriente dependen linealmente de la concentración del
Técnicas de análisis y caracterización de materiales
730
analito y suelen tener tiempos de respuesta rápidos. Generalmente se mide la intensidad de corriente a un potencial fijo (cronoamperometría) en condiciones hidrodinámicas, mediante una celda de flujo por ejemplo, para evitar que la corriente esté limitada por difusión del analito. También se utilizan medidas voltamperométricas en algunos sensores electroquímicos, especialmente la voltamperometría diferencial de pulsos por su alta sensibilidad. El método de voltamperometría de redisolución (stripping voltammetry) se utiliza mucho para la detección de cationes metálicos, ya que la técnica permite una preconcentración del analito en la superficie del electrodo, aumentando mucho el límite de detección. La utilización de microelectrodos como transductores es muy interesante, ya que además de permitir la miniaturización del dispositivo disminuye el límite de detección del analito gracias al régimen de difusión radial de transporte de masa (en lugar de difusión lineal). Los microelectrodos también se pueden organizar en grupos con distintos elementos de reconocimiento, formando microarrays que detecten simultáneamente diferentes analitos en mezclas complejas. A
B 80 NADPH
60 i (nA)
electrodo
MAPVred
FNR
40 20
e-
+
NADP MAPVox
0
0
10
20
30
40
50
Figura 17.13. (A) Esquema de un biosensor amperométrico de NADP+ en el cual se ha co-inmovilizado por entrecruzamiento un enzima redox (ferredoxin-NADP+ reductasa, FNR) con un mediador redox (metilaminopropil viológeno, MAPv). (B) Recta de calibrado del biosensor.
Para la integración del elemento de reconocimiento y el transductor del sensor o biosensor electroquímico es habitual modificar químicamente el electrodo por lo métodos descritos anteriormente. Siguiendo el método adecuado en cada caso se inmoviliza el elemento de reconocimiento usando enlaces covalentes, interacciones electroestáticas o de afinidad. Otras posibilidades son la formación de un polímero que confine el elemento de transducción sobre la superficie del electrodo, o la fabricación de electrodos composites de carbono, en los cuales se mezclan el material conductor junto al elemento de reconocimiento del sensor junto con compuestos aglutinadores. En la Figura 17.13 se muestra la recta de calibración de un biosensor amperométrico del cofactor biológico NADP+.
Métodos electroanalíticos
731
17.5.2. estudios de mecanismo de reacción La técnica de voltamperometría cíclica es la más habitual para estudiar de forma cualitativa los procesos redox y las reacciones químicas homogéneas acopladas. Los procesos de adsorción de especies redox se detectan muy bien por esta técnica, como ya se ha explicado anteriormente, y lo mismo ocurre con las reacciones electrocatalíticas. El efecto electrocatalítico se manifiesta en un voltamperograma cíclico por un notable incremento en intensidad de corriente de una de la ondas del proceso redox (la de reducción o la de oxidación, en función de qué especie participe en la reacción catalítica) mientras la contraria disminuye en la misma medida. En el caso límite de una reacción catalítica muy rápida el voltamperograma adquiere una forma sigmoidal, alcanzándose un plató de corriente en el sentido de reducción o de oxidación mientras que la onda en el sentido contrario desaparece (Figura 17.14).
(b)
I/A (a)
E/V
Figura 17.14. Representación de un proceso no catalítico controlado por difusión (a) y el mismo proceso en presencia de un catalizador que promueve la reacción oxidativa (b).
La metodología de electrodo rotatorio de disco-anillo (RRDE) permite estudiar mecanismos de reacciones químicas acopladas a un proceso electroquímico en las que haya intermedios electroactivos. Un caso concreto de la aplicación de esta técnica es el estudio del mecanismo de reducción de O2, el cual puede reducirse directamente a H2O o mediante formación de H2O2 como intermedio: O2 + 4 H+ + 4 e– → 2 H2O O2 + 2 H+ + 2 e– → H2O2 H2O2 + 2 H+ + 2 e– → 2 H2O
732
Técnicas de análisis y caracterización de materiales
Se puede determinar en qué proporción se produce la reducción directa e indirecta de O2 en el electrodo de disco si se aplica en el electrodo anular un potencial para la reoxidación del H2O2 producido en el disco. La combinación de métodos electroquímicos con otras técnicas de caracterización in situ proporciona información muy valiosa para estudiar mecanismos de reacción. Podemos distinguir entre técnicas espectroscópicas, que proporcionan información del conjunto de la disolución electroquímica, y técnicas de caracterización de superficies, que dan información sobre la interfase electrodo/disolución. En el primer caso se utilizan celdas electroquímicas de capa fina, es decir con una gran superficie del electrodo respecto al volumen de la disolución, y con un WE transparente a la radiación electromagnética, siendo las más habituales la luz visible-ultravioleta y el infrarrojo en modo de transmisión. De este modo, se pueden detectar espectroscópicamente las especies generadas electroquímicamente o en las reacciones homogéneas acopladas, y medir cinéticas de reacción. Por otro lado, hay técnicas combinadas que permiten estudiar la morfología, composición química o configuración electrónica de la superficie del electrodo bajo control electroquímico, como son respectivamente las de AFM-electroquímico, FTIR en modo de reflectancia-electroquímico y STM-electroquímico.
17.5.3. caracterización electrocatalítica de pilas de combustible, celdas electrolíticas y baterías En estos dispositivos electroquímicos de aplicaciones energéticas, bien para producir energía eléctrica a partir de energía química (baterías y pilas de combustible) o viceversa (células electrolíticas), es deseable que las reacciones redox del ánodo y el cátodo estén catalizadas para disminuir los sobrepotenciales en estos durante su funcionamiento. Es importante por tanto caracterizar los electrocatalizadores empleados en ánodo y cátodo con el fin de optimizar la potencia generada (baterías y pilas de combustible) o consumida (celda electrolítica). El método más habitual para caracterizar las propiedades electrocatalíticas de cada electrodo en uno de estos dispositivos es medir las curvas de polarización. Esta medida se puede hacer mediante voltamperometría lineal en una configuración de tres electrodos, en la cual el WE es el electrodo que se quiera estudiar (ánodo o cátodo), el CE es el electrodo del otro compartimento de la celda, y añadimos un RE a una distancia cercana al WE. De este modo mediremos cómo varía la intensidad de corriente de la reacción electrocatalítica en función del potencial del electrodo. La velocidad de barrido de potencial debe ser baja (~1 mv/s) para permitir que se alcance el equilibrio en cada valor de potencial, y preferentemente en condiciones hidrodinámicas para disminuir la limitación cinética por transferencia de materia. En la Figura 17.15 se muestran curvas de polarización para la reducción de O2 en dos cátodos diferentes para pilas de combustible. Se aprecia como el incremento de la corriente de reducción de O2 (valores negativos) ocurre a potenciales bastante más positivos cuando el cátodo de carbono contiene Pt como electrocatalizador respecto al cátodo sin electrocatalizador, es decir, el catalizador disminuye el sobrepotencial requerido por el sistema.
Métodos electroanalíticos
733
4 2 0
i (mA)
-2 -4 -6 -8 -10 -12 -14 -0,4
-0,2
0,0
0,2
0,4
0,6
0,8
1,0
1,2
E (V)vs. SCE Figura 17.15. Curvas de polarización de reducción de O2 con un cátodo de tela de grafito (línea continua) y con un cátodo de carbono platinizado (línea de trazos).
17.5.4. estudios de corrosión La corrosión es el proceso por el cual los metales se oxidan espontáneamente (es decir, favorecido termodinámicamente) por la acción del oxígeno, agua u otros oxidantes presentes en la atmósfera, como el SO2. Por lo tanto, el fenómeno de corrosión se puede estudiar electroquímicamente como dos reacciones redox de semi-celda: la oxidación del metal y la reducción del oxidante. Utilizando el metal como electrodo en una disolución que contenga el oxidante que causa la corrosión se puede estudiar la cinética del proceso mediante curvas de polarización, es decir, midiendo la intensidad de corriente en función del potencial aplicado en el metal con agitación en la disolución. A partir de la representación de Tafel se puede determinar el potencial de corrosión, es decir el potencial en el cual la corriente neta del sistema es nula, y la corriente de intercambio a ese potencial, la cual es una medida de la velocidad de proceso de corrosión. También se puede estudiar por voltamperometría lineal la pasivación de metales. Este es un proceso por el cual el metal queda protegido de la corrosión, normalmente por que se forma una película protectora de oxido sobre el metal que ralentiza la velocidad de corrosión. En este caso, al aplicar un barrido lineal de potencial en sentido positivo se medirá inicialmente un aumento exponencial de la intensidad de corriente hasta que esta cae bruscamente al producirse el fenómeno de pasivación. El potencial al cual empieza el fenómeno de pasivación se conoce como potencial de Fladé.
734
Técnicas de análisis y caracterización de materiales
bibliOGrafía 1. Bard, A. j.; Faulkner, L. R. Electrochemical methods: Fundamentals and applications, john Wiley & Sons, Inc., New York, 1980. 2. Barsoukov, E.; MaCdonald, j. R. Impedance Spectroscopy Theory, Experiment, and Applications, john Wiley and Sons, Inc., Hoboken, New jersey, 2005. 3. HaMann, C. H. et ál. Electrochemistry, 2.ª ed., Wiley-vCH, Weinheim, 2007. 4. KissinGer, P. T.; HeineMann, W. R. Laboratory techniques in electroanalytical chemistry, Marcel Dekker, Inc., New York, 1984. 5. Linnet, N. pH measurements in theory and practice, Radiometer A/S, Copenhague, 1970. 6. RieGer, Ph. H. Electrochemistry, 2.ª ed., Chapman & Hall, Inc., New York, 1994. 7. Zoski, Z. G. Handbook of electrochemistry, Elsevier, Amsterdam, 2007.
18. crOMaTOGrafía de Gases (Gc) Jose MiGuel CaMPos Martín Instituto de Catálisis y Petroleoquímica (CsiC)
18.1. inTrOdUcción En este capítulo se va a estudiar la técnica analítica de la Cromatografía de Gases. Este capítulo no pretende ser una obra de referencia sobre el tema, puesto que existen una gran cantidad de libros completos sobre cromatografía de gases, que abordan con más profundidad y son mucho más extensos que un capitulo de un libro. Sin embargo, se pretende dar una visión global de la técnica desde el punto de vista práctico para poder conocer el funcionamiento de la misma. La cromatografía de gases, como cualquier técnica cromatográfica, consiste en la separación de una mezcla de compuestos (solutos) en componentes independientes, de modo que se facilita la identificación (calidad) y medición (cantidad) de cada uno de los componentes. Todos los procesos cromatográficos se basan en la repetición de múltiples etapas de separación, como puede ser el reparto dinámico de componentes entre dos fases. De esta forma un sistema ideal de cromatografía se puede visualizar como una repetición de etapas de reparto. Se tiene una serie de recipientes que contienen una misma cantidad de la fase 1. Esta fase permanece en cada uno de los recipientes y se conoce como fase estacionaria. Se disuelve la muestra en una segunda fase (fase auxiliar o fase móvil). Se añade la fase 2 al primer recipiente. Se deja alcanzar el equilibrio, y se traspasa la fase 2 con la muestra que queda disuelta al segundo recipiente, y se adiciona fase 2 fresca al primer recipiente (Figura 18.1). Así se continua, hasta tener al final una muestra de fase móvil (Figura 18.2). La cromatografía de gases es una técnica cromatográfica en la que la muestra se volatiliza y se inyecta en la cabeza de una columna cromatográfica, que es donde se produce la separación de los compuestos a analizar. La elución se produce por el flujo de una fase móvil de gas inerte. A diferencia de los otros tipos de cromatografía, la fase móvil no interacciona con las moléculas del analito; su única función es la de transportar el analito a través de la columna. La cromatografía de gases resulta adecuada para analizar entre un 10 y un 20% de todos los compuestos conocidos. Un compuesto puede analizarse por cromatografía de gases si posee la volatilidad y estabilidad térmica suficientes.
Técnicas de análisis y caracterización de materiales
736 Número de vial
1
2 3
4
n-1 n
Punto de partida 1.ª Repetición 2.ª Repetición
n-2 Repetición n-1 Repetición n Repetición n + Repetición Detección a la salida de la serie de partición
Figura 18.1. Serie de particiones: modo de operación con dos fases.
Operando de esta forma y con dos sustancias, A y B, se puede tener una representación de la concentración de cada una de ellas a la salida de los recipientes. B
30
A Después de 10 pasos
20
Concentración
10 30 20
B
Después de 30 pasos
A
10 B
30
A Después de 100 pasos
20 10 0
10
20
30
40
50
60
70
80
90
100
Número de vial
Figura 18.2. Partición de las sustancias A y B después de 10, 30 y 100 pasos de separación.
Cromatografía de gases
737
18.2. fUndaMenTOs de la Técnica No se va a abordar la descripción detallada del fundamento teórico del proceso cromatográfico, puesto que se puede consultar en una gran variedad de obras de referencia (ver bibliografía recomendada). Sin embargo, se va a describir una serie de términos que son muy útiles para entender las características, comportamientos, condiciones de análisis y tipos de columna cromatográfica. Comprender estos términos ayuda a la hora de comparar el rendimiento o la calidad de las columnas, y que permite solucionar problemas e interpretar los resultados obtenidos.
18.2.1. Tiempo de retención (tR) El tiempo de retención es el tiempo que un soluto tarda en recorrer la columna. Este tiempo de retención se asigna al pico de soluto correspondiente y constituye una medida de la cantidad de tiempo que un soluto tarda en pasar por una columna. Se trata de la suma del tiempo que las moléculas pasan retenidas en la fase estacionaria y el tiempo que están circulando la fase móvil.
18.2.2. Tiempo muerto (tM) El tiempo muerto es el tiempo que un compuesto no retenido tarda en recorrer la columna. Las moléculas de solutos no retenidos no entran en la fase estacionaria y realizan un recorrido por la columna a la misma velocidad que el gas portador, lo cual equivale al tiempo que un compuesto pasa en la fase móvil. Esto es igual para todos los compuestos de una serie cromatográfica. El tiempo de un pico no retenido se obtiene inyectando un compuesto no retenido y determinando el tiempo que tarda desde la inyección hasta que da señal en el detector. Con este valor se puede definir el tiempo de retención efectivo t’R que es la diferencia entre el tiempo de retención de un compuesto y el tiempo de un pico no retenido.
18.2.3. factor de retención (k) El factor de retención es otra medida de retención. Se trata de la relación de la cantidad de tiempo que un soluto pasa en la fase estacionaria y la fase móvil (gas portador). Se calcula mediante la ecuación [18.1]. El factor de retención también se conoce como relación de partición o factor de capacidad. Dado que todos los solutos pasan la misma cantidad de tiempo en la fase móvil, el factor de retención resulta ser una medida de la retención en la fase estacionaria. Así, un soluto con un valor k de 6 posee el doble de retención en la fase estacionaria (no la columna) que un soluto con un valor k de 3. El factor de retención no aporta información de retención absoluta, sino relativa. Un compuesto no retenido tiene k = 0. k =
tR – t M tM
[18.1]
Técnicas de análisis y caracterización de materiales
738
18.2.4. índice de retención (i) El índice de retención constituye una medida de la retención de un soluto con respecto a la retención de alcanos normales (hidrocarburos lineales) a una determinada temperatura. La ecuación [18.2] se emplea para calcular los índices de retención en condiciones de temperatura isotérmicas. En cuanto a las condiciones de programa de temperatura, se puede usar la ecuación [18.3]. El índice de retención de un alcano normal es igual a su número de carbonos multiplicado por 100. Por ejemplo, n-dodecano (n-C12H26) posee I = 1.200. En caso de que un soluto tenga I = 1478, se efluirá tras n-C14 y antes de n-C15, pero su tiempo de retención se encuentra más cercano al del n-C15. Los índices de retención normalizan las variables de instrumento, de manera que los datos de retención se pueden comparar en sistemas GC distintos. Asimismo, resultan convenientes a la hora de comparar las características de retención de distintas columnas. I = 100 y + 100(z – y)
log t ’R (x) – log t ’R ( y) log t ’R (z) – log t ’R ( y)
t R (x) – t R ( y) I t = 100 t R (z) – t R (z)
[18.2]
[18.3]
tR = tiempo de retención x = soluto de interés y = alcano normal con un número y de átomos de carbono que eluyen antes del soluto x z = alcano normal con un número z de átomos de carbono que eluyen después del soluto x z – y = diferencia en número de átomos de carbono existente entre los dos alcanos normales
18.2.5. Factor de separación (α) El factor de separación es una medida del tiempo o la distancia existente entre los valores máximos de dos picos. Se calcula por medio de la ecuación [18.4] a partir del factor de retención de dos compuestos retenidos. Si α = 1, ambos picos tendrán el mismo tiempo de retención y coeluirán. α=
k2 k1
k1 = factor de retención del pico que eluye primero. k2 = factor de retención del pico más retenido.
[18.4]
Cromatografía de gases
739
18.2.6. número de platos teóricos (N) También denominado eficiencia de la columna. El número de platos teóricos es un concepto matemático y se puede calcular utilizando la ecuación [18.5]. Una columna capilar no contiene nada que se parezca a los platos de destilación físicos u otras características similares. El número de platos teóricos constituye una medida indirecta de la anchura de un pico a un tiempo de retención determinado. t N = 5 , 545 r w h
2
[18.5]
N = número de platos teóricos tR = tiempo de retención wh = anchura de pico a la mitad de altura (en unidades de tiempo) Aquellas columnas con número de platos elevado son más eficientes que otras columnas con un número de platos inferior. Una columna con un alto número de platos teóricos tendrá un pico más estrecho en un tiempo de retención determinado que una columna con un número N inferior. La eficiencia de la columna elevada es ventajosa por cuanto requiere una menor separación de pico (esto es α menor) para resolver completamente los picos estrechos. En fases estacionarias donde los alfas (α) son pequeños, serán necesarias columnas más eficientes. La eficiencia de la columna es una función de las dimensiones de la columna (diámetro, longitud y espesor de la película), el tipo de gas portador y su velocidad de flujo o velocidad lineal promedio y, por último, el compuesto y su retención en la fase estacionaria. El número de platos teóricos por metro (N/m) se emplea a menudo con fines de comparación entre columnas. La cantidad de platos teóricos es válida únicamente en relación con un conjunto de condiciones específicas. En concreto, es necesario reunir unas condiciones de temperatura isotérmicas, ya que los programas de temperatura dan como resultado cantidades de platos muy desorbitadas e inexactas. Asimismo, el factor de retención (k) del soluto de prueba utilizado para calcular las cantidades de platos debe ser superior a 5, ya que los picos con menos retención dan como resultado números de platos exagerados. Para que una comparación de los números de platos teóricos entre columnas sea válida, es necesario que las condiciones de temperatura y de retención de pico sean las mismas.
18.2.7. equivalente en altura a un plato teórico (H) Otra medida de la eficiencia de la columna es el equivalente en altura a un plato teórico (designado como H, en algunos textos HETP de las siglas en inglés), que se calcula por medio de la ecuación [18.6] y que habitualmente se indica en milímetros. Cuanto más corto sea el plato teórico, mayor será el número de platos «contenidos» en una longitud de columna. Obviamente, esto se traduce en más platos por metro y en una mayor eficiencia de la columna.
Técnicas de análisis y caracterización de materiales
740
H =
L N
[18.6]
L = longitud de columna (mm) N = número de platos teóricos
18.2.8. resolución (R) No es sorprendente que cuanto mayor sea la resolución, menor será el solapamiento entre dos picos. La separación es únicamente la distancia o tiempo entre el máximo de dos picos (α). La resolución tiene en cuenta tanto el alfa (α) como la anchura de los picos. Se calcula utilizando cualquier de las expresiones de la ecuación [18.7]. La resolución de línea de base suele tener lugar en el número de resolución 1,50, si bien no existe línea de base visible entre los dos picos. Los números por encima de 1,50 indican que existe una línea de base entre los picos, mientras que los que estén por debajo señalaran que existe un cierto grado de coelución. t R1 – t R 2 R = 2 wb1 + wb 2
t – tR2 o R = 1,18 R1 w + w h1 h2
[18.7]
tR1 = tiempo de retención del primer pico tR2 = tiempo de retención del segundo pico wh1 = anchura de pico a la mitad de altura (en unidades de tiempo) del primer pico wh2 = anchura de pico a la mitad de altura (en unidades de tiempo) del segundo pico wb1 = anchura de pico en la base (en unidades de tiempo) del primer pico wb2 = anchura de pico en la base (en unidades de tiempo) del segundo pico La resolución (R) se encuentra relacionada con el factor de separación (α), el número de platos teóricos (N) y el factor de retención (k), mediante la ecuación [18.8]. De esta forma se pueden deducir que factores afectan a la resolución. R=
1 k ( α – 1) 4 1+ k
N
[18.8]
– Término de selectividad: R es directamente proporcional a (α – 1). Por lo tanto un aumento en el factor de separación da lugar a una mejora de la resolución. Este efecto se puede conseguir por ejemplo cambiando la polaridad de la fase estacionaria. En general, el factor de separación disminuye al aumentar la temperatura, por lo tanto las separaciones más complicadas se deben realizar a la menor temperatura posible. Los cambios del término de selectividad (α – 1) son los más efectivos a la hora de mejorar la resolución.
Cromatografía de gases
741
– Término de retención: la resolución es directamente proporcional al tiempo de residencia de un componente en la fase estacionaria en función del tiempo de retención total (factor de retención). Los componentes que solo permanecen en la fase móvil (k = 0) no se pueden separar. Los compuestos muy volátiles o no polares de bajo peso molecular en general tienen interacciones muy débiles con la fase estacionaria, y por lo tanto, k es muy pequeña. Por esta razón, k es mucho menor que (1 + k), y en consecuencia R es muy pequeña. Similar efecto se tiene cuando se opera con columnas con muy poca cantidad de fase estacionaria y compuestos de mayor peso molecular. En estos casos, la mejor forma de aumentar la resolución es aumentar el contenido de fase estacionaria. – Término de dispersión: el número de platos teóricos es una característica de una columna, y está relacionado con la longitud de la columna si se mantienen otros parámetros. Un aumento de N da lugar a un incremento de la resolución, pero únicamente aumenta con la raíz cuadrada. Así por ejemplo, si se aumenta la longitud al doble solo se incrementa la resolución 1,41 veces, pero se dobla el tiempo de análisis, porque el tiempo de retención es proporcional a la longitud.
18.2.9. Relación de fase (β) La relación de fase de una columna, β, consiste en un valor sin dimensión calculado con la ecuación [18.9]. Si se mantiene la misma fase estacionaria y el mismo programa de temperatura de columna (programada o isotérmica), el cambio en la relación de fase podrá servir para calcular el cambio en la retención de un soluto. Esta relación se expresa por medio de la ecuación [18.9]. La constante de distribución (KC) es la relación de la concentración del soluto en las fases estacionaria y móvil. La constante de distribución es fija para la misma fase estacionaria, temperatura de columna y soluto. β=
r 2d f
[18.9]
r = radio de la columna (micrómetros, μm) df = espesor de la película (micrómetros, μm) Por lo tanto, para una fase estacionaria y una temperatura de columna determinadas es posible establecer la cantidad y la dirección de cualquier cambio en la retención con respecto a un cambio en el diámetro de la columna o en el espesor de la película. La ecuación [18.10] pone de manifiesto que un aumento en la relación de fase tiene como resultado una disminución de la retención (k) (dado que KC es una constante) y que, a la inversa, con una disminución en la relación de fase se obtiene el correspondiente aumento de la retención (k). Kc =
cS cM
r = k β = k 2 d f
cS = concentración de soluto en la fase estacionaria cM = concentración de soluto en la fase móvil
[18.10]
742
Técnicas de análisis y caracterización de materiales
La ecuación [18.9] refleja que la relación de fase decrece con una disminución del diámetro o un aumento del espesor de la película. Cualquiera de estos cambios de columna deriva en un aumento de la retención de solutos. Hay ocasiones en que se quiere alterar el diámetro de la columna o el espesor de la película para obtener un efecto concreto (mayor eficiencia), pero sin modificar la retención. Para ello, se deberá cambiar el diámetro de la columna y el espesor de la película de manera proporcional.
18.2.10. Mecanismo y procedimientos generales de la cromatografía de gases El primer paso en cromatografía de gases es suministrar uno o varios gases de elevada pureza al equipo de cromatografía de gases. Uno de estos gases (denominado gas portador) entra por el inyector, atraviesa la columna hacia el detector. A continuación, se introduce una muestra en el inyector, que se encuentra generalmente a una temperatura de entre 150 y 250 °C, lo cual provoca que los solutos de muestra volátiles se vaporicen. Estos solutos vaporizados se transportan por la columna por medio del gas portador, en todo este proceso la columna se encuentra en el interior de un horno a temperatura controlada. Los solutos recorren la columna a diversas velocidades, que vienen determinadas principalmente por sus propiedades físicas, así como por la temperatura y composición de la propia columna. El soluto menos retenido por la fase estacionaria es el primero en salir (eluir) de la columna, seguido por el resto de solutos en el orden correspondiente. A medida que cada soluto eluye, entra en el detector calentado, donde se genera una señal electrónica en función de la interacción del soluto con el detector. Un sistema de datos almacena la señal, y la representa en función del tiempo transcurrido. Esta representación se llama cromatograma.
18.2.11. interpretación de cromatogramas El tamaño de un pico se corresponde con la cantidad de compuesto en la muestra, y de la sensibilidad del detector frente a ese compuesto. Así, cuanto mayor sea la concentración de un compuesto, mayor será el pico obtenido. El tiempo de retención es el tiempo que un compuesto tarda en recorrer la columna. Si la columna y todas las condiciones de funcionamiento de un compuesto se mantienen constantes, este siempre tendrá el mismo tiempo de retención. El tamaño de pico y el tiempo de retención sirven para determinar la cantidad de un compuesto. No obstante, es importante incidir en que la identificación de un compuesto no se realiza exclusivamente a partir del tiempo de retención. Antes, deberá analizarse una cantidad conocida de una muestra del compuesto a fin de establecer el tiempo de retención y el tamaño de pico. Tras ello, este valor podrá compararse con los resultados de una muestra no conocida para saber si el compuesto buscado está presente (comparando los tiempos de retención) y en qué cantidad (comparando el tamaño de pico).
Cromatografía de gases
743
El cromatograma ideal presenta picos cercanos entre si que no se solapan (coelución). Esto es importante por dos motivos: primero, porque la coelución impide medir picos de manera precisa y, segundo, porque en caso de que dos picos presenten el mismo tiempo de retención, ninguno se podrá identificar con exactitud.
18.3. insTrUMenTación La cromatografía de gases se lleva a cabo en un equipo que se llama cromatógrafo de gases. Este equipo consta de diversos componentes: sistema de inyección de muestra, horno, columna/s (que se encuentra dentro del horno), detector/es y sistema de adquisición de datos (Figura 18.3). Además de las partes que constituyen un cromatógrafo de gases, existe un componente muy importante que es el gas portador. El gas portador cumple básicamente dos propósitos: actuar como fase móvil, y crear una matriz adecuada para el detector. Un gas portador debe reunir ciertas condiciones: ser inerte (tanto con la muestra como con la fase estacionaria), minimizar la difusión gaseosa, tener elevada pureza y adecuado al detector a emplear. Generalmente se emplean gases como el helio, argón, nitrógeno e hidrógeno, y la elección de este gas en ocasiones depende del tipo de detector empleado. Registrador
Microjeringa
Regulador de presión
Divisor de flujo Septum Regulador de flujo
Detector
Electrómetro o puente DAC Ordenador
Rotámetro Gas portador
Columna
Horno termostatizado
Figura 18.3. Esquema simplificado de los componentes de un cromatógrafo de gases.
La pureza de los gases es sumamente importante, se requieren niveles mayores de 99,995% de pureza. Sin embargo, algunas fases estacionarias son muy sensibles a los contaminantes, por lo que se hace necesaria la instalación de trampas para eliminar los principales compuestos en el gas portador (hidrocarburos, agua, oxígeno, etc.). Según las curvas de van Demter (HEPT vs. velocidad Lineal), el mejor gas portador es el hidrógeno. El hidrógeno es el gas portador que da mejor resolución y menor pérdida de carga. Sin embargo, dada su peligrosidad se utiliza helio como mejor alternativa.
Técnicas de análisis y caracterización de materiales
744
18.3.1. Hornos La temperatura es una variable importante, ya que de ella va a depender el grado de separación de los diferentes analitos. Para ello, debe ajustarse con una precisión de décimas de grado. La temperatura de trabajo depende de varias variables: 1) no puede sobrepasar la temperatura máxima de funcionamiento de la columna (fase estacionaria), 2) debe trabajar por lo menos a una temperatura igual o ligeramente superior al punto de ebullición del analito o analitos. Si los compuestos que están presentes en la mezcla a analizar presentan una gran variedad de puntos de ebullición se debe hacer un programa de temperatura en el horno, para que todos los picos salgan separados y con un tiempo de retención lo menor posible. El programa de temperatura puede ser un incremento continuo (rampa) o por etapas a lo largo del análisis. En muchas ocasiones, el ajustar correctamente la rampa puede significar separar bien o no los diferentes analitos. Aunque a mayor temperatura la elución de los compuestos es más rápida, es recomendable utilizar temperaturas bajas para evitar el riesgo de descomponer los analito. Los hornos de cromatografía de gases calientan las columnas mediante aire caliente. Este sistema permite calentar de forma rápida y homogénea las columnas, y hacer programas de temperatura a velocidades bastante elevadas (hasta 70 ºC/min).
18.3.2. columnas La columna de cromatografía es el lugar donde se encuentra la fase estacionaria, y por lo tanto donde se produce la separación de los analitos. Esta separación se produce por la interacción de los componentes de la mezcla a analizar y los compuestos presentes en la columna. Las moléculas de los compuestos que se introducen en la columna se distribuyen entre la fase estacionaria y la móvil. El proceso de separación de los compuestos a lo largo de una columna es muy simple. Mientras unas moléculas se encuentran en la fase móvil realizando el recorrido a través de la columna, otras se quedan retenidas temporalmente por la fase estacionaria. Sin embargo, algunas de las moléculas que se encuentran en la fase móvil acaban por colisionar y vuelven a entrar en la fase estacionaria. De forma simultánea, algunas de las moléculas del soluto abandonan igualmente la fase estacionaria para entrar en la fase móvil. Esto sucede miles de veces con cada molécula del soluto a medida que avanza por la columna (Figura 18.4).
Figura 18.4. Esquema del proceso de separación en una columna.
Todas las moléculas relativas a un compuesto específico recorren la columna aproximadamente a la misma velocidad y se muestran como una banda de moléculas (conocida como banda de muestra). La velocidad a la que cada banda de muestra avanza por la columna depende de la estructura del compuesto, la estructura química de la fase estacionaria y la temperatura de la columna. Del mismo modo, la anchura
Cromatografía de gases
745
de la banda de muestra depende de las condiciones de funcionamiento y de la dimensión de la columna. A fin de evitar la coelución de los picos, es imprescindible que los picos de compuestos adyacentes no se solapen cuando salgan de la columna. Esto se puede conseguir seleccionando el tipo de columna y las condiciones de análisis que minimicen la anchura delpico de los compuestos, y asimismo, garantizando que cada compuesto realiza el recorrido a una velocidad distinta. Existen dos grandes grupos de columnas de cromatografía de gases que se diferencian en su diámetro y en su eficiencia: empaquetadas y capilares (Tabla 18.1). Tabla 18.1 caracTerísTicas de lOs TiPOs de cOlUMnas de crOMaTOGrafía de Gases empaquetada
capilar
Longitud (m)
1–5
5–60
Diámetro interno (mm)
2–4
0,10–0,53
Platos por metro
1.000
5.000
Número total de platos
5.000
300.000
Resolución
Baja
Alta
Flujo (mL/min)
10–60
0,5–15
Capacidad
10 μg/pico
>100 ng/pico
18.3.2.1. Columnas empaquetadas Las columnas empaquetadas consisten en un tubo con un sólido en forma de partículas que esta empaquetado en su interior. El tubo exterior puede ser de acero inoxidable, vidrio o teflón. Debe tener resistencia a los cambios de temperatura que se producen en el interior del horno del cromatógrafo de gases. Algunas de estas columnas son rígidas (D > 4 mm) por lo que su forma y dimensiones se debe seleccionar en función del equipo disponible. Existen dos grandes familias de fases estacionarias que se utilizan en las columnas empaquetadas, las que tienen un soporte inerte sobre el que se deposita el compuesto responsable de la separación, y las que el propio sólido es el que produce la separación de los compuestos. 18.3.2.1.1. Columnas de soporte inerte El relleno de estas columnas (fase estacionaria) consiste en un sólido inerte sobre el que se ha depositado un compuesto (normalmente un líquido de muy alto punto de ebullición). Este compuesto es sobre el cual se adsorben/desorben los compuestos inyectados en la columna, responsable de la separación. Los soportes inertes de estas columnas deben presentar las siguientes características: a) superficie específica relativamente elevada; b) ser químicamente inertes, térmicamente estables y no adsorber prácticamente ningún compuesto; c) mecánicamente robustos, para evitar rupturas durante la preparación y uso. Dado que la
Técnicas de análisis y caracterización de materiales
746
ruptura de partículas reduciría la eficiencia de la columna por exposición de sólido inerte sin líquido; d) distribución de partículas uniforme estrecha y con forma lo más esférica posible; e) deben tener una estructura de poros abierta y con poros de poca longitud, para favorecer la difusión de los compuestos a analizar. Los soportes más empleados son los sólidos basados en tierras diatomeas. Un ejemplo de este tipo de sólidos es la familia de soportes Chromosorb. Otro parámetro importante en la elección del soporte es el tamaño de partícula, en general un tamaño de grano pequeño da lugar a una mejor separación, pero aumenta notablemente la pérdida de carga en la columna, se suele trabajar con tamaños entre 120 y 90 mesh (0,1-0,5 mm). Una vez seleccionado el soporte se puede introducir la fase líquida de interés (Tabla 18.2), en función de las características de separación que deba tener la columna cromatográfica. Tabla 18.2. fases esTaciOnarias HabiTUalMenTe UTilizadas en cOlUMnas eMPaQUeTadas fases estacionarias
Polaridad
Temp. máxima de uso (ºc)
Squalane (2,6,10,16,19,23-hexametiltetracosano)
No Polar
150
Apiezon L (high-vacuum stopcock grease)
No Polar
250-300
Ov1
Intermedia
320
DC 200
Intermedia
200
SE-30
Intermedia
300-500
Ov17
Intermedia
350
SE-52
Intermedia
300
Algo polar
240
Polar
250
siliconas Polimetil siloxanos
Polimetilfenil siloxanos
Polifluoropropil siloxanos OF1 Policianopropil siloxanos Ov105 Policianopropilmetilfenilmetil siloxanos Ov225
Polar
250
Algo polar
150
PEG 400
Polar
100
Carbowax 20M
Polar
200
Polietilenglicol succinato (PEG-S)
Muy Polar
180
Polidietilenglicol succinato (PDEG-S)
Muy Polar
190
Dinonil ftalato (DNP) Polietilenglicoles
Poliésteres
Cromatografía de gases
747
18.3.2.1.2. Columnas rellenas de sólidos porosos El relleno sólido de la columna es el que interacciona con los componentes de la mezcla a analizar, se utilizan compuestos de elevada superficie específica y porosos; por ejemplo: zeolitas, carbones, polímeros porosos, etc.
18.3.2.2. Columnas capilares Una columna de cromatografía de gases GC capilar consta de dos partes principales: tubo y fase estacionaria. Una fina película (de 0,1 a 10,0 μm) de un polímero térmicamente estable y con un elevado peso molecular recubre la pared interna del tubo de diámetro pequeño (entre 0,05 y 0,53 mm de d.i.). Esta capa polimérica se denomina fase estacionaria. El gas fluye por el tubo y se denomina gas portador o fase móvil. Las columnas capilares las descubrió Marcel Golay en 1957, cuando trabajaba en los laboratorios de Perkin-Elmer. Golay fue el primero en demostrar de forma teórica y práctica el elevado poder de separación de columnas de cromatografía de gases cuando el diámetro es muy pequeño y la longitud elevada. Sin embargo, el desarrollo de las columnas capilares fue muy lento, por la protección mediante patentes, y por la forma de fabricar las columnas capilares que dificultaban su uso generalizado. Las primeras columnas se preparaban con tubos de varios materiales: acero, cobré, níquel, nylon, etc. Sin embargo, estas columnas reaccionaban con los compuestos a analizar y se impusieron las columnas de vidrio. A pesar de las grandes ventajas de las columnas capilares su uso fue muy limitado hasta los años ochenta (< 10% del mercado). Un gran salto cualitativo se dio a partir de los años ochenta, con el descubrimiento en 1979, por Dandeneau y Zerenner en Hewlett-Packard, de las columnas capilares de sílice (fused silica). Este tipo de columnas bastante inertes, y resistentes térmica y mecánicamente, puso las columnas capilares en el mercado de la CG. En la actualidad prácticamente todos los nuevos métodos, nuevas fases estacionarias, nuevas técnicas y equipamientos de CG se basan en la tecnología de las columnas capilares. La aparición de las columnas «megabore» (di = 0,53 mm), alternativa a columnas empaquetadas, ha supuesto una disminución del uso de columnas empaquetadas. Actualmente las columnas capilares están compuestas por un tubo de sílice, recubierto con una capa externa de polimida, y con la fase estacionaria en el interior. De forma semejante a las columnas empaquetadas existen dos grandes familias de columnas capilares: WCOT (Wall Coated Open Tubular) y PLOT (Porous Layer Open Tubular) (Figura 18.5). En las columnas WCOT, la fase estacionaria está depositada en la pared del tubo, mientras que las del tipo PLOT: la fase estacionaria es un sólido poroso situado en la pared del tubo. Las columnas del tipo WCOT tienen una capa de fase activa que varía entre 0,1 y 1 µm. Existen dos tipos de fase activa: siliconas y derivados del polietilenglicol. Siliconas: son polímeros modificados con diferentes grupos funcionales que da lugar diferentes tipos de interacción entre la fase estacionaria y los compuestos a separar (Tabla 18.3). Derivados del polietilenglicol: son polímeros que dan lugar a fases estacionarias polares debido a la presencia de grupos O–CH2–O, que se pueden modificar químicamente en función de las aplicaciones (Tabla 18.4).
Técnicas de análisis y caracterización de materiales
748 Pared cubierta abierta columna tubular (WCOT)
Capa porosa abierta columna tubular (PLOT)
Figura 18.5. Esquema de la distribución de la fase estacionaria en columnas capilares. Tabla 18.3. ejeMPlOs de UsOs de cOlUMnas WcOT cOn silicOnas Polaridad
Temperatura de uso (°c)
denominación comercial
fase estacionaria
aplicación
100% dimetilpolisiloxano
No polar Aminas, hidrocarburos, pesticidas, PCB, fenoles, compuestos azufrados, aromas y fragancias
De -60 a 325/350 HP-1ms DB-1ms CP-Sil 5 SE-30 007-1 ZB-1
HP-1 DB-1 BP-1 SPB-1 Rtx-1 Ov-1
5% fenil 95% dimetilpolisiloxano
No polar Semivolátiles, alcaloides, drogas, FAME, compuestos halogenados, pesticidas, herbicidas
De -60 a 325/350 HP-5ms CP-Sil 8CB Rtx-5ms DB-5ms Rtx-5ms BPX-5 AT-5ms ZB-5ms CP-Sil 8CB Low Bleed/MS
SPB-5 XTI-5 Mtx-5 DB-5 MDN-5 HP-5 SE-54 Rtx-5 PTE-5 BPX-5 BP-5 ZB-5
6% cianopropil-fenil Arocloruros, 94% dimetil polisiloxano alcoholes, pesticidas, vOC
Media
De -20 a 280/300 DB-1301 Rtx-1301
PE-1301
35% fenil 65% dimetil polisiloxano
Media
De 40 a 300/320
DB-35 HP-35 Rtx-35 SPB-35 AT-35
Pesticidas CLP, arocloros, farmacéuticas, drogas de abuso
14% cianopropil-fenil Pesticidas, Media 86% dimetil polisiloxano herbicidas, azúcares TMS, arocloros
DB-35ms Sup-Herb MDN-35 BPX-35
De -20 a 280/300 DB-1701P CP-Sil 19 CB SPB-1701 Ov-1701 007-1701
DB-1701 CB-1701 Rtx-1701 BPX-10
Cromatografía de gases
749
fase estacionaria
aplicación
Polaridad
Temperatura de uso (°c)
denominación comercial
50% fenil 50% dimetilpolisiloxano
Drogas, glicoles, pesticidas, esteroides
Media
De 40 a 280/300
DB-17ms CP-Sil 19 CB BPX-50 SP-2250.007-17 SPB-17
35% trifluoropropil 65% Disolventes dimetil polisiloxano residuales, pesticidas, herbicidas
Polar
De 30 a 300/320
DB-200 Rtx-200
50% trifluoropropil 50% dimetil polisiloxano
Polar
De 45 a 240/260
DB-210 SP-2401
50% cianopropil-fenil FAME, alditol 50% dimetil polisiloxano acetatos, esteroles neutros
Polar
De 40 a 220/240
DB-225ms SP-2330 CP-Sil 43 CB 007-225
HP-50+ DB-17 Rtx-50 SPB-50 AT-50
DB-225 Ov-225 Rtx-225 BP-225
Tabla 18.4. ejeMPlOs de UsOs de cOlUMnas WcOT cOn derivadOs del POlieTilenGlicOl fase estacionaria
aplicación
Polaridad
Temperatura de uso (°c)
denominación comercial
Polietilenglicol
Alcoholes, ácidos orgánicos libres, disolventes, aceites esenciales, aromas y fragancias
Polar
De 40 a 260/270
HP-INNOWax HP-20M SupelcoWAX 10 CP-WAX 52 CB SUPEROX II Stabilwax BP-20 007-CW Carbowax
Polietilenglicol
Disolventes, glicoles, alcoholes
Polar
De 20 a 250/260
DB-WAX CB-WAX Rtx-WAX ZB-WAX
Polietilénglicolmodificado para bases
Aminas, compuestos básicos
Polar
De 60 a 220/240
CAM Stabilwax-DB Carbowax Amine
Polietilénglicolmodificado para ácidos
Ácidos orgánicos, alcoholes, aldehídos, cetonas, acrilatos
Polar
De 40 a 250
HP-FFAP DB-FFAP Ov-351 SP-1000 Stabilwax-DA 007-FFAP Nukol
Técnicas de análisis y caracterización de materiales
750
Las fases activas de las columnas WCOT pueden estar entrecruzadas y/o enlazadas. Entrecruzadas (Cross-linked): la fase estacionaria, que está formada por cadenas lineales de polímeros, forma una red tridimensional mediante la unión de las cadenas lineales por enlaces covalentes. Enlazadas (Bonded): la fase estacionaria esta unida covalentemente a la superficie del tubo de sílice. Estas dos características dan lugar a una mayor estabilidad térmica y que una menor cantidad de fase activa se pueda desprender durante el análisis (sangrado). En la mayor parte de las columnas capilares de última generación la fase se encuentra entrecruzada y enlazada. En las columnas PLOT se deposita una capa de un sólido poroso con un pequeño grosor 1-50 µm, pero claramente mayor que la capa de fase activa de las WCOT. Estos sólidos porosos pueden ser: alúminas, sílices, carbones, zeolitas o polímeros porosos (Tabla 18.5). Tabla 18.5. ejeMPlOs de UsOs de cOlUMnas PlOT fase estacionaria Zeolita tamiz molecular de 5Å
aplicaciones típicas Gases nobles y permanentes. Disponible con MoleSieve de película gruesa y fina. La columna de película gruesa resuelve argón y oxígeno a 35 ºC.
Óxido de aluminio desactivado Fase de alúmina muy poco «polar». con KCl Menor retención de olefinas en relación con la parafina comparable. Isómeros de hidrocarburos C1 a C8. Columna seleccionada para una cuantificación de dienos precisa, especialmente propadieno y butadieno de corrientes de etileno y propileno. Óxido de aluminio desactivado Excelente columna de alúmina de uso general para hidrocarburos con sulfato sódico ligeros: isómeros C1 a C8. Mejor para la resolución de acetileno de butano y propileno de isobutano. Óxido de aluminio con desactivación propia
La más «polar» de las columnas de alúmina. La más alta retención de olefinas en relación a la parafina comparable. Excelente columna de alúmina de uso general para hidrocarburos ligeros: isómeros C1 a C8. Mejor para resolver ciclopropano de propileno. Buena estabilidad y recuperación de la saturación de agua.
Poliestireno–divinilbenceno
Isómeros C1 a C3 y alcanos hasta C12, CO2, metano, aire/CO, agua, compuestos oxigenados, compuestos de azufre y disolventes.
Divinilbenceno/etileno
Más polar que la HP–PLOT Q y GS-Q. Hidrocarburos C1 a C7, CO2, metano, aire/CO, agua, oxigenados, aminas, disolventes: alcoholes, cetonas y aldehídos.
Sílice
Hidrocarburos C1 a C12, CO2, niveles traza de azufre, gases hidruros, gases inorgánicos, halocarburos, SF6, separación oxígeno/nitrógeno a –80 °C.
Capa de carbono monolítico ligada
Hidrocarburos C1 a C5, CO2, aire/CO, trazas de acetileno en etileno.
Cromatografía de gases
751
18.3.2.3. Selección de columnas (capilares) A continuación, se va a describir una serie de criterios para la selección de las columnas de cromatografía de gases. Estos criterios son de aplicación a las columnas capilares, aunque algunos de ellos se pueden aplicar a las columnas empaquetadas: – Escoger una fase estacionaria (es la decisión más importante) en función de factores como la selectividad, la polaridad y el contenido de fenilo. – Conocer el modo en que el diámetro de la columna influye en factores como la eficiencia, la retención del soluto, la presión en cabeza de columna y las velocidades de flujo del gas portador. – Saber que longitud de columna afecta a la retención del soluto, la presión en cabeza de columna, el sangrado y, por supuesto, el coste. – Apreciar la diferencia entre columnas de película gruesa y de película fina en cuanto a capacidad, inercia, sangrado y limite superior de temperatura. 18.3.2.3.1. Fase estacionaria A la hora de seleccionar una columna capilar, la decisión más importante consiste en elegir la mejor fase estacionaria, aunque desgraciadamente constituye también la decisión más difícil y ambigua. El método más fiable es consultar la amplia recopilación de notas de aplicaciones que recogen las publicaciones, o que proporcionan los fabricantes y distribuidores de columnas. A continuación, se describen los principales tipos de interacciones que pueden presentar los analitos con las fases estacionarias. Dispersión La dispersión constituye la interacción por antonomasia de todas las fases estacionarias de polisiloxanos y polietilenglicoles. La dispersión se puede resumir en el concepto de volatilidad. Consiste básicamente en que cuanto más volátil sea un soluto, más rápido se efluirá de la columna (y, por lo tanto, el tiempo de retención será menor). Sin embargo, este orden puede verse alterado por las polaridades del soluto y la fase estacionaria, además de otras interacciones existentes. Interacción dipolar Si la fase estacionaría puede realizar una interacción dipolar, mejorará su capacidad para separar solutos cuyos momentos dipolares sean distintos. Solo algunas fases estacionarias pueden realizar esta interacción (polietilenglicoles y los polisiloxanos sustituidos de cianopropilo y trifluoropropilo). Si la diferencia dipolar entrecompuestos es pequeña, será necesaria una mayor cantidad del grupo correspondiente (por ejemplo, un 50% de cianopropilfenil en lugar de un 14%). Polaridad La polaridad de la fase estacionaria se establece por medio de las propiedades de los grupos funcionales y sus cantidades relativas. Con frecuencia, la polaridad se
Técnicas de análisis y caracterización de materiales
752
utiliza incorrectamente para seleccionar columnas o para determinar las características de separación. Esta propiedad no está directamente relacionada con la selectividad, aunque ejerce una influencia muy notable en la retención del compuesto y, en consecuencia, en la separación. En los compuestos con una volatilidad similar, la retención será más alta en el caso de los solutos con polaridades similares a la fase estacionaria; es decir, los compuestos polares presentan una mayor retención en una fase estacionaria polar que en una fase estacionaria menos polar, y viceversa. Puentes de hidrógeno La interacción de enlace de hidrógeno tiene lugar cuando existe un enlace de hidrogeno entre las moléculas del soluto y la fase estacionaria. El aspecto más importante reside en la diferencia de fuerza del enlace de hidrógeno. Las mismas fases estacionarias que soportan interacciones dipolo también soportan interacciones de enlace de hidrogeno. Para la separación de compuestos con una fuerza de enlace de hidrogeno similar, será necesaria que en la columna haya una gran cantidad del grupos capaces de formar enlaces de hidrógeno (por ejemplo, una columna de polietilenglicol en lugar de una con 14% de cianopropilfenilmetilpolisiloxano). Además, las fases estacionarias no solo dan lugar a un tipo de interacciones, sino que pueden dar lugar una serie de interacciones cruzadas. Por esa razón es importante conocer que todas las fases estacionarias dan lugar a diferentes interacciones (Tabla 18.6). Tabla 18.6. inTeracciOnes QUe PresenTan lOs cOMPOnenTes Más iMPOrTanTes de las fases esTaciOnarias enlaces de Grupo funcional dispersión dipolo hidrógeno Metilo
Fuerte
Ninguno
Ninguno
Fenilo
Fuerte
Ninguno a débil
Débil
Cianopropil
Fuerte
Muy fuerte
Moderada
Trifluoropropil
Fuerte
Moderada
Débil
PEG
Fuerte
Fuerte
Moderada
Finalmente se aportan unos consejos para la selección de la fase estacionaria más adecuada para una columna cromatográfica: 1. Si no dispone de información o ideas sobre que fase estacionaria es la adecuada, empiece con la DB-1 o la DB-5. 2. Las columnas de bajo sangrado («ms») son normalmente más inertes y tienen límites de temperatura más altos. 3. Use la fase estacionaria menos polar que proporcione una resolución y tiempos de análisis satisfactorios. Las fases estacionarias apolares tienen más tiempo de vida útil en comparación con las polares. 4. Use una fase estacionaria con una polaridad similar a la de los solutos. Este enfoque funciona muchas veces, aunque con esta técnica no siempre se encuentra la mejor fase estacionaria.
Cromatografía de gases
753
5. Si unos solutos que no se separan muy bien tienen diferentes fuerzas de enlace dipolo o de enlace de hidrogeno, cambie a una fase estacionaria con una cantidad distinta (no necesariamente mayor número) de interacción dipolo o de enlace de hidrógeno. Si se cambia de fase estacionaria se pueden dar otras coeluciones, por lo que la nueva fase puede que no proporcione una mayor resolución en general. 6. Si es posible, evite usar fases estacionarias que contengan una funcionalidad que genere una respuesta grande con un detector selectivo. Por ejemplo, las fases estacionarias que contengan cianopropilo presentan una línea de base que crece desproporcionadamente (debido al sangrado de la columna) con detectores de nitrógeno y fosforo (NPD). 7. Con una DB-1 o DB-5, una DB-1701, una DB-17 y una DB-WAX se cubre el mayor rango de selectividades con el menor número de columnas. 8. Las columnas PLOT se usan en análisis de muestras gaseosas con temperaturas de columna superiores a la ambiente. 18.3.2.3.2. Longitud La eficiencia de columna (N) es proporcional a la longitud de la columna. La resolución es una función de la raíz cuadrada del número de platos teóricos. Por ejemplo, si se duplica la longitud de la columna (y, por tanto, la eficiencia), en teoría la resolución aumentara tan solo 1,41 veces (cifra cercana a 1,2-1,3 veces en la práctica). Las columnas más largas se utilizan cuando la separación de pico es pequeña y se necesita una alta eficiencia de columna (por ejemplo, picos estrechos). 18.3.2.3.3. Diámetro La eficiencia de columna (N/m) es inversamente proporcional al diámetro de la columna. Las columnas con un diámetro más pequeño tienen más platos teóricos por metro. Las columnas con un diámetro más pequeño se utilizan cuando la separación entre picos es pequeña, y se necesita una alta eficiencia de columna (por ejemplo, picos estrechos). 18.3.2.3.4. Tamaño de película El espesor de la película de una columna afecta a cinco parámetros principales: retención, resolución, sangrado, inercia y capacidad. En condiciones de temperatura isotérmicas, la retención de solutos es directamente proporcional al espesor de la película. En el caso de condiciones de programa de temperatura, el cambio es de un 1/3-1/2 del valor isotérmico. Las columnas de película gruesa sirven para obtener una mayor retención en solutos muy volátiles. Estas columnas se usan para retener y resolver solutos volátiles (por ejemplo, disolventes volátiles y gases). Las columnas con espesor grueso son más inertes y tienen capacidades más altas. Pero, tienen un mayor sangrado de columna y, por tanto, unos límites superiores de temperatura más bajos. Las columnas de película delgada se usan para minimizar la retención de solutos de peso molecular
754
Técnicas de análisis y caracterización de materiales
y punto de ebullición elevados (por ejemplo, esteroides y triglicéridos). Y se caracterizan por ser menos inertes, tener capacidades menores y muestran un menor sangrado de columna. En resumen, es muy importante la selección de la columna de cromatografía de gases, porque es la responsable final de la separación de los compuestos presentes en la mezcla a analizar. Un equipo de cromatografía de gases que puede tener un coste de entre 30.000 y 200.000 € dependiendo de la configuración elegida, detectores, etc. pero, no sirve para nada si no se selecciona un componente vital y mucho más económico (200-2.000 €) que es la columna cromatográfica.
18.3.3. inyectores El inyector es el punto donde se mezcla el gas portador y la muestra, y si el analito es líquido o está disuelto, se vaporiza y se transforma en gas. El diseño del inyector no es sencillo puesto que se debe asegurar la vaporización homogénea de la muestra (incluido el disolvente), vaporizando instantáneamente todos los compuestos presentes en la mezcla independientemente de las diferencias del punto de ebullición. Además, no se conocen bien todos los procesos físicos que tiene lugar en el inyector, aunque estos tienen efectos directos e importantes en los análisis cuantitativos y su reproducibilidad. El inyector se calienta unos 50 °C por encima del punto de ebullición del componente menos volátil. La entrada de muestra está sellada por un septum de un elastómero que aguante la temperatura. Los elastómeros más utilizados son del tipo silicona. El método más utilizado para la introducción de la muestra es mediante microjeringa (de capacidades del orden de microlitros). Otro punto importante es que la muestra al pasar de líquido a gas multiplica su volumen varios órdenes de magnitud (unas 1.000 veces). El volumen del inyector debe ser lo suficientemente grande para almacenar toda la muestra en su interior, porque en caso contrario se perderá parte de la muestra, dando lugar a irreproducibilidad de la cantidad de muestra inyectada, y a problemas de sobrepresión en el inyector. Existe un único tipo de inyector para columnas empaquetadas, pero para columnas capilares hay cuatro tipos de inyectores en función de cómo se vaporiza la muestra y se transfiere a la columna: a) con división de flujo (Split), b) sin división de flujo (Splitless), c) en columna (on-column) y d) con vaporización programada (PTv).
18.3.3.1. Inyectores para columnas empaquetadas Los inyectores para columnas empaquetadas son los sistemas más sencillos, simplemente, requiere estar caliente y que la muestra se introduzca sin fugas. De esta manera se puede vaporizar y mezclar con el gas portador antes de entrar en la columna cromatográfica; en la Figura 18.6 se muestra un esquema de un inyector para columnas empaquetadas. El inyector se encuentra calefactado a una temperatura sufi-
Cromatografía de gases
755
cientemente elevada para evaporar la muestra rápidamente. El gas portador fluye en el inyector sobre la cabeza de columna para entrar en la columna. La inyección de la muestra se puede realizar con una jeringa que con la aguja atraviesa un septum, de esta forma se minimizan las posibles fugas. La muestra inyectada se vaporiza en la cavidad caliente y se mezcla con el gas portador caliente antes de entrar en la columna y poder interaccionar con la fase estacionaria.
1
2 4
3 5
Figura 18.6. Esquema de un inyector de columnas empaquetadas. 1) microjeringa, 2) tuerca ajuste, 3) septum, 4) entrada gas portador, 5) columna.
– ventajas: la principal ventaja de los inyectores de columnas empaquetadas es que toda la muestra que sale de la jeringuilla entra en la columna, haciendo la inyección altamente reproducible. La neumática tiene un diseño muy simple y de precio reducido. El desarrollo del método cromatográfico es también muy sencillo, porque solo se debe ajustar la temperatura de la entrada. En general, los inyectores de columnas empaquetadas operan a menor temperatura, por lo que se pueden utilizar materiales fungibles menos costosos. – Desventajas: la principal desventaja es la posible contaminación de componentes pesados de la muestra o de pedazos de septum, debido a que estos materiales pueden contaminar la cabeza de la columna porque la columna se conecta directamente al portal de inyección. En este tipo de inyectores normalmente opera en caliente, por lo que se dificulta el análisis de compuestos termolábiles. Además, solo se pueden utilizar con columnas empaquetadas y de diámetro interno de 0,53 mm, mientras que el uso de columnas capilares de un diámetro más pequeño no es práctico. 18.3.3.1.1. Inyector con/sin división de flujo (Split/Splitless) En este tipo de inyectores se introduce la muestra dentro de una cámara caliente, y esta se vaporiza rápidamente. La muestra vaporizada se arrastra dentro de la columna mediante el gas portador. En el interior de estos portales de inyección hay un inserto que se llama liner, su función primordial es proveer un ambiente inerte para la vaporización de la muestra, el material debe ser lo más inerte posible, como vidrio o metal desactivados. El diseño de estos liner es muy variado, desde simples tubos
Técnicas de análisis y caracterización de materiales
756
rectos, hasta tubos con superficie inerte compleja rellenos de lana de vidrio desactivada. En el modo con división de flujo (Split), solamente una pequeña fracción de la muestra se transfiere a la columna, mientras que el resto se elimina por la línea de venteo. Este modo de inyección se emplea para prevenir la saturación de la fase estacionaria de la columna lo que reduciría la resolución. Operando de este modo se limita la cantidad de muestra que alcanza la columna, dividiendo el flujo de gas antes de la introducción a la columna. Cuando la concentración de analito es muy pequeña y se emplea la inyección en modo con división de flujo, la cantidad de muestra que llega al detector es muy pequeña. Por esta razón, se debe trabajar sin división de flujo (Splitless), de esta forma la mayor parte de la muestra se introduce en la columna. La inyección con o sin división de flujo se realiza con el mismo tipo de inyector en el que se cambia la circulación de los gases en su interior girando una válvula interna (Figura 18.7). En todos los nuevos cromatógrafos de gases todos los flujos se encuentran regulados electrónicamente, de esta forma los flujos son estables y se puede pasar de un modo a otro de inyección muy fácilmente. 2
7
1
3
6
8
4
5
Figura 18.7. Esquema de un inyector con/sin división de flujo (Split/Splitless). 1) Entrada de gas portador, 2) septum, 3) elementos de calefacción, 4) liner, 5) columna capilar, 6) válvula de purga, 7) regulador de purga de septum, 8) regulador de venteo.
A la entrada del gas portador suele haber un controlador de flujo que permite controlar la cantidad de gas portador que entra al portal de inyección. Mediante los reguladores de venteo y purga, se controla la presión en el interior del inyector. El flujo que entra en la columna se determina por la presión que hay en el interior de inyector. En estos inyectores hay un pequeño flujo que circula muy cerca del septum que se llama purga de septum. Este flujo de gas portador tiene dos funciones, arrastrar los compuestos vaporizados del septum para que no entren en el inyector, y evitar que la muestra vaporizada pueda contaminar la línea de entrada del gas portador. La mayor parte de los fabricantes de cromatógrafos de gases recomiendan un caudal de
Cromatografía de gases
757
purga de septum entre 3 y 5 ml/min. Con los nuevos sistemas de control electrónico de flujo, el caudal de purga de septum suele venir fijado de fábrica. Operación con división de flujo Cuando se opera en modo de división de flujo la válvula de purga permanece abierta (Figura 18.8). La muestra se vaporiza en el liner y toda se mezcla con el flujo de gas portador, y llega a la cabeza de la columna. Allí, una parte muy pequeña de la mezcla de gas portador y muestra vaporizada se introduce en la columna, y la mayor parte sale por la salida de venteo. La relación entre el caudal de gas que sale por la salida de venteo y el que entra en la columna se llama relación de Split (Tabla 18.7). Así, si el caudal que entra en la columna es 1 ml/min, y la relación de Split es 50:1, el caudal de venteo es 50 ml/min.
Figura 18.8. Operación en modo de división de flujo (Split). Tabla 18.7. relación de SPLIT MíniMa recOMendada Para las cOlUMnas caPilares diámetro interno de la columna (mm)
relación de Split mínima recomendada
0,10
1:100 – 1:150
0,18 – 0,20
1:20 – 1:50
0,25
1:15 – 1:20
0,32
1:10 – 1:15
0,53
1:3 – 1:5
La selección de la temperatura para estos inyectores trabajando en modo de división de flujo no es trivial. Como el tiempo de residencia de los productos en el portal de inyección es muy pequeño (caudal muy elevado), la temperatura debe ser bastante elevada para asegurar que toda la muestra se vaporiza muy rápidamente.
Técnicas de análisis y caracterización de materiales
758
Aunque, la temperatura no debe ser tan elevada que de lugar a la degradación de la muestra. Una vez seleccionadas las condiciones de trabajo adecuadas las inyecciones con división de flujo son muy reproducibles. Este tipo de inyección es el que se utiliza mayoritariamente en los análisis de cromatografía de gases con columnas capilares. Operación sin división de flujo Cuando no se tiene división de flujo la válvula de purga permanece cerrada, y el flujo de gas se modifica (Figura 18.9). La mayor parte del caudal del gas portador no pasa por el liner, solo el caudal que se introduce en la columna. Por lo tanto, al inyectar la muestra se vaporiza y se mezcla únicamente con el gas que entra en la columna, es decir toda la muestra se introduce prácticamente en la columna. Después de un tiempo a determinar experimentalmente, la válvula se abre y el resto de la muestra presente en el portal de inyección se arrastra rápidamente. Los tiempos típicos para activar la válvula de purga oscilan entre 60 y 90 segundos. El tiempo más adecuado depende de varias variables, composición de la muestra, estabilidad térmica, diámetro y longitud de la columna. El tiempo de apertura de válvula óptimo es el que da lugar a unos picos cromatográficos del producto de interés más intensos, pero que minimice la anchura de los picos. La selección de la temperatura para estos inyectores trabajando sin división de flujo tampoco es trivial. Debe ser bastante elevada para asegurar que toda la muestra se vaporiza, aunque, no debe ser tan elevada que de lugar a la degradación de la muestra. Este punto es bastante crítico, porque la muestra está bastante tiempo en el inyector.
Figura 18.9. Operación sin división de flujo (Splitless).
Cromatografía de gases
759
18.3.3.2. Otros inyectores 18.3.3.2.1. Inyector en columna Los inyectores en columna están diseñados para que la muestra que se inyecta desde la jeringa se introduzca directamente en la columna. Suelen estar refrigerados para evitar que la muestra se evapore durante el proceso de inyección. Como en este inyector no se vaporiza la muestra para introducirla en la columna, no se produce discriminación de componentes por punto de ebullición, ni se pueden producir reacciones entre productos antes de entrar en la columna. Toda la muestra entra en la columna, por lo que se pueden alcanzar niveles de detección muy elevados. Como gran inconveniente a tener en cuenta, es que la muestra debe estar extremadamente limpia para no contaminar la columna, lo que limita el uso de este sistema de inyección. 18.3.3.2.2. Inyector de temperatura de vaporización programada (PTv) Una alternativa muy interesante a los inyectores de división de flujo (Split/splitless) es el inyector de temperatura de vaporización programada (PTv). Es un inyector muy parecido a los de división de flujo pero con una inercia térmica muy pequeña, por lo que se puede calentar o enfriar muy rápidamente. La muestra se inyecta a una temperatura inferior al punto de ebullición (normalmente unos 10 ºC menos), como la muestra está liquida se suele colocar lana de vidrio desactivada para evitar que las gotas de liquido entren en la columna. Unos segundos después de retirar la jeringa se empieza a calentar el portal de inyección hasta la temperatura deseada. La velocidad de calentamiento suele ser relativamente rápida, 300 ºC en 20-30 s. Como el disolvente es el que suele tener el punto de ebullición más bajo, la mayor parte del disolvente se puede eliminar por la salida de venteo (con división de flujo) a temperaturas bajas, y una vez alcanzada una temperatura adecuada en el inyector se cierra la válvula, y actúa como un inyector sin división de flujo. Operando de esta forma se pueden detectar cantidades de analito muy pequeñas desechando la mayor parte del disolvente.
18.3.4. detectores Como cualquier técnica analítica, su aplicación depende en gran medida de tener un sistema de detección eficiente, rápido y sensible. Los primeros detectores utilizados en cromatografía de gases se basaron en medir las propiedades físicas de los gases, pero el modo de detección ha evolucionado mucho. Las principales características de un detector deben ser: – – – –
Elevada sensibilidad. Fiable. Respuesta universal. Respuesta dinámica lineal amplia.
Técnicas de análisis y caracterización de materiales
760
– – – –
Respuesta rápida. Elevada estabilidad. Poco ruido de fondo. Operación y mantenimiento sencillo.
A partir de estos principios, se han desarrollado diferentes detectores basados en las distintas propiedades de los compuestos a analizar. Los detectores se pueden dividir en dos grandes grupos, por una parte los detectores universales, y por otra parte los detectores específicos. Los detectores universales permiten la detección de todos, o casi todos, los compuestos que eluyen de una columna de cromatografía. Los detectores específicos se han diseñado para dar la máxima sensibilidad para determinada familia de compuestos, dando lugar a unos niveles de detección mucho más bajos que los obtenidos con los detectores universales. Un detector especial es el espectrómetro de masas, que es universal y da una sensibilidad muy elevada, posiblemente la más elevada en la actualidad. Los dos principales detectores universales que existen hoy en día son: el de conductividad térmica (TCD) y el de ionización a la llama (FID). Algunos de los detectores específicos más habituales son: captura electrónica (ECD), quimioluminiscencia de azufre o nitrógeno (SCD o NCD), termoiónico o de nitrógeno-fósforo (NPD), fotométrico de Llama (FPD). Un tratamiento especial requiere el detector de espectrometría de masas debido a sus especiales características. A continuación se definen unos parámetros que ayudan a entender las propiedades de cada uno de los detectores de cromatografía de gases: – Sensibilidad. Medida de la efectividad de un detector para convertir la muestra en una señal eléctrica medible. – Linealidad. Rango de masa o concentración de muestra sobre el cual el detector mantiene una sensibilidad constante sin una desviación arbitraria. El significado práctico de la linealidad del detector es el que le indica al analista la concentración para la cual el detector es confiable. Hay dos límites en la curva de linealidad: • El límite de concentración inferior, que es dado por el límite de detección y, • El límite superior, definido por un porcentaje de desviación arbitrario de la curva de linealidad, normalmente se toma un 5% de desviación. – Rango dinámico lineal. Rango sobre el cual la sensibilidad del detector es constante. – Ruido. Es cuantificado por el promedio de la amplitud pico-pico de la señal. El significado de conocer el nivel de ruido de un detector es un factor clave en la determinación de la cantidad mínima detectable y el límite inferior del rango lineal. – Límite de detección. Está definido como la mínima cantidad de sustancia que puede producir una señal que sea el doble del nivel de ruido. – Corriente de fondo. Señal constante de salida generada por el proceso en el que un detector está operativo sin que alguna sustancia pase a través de él. Esta señal es muy importante, ya que permite diagnosticar el buen o mal funcionamiento del detector.
Cromatografía de gases
761
18.3.4.1. Detector de conductividad térmica (TCD) El detector de conductividad térmica o catarómetro es uno de los primeros detectores utilizados. Se basa en la diferencia de conductividad térmica del gas portador y la mezcla de este con el analito. El diseño básico consiste en dos cámaras, cada una con un filamento caliente, por una pasa una corriente de gas portador (referencia), y por otra la salida de la columna de cromatografía de gases (muestra). La temperatura del filamento depende de la conductividad térmica que tenga el gas que circula a su alrededor. Así, cuando sale un compuesto de la columna se modifica la conductividad del gas que circula por la cámara de muestra, esa diferencia es la señal del detector. Los filamentos son de diferentes metales, los más habituales: platino, wolframio, níquel, y sus aleaciones con renio o iridio. Como la señal depende de la diferencia de conductividad térmica entre el gas portador y el compuesto a analizar (Tabla 18.8), se utiliza como gas portador gases que tienen un elevado valor de conductividad térmica (hidrógeno o helio) para la mayoría de los compuestos, y gases de muy baja conductividad térmica (argón o nitrógeno) para analizar hidrógeno o helio. El gas portador ideal es el hidrógeno pero debido a posibles problemas de fugas (gas inflamable), el gas portador más utilizado es el helio. Tabla 18.8. cOndUcTividad TérMica de diferenTes Gases (273 K, 1 bar) Gas
conductividad térmica j/(K · m · s)
conductividad térmica relativa al nitrógeno
H2
0,170
7,0
He
0,141
5,8
NH3
0,0215
0,9
N2
0,0243
1,0
C2H4
0,0170
0,7
O2
0,0246
1,0
Ar
0,0162
0,7
C3H8
0,0151
0,6
CO2
0,0144
0,6
Cl2
0,0076
0,3
Otra forma de aumentar la sensibilidad de la señal, es aumentar la diferencia de temperatura entre el filamento y la parte externa de la celda de medida. La temperatura de la celda debe ser lo suficientemente elevada para que no condensen los productos de salida de la columna, por lo que no hay mucho recorrido. Lo habitual es subir la temperatura del filamento, de esta forma se aumenta la sensibilidad, pero la vida del filamento puede verse reducida, en especial en presencia de gases reactivos como O2, NH3, H2O, Cl2, etc. Existe un nuevo diseño de detector TCD que tiene un único filamento. Este tipo de detectores tiene una menor deriva en la línea base, se equilibran rápidamente y
762
Técnicas de análisis y caracterización de materiales
son muy sensibles. El funcionamiento de este sensor consiste en una cámara de pequeño volumen (aproximadamente 5 μl) que contiene un pequeño filamento. Sobre él se hacen pasar alternativamente el gas de referencia y el de salida de la columna, con una frecuencia de 10 Hz, obteniéndose una señal eléctrica de 10 Hz cuya amplitud depende de la diferencia entre la conductividad térmica del gas de referencia y del gas de salida. El detector TCD presenta respuesta frente a todos los compuestos orgánicos e inorgánicos (universal), es un detector no destructivo, y con un amplio rango dinámico lineal (105). Sin embargo, es poco sensible (1-50 ng), y depende de la concentración de compuesto que sale de la columna no de la cantidad absoluta. Es decir variaciones en el caudal de gas portador afectan a la señal.
18.3.4.2. Detector de ionización a la llama (FID) Este detector se basa en la ionización de las moléculas que salen de la columna con una llama a alta temperatura, que se alcanza quemando hidrógeno con aire. Se empezó a utilizar en 1958 por Harley y colaboradores, y desde entonces es el detector más usado en cromatografía de gases. Se ha popularizado, porque es un detector casi universal, responde a casi todos los compuestos orgánicos, es barato y presenta una elevada sensibilidad, y no responde a impurezas comunes del gas portador como CO2 y H2O. El gas de arrastre que sale de la columna mezclado con una corriente de H2 se inflama con aire (Figura 18.10). La llama resultante queda entre dos electrodos polarizados por un voltaje constante. Cuando se quema un compuesto orgánico se forman iones que hacen que la llama producida sea conductora de la electricidad. El movimiento de los iones desde la llama hasta el colector produce una pequeña corriente. La corriente eléctrica resultante (orden de pA) se amplifica dando lugar a la señal cromatográfica. El detector debe estar calefactado para que los compuestos que abandonan la columna de cromatografía no condensen, además en la llama se produce agua que tampoco debe condensar en el detector. La temperatura de trabajo tampoco debe ser muy elevada para que la señal de los iones se mida correctamente, aunque siempre es mayor de 150 ºC, siendo normalmente de 225 a 325 ºC. Cuando se analiza constantemente compuestos pesados, especialmente compuestos poliaromaticos, se puede ir formando una pequeña capa de residuos carbonosos que se debe eliminar periódicamente. La relación de hidrógeno y aire a emplear depende del modelo utilizado, pero en general, suele estar alrededor de 10:1. Este detector es casi universal y presenta una gran sensibilidad (50-500 pg), que no depende de la concentración de los compuestos en el gas portador (no le afectan cambios del caudal de gas portador) cuanto mayor es el número de átomos de C, mejor respuesta se obtiene. La linealidad de este detector es muy elevada 105-106 (la más alta de todos los detectores). Sin embargo, la señal de compuestos con elementos diferentes al C y H es baja, especialmente con compuestos halogenados, y no dan señal con compuestos inorgánicos: N2, O2, H2O, NO, SO2, etc.
Cromatografía de gases
763 Salida Electrodo colector Llama Bobina de ignición Electrodo polarizante Voltaje
Hidrógeno Aire Columna
Gas auxiliar
Figura 18.10. Esquema de un detector FID.
18.3.4.3. Detectores específicos A continuación se van a describir una serie de detectores que son muy sensibles, pero son específicos para detectar unos determinados tipos de compuestos. 18.3.4.3.1. Detector de captura electrónica (ECD) Este detector se basa en que algunos compuestos orgánicos que poseen elementos electronegativos son capaces de capturar electrones. Es muy sensible para compuestos halogenados (máxima sensibilidad), nitratos, carbonilos y ciertos compuestos organometálicos, pero tiene una respuesta pobre para hidrocarburos, alcoholes, aminas, aromáticos, aldehídos y tioéteres. Una fuente de electrones, procedente de una lámina de 63Ni, bombardea el gas que sale de la columna, lo que produce un plasma que contiene, entre otras especies, electrones térmicos. Se aplica una diferencia de potencial a la celda del detector, lo que permite la captura de los electrones por el ánodo, esto crea una corriente que es la línea base. Cuando una molécula con capacidad para capturar electrones eluye de la columna y entra en la celda del detector, la captura de electrones disminuye la corriente, cambiando la señal y dando lugar a un pico en el cromatograma.
Técnicas de análisis y caracterización de materiales
764
La señal depende de la concentración de los analitos en el gas portador, por lo que cambios en el caudal del gas portador afectan a la señal del detector. Debido a este inconveniente, se recomienda usar helio como gas portador, puesto que siempre da una mayor estabilidad en el caudal, especialmente cuando se hacen programas de temperatura. Como gas auxiliar se puede utilizar nitrógeno (mayor sensibilidad) o 5% metano/argón (mayor linealidad). Este detector suele operar a elevada temperatura porque, en general, a mayor temperatura se obtiene mayor señal. La máxima temperatura de estos detectores es de unos Este detector presenta una linealidad muy baja 103. Y el límite de detección depende de la naturaleza de los compuestos a analizar: compuestos halogenados múltiples 0,1-10 pg (orden de sensibilidad: I > Br > Cl > F), nitratos y monohalogenados: 10-100 pg y compuestos con carbonilos: 50-250 pg. 18.3.4.3.2. Detector de quimioluminiscencia de azufre o nitrógeno (SCD o NCD) Estos detectores se basan en que algunas reacciones químicas dan lugar a la formación de compuestos en un estado excitado, y que se relajan hasta el nivel más estable emitiendo luz. La intensidad de la luz emitida es proporcional a la concentración de las especies que producen esta reacción (Figura 18.11). Muestra Homo
Ozonizador
Gas inerte Cámara de combustión
Detector
Columna capilar
Figura 18.11. Esquema de un detector de quimioluminiscencia.
A la salida de la columna hay un horno que se encuentra a una temperatura elevada (800-1.000 ºC) en presencia de hidrógeno y oxígeno. Las moléculas se descomponen en CO, H2O y SO o NO, si contienen respectivamente azufre o nitrógeno. Estos productos se llevan a una cámara de reacción que se encuentra a vacío (1-10 Torr) y se mezcla con una corriente de ozono. En esa cámara se produce la reacción de quimioluminiscencia: sO + O3 → sO2 + O2 + hν, NO + O3 → nO2 + hν. Un fotomultiplicador, con unos filtros que permite el paso de la luz de longitud de onda adecuada, detecta los fotones emitidos que se convierten en electricidad. Este detector es muy específico para cada uno de los elementos (S o N). La respuesta es proporcional a los átomos e independiente del compuesto al que estén unidos, puesto que las moléculas se rompen en el horno. Este hecho facilita el calibrado puesto que se puede emplear cualquier compuesto que contenga N o S. La cantidad mínima detectable es de 0,5 pg/seg para el azufre y 5 pg/seg para el nitrógeno, y la
Cromatografía de gases
765
respuesta es bastante lineal, 105 para el S y 104 para el N. Este detector es bastante caro, pero es imprescindible para detectar compuestos de azufre o nitrógeno a niveles de ppb en mezclas muy complejas, como pueden ser los combustibles derivados del petróleo. 18.3.4.3.3. Detector termoiónico o de nitrógeno-fósforo (NPD) Se basa en la formación de iones moleculares de los compuestos que contiene nitrógeno y fósforo por interacción con un plasma frío. Se usa para la determinación selectiva de compuestos orgánicos que contienen nitrógeno y fósforo. El modo de operación es el siguiente: Se aplica un voltaje al quemador y al colector (Figura 18.12). Sobre el quemador hay una perla o lecho (normalmente de silicato de rubidio) que se calienta a 600-800 ºC, con aire y el hidrógeno se consigue un plasma en el lecho (el caudal de H2 es demasiado bajo para formar una llama).Los compuestos que contienen N o P reaccionan con la capa de gas que rodea al lecho y producen iones, que se mueven desde el plasma hasta el colector. Siempre existe un ruido de fondo producido por impurezas como las que contaminan los gases y el detector. La temperatura de trabajo debe ser elevada, y se encuentra entre 275-325ºC. Línea de aire
Colector Lecho Quemador
Línea de gas auxiliar
Línea de hidrógeno
Columna
Figura 18.12. Esquema de un detector NPD.
Las condiciones de medida se deben optimizar para detectar o N o P, por lo que no se pueden detectar simultáneamente compuestos que tengan nitrógeno o fósforo. Este detector se emplea principalmente para la detección de compuestos de nitrógeno, aunque se puede emplear para compuestos que contienen fósforo. La elevada selectividad se debe a que como no existe llama, no se produce la ionización de los hidrocarburos. Selectividad para N sobre C: 103-105; para P sobre C: 104-105, y la linealidad es relativamente elevada 104-105, pero depende del compuesto, caudal de gases, antigüedad del lecho, y temperatura del detector. 18.3.4.3.4. Detector fotométrico de llama (FPD) Se basa en medir la intensidad de la luz emitida por especies que han sido excitadas por una llama. Los componentes que salen de la columna cromatográfica se des-
Técnicas de análisis y caracterización de materiales
766
componen y se excitan a estados electrónicos más altos en una llama rica en hidrógeno. Estas especies emiten luz característica de los heteroátomos presentes. La luz emitida se mide con un tubo fotomultiplicador, para minimizar la interferencia de otras especies se intercala un filtro óptico para seleccionar la longitud de onda apropiada que llega al fotomultiplicador (Figura 18.13). La temperatura de trabajo del detector queda limitada a 175-275 ºC porque el tubo fotomultiplicador se coloca cerca del quemador. Tubo fotomultiplicador Línea de aire
Lente
Filtro
Quemador Línea de hidrógeno Columna
Figura 18.13. Esquema de un detector FPD.
Este detector se usa para el análisis de sulfuros orgánicos y organofosforados (se eliminan todas las longitudes de onda, a excepción de las que producen máximos para los compuestos anteriores). Los caudales se ajustan para que la llama quede situada dentro de la punta del quemador. Este diseño permite que la emisión de S y P se produzca por encima de la llama. De esta forma la emisión de luz por hidrocarburos, en la porción de llama que está dentro de la punta del quemador, no se detecta. La sensibilidad aumenta al disminuir la temperatura de la llama, ya que aumenta la intensidad de la luz emitida. Usar gases portadores y auxiliares con elevada conductividad térmica como He o H2, aumenta la sensibilidad porque disminuye temperatura de llama. La sensibilidad frente al carbono es muy elevada para el fosforo 105, y bastante alta para el S 104, la mínima cantidad detectable es: 10-100 pg de S y 1-10 pg de P.
18.3.4.4. Otros detectores Existen otros detectores que debido a su elevado precio tienen un uso menos extendido: el FTIR (espectrómetro infrarrojo) y el AES (espectrómetro de emisión atómica). El primer equipo consiste en acoplar una celda IR para gases y un espectrómetro IR a la salida de la columna del cromatógrafo. Este sistema permite cuantificar los compuestos y en algunos casos identificarlos por comparación con los espectros IR de una base de datos.
Cromatografía de gases
767
En el espectrómetro de emisión atómica, los gases que salen de la columna se hacen pasar por un plasma, allí se rompen las moléculas en sus átomos, que a su vez se excitan. Los átomos excitados se relajan emitiendo luz en las frecuencias características de cada átomo. Si se analizan las frecuencias correspondientes a cada tipo de átomo se puede medir su concentración. Este equipo es capaz de analizar los siguientes elementos: carbono, hidrógeno, nitrógeno, oxígeno, fluor, cloro, bromo, yodo, boro, fósforo, azufre, silicio, hierro, plomo, manganeso, mercurio, níquel, selenio, germanio, estaño, vanadio, arsénico e, incluso, isótopos: nitrógeno-15, deuterio, carbono-13. Este detector es muy interesante pero se utiliza muy poco por su elevadísimo precio.
18.3.4.5. Espectrometría de masas Cuando a la salida de un cromatógrafo de gases se acopla un espectrómetro de masas se tiene una herramienta analítica muy poderosa. Esta combinación conocida como GC/MS es una técnica analítica que permite hacer un análisis cualitativo y cuantitativo de las muestras. El espectrómetro de masas es un instrumento que permite analizar con gran precisión la composición de diferentes elementos químicos e isótopos atómicos, separando los núcleos atómicos en función de su relación masa-carga (m/z). El proceso de análisis por espectrometría de masas se puede resumir en los siguientes pasos (Figura 18.14): 1. La molécula que entra en el sistema se ioniza. El proceso es muy energético por lo que parte o todas las moléculas se fragmentan. 2. Los iones formados se separan en función de la relación masa/carga (m/z). 3. Finalmente los iones alcanzan el detector dando lugar a una señal. ABCD + eABCD+ ABCD+ ABCD+
ABCD+ + 2e-
AB + CD+ AB+ + CD+ ACD+ + B
ABCD+ CD+ ACD+
CD+ ACD+ ABCD
+
CD+ ACD+
Señal eléctrica
ABCD
+
Fuente de Ionización
Analizador
Detector
Figura 18.14. Procesos que ocurren en un espectrómetro de masas.
El espectrómetro de masas acoplado a un cromatógrafo de gases está compuesto por: interfase, cámara de ionización, analizador, detector y equipo de vacío.
Técnicas de análisis y caracterización de materiales
768
18.3.4.5.1. Interfase Es la conexión que hay entre el cromatógrafo de gases y la entrada al espectrómetro de masas. Se trata de un tubo que está calefactado, para evitar la condensación de los productos. Su diámetro debe ser muy pequeño, para evitar los posibles problemas de retrasos u oscilaciones de los tiempos de retención. El material de la conexión debe ser inerte, para que los compuestos que eluyen de la separación cromatográfica no reaccionen. Por último, debe ser resistente a las fugas ya que conecta con la entrada al espectrómetro de masas que está a vacío. 18.3.4.5.2. Cámara de ionización Un filamento caliente (de wolframio o de renio) se somete a una diferencia de potencial frente a un ánodo. Los electrones salen acelerados hacia el ánodo (Figura 18.15), y si por el camino de los electrones hay alguna molécula chocarán y se producirá la ionización. Dentro de la cámara de ionización hay una serie de placas, que aceleran los iones formados para que pasen al analizador. Ánodo
Placas aceleradoras
Regulación de iones
Filamento
Figura 18.15. Esquema simplificado de una cámara de ionización.
Existen dos formas de ionizar la muestra, ionización electrónica e ionización química: Ionización electrónica (EI) Los electrones acelerados en la cámara de ionización impactan directamente con las moléculas de la muestra que se ionizan (Figura 18.16). El primer ión que se forma es la molécula de partida con una carga positiva; esta especie se llama ión molecular. La máxima interacción entre los analitos y los electrones se da a una energía de 70 ev. Debido a la elevada energía de los electrones se producen muchas rupturas, llegando muchas veces a no quedar ningún ión sin fragmentar. Este tipo de ionización es el que más se utiliza habitualmente, y es el usado para determinar la mayoría de los espectros que componen las colecciones de bases de datos de espectros.
Cromatografía de gases
769 Ión molecular 70 eV e-
A-B-C
11.000 UMA/s), linealidad (105), sensibilidad (0,1 pg) y se puede aplicar a cualquier compuesto que eluya de una columna de cromatografía de gases (< 1200 UMA). El cuadrupolo consiste en 4 barras colocadas a lo largo de los ejes X-Y, cada barra está conectada eléctricamente a la que se encuentra enfrente y los iones circulan por el eje Z (Figura 18.18). A los pares de barras se les aplica una diferencia de potencial constate (DC) más una variable en función de la radiofrecuencia aplicada (RF). Los iones circulan entre las 4 barras metálicas siguiendo trayectorias no lineales. Para un valor de RF, solamente los iones con una relación masa carga determinada pueden atravesar el cuadrupolo; la trayectoria de los demás se hace inestable y colisionan con las barras, se desionizan y se eliminan por el sistema de vacío. Este método permite seleccionar en cada momento qué iones m/z atraviesan el analizador en función de la RF aplicada.
(-)
Figura 18.18. Esquema de funcionamiento de un cuadrupolo.
En un cuadrupolo ideal, las barras tienen que ser hiperbólicas, pero tradicionalmente han sido circulares debido a que su fabricación es mucho más sencilla, y si tiene una relación diámetro de barra/espacio entre barras adecuado, funcionan de forma parecida a las hiperbólicas. Sin embargo, en la actualidad ya todos los fabricantes utilizan barras hiperbólicas verdaderas. Recientemente han salido al mercado sistemas basados en cuadrupolos triples en serie, este sistema permite una mejora de la resolución y de la relación señal/ruido muy grande. El primer y tercer cuadrupolo actúa como filtros de masas, mientras que el intermedio actúa como celda de colisión a una radiofrecuencia constante. En esta celda se introduce una pequeña cantidad de gas inerte (Ar, He, o N2) que ayuda a reducir notablemente el ruido de fondo, y producir una disociación de iones que se analizan en el tercer cuadrupolo. Con estos sistemas se puede detectar cantidades muy pequeñas de analitos (100 fg) en matrices muy complejas.
Cromatografía de gases
771
18.3.4.5.4. Detectores Los detectores de espectrometría de masas se basan en una capa de diodos de conversión, cuando un ión alcanza esta capa se emiten electrones. La señal se amplifica con un electromultiplicador. El electromultiplicador es un sistema que está recubierto de un material electroemisivo, que está sometido a una fuerte diferencia de potencial. Este material presenta un elevado coeficiente de emisión de electrones secundarios, es decir, emiten más electrones de los que reciben. Ajuste del detector MS (Tuning) El detector MS se debe ajustar cada cierto tiempo, siendo especialmente importante en equipos con analizadores de iones tipo cuadrupolo (casi todos los instalados actualmente). Esto es debido a que la determinación de los valores de m/z se hace de forma indirecta en base de variaciones de la radiofrecuencia aplicada a las 4 barras que componen el analizador. Y por lo tanto, se debe correlacionar el valor de la RF y los valores m/z. Para este fin, se utiliza un material que da lugar a unos iones con valores de m/z y abundancias relativas conocidas. El material de referencia más utilizado es la perfluorobutilamina (PFTBA). Modos de funcionamiento Un detector de espectrometría de masas puede funcionar en dos modos: FullScan o SIM. – Modo Full-Scan: se hace un espectro de masas en cada punto y se representa la señal de todos los iones que alcanzan el detector: TIC, (Total Ion Current). El aspecto del cromatograma es similar al de un de un detector estándar, pero cada punto es un espectro de masas completo. – Modo SIM (Selected Ion Monitoring): se mide únicamente un determinado ión (m/z), suelen seleccionarse los iones más intensos del analito a estudiar. Por lo tanto, las medidas en SIM solo se pueden realizar cuando se conoce el analito a analizar. Se aumenta la sensibilidad con un factor entre 10 y 1.000 veces respecto al modo Full-Scan. Esto es debido a que solo se monitorizan algunos iones, y por lo tanto, se elimina la mayoría de la señal de otros iones de compuestos que no interesan. 18.3.4.5.5. Análisis cualitativo Debido a las características de los datos obtenidos con el detector MS es una gran herramienta para identificar los compuestos presentes en las muestras. Este análisis se hace en base a los espectros de masas obtenidos tras la separación cromatográfica. En primer lugar, se hace un análisis CG/MS Full-Scan, una adquisición de un espectro cada 0,2–0,5 s. Se selecciona la región de tiempo del cromatograma donde sale el compuesto desconocido, y se obtiene el espectro de masas de esa región. Se elimina la contribución del ruido de fondo del espectro de masas, y a partir del espectro de masas, se identifica el compuesto por análisis deductivo o por comparación con la base de datos. Para un análisis deductivo se debe tener en cuenta algunos puntos importantes. En general, el pico de mayor m/z suele corresponder al ión molecular, y por lo tanto ese es su peso molecular. Los compuestos presentan multiplicidad de picos debido a
Técnicas de análisis y caracterización de materiales
772
la abundancia natural de isótopos, este efecto es muy importante en compuestos que contienen: Br, Cl, S y Si (Tabla 18.9). Existen algunos iones más ligeros que el ión molecular, por la formación de fragmentos más habituales: H, CH3, etc. (Tabla 18.10) Sin embargo, cuando las moléculas se fragmentan mucho con la ionización de electrones, se dificulta la identificación y la única forma de obtener el espectro con el ión molecular es recurriendo a la ionización química. Tabla 18.9. abUndancia naTUral de lOs isóTOPOs de lOs PrinciPales eleMenTOs de MOlécUlas OrGánicas elemento Hidrógeno Carbono Nitrógeno Oxígeno Silicio Azufre Cloro Bromo
H 99,99 12 C 98,9 4 N 99,6 16 O 99,76 28 Si 92,9 32 S 95,02 35 Cl 75,77 79 Br 50,5 1
abundancia natural (%) 2 H (o D) 0,01 13 C 1,1 15 N 0,4 17 O 0,04 29 Si 4,7 33 S 0,76 – –
– – – 18 O 0,20 30 Si 3,1 34 S 4,22 37 Cl 24,23 81 Br 49,5
Tabla 18.10. fraGMenTOs TíPicOs de rUPTUra. (M = ión MOlecUlar) m/z
m/z
fragmento
CH3 O NH2 OH NH3
M-41
M-18
H2O
M-44
M-19
F
M-45
M-20 M-27
HF HCN CO C2H4 CHO C2H5 CH2O C2H6 OCH3 S HOCH3 H2S Cl
M-46 M-55
C3H5 C3H6 CH2CO C3H7 CH3CO C3H8 CO2 CO2H OC2H5 CH3CH2OH C4H7
M-57
C4H9
M-58
C4H10 (CH3)2CO
M-60
CH3COOH
M-73
(CH3)3Si
M-79
Br
M-89 M-127
(CH3)3SiOH I
M-15 M-16 M-17
M-28 M-29 M-30 M-31 M-32 M-34 M-35
fragmento
M-42 M-43
Cromatografía de gases
773
Aunque el método deductivo puede llegar a identificar a un compuesto, el método más usual de identificación de compuestos desconocidos es la comparación de los espectros de masas experimentales con los que aparecen en bases de datos, que son comerciales. Las más utilizadas son Wiley mass spectral library (más de 310.000 espectros) y NIST (National Institute of Standards and Technology) library (130.000 espectros), además existen bases especializadas en algunos tipos de compuestos. La colección de espectros de las bases de datos se ha realizado con ionización electrónica operando a 70 ev, por lo que las comparaciones se deben hacer con análisis realizados en estas condiciones. La comparación manual no es posible, y se realiza mediante un software de búsqueda basado en la probabilidad de equivalencia (PBM) que está incluido en el sistema de adquisición de datos de todos los instrumentos comerciales. Estos programas hacen búsquedas muy rápidas 220.000 comparaciones en aproximadamente 3 s. 18.3.4.5.6. Análisis cuantitativo El análisis cuantitativo se realiza operando en modo SIM, puesto que se mejora la sensibilidad y se aumenta la relación señal/ruido pudiéndose cuantificar cantidades muy pequeñas de compuesto. Una vez se ha realizado la separación e identificación de los diferentes compuestos, se definen unas ventanas de análisis, donde se mide en modo SIM los fragmentos más abundantes de la especie a analizar. La cantidad de cada uno de los compuestos es proporcional al área que hay bajo los picos de cada compuesto. Se pueden usar como patrones internos los mismos compuestos a analizar pero marcados isotópicamente (igual tiempo de retención pero diferente m/z), de esta forma se pueden eliminar errores de preparación de muestra. En resumen, existe un gran número de tipos de detectores con una gran variedad de niveles de sensibilidad (Figura 18.19). Los hay universales (o casi) y los hay específicos para medir un determinado tipo de compuestos con gran sensibilidad. El detector más utilizado es el FID, puesto que se puede emplear en el análisis de una gran cantidad de compuestos, presenta una elevada sensibilidad y es bastante económico y fácil de mantener. Sin embargo, recientemente y debido a la reducción de su precio, los detectores espectrómetro de masas empiezan a ganar mercado en muchas aplicaciones, debido a que pueden identificar compuestos desconocidos y tiene una sensibilidad muy elevada. AED TCD FID ECD NPD (N) NPD (P) FPD (S) FPD (P) FTIR MS (SIM) 10-15g
10-12g
MS (Scan) 10-9g
10-6g
10-3g
Figura 18.19. Detectores de cromatografía de gases y el rango de medida.
774
Técnicas de análisis y caracterización de materiales
18.4. PreParación de MUesTras Un punto muy importante en la cromatografía de gases es la preparación de las muestras, ya que es imprescindible asegurar que la muestra se vaporiza en el portal de inyección. La preparación de la muestra puede ser sencilla, como puede ser la inyección directa de una muestra, o muy sofisticada, y en algunos casos se puede necesitar el uso de instrumentos muy complejos como la extracción con fluidos supercríticos. La muestra que se inyecta en un cromatógrafo de gases debe ser un líquido o un gas, y los analitos deben ser lo suficientemente volátiles para atravesar el instrumento en las condiciones del inyector y la columna, e idealmente, las interferencias de la matriz deben también ser volátiles para no contaminar el instrumento o columna. El objeto de la preparación de la muestra es asegurarse que estas propiedades se alcanzan en las muestras antes de ser utilizadas. Además, otro objetivo importante es que la preparación sea sencilla y reproducible para que se puedan obtener resultados cuantitativos. Existe una gran variedad de métodos de preparación de muestra que se pueden aplicar a diferentes tipos de muestras: sólidas, líquidas o gaseosas. Posiblemente, la elección del método de preparación de la muestra sea uno de los puntos más complejos a la hora de desarrollar un método analítico. Las muestras más sencillas son las gaseosas, y en general, no necesitan ningún tratamiento especial. La preparación de las muestras sólidas se basa en traspasar el analito a un líquido (disolución, extracción) o a un gas (pirolisis, espaciado en cabeza). Las muestras líquidas en principio pueden ser muy sencillas, y simplemente se inyectarían al cromatógrafo. Pero, en muchos casos hace falta una preparación compleja para separar los compuestos de interés de otros presentes en el líquido.
18.4.1. Métodos de preparación 18.4.1.1. Técnicas de extracción La mayor parte de las técnicas de preparación de muestras se basan en técnicas de extracción a partir de un líquido o un sólido. En general, se pone en contacto un líquido (no miscible, si la muestra es líquida) con la muestra, y se extrae de forma selectiva el analito a estudiar. Existen varias técnicas que se basan en este principio: extracción líquido —líquido, extracción sólido— líquido, extracción asistida por microondas (MAE, Mirowave Assisted Extraction), extracción acelerada con disolventes (ASE, Accelerated Solvent Extraction) y extracción con fluidos supercríticos (SFE, Supercritical Fluid Extraction). 18.4.1.1.1. Extracción de sólidos La forma más sencilla de extraer un analito de una muestra sólida es poner en contacto el sólido con un líquido que sea capaz de disolver el analito. Esta forma de operar se llama extracción sólido-líquido; una forma muy habitual es situar la mues-
Cromatografía de gases
775
tra sólida en un Soxhlet. El disolvente se calienta y se condensa sobre el sólido, y este líquido fresco realiza la extracción. El sistema es muy fácil de utilizar pero es lento, y además, si el analito es volátil se puede perder durante las etapas de destilación/condensación. Por esta razón, se han desarrollado sistemas de extracción más eficientes. Extracción acelerada con disolvente (ASE) La muestra sólida se mezcla con un disolvente en un recipiente cerrado y se calienta. La extracción se produce a temperatura (hasta 200 ºC) y presión (100 – 140 bar) elevadas. En estas condiciones la extracción es más eficiente y rápida que por los métodos tradicionales Extracción asistida por microondas (MAE) Se pone en contacto la muestra con un disolvente en un recipiente cerrado y se somete a radiación por microondas. Se produce una aceleración de la extracción, como ocurría en el método anterior. Sin embargo, se pueden tener resultados diferentes porque la radiación microondas calienta selectivamente unas especies químicas frente a otras. Esta técnica funciona muy bien cuando se utilizan disolventes y analitos con elevada constante dieléctrica. Extracción con fluidos supercríticos (SFE) La muestra se pone en un recipiente y se pone en contacto con un fluido que se encuentra a una presión y temperatura mayor que las de su punto crítico. Después de un tiempo de extracción, el fluido con el extracto se despresuriza y se recoge el extracto limpio en una trampa adsorbente o en un disolvente para su análisis. Un fluido supercrítico posee unas propiedades físicas entre gas y líquido que le hacen ser un disolvente excelente para muchas sustancias. variando la presión y la temperatura (es decir, la densidad del fluido) se controla la solubilidad de los analitos en dicho fluido. El fluido supercrítico más utilizado es el dióxido de carbono, porque es gas a temperatura ambiente, no deja residuos, no es tóxico, no es inflamable y tiene un punto crítico en condiciones relativamente suaves (72,9 bar y 31,3 ºC). 18.4.1.1.2. Extracción de líquidos La extracción líquido-líquido es la técnica clásica de preparación de muestras líquidas. Se pone en contacto la disolución de la muestra con un líquido inmiscible, en este líquido el analito de interés debe ser muy soluble. De esta forma se extrae el compuesto de interés, además si se emplea una pequeña cantidad de líquido, el analito se encontrará más concentrado que en la muestra inicial. Este método es muy útil en el análisis de contaminantes en agua que se encuentra a niveles de ppb, o menores, y así se tiene una disolución más concentrada. Sin embargo, esta técnica tiene una serie de inconvenientes como son: una incompleta separación de fases, extracciones no cuantitativas y manejo de grandes cantidades de disolventes orgánicos.
Técnicas de análisis y caracterización de materiales
776
Por esta razón se han desarrollado dos técnicas basadas en la extracción sobre sólidos: extracción en fase sólida (SPE, Solid Phase Extraction) y micro-extracción en fase sólida (SPME, Solid Phase, Micro-Extraction). Extracción en fase sólida (SPE) Se basa en la retención sobre un adsorbente sólido de los compuestos deseados disueltos en una muestra líquida. La adición de un disolvente permite eliminar los otros componentes de la matriz que interfieren y no son de interés. Finalmente, se adiciona un disolvente muy afín al analito, y se obtiene una disolución concentrada del compuesto que se desea analizar. La extracción en fase sólida sustituye a la extracción líquido-líquido clásica. Es una técnica aparentemente sencilla, pero el desarrollo del método selección de los disolvente adsorbente, existen numerosos adsorbentes disponibles en el mercado para SPE, es complicado. La selección de los adsorbentes a utilizar se hace en función del compuesto a analizar, el disolvente de la muestra y los demás compuestos de la mezcla. Es muy efectiva para extraer compuestos polares o apolares de muestras líquidas. Un esquema de funcionamiento es el siguiente (Figura 18.21): 1. Se hace pasar la muestra a través de un cartucho de extracción, donde se retiene el compuesto de interés junto a otros que se encuentran en la muestra. 2. Se añade un disolvente en el que el analito de interés sea poco soluble, para arrastrar los restos de matriz adsorbidos en el sólido. 3. Se añade un poco de disolvente en el que el compuesto a analizar sea muy soluble, y se recoge una disolución concentrada que se puede llevar al cromatógrafo. Micro-extracción en fase sólida (SPME) Se basa en la adsorción de los compuestos orgánicos de la muestra por una fase sólida inmovilizada sobre una fibra de sílice fundida. Existe una gran variedad de microfibras en el mercado para la absorción de diferentes tipos de analitos. La matriz puede ser gas o líquida. En muestras líquidas, la microfibra se puede sumergir en la muestra o quedarse en la fase gas adsorbiendo los compuestos más volátiles (especiado en cabeza). En general, las técnicas de extracción pretenden obtener todo el analito presente en la muestra, en contraste SPME no opera de esta forma. Cuando se trabaja con SPME, la cantidad de analito extraída por la microfibra es proporcional a la concentración en la muestra. Esta proporción está regida por el equilibrio de adsorción, por esta razón, los parámetros de extracción con microfibra deben ser muy constantes. Pero una vez, se ha establecido el procedimiento se tiene un método sencillo, rápido, económico y versátil. El modo de funcionamiento es el siguiente (Figura 18.21): Se introduce la microfibra en el vial que contiene la muestra, y una vez alcanzado el equilibrio de adsorción la microfibra se saca. Esta se introduce en el portal de inyección de un cromatógrafo de gases y los compuestos adsorbidos se desorben térmicamente en el inyector.
Cromatografía de gases
777
Adición de muestra ++ ++ + ++ + ++ ++ +
Lavado
Recuperación
Metanol
Hexano
+++ ++ + + C18 + ++ +
+ No polar
++ ++ ++ ++ C18
C18
Semi-polar Polar
++ + ++ +
Figura 18.20. Funcionamiento de un SPE.
1
2
3
4
5
6
Figura 18.21. Procedimiento de extracción/análisis con SMPE. 1) Pinchazo a través del septum de la muestra. 2) Extracción de la microfibra y adsorción del analito. 3) Protección de la microfibra y extracción del vial. 4) Introducción en el portal de inyección. 5) Extracción de la microfibra y desorción del analito. 6) Protección de la microfibra y extracción del inyector.
18.4.1.2. Espaciado en cabeza Es una técnica que hace posible la determinación de los constituyentes volátiles de muestras sólidas o líquidas, por análisis de la fase de vapor que está en equilibrio termodinámico con la fase sólida o líquida. Dichos compuestos volátiles pueden determinarse en casi todo tipo de matrices sin necesidad de recurrir a procesos de extracción, disolución o incluso dilución. Para ello, las muestras se colocan en dispositivos adecuados que se mantienen a temperatura constante el tiempo suficiente, para
Técnicas de análisis y caracterización de materiales
778
que se establezcan los equilibrios sólido/vapor o líquido/vapor correspondientes, seguidamente se transfiere un determinado volumen de la fase gaseosa a la columna cromatográfica (Figura 18.22). La temperatura debe ser controlada de forma precisa debido a la dependencia entre esta variable y la presión de vapor y, por supuesto, la calibración tiene que hacerse en idénticas condiciones a las de la muestra.
Jeringa
Termómetro Septum
Envase de espaciado en cabeza Muestra Baño de temperatura controlada
Figura 18.22. Esquema de un sistema de espaciado en cabeza.
18.4.1.3. Derivatización Existe una gran cantidad de compuestos químicos que no pueden ser analizados directamente por cromatografía de gases, bien porque no sean suficientemente volátiles, porque interaccionan fuertemente con la columna y no dan picos claros, etc. Puede estimarse que entre el 80 y 90% de los compuestos orgánicos no son adecuados para su determinación directa por cromatografía de gases es debido a su baja volatilidad. Entre estos compuestos se pueden citar: ácidos orgánicos, hidratos de carbono, dioles y trioles, anhídridos, imidazoles… Una forma muy sencilla de mejorar las características de los compuestos para un análisis por cromatografía de gases es su transformación mediante una reacción química. Los compuestos derivados presentan una mejora en alguna o varias de estas propiedades: incrementar la volatilidad, disminuir la polaridad de los compuestos, aumentar la estabilidad térmica, aumentar la respuesta del detector, mejorar la separación y la forma de los picos. La elección del procedimiento y reactivos para la derivatización se basan en el tipo de grupo a transformar y de la presencia de otros grupos funcionales en la molécula. Este procedimiento debe cumplir una serie de criterios:
Cromatografía de gases
779
– La reacción de derivatización se produce en gran extensión, prácticamente completa. – No se producen alteraciones estructurales o reorganizaciones moleculares durante la formación de los compuestos derivados. – No se pierde muestra durante la reacción. – El compuesto derivado no interacciona fuertemente con la columna analítica. – El compuesto derivado es estable respecto al tiempo. Las reacciones más utilizadas para la obtención de compuestos derivados son: esterificación, alquilación, acilación y sililación. – La esterificación consiste en la reacción de un ácido con un alcohol para conseguir un éster. El alcohol más utilizado es el metanol ya que da lugar a la formación de los correspondientes ésteres metílicos, y estos son los compuestos más volátiles entre la familia de los ésteres. La reacción de esterificación esta catalizada por ácidos, por esa razón, se suele mezclar la muestra con una disolución de un ácido (BCl3, BF3, HCl o H2SO4) en metanol. – La alquilación es una reacción de substitución de un hidrógeno activo (–SH, –NH, –OH) por un grupo alquilo. Los productos obtenidos son éteres, tioéteres o N-alquilaminas. La alquilación de estos compuestos requiere el uso de catalizadores del tipo bases fuertes (metóxido sódico o potásico). – La acilación es una reacción que transforma compuestos con átomos de hidrógeno activos (–SH, –NH, –OH) en amidas, ésteres, o tioésteres por reacción con un ácido carboxílico o un derivado de un ácido carboxílico. – La sililación es la reacción de substitución de un hidrógeno activo por un grupo silano. Los compuestos derivados tiene menor polaridad que el compuesto de partida y los enlaces por puente de hidrógeno son mucho menores, por lo que son más volátiles y más estables. Los compuestos sililados son compatibles con la mayoría de los detectores, pero si se usa en exceso puede causar problemas en el detector FID.
18.4.2. aplicaciones de la técnica La cromatografía de gases es una técnica analítica que permite identificar los compuestos presentes en la muestra (análisis cualitativo) y la cantidad de cada uno de ellos (análisis cuantitativo).
18.4.2.1. Interpretación de cromatogramas El tamaño de pico y el tiempo de retención sirven para determinar la cantidad y calidad de un compuesto respectivamente. No obstante, es importante incidir en que la identificación de un compuesto no se realiza exclusivamente a partir del tiempo de retención. Antes, deberá analizarse una cantidad conocida de una muestra del compuesto a fin de establecer el tiempo de retención y el tamaño de pico. Tras ello, este valor podrá compararse con los resultados de una muestra no conocida para saber si
Técnicas de análisis y caracterización de materiales
780
el compuesto buscado está presente (comparando los tiempos de retención) y en qué cantidad (comparando el tamaño de pico). El cromatograma ideal presenta picos cercanos entre si, que no se solapan (no hay coelución). Esto es importante por dos motivos: primero, porque la coelución impide medir picos de manera precisa y, segundo, porque en caso de que dos picos presenten el mismo tiempo de retención, ninguno se podrá identificar con exactitud. Únicamente se pueden cuantificar compuestos que coeluyan con GC/MS, cuando los fragmentos que se formen de cada producto tengan valores de m/z diferentes.
18.4.2.2. Análisis cualitativo Existen dos formas de trabajar para obtener información cualitativa de los compuestos que eluyen de una columna de cromatografía de gases. Uno muy general, y que se puede aplicar a cualquier cromatógrafo de gases, es la medida del tiempo de retención y comparación con patrones conocidos. La otra opción es utilizar las propiedades cualitativas que tienen algunos de los detectores de cromatografía de gases. 18.4.2.2.1. Método de coincidencia Este modo de identificación de compuestos está basado en que bajo unas condiciones de análisis y una misma columna de cromatografía de gases, un compuesto eluye siempre al mismo tiempo de retención. Así, si se tiene un pico de un compuesto desconocido a un tiempo de retención tRx, se compara con el tiempo de retención de compuestos conocidos (patrones) que pueden corresponder con la sustancia buscada (Figura 18.23). Siguiendo este procedimiento se pueden presentar dos casos: 1) si no coincide el tiempo de retención con el del compuesto patrón, este no está en la muestra; 2) si el tiempo de retención del pico desconocido coincide con el del compuesto patrón, puede estar en la muestra. MUESTRA PATRÓN t’R (p) t’R (m)
Figura 18.23. Comparación de tiempos de retención.
La mayor ventaja de este método es que se puede utilizar con cualquier sistema cromatográfico y es muy sencillo. Sin embargo, presenta una serie de inconvenientes: Existe una fuerte dependencia del tiempo de retención con las variables de análisis. Una variación del 0,1% en la temperatura de la columna o 1% del flujo en columna produce una variación del 1% del tiempo de retención.
Cromatografía de gases
781
Masa
variaciones drásticas de la cantidad de sustancia que se inyecta producen cambios de forma del pico y el tiempo de retención, principalmente cuando se satura la fase estacionaria con compuesto (Figura 18.24).
Figura 18.24. variación del tiempo de retención y la forma de los picos con la cantidad de analito.
18.4.2.2.2. Uso de las propiedades cualitativas de los detectores Hay algunos detectores de cromatografía de gases que pueden ayudar a identificar los compuestos que eluyen. Los detectores selectivos solo dan señal de un determinado tipo de compuestos, por lo tanto si, el compuesto da señal en un detector selectivo es que tiene las propiedades de los compuestos que se detectan en ese detector. Por ejemplo, una señal en un SCD indica la presencia de un compuesto con azufre, una señal en un ECD indica la presencia de un compuesto capaz de capturar electrones (halogenado o un peróxido). Sin embargo, los mejores detectores para realizar un análisis cualitativo son el de emisión atómica (AED), el de espectroscopía infrarrojo (IR), y espectrometría de masas (MS). El detector AED permite medir la cantidad relativa y los tipos de átomos que hay en un compuesto que eluye de la columna, por lo tanto se puede calcular de forma sencilla su fórmula molecular y de esta forma tener una información cualitativa muy interesante. Los detectores IR y MS se basan en comparar los espectros obtenidos con las bases de datos de espectros de compuestos patrón, y de esta forma identificar el compuesto del que se trata. Por razones de precio y nivel de detección, el detector MS es el que se está imponiendo en el mercado.
18.4.2.3. Análisis cuantitativo Está basado en que todos los detectores cromatográficos producen señales que se envían a un medidor, registrador, integrador o convertidor analógico-digital, y que esta señal es proporcional a la cantidad de muestra que llega al detector. El perfil del analito que entra en el detector tiene forma de curva tipo campana, pico. Por esta ra-
Técnicas de análisis y caracterización de materiales
782
zón, la intensidad y el área de ese pico cromatográfico están relacionadas con la cantidad de compuesto que llega al detector. La respuesta del detector varía de un compuesto a otro, por lo que se requiere el uso de estándares. En los sistemas antiguos se relacionaba la altura de los picos con la cantidad de soluto. Pero la medida de la altura del pico se ve muy afectada por pequeños cambios en la temperatura del horno, caudal de gas portador y velocidad de inyección de la muestra, por esta razón ya no se utiliza. En los sistemas actuales, la concentración se relaciona con el área del pico. Esta medida se ve muy poco afectada por pequeñas variaciones de las condiciones experimentales, y el área se mide de forma muy rápida y precisamente con las estaciones de datos (Figura 18.25).
Respuesta del detector
A
9/10
B
1/2 h
W tR
tM
tiempo
Figura 18.25. Determinación del área de un pico cromatográfico.
Existen tres métodos de cuantificación: 1) método de normalización interna; 2) método de patrón o estándar externo, y 3) método de patrón o estándar interno. Los más utilizados son los dos últimos debido a que el primero solo se puede aplicar en muy pocos casos y presenta poca precisión. 18.4.2.3.1. Método de normalización interna Este método consiste en relacionar la concentración de un compuesto con su área de pico relativa. La concentración de los compuestos se calcula con la ecuación [18.11]. Al aplicar este método se supone que la sensibilidad del detector es igual para todos compuestos. Este método es muy fácil de utilizar y rápido, pero solo se puede aplicar para compuestos de volatilidad y estructura similares, y se debe estar seguro que todos los componentes eluyen. Presenta poca precisión y exactitud, y se puede utilizar únicamente cuando la respuesta del detector sea similar para todos los componentes. %C1 =
A1 n
∑ i=1 A i
100
[18.11]
Cromatografía de gases
783
18.4.2.3.2. Método de patrón o estándar externo Debido a las deficiencias del método anterior se desarrolló un método mejorado. Los detectores proporcionan distintas respuestas para la misma concentración de dos compuestos diferentes, lo que hace necesaria la calibración o cálculo del factor de respuesta del detector para cada analito. Para construir la recta de calibrado se preparan unos patrones de concentraciones conocidas y próximas a la del problema; se realiza la cromatografía para los patrones y se calcula el área de los picos para cada patrón. Y se obtiene la gráfica correspondiente, representando en ordenadas la respuesta del detector (áreas) y en abscisas la concentración de los patrones para cada compuesto de interés. Para aplicar este método se debe determinar aproximadamente los intervalos de concentración para cada componente de interés en las muestras a analizar. A continuación, se preparan estándares de concentraciones similares a los intervalos en los que van a estar en el problema los componentes de interés. Si el intervalo de concentraciones a determinar de un componente es estrecho se pueden usar distintos volúmenes de una única disolución estándar. Pero, si el intervalo es amplio preparar disoluciones de distinta concentración para que los volúmenes inyectados no sean muy distintos. Este método se utiliza ampliamente, pero tiene una serie de limitaciones: – – – – – –
Se deben mantener las condiciones cromatográficas constantes. Se utilizarán patrones puros de todos los analitos. No es necesario eluir todos los componentes. Las muestras se deben repetir varias veces para tener valor estadístico. Precisión y exactitud media-alta. Requiere inyecciones de volúmenes muy exactos (recomendado inyector automático).
18.4.2.3.3. Método de patrón o estándar interno El método del patrón externo tiene algunos inconvenientes que se pueden eliminar si se añade una cantidad conocida de una sustancia a la muestra antes de análisis. Esta sustancia se llama patrón interno. Para que una sustancia sea patrón interno debe poseer unas características adecuadas: muy alta pureza, naturaleza similar a la muestra en conjunto, no estar presente en el problema, dar pico resuelto y simétrico, similar concentración, tiempo de retención y respuesta del detector similar a la de los analitos. La elección del patrón interno es uno de los puntos menos trivial de este método, además es único para cada tipo de muestra. Para realizar el calibrado se preparan diversos patrones de composición exacta conocida y aproximada a la de las muestras que se van a analizar. A los patrones se les añade una cantidad exactamente conocida del patrón interno antes seleccionado para calcular el factor de respuesta. Se representa la relación de áreas del pico del compuesto y del patrón interno frente a la relación de concentraciones (Figura 18.26). A partir de esa representación se calcula el factor de respuesta del compuesto. El factor de respuesta (fi ) es la pen-
Técnicas de análisis y caracterización de materiales
784
diente de la recta de calibrado que representa áreas frente a concentraciones, para cada analito. El factor de respuesta se determina para el componente de interés. Uno de los puntos más importantes de este método es la calibración, por lo que la preparación de estándares y patrón debe ser cuidadosa. Para el análisis de una muestra problema, se añade una cantidad conocida del patrón interno. Se analiza y se determinan las áreas de cada pico, y con los factores de respuesta obtenidos en el calibrado, se calcula la concentración no conocida de los diferentes analitos (ecuación 18-12). Ci = C p
Ai
[18.12]
Ap f i
donde Ai es el área del pico del compuesto a analizar, fi es el factor de respuesta relativo del compuesto i, Ap el área del pico patrón, Cp es la concentración del patrón y Ci la concentración a determinar. A Área C Concentración
Ai Ap
**
*
** fi
Ci Cp
Figura 18.26. Procedimiento de cálculo del factor de respuesta con patrón interno.
Las principales características de este método son: – Cada analito tiene un factor de respuesta. – Se requiere alta pureza del patrón y los componentes a determinar para los estándares. – No se afecta por pequeños cambios en las condiciones. – No requiere medidas exactas de volúmenes. – Alcanza precisión y exactitud máximas.
Cromatografía de gases
785
bibliOGrafía 1. Cazes, j. (ed.). Encyclopedia of chromatography, Marcel Dekker Inc., 2004, DOI: 10.1081/E-ECHR 120028860. 2. Fowlis, I. A. Gas chromatography: analytical chemistry by open learning, 2.a ed., john Wiley and Sons, Chichester, 1995. 3. Grob, R. L.; barry, E. F. (eds.). Modern practice of gas chromatography, 4.a ed., john Wiley and Sons, Inc., New York, 2004. 4. sadek, P. C. Illustrated pocket dictionary of chromatography, john Wiley and Sons, Inc., New York, 2004. 5. hübsChMann, H.-j. Handbook of GC/MS: Fundamentals and Applications, 2.a ed., WILEY-vCH verlag GmbH & Co. KGaA, Weinheim, 2009.
19. crOMaTOGrafía líQUida de alTa resOlUción (HPlc) FranCisCo J. Plou GasCa PaMela torres salas Instituto de Catálisis y Petroleoquímica (CsiC)
19.1. inTrOdUcción La cromatografía líquida de alta resolución (HPLC) es la técnica analítica de separación más utilizada, con ventas millonarias cada año tanto de equipos como de consumibles. La cromatografía, descrita por primera vez en 1906 por el italiano nacido en Rusia Mikhail Tswett, se utilizó inicialmente para separar pigmentos vegetales, clorofilas y xantofilas, mediante el empleo de un tubo de vidrio (en vertical) relleno de carbonato cálcico en polvo (fase estacionaria) y usando éter como eluyente (fase móvil). La solución recorrió el tubo, y los componentes individuales de la mezcla migraron hacia abajo con diferentes velocidades; la columna quedó marcada con bandas horizontales de distintos colores correspondientes a pigmentos diferentes. El resultado fue llamado cromatograma, justificando el nombre que se dio a la técnica: chroma, del griego, que significa «color», y graphein, que significa «escribir». Casi veinte años pasaron sin que esta técnica, que prometía simplificar la separación de mezclas complejas, fuera utilizada. En 1931, Kuhn y Lederer utilizaron la cromatografía líquida para separar muchos productos naturales. En 1952, Martin y Synge introdujeron la cromatografía de reparto, empezando a utilizar el concepto de la distribución y coeficiente de reparto en la separación de mezclas de aminoácidos, lo que les valió el premio Nobel de Química en 1952. En sus comienzos, la cromatografía líquida utilizaba columnas de vidrio de 50-500 cm de longitud y 1-5 cm de diámetro, con rellenos de 150-200 µm para asegurar un caudal adecuado (del orden de microlitros por minuto). Stahl, en 1956, interesado en la separación de los componentes de las células, diseñó un aparato que aplicaba capas de adsorbente en placas, llamándolo cromatografía de capa delgada o fina. En la década de los sesenta, se desarrolló la tecnología que permite utilizar rellenos con diámetro de partícula de 3-10 µm, que generaban altas presiones de trabajo. El avance posterior en fabricación de columnas, rellenos y detectores en continuo permitió el nacimiento de la cromatografía líquida de alta presión (HPLC: high-pressure liquid chromatography), luego denominada de alta reso-
Técnicas de análisis y caracterización de materiales
788
lución (HPLC: high-performance liquid chromatography), nombre que se propuso para distinguir esta nueva tecnología de los clásicos métodos de cromatografía líquida a presión atmosférica, que se siguen utilizando con fines preparativos. Desde entonces la cromatografía líquida de alta resolución viene desarrollándose a pasos agigantados, debido principalmente a su versatilidad, alta sensibilidad, fácil adaptabilidad, precisión, la posibilidad de utilizar especies no volátiles o inestables térmicamente, y su gran aplicabilidad a sustancias de interés para la industria, la investigación y en general para la sociedad actual. Ejemplos significativos de aplicaciones de la cromatografía HPLC los constituyen el análisis de aminoácidos, proteínas, fármacos, biocombustibles, drogas, hidratos de carbono, grasas, pesticidas, contaminantes alimenticios, antibióticos, vitaminas o efluentes. En el contexto del libro Técnicas de análisis y caracterización de materiales la cromatografía HPLC es una técnica instrumental que puede utilizarse para, entre otras cosas, analizar determinados componentes presentes en un material, o medir la actividad catalítica de un material analizando el consumo de sustratos o la aparición de los productos de reacción.
19.2. cOMPOnenTes de Un eQUiPO de HPlc Todo equipo de cromatografía líquida de alta resolución debe disponer de, al menos, los siguientes módulos (Figura 19.1): 1. 2. 3. 4. 5. 6. 7.
Reservorios o botellas para la fase móvil. Sistema de bombeo. Inyector (manual o automático). Columna. Uno o varios detectores en serie. Sistema de tratamiento de resultados. Botella para residuos.
4 W
3
C
7
5 2
B A
6
1
Figura 19.1. Principales componentes de un equipo de HPLC: (1) reservorios; (2) bomba; (3) inyector automático con diferentes carruseles de muestras; (4) columna cromatográfica; (5) detectores en serie; (6) sistema de tratamiento de datos; (7) botella para desechos.
Cromatografía líquida de alta resolución (HPLC)
789
Existen otros módulos complementarios, a veces necesarios para la aplicación, como son el horno de columnas, un desgasificador, un colector de fracciones para cromatografía preparativa, divisores de flujo, etc. así como una serie de pequeños accesorios (soportes de la columna, restrictores de presión a la salida del detector, filtros intermedios, etc.). A continuación se indican las principales características de los componentes de un equipo de HPLC.
19.2.1. reservorios y fases móviles Los reservorios utilizados para las fases móviles van desde el sencillo frasco de disolvente hasta los sistemas más complejos capaces de filtrar, desgasificar, mantener una atmósfera inerte, termostatizar, agitar, etc. Su boca ha de ser lo más estrecha posible para evitar la evaporación del disolvente, especialmente cuando se emplean mezclas en las que no todos los componentes son igualmente volátiles, ya que puede alterarse la composición de la fase móvil. El vidrio suele ser el material más utilizado. El reservorio ha de taparse, para evitar la entrada de polvo. A través del tapón discurre el tubo (generalmente de teflón) que conduce la fase móvil al sistema de bombeo. Este tubo suele tener en su extremo un filtro de titanio de 10 µm de poro, que evita el paso hacia el equipo cromatográfico de partículas sólidas que pueda contener la fase móvil. Los equipos modernos de HPLC suelen incorporar 2-4 reservorios (con una capacidad típica de 1.000 ml cada uno) que permiten la preparación automatizada de mezclas de disolventes como fase móvil o la formación de los correspondientes gradientes. Suelen estar provistos de un sistema para eliminar los gases disueltos (que pueden generar nefastos efectos sobre la bomba, la columna o el detector). Lo más habitual suele ser el bombeo de un gas inerte (típicamente Helio) en forma de pequeñas burbujas para desplazar el aire, y en algunos casos se emplean desgasificadores automatizados en línea. En la Tabla 19.1 se resumen las principales precauciones que deben adoptarse con respecto a la fase móvil para el correcto funcionamiento del sistema de HPLC. Tabla 19.1. acciOnes QUe deben realizarse cOn la fase Móvil acción Filtrar Desgasificar Refrigerar Termostatizar Desoxigenar Agitación 1
cuando Siempre. Utilizar filtros de 0,45 µm1 Indispensable para equipos con gradientes en baja presión Disolventes de bajo punto de ebullición. Fases móviles muy viscosas Fases móviles o muestras oxidables Fases móviles formadas por solventes poco miscibles
No deben emplearse filtros de acetato de celulosa cuando el disolvente es acetonitrilo
Algunos de los disolventes más utilizados en HPLC son: agua, metanol, acetonitrilo, tetrahidrofurano, isopropanol, diclorometano y hexano. Es muy importante elegir disolventes con una pureza adecuada para cromatografía líquida. Además, cuando se emplean detectores fotométricos (Uv-vIS) es fundamental conocer la longitud de onda a partir de la cual el disolvente no interfiere con la señal del detector (UV-Cutoff).
Técnicas de análisis y caracterización de materiales
790
Otras propiedades físico-químicas de los disolventes con una singular importancia en HPLC son: su viscosidad (que afecta de manera notable a la presión de trabajo), su polaridad (que determinará su poder de elución o fuerza elutrópica) y su miscibilidad con otros disolventes (Figura 19.2). n-pentano
miscible
hexano inmiscible
isooctano ciclohexano xileno éter isopropílico cloroformo diclorometano tetrahidrofurano acetona dioxano acetato de etilo acetonitrilo
n-propanol etanol metanol agua
Figura 19.2. Miscibilidad de los disolventes más comúnmente utilizados en HPLC.
19.2.2. sistemas de bombeo. Gradientes en alta y baja presión Se denomina bomba cromatográfica al dispositivo capaz de proporcionar a la fase móvil la presión necesaria para atravesar, al flujo seleccionado, la columna y el resto del sistema. Las principales características que debe reunir una bomba HPLC convencional (escala analítica) son dos: la obtención de flujos de 0,1 a 5,0 ml/min y la capacidad de trabajar a presiones de hasta 6.000 psi (400 bar). El flujo proporcionado por la bomba debe ser, como cualquier otro valor analítico, lo más exacto y preciso posible (con una desviación estándar inferior al 0,5%). Además, es conveniente que los componentes de la bomba sean resistentes a la corrosión. Las bombas en HPLC son en su mayoría de flujo constante, y operan a la presión que sistema cromatográfico y columna determinan. En particular, se suelen utilizar generalmente bombas de pistón y solo en algunos casos bombas de jeringa. En las bombas de pistón, un dispositivo eléctrico actúa sobre el pistón que entra en una cámara donde se halla el disolvente, para comprimirlo y enviarlo a presión al resto del sistema. El flujo deseado se mide y alcanza en función del número de emboladas por unidad de tiempo. El principal inconveniente de las bombas de pistón simple es la aparición de oscilaciones en la línea base por cada embolada. Para evitarlo se suele recurrir a bombas con dos pistones en paralelo, o bombas con dos pistones en serie. Además, es habitual disponer de un atenuador de pulsos (damper) a la salida de la bomba.
Cromatografía líquida de alta resolución (HPLC)
791
Los parámetros fundamentales que caracterizan una bomba HPLC son el rango y la precisión del caudal, su capacidad de mezcla, y la precisión de la mezcla. Por otro lado, los principales problemas que puede presentar una bomba son: – Ruido de flujo: la línea base siempre presenta ruido, que se conoce como rizado. Las causas de un rizado excesivo de la línea base pueden ser eventuales (burbujas, fugas, mal ajuste de los pistones, compresibilidad del disolvente empleado, etc.), constantes (rozamiento mecánico de las partes internas de la bomba, holgura entre las piezas móviles de la bomba) o ajenas a la bomba (sensor de presión, detector, sistema de registro, etc.). – Error de flujo: esto ocurre cuando el flujo real es distinto al estipulado. Puede ser debido a la presencia de burbujas (por no desgasificar correctamente la fase móvil) o a la existencia de fugas en algún punto del sistema. También puede ser consecuencia de la presencia de partículas sólidas en el disolvente (mal filtrado). Cuando la composición de la fase móvil no se modifica durante el análisis, se habla de un sistema de bombeo isocrático. No obstante, suele ser conveniente disponer de bombas capaces de proporcionar gradientes, especialmente para resolver mezclas de sustancias de polaridad dispar. En la Figura 19.3 se muestra la separación de los componentes de una reacción test de síntesis de biodiésel, observándose que el triglicérido (trilaurina) eluye 15 min más tarde que el diglicérido (1,2-dilaurina) y el resto de sustancias más polares de la muestra, bajo condiciones isocráticas. Este hecho supone un tiempo de análisis excesivo con el consiguiente consumo de disolventes. Para la formación de gradientes se disponen varios reservorios con distintas fases 0.10 1 2 3 4 5
Señal del detector (Abs 216 nm)
3 0.08
Glicerol 1-Monolaurina Laurato de metilo 1, 2-Dilaurina Trilaurina
0.06 1
2 4
0.04
0.02 5 0.00 0
5
10
15
20
25
Tiempo de retención (min)
Figura 19.3. Separación de los componentes de una reacción test de obtención de biodiésel empleando condiciones isocráticas. Columna Mediterránea C18 Teknokroma (150 × 4,6 mm), 5 µm. Fase móvil: metanol/H2O 95/5. Flujo: 1,2 ml/min. Temperatura: 45 °C. Detección por ELSD.
Técnicas de análisis y caracterización de materiales
792
móviles, y la bomba varía la proporción relativa de los distintos componentes con el tiempo. La elución mediante gradientes produce efectos similares a los obtenidos con una programación de una rampa de temperatura en cromatografía de gases. Existen dos posibilidades a la hora de realizar un gradiente en HPLC: mezcla a alta presión y mezcla a baja presión (Figura 19.4). En alta presión, se utiliza una bomba para cada componente de la fase móvil y una cámara de mezcla; esta cámara está situada entre las bombas y el inyector, es decir, en el lado de alta presión de la bomba. En baja presión, una válvula (proportioning valve) controla la composición de la mezcla abriendo la entrada de cada eluyente durante un tiempo proporcional a la composición deseada; la mezcla se realiza en una cámara situada entre la válvula y la bomba, es decir, en la zona donde todavía no hay presión. Mezcla a baja presión
Mezcla a alta presión Columna
Bomba
C
D
C
D
Bomba A
Columna Inyector
Inyector A
B
A
B
Cámara de mezcla
Bomba B
Cámara de mezcla
Figura 19.4. Formación de gradientes en alta y baja presión.
Los parámetros que hay que considerar cuando se programan gradientes son el tiempo de equilibrado, la miscibilidad de los disolventes y su pureza, la realización de blancos, la reproducibilidad de tiempos/áreas y la compatibilidad con el detector. En la Tabla 19.2 se comparan las propiedades de ambos tipos de gradientes. El volumen de sistema (dwell volume), también denominado volumen de retraso del gradiente, es el volumen medido desde el punto de mezcla de los disolventes hasta la entrada en la columna. Puede oscilar desde un valor típico de 50 µl para gradientes en alta presión hasta 5 ml en el caso de baja presión. El volumen de sistema es muy importante para: (1) calcular el tiempo que tardan los cambios de gradiente en llegar a la columna, (2) calcular el volumen necesario para el equilibrado del sistema entre inyecciones, y (3) ajustar un método de gradiente entre distintos equipos. Tabla 19.2. cOMParación de GradienTes en alTa y baja Presión Parámetro
alta presión
baja presión
Requerimientos técnicos
Dos o más bombas
Una única bomba
Calidad de la mezcla
Buena
Buena
Desgasificación de las fases móviles
No necesaria
Imprescindible
Flujos bajos
No adecuado
Adecuado
Porcentajes bajos de algún disolvente
Adecuado
No adecuado
volumen de sistema
Pequeño
Grande (> 1 ml)
Cromatografía líquida de alta resolución (HPLC)
793
19.2.3. inyectores El inyector es un dispositivo hermético que se encuentra situado a la salida de la bomba y que permite, mediante el empleo de válvulas, incorporar la muestra a la fase móvil antes de la columna, sin pérdidas de presión que alteren el flujo constante proporcionado por la bomba. Los inyectores de válvulas, conocidos como inyectores de bucle (loop), se utilizan prácticamente en el 100% de los cromatógrafos, destacando por la precisión de la inyección y el mantenimiento de la presión de la bomba, siendo sus partes internas fácilmente reemplazables. Resisten presiones de hasta 7.000 psi. Los inyectores pueden ser manuales y automáticos. En los manuales, se puede cambiar fácilmente el bucle (loop), que es el que nos determina el volumen de muestra que entra en la columna. Existen loops desde 5 µl hasta 5 ml (para HPLC semipreparativo). Es conveniente llenar bien el loop cargando un volumen de muestra de al menos 3 veces su volumen. Una vez lleno, se gira la válvula 1/6 de vuelta, lo que permite la introducción de la muestra a la columna. Los inyectores automáticos o automuestreadores trabajan de manera similar a los inyectores de bucles, permitiendo variar el rango de volumen inyectado. Los automuestreadores suelen disponer de termostatización, y presentan una mayor precisión que los manuales, optimizando el rendimiento del equipo HPLC. Algunos parámetros importantes que deben valorarse cuando se adquiere un inyector automático son: mínimo volumen interno, ausencia de contaminación cruzada, corto tiempo de equilibrado, termostatización (factor importante dependiendo de la naturaleza de las muestras a analizar). La posibilidad de utilizar placas multipocillo en lugar de viales es otro de los aspectos a considerar. En cuanto a los viales, existen innumerables posibilidades dependiendo del material de fabricación (plástico, vidrio ámbar o transparente, etc.), tipo de boca (encapsulable, roscada, etc.), composición del septum (silicona, PTFE —teflón—, o mezclas de ambos), volumen (0,3-20 ml), presencia de inserto para muestras de volúmenes reducidos, etc.
19.2.4. Tubos de conexión Los tubos capilares que se utilizan en HPLC para conectar los distintos componentes del cromatógrafo tienen un diámetro externo de 1/16’’ (1,59 mm). Como regla general, se recomienda utilizar tubo no muy capilar (aprox. 1 mm de diámetro interno) hasta el inyector —para que ofrezca la menor resistencia al flujo—, pero después de él, una vez que la muestra entra en contacto con el sistema cromatográfico, el tubo ha de ser del menor diámetro interno posible (por ejemplo, 0,2 mm de diámetro interno) para evitar la difusión de los analitos y el ensanchamiento de los picos. El tubo ha de continuar siendo capilar entre la salida de columna y el detector, para que los picos sigan tan separados como la columna permite. En la Tabla 19.3 se recogen los diámetros y volúmenes de los tubos utilizados en HPLC.
Técnicas de análisis y caracterización de materiales
794
Tabla 19.3. caracTerísTicas de lOs TUbOs UTilizadOs en HPlc Posición Antes del inyector Después del inyector
diámetro interno pulgadas mm 0,040 1,0 0,009 0,2
volumen 0,8 ml/m 50 µl/m
Los tubos utilizados en HPLC pueden estar fabricados de: 1. Metal: suele ser acero inoxidable 316, que es un material estándar, fácil de doblar, no se obtura ni quiebra, y que se puede fabricar prácticamente en cualquier rango de diámetros interno y externo. Otros metales utilizados son: nitronic 50, níquel 200, EFNI (electroformed nickel), hastelloy C-22 (aleación de níquel, cromo y molibdeno), inconel 600, Titanio, etc. 2. Teflón (PTFE, politetrafluoroetileno): es muy resistente químicamente, pero no tanto frente a las altas presiones o temperaturas. Es rígido, difícil de manipular, y poroso. 3. PeeK (poliéter éter cetona): es el polímero inerte y biocompatible por excelencia. Presenta excelente resistencia química, térmica y a las altas presiones (hasta 5.000 psi, 300 bar). Solo es atacado por dimetilsulfóxido, THF, diclorometano y ácidos sulfúrico y nítrico concentrados. Es conveniente utilizar uniones y tubos del mismo material; por ejemplo, al combinar uniones de acero con tubo capilar de PEEK se corre el riesgo de que este último se dañe. Las uniones de acero suelen llevar una férula y un cono por separado, por lo que necesitan herramientas para su fijación. Por el contrario, las uniones de plástico suelen venir con la férula integrada, se enroscan a mano y son además reutilizables.
19.2.5. columnas y fases estacionarias La columna es la parte más importante del sistema cromatográfico, aunque su precio corresponde a no más del 1-5% del coste total del equipo. Las variables importantes a considerar en una columna HPLC, además de la naturaleza química de su fase estacionaria, son su longitud, diámetro, el tamaño de partícula, así como el diámetro de poro y la homogeneidad entre las partículas. La carcasa de las columnas suele ser de acero inoxidable, ya que se trata de un material inerte, resistente a las altas presiones y con el interior liso, aunque también existen columnas de vidrio, PEEK e incluso de polietileno flexible. Es importante utilizar una columna con una longitud suficiente para separar los compuestos de interés. El empleo de una columna más larga de lo necesario implica un mayor consumo de disolvente y de horas de trabajo. Las columnas más habituales para HPLC analítica tienen longitudes entre 10 y 30 cm. A veces se acoplan 2 o más columnas en serie para mejorar la resolución. En cuanto al diámetro de las columnas de HPLC, para columnas analíticas este suele ser de 4-5 mm; este diámetro es un compromiso entre el consumo de disolvente, el tiempo de análisis y la resolución cromatográfica.
Cromatografía líquida de alta resolución (HPLC)
795
Para el correcto almacenaje de las columnas, estas deben guardarse con sus propias tuercas en un lugar protegido de la humedad ambiental y de las temperaturas extremas. No deben golpearse, y si se utilizaron tampones o sales en las fases móviles, hay que desplazarlos antes de almacenarlas, empleando los disolventes adecuados. En el caso de que se guarden en mezclas de disolventes que contengan agua, la concentración de esta no debe ser muy alta, evitando así el crecimiento de microorganismos en el interior de la columna. Por otro lado, suele ser necesario controlar la temperatura de la columna. Así, la mayoría de los equipos de HPLC suelen incorporar un horno que permite mantener la temperatura de la columna en el rango 20-100 ºC. En algunos casos, el controlador de temperatura del detector se puede utilizar como controlador de temperatura del horno. Las primeras fases estacionarias estaban formadas por partículas de 35 a 70 µm, porosas, que proporcionaban no más de 3.000 platos teóricos por metro. Hoy se alcanzan hasta 80.000 platos teóricos por metro, con rellenos de 5 µm o menores. Una primera exigencia para la fase estacionaria es su estabilidad y resistencia a las altas presiones. En la década de los ochenta, se sintetizaron sílices con una mejor distribución de grupos silanol-activos y menor cantidad de grupos silanol libres. En los noventa aparecieron columnas específicas para resolver problemas cromatográficos complejos. También se desarrolló la cromatografía de exclusión molecular, para purificar biomoléculas y polímeros. En la Tabla 19.4 se recopilan los principales proveedores de columnas de HPLC. Tabla 19.4. PrinciPales PrOveedOres de cOlUMnas de HPlc Proveedor Agilent Alltech Análisis vínicos BIA Separations Bio-Rad Chiral Technologies Europe Dionex Grace Davison Merck Metrohm Phenomenex Restek Shimadzu Supelco Showa Denko (Shodex) Teknokroma Thermo Scientific Tosoh Bioscience varian Waters
dirección web http://www.agilent.com http://www.alltech.com http://analisisvinicos.com http://www.biaseparations.com http://www.bio-rad.com http://www.chiral.fr http://www.dionex.com http://www.discoverysciences.com http://www.merck-chemicals.com/chromatography http://www.metrohm.com http://www.phenomenex.com http://www.restek.com http://www.shimadzu.com http://www.sigmaaldrich.com http://www.shodex.com http://www.teknokroma.es http://www.thermo.com http://www.tosohbioscience.com http://www.varianinc.com http://www.waters.com
796
Técnicas de análisis y caracterización de materiales
El empleo de partículas pequeñas da lugar a mayores presiones de trabajo y, en consecuencia, a un menor tiempo de vida de la columna; sin embargo, la eficacia de la separación cromatográfica aumenta considerablemente. En cromatografía analítica suelen emplearse rellenos de 5 µm (aunque la tendencia actual es usar partículas de menor tamaño, generalmente 3 μm), mientras que para cromatografía semipreparativa y preparativa lo más habitual es hacer uso de rellenos de al menos 10 µm. En todos los casos es fundamental que la distribución del tamaño de partícula sea lo más estrecha posible. La cromatografía ultra-rápida (UPLC, ver apartado 19.6) ha irrumpido con fuerza en el campo de la cromatografía HPLC, haciendo uso de columnas más pequeñas que las convencionales, pero con una gran resolución (aproximadamente 200.000 platos/metro). Suelen tener diámetros internos entre 1,0-4,6 mm, con partículas de menos de 2 µm y longitudes de 3,0 a 7,5 cm. Tienen la ventaja de la rapidez de la separación y el menor consumo de disolvente. En función de su composición, las fases estacionarias que se utilizan en HPLC suelen ser de uno de estos tipos: (1) con base de sílice, (2) poliméricas (basadas en estireno-divinilbenceno), e (3) híbridas, formadas por una combinación de las dos anteriores. Las características que debe reunir una sílice para ser utilizada en HPLC son: forma esférica, tamaño de partícula homogéneo, diámetro de poro superior a 5 nm (50 Å) y una alta superficie específica. Recientemente se han desarrollado las columnas empaquetadas con fases monolíticas de sílice, en la cuales no existe un empaquetamiento de partículas, sino un lecho poroso que llena el volumen de la columna. Entre las ventajas principales de estas últimas destacan el rápido transporte entre la fase estacionaria y la fase móvil, el mínimo volumen muerto, así como una menor presión, lo que permite emplear caudales más altos y reducir el tiempo de análisis. Las columnas basadas en polímeros de estireno-divinilbenceno son muy empleadas en HPLC, existiendo rellenos de este tipo para las distintas clases de cromatografía (fase reversa, intercambio iónico, exclusión molecular, etc.). Se trata de columnas muy estables en el rango de pH 1-13. No obstante, una limitación de estos rellenos es que no deben superarse presiones de 1000 psi (69 bar). Finalmente, las columnas híbridas, formadas por una mezcla de sílice con materiales poliméricos (por ejemplo, XTerra® de Waters, Gemini® de Phenomenex, Prevail® de Alltech, etc.), combinan las ventajas de la sílice (resistencia mecánica, reproducibilidad, alta eficacia, etc.) con las de los polímeros (estabilidad frente al pH, baja reactividad química, etc.). La última innovación en rellenos de columnas consiste en la tecnología fusedcore, que consiste en el empleo de partículas de aprox. 2,7 µm formadas por un núcleo no poroso de sílice de aprox. 1,7 µm, rodeado por una capa porosa de sílice de 0,5 µm. De esta manera, el núcleo sólido impide que los analitos difundan hasta el centro de la partícula (fenómeno que ocurre con partículas totalmente porosas); este hecho reduce el ensanchamiento de las bandas y aumenta la eficacia hasta llegar a 160.000 platos teóricos por metro, es decir, una eficacia ligeramente inferior a la que se consigue con el empleo de partículas menores de 2 µm en cromatografía ultra-rápida. Además, otra ventaja radica en que con columnas rellenas de fases estacionarias fused-core pueden utilizarse equipos de HPLC convencionales, a presiones mo-
Cromatografía líquida de alta resolución (HPLC)
797
deradas, mientras que con partículas de diámetros menores o iguales de 2 µm es necesario utilizar equipos especiales de cromatografía ultra-rápida (UPLC). Hay una serie de fenómenos que pueden indicar el deterioro de una columna HPLC, como son el aumento de presión, el desdoblamiento de picos, cambios en los tiempos de retención, derivas en la línea base, etc. Es posible su regeneración (parcial o total) siguiendo determinados protocolos. No obstante, el gasto en disolventes y reactivos suele aconsejar en muchas ocasiones reemplazar la columna por una nueva.
19.2.6. Precolumnas La columna es delicada y puede perder eficiencia y resolución, muchas veces irrecuperables, por ejemplo cuando se emplean disolventes indebidos o incompatibles, incluso en proporciones pequeñas. Las columnas HPLC llevan filtros a su entrada y salida, y conviene filtrar disolventes y muestras. A pesar de ello, es muy conveniente incorporar una precolumna en el sistema. Las precolumnas se disponen antes de la columna HPLC, aumentando la vida de la columna cromatográfica. La precolumna retiene las partículas sólidas y otros contaminantes presentes en la fase móvil, así como otros componentes de la muestra que se unen irreversiblemente a la fase estacionaria. Además, la sílice —que constituye el relleno base de la mayoría de las columnas— puede disolverse lentamente en la fase móvil. Wehrli demostró que «la cantidad de sílice disuelta, en partes por millón, era aproximadamente equivalente al tanto por ciento de agua en el eluyente». Al incorporar la precolumna, la fase móvil, queda saturada en sílice y ya no es capaz de disolver la sílice de la columna. Además, es importante considerar que a valores bajos de pH puede hidrolizarse el enlace siloxano en fases enlazadas (ver apartado 19.4.2). Es conveniente que la composición de la precolumna sea igual o lo más parecida posible a la de la columna. Las funciones de la precolumna son, en definitiva, de diversa índole: 1. físicas: al incorporar dos filtros adicionales, atenúa los pulsos de la bomba (damper). 2. Químicas: satura la fase móvil en fase estacionaria antes de que entre en la columna. 3. Cromatográficas: el conjunto precolumna-columna tiene más eficiencia (platos teóricos). 4. económicas: alargan la vida de la columna. Uno de los sistemas más atractivos en precolumnas es el de los cartuchos intercambiables. Este tipo de dispositivos se enroscan fácilmente sobre la columna, sin necesidad de herramientas. Además, la carcasa (holder) puede utilizarse para fases estacionarias de distinta naturaleza simplemente cambiando el cartucho desechable.
Técnicas de análisis y caracterización de materiales
798
19.2.7. detectores El detector cromatográfico debe caracterizarse por una gran sensibilidad, precisión y linealidad. Es preferible que el detector no se vea afectado por cambios en la composición de la fase móvil (gradientes), que tenga un tiempo de respuesta inferior a 0,3 segundos y un volumen de celda lo más pequeño posible, de modo que no contribuya al ensanchamiento de los picos. El volumen de celda del detector suele ser de unos pocos microlitros, por lo que toma la forma de un tubo estrecho capilar con un cierto ensanchamiento en la zona de medida, llamada microcámara. Es fundamental no sobrepasar los límites máximos de presión y caudal para cada tipo de detector. Los detectores pueden clasificarse en dos grandes grupos: 1. Detectores universales, que responden a cambios de una propiedad física general de todos los analitos (por ejemplo, dispersión de la luz en los detectores evaporativos de dispersión de luz o light-scattering) o una propiedad de la fase móvil que varíe en presencia de los analitos (por ejemplo, índice de refracción en los detectores refractométricos). 2. Detectores selectivos, que solo son capaces de detectar los compuestos que tienen una determinada propiedad física, por ejemplo la absorción de luz visible o ultravioleta a una determinada longitud de onda. Otra clasificación de los detectores se puede realizar por su fundamento instrumental: 1. Detectores ópticos: de absorbancia UV-VIS, fluorimétricos, refractométricos, polarimétricos, evaporativos de dispersión de luz, etc. 2. Detectores eléctricos: electroquímicos, conductimétricos. 3. Detectores específicos: radiométricos, viscosimétricos. 4. Detectores de técnicas acopladas: espectroscopía de masas (MS), aerosol cargado (CAD), espectroscopía infrarroja transformadora de Fourier (IRTF), absorción atómica (AA), espectroscopía de emisión por plasma (ICP), etc. Un parámetro importante que define la calidad de un detector HPLC es el límite de detección y el número máximo de picos detectados. En la Tabla 19.5 se recopilan los límites de detección de los principales tipos de detectores utilizados en HPLC. En este contexto, algunos de los detectores de masas de última generación para HPLC alcanzan límites de detección del orden de fentogramos. Hay un límite por encima del cual los aumentos de la concentración ya no se ven correspondidos por los de la señal del detector, momento en que se dice que el detector ha quedado «ciego» o que está «saturado». En ocasiones se observa la denominada deriva de la línea base, la cual se torna ascendente, descendente o caótica, mucho más que lo esperado como ruido de flujo. Puede ser debida a varios factores: empleo de gradientes, cambios de temperatura
Cromatografía líquida de alta resolución (HPLC)
799
del laboratorio, cambios de temperatura de la columna, cambio de viscosidad de la fase móvil, dilatación térmica, evaporación parcial de algún componente de la fase móvil en el propio reservorio, etc. Tabla 19.5. caracTerísTicas de lOs PrinciPales deTecTOres UTilizadOs en HPlc detector
Tipo
límite de detección1
Absorbancia
Selectivo
100 pg – 1 ng
Fluorescencia
Selectivo
1 – 10 pg
Índice de refracción
Universal
100 ng – 1 µg
Quimioluminiscencia
Selectivo
0,1 – 1 pg
Electroquímico
Selectivo
10 pg – 1 ng
Evaporativo de light-scattering
Universal
1 –100 ng
Conductividad
Selectivo
500 pg – 1 ng
Espectrometría de masas
Universal
100 pg – 1 ng
Aerosol cargado (CAD)
Universal
100 pg – 10 ng
1
El límite de detección se define como la masa de compuesto inyectada que da lugar a una relación señal/ruido de 5/1, para un analito de masa molecular de 200 g/mol y un volumen de inyección de 10 μl.
Cuando se utilizan varios detectores en serie, se debe situar en primer lugar aquel de menor volumen de celda; no obstante, si uno de ellos es destructivo (electroquímico, evaporativo, etc.) este se pone en último lugar. En casos excepcionales, se puede intercalar un divisor de flujo (splitter) para que los caudales que lleguen a dos detectores en serie sean distintos. A continuación se detallan las características de los principales detectores utilizados en cromatografía líquida. Se han seleccionado detectores tanto de tipo general (índice de refracción, evaporativos, etc.) como selectivos (absorbancia, fluorescencia, electroquímicos, etc.). Algunos de los detectores con mayores perspectivas futuras, como los de masas o los de aerosol cargado, se incluyen lógicamente en dicha recopilación.
19.2.7.1. Detectores de absorbancia o fotométricos (UV-VIS) Los detectores fotométricos están basados en la absorción de luz Uv-vIS, definida por la ley de Lambert-Beer. La linealidad de esta ley es su propiedad más importante y la que justifica su utilización en detectores HPLC. Son muy versátiles, ya que la mayoría de los compuestos orgánicos absorben en alguna zona del espectro. En general, el detector Uv-vIS se suele utilizar con compues-
800
Técnicas de análisis y caracterización de materiales
tos que poseen uno o varios dobles enlaces. Estos detectores presentan una alta sensibilidad, y son compatibles con el empleo de gradientes de elución, siempre y cuando los disolventes empleados no absorban radiación de dicha longitud de onda. Para minimizar el ensanchamiento de los picos, el volumen de la celda suele ser muy pequeño (1-10 µl), con longitudes de celda en el rango 0,2-1,0 cm. La presión en la celdilla Uv-vIS no debe ser nunca superior a 600 psi (40 bar) en la mayoría de los detectores de este tipo. La banda espectral no es tan aguda como en un espectrofotómetro, suele ser de 10 nm. Existen dos grandes grupos de detectores Uv-vIS: los que utilizan una o varias longitudes de onda discretas, y los que emplean un rango espectral continuo (detectores de fotodiodos o photodiode-array, PDA). Los primeros pueden incorporar un sistema de filtros o un monocromador. Los detectores de fotodiodos son capaces de realizar un espectro completo del contenido de la celda en aproximadamente medio segundo. Los detectores de fotodiodos permiten estimar la pureza de un pico analizando, a lo largo del mismo, el cociente de las absorbancias a dos longitudes de onda distintas. Permiten, además, identificar algunos de los compuestos eluidos mediante la comparación de sus espectros Uv-vIS con los contenidos en bibliotecas de espectros. En la Figura 19.5 se muestra un cromatograma de una mezcla de derivados fenólicos empleando un detector PDA, que nos proporciona los espectros Uv-vIS de los cuatro compuestos principales.
19.2.7.2. Detectores fluorimétricos La fluorimetría es muy adecuada para el análisis de moléculas grandes, rígidas y con dobles enlaces conjugados (por ejemplo, hidrocarburos aromáticos policíclicos). Son aproximadamente 1.000 veces más sensibles que los detectores fotométricos y, sobre todo, muy selectivos. Los factores que afectan a la señal de fluorescencia y, por tanto, a la sensibilidad de HPLC con detección fluorimétrica, son: efecto de los átomos pesados externos, quenching o amortiguación de fluorescencia, amortiguación por formación de dímeros, efecto del filtro interno habitual en altas concentraciones, interacción con disolventes y la temperatura. Hay dos tipos de equipos: (1) fluorómetros, basados en filtros, que son dispositivos baratos, sencillos y de aplicaciones concretas; (2) espectrofluorómetros, que tienen monocromadores, más caros y sofisticados que los anteriores. Cuando la molécula a analizar no es fluorescente, se puede recurrir a su derivatización con un marcador o reactivo fluorogénico (por ejemplo, cloruro de dansilo o fluoroescamina, que reaccionan con los grupos amino del compuesto). Se trata de un detector excelente para análisis de hidrocarburos aromáticos (contaminación ambiental) o de antibióticos (tetraciclinas). Es muy clásica la determinación de aminoácidos, no fluorescentes por sí mismos, derivatizándolos con fluorescamina, para determinar la composición de aminoácidos de una proteína (Figura 19.6).
Cromatografía líquida de alta resolución (HPLC)
801
1
2
OH
HO
OH
HO
200
250
300
350
400
200
250
Longitud de onda (nm)
300
350
400
Longitud de onda (nm) 4
3 OH
OH OH
200
250
300
350
400
200
250
Longitud de onda (nm)
300
350
400
Longitud de onda (nm) 2 3 1
1. Hidroquinona 2. Resorsinol 3. Catecol 4. Fenol
0
4
5
10
15
20
Tiempo de retención (min)
Figura 19.5. Análisis de una mezcla de compuestos fenólicos empleando un detector de fotodiodos.
Técnicas de análisis y caracterización de materiales
802
52,70 Lys
66,95 Arg
47,84 His
40,47 Tyr 41,86 Phe
29,93 Val
4
34,61 Met 36,24 Ile 37,18 Leu
23,31 Ala
8
16,17 Glu+Gln
11,51 Thr
12
12,35 Ser
Abs (570 nm)
16
21,69 Gly
9,86 Asp+Asn
20
0 0
10
20
30
40
50
60
70
Tiempo de retención (min)
Figura 19.6. Determinación de la composición de una proteína derivatizando los aminoácidos (resultantes de la hidrólisis ácida) con un reactivo fluorogénico.
19.2.7.3. Detectores de índice de refracción Los detectores de índice de refracción, también denominados refractométricos, son universales y se vienen utilizando desde los primeros desarrollos de la cromatografía HPLC. En la celda de detección se mide la variación de la refracción de un haz de luz cuando la fase móvil lleva un compuesto disuelto respecto a la fase móvil pura (celda de referencia), como se ilustra en la Figura 19.7. Tienen la ventaja de responder a la presencia de prácticamente cualquier tipo de soluto. Son, por tanto, equivalentes a los detectores de llama o conductividad térmica empleados en cromatografía de gases. La temperatura, la longitud de onda de la radiación empleada y la presión a la que está sometida la sustancia son variables que afectan a la medida del índice de refracción. Una temperatura constante facilita medidas más precisas; por ello, en equipos HPLC con detector refractométrico es muy conveniente el uso de hornos de columnas. Además, la fase móvil pasa a través de un tubo capilar de acero donde se termostatiza antes de entrar en el detector. Es importante tener en cuenta que la medida del índice de refracción no es homogénea utilizando diferentes fuentes de radiación, lo que impide comparar resultados al pasar de un detector refractométrico a otro.
Cromatografía líquida de alta resolución (HPLC)
803
Referencia Muestra
Gas nebulizador
Tubo evaporador
Gotas
Gotículas Partículas
Fuente de luz Trampa de luz y fotomultiplicador
Figura 19.7. Esquema del funcionamiento de un detector refractométrico (izquierda) y de un detector evaporativo de light scattering (derecha).
Su sensibilidad es limitada, aproximadamente 1.000 veces menor que la de un detector basado en la absorbancia; no obstante, los detectores de Uv-vIS suelen complementarse con un detector refractométrico puesto en serie. Un aspecto negativo de estos detectores es su incompatibilidad con los gradientes de elución. Aplicaciones típicas de los detectores de índice de refracción son el análisis de carbohidratos, triglicéridos y polímeros.
19.2.7.4. Detectores evaporativos de dispersión luminosa (light scattering) Un aspecto importante en HPLC es poder detectar sustancias que no absorben la radiación Uv. Si además carecen de propiedades conductimétricas o electroquímicas, el análisis queda supeditado a utilizar un detector universal refractométrico, con sensibilidad moderada. Además, los detectores de índice de refracción son incompatibles con los gradientes de elución, y muy dependientes de las variaciones de temperatura externa. La búsqueda de alternativas para analizar sustancias como azúcares, polímeros, ácidos grasos, triglicéridos o aminoácidos, condujo al detector evaporativo de dispersión luminosa (evaporative light-scattering detector, ELSD) basado en los efectos dispersivos que toda sustancia posee sobre un haz de luz. Se trata, por tanto, de un detector universal, descrito por primera vez en 1978. Este detector lleva a cabo un primer paso de nebulización del eluyente seguida de la evaporación de la fase móvil (Figura 19.7). Los solutos no volatilizados forman una niebla de micropartículas, que atraviesa un haz luminoso y produce en él la dispersión de la radiación, cuya intensidad constituye la señal del detector. El detector consta, por tanto, de tres partes:
Técnicas de análisis y caracterización de materiales
804
1. Un sistema de nebulización neumática del líquido procedente de la columna, generalmente empleando nitrógeno como gas nebulizador. Suele tener un dispositivo para eliminar las gotículas de tamaño superior al óptimo. 2. Un tubo evaporador caliente, donde se produce la evaporación de la fase móvil. 3. Un detector alejado del eje de la radiación incidente, normalmente un fotomultiplicador emplazado 90-120º de la fuente de radiación. Al ser necesario evaporar el disolvente o mezcla de disolventes, evitando la volatilización del soluto, la temperatura de evaporación juega un papel fundamental. Se prefiere que la temperatura no sea demasiado alta, ya que se puede producir degradación térmica de los analitos o incluso su volatilización. Algunos de los últimos modelos permiten la evaporación de eluyentes a baja temperatura, lo que representa una gran ventaja. Estos detectores tienen un fácil manejo, y son compatibles con el uso de modificadores y tampones sublimables (por ejemplo, ácido acético, ácido fórmico, ácido trifluoroacético, acetato amónico, hidróxido amónico, trietilamina, etc.). Permiten utilizar disolventes que absorban la radiación Uv, y son compatibles con los gradientes de elución. Además, la respuesta másica es aproximadamente la misma para la mayor parte de los solutos no volátiles. Su sensibilidad es superior a la de los detectores de índice de refracción, incluso algunos modelos presentan una sensibilidad comparable a los de absorbancia Uv-vIS. En la Tabla 19.6 se comparan las características de los detectores ELSD con los de índice de refracción. Tabla 19.6. cOMParación de lOs deTecTOres elsd cOn lOs refracTOMéTricOs característica
índice de refracción
elsd
Compatibilidad con gradientes
No
Sí
Análisis de compuestos volátiles
Sí
No
Empleo de tampones no volátiles
Sí
No
Efecto de las impurezas en la fase móvil
Serio
Mínimo
Sensible a cambios de temperatura
Sí
No
Picos «negativos»
Sí
No
Linealidad
Sí
Respuesta logarítmica
Tiempo de estabilización
Largo
Corto
Necesidad de preinstalación
No
Sí 1
1
Se requiere una línea de nitrógeno y un tubo de evacuación de gases.
Una peculiaridad del detector evaporativo de light scattering es que su respuesta no es lineal, viniendo definida por la fórmula: A = amb siendo (A) el área del pico, (m) la masa del analito y (a) y (b) coeficientes que dependen de varios factores, fundamentalmente del tamaño de las partículas, la naturaleza de los analitos y la temperatura de evaporación.
Cromatografía líquida de alta resolución (HPLC)
805
Por ello suele utilizarse representación logarítmica para las rectas de calibrado (la mayoría de los softwares para tratamiento de datos en HPLC ya incorporan dicha opción): log A = b log m + log a Los valores de (b) descritos suelen estar en el rango 0,6-2,0. La Figura 19.8 muestra las curvas de calibrado de un éster metílico utilizando un ajuste lineal y logarítmico. 2,00e+6
6,5 A
1,75e+6
B 6,0 log Área del pico
Área del pico
1,50e+6 1,25e+6 1,00e+6 7,50e+5 5,00e+5
5,5 5,0 4,5 4,0
2,50e+5
3,5
0.00 0
2
4
6
8
10 12 14
[Oleato de metilo] (nM)
0,2
0,4
0,6
0,8
1,0
1,2
log [Oleato de metilo] (nM)
Figura 19.8. Curva de calibrado de un compuesto (oleato de metilo) utilizando un detector evaporativo de light-scattering: (A) ajuste lineal; (B) ajuste logarítmico.
Los campos de aplicación más importantes de estos detectores son el análisis de azúcares, triglicéridos, ácidos grasos, lípidos, fosfolípidos, polímeros, esteroides, alcaloides, tensioactivos, lubricantes, etc.
19.2.7.5. Detectores electroquímicos Para el análisis de sustancias oxidables o reducibles pueden emplearse detectores electroquímicos, que a su vez pueden ser amperométricos o coulométricos. La señal ocasionada por un detector electroquímico amperométrico es una medida de intensidad proporcional a la concentración de soluto, cuando en la celda se aplica un potencial que ocasiona su reducción o bien su oxidación. Los detectores amperométricos llevan un electrodo de referencia, normalmente plata-cloruro de plata, estableciéndose una diferencia de potencial con el electrodo de trabajo (que suele ser de carbón o de oro). En los coulométricos se utiliza un electrodo de referencia hidrógeno-iones hidrógeno. Con estos detectores la fase móvil debe conducir la electricidad. No basta con metanol o acetonitrilo al 100%; la fase móvil debe contener un electrolito (puede ser
806
Técnicas de análisis y caracterización de materiales
un par iónico o una sal inorgánica). La característica fundamental de los detectores electroquímicos es su selectividad y, derivando de ella, su sensibilidad. El potencial redox es la variable que el usuario establece en el electrodo, y debe ser suficiente para producir la reacción de oxidación o reducción del analito. El rango de sustancias analizadas por detección electroquímica es muy amplio, tanto por oxidación (hidrocarburos, amidas, aminas, fenoles, etc.) como por reducción (olefinas, cetonas, aldehídos, nitroderivados, etc.). La aplicación más emblemática es la de las catecolaminas en plasma u orina. También se pueden detectar fenoles, benzoquinona o algunas vitaminas como el ácido ascórbico (vitamina C). En cromatografía de intercambio iónico es interesante la aplicación de los detectores amperométricos de pulsos para el análisis de carbohidratos.
19.2.7.6. Detectores de radioactividad Se trata de contadores de centelleo en continuo. Se utilizan para detectar compuestos radioactivos marcados, especialmente en el caso de fármacos, pesticidas, donde se requiere una alta sensibilidad que no pueden ofrecer los detectores convencionales. Los isótopos que se analizan son: emisores beta de baja energía (3H, 14C, 35S), emisores beta de alta energía (32P), emisores gamma (125I, 131I) y emisores alfa.
19.2.7.7. Detectores de conductividad Estos detectores se encuentran íntimamente ligados a la cromatografía iónica y miden la conductividad del eluyente, que es proporcional a la fuerza iónica. Su sensibilidad disminuye a medida que aumenta la conductividad de la fase móvil, por lo que suele ser necesario incorporar las denominadas columnas supresoras que reducen el ruido de fondo. Como la conductividad es muy dependiente de la temperatura, estos detectores suelen llevar un sistema de compensación automática de la temperatura. Un inconveniente de los detectores de conductividad es que el rango de linealidad es bastante corto.
19.2.7.8. Detectores viscosimétricos El parámetro de medida básico de estos equipos es la viscosidad relativa, definida como el cociente de la viscosidad de la solución entre la viscosidad del disolvente. Son especialmente útiles para el análisis de polímeros mediante cromatografía de exclusión molecular (GPC). Existen varias posibilidades: detector viscosimétrico de cuatro capilares (que permite la medida de factores estructurales del polímero, como la ramificación y conformación, además del peso molecular), de dos capilares (de menor sensibilidad que el anterior) y de un solo capilar (que requiere de numerosos atenuadores de pulsos en el sistema de bombeo).
Cromatografía líquida de alta resolución (HPLC)
807
19.2.7.9. Detectores de quimioluminiscencia La mayor ventaja de la quimioluminiscencia es que no requiere haz de excitación, elemento esencial en fluorimetría (puede provocar un importante ruido de fondo). Son detectores de muy alta sensibilidad, y permiten la detección de trazas de lípidos, nucleótidos, óxidos nitrosos y catecolaminas. La instrumentación es bastante sencilla; no obstante, una desventaja importante es que necesitan una bomba peristáltica para hacer la reacción post-columna.
19.2.7.10. Detectores de dispersión luminosa (light scattering) no evaporativos También es muy interesante la aplicación de detectores de light-scattering no evaporativos para la determinación de masas moleculares en polímeros y macromoléculas biológicas (GPC/SEC). Existen tres tipos de detectores de light scattering en flujo continuo para GPC/SEC: LALLS (low angle laser light scattering system), MALLS (multiple angle laser light scattering system) y RALLS (right angle laser light scattering system). Estos detectores permiten la determinación absoluta de masa molecular, ramificaciones, etc. y suelen estar acoplados a un detector de índice de refracción y a otro viscosimétrico.
19.2.7.11. Detectores de masas La combinación de la cromatografía líquida con espectrometría de masas (LCMS, liquid chromatography-mass spectrometry) tiene gran potencial, y se aplica cada vez a más campos, con el objetivo de separar, identificar y cuantificar componentes de bajos pesos moleculares, y caracterizar productos de altos pesos moleculares (péptidos, proteínas, etc.). Las técnicas de ionización a presión atmosférica han revolucionado la detección en LC-MS. Un espectrómetro de masas para HPLC cuenta con varios componentes instrumentales: (1) una interfase con el sistema cromatográfico mediante la que el eluyente entra en el detector, (2) una cámara de ionización, (3) una cámara de aceleración de iones, (4) un selector que analiza ordenadamente los iones (cuadrupolo, trampa iónica, tiempo de vuelo TOF, etc.), (5) un detector de los iones y, por último, (6) un software de adquisición y procesado de datos. Existen diferentes tipos de ionización: impacto electrónico (Therma-Beam), electrospray (ESI, electrospray ionisation), ionización química a presión atmosférica (APCI, atmospheric pressure chemical ionisation), FAB (fast atom bombardment), MALDI (matrix-assisted laser desorption). Es importante conocer qué tipos de analitos se van a encontrar y qué fase móvil se va a utilizar para poder elegir la mejor configuración. La ionización por electrospray es más adecuada para compuestos desconocidos o que requieran confimación. Existen diversos sistemas para «filtrar» los iones formados respecto a su relación masa/carga. Los más empleados son los de triple cuadrupolo (TQ) y los de
808
Técnicas de análisis y caracterización de materiales
tiempo de vuelo (time of flight, TOF). El sistema de cuadrupolos es el más indicado para cuantificación, mientras que el TOF es el preferido para la identificación de compuestos desconocidos. Este último tiene mayor resolución de masa molecular (en el orden de diezmilésismas de Dalton para el TOF frente a un Dalton para el TQ).
19.2.7.12. Detectores de aerosol cargado Los detectores de aerosol cargado (Charged Aerosol Detection, CAD, también denominados Corona) se han desarrollado recientemente, y combinan elementos de los detectores evaporativos de light scattering con otros de los detectores de masas. En primer lugar, se produce la nebulización con nitrógeno de la fase móvil y la selección de las gotas más pequeñas. Se lleva a cabo la evaporación del disolvente; a continuación, el N2 es ionizado en una cámara de ionización y se adsorbe sobre las partículas de analito. Las partículas cargadas llegan a una caja Faraday, donde se produce la transferencia de cargas y la detección de estas, siendo su intensidad proporcional a la concentración de analito en la muestra. Estos detectores son universales, con una sensibilidad similar a la de un detector de absorbancia Uv-vIS, compatibles con los gradientes de elución, muy reproducibles y de fácil manejo.
19.3 ParáMeTrOs crOMaTOGráficOs Los principales parámetros de una separación cromatográfica, así como su significado, se resumen en la Tabla 19.7.
19.4 TiPOs de crOMaTOGrafía HPlc En el proceso cromatográfico intervienen un conjunto de fuerzas que compiten de manera selectiva por un compuesto (analito o soluto) para: (1) o bien fijarlo al relleno de la columna o fase estacionaria; (2) o bien llevarlo disuelto en el eluyente de la columna (fase móvil). Los distintos tipos de fuerzas entre fase estacionaria y solutos definen los distintos tipos de cromatografía HPLC (Tabla 19.8). Como se indicó en el apartado 19.2.5, la mayor parte de los rellenos en HPLC están basados en sílice, seguidos por los que utilizan la resina sintética estirenodivinilbenceno. A diferencia de la cromatografía de gases, en HPLC la elección de la fase móvil es determinante en la separación obtenida; en cambio, el gas portador en cromatografía de gases no contribuye de manera importante al proceso de separación, siendo su principal función transportar los componentes de la mezcla a través de la fase estacionaria.
Cromatografía líquida de alta resolución (HPLC)
809
Tabla 19.7. siGnificadO de lOs PrinciPales ParáMeTrOs crOMaTOGráficOs Parámetro Tiempo de retención
fórmula
Significado Suma del tiempo que el analito permanece en la fase móvil y el tiempo que interacciona con la fase estacionaria Cociente del tiempo en que el analito está en interacción con la fase estacionaria (tR – to) y el que permanece en la fase móvil (to)
tR
Factor de capacidad
t R − to
k =
to
Selectividad (factor de separación)
α=
velocidad lineal de la fase móvil
u=
Resolución
R=
Número de platos teóricos
Cociente del factor de capacidad de dos picos adyacentes. Es una medida del potencial del sistema cromatográfico para separar dos compuestos. Se calcula dividiendo la longitud de la columna (L) entre el tiempo que necesita la fase móvil para pasar a través de la columna (to)
k2 k1 L t0
t2 − t1 1
2
( w1
+ w2 )
t N = 16 ⋅ R w
Altura equivalente de platos teóricos
HETP =
Ecuación de van Deemter
HETP = A +
2
L N B +C ⋅u u
La resolución de dos picos adyacentes es el cociente entre la distancia que hay entre los máximos de ambos picos y la media aritmética de sus anchuras respectivas (w). Determina la calidad de la separación de dos picos Este nombre refleja el origen del concepto de la teoría de destilación: una cierta longitud de la columna es ocupada por un plato teórico. Se calcula, para un determinado pico, considerando el tiempo de retención y su anchura. Se calcula dividiendo la longitud de la columna entre el número de platos teóricos. Indica que para cada sistema cromatográfico existe un flujo (definido por la velocidad lineal) para el cual la altura equivalente de un plato teórico es mínima. En la ecuación, A es la contribución de la difusión de Eddy, B corresponde a la difusión longitudinal y C a la transferencia de masa
Tabla 19.8. TiPOs de crOMaTOGrafía HPlc Proceso cromatográfico Adsorción
Tipos –
Partición
Fase normal Fase reversa Cromatografía quiral Intercambio aniónico Intercambio catiónico SEC (size exclusion chromatography) GPC (gel permeation chromatography)
Intercambio iónico Exclusión por tamaño
810
Técnicas de análisis y caracterización de materiales
19.4.1. cromatografía HPlc de adsorción La cromatografía de adsorción o cromatografía líquido-sólido (LSC, liquid-solid chromatography) es el método cromatográfico más antiguo. Está basada en el mismo principio que la cromatografía en capa fina (TLC, thin-layer chromatography) y la cromatografía de columna en gel de sílice, utilizada con fines preparativos. Se emplean fases estacionarias polares (sílice, alúmina, hidroxiapatito) y fases móviles apolares (mezclas de hexano, ciclohexano, isooctano, tetracloruro de carbono, cloroformo, acetato de etilo, etc.). Resulta especialmente útil para la separación de compuestos apolares que presenten alguna insaturación o algún grupo funcional. El origen de la retención es la interacción de los grupos polares de los analitos con los grupos polares de la fase estacionaria. En dicha adsorción participan enlaces de hidrógeno, enlaces π e interacciones dipolo-dipolo. El orden de elución es, por tanto, de menos polar a más polar. La sílice es el material más utilizado; los grupos OH de su superficie son los responsables de su interacción con la parte polar del analito, que compite con la interacción de la fase móvil con los grupos funcionales de la sílice. Para reducir la retención de los compuestos es conveniente aumentar la polaridad de la fase móvil (p. ej. cambiar hexano por cloroformo). Las principales ventajas y desventajas de este tipo de cromatografía se recogen en la Tabla 19.9. Tabla 19.9. venTajas e incOnvenienTes de la crOMaTOGrafía HPlc de adsOrción ventajas
desventajas
– Muy útil para compuestos de polaridad intermedia.
– Limitada a compuestos solubles en disolventes apolares.
– Se obtienen cambios en selectividad (α) a partir de cambios primarios en la fase móvil.
– Es difícil regenerar las columnas.
– Fácil recuperación de compuestos en HPLC preparativa. – Amplia gama de eluyentes disponibles para ajustar la selectividad de una separación.
– El agua adsorbida puede afectar a la cromatografía (utilizar disolventes secos). – La fase estacionaria no distingue entre moléculas de distinta longitud de cadena con el mismo grupo funcional.
La cromatografía de adsorción está especialmente indicada para compuestos de masa molecular por debajo de 5 kDa, que sean solubles en medios de baja polaridad. Algunos de los compuestos que pueden ser analizados mediante cromatografía HPLC de adsorción (enumerados en orden creciente de interacción con la fase estacionaria y, por tanto, en orden creciente de tiempo de retención) son: olefinas < hidrocarburos aromáticos < haluros, sulfuros < éteres < nitroderivados < ésteres, aldehídos, cetonas < alcoholes, aminas < sulfóxidos < amidas < ácidos carboxílicos. En la Figura 19.9 se muestra la separación de una mezcla de isómeros de la vitamina E (tocoferoles) mediante cromatografía de adsorción.
Cromatografía líquida de alta resolución (HPLC)
811
3
4
1 2
0
2
4
6
8
10
12
14
min.
Figura 19.9. Separación de tocoferoles presentes en aceite de soja (1: α-tocoferol; 2: β-tocoferol; 3: γ-tocoferol; 4: δ-tocoferol) mediante cromatografía HPLC de adsorción. Columna Pinnacle II Silica (150 × 4,6 mm), 5 µm, 110 Å. Fase móvil: hexano/isopropanol (99,5/0,5). Flujo: 0,6 ml/min. Temperatura: 30 °C. Detección Uv (295 nm). Fuente: catálogo de Restek/Teknokroma 2008/2009.
19.4.2. cromatografía HPlc de partición De los cuatro tipos principales de cromatografía HPLC (Tabla 19.8), la cromatografía de partición es, con diferencia, la más utilizada actualmente. La fase estacionaria se liga o embebe sobre partículas inertes (generalmente de sílice) para que permanezca fija en la columna. Inicialmente, la fase estacionaria líquida era retenida sobre la superficie de las partículas de relleno mediante adsorción. No obstante, y a fin de favorecer la estabilidad de la fase estacionaria, esta metodología fue reemplazada por la denominada cromatografía en fase ligada (BPC, bonded-phase chromatography), en la que los grupos funcionales se fijan mediante enlace químico a las partículas de relleno, lo que permite a la fase estacionaria resistir las altas presiones aplicadas en HPLC (Figura 19.10). La mayor parte de los soportes de cromatografía de partición en fase ligada están preparados a partir de sílice de tamaño de partícula entre 3 y 10 µm. La superficie de la sílice está compuesta de grupos silanol (con una densidad aproximada de 8 µmol/ m2), que son muy reactivos. La mayoría de las fases estacionarias utilizadas en este tipo de cromatografía se preparan mediante reacción de la sílice con un derivado organoclorosilano (Figura 19.10). La naturaleza de la cadena R de dicho derivado determina el tipo de cromatografía: normal, reversa o quiral.
Técnicas de análisis y caracterización de materiales
812
Si
OH
+
Cl
CH3 R
Si
Si
O
CH3 R
Si
CH3
CH3
Figura 19.10. Derivatización de la sílice para cromatografía de partición.
19.4.2.1. Fase normal. Cromatografía de interacción hidrofílica (HILIC) Cuando el grupo R es de naturaleza polar, se habla de cromatografía en fase normal. Ello es debido a razones históricas, ya que los primeros trabajos utilizaron fases estacionarias polares, soportando trietilenglicol sobre sílice o alúmina. Esta cromatografía, de manera similar a lo que ocurre en la cromatografía de adsorción, se basa en la interacción de los analitos con los grupos funcionales polares de la fase estacionaria ligada, que alcanza su intensidad máxima cuando se utilizan eluyentes de baja polaridad. Sin embargo, muchos analistas han dejado de utilizarla debido a su complejidad y falta de reproducibilidad. Las columnas comerciales en fase normal contienen estructuras en las que R es un grupo ciano (–C2H4CN), diol (–C3H6OCH2CHOHCH2OH), amino (–C3H6NH2) o dimetilamino (–C3H6N(CH3)2). En la cromatografía en fase normal, la fase móvil suele estar formada por uno o varios disolventes apolares, siendo los más frecuentes diclorometano, cloroformo o hexano. En la Figura 19.11 se muestra la separación de una serie de ésteres del ácido ftálico mediante HPLC con una columna con fase ciano. 3 1
0
1
2
3
2
4
4
1 di-n octilftalato 2 bis(2-ethilexil)ftalato 3 butilbencilftalato 4 di-n butilftalato 5 dietilftalato 6 dimetilftalato
6 5
5
6
7
8
9
min
Figura 19.11. Separación de ésteres de ftalato mediante cromatografía HPLC en fase normal con columnas ciano. Columna Luna CN (150 × 4,6 mm), 5 µm. Fase móvil: A/B 99/1 siendo A: Hexano; B: cloruro de metileno/metanol (80/20). Flujo: 1,0 ml/min. Temperatura ambiente. Detección Uv (254 nm). Fuente: catálogo de Phenomenex 2008/2009.
Una desventaja de los rellenos de fase normal es que son menos resistentes a la hidrólisis que los de fase reversa, por lo que es importante controlar el pH del eluyente y vigilar el sangrado de la columna. Una particularidad de las columnas con fase estacionaria ciano es que pueden comportarse como rellenos tanto de fase normal como fase reversa, en función de las condiciones de análisis.
Cromatografía líquida de alta resolución (HPLC)
813
La cromatografía de interacción hidrofílica (HILIC, hydrophilic interaction chromatography) se puede considerar una extensión de la cromatografía de partición en fase normal, cuando se utilizan fases móviles acuosas, concretamente mezclas de agua o solución tampón ( B> C
Figura 19.13. Relaciones entre polaridad y tiempo de retención para cromatografía de adsorción, cromatografía de partición en fase normal y cromatografía de partición en fase reversa.
Cromatografía líquida de alta resolución (HPLC)
815
En fase reversa, la cantidad de fase hidrocarbonada enlazada al soporte de la sílice se define como «carga de carbono». Se mide como el porcentaje de C en peso respecto a la masa de sílice. Suele oscilar entre el 5% y el 20%. Al aumentar la carga de carbono aumenta la retención de los analitos. No obstante, la densidad del material de relleno es también un factor importante a la hora de predecir la retención de una columna. Así, por ejemplo, la fase Novapak C18, con una densidad de 0,91 g/l y una carga de carbono del 7%, retiene más los compuestos que la fase µBondapak, que tiene mayor carga de carbono (10%) pero una menor densidad (0,45 g/l). Otro término importante es el end-capping, proceso que implica una derivatización adicional de la sílice con trimetilclorosilano para bloquear los grupos hidroxilo libres, haciéndolos inaccesibles a los solutos. De esta manera aumenta la carga de carbono y, por tanto, la retención de los analitos. En los últimos años se ha dedicado gran esfuerzo al desarrollo de nuevas fases estacionarias para fase reversa con el fin de mejorar la eficacia de las columnas y su estabilidad frente al pH, así como proporcionar selectividades distintas. Las columnas de fase reversa actualmente en el mercado se pueden clasificar en tres categorías: – Basadas en sílice, que pueden funcionar en un intervalo de pH 2,0-7,0. En este capítulo, existen sílices de distinto grado de pureza, con o sin tratamiento de end-capping, y libres de metales en mayor o menor medida. – Híbridas, formadas por una combinación de polímero (estireno-divinilbenceno) y sílice. Presentan un rango de pH más amplio (1,0-12,0). – Específicas de la aplicación. Por ejemplo, para la separación de mezclas complejas en las que están presentes compuestos muy polares y apolares, se han desarrollado columnas (Synergi®, Atlantis®) en las que la sílice, además de cadenas hidrocarbonadas, incorpora grupos polares, lo que provoca una mayor retención de moléculas polares y por tanto una mejor separación de estas últimas. En algunos casos, es necesario separar mezclas que contienen uno o varios compuestos ionizables. Mediante la estrategia de supresión iónica es posible separar estos compuestos iónicos, suprimiendo (o reduciendo) su estado iónico en solución a través del control del pH, de manera que quedan más retenidos en rellenos de fase reversa. Funciona bien para ácidos débiles y bases débiles. Como modificantes de la fase móvil se suelen utilizar ácidos como el acético, el fórmico o el fosfórico, o bien bases como alquilaminas o fosfatos alcalinos. Con algunos solutos iónicos, otra posibilidad para analizar en fase reversa consiste en utilizar una fase móvil polar que contenga un contraión de carga contraria a la de los analitos, de modo que entre ambos se forma una especie neutra (par iónico). Concretamente, se suele añadir a la fase móvil un catión o anión hidrofóbico, que interacciona con el analito formando un par iónico (Tabla 19.10). Es una metodología que permite analizar ácidos y bases fuertes (pKa < 2, pKb > 8) en condiciones de fase reversa. variando la longitud del grupo alquilo se puede conseguir mayor o menor retención en la columna.
Técnicas de análisis y caracterización de materiales
816
Tabla 19.10. aGenTes MOdificanTes UTilizadOs en crOMaTOGrafía de Pares iónicOs Para bases
Para ácidos
alQUilsUlfOnaTOs: 1-Pentano sulfonato (B5) 1-Hexano sulfonato (B6) 1-Heptano sulfonato (B7) Dodecil sulfato sódico (SDS)
alQUilaMinas: Tetrabutilamina Trietilamina
Un ejemplo representativo del empleo de pares iónicos se muestra en la Figura 19.14, en la que se separan cuatro aminas biogénicas con actividad neurotransmisora. Su separación mediante cromatografía en fase reversa es difícil, ya que sus tiempos de retención son muy similares y además se producen interferencias debido a su carácter catiónico. Mediante la adición de 1-heptanosulfonato de sodio a la fase móvil y la consiguiente formación de los pares iónicos, se consigue la separación eficiente de los cuatro compuestos. HO +
NH2
HO
HO
H3N +
HO
OH
OH
NH3
+
2 Dopamina
1 Adrenalina
H N
+
H3N 4 Triptamina
3 Tiramina 4
3
2
1
0,0
2,0
4,0
6,0
8,0
10,0
12,0
14,0
16,0
18,0
20,0
22,0
25,0
Tiempo de retención (min)
Figura 19.14. Separación de aminas biogénicas mediante cromatografía HPLC en fase reversa con par iónico. Columna Discovery C18 (250 × 4 mm), 5 µm. Fase móvil acetonitrilo: tampón ácido 1-heptanosulfónico pH 2,4. Flujo: 1,5 ml/min. Gradiente de acetonitrilo: t = 0 min, 6%; t = 5 min, 6%; t = 18 min, 25%. Temperatura ambiente. Detección Uv (220 nm). Fuente: boletín Analytix de Sigma-Aldrich.
Cromatografía líquida de alta resolución (HPLC)
817
La cromatografía de partición es la más universal de las técnicas de cromatografía líquida. Las fases móviles polares permiten cromatografiar una amplia variedad de compuestos de interés bioquímico, farmacológico o químico (Tabla 19.11). Más del 90% de las aplicaciones de compuestos de bajo peso molecular se hacen en cromatografía de partición de fase reversa. Es una técnica de análisis muy versátil, ya que, por ejemplo, variando tan solo la composición de la fase móvil es posible lograr la separación de mezclas complejas. Así, la Figura 19.15 muestra la separación de una serie de derivados del ácido oleico, y en la Figura 19.16 se presenta un cromatograma de una mezcla de explosivos, ambos realizados con columnas de octadecilo (C18). Tabla 19.11. caMPOs de aPlicación de la crOMaTOGrafía HPlc de ParTición campo de aplicación
ejemplos
Farmacia
Antibióticos, analgésicos, esteroides
Medio ambiente
Pesticidas, herbicidas, fenoles, PCBs
Industria química
Detergentes, polímeros
Alimentación
Edulcorantes, emulgentes, antioxidantes
Bioquímica
Proteínas, hidratos de carbono, lípidos
Clínica y Diagnóstico
Análisis de orina y sangre, dopaje, hormonas
1
2
3 4
5 6
0
2
4
6
8
10
12
14
16
18
20
Tiempo de retención (min)
Figura 19.15. Separación de derivados del ácido oleico mediante cromatografía HPLC en fase reversa. Columna Nucleosil 100-C18 (250 × 4,6 mm), 5 µm. Fase móvil metanol/acetona/agua. Gradiente empleado: t = 0 min, 95/0/5; t = 6 min, 95/0/5; t = 7 min, 100/0/0; t = 9 min, 100/0/0; t = 11 min, 50/50/0; t = 17 min, 50/50/0. Flujo: 1,2 ml/min. Temperatura: 45 °C. Detección ELSD a 60 °C. Compuestos analizados: 1, ácido ascórbico; 2, oleato de ascorbilo; 3, 2-monooleina; 4, ácido oleico; 5, 1,2-dioleina; 6, trioleina.
Técnicas de análisis y caracterización de materiales
818
1. HMX 2. RDX 3. 1, 3, 5-TNB 4. 1, 3-DNB 5. 3, 5-DNA 6. NB 7. Tetryl 8. 2, 4, 6-TNT 9. NG
5, 6
1
3 7
10. 2-A-4, 6-DNT 11. 4-A-4, 6-DNT 12. 2, 4-DNT 13. 2, 6-DNT 14. 2-NT 15. 4-NT 16. 3-NT 17. PETN
8, 9
2
4
10 1112 13
16
14 15
17
2
4
6
8
10
12
14
16
18
20
22
24
Figura 19.16. Análisis de explosivos mediante cromatografía HPLC en fase reversa. Columna Ultra-C18 Teknokroma (250 × 4,6 mm). Fase móvil: metanol/agua 56/44. Temperatura: 30 ºC, Flujo: 1,0 ml/min. Detector Uv (210 nm). Inyección de 10 µl con 50 mg/ml de cada componente. Fuente: catálogo de Restek/Teknokroma 2008/2009.
19.4.2.3. Cromatografía quiral Las separaciones de compuestos quirales son muy importantes en los sectores farmacéutico, biotecnológico y de compuestos naturales. Los isómeros ópticos (enantiómeros) se pueden separar por HPLC, siempre que el sistema cromatográfico (fase móvil y/o fase estacionaria) sea asimétrico (quiral). Para estas separaciones es preferible utilizar HPLC que cromatografía de gases, ya que las altas temperaturas que requiere esta última suelen producir racemización de la fase estacionaria quiral y/o de los analitos. Existen dos posibilidades en cromatografía HPLC quiral: – La fase móvil es quiral pero la fase estacionaria no lo es. Se utilizan fases móviles a las que se les adiciona algún reactivo que proporciona quiralidad; este compuesto forma un complejo, aducto o par iónico con los dos enantiómeros, de manera que los diastereómeros formados interaccionan de forma diferente con la fase estacionaria, lo que permite su separación. – La fase estacionaria es quiral pero la fase móvil no lo es. En este caso existen diferentes columnas en el mercado, formadas por una base de partículas de sílice de 5-10 µm funcionalizadas con: (1) pequeñas moléculas con grupos π-activos, básicamente de naturaleza aromática (véase en Figura 19.17 la separación de los dos enantiómeros del naproxeno); (2) polímeros helicoidales basados en celulosa o amilosa modificada químicamente; (3) ciclodextrinas o éteres corona, que proporcionan cavidades quirales; (4) proteínas, dada su naturaleza quiral al estar formadas exclusivamente por L-aminoácidos.
Cromatografía líquida de alta resolución (HPLC) 10,1 12,5
S
819
10
R
20 min
Figura 19.17. Separación de los enantiómeros (R y S) del antiinflamatorio naproxeno mediante cromatografía HPLC quiral. Columna Chirex 3005 Teknokroma (250 × 4,0 mm), formada por sílice modificada con (R)-1-naftilglicina y ácido 3,5-dinitrobenzoico. Fase móvil: 30 mM de acetato amónico en metanol. Flujo: 0,8 ml/min. Detector Uv (254 nm). Fuente: catálogo de Phenomenex 2008/2009.
19.4.3. cromatografía HPlc de intercambio iónico La cromatografía de intercambio iónico (IEC, ion exchange chromatography) permite separar compuestos de naturaleza iónica (aniones o cationes). La fase estacionaria está formada por una resina o un gel que contiene grupos cargados, que son neutralizados por los iones de la fase móvil (contraiones, counter ions, por ejemplo, Na+). De esta manera, si el analito contiene grupos de carga opuesta a la fase estacionaria este se retiene en la columna. Si se hace pasar una fase móvil que contenga una sal, el aumento de la fuerza iónica del medio permite eluir los analitos de la columna de forma diferencial, aunque el orden de elución es con frecuencia difícil de predecir. Las columnas de intercambio iónico suelen tener base de sílice (con capacidad máxima de intercambio de 1 meq/g) y estireno-divinil-benceno (3 meq/g). No obstante, como la densidad de la sílice es mayor, la capacidad de intercambio de ambos sistemas es similar. Los intercambiadores pueden ser aniónicos (atraen aniones) o catiónicos (atraen cationes). Existen intercambiadores fuertes (están ionizados a cualquier pH, por ejemplo, los que contienen grupos sulfato o aminas cuaternarias) o débiles (su estado de ionización depende del pH, por ejemplo, los que contienen grupos carboxílicos). La retención se basa en la afinidad de los diferentes iones por los puntos de intercambio. Se utilizan fases móviles tamponadas que proporcionan contraiones, permiten controlar el pH y variar la fuerza iónica del medio. En general, para disminuir la retención de un analito existen varias estrategias: – Cambiar el pH de la fase móvil para formar especies neutras. – Aumentar la fuerza iónica de la fase móvil. – Aumentar la temperatura.
Técnicas de análisis y caracterización de materiales
820
La retención de un compuesto en una columna de intercambio catiónico se ve afectada por el catión (contraión) elegido en la fase móvil. La capacidad de desplazamiento de los cationes sigue el orden: Li+ < H+ < Na+ < NH4+ < K+ < Rb+ < Cs+ < Ag+ < Mn2+ < Mg2+ < Zn2+ < Co2+ < Cu2+ < Cd2+ < Ni2+ < Ca2+ < Sr2+ < Pb2+ < Ba2+. En el caso de las columnas de intercambio aniónico, la capacidad de desplazamiento de los aniones sigue la secuencia: fluoruro < OH- < acetato < cloruro < tiocianato < bromuro < cromato < fosfato < nitrato < borato < yoduro < oxalato < sulfato < citrato. Se trata de una técnica muy útil para cromatografiar iones inorgánicos y orgánicos, proteínas, etc. En la figura 19.18 se muestra la separación de una mezcla de aniones mediante cromatografía de intercambio iónico. Ejemplos representativos de este tipo de cromatografía son la determinación de aniones en agua de bebida, de nitratos en vegetales, de fluoruros en pasta de dientes, de amonio y nitratos en fertilizantes, o de sodio y potasio en muestras clínicas (transfusiones). Con iones más grandes, y muy especialmente con tensioactivos iónicos, la cromatografía de par iónico da mejor resultado que la de intercambio, debido fundamentalmente a una mejor difusión interna y a una menor adsorción irreversible de los analitos (que impide su elución). 1. Fluoruro (2 ppm) 2. Acetato (5 ppm) 3. Propionato (5 ppm) 4. Formato (5 ppm) 5. Clorito (5 ppm)
6
6. Bromato (5 ppm) 7. Cloruro (3 ppm) 8. Nitrito (5 ppm) 9. Bromuro (10 ppm) 10. Nitrato (10 ppm)
11. Clorato (10 ppm) 12. Carbonato (20 ppm) 13. Sulfato (5 ppm) 14. Oxalato (5 ppm) 15. Fosfato (10 ppm) 13
10 4
mS
7
1
14 8
15
9
11
5 2
6
12
0 0
5
10
15
Minutes
Figura 19.18. Análisis de una mezcla de aniones inorgánicos mediante cromatografía HPLC de intercambio iónico. Columna IonPac AG17-C AS17-C Dionex (250 × 4 mm). Fase móvil: hidróxido potásico (1 mM de 0 a 3 min, 1-12 mM de 3 a 10 min, 12-35 mM de 10 a 14 min). Flujo: 1,5 ml/min. Temperatura: 30 °C. Detección de conductividad con columna supresora. Fuente: catálogo de Dionex.
Cromatografía líquida de alta resolución (HPLC)
821
Para eliminar el ruido en el detector que supone el empleo de una fase móvil con una alta fuerza iónica, se recurre al empleo de la denominada supresión química. Se trata de un sistema de eliminación de los iones de la fase móvil entre la columna y el detector mediante la incorporación de una columna «supresora». Los detectores más utilizados para cromatografía de intercambio iónico son los de conductividad, para el análisis de aniones, cationes, ácidos orgánicos, aminas, sulfonatos, etc. También se emplean detectores electroquímicos, generalmente de tipo amperométrico, para el análisis de cianuros, sulfitos, sulfuros, ioduro, etc. En este contexto, la cromatografía iónica acoplada a un detector amperométrico de pulsos (high performance anionic exchange chromatography coupled to pulse amperometric detection, HPAEC-PAD) se utiliza para el análisis de carbohidratos como alternativa a la cromatografía de partición en fase normal (en su variante HILIC, ver apartado 19.4.2.1), con detectores de índice de refracción o ELSD. La cromatografía HPAEC-PAD permite la cuantificación directa de monosacáridos, oligosacáridos y polisacáridos a escala de picomoles con mínima preparación de muestras. Esta técnica se basa en la naturaleza débilmente ácida de los carbohidratos que permite una separación muy selectiva a alto pH (>13) empleando una columna de intercambio aniónico. La Figura 19.19 muestra el análisis por HPAEC-PAD de la inulina de achicoria, en la que se aprecia la separación nítida de fructanos con un grado de polimerización (DP) de hasta 50. F S DP10 G
DP20
DP30
Figura 19.19. Análisis de inulina de achicoria mediante cromatografía HPAEC-PAD. Columna PA100 Dionex (250 × 4 mm). Programa de gradiente utilizando las siguientes fases móviles: (A) 160 mM NaOH; (B) 160 mM NaOH + 1 M acetato sódico; (C) 1 M NaOH. Flujo: 1,0 ml/min. volumen de inyección: 25 µl, con una concentración de 0,8 g/l. G: glucosa; F: fructosa; S: sacarosa; DP: grado de polimerización. Reproducción con permiso de Elsevier a partir de referencia (Ronkart et ál. 2007, Anal Chim. Acta 604, 81-87).
Técnicas de análisis y caracterización de materiales
822
19.4.4. cromatografía HPlc de exclusión También es posible separar los analitos en función de su tamaño molecular. Se utilizan rellenos porosos para que los solutos penetren más o menos en la matriz según su tamaño molecular. Se emplean fundamentalmente dos tipos de fases estacionarias: materiales poliméricos (poliestireno-divinilbenzeno) y materiales basados en sílice. Se han desarrollado rellenos basados en gel de sílice, con poros desde 60 Å hasta 20.000 Å (6-2.000 nm), adecuados para disolventes polares y apolares. A menor tamaño molecular, más penetración y mayor tiempo de residencia en la columna, es decir, mayor retención. Esta técnica se conoce abreviadamente como SEC (size exclusion chromatography) cuando se aplica a proteínas y otros compuestos biológicos o GPC (gel permeation chromatography) cuando se aplica a polímeros sintéticos (plásticos) con fases móviles orgánicas. El principal inconveniente es que se trata de un método de baja resolución, ya que la separación tiene lugar en el volumen total de líquido de la columna (Vt), por lo que el número de picos que pueden resolverse es bastante limitado (Figura 19.20). No obstante, es muy útil para la separación de proteínas y otras moléculas de alto peso molecular, como los polímeros. Es importante comprobar que no haya interacción (adsorción) entre la muestra y la fase estacionaria, ya que este hecho alteraría el orden de elución. Vo
Vt
B
A
0
5
10
15
20
25
Tiempo de retención (min)
Figura 19.20. Separación de dos compuestos (A y B) mediante cromatografía de exclusión molecular. Se indican el volumen de exclusión (vo, void volume) y el volumen total (vt, total volume).
Una aplicación típica de esta cromatografía es la separación de sustancias naturales de elevado peso molecular (cuando están contaminadas con sales y especies de bajo peso molecular). Otra aplicación es la separación de series homólogas de oligó-
Cromatografía líquida de alta resolución (HPLC)
823
meros (por ejemplo, ácidos grasos, oligosacáridos, etc.). En general es recomendable una diferencia del 10% en el peso molecular de los distintos compuestos de la serie para obtener una buena resolución. En ocasiones la fase móvil elegida puede afectar al tamaño de un analito. También es muy útil para la determinación del peso molecular (o la distribución de pesos moleculares) de polímeros o sustancias naturales (por ejemplo, proteínas), como se muestra en la Figura 19.21. Para ello los volúmenes de elución de la muestra se comparan con los volúmenes de elución de una serie de patrones que tienen la misma naturaleza que los componentes a analizar. 1. Poliestireno 34500 2. Poliestireno 9200 3. Poliestireno 3250 4. Poliestireno 580 5. Poliestireno 162
1
5
2
3 4
0
25
Figura 19.21. Análisis de una mezcla de patrones de poliestireno mediante cromatografía HPLC de exclusión molecular. Columna Chrompack Microgel 3 Mix varian (250 × 7,7 mm). Fase móvil: tetrahidrofurano. Flujo: 1,0 ml/min. Detector de índice de refracción.
19.5. escalas de aPlicación de crOMaTOGrafía HPlc Aunque lo más habitual es utilizar la cromatografía HPLC en escala analítica, las posibilidades de aplicación son muy variadas, tanto en escala micro (con flujos muy bajos) como en escala preparativa (para la obtención de productos puros). En la Tabla 19.12 se recogen las distintas escalas a las que se puede trabajar en HPLC, incluyendo los diámetros típicos de las columnas empleadas y los flujos habituales de trabajo. Las técnicas HPLC a escala micro y capilar permiten mayor sensibilidad, eficacia, velocidad de análisis y menor consumo de disolvente que la cromatografía convencional (analítica). Su mayor limitación es no disponer de tanta instrumentación como en HPLC analítica, sobre todo en bombas y formadores de gradientes. En realidad puede considerarse una miniaturización de HPLC analítica en cuanto a flujos, volumen de inyección, celda del detector, tubos, etc.
Técnicas de análisis y caracterización de materiales
824
Tabla 19.12. escalas UTilizadas en crOMaTOGrafía HPlc escala
diámetro columna
flujos
Industrial, Planta Piloto
77-150 mm
100-1000 ml/min
Preparativa
41-77 mm
20-100 ml/min
Semipreparativa
10-21 mm
2-20 ml/min
Analítica
3,0-4,6 mm
0,45-2,0 ml/min
HPLC microbore
2,0-2,1 mm
150-250 μl/min
Micro-LC
1,0 mm
20-100 μl/min
LC capilar
0,5 mm
1-20 μl/min
Nano-LC
0,1 mm
0-1 μl/min
La teoría cromatográfica (ver apartado 19.3) indica que la eficiencia de una separación (definida por el número de platos teóricos, N) es independiente del diámetro interno, viniendo definida básicamente por la longitud de la columna y del tamaño de partícula. Es por ello por lo que a escala micro se logran del orden de 100.000 platos teóricos o más por metro. No obstante, para obtener esa misma eficacia al disminuir el diámetro, es necesario reducir el flujo de manera significativa (Tabla 19.12). La cromatografía HPLC microbore, también denominada cromatografía de baja dispersión, suele utilizar columnas de 2,1 mm de diámetro interno y rellenos de 5 μm, con las ventajas de ahorro de disolvente y más sensibilidad. Concretamente, se suelen lograr aumentos de sensibilidad de aproximadamente 5 veces con las técnicas microbore respecto a las analíticas. La instrumentación es la misma que en HPLC analítica, aunque es muy conveniente minimizar los volúmenes extra-columna (reduciendo las longitudes de los tubos entre inyector y detector) para evitar ensanchamiento de los picos; además, es muy importante ajustar las condiciones del gradiente para tener la misma separación y tiempo de análisis que con la columna analítica. Las técnicas capilares en HPLC son especialmente indicadas en situaciones de poca cantidad de muestra y escasa concentración. La cromatografía capilar y nanoLC se emplean fundamentalmente en biotecnología (especialmente en proteómica), ya que además de la alta eficiencia se obtiene una gran sensibilidad para muestras diluidas. Otra de las aplicaciones típicas de la cromatografía líquida capilar es la separación de estereoisómeros empleando fases móviles quirales (especialmente cuando todavía no se habían desarrollado ampliamente las fases estacionarias quirales), ya que los modificantes quirales de las fases móviles tienen un alto precio y en escala capilar su consumo se reduce de manera significativa. Para convertir un sistema analítico convencional en capilar se puede emplear un divisor de flujo, aunque en este caso el ahorro de disolvente no es tan notable. Una técnica de gran aplicación es la cromatografía semipreparativa y preparativa. Las técnicas preparativas en HPLC son excelentes y más rentables que otras técnicas (cromatografías planares, extracción líquido-líquido, precipitación, etc.). Proporcionan elevada resolución y alta capacidad. Requieren un equipo más sofisticado (y por tanto más caro que uno analítico) que incluye bombas de flujos altos, células de detectores que permitan pasar flujos elevados, colectores de fracciones,
Cromatografía líquida de alta resolución (HPLC)
825
divisores de flujo, etc. Las columnas son más voluminosas en todo: mayor tamaño de partícula (10-40 µm), mayores dimensiones (≥ 30 cm), mayor diámetro interno (> 10 mm). Para optimizar la separación y aumentar el rendimiento del proceso se suele adoptar alguna de las siguientes soluciones: reciclar los picos no resueltos, haciéndolos pasar de nuevo por la columna; sincronizar un colector de fracciones con el detector para colectar solo picos; hacer ciclos repetitivos de todo el proceso cromatográfico, etc. Generalmente la fase estacionaria que se utiliza es la misma que la de la columna analítica, ofreciendo por tanto la misma resolución cromatográfica. Esta estrategia permite el ahorro en el desarrollo de métodos, ya que el método analítico puede ser directamente aplicado a escala en fase semipreparativa o preparativa, sin cambio en la resolución cromatográfica. Para escalar una cromatografía analítica a una preparativa usando una columna con el mismo relleno y poder así obtener cromatogramas idénticos es necesario calcular el denominado factor de escalado X. Para ello se aplica la siguiente fórmula: X = (Lpreparativa /Lanalítica) (dpreparativa/danalítica)2 siendo L las longitudes de las columnas utilizadas y d sus respectivos diámetros. Este factor X se multiplica por el flujo y el volumen de muestra, obteniendo así las nuevas condiciones de análisis que deben emplearse en la cromatografía semipreparativa.
19.6. crOMaTOGrafía UlTra-ráPida (UPlc) En los últimos años, con objeto de reducir el tiempo de análisis y así poder realizar un mayor número de ensayos por unidad de tiempo, se ha desarrollado de manera espectacular la cromatografía ultra-rápida (ultra-performance liquid chromatography, UPLC), que permite aumentar la velocidad de análisis manteniendo la resolución. Para ello se han desarrollado columnas de pequeña longitud (< 10 cm) con fases estacionarias cuyo tamaño de partícula es inferior a 2 µm, que permiten separaciones con una gran eficiencia (> 200.000 platos/m). Estas columnas requieren unos equipos de HPLC especiales, capaces de soportar las altas presiones que se generan (> 10.000 psi). Además, los tubos de conexión están minimizados al máximo, para evitar dispersión de los analitos y las celdas de los detectores tienen un volumen mínimo, por el mismo motivo. En la conocida ecuación de van Deemter que rige las separaciones cromatográficas, y que relaciona la eficiencia de la columna con el caudal de trabajo, una de las variables importantes es el tamaño de partícula de la fase estacionaria. Así, al disminuir el tamaño de partícula de 10 µm a 5 µm, y luego a 2,5 µm, se produce un aumento de la resolución cromatográfica; además, esta eficacia se obtiene a flujos superiores en el caso de partículas pequeñas, lo que permite reducir el tiempo de análisis. La Figura 19.22 demuestra cómo al reducir el tamaño de partícula de 5 µm a 3,5 µm disminuye el tiempo de análisis considerablemente manteniendo la resolución cromatográfica, simplemente por un aumento del caudal utilizado.
Técnicas de análisis y caracterización de materiales
826
Utilizando partículas todavía más pequeñas (< 2 µm) todavía es posible mejorar la eficacia de la separación, incluso empleando flujos de 5 ml/min. Al flujo óptimo de trabajo, una columna de 15 cm empaquetada con un relleno de 1,7 µm, genera una presión de 15.000 psi. Además, la anchura de pico en estas condiciones suele ser inferior a 1 segundo, lo que implica que el detector debe cumplir unas especificaciones muy determinadas. A)
0,06
1
0,04 AU
3
2
0,02
4
6
5
0,00 0,00
2,00
4,00
6,00
8,00
10,00 12,00 14,00 16,00 18,00 20,00 Minutos
B)
1
0,10 0,08 AU
0,06
3
2
0,04 0,02
4
5
6
0,00 0,10
0,00 0,20 0,40 0,60 0,80 1,00 1,20 1,40 1,60 1,80
0,08 AU
2,00
Minutos
0,06 0,04 0,02 0,00 0,00
2,00
4,00
6,00
8,00
10,00 12,00 14,00 16,00 18,00 20,00 Minutos
Figura 19.22. Ejemplo de escalado HPLC a cromatografía ultra-rápida: A) separación de 6 analitos en una columna XTerra C18 Waters (150 × 4,6 mm), 5 µm, 1,4 ml/min, ciclo de 25 min; B) columna XTerra C18 Waters (20 × 4,6 mm), 3,5 µm, 3 ml/min, ciclo de 3 min. Compuestos separados: 1, cafeína; 2, anilina; 3, N-metilanilina; 4, 2-etilanilina; 5, 4-nitroanisol; 6, N,N-dimetilanilina. Figura adaptada (con permiso) de Screening 4, 30-31 (2003).
Las columnas de UPLC suelen utilizar fases híbridas (polímeros-sílice). Algunos de los parámetros determinantes en cromatografía ultra-rápida son el volumen del sistema, la velocidad del inyector y la respuesta del detector. En particular, el sistema de inyección debe eliminar las caídas de presión, evitar la contaminación cruzada y acortar al máximo el ciclo de inyección.
Cromatografía líquida de alta resolución (HPLC)
827
bibliOGrafía 1. Pavia, D. L. et ál. Introduction to organic laboratory techniques, Saunders College Publishing, 1999. 2. SubraManian, G. Preparative and process-scale liquid chromatograph, Ellis Horwood Series in Chemical Engineering, 1991. 3. FonG, G. W.; LaM, S. K. HPLC in the pharmaceutical industry, Marcel Dekker Inc., 1991. 4. Dean, j. A. Analytical Chemistry Handbook, Mc Graw-Hill, New York, 1995. 5. GoodinG, K. M.; ReGnier, F. E. HPLC of Biological macromolecules, Marcel Dekker Inc., 1990. 6. Lloyd, R. et ál. Practical HPLC Method Development, Wiley-Interscience, 2.a ed., 2002. 7. Meyer, v. R. Practical High-Performance Liquid Chromatography, WileyInterscience, 3.a ed., 1999. 8. DonG, M. W. Modern HPLC for practicing scientist, Wiley-Interscience, 2006. 9. MCMaster, M. HPLC: A practical user’s guide, Wiley-Interscience, 2006. 10. Snyder, L. R. Introduccion to Modern Liquid Chromatography, Wiley-Interscience, 2009. 11. LC/GC EUROPE. Europe solutions for separation scientists. Publicada mensualmente por Advanstar, Cheste (UK): http://www.lcgceurope.com.
20. caracTerización de MaTeriales MedianTe esTUdiOs de acTividad caTalíTica ana M.ª bahaMonde santos ana rey barroso Instituto de Catálisis y Petroleoquímica (CsiC)
20.1. inTrOdUcción El análisis final en la caracterización de materiales catalíticos debe pasar por el estudio de las medidas de actividad catalítica para determinar y conocer la aplicación práctica final del material desarrollado. El estudio y la caracterización del catalizador son necesarios en cada una de las etapas de su desarrollo, siendo por tanto vital el empleo de distintas técnicas para determinar sus propiedades, así como su conexión e interrelación con las etapas de preparación, caracterización y actividad catalítica. Para entender hoy en día la catálisis, es importante tener un sentido claro de su origen histórico así como de su desarrollo en campos científicos tales como la termodinámica, la cinética y la ingeniería química. La catálisis es una ciencia multidisciplinar, que fundamentalmente se desarrolla en tres direcciones: cinética química, síntesis de materiales y caracterización de los mismos. Estas tres etapas son las piedras angulares de su estudio, desarrollo y diseño, así como de sus posibles aplicaciones industriales. Aunque durante el siglo xix la catálisis fue conocida como un fenómeno de reactividad química, el desarrollo de este campo tuvo lugar a lo largo de todo el siglo xx. La gran expansión de los procesos químicos industriales encontró sus raíces en las innovaciones científicas de principios del siglo xx, y esto es en definitiva lo que ha dado lugar al origen de la catálisis heterogénea industrial. Los procesos químicos en continuo han mejorado sensiblemente la eficiencia de la producción y conversión global del proceso a gran escala, alcanzando además grandes ventajas económicas. Tales procesos industriales fueron posibles gracias a la introducción de catalizadores heterogéneos en los reactores de flujo continuo, donde los productos son continuamente separados del catalizador. De este modo, a lo largo del siglo xx, la catálisis mostró una perfecta simbiosis entre descubrimientos científicos y desarrollo industrial. Era el momento de la innovación en el campo de la química industrial para desarrollar nuevos productos y materiales con enormes beneficios para nuestra sociedad.
830
Técnicas de análisis y caracterización de materiales
Puede decirse que el inicio de la catálisis industrial tuvo lugar como consecuencia de dos descubrimientos científicos: en primer lugar la hidrogenación catalítica de hidrocarburos insaturados con níquel, desarrollada por Paul Sabatier (1905), que inició el campo de la catálisis heterogénea orgánica; y por otro lado, la síntesis del amoníaco llevada a cabo por Fritz Haber (1908), que revolucionó el mundo de la industria química. El fenómeno de la catálisis comenzó a ser conocido en las primeras décadas del siglo xix. En documentos bibliográficos anteriores aparecieron algunos manuscritos que, aunque en sí mismos podrían tener relación con la catálisis, no tuvieron sin embargo un papel importante en el desarrollo de la misma como disciplina científica. De hecho, el primer proceso catalítico conocido tuvo lugar en 1740, denominado proceso Bell para la producción de ácido sulfúrico, en el cual el SO2 era oxidado con NO2 para formar SO3 y NO, regenerándose de nuevo el NO2 a partir del NO en presencia de aire. Aunque este proceso representa una aplicación práctica en catálisis homogénea, es dudoso apreciar una naturaleza catalítica desde el punto de vista científico de la reacción química. El punto de partida de la catálisis como tal se origina realmente a principios del siglo xix, cuando Kirchoff (1814) observó que los ácidos eran capaces de hidrolizar el almidón a glucosa, un ejemplo clásico de catálisis homogénea. Posteriormente H. Davis y E. Davis descubrieron que el Pt era capaz de calentarse y emitir incandescencia cuando entraba en contacto con aire y gas de coque a temperatura ambiente. Se trataba por tanto de una oxidación sin llama donde el Pt permanecía inalterable. Este descubrimiento condujo a la invención de la denominada lámpara de Davys, siendo probablemente la primera aplicación práctica de catálisis heterogénea, la cual prevenía de la explosión del gas de mina. Muchas de las reacciones catalíticas en ese tiempo fueron oxidaciones sobre Pt; así johann Döbereiner fue el primero en hacer una oxidación selectiva, encontrando en 1823 que el etanol reaccionaba con el oxígeno sobre Pt para formar ácido acético. Contemporáneamente Peregrine Philips patentó la oxidación de SO2 a SO3 sobre Pt; sin embargo, este proceso no se puso en práctica hasta mucho tiempo después en las plantas de obtención de ácido sulfúrico mediante el método de contacto. Actualmente el gran desarrollo de la industria química en general y de la petroquímica en particular ha tenido lugar en gran parte como consecuencia del gran desarrollo y avance de los catalizadores. De manera que la importancia de la catálisis en la industria química se pone de manifiesto al considerar que el 60% de los actuales productos químicos se sintetizan mediante procesos químicos basados en catálisis, los cuales suponen prácticamente un 54% de los actuales procesos de fabricación.
20.1.1. Fundamentos de la catálisis: definiciones y propiedades de los catalizadores La velocidad de una reacción química puede estar modificada por sustancias que no aparecen en el balance global de la reacción. Estas sustancias se denominan catalizadores, y el fenómeno que tiene lugar se conoce como catálisis. jöns Berzelius, en su revisión anual de Química en 1835, definió los catalizadores como sustancias
Caracterización de materiales mediante estudios de actividad catalítica
831
químicas que cambiaban la composición de una mezcla, permaneciendo inalterables, es decir, sustancias que por su mera presencia provocan reacciones químicas que, de otro modo, no tendrían lugar. W. Ostwald, en 1902, dio una definición más precisa y más amplia, al determinar que un catalizador es una sustancia que cambia la velocidad de una reacción química sin ser modificada en el proceso global. Por tanto, un catalizador es una sustancia química que como tal está relacionada con la reacción, aunque no de forma permanente. Es decir, cambia solo la velocidad de reacción sin afectar al equilibrio. Durante la reacción química el catalizador está sujeto a todas las reglas químicas en su interacción con los reactantes, permaneciendo al final de la misma en el mismo estado, condiciones y propiedades que al principio de la reacción. La función y principio de un catalizador es acelerar la cinética de la reacción para alcanzar antes el equilibrio termodinámico del proceso, es decir, el catalizador modifica el mecanismo a través del cual transcurre la reacción facilitando la formación de complejos intermedios de menor nivel energético, dando lugar a una reducción de la energía de activación global del proceso. Normalmente cuando se habla de un catalizador se entiende que acelera la reacción química, aunque estrictamente hablando un catalizador puede tanto acelerar como ralentizar la formación de una especie química en particular. El uso de un catalizador adecuado en una reacción consigue además que se lleve a cabo en condiciones de operación menos drásticas (temperatura y presión más bajas) y, por consiguiente, supone un ahorro energético que mejora la economía del proceso. Aunque frecuentemente un catalizador puede hacer variar la velocidad de las reacciones en miles o millones de veces, también se encuentra que la característica más importante es su selectividad. Entendemos por selectividad la propiedad del catalizador que permite modificar la velocidad de ciertas reacciones respecto de otras. Es decir, en el caso de un proceso donde sean posibles más de una reacción química, la selectividad del catalizador permite modificar solo la velocidad de una determinada reacción, sin afectar a las demás. De este modo, en presencia de un catalizador adecuado pueden obtenerse productos que contengan predominantemente las sustancias deseadas a partir de una alimentación determinada. Es decir, el catalizador puede mejorar también la selectividad de la reacción química dando lugar a una distribución de productos diferentes a la obtenida cuando no se emplea el catalizador. Hay muchas maneras de clasificar las reacciones químicas en general y las catalíticas en particular. Un esquema útil es el que resulta de dividirlas según el número y el tipo de fases implicadas en el proceso. De este modo pueden agruparse en dos grandes grupos: homogéneas y heterogéneas. Una reacción es homogénea si se efectúa solamente en una fase, y es heterogénea si al menos se requiere la presencia de dos fases físicas para que tenga lugar. La catálisis homogénea concierne a procesos en los cuales el catalizador está en solución con los reactantes, es decir, tiene lugar cuando el catalizador está en la misma fase que los reactantes y productos, ya sea fase gaseosa o líquida, siendo esta última la forma más frecuente en catálisis homogénea. Un ejemplo de proceso catalítico homogéneo sería la síntesis de ésteres a partir de sus correspondientes ácido y alcohol, y un ácido de Lewis en fase líquida como catalizador.
832
Técnicas de análisis y caracterización de materiales
La catálisis heterogénea, sin embargo, implica más de una fase, es decir, son sistemas de reacción donde los reactantes y el catalizador se encuentran en fases diferentes. Generalmente los casos más comunes son catalizadores sólidos y los reactivos gases, vapores o líquidos. Por ejemplo, la mayoría del benceno se produce a partir de la deshidrogenación de ciclohexano, obtenido a partir de la destilación del crudo petrolífero, utilizando Pt sobre alúmina como catalizador. Algunas veces la mezcla de reacción está en varias fases, líquida y gaseosa, como por ejemplo la hidrodesulfuración de fracciones pesadas del petróleo. La completa separación de la mezcla de reactantes y productos del catalizador sólido hace a la catálisis heterogénea económicamente más atractiva, principalmente porque muchos catalizadores son muy costosos y su reutilización está bastante demandada. Los procesos de catálisis homogénea, normalmente en fase líquida, se caracterizan por lograr altas selectividades con relativamente baja actividad, dado que el número de centros activos por unidad de volumen del reactor es relativamente bajo en las condiciones de operación. Sin embargo, en catálisis heterogénea, el número de centros activos de los catalizadores sólidos que puede exponerse a los reactivos por unidad de volumen del reactor es más elevado, por lo que estos procesos suelen dar lugar a una elevada actividad y selectividades más bajas. Además, la temperatura de operación no está limitada por las características del disolvente, lo que —de acuerdo con la ecuación de Arrhenius— también permite generalmente incrementar la velocidad de reacción. Otra ventaja importante de los procesos heterogéneos frente a los homogéneos es la facilidad de separación de los productos, al encontrarse estos en una fase diferente a la del propio catalizador. En líneas generales puede decirse que una reacción catalítica heterogénea ocurre muy próxima a la interfase fluido-sólido, de manera que los principios que gobiernan estas reacciones pueden ser aplicados tanto a procesos catalíticos como no catalíticos fluido-sólido. Este tipo de reacciones heterogéneas incluyen los sistemas gas-líquido, gas-sólido, líquido-sólido y gas-sólido-líquido. El buen control de los procesos catalíticos heterogéneos, la facilidad para preparar los catalizadores sólidos y la alta calidad de los productos obtenidos hacen que este tipo de procesos sean los más empleados a nivel industrial. La clasificación establecida de reacciones catalíticas no está, a veces, perfectamente diferenciada, como ocurre en el transcurso de reacciones biológicas sustrato-enzima, en las que las enzimas actúan como catalizadores biológicos. Las enzimas son proteínas de alto peso molecular con centros activos que funcionan a temperaturas bajas; una de sus características es que presentan siempre una alta actividad y selectividad. Tienen un tamaño coloidal comprendido entre 10 y 100 nm, por lo que las soluciones que contienen enzimas muestran una región confusa entre los sistemas homogéneos y heterogéneos. Teniendo en cuenta que una reacción catalítica heterogénea siempre tiene lugar en la interfase fluido-sólido, una elevada área superficial puede ayudar o incluso ser esencial para alcanzar una velocidad de reacción importante. En los sistemas catalíticos el área viene dada y está relacionada con la estructura porosa del sólido, de manera que si el material está constituido por poros muy finos, microporos, la superficie de estos poros es la que proporciona la mayor parte del área total necesaria para alcanzar una alta velocidad de la reacción. De este modo, el área que presentan algu-
Caracterización de materiales mediante estudios de actividad catalítica
833
nos materiales porosos es sorprendentemente grande; así un catalizador de sílicaalúmina de craqueo catalítico tiene un volumen de poros de 0,6 cm3 · g–1 y un radio medio de poro de 4 nm, siendo su área superficial de 300 m2 · g–1. En ocasiones, los poros pueden llegar a ser tan pequeños que solo admiten la entrada de pequeñas moléculas, evitando la entrada de otras de mayor tamaño. Los materiales con este tipo de estructuras porosas se denominan tamices moleculares, y estos pueden ser sustancias naturales, como zeolitas o arcillas, o materiales sintéticos, como los aluminosilicatos cristalinos. Estos materiales pueden formar la base para obtener catalizadores muy selectivos, donde sus poros pueden llegar a controlar el tiempo de residencia de las moléculas cercanas a la superficie catalíticamente activa, permitiendo reaccionar solo a determinadas moléculas. De este modo, por ejemplo, dentro de la zeolita la configuración de los reactantes puede venir controlada por la colocación de los átomos catalíticos (e. g. Pt) en centros específicos en la zeolita. Esta disposición facilitaría reacciones de ciclación, tales como orientar a las moléculas de etano en el anillo de la superficie del catalizador para formar benceno. Sin embargo, no siempre los catalizadores necesitan que su alta superficie venga dada por su estructura porosa. Por ejemplo, en el caso de los catalizadores monolíticos, fundamentalmente aplicados en casos donde es necesaria la menor pérdida de carga posible en la circulación del fluido, o reacciones altamente exotérmicas, su propia configuración y estructura dan lugar a una elevada superficie geométrica de contacto gas-sólido por unidad de peso o volumen. En el caso de los convertidores catalíticos para automoción, donde el espacio y volumen son extremadamente pequeños, el empleo de este tipo de catalizadores monolíticos permite obtener conversiones elevadas para volúmenes muy pequeños de catalizador, al presentar este una elevada área superficial por unidad de volumen. En muchas ocasiones los catalizadores no mantienen su actividad al mismo nivel durante largos periodos de tiempo. La desactivación catalítica puede venir ocasionada por un fenómeno de envejecimiento, como un cambio gradual en la estructura cristalina superficial, o por deposición de un material extraño sobre los centros activos de la superficie del catalizador. Por otro lado, la desactivación del catalizador puede tener lugar rápidamente, como por ejemplo en el craqueo catalítico del gasóleo, donde se deposita coque sobre la superficie del catalizador prácticamente al inicio de la reacción, mientras que en otros procesos el envenenamiento puede ser muy lento y gradual con el tiempo, como en el caso de los convertidores catalíticos de los automóviles. Un caso particular es el del craqueo catalítico donde el catalizador puede ser regenerado y reutilizado de nuevo en el proceso después de eliminar el coque depositado en su superficie por combustión.
20.2. cinéTica QUíMica de las reacciOnes caTalíTicas La caracterización de materiales mediante estudios de actividad catalítica debe pasar por el conocimiento de la velocidad de reacción, parámetro clave para determinar y cuantificar la evolución de la reacción catalítica. La cinética química estudia la velocidad de la reacción y considera todos los factores que influyen sobre ella. La termodinámica, a través del estudio del equilibrio químico,
Técnicas de análisis y caracterización de materiales
834
establece la extensión máxima de la reacción e indica hasta dónde puede proceder, es decir, informa sobre el estado final de la misma, mientras que la cinética indica cómo y a qué velocidad ocurre la reacción, es decir, informa sobre su evolución. Esta evolución, función de las condiciones de presión, temperatura y concentraciones de reactivos y productos, solo puede verse alterada por la presencia de un catalizador que acelere la reacción, para llegar ineludiblemente al mismo estado final marcado por la termodinámica. La velocidad de una reacción química puede venir afectada por diversas variables. En los sistemas o procesos homogéneos estas variables son la temperatura, la presión y la composición, mientras que en los sistemas heterogéneos, como hay presente más de una fase, el problema se hace más complejo. En este tipo de reacciones puede ocurrir que los materiales pasen de una fase a otra durante la reacción, caso en el que será importante la velocidad de transporte de materia entre fases. Considerando por ejemplo una reacción exotérmica que tiene lugar en la superficie de un catalizador poroso, si el calor desprendido por la reacción no se disipa rápidamente, puede tener lugar dentro del sólido catalítico una distribución de temperaturas no uniforme que originará velocidades de reacción diferentes en distintos puntos del mismo. Estos efectos de transmisión de calor y materia tendrán mayor importancia en reacciones de velocidad elevada, como los procesos de combustión que son reacciones químicas extraordinariamente rápidas, donde estos factores pueden llegar a controlar el proceso global. De este modo en las reacciones catalíticas heterogéneas los procesos de transmisión de calor y materia pueden llegar a jugar un papel muy importante en la determinación de las velocidades de reacción. En todos los casos considerados, si la reacción global consta de varias etapas en serie, la etapa más lenta de la serie es la que ejerce la mayor influencia sobre el proceso global, y, por tanto, puede decirse que será la etapa controlante del proceso. Un problema importante es determinar qué variables afectan a cada una de estas etapas y en qué grado. Solamente cuando se conoce la magnitud de cada factor se tiene una representación clara del efecto de las mismas sobre la velocidad de reacción, y únicamente cuando se dispone de esta información, se puede extrapolar esta velocidad a condiciones diferentes. Se pueden llegar a adoptar una serie de definiciones de velocidad de reacción relacionadas entre sí, empleando magnitudes intensivas (independientes de la cantidad, como la densidad y la temperatura) mejor que extensivas (dependientes de la cantidad, como la masa y el volumen). Seleccionando un componente i de la reacción se definirá la velocidad de reacción en función del mismo. De manera que si la velocidad de cambio en el número de moles de ese componente debido a la reacción es dNi/dt, y A es uno de los reactantes de la reacción, la velocidad de reacción en sus diferentes formas se puede definir como: – si está basada en la unidad del fluido reactante: ri =
moles de i formados 1 dN i = V dt (volumen de fluido)) (tiempo)
∴
moles de A desaparecidos −1 dN A ( − rA ) = = (volumen de fluido) (tiempo) V dt
[20.1]
Caracterización de materiales mediante estudios de actividad catalítica
835
– si está basada en la unidad del masa del sólido catalítico en los sistemas fluidosólido catalíticos: ri’ =
moles de i formados 1 dN i = W dt (masa de catalizaddor) (tiempo)
( − rA’ ) =
∴ [20.2]
moles de A desaparecidos −1 dN A = W dt (masa de catalizador) (tiempo)
– si está basada en la unidad de superficie del sólido catalítico en los sistemas gas-sólido catalíticos: ri ” =
moles de i formados 1 dN i = S dt (superficie de cattalizador) (tiempo)
∴ [20.3]
moles de A desaparecidos −1 dN A ( − rA ) = = (superficie de catalizador) (tieempo) S dt ”
– si está basada en la unidad de volumen catalítico en los sistemas gas-sólido catalíticos: ri ”’ =
moles de i formados 1 dN i = Vc dt (volumen de cataalizador en el reactor) (tiempo)
( − rA
moles de A desaparecidos −1 dN A = )= Vc dt (volumen de catalizzador en el reactor) (tiempo)
”’
∴ [20.4]
– si está basada en la unidad de volumen de reactor catalítico, si es diferente de la velocidad basada en la unidad de volumen de fluido: ri ”” =
moles de i formados 1 dN i = Vr dt (volumen de reacctor catalítico) (tiempo)
( − rA
moles de A desaparecidos −1 dN A )= = (volumen de reactor catalítico) (tiempo) Vr dt
””
∴ [20.5]
En los sistemas homogéneos el volumen del fluido en el reactor es casi siempre idéntico al volumen del reactor, y en estos casos no hay distinción entre V y Vr empleándose indistintamente las ecuaciones [20.1] y [20.5]. En los sistemas heterogéneos resultan aplicables todas las definiciones anteriores de la velocidad de reacción, siendo cuestión de conveniencia la elección de la forma de la ecuación cinética empleada en cada caso particular.
Técnicas de análisis y caracterización de materiales
836
A partir de las ecuaciones anteriores, las definiciones intensivas de velocidad de reacción pueden relacionarse del siguiente modo: (volumen de fluido) ri = (masa del catalizador sólido) r’i = = (superficie de sólido catalizador) ri’’ = (volumen de sólido catalítico) ri’’’ = = (volumen de reactor) ri’’’’ o bien: V · ri = w · ri’ = S · ri’’ = Vc · ri’’’ = Vr · ri’’’’
[20.6]
Por otro lado, puede establecerse que la velocidad de reacción es función del estado del sistema, es decir: ri = f (estado del sistema de reacción) = f (temperatura, presión, composición) [20.7] La presión, la temperatura y la composición son variables interdependientes, es decir, para valores dados de temperatura y composición la presión viene determinada. Estrictamente hablando, esta interdependencia es aplicable solo en el equilibrio; sin embargo, al no disponer de una hipótesis mejor se supone que también se cumple en los sistemas que, aun no estando en equilibrio, no cambian muy rápidamente. En consecuencia, puede escribirse sin perder generalidad que: ri = f (temperatura, composición) = f1 (temperatura) · f2 (composición)
[20.8]
Por tanto, la expresión de la velocidad puede escribirse para todas las reacciones, y en particular para las reacciones elementales, como el producto de un factor dependiente de la temperatura por otro dependiente de la composición. ri = k f2 (composición)
[20.9]
La forma de esta relación funcional es independiente de la definición de la velocidad de reacción. Solamente cambia el coeficiente de proporcionalidad y sus dimensiones, según la definición de la velocidad de reacción. Las medidas de velocidades a diferentes concentraciones y temperaturas conducen a valores de velocidades de reacción empíricas. Sin embargo, para realizar un estudio comparativo de la actividad catalítica de una serie de catalizadores para una determinada reacción, las velocidades de reacción deben venir expresadas en las mismas unidades, y obtenidas en las mismas condiciones de temperatura y concentración. De este modo, considerando la siguiente reacción catalítica: aA + bB
catalizador → cC + dD
[20.10]
la velocidad de reacción será negativa, definida como el número de moles de reactante que desaparecen por unidad de tiempo y unidad de masa de catalizador, si A es
Caracterización de materiales mediante estudios de actividad catalítica
837
un reactante que se está consumiendo, mientras que será positiva si C aparece como producto de la reacción. ( − rA ) = −
1 dN A W dt
( rC ) =
1 dN C W dt
[20.11]
En muchas ocasiones, la velocidad de reacción suele expresarse en función de la conversión, definida como el número de moles desaparecidos en la reacción por cada mol introducido del componente i, es decir, teniendo en cuenta la reacción catalítica [20.10], XA =
N A0 − N A
XB
N A0
=
N B0 − N B N B0
[20.12]
La conversión puede tener valores comprendidos entre cero y la unidad, indicando el grado de avance de la reacción. La relación entre las distintas conversiones puede deducirse fácilmente a partir de la estequiometría de la reacción, de manera que, N A0 − N A
=
a XB =
N B0 − N B
[20.13]
b
b N A0 XA a N B0
N A = N A 0 (1 − X A )
[20.14]
N B = N B0 (1 − X B )
[20.15]
Resultando entonces que la velocidad de reacción puede expresarse como, ( − rA ) =
N A 0 dX A W dt
( − rB ) =
N B 0 dX B W dt
[20.16]
En sistemas con varias reacciones posibles, la conversión catalítica por sí sola no da suficiente información, solo proporciona la cantidad de reactante consumido pero no indica hacia qué productos se decanta el proceso; es en este caso necesario introducir variables adicionales como la selectividad de reacción. El concepto de selectividad se refiere a la especificidad de las reacciones, mientras que el rendimiento caracteriza la distribución de productos. La selectividad hacia un producto determinado C (SC ), según la reacción química [20.10], se define de la siguiente forma: SC =
∆N C a ∆N A c
[20.17]
Técnicas de análisis y caracterización de materiales
838
es decir, el cociente entre el número de moles de C producidos y el de A consumidos, modificados por los respectivos coeficientes estequiométricos (en el caso de que la reacción solo produjese C, a moles de A reaccionarían para dar c moles de C). En cuanto al rendimiento a un producto C, (YC ) se define como el número de moles de C producidos por mol del correspondiente reactante A alimentado. Por tanto, de acuerdo con las definiciones anteriores, el rendimiento del producto se corresponde con: YC = X A SC
[20.18]
20.2.1. la ecuación cinética La expresión de la velocidad de reacción puede escribirse como un producto de la constante de velocidad k por una función de las concentraciones de las especies que intervienen en la reacción. Teniendo en cuenta la reacción catalítica [20.10], y tomando como base de cálculo la especie química A, que es uno de los reactivos que desaparece en la reacción, la velocidad de desaparición de A, (–rA), puede expresarse como: ( − rA ) = k ( T ) f ( C A , C B ,...)
[20.19]
y a esta ecuación algebraica que relaciona (–rA) con las concentraciones de las especies de reacción se la denomina expresión cinética o ecuación cinética. La constante cinética, k, es totalmente independiente de la concentración de las especies que intervienen en la reacción. Es casi siempre fuertemente dependiente de la temperatura y, de acuerdo con la ecuación inicialmente establecida por Arrhenius, esta relación puede expresarse como: k (T ) =
E A 0 exp − a RT
[20.20]
donde A0 es una constante denominada factor preexponencial o factor de frecuencia, Ea es la energía de activación, (j/mol o cal/mol), R es la constante universal de los gases (8.314 J/mol · K < > 1.987 cal/mol · K) y T es la temperatura a la que se produce la reacción, expresada en Kelvin (K). La ecuación [20.20] conocida como ecuación de Arrhenius, ha demostrado ser válida para representar el comportamiento de la constante de velocidad con la temperatura para la mayoría de las reacciones químicas en un amplio intervalo de temperaturas. Esta expresión matemática se ajusta muy bien a los datos experimentales de la mayoría de las reacciones, por tanto se puede llegar a considerarse como una aproximación adecuada para el estudio del efecto de la temperatura sobre la ecuación cinética, de la que se deduce que: 1. Si se cumple la ecuación de Arrhenius, representando ln k frente a 1/T, se obtiene un valor elevado de la pendiente si el valor de Ea es alto, y pequeña si Ea es baja.
Caracterización de materiales mediante estudios de actividad catalítica
839
2. Las reacciones con energía de activación alta son muy sensibles a la temperatura mientras que las reacciones con energía de activación pequeña son muy poco sensibles a este parámetro. 3. El efecto de la temperatura sobre una reacción química es mucho mayor a bajas que a altas temperaturas. 4. El factor preexponencial A0 no está afectado por la influencia de la temperatura sobre la reacción química. En una reacción real puede haber una pequeña influencia de la temperatura sobre este factor; sin embargo, al ser demasiado pequeña, se considera generalmente despreciable. Arrhenius llegó a la expresión [20.20] a través de una serie de consideraciones termodinámicas. En el caso de una reacción elemental reversible A ↔ S, la relación de van’t Hoff establece: d ln K dT
=
∆H
[20.21]
RT 2
siendo K la constante de equilibrio termodinámica de la reacción, que para una reacción elemental puede definirse como el cociente entre las constantes de velocidad de las reacciones directa e inversa de la misma, k1 y k2, y por tanto resulta: d d ln k1 − ln k2 = dT dT
∆H RT 2
[20.22]
siendo ∆H = Ea 2 − Ea1
[20.23]
Esta ecuación pone de manifiesto la diferencia entre los aspectos termodinámicos (identificados a través de la variación de la entalpía, ∆H) y cinéticos de la reacción (identificados con las energías de activación de los procesos directos e inversos, Ea1 y Ea2, respectivamente). La presencia de un catalizador en una reacción química modifica fundamentalmente el mecanismo por el cual transcurre la reacción, facilitando la formación de complejos activados diferentes, de menor nivel energético, que provocan una reducción del valor de la energía de activación. Esto se traduce en un aumento de la velocidad de la reacción al compararla con la de la misma reacción en ausencia de catalizador. Finalmente, tomando logaritmos en la ecuación [20.20] se llega a la siguiente expresión, que es una de las formas más comunes de expresar la ecuación de Arrhenius, ln k = −
Ea 1 + ln A 0 R T
[20.24]
Las constantes de velocidad se pueden expresar en una gran variedad de unidades, dependiendo de los términos en que venga expresada la velocidad de reacción.
Técnicas de análisis y caracterización de materiales
840
Así por ejemplo, en la Tabla 20.1 se recogen las constantes de velocidad para una reacción de primer orden en función de los distintos parámetros utilizados, siendo Sg la superficie específica, dp el diámetro medio de poro del catalizador y ε la porosidad del lecho catalítico. Tabla 20.1. fOrMas de eXPresar la cOnsTanTe de velOcidad en reacciOnes de PriMer Orden constante de velocidad kS
Parámetro Superficie específica
forma kS
Unidades cm · s–1
kW
Masa de catalizador
kSSg
cm3 · g–1 · s–1
kvc
volumen de catalizador
kSSgdp
s–1
kvR
volumen de reactor
kSSgdp (1 – ε)
s–1
kvf
Volumen de fluido
kSSgdp (1 – ε)/ε
s–1
Por tanto, la ecuación [20.19] sugiere tres maneras de expresar la actividad: como una velocidad, como una constante de velocidad o como una constante de Arrhenius. Como el otro factor del que depende la velocidad de reacción es una función de las concentraciones de las especies que intervienen en la reacción, basándonos en la ley de acción de masas y sobre todo en la observación experimental, la forma más común y más simple de dependencia de la velocidad de reacción con las concentraciones de las especies que intervienen en la reacción puede venir dada por una ecuación de forma potencial: ( − rA ) = k C Aa' C Bb' ...
[20.25]
Los exponentes a’, b’... en la ecuación anterior, se denominan órdenes parciales de reacción con respecto a cada uno de los reactivos, y a la suma de todos ellos, a’ + b’ + ..., se le denomina orden global, o simplemente orden de reacción. A veces las reacciones tienen expresiones de velocidad más complejas que no pueden describirse mediante ecuaciones potenciales, presentando una dependencia de la temperatura no separable. Por ejemplo, para la siguiente ecuación cinética: ( − rA ) =
k CA 1 + k ’ CA
[20.26]
en la que tanto k como k’ tienen una dependencia exponencial con el inverso de la temperatura, solo se puede hablar de órdenes de reacción aparentes. En determinados intervalos de las variables de operación, para bajas concentraciones de A, el denominador puede reducirse a la unidad y la reacción sería de primer orden (aparente). Por el contrario para concentraciones de A elevadas, la ecuación de velocidad se vería reducida a una constante, resultando que en este caso el orden de reacción (aparente) sería cero.
Caracterización de materiales mediante estudios de actividad catalítica
841
Finalmente teniendo en cuenta la influencia de la estequiometría sobre la velocidad de reacción, las reacciones pueden clasificarse en reacciones elementales y no elementales. Una reacción elemental es aquella en la que el orden de reacción de cada especie es idéntico a su molecularidad. Así por ejemplo, la reacción 2A + B ↔ S, se considera elemental cuando la velocidad de reacción puede expresarse como: ( − rA ) = k C A2 C B
[20.27]
En una reacción elemental se considera que la reacción tiene lugar en una única etapa, mediante interacción directa entre las moléculas que intervienen (2 de A y 1 de B en este caso) y proporcionalmente a su concentración, resultando en este caso un orden global de reacción de 3. Por el contrario, cuando no existe una correspondencia directa entre la estequiometría de la reacción y los órdenes de reacción en la ecuación cinética, se habla de reacciones no elementales. Por ejemplo la reacción H2 + Br2 ↔ 2HBr , se puede describir mediante la siguiente ecuación cinética: r HBr =
1/ 2 k1 CH 2 CBr 2
C k2 + HBr CBr2
[20.28]
En realidad, estas reacciones no elementales son consecuencia de una serie de reacciones elementales que transcurren a través de una serie de productos intermedios inestables y presentes en pequeñas concentraciones, como ocurre en los procesos de adsorción-desorción de reactantes y/o productos que tienen lugar en catálisis heterogénea.
20.2.2. Definición de actividad catalítica Es importante en principio definir la actividad catalítica para poder llegar a entender el fenómeno de la catálisis, teniendo en cuenta que frecuentemente nos referiremos a ella. La actividad catalítica es el parámetro clave en el diseño, la selección, y la optimización del sistema catalítico final. En líneas generales, este término puede significar distintas cosas, pero en este caso se van a considerar las expresiones comúnmente usadas para el estudio de la actividad catalítica, es decir, qué significan, cuándo se usan y cómo se puede medir la actividad de los distintos materiales utilizados en el proceso catalítico. Taylor, en una de sus contribuciones a la teoría catalítica, sugiere que no es todo el sólido catalítico superficial sino solo unos determinados centros, los centros activos, los que catalizan la reacción química. Este autor visualiza estos centros como átomos insaturados en el sólido que resultan o se forman a partir de irregularidades superficiales, dislocaciones, etc.; sin embargo, otros investigadores sugieren que además hay otras propiedades en la superficie del sólido que también son muy im-
Técnicas de análisis y caracterización de materiales
842
portantes para el desarrollo de las reacciones catalíticas, como por ejemplo su acidez o basicidad, entre otras. De este modo, se puede definir el centro activo como el punto de la superficie catalítica que puede llegar a formar fuertes enlaces químicos con un átomo o molécula adsorbida, siendo el proceso de la quimisorción sobre los centros activos el que da lugar realmente al proceso catalítico en la reacción química. Un parámetro muy utilizado para cuantificar la actividad de un catalizador, que es una adaptación de la velocidad por unidad de superficie, es la frecuencia de turnover, turnover frecuency; designada como TOF, y que representa el número de veces que la reacción catalítica global en cuestión tiene lugar por centro catalítico activo y por unidad de tiempo, para unas condiciones de reacción fijas (temperatura, presión o concentración, relación de reactantes, extensión de reacción). Por tanto, el TOF viene definido como el número de moléculas que reaccionan por centro activo catalítico y por tiempo en las condiciones del experimento, TOF =
número de moléculas de un compuesto dado númeroo de centros activos x tiempo 1 dn TOF = AS dt
∴ [20.29]
donde AS es el número de centros activos. Así, por ejemplo, en el caso de catalizadores metálicos, como platino soportado sobre alúmina, donde se considera que los átomos metálicos son los centros activos de la reacción, la dispersión del catalizador, D, es la fracción de átomos metálicos depositados sobre el soporte que están en la superficie catalítica. En esta línea, otro modo de cuantificar la actividad de un catalizador es el número de turnover, TON, definido como el número total de moléculas convertidas por centro activo catalítico. Cuando el número de centros activos AS es conocido con exactitud, como ocurre en general en el caso de los procesos enzimáticos y casi invariablemente con las reacciones homogéneas, la turnover frecuency puede ser específicamente cuantificada. Sin embargo, aunque aparentemente es una simplicidad molecular, el número de turnover debe ser utilizado con cierta precaución en catálisis heterogénea, puesto que requiere un conocimiento exacto del área superficial y de la estructura del centro activo en condiciones de reacción, que a veces es bastante difícil de medir y determinar in situ. La aproximación más simple y común es medir el área superficial del catalizador fresco en un experimento separado, donde, sin embargo, las condiciones de reacción no pueden ser reproducidas rigurosamente. Por otro lado, para alcanzar un conocimiento riguroso del centro activo es necesario, además, relacionar el área superficial con la densidad de centros, y esta es la propiedad más esquiva y compleja de conocer en catálisis y, por lo tanto, gran objeto de estudio e investigación. De este modo, no es exagerado determinar que hay muy pocas reacciones catalíticas donde se pueda llegar a tener un conocimiento preciso de las estructuras internas de los centros activos. Quizás en el futuro, nuevos métodos abrirán la manera de determinar y usar estos conceptos con rigor. Mientras tanto, sería más correcto representar las velocida-
Caracterización de materiales mediante estudios de actividad catalítica
843
des de reacción basándose en propiedades medibles y conocidas, como el volumen, la masa o el área superficial del catalizador. El TOF es una velocidad, no un coeficiente de velocidad, por lo que es necesario especificar todas las condiciones predominantes de la reacción catalítica estudiada. A pesar de las dificultades que puede entrañar determinar el número de centros activos en algunos catalizadores heterogéneos, el uso del TOF como una medida de la actividad catalítica es bastante rigurosa y muy sensata, fundamentalmente en el caso de sistemas catalíticos como las zeolitas, enzimas, etc., e incluso con catalizadores metálicos soportados finamente dispersos donde es posible determinar exactamente el número de centros activos.
20.2.3. cinética química de reacciones catalíticas homogéneas En las reacciones catalíticas homogéneas todas las sustancias reaccionantes y el catalizador se encuentran en una única fase. Aunque la velocidad de reacción puede definirse de diversas formas, en los sistemas homogéneos se emplea casi exclusivamente la medida intensiva basada en la unidad de volumen de fluido reaccionante. De este modo, la velocidad de reacción con respecto a un componente cualquiera i se define como: ri =
1 V
dN i dt
= por reacción
(moles de i que aparecen por reacción) (unidad de volumen) (unidad de tiemppo)
[20.30]
De acuerdo con esta definición, la velocidad será positiva si i aparece como producto de la reacción, mientras que será negativa si i es un reactante que se está consumiendo; es decir, (–rA ) representa la velocidad de desaparición del reactante A. Es de esperar que el desarrollo de este tipo de reacciones dependa de la composición de las sustancias en la fase considerada, así como de la temperatura y la presión del sistema. No deben influir sobre la velocidad de las reacciones homogéneas ni la forma del recipiente, ni las propiedades de las superficies de los sólidos en contacto con la fase, ni las características difusionales del fluido. Para explicar la cinética de las reacciones catalíticas homogéneas se parte de la hipótesis de que tienen lugar una secuencia de reacciones elementales, donde no se pueden llegar a medir los productos intermedios y por tanto solo se podrá plantear un mecanismo de reacción a partir del conocimiento de los reactantes y productos. Una vez que se ha planteado un mecanismo de reacción, para afirmar que es correcto, hay que comprobar que la expresión cinética obtenida a partir del mecanismo supuesto coincide con la ecuación cinética obtenida experimentalmente. Los compuestos intermedios que pueden formarse en este tipo de reacciones se supone que podrán estar relacionados con la naturaleza química de las sustancias que intervienen en la reacción, pudiendo ser clasificadas en radicales libres, iones y sustancias polares, moléculas y complejos de transición. Además, por ejemplo, podría darse un mecanismo de radicales libres de reacción en cadena, donde el producto intermedio se forma en la primera reacción, llamada
Técnicas de análisis y caracterización de materiales
844
eslabón de iniciación; que posteriormente reacciona con el reactante dando producto y más producto intermedio, en el eslabón de propagación. El producto intermedio se consume en el eslabón final, para transformarse en el producto deseado, pudiendo esquematizarse el mecanismo global del siguiente modo: Reactante (Producto Intermedio)* + Reactante (Producto Intermedio)*
(Producto Intermedio)* (Producto Intermedio)* + Producto Producto
Iniciación Propagación Terminación
La propagación es la etapa esencial de la reacción en cadena. En esta etapa el producto intermedio no se consume sino que actúa simplemente como un catalizador para la transformación de la sustancia; de este modo, cada molécula del producto intermedio puede llegar a catalizar una larga cadena de reacciones antes de que se destruya. Sin embargo, en la búsqueda del mecanismo correcto de una reacción se plantean dos problemas. En primer lugar una reacción química puede describirse a través de diversos mecanismos, por ejemplo por radicales libres o por iones, con distintas velocidades relativas según las condiciones de operación. Y por otro lado, los datos experimentales obtenidos pueden estar de acuerdo con más de un mecanismo propuesto. La resolución de estos problemas es difícil y requiere un amplio conocimiento de la naturaleza química de las sustancias consideradas y de la reacción en cuestión. Teniendo todo esto en cuenta, la correspondencia entre el mecanismo propuesto, que implica una secuencia de reacciones elementales, y los datos cinéticos obtenidos experimentalmente se puede llevar a cabo aplicando las siguientes reglas: 1. Si el componente i toma parte en más de una reacción, su velocidad neta de cambio será igual a la suma de todas las velocidades de cambio de ese componente en cada una de las reacciones elementales; es decir: ( ri , neta ) =
Σ ( ri ) Todas las reacciones elementales
[20.31]
2. Como los productos intermedios se encuentran presentes en cantidades muy pequeñas después de un tiempo muy corto de reacción, sus velocidades de cambio en el sistema nunca pueden ser grandes; por lo tanto, pueden llegar a considerarse nulas sin error apreciable. Esto se denomina aproximación al estado estacionario. A la hora de resolver el problema matemáticamente se necesita una aproximación de este tipo y su justificación se encuentra en que los resultados propuestos, basados en esta hipótesis, coinciden muchas veces con los resultados experimentales. Por tanto, en el estudio de una reacción química en general y catalítica en particular, hay que abordar el conocimiento del transcurso de la reacción a través de tres campos de investigación: la estequiometría, la cinética y su mecanismo. En primer lugar se estudia la estequiometría de la reacción y después de conocerla suficientemente se investiga la cinética química. A partir del conocimiento y disposición de expresiones empíricas de velocidad, se puede llegar a plantear el mecanismo de reacción. De este modo se podrá corroborar la ecuación cinética propuesta con los datos empíricos obtenidos en la experimentación.
Caracterización de materiales mediante estudios de actividad catalítica
845
Solo el conocimiento de las energías de todos los productos intermedios posibles permitirá la predicción y elección del mecanismo dominante, y su correspondiente expresión cinética en cada caso con exactitud. Sin embargo, como a priori no se dispone de toda esta información, no es posible la predicción exacta de la forma del factor de que depende de la concentración. De este modo la forma de la expresión cinética encontrada experimentalmente constituye frecuentemente la guía utilizada para investigar las energías de los productos intermedios en una reacción. Suponiendo que ya conocemos el mecanismo de reacción, ya sea o no elemental, se puede entonces proceder a la predicción del factor pre-exponencial y de la energía de activación del coeficiente cinético de la reacción química catalítica.
20.2.4. cinética de reacciones catalíticas heterogéneas En las reacciones catalíticas heterogéneas, además de los factores que normalmente han de tenerse en cuenta en los sistemas catalíticos homogéneos, hay que considerar otros dos: 1. Una mayor complejidad de la ecuación cinética. En este caso se tiene que tener en cuenta el transporte de materia entre fases, puesto que los reactantes y el catalizador presentan distinto estado de agregación. Por consiguiente es necesario incluir los términos correspondientes al transporte de materia, además de los cinético-químicos usuales de las reacciones homogéneas. Estos términos de transporte de materia son diferentes en tipo y número para los distintos sistemas heterogéneos, sin que tenga aplicación general ninguna expresión individual de la velocidad. 2. Los distintos modelos de contacto en los sistemas de dos o más fases. En los sistemas homogéneos se tienen en cuenta dos modelos ideales de flujo para el fluido reaccionante: flujo en pistón y flujo en mezcla completa. En el contacto ideal en sistemas heterogéneos, cada uno de los fluidos puede presentar flujo en pistón o en mezcla perfecta, lo que hace posible muchas combinaciones de modelos de contacto. Por otra parte, si una de las fases es discontinua, como sería el caso de gotas o partículas sólidas, han de tenerse en cuenta sus características de macrofluido. Por lo tanto, cada una de las combinaciones de los modelos de contacto entre dos fases está asociado con una forma específica de la ecuación de diseño, la cual debe ser desarrollada para cada modelo en particular. En los sistemas heterogéneos gas-sólido catalíticos, el proceso químico generalmente tiene lugar sobre la superficie del catalizador, por lo tanto para que la reacción catalítica tenga lugar todos los reactantes deben alcanzar y estar en contacto con la superficie. La unión de los reactantes con la superficie del catalizador es conocida como adsorción y puede tener lugar mediante dos tipos de fenómenos: adsorción física o química. La adsorción física es similar a la condensación. Este proceso es siempre exotérmico, siendo el calor de adsorción relativamente pequeño, del orden de 1-15 kcal · mol–1 · g–1. Las fuerzas de atracción entre las moléculas del gas y la superficie sólida son débiles. Estas uniones corresponden a fuerzas de Van
846
Técnicas de análisis y caracterización de materiales
der Waals, que consisten en la interacción entre dipolos permanentes y/o entre átomos neutros y moléculas. La cantidad de gas físicamente adsorbida disminuye rápidamente cuando se incrementa la temperatura, y por encima de su temperatura crítica cantidades muy pequeñas de algunas sustancias químicas son físicamente adsorbidas. Sin embargo, el tipo de adsorción que realmente afecta la velocidad de la reacción química es la quimisorción. Aquí, los átomos adsorbidos o moléculas se unen a la superficie mediante fuerzas de valencia o enlaces químicos, del mismo tipo que aquellas que tienen lugar entre enlaces de átomos en las moléculas. La quimisorción es un proceso normalmente exotérmico, pero los calores de adsorción son generalmente del mismo orden de magnitud que el calor de la reacción química (e. g. de 10-100 kcal · mol–1 · g–1). En las reacciones catalíticas heterogéneas puede tener lugar una quimisorción de uno o de varios reactantes, por lo que la reacción deberá realizarse dentro del intervalo de temperaturas donde la quimisorción de reactantes sea apreciable. A continuación tendrá lugar la propia reacción química entre la especie o especies adsorbidas en el catalizador y el resto de los reactantes para dar lugar a los productos de reacción. Existen muchos tipos de mecanismos de reacción catalítica heterogénea según sean los compuestos intermedios quimisorbidos o dependiendo de si se trata de una reacción de oxidación-reducción, ácido-base, etc.
20.3. caTálisis HOMOGénea Las reacciones catalizadas por ácidos o bases en disolución son las más frecuentes en catálisis homogénea. Muchos de los mecanismos de reacciones químicas orgánicas, como esterificaciones ácidas y básicas, hidrólisis de ésteres, isomerizaciones, etc., ocurren o se ven facilitadas por la presencia de catalizadores ácidos o básicos en disolución. Según la teoría de Brönsted, un ácido HA es una sustancia capaz de ceder un protón para formar su base conjugada correspondiente, A–, y una base B es la sustancia capaz de recibir un protón para formar su correspondiente ácido conjugado, BH +. Una disolución acuosa de un ácido —o una base— en agua es un sistema de ácidos y bases conjugados, donde el agua por su carácter anfótero funciona como una base o un ácido dependiendo del soluto. La teoría de Brönsted implica que un ácido deberá contar al menos con la presencia de un protón y, por tanto, excluye a compuestos de naturaleza ácida como el AlCl3, BF3, etc. Sin embargo, la teoría de Lewis define un ácido como un compuesto que acepta un par de electrones de otra molécula para estabilizar su capa electrónica externa, y una base como un compuesto capaz de compartir un par de electrones con otra molécula para estabilizar su capa electrónica. Las reacciones que se llevan a cabo mediante ácidos o bases de Lewis se denominan reacciones catalíticas electrófilas o nucleófilas. Este tipo de procesos catalíticos se dan frecuentemente en fase líquida, siendo los catalizadores más comunes ácidos solubles, bases, sales y compuestos organometálicos. El catalizador se disuelve en un disolvente que puede ser el reactante o el mismo producto de reacción. Las principales ventajas de las reacciones catalíticas homogéneas son:
Caracterización de materiales mediante estudios de actividad catalítica
847
– La utilización de prácticamente todas las moléculas/iones del catalizador en el proceso. – La alta selectividad que se obtiene en algunas reacciones, como por ejemplo en el caso de la síntesis de compuestos ópticamente activos. – El sencillo control de la temperatura del proceso en el caso de reacciones altamente exotérmicas. – La alta selectividad alcanzada debido al hecho de que es posible operar en condiciones más suaves de operación (por ejemplo en el caso de reacciones de oxidación). Las principales desventajas que se encuentran en este tipo de procesos son: – Costes elevados de los procesos de separación y de recuperación del catalizador. – Serios problemas de corrosión cuando se emplean catalizadores ácidos. – Tratamientos caros para la depuración de los efluentes líquidos tóxicos obtenidos después de la separación, regeneración y reciclaje de los catalizadores. – Posibilidad de contaminación de los productos por el catalizador. Por otro lado, los tipos de mecanismos de las reacciones catalíticas ácidas o básicas son muy variados, dando lugar a expresiones cinéticas en las que pueden intervenir distintas especies presentes en el medio. De este modo, para una reacción genérica catalizada por ácidos y bases, donde un reactivo o sustrato, S, se transforma en un producto, P, se puede escribir que: S+C
kc
P+C
[20.32]
donde C representa las diferentes especies presentes en el medio con actividad catalítica. Si todas las especies presentes en la disolución (protones, hidroxilos, ácidos y bases) tienen actividad catalítica, la velocidad de reacción global será la suma de las contribuciones de las diferentes especies. ( − rS ) = kc Cs + k H + C H + C S + kOH − COH − C S + k AH C AH C S + k A− C A− CS
[20.33]
donde el primer término corresponde a la reacción espontánea no catalizada. La contribución a la velocidad de reacción global de los términos que se incluyen en la ecuación [20.33] dependerá de los valores relativos de las constantes cinéticas y de las concentraciones de las diferentes especies, considerando que la reacción es elemental. De esta forma dependiendo del caso, la ecuación puede llegar a simplificarse por eliminación de los términos con contribución despreciable. Por otro lado, en función de las especies que aparecen en la ecuación cinética, las reacciones homogéneas catalizadas por ácidos y/o bases se agrupan en catálisis específica y catálisis general. En la catálisis específica, la velocidad de reacción solo es función de las concentraciones de OH– y H+, y es independiente de las concentraciones de otras especies ácidas o básicas presentes en el medio. Aunque estos iones se encuentran frecuentemente solvatados formando otras especies, se representan así para simplificar la nomenclatura.
Técnicas de análisis y caracterización de materiales
848
Un mecanismo de catálisis ácida específica podría ser, por ejemplo, la hidrólisis de ésteres mediante ácidos. Este mecanismo tiene lugar en dos etapas: k1
S + H+
k2
SH + + R
SH +
[20.34]
P + H+
[20.35]
una primera etapa rápida donde el éster S se protona, seguida de una etapa más lenta en la que se produce la reacción con agua, R, dando lugar a los productos, P. La velocidad de reacción será igual a: ( − rs ) = k2 k1 CS C H C R
[20.36]
en el caso de una primera etapa rápida, y una segunda lenta. Este mecanismo corresponde a una catálisis ácida específica ya que la velocidad de reacción solo es función de la concentración de protones y no de otras especies ácidas presentes en el medio. En muchos casos, una reacción puede transcurrir tanto por catálisis ácida como por catálisis básica, e incluso puede ocurrir de forma espontánea. Esto implica la coexistencia de varios mecanismos que toman importancia relativa en función de las concentraciones de las diferentes especies en el medio. El cambio del mecanismo por el que transcurre la reacción se pondrá de manifiesto como un cambio de la pendiente en la representación de la evolución del logaritmo de la velocidad de reacción, (–rs) frente al pH, en catálisis ácida y básica. Así, si la pendiente de la representación logarítmica de (–rs) vs. pH es negativa, –1, hay catálisis ácida, si es positiva, 1, tenemos catálisis básica; y si fuese nula, no existe ninguna de las dos, y se trataría de una reacción espontánea. Sin embargo, la catálisis ácida (o básica) general se corresponde con reacciones en las que en la ecuación cinética entra en juego cualquier compuesto que ceda (o acepte) protones excepto el H+ (OH–). Si por ejemplo consideramos el siguiente mecanismo de catálisis básica general para la condensación de aldol, resulta que: SH + B
k1
S− + R
k2
S − + BH +
[20.37]
P
[20.38]
la velocidad de reacción será proporcional a la concentración de la base B: ( − rSH ) = k1 CSH C B
[20.39]
Para discernir si una reacción ocurre por catálisis específica o general, se pueden realizar ensayos cinéticos en disoluciones tamponadas, variando en cada caso la concentración del ácido o la base que se esté estudiando. La concentración total de las especies iónicas en el medio es diferente y puede llegar a afectar a la acidez por cam-
Caracterización de materiales mediante estudios de actividad catalítica
849
bios en la actividad de las diferentes especies, por lo que es más conveniente realizar los ensayos manteniendo la fuerza iónica total. En estas condiciones, se mantienen constantes tanto la concentración de protones, como la relación entre las concentraciones de ácido y base conjugados. Si se observa una fuerte dependencia entre la velocidad de reacción observada y la concentración total del ácido, se tratará de catálisis general. Si por el contrario, la velocidad de reacción apenas varía al modificar la concentración total del ácido, se tratará de catálisis específica. La catálisis en fase homogénea abarca también otras reacciones químicas donde el agente catalítico no actúa como un ácido o una base —como puede ser el caso de algunas reacciones de polimerización, de transferencia de hidrógeno, de oxidaciónreducción, etc.— con otros mecanismos de reacción diferentes, como por ejemplo la isomerización catalítica de ácido maleico a ácido fumárico en fase acuosa. En numerosos casos, la reacción puede llevarse a cabo por más de un mecanismo que puede ser catalizado por ácidos y bases. La determinación de las ecuaciones cinéticas para estos sistemas suele ser compleja y debe basarse en una experimentación exhaustiva, modificando las concentraciones de las diferentes especies que participan en la reacción, para determinar con rigor la ecuación cinética y el mecanismo que rige el proceso.
20.4. caTálisis HeTerOGénea La catálisis heterogénea se produce en la interfase de sistemas polifásicos, siendo normalmente el catalizador un sólido y los reactivos gases, vapores o líquidos. Es por ello por lo que la estructura y la composición superficial de los sólidos adquieren una vital importancia para su actuación como catalizadores. Las principales ventajas de los procesos catalíticos heterogéneos consisten en una fácil separación del catalizador de los reactantes y productos, con lo que se eliminan los problemas de corrosión y los tratamientos de purificación de los posibles líquidos residuales. Las desventajas más claras frente a los procesos homogéneos son: la dificultad del control de la temperatura para reacciones muy exotérmicas, la existencia de limitaciones por fenómenos difusionales de transferencia de materia externa e interna de reactantes y productos, y la existencia de problemas de abrasión y erosión por parte del sistema catalítico como consecuencia de las adversas condiciones a las que va a estar sometido el catalizador en reacción. Típicamente, un catalizador sólido suele estar formado fundamentalmente por tres componentes: fases activas, un promotor que incrementa la actividad y/o selectividad, y un portador con elevada área superficial denominado habitualmente soporte, que sirve para facilitar la dispersión y la estabilización de las fases activas. Como fases activas se utilizan desde metales nobles o de transición, hasta sulfuros metálicos, entre otros, y como soportes, distintos óxidos metálicos entre los que destacan fundamentalmente la alúmina, el dióxido de titanio, zirconio, etc., y carbones activos de elevada superficie específica. Por otro lado, también pueden emplearse polímeros modificados como catalizadores. Por tanto, puede decirse que los componentes fundamentales de un catalizador heterogéneo son:
850
Técnicas de análisis y caracterización de materiales
1. Especies o fases activas, constituidas por uno o más compuestos, los cuales pueden llegar a contribuir en la reacción catalítica, cada uno con sus propias funciones, o interaccionando entre ellos creando efectos sinérgicos en sus interfases. 2. Promotores físicos, elementos o compuestos añadidos en pequeñas cantidades que ayudan a estabilizar el área superficial del material catalítico o que incrementan sus propiedades mecánicas. 3. Promotores químicos, los cuales son elementos o compuestos que modifican la actividad y la selectividad de las especies o fases activas. 4. Soportes, son los compuestos cuantitativamente mayoritarios presentes en el sistema catalítico, que pueden llegar a jugar un papel muy importante en el catalizador. Las principales funciones del soporte catalítico son: a) Reducir la cantidad de especie activa necesaria, que son generalmente caras. Las fases activas se depositan sobre la superficie del soporte, constituyendo una fracción menor desde el punto de vista cuantitativo al compararlas con el soporte. b) Conseguir una óptima y adecuada superficie activa así como una buena distribución de las fases activas en el mismo. c) Aumentar la resistencia mecánica de los componentes del catalizador. d) Crear un catalizador polifuncional por la introducción de nuevos centros activos (generalmente centros básicos o ácidos). e) Incrementar la capacidad de intercambio de calor de los componentes del catalizador. f) Estabilizar los componentes metálicos con pequeño tamaño de partícula. g) Estabilizar las especies de los óxidos metálicos en estados de valencia y coordinación diferentes de aquellos típicos de óxidos no soportados. Por otro lado, en líneas generales, según el tipo de reacción en la que intervienen, los catalizadores heterogéneos pueden clasificarse en: – Catalizadores redox. Donde se incluyen catalizadores para reacciones de oxidación, hidrogenación, deshidrogenación y halogenación. La principal característica de estos catalizadores es la presencia de elementos de transición (en forma de sales, complejos, sulfuros, cloruros, óxidos o metales) como componentes principales. – Catalizadores ácido-base. Se utilizan en procesos de alquilación, deshidratación, hidratación, oligomerización, craqueo e isomerización. La principal característica de este tipo de catalizadores son sus propiedades ácidas o básicas. – Catalizadores polifuncionales. Son sistemas catalíticos de reformado, oligomerización y aromatización de parafinas. Sus propiedades se consideran una mezcla de las de los catalizadores redox y ácido-base. Richardson propone para la correcta formulación de un catalizador un compromiso entre alta actividad del catalizador, estabilidad y buen flujo del fluido, lo cual se traduce en que el diseño de catalizadores no es más que una optimización de sus pro-
Caracterización de materiales mediante estudios de actividad catalítica
851
piedades catalíticas, químicas y físico-mecánicas, como queda representado gráficamente en la Figura 20.1. Alta actividad, selectividad y larga vida Catalíticas
Estabilidad
Resistencia al choque térmico Químicas
Inocuos
Resistencia a venenos
Físicas Baja pérdida de carga
Alta resistencia mecánica
Figura 20.1. Propiedades de un sistema catalítico heterogéneo.
De este modo, una buena distribución del flujo del fluido y una baja pérdida de carga se alcanzan a través de una correcta selección de la forma y del tamaño de la partícula, así como de sus propiedades mecánicas durante la fabricación. Generalmente las condiciones de operación del proceso (presión, temperatura, velocidad espacial, etc.) imponen las propiedades anteriores. Una alta actividad y selectividad catalítica vienen determinadas por una selección correcta de los componentes químicos, usando métodos de preparación para llegar al área superficial requerida, y una buena formulación de la estructura física del catalizador para alcanzar un buen acceso a los centros activos por parte de los reactivos. Por otro lado, una buena estabilidad que alargue la vida media de un catalizador requiere una alta resistencia a la desactivación (pérdida de actividad superficial debido, por ejemplo, al crecimiento de los cristales), al envenenamiento (eliminación de centros activos por fuerte quimisorción) y al fouling (bloqueo de los poros por deposición de coque o partículas). Aunque la estabilidad del catalizador es también sensible a las condiciones del proceso, es mucho mejor alcanzarla a través de la adición de distintos componentes catalíticos con funciones de estabilizantes, en la etapa de preparación del mismo. Por ejemplo, la actividad o conversión se incrementa con la porosidad, que mejora el acceso de los reactivos, y con la superficie, que incrementa el área disponible para la reacción. En ocasiones la resistencia mecánica del catalizador puede llegar a disminuir hasta límites inaceptables, cuando la porosidad alcanza valores superiores a 0,5. Sin embargo, actividades iniciales elevadas suelen a veces sacrificarse a favor de una buena estabilidad mecánica del catalizador con el tiempo. Por tanto, una buena actividad catalítica no es suficiente para el correcto diseño y optimización del catalizador, a menos que exista un buen balance con el resto de las propiedades físicas y químicas del sólido.
852
Técnicas de análisis y caracterización de materiales
20.4.1. etapas de la reacción catalítica heterogénea Las reacciones catalíticas se extienden más allá de la suposición implícita de que la velocidad del proceso global venga solamente controlada por las velocidades de las reacciones clave sobre la superficie catalítica. Es decir, el mecanismo que engloba el proceso catalítico global se extiende más allá de la superficie que envuelve la difusión física de reactantes y productos hacia y dentro del interior de la estructura porosa de la partícula catalítica. Las reacciones fluido-sólido catalíticas transcurren según las siguientes etapas que aparecen en la Tabla 20.2. En esta descripción se ha supuesto que el catalizador está en forma de partículas. Los mismos estados se aplican a otras formas de catalizadores, tales como esferas, extruidos, etc. El transporte de materia a través de la estructura porosa del sistema puede atravesar el interior de la estructura de la superficie catalítica. Por otro lado, diferentes centros activos pueden estar implicados en una reacción química. La adsorción, seguida de reacción, puede ocurrir en un único centro seguido por el transporte de un producto intermedio a otros centros para continuar de este modo la reacción. Tabla 20.2. secUencia de las eTaPas en Una reacción HeTerOGénea Gas-sólidO caTalíTica 1. Transporte de reactantes desde el seno de la fase fluida al exterior de la partícula catalítica. 2. Transporte de reactantes en el interior de la partícula catalítica, a través de la estructura porosa del catalizador hasta los centros activos. 3. Adsorción de reactantes en los centros activos del catalizador. 4. Reacción química propiamente dicha en los centros activos del sistema catalítico (generalmente en varias etapas). 5. Desorción de productos desde los centros activos catalíticos. 6. Transporte de productos a través de la estructura porosa del catalizador desde los centros activos del catalizador al exterior de la partícula catalítica. 7. Transporte de productos desde el exterior de la partícula catalítica hasta el seno de la fase fluida.
El transporte de los productos intermedios puede ser a través de la fase fluida, si el intermedio es una molécula estable, o a través de la superficie catalítica. Por tanto, la velocidad global del proceso será igual a la velocidad de la etapa más lenta del mecanismo. Cuando las etapas de difusión (1, 2, 6 y 7) sean muy rápidas al compararlas con las etapas de reacción (3, 4 y 5), las concentraciones en las inmediaciones de los centros activos son indistinguibles de aquellas en la fase fluida; en estas condiciones, el transporte o las etapas de difusión no afectan a la velocidad global de reacción. En otras circunstancias, si las etapas de reacción son muy rápidas comparadas con las etapas de difusión, el transporte de materia afecta a la velocidad global de reacción. De este modo, en sistemas donde la difusión desde el seno del fluido, gas o líquido, a la superficie del catalizador o al inicio de su estructura porosa afecta a la velocidad de reacción, cambios en las condiciones del fluido darán lugar a cambios en la velocidad global del proceso. En catalizadores porosos, por otra parte, la
Caracterización de materiales mediante estudios de actividad catalítica
853
difusión en el interior de los poros puede llegar a limitar la velocidad de reacción. Bajo estas circunstancias, la velocidad global del proceso no vendrá afectada por las condiciones de flujo externas, incluso aunque la difusión externa afecte también a la velocidad global, sino por el transporte de reactantes y productos en el interior de la estructura porosa del catalizador. En ocasiones, además de las posibles resistencias al transporte de materia, descritas anteriormente, puede tener lugar resistencia a la transmisión de calor en la reacción catalítica. Así, en el caso de reacciones muy rápidas que van acompañadas de un gran desprendimiento o absorción de calor, el intercambio de calor en la zona de reacción puede no ser lo suficientemente rápido para que las partículas de catalizador se mantengan en condiciones isotermas. Si esto ocurre, el catalizador se enfriará o se calentará, presentando un gradiente de temperaturas, lo que puede afectar en gran medida a la velocidad de reacción. Por consiguiente, la resistencia a la transmisión del calor a través de la película gaseosa o dentro de la partícula catalítica puede llegar a afectar considerablemente sobre la velocidad global de reacción. Hay muchas variaciones a la situación descrita en la Tabla 20.2. A veces, por supuesto, dos reactantes son necesarios para que la reacción tenga lugar, y cualquiera de ellos podría someterse a cualquiera de las etapas anteriores. En otras ocasiones, entre dos o más reactantes, la reacción química puede seguir un mecanismo donde solo sea uno de los reactantes el que se adsorba en la superficie del catalizador y el otro no. También puede considerarse que la adsorción tenga lugar sin reacción química, y si esta fuese la etapa controlante del proceso, la velocidad de reacción resultante sería distinta a la que obtendríamos en circunstancias donde tengan lugar adsorción y reacción simultáneamente. Por tanto, las distintas posibilidades que pueden darse a la hora de determinar la velocidad global del proceso dependerán de las distintas etapas que tengan lugar en la reacción química. Si consideramos, por ejemplo, que la etapa controlante del proceso es la etapa de adsorción, y que uno o varios de los reactantes se adsorben sobre la superficie catalítica, estos pueden reaccionar de muy diversas maneras para formar los productos de reacción, siendo las más comunes las siguientes: 1. La reacción superficial puede tener lugar a través de un mecanismo de un centro único, siendo este centro el único que está relacionado con la reacción química. 2. La reacción superficial puede tener lugar a través de un mecanismo de dos centros, en los cuales el reactante adsorbido interacciona con el otro centro, independientemente de que esté vacío u ocupado, para formar el producto. De este modo, por ejemplo, uno de los reactantes puede reaccionar con un centro adyacente vacante, para formar otro centro vacante donde el producto se desorba. Otro tipo de mecanismo de dos centros puede tener lugar cuando la reacción se da entre dos especies reactantes adsorbidas. Finalmente, el tercer tipo de mecanismo de dos centros puede darse entre dos especies adsorbidas en dos tipos de centros distintos. Cuando el mecanismo de reacción tiene lugar a través de uno o más tipos de centros con especies adsorbidas se dice que la reacción sigue una cinética del tipo de Langmuir-Hinshelwood, relacionada con las distintas formas de adsorción.
854
Técnicas de análisis y caracterización de materiales
3. El tercer mecanismo de reacción sería aquel en el que la reacción tiene lugar entre una especie adsorbida y otra molécula reactante desde la fase fluida. Estos mecanismos se denominan del tipo Eley-Rideal, que se caracterizan porque uno de los reactantes, que está fuertemente adsorbido en el centro activo, es el que reacciona con el otro desde la fase fluida para formar los productos de reacción. Por ejemplo, en la reducción catalítica selectiva de los óxidos de nitrógeno con amoníaco en exceso de oxígeno, empleando catalizadores basados en óxidos de vanadio y wolframio soportados sobre TiO2, los mecanismos propuestos en la bibliografía sugieren que la reacción tiene lugar a través de especies amonio fuertemente adsorbidas, y con el NO desde la fase gas o débilmente adsorbido. Sin embargo, difieren de forma sustancial en la naturaleza de las especies amonio reactivas adsorbidas, pudiendo estar como ión amonio o coordinado molecularmente. Estos dos mecanismos propuestos correlacionan la actividad catalítica con dos tipos de centros activos Brönsted y Lewis, respectivamente. Este mecanismo puede describirse considerando inicialmente el catalizador en la forma oxidada; en estas circunstancias el amoníaco se adsorbe sobre los iones V = O superficiales, y el NO reacciona desde la fase gas, según un mecanismo de Eley-Rideal, con el amoníaco adsorbido. Posteriormente el catalizador es reoxidado por el oxígeno presente en el medio de reacción, comenzando de este modo el ciclo de reacción. Por tanto, el estudio de las etapas de reacción en un proceso catalítico heterogéneo y la búsqueda de su mecanismo de reacción, deberán estar basados en la determinación de un mecanismo que represente adecuadamente el comportamiento real de reacción. En este punto se pueden llegar a hacer extrapolaciones a nuevas condiciones de operación más favorables con gran seguridad. Este argumento es poderoso desde el punto de vista de la ingeniería de la reacción química, puesto que un mayor conocimiento del mecanismo de la catálisis conducirá a la obtención de mejores catalizadores en el futuro, argumento que no concierne al ingeniero de diseño que ha de emplear el catalizador de que dispone, mientras que le sirve al químico industrial para introducir una mejora en el diseño del sistema catalítico.
20.5. reacciOnes caTalíTicas enziMáTicas Las enzimas se utilizan en procesos de fermentación para producir pan, bebidas alcohólicas, yogurt, queso, etc., incluso mucho antes de que sus propiedades y estructuras fuesen conocidas. Las enzimas, proteínas de elevado peso molecular (104-106 Da) sintetizadas por los organismos vivos, son capaces de catalizar reacciones bioquímicas con elevada selectividad, próxima al 100%, y con velocidades de reacción muy superiores a las logradas con catalizadores convencionales, del orden de 10-10.000 moléculas · enzima–1 · s–1. Las enzimas se definen habitualmente como sustancias proteicas elaboradas por una célula viva que catalizan una reacción específica necesaria para el mantenimiento de la vida. Desde el punto de vista de la biotecnología, es importante el estudio de las reacciones metabólicas catalizadas enzimáticamente, así como el de las transformaciones enzimáticas in vitro catalizadas por enzimas aisladas que permiten la ob-
Caracterización de materiales mediante estudios de actividad catalítica
855
tención o biotransformación de muchos productos de interés en la industria farmacéutica, química, alimentaria, etc. De este modo, las enzimas se comportan como catalizadores muy efectivos a concentraciones extremadamente bajas, del orden de 10–5-10–10 mol · L–1. En 1976 se conocían del orden de 1.800 enzimas, llegándose a descubrir aproximadamente 60 nuevas por año, lo que ha dado lugar a unas 3.200 enzimas en el año 2000. Las enzimas pueden ser sintetizadas in vitro o bien una vez extraídas de su propia fuente biológica, pudiendo ser purificadas, cristalizadas y utilizadas en estudios de laboratorio o procesos industriales. Una característica fundamental de las enzimas como catalizadores es la especificidad, lo que las diferencia fundamentalmente de los catalizadores sintéticos. La mayoría de los catalizadores utilizados en la industria química son no específicos, es decir, pueden catalizar reacciones similares involucrando diferentes tipos de reactivos. Aunque algunas enzimas son poco específicas, la mayoría catalizan una única reacción para unos determinados substratos. Este modelo plantea que el centro activo es el complemento geométrico del substrato y únicamente pueden formar el complejo de Michaelis los substratos que posean la forma complementaria adecuada. Esta hipótesis ha sido confirmada a partir del conocimiento de la estructura terciaria de las enzimas. El grado de especificidad en la acción catalítica de las enzimas es una consecuencia de su acción biológica en la célula. La especificidad puede llegar a ser absoluta: hay enzimas que solo catalizan una reacción a partir de un único substrato. La mayoría de las enzimas han sido designadas tradicionalmente añadiendo el sufijo -asa al nombre del sustrato sobre el que actúan, por ejemplo amilasas, proteasas, lipasas, etc., y, en algunos casos, el de la reacción que catalizan, por ejemplo alcohol deshidrogenasa, enzima que cataliza la deshidrogenación oxidativa de un alcohol. Las enzimas funcionan generalmente en condiciones de temperatura y pH similares a las que existen en los seres vivos. Cuando se exponen a condiciones severas de temperatura y pH pueden llegar a desnaturalizarse, es decir, perder o modificar sus grupos funcionales y/o cambiar su conformación, alterando o desactivando los centros activos. En las condiciones típicas de reacción: 40-60 ºC, 1 atm, las enzimas pueden desactivarse rápidamente; además, su separación del producto suele ser difícil y en ocasiones económicamente muy caro. Estos problemas pueden llegar a ser subsanados inmovilizando las enzimas sobre soportes inertes, lo que suele denominarse heterogeneización del proceso. Además, la inmovilización permite realizar el proceso de forma continua utilizando reactores de menor volumen, reduciendo costes de inmovilizado y de operación. En este último caso, se habla de catalizadores heterogéneos enzimáticos. De este modo, las bases para el estudio de los procesos enzimáticos se corresponderán con procesos catalíticos homogéneos, en el caso de enzimas en disolución, y con catálisis heterogénea, para enzimas inmovilizadas, respectivamente.
20.5.1. cinética de reacciones enzimáticas homogéneas Desde el punto de vista estructural, las enzimas son proteínas y, desde el punto de vista cinético, catalizadores. El conocimiento profundo de la función catalítica de una enzima requiere el máximo conocimiento posible de la estructura de la molécula enzimática.
Técnicas de análisis y caracterización de materiales
856
Michaelis y Menten propusieron un modelo para relacionar la velocidad de reacción con la concentración de substrato. Suponiendo la existencia de un solo complejo central, el esquema de reacciones sería: E+S
k1 k–1
ES
k2
E+P
[20.40]
donde E representa la enzima, S el substrato, ES el complejo enzima-substrato, y P los productos de la reacción. El substrato se une a una zona específica de la enzima en cada ciclo catalítico, denominada centro activo o sitio activo, de forma que la reacción catalítica tiene lugar solo en dicho centro. La formación del complejo se debe, en muchos casos, a la acción de fuerzas de atracción débiles como efectos iónicos, puentes de hidrógeno, atracciones hidrofóbicas entre grupos no polares, aunque también se conocen casos en los que intervienen enlaces covalentes. El anterior esquema de reacción puede escribirse más adecuadamente de la siguiente forma: Ef +Sf
k1 k–1
ES
k2
E f + βP
[20.41]
De acuerdo con este mecanismo, la enzima libre E f y el substrato libre S f se unen reversiblemente para formar el complejo enzima-substrato (ES), que conduce, irreversiblemente, a la obtención de β moles del producto P. En un reactor discontinuo de volumen constante, las ecuaciones de balance de las diferentes especies son: dE f = k−1 (ES ) + k2 (ES ) − k1 E f S f dt
[20.42]
dS f = k−1 (ES ) − k1 E f S f dt
[20.43]
d (ES ) dt
= k1 E f S f − k−1 (ES ) − k2 (ES ) dP = β ⋅ k2 (ES ) dt
[20.44] [20.45]
E f, S f, (ES) y P representan las concentraciones molares de las distintas especies. A partir del balance de materia, las concentraciones iniciales de enzima y substrato se pueden expresar como: E0 = E f + (ES ) S0 = S f + (ES ) +
1 P β
[20.46] [20.47]
Caracterización de materiales mediante estudios de actividad catalítica
857
Y aplicando la hipótesis de que el complejo (ES) está en estado pseudo estacionario (d(ES)/dt = 0) a la ecuación [20.44]: k1 E f S f = k−1 (ES ) + k2 (ES )
[20.48]
k−1 + k2 Ef Sf = = KM k1 (ES )
[20.49]
donde KM se conoce como constante de Michaelis, la cual puede venir expresada, al sustituir el valor de E f por su valor en la ecuación [20.46], como: KM =
k−1 + k2 k1
=
E0 ⋅ S f − (ES ) ⋅ S f (ES )
[20.50]
Despejando el valor de (ES) resulta: (ES ) =
E0 ⋅ S f KM + S f
[20.51]
Y finalmente al sustituir en la ecuación [20.45], se obtiene: k ⋅ E ⋅Sf dP =β 2 0 dt KM + S f
[20.52]
Considerando, por otro lado, que la concentración molar de enzima es mucho menor que la de substrato (E0 KM, pasa a ser de orden cero. De este modo, la ecuación [20.55], puede también expresarse como: r =
rmáx S KM + S
[20.56]
20.5.2. cinética de reacciones enzimáticas heterogéneas Los procesos enzimáticos en los que interviene un catalizador en forma sólida son reacciones heterogéneas donde la velocidad de reacción dependerá, por tanto, de las velocidades de transferencia de materia en el exterior y en el interior de las partículas sólidas, como en cualquier proceso catalítico heterogéneo. Este tipo de biocatalizadores, donde se tienen enzimas inmovilizadas, pueden obtenerse por agrupación o aglomeración espontánea de células o enzimas unidas a un sólido. Si este proceso no se produce espontáneamente, puede también inducirse artificialmente la enzima sobre un soporte sólido mediante diversas técnicas de inmovilización. Entre las distintas técnicas, los métodos más comúnmente utilizados se reducen a células atrapadas en un gel poroso y a enzimas soportadas sobre un sólido poroso. El primer método consiste en atrapar las células o enzimas dentro de un gel, como por ejemplo alginato o agarosa. Las fases biológicas se mezclan con un gel licuado, antes de su endurecimiento y posterior rotura en partículas pequeñas; el gel, normalmente un polímero, debe ser poroso para permitir la difusión de los reactivos y productos hasta y desde el interior de las partículas. El otro método, la inmovilización del gel, consiste en atraparlo dentro de sólidos porosos, tales como materiales cerámicos, de vidrio poroso o pastillas de resina. Las enzimas o células migran hasta el interior de los poros de estas partículas, y se anclan en su superficie interna. La actividad de estos biocatalizadores está relacionada con la carga de células o enzimas por unidad de volumen del sólido matriz. Los biocatalizadores inmovilizados tienen generalmente muchas ventajas en procesos a gran escala. Una de las más importantes es que permite su operación continua utilizando el mismo material catalítico. Además, para las enzimas, una ventaja adicional es que la inmovilización suele mejorar la estabilidad del sistema catalítico incrementando el tiempo de vida medio de la enzima. Finalmente, en este caso al tratarse de reacciones catalíticas heterogéneas, se puede seguir el mismo tratamiento que el del apartado 20.4.1, para describir el mecanismo de reacción y la ecuación cinética del proceso catalítico enzimático.
20.6. reacTOres caTalíTicOs En el contexto de la industria química, un reactor químico catalítico es una unidad de proceso diseñada para llevar a cabo una o varias reacciones químicas catalíticas. Esta definición generalmente implica un sistema bien delimitado, casi siempre un recipiente cerrado, con líneas de entrada y salida claramente especificadas y con un estricto algoritmo de control. Quizás el ejemplo más cotidiano sea el de los convertidores catalíticos de automoción, donde los gases procedentes de un reactor, el
Caracterización de materiales mediante estudios de actividad catalítica
859
motor de explosión de un automóvil, son tratados en un segundo reactor, en este caso una unidad equipada con un sofisticado catalizador sobre soporte monolítico, para ser purificados y posteriormente emitidos a la atmósfera como compuestos inocuos. Levenspiel afirma que la ingeniería de reactores es la «ciencia que desarrolla y enseña los métodos para calcular lo que puede hacerse con un reactor químico», lo que quiere decir que nos proporciona las bases para realizar el diseño de un reactor de manera que este cumpla con su objetivo: proporcionar un producto a partir de reactantes conocidos, con una velocidad y una selectividad determinadas, mediante un proceso seguro y respetuoso con el medio ambiente. En líneas generales y particularizando para los procesos catalíticos, se necesita establecer la ecuación de funcionamiento del reactor que relacione la salida del mismo con la alimentación, las condiciones de operación, el catalizador más adecuado, el modo de contacto, la cinética intrínseca de la reacción y los procesos de transferencia de materia, energía y cantidad de movimiento que tienen lugar en el mismo. El diseño del reactor condiciona en gran medida el éxito de una planta química. Esto es así porque, aunque el coste del reactor en sí mismo, incluyendo su equipo auxiliar, a menudo constituye solo una pequeña parte del coste total de la planta, los procesos de separación de productos y tratamiento de efluentes (una fracción muy significativa no solo del inmovilizado en la planta, sino sobre todo de sus costes de operación), dependen en gran medida de la composición obtenida a la salida del reactor, es decir, de la conversión, rendimiento y selectividad del proceso químico catalítico. Es además en el reactor donde suele encontrarse la mayor complejidad del proceso, las condiciones más severas de presión y temperatura junto con las probabilidades más altas de accidente grave en la planta, mientras que, por otro lado, es donde se encuentran las mejores oportunidades para el desarrollo del proceso catalítico. Por ello, el diseño del reactor industrial requiere un conocimiento profundo del proceso, así como de todas las propiedades del catalizador. A menudo, un nuevo proceso catalítico puede tener su origen en la idea de un investigador que, al cabo de unos meses se traduce con éxito en la síntesis de un catalizador y su aplicación en una reacción química a escala de laboratorio. Si se estima que el proceso catalítico puede llegar a ser viable a escala industrial, el ingeniero dispone de una amplia variedad de reactores de laboratorio que le permitirán estudiar la cinética intrínseca de la reacción, y en su caso establecer las condiciones óptimas de operación y las bases para el escalado del proceso. En el laboratorio se obtiene una información esencial sobre la reacción en estudio: su dependencia cinética (concentraciones, temperaturas), el calor liberado en la misma, el mecanismo de reacción, la posible existencia de productos intermedios, la forma óptima de activación de la reacción, los catalizadores más adecuados, la adición de calor, la descomposición de un iniciador, el uso de activadores bioquímicos, etc. La operación continua a escala de laboratorio permite además estudiar la distribución de productos bajo distintas condiciones y realizar una primera estimación de los costes de operación y separación que tendría una planta de producción industrial. Si tras el estudio en el laboratorio aún se considera factible la implantación del proceso a escala industrial, por lo general el siguiente paso, que comienza mientras todavía se sigue operando a escala de laboratorio, consiste en diseñar y construir una planta piloto capaz de producir algunas toneladas anuales del producto en cuestión.
Técnicas de análisis y caracterización de materiales
860
Esto permite completar y comprobar la información obtenida en el laboratorio y evaluar los problemas del manejo de materias primas, productos, efluentes, transferencia de calor, etc., en cantidades de cierta magnitud. Esta etapa proporciona además una magnífica oportunidad para verificar que la selección del catalizador ha sido la adecuada, y que la operación puede llevarse a cabo de forma estable y segura. En general, aunque la inversión a nivel de planta piloto es ya considerable, todavía se está a tiempo de rectificar errores o de aprovechar nuevas oportunidades. La construcción de la planta industrial puede comenzar cuando existen suficientes datos a escala de planta piloto como para confirmar la viabilidad industrial del proceso, y para permitir el diseño de los elementos clave de la instalación.
20.6.1. reactores ideales En líneas generales, puede establecerse que existen tres tipos de reactores ideales de laboratorio para realizar desde estudios cinéticos hasta análisis de modelos de flujo, que podemos designar como reactores discontinuos, semicontinuos y continuos. 1. En el reactor discontinuo, de la terminología anglosajona reactor batch, los reactantes se introducen en el reactor, se mezclan, se deja que reaccionen durante un tiempo determinado, y finalmente se descarga la mezcla resultante (Figura 20.2). Esta es una operación no estacionaria en la que la composición va variando con el tiempo, aunque en cada instante sea uniforme en todos los puntos del reactor. Este tipo de reactores son a menudo empleados a escala comercial para reacciones en fase gas o líquida donde la cantidad de producto deseado en un tamaño de reactor razonable sea pequeña. Estos reactores son más caros que los reactores que operan en continuo, pero sin embargo son más flexibles y más fáciles de controlar. De este modo, son frecuentemente utilizados en el caso de productos de alto valor añadido, como los de la industria farmacéutica o de química fina, donde los costes de operación no son el factor determinante.
Refrigerante calefacción
V N (t) T (t)
Mezcla de reacción
Figura 20.2. Esquema de un reactor discontinuo.
Caracterización de materiales mediante estudios de actividad catalítica
861
2. En el caso de un reactor semicontinuo o semibatch, un reactante se carga una sola vez en el reactor mientras que otro reactante se va añadiendo de forma continua durante el transcurso de la reacción y a lo largo del tiempo.
Refrigerante calefacción
Alimentación
V N (t) T (t)
Mezcla de reacción
Figura 20.3. Esquema de un reactor semicontinuo.
3. Los reactores continuos operan en estado estacionario, de manera que la composición del efluente permanece constante con el tiempo siempre que el caudal, la temperatura y la composición alimento permanezcan invariables. De este modo, el tiempo real de reloj no es una variable en los procesos continuos, sino el denominado tiempo de residencia, definido como: volumen de reactor catalítico dividido por caudal alimentado, que es de gran importancia para determinar la con-
Refrigerante calefacción
Alimentación FAO, XAO FAS, XAS
Mezcla de reacción
Efluente salida FAS, XAS
Figura 20.4. Esquema de un reactor continuo de mezcla perfecta.
Técnicas de análisis y caracterización de materiales
862
versión y selectividad del proceso catalítico estudiado. Del mismo modo que el tiempo t de reacción es la medida natural de la velocidad del proceso, el tiempo espacial y la velocidad espacial son las medidas adecuadas para el diseño de los reactores de flujo continuo. El tiempo espacial se define como el tiempo necesario para tratar un volumen de alimentación igual al volumen de reactor, medido en condiciones determinadas, y es igual al tiempo medio de residencia en reacciones de fluidos de densidad constante. Mientras que la velocidad espacial es el número de volúmenes de la alimentación en condiciones determinadas que puede tratarse en la unidad de tiempo, medidos en volúmenes de reactor. Este tipo de reactores continuos a su vez pueden clasificarse en: a) Reactor de flujo pistón, Plug-flow reactor PFR de la terminología anglosajona, también se le conoce como reactor de flujo en tapón, de flujo tubular, y de flujo uniforme, y su modelo de flujo se designa por flujo en pistón. La condición necesaria y suficiente para que exista flujo en pistón es que el tiempo de residencia en el reactor sea el mismo para todos los elementos del fluido; y se caracteriza porque el flujo del fluido a su través sea ordenado, sin que ningún elemento del mismo sobrepase o se mezcle con cualquier otro elemento situado antes o después de aquel. dV Alimentación FAO XAO
FA XA
FA + dFA XA + dFA
Efluente salida FAS, XAS
Figura 20.5. Esquema de un reactor de Flujo Pistón.
En realidad en este reactor puede haber mezcla lateral de fluido, pero nunca ha de existir mezcla o difusión a lo largo de la trayectoria del flujo. En este tipo de reactor PFR todas las moléculas tienen el mismo tiempo de residencia (v/Q) y las concentraciones solo varían a lo largo de la longitud del reactor. Los reactores tubulares son utilizados tanto en el laboratorio, para obtener ecuaciones cinéticas, como para producción a escala industrial. b) El otro tipo de reactor ideal de flujo estacionario se denomina reactor de mezcla completa, reactor de retromezcla, reactor ideal de tanque con agitación, o reactor CSTR (constant stirred tank reactor), y como su nombre indica, es un reactor en el que su contenido está perfectamente agitado, y su composición en cada instante es la misma en todos los puntos del reactor. A este tipo de fluido o modelo de flujo se le denomina flujo en mezcla completa, y al reactor correspondiente reactor de flujo de mezcla completa. Por consiguiente, la corriente de salida de este reactor tiene la misma composición que la del fluido contenido en el mismo. Este tipo de reactor es probablemente el dispositivo más atractivo para el estudio de la cinética de reacciones catalizadas por sólidos, debido a la facilidad de interpretación de sus resultados.
Caracterización de materiales mediante estudios de actividad catalítica
863
Las ecuaciones de diseño de estos tres reactores ideales se basan en líneas generales en términos del volumen de reactor, que es uno de los parámetros determinantes del diseño. Sin embargo, en el caso de reacciones heterogéneas catalíticas, al intervenir un catalizador, la velocidad de reacción se refiere habitualmente al peso del catalizador, en lugar de al volumen del reactor como ocurría en las reacciones homogéneas o heterogéneas no catalíticas. En este caso la velocidad de reacción está basada en la masa del sólido catalítico (W ). Las unidades de la velocidad de reacción para el reactante A de una reacción fluido-sólido catalítica vienen dadas por: ( − rA ) =
( mol − g ) A reaccionan s · gcatalizador
[20.57]
donde la masa del sólido catalítico es el parámetro determinante de la reacción. Teniendo en cuenta los tres tipos de reactores ideales, batch de mezcla perfecta, reactor tubular de flujo pistón y reactor de mezcla perfecta CSTR o tipo tanque, el diseño de una reacción catalítica heterogénea vendrá simplificada como: 1. Para un reactor ideal batch catalítico, la forma diferencial de su ecuación de diseño basada en peso de catalizador queda definida, a partir del balance de materia de un reactante A, como: N Ao
dX A = ( − rA’ ) W dt
[20.58]
A partir de esta ecuación, la forma integral de la ecuación de diseño de un reactor catalítico batch queda determinada como: xA
t = N A0
∫ 0
dX A ( − rA’ ) W
[20.59]
Si la actividad catalítica disminuyera con el tiempo, se haría necesario separar los términos dependientes del tiempo antes de integrar. 2. Para un reactor tubular de lecho fijo catalítico, la forma diferencial de la ecuación de diseño del reactor viene dada, a partir del balance de materia de un reactante A y suponiendo flujo pistón, por: FA0
dX A = ( − rA’ ) dW
[20.60]
Y por tanto, la forma integral de la ecuación de diseño del reactor de lecho fijo catalítico viene definida como: xA
W dX A =∫ FA0 ( − rA’ ) 0
[20.61]
864
Técnicas de análisis y caracterización de materiales
3. En último lugar, la ecuación de diseño de un reactor catalítico de mezcla perfecta puede venir dada a partir de la ecuación correspondiente de un reactor CSTR. Los reactores tipo tanque catalítico de mezcla perfecta para reacciones fluido-sólido catalíticas son mucho menos frecuentes que los reactores de lecho fijo catalítico debido a la gran dificultad que existe en la separación de fases, y a la agitación de la fase fluida en presencia de partículas sólidas. Un tipo de reactor CSTR para reacciones catalíticas es el denominado reactor tipo cesta catalítico, originalmente desarrollado por Carberry, donde las partículas catalíticas están localizadas en las propias paletas del agitador. Otro tipo de este reactor es el reactor Berty, en el cual se emplea una corriente de reciclo interna para alcanzar el comportamiento de mezcla perfecta, existiendo además muchas otras variaciones de estos tipos de reactores cesta catalíticos, entre los que destacan, entre otros, el reactor Harshaw, el reactor Robinson-Mahoney, etc. Estos reactores son utilizados a menudo para evaluar mecanismos de reacción y determinar cinéticas. De manera que en este tipo de reactores, la velocidad basada en la masa del sólido viene dada, a partir del balance de materia del reactante A, suponiendo flujo de mezcla perfecta en todo el sistema, por la siguiente ecuación: W XA = FA0 ( − rA’ )
[20.62]
Por otro lado, si se tienen en cuenta las distintas variaciones de la temperatura a lo largo del transcurso de la reacción catalítica, pueden establecerse tres casos generales de reactores: isotermo (donde el calor es intercambiado eficientemente de manera que la temperatura es siempre constante), adiabático (el intercambio de calor con el exterior es nulo), y no isotermo, obviamente es un caso intermedio de los dos anteriores donde existe un valor neto de intercambio de calor con el exterior. La temperatura puede cambiar deliberadamente por intercambio de calor con el exterior, para alcanzar máximas velocidades o selectividades. Sin embargo, operar en condiciones adiabáticas es consecuencia de un intercambio de calor con el exterior despreciable. Por tanto, en reactores comerciales industriales es más común operar en condiciones adiabáticas que alcanzar la isotermicidad, por su mayor facilidad de operación, salvo en muy pocas ocasiones como en los procesos de isomerización, donde el calor de reacción se considera despreciable. En el diseño de reactores no isotermos, se hace necesaria la solución del balance de energía de forma simultánea con las ecuaciones de conservación de materia, lo que da lugar a una mayor complejidad en el diseño global del reactor. Como introducción al efecto del intercambio de temperaturas, es muy instructivo y pedagógico considerar el comportamiento cuantitativo de los reactores adiabáticos. Estos reactores son bastante simples de analizar, porque el balance de energía puede llegar a resolverse fácilmente, y obtener una relación entre la temperatura y la composición del sistema de reacción. De este modo, los resultados obtenidos en el tratamiento de un reactor adiabático suponen un primer paso y una gran ayuda para el tratamiento de los reactores no isotermos ni adiabáticos.
Caracterización de materiales mediante estudios de actividad catalítica
865
Un reactor de mezcla perfecta o tipo tanque catalítico agitado presenta ciertas ventajas frente a un reactor de lecho fijo catalítico, debido a que como resultado de la mezcla perfecta se consigue una uniformidad en la temperatura, la presión y la composición alcanzadas. Además, es posible operar en este tipo de reactores en condiciones de isotermicidad, incluso en los casos en los que el calor de reacción sea elevado. De este modo, cuando se desee una pequeña variación de la temperatura, para minimizar reacciones secundarias o evitar velocidades de reacción desfavorables, la oportunidad de poder trabajar en condiciones de isotermicidad a una temperatura óptima es una ventaja distintiva de los reactores tipo tanque. Además los reactores de mezcla perfecta, como consecuencia de sus grandes volúmenes de reacción dan lugar a valores altos del tiempo de residencia, lo cual, combinado con su naturaleza de isotermicidad, permite operar a una temperatura óptima durante tiempos largos de reacción. Sin embargo, en el caso de reacciones a alta presión se hace imprescindible, debido a las consideraciones de costes, utilizar reactores tubulares de lecho fijo de pequeño diámetro en lugar de reactores tipo tanque, ya que utilizar un reactor de mezcla perfecta requeriría un gran espesor de pared y una serie de medidas de seguridad adicionales, factores que aumentarían considerablemente los costes iniciales y de mantenimiento del reactor. Por otro lado, la velocidad de intercambio de calor por unidad de masa de reacción es generalmente menor en un reactor convencional tipo tanque que en un reactor tubular de pequeño diámetro, debido principalmente a que presenta una menor relación de área superficial (disponible para el intercambio de calor) a volumen de reactor, y valores menores del coeficiente de transmisión de calor. De este modo, en reacciones donde el calor de reacción sea elevado es aconsejable emplear reactores tubulares de lecho fijo. Resumiendo, los reactores catalíticos tipo tanque agitado se emplean principalmente en el caso de sistemas de reacción en fase líquida a bajas o medias presiones. Este tipo de reactores también pueden usarse en los casos en los que el calor de reacción sea elevado, pero solo si el nivel de temperatura alcanzado en condiciones de isotermicidad es moderado desde otros puntos de vista. Sin embargo, cuando la reacción es exotérmica o se requiere un valor alto de la temperatura para que tenga lugar, los reactores más indicados son los de lecho fijo. Para determinar la cinética de las reacciones catalíticas sólido-gas, puede en principio utilizarse cualquier tipo de reactor, siempre que se conozca bien el tipo de contacto que ocurre en el mismo. Los parámetros cinéticos de un sistema específico de reacción deben determinarse a partir de datos experimentales obtenidos en reactores de laboratorio, que deben aproximarse lo más posible a la hipótesis de la isotermicidad, dada la gran dependencia de la velocidad de reacción con la temperatura. Por otra parte, llevar a cabo la experimentación en condiciones en las que existan controles difusionales daría lugar a una enorme dificultad en el análisis de los datos cinéticos, y de los correspondientes tratamientos matemáticos para la determinación de sus parámetros cinéticos, por lo que la experimentación debe realizarse en condiciones en las que sean despreciables los controles de difusión externa e interna. En primer lugar se deberá elegir la velocidad lineal de paso de los gases y el tamaño de partícula de catalizador para obtener datos de conversión en ausencia de controles difusionales, lo que supone trabajar en condiciones de control de las etapas químicas de reacción (adsorción, reacción química o desorción).
866
Técnicas de análisis y caracterización de materiales
Por otro lado, los datos cinéticos deberán obtenerse en reactores con comportamiento lo más próximo a los modelos ideales, de manera que se puedan aplicar los datos obtenidos a las hipótesis de flujo de mezcla perfecta o flujo pistón de la forma más fiable posible. En la elección del reactor de laboratorio hay que tener en cuenta la aplicación de los siguientes criterios fundamentales para la obtención y determinación de óptimas ecuaciones cinéticas: grado de isotermicidad, buen contacto entre los gases y el catalizador (idealidad de modelo de flujo), facilidad de operación, muestreo y análisis, facilidad de construcción y bajo coste. Entre los reactores más utilizados a nivel industrial se dispone de reactores tipo tanque discontinuos, semicontinuos, CSTR, tubulares, reactores de lecho fijo catalíticos y reactores de lecho fluidizado catalíticos. Los reactores discontinuos se utilizan en operaciones industriales de pequeña escala, principalmente en la fabricación de productos de alto valor añadido, o en procesos complejos donde resultaría difícil la operación en continuo. Estos reactores tienen la ventaja de conseguir altas conversiones por mantener el reactante en el reactor durante largos periodos de operación. Sin embargo, presentan la desventaja de dar lugar a altos costes de operación, por unidad de producto, y grandes dificultades de producción a gran escala. Aunque un reactor semicontinuo presenta esencialmente las mismas desventajas que un reactor discontinuo, tiene la ventaja de un buen control de la temperatura y la capacidad de minimizar reacciones secundarias no deseadas manteniendo una baja concentración de uno de los reactantes. El reactor semicontinuo es también utilizado a escala industrial en reacciones en las que intervienen dos fases, como ocurre cuando un gas se burbujea continuamente a través de una fase líquida. Por otro lado, un reactor de tanque agitado continuo se utiliza en los casos es que es necesaria un intensa agitación. El reactor CSTR puede ser utilizado como tal, o como parte de una serie de reactores conectados en serie. Es relativamente fácil mantener un buen control de la temperatura con este tipo de reactores; sin embargo, presentan la desventaja de conseguir las menores conversiones por volumen de reactor de todos los reactores comerciales estudiados, de modo que es necesario emplear grandes volúmenes de catalizador para obtener elevadas conversiones. Por el contrario, en los reactores de lecho fijo catalíticos se obtienen las mayores conversiones por peso de catalizador. La desventaja fundamental de este tipo de reactores radica en el control de la temperatura en el interior del reactor, que puede dar lugar a puntos calientes cuando la reacción es muy exotérmica. El reactor de lecho fijo es esencialmente un reactor tubular que está empacado con partículas sólidas catalíticas, lo cual, en ocasiones, presenta ciertas dificultades para reemplazarlo. Este sistema de reacción heterogéneo se utiliza frecuentemente para catalizar reacciones en fase gas, mientras que el reactor CSTR se emplea en sistemas en fase líquida. Otro tipo de reactor catalítico, comúnmente empleado a nivel industrial, es el reactor de lecho fluidizado. El reactor de lecho fluidizado es análogo al CSTR en que su contenido, aunque es un sistema heterogéneo, está bien mezclado, dando lugar incluso a una distribución de temperaturas a través del lecho que evita la formación de puntos calientes. En este tipo de reactor pueden cargase grandes cantidades tanto de reactantes como de sólido catalítico, que junto al buen control de la temperatura
Caracterización de materiales mediante estudios de actividad catalítica
867
hacen que sea frecuentemente utilizado en un gran número de aplicaciones catalíticas industriales. Además, la facilidad de reemplazar el catalizador en este tipo de reactores o la alta disposición para su regeneración contrarrestan a menudo el alto coste del reactor y del equipo de regeneración del catalizador. Generalmente los reactores catalíticos más empleados tanto a nivel de laboratorio como industrialmente son el reactor cesta catalítico y el reactor de lecho fijo, en los que pueden aplicarse las hipótesis de mezcla perfecta y de flujo pistón, respectivamente. Además, a nivel comercial es frecuente encontrar reactores de lecho fluidizado catalíticos donde el sólido está perfectamente mezclado, fundamentalmente en procesos de la industria petroleoquímica.
20.6.2. reactor cesta catalítico En este tipo de reactores las partículas de catalizador están contenidas en dispositivos incorporados en el propio agitador y se mueven con el mismo. Existen diversos tipos de diseños, pero todos ellos son similares en cuanto al comportamiento del flujo. En la Figura 20.6 se muestra el esquema de un reactor de mezcla completa tipo cesta, y en la Figura 20.7 un esquema de la cesta catalítica, donde el fluido se alimenta de forma continua al reactor, generándose así una mezcla que permite una gran aproximación al comportamiento ideal.
Refrigerante calefacción
Alimentación FAO, XAO
Cesta con catalizador
Efluente salida FAS, XAS
FAS, XAS
Mezcla de reacción
Figura 20.6. Reactor tipo cesta catalítico.
Además, la elevada velocidad de movimiento de las partículas del sólido con respecto al fluido hace que no existan gradientes de concentración y temperatura importantes en el exterior de las partículas. Una adecuada selección del tamaño de las partículas de catalizador también evita la existencia de gradientes en el interior de los poros, aunque
868
Técnicas de análisis y caracterización de materiales
tamaños muy pequeños pueden llegar a dificultar su retención en las telas metálicas que habitualmente soportan el catalizador. Sin embargo, este tipo de reactores no suele ser muy conveniente para el estudio de sistemas en los que el catalizador se desactiva rápidamente dada la imposibilidad de obtener datos fiables de conversión a lo largo del tiempo de reacción.
Catalizador
Figura 20.7. Esquema de la cesta catalítico.
El balance de materia, referido al componente A, reactante, y aplicado a este tipo de reactor conduce a: (moles de A que entran por unidad de tiempo) = (moles de A que salen por unidad de tiempo) + (moles de A que han reaccionado por unidad de tiempo) FA 0 = FA 0 ( 1− X A ) + ( − rA ) W
[20.63]
que puede expresarse de forma análoga a la obtenida para reacciones homogéneas, sustituyendo la variable volumen (V ) por el peso de catalizador (W ): W XA = FA 0 ( − rA )
[20.64]
donde W es el peso de catalizador en g; FA0 es la alimentación molar en (mol · h–1); XA es la conversión a la salida, y (–rA) es la velocidad de reacción referida al reactante A. Dado que se trata de un reactor de mezcla perfecta, las propiedades en cualquier punto de la mezcla son idénticas e iguales a las obtenidas a la salida, por lo que la conversión y la velocidad de reacción de la ecuación [20.64] se corresponden con las del interior del reactor.
Caracterización de materiales mediante estudios de actividad catalítica
869
Al cociente W/FA0 se le denomina tiempo espacial, y corresponde al tiempo necesario para tratar un volumen de alimentación igual al volumen del reactor, expresado este último por peso de catalizador contenido en el reactor. Así, las unidades en las que se expresa el tiempo espacial en las reacciones catalíticas que tienen lugar en este tipo de reactor son [h · gcat / molA–1]. El análisis de la concentración de la corriente de salida del reactor permite el cálculo de la conversión para un determinado experimento, realizado para unos valores de W y FA0. De manera que el conocimiento de estos valores permitirá el cálculo de la velocidad de reacción a partir de la ecuación [20.64]: ( − rA ) =
X A FA 0 W
[20.65]
De esa forma se obtendrán parejas de valores de velocidad de reacción frente a conversión (o concentración), que serán utilizados posteriormente para la determinación de los parámetros cinéticos correspondientes de la reacción química catalítica que se lleve a cabo en este tipo de reactor.
20.6.3. Reactor catalítico de lecho fijo El reactor de lecho fijo o reactor de lecho empaquetado en sus diversas configuraciones constituye la unidad fundamental del proceso en la que se basa la producción de una amplia variedad de sustancias químicas. Este tipo de reactor es el más extendido a nivel industrial y se utiliza, entre otras aplicaciones, para la fabricación de productos de gran tonelaje, todos ellos básicos en la industria química como, por ejemplo, la obtención de amoníaco que utiliza catalizadores basados en hierro, la producción de metanol, mediante catalizadores basados en ZnO/Cr2O3, la obtención de ácido sulfúrico, a partir de la oxidación catalítica de SO2 a SO3 con catalizadores basados en sales de vanadio y potasio soportados sobre sílice, la obtención de productos de hidroreformado de naftas a partir de sistemas catalíticos basados en Pt, etc. De hecho, el reactor de lecho fijo se utiliza en la inmensa mayoría de los procesos catalíticos que se llevan a cabo en fase gas, con algunas notables excepciones, como la síntesis de acrilonitrilo o el craqueo catalítico del gasoil, donde las necesidades de intercambio de calor o la rápida desactivación del catalizador han hecho aconsejable la utilización de un reactor de lecho fluidizado catalítico. El reactor catalítico de lecho fijo consiste en un tubo en cuyo interior se ha empaquetado el catalizador, consistente en partículas sólidas inmóviles, y a través del cual se hacen circular los distintos reactivos con el modelo de flujo pistón. Es un tipo de reactor catalítico muy utilizado para la obtención de datos cinéticos, siempre y cuando la endo- o exotermicidad de la reacción no sea lo suficientemente elevada para generar gradientes de temperatura importantes, axial o longitudinalmente, en el lecho del catalizador. En algunas ocasiones, la dilución del catalizador permite disminuir los gradientes térmicos originados en el lecho. Desde el punto de vista económico su fabricación es sencilla y barata.
870
Técnicas de análisis y caracterización de materiales
Sin embargo, el reactor de lecho fijo también tiene sus limitaciones, que se hacen especialmente evidentes en los procesos con un gran intercambio de calor. Así, si una reacción es fuertemente exotérmica, el aumento de la temperatura en un reactor de lecho fijo adiabático puede resultar excesivo, dando lugar en ocasiones a daños importantes en el catalizador o en el propio reactor. En otros casos, el aumento de la temperatura puede conducir a una fuerte disminución de la selectividad o a un descenso de la conversión de equilibrio en reacciones exotérmicas reversibles. Por lo general, en los casos en que se necesitan elevados flujos de calor se acude a otros tipos de reactores, o si se mantiene la utilización del reactor de lecho fijo se emplean configuraciones no adiabáticas, como por ejemplo un reactor multitubular, donde el intercambio de calor se favorece al aumentar el área de intercambio por unidad de volumen de reactor; o reactores de lecho fijo con intercambio de calor, ya sea mediante serpentines internos o externos. Un ejemplo de este último tipo de reactor sería el proceso de la síntesis de amoníaco, con cientos de tubos de refrigeración insertados en el lecho catalítico (también se utilizan en este proceso reactores con enfriamiento entre etapas), y en el reformado de gas natural o de naftas con vapor de agua, donde la alimentación se precalienta entre etapas en hornos de llama directa. Otra de las limitaciones en los reactores de lecho fijo se refiere a la pérdida de carga a su través, que puede llegar a ser considerable a medida que aumenta la longitud del reactor y el caudal de reactantes. En la práctica la caída de presión se convierte en el factor que determina el límite inferior y superior de tamaño de partícula catalítica que puede llegar a utilizarse, siendo habitual utilizar partículas en un intervalo alrededor de 1,5 y 6 mm, respectivamente. Partiendo de una reacción entre reactantes gaseosos y catalizada por un sólido, el modelo de un reactor de lecho fijo se puede desarrollar a distintos niveles, dependiendo del objetivo del diseño. Para ello, consideremos un reactor en el que se lleva a cabo la reacción A + B → R. Las moléculas reactantes A y B reaccionan sobre el centro activo, por ejemplo una partícula metálica de Pd soportada en Al2O3, para transformarse en el producto R. Si toda la superficie catalítica estuviera expuesta a la misma concentración de reactantes gaseosos y a la misma temperatura (nivel microcinético), el cálculo de la velocidad de reacción sería extremadamente sencillo, ya que bastaría con sustituir los valores de concentración y temperatura en la expresión de la velocidad de reacción. Lo único que habría que tener en cuenta es el estado de la superficie catalítica (concentración de centros activos, posibilidad de desactivación, etc.). Este nivel es el que se utiliza a menudo en reactores de lecho fijo para estudios cinéticos. En estos reactores generalmente se trabaja a bajas conversiones, con valores de W/F suficientemente reducidos, de tal manera que las concentraciones de las distintas especies en fase fluida puedan considerarse constantes a lo largo del reactor. Además, para poder utilizar el nivel microcinético es necesario asegurarse de que se trabaja en condiciones de control cinético, es decir, en condiciones de tamaño de partícula, caudales, temperaturas, etc., tales que las resistencias a la transferencia de calor y materia puedan considerarse despreciables. El siguiente nivel está constituido por la descripción de los procesos que tienen lugar en la partícula de catalizador. Puede existir una variación significativa de concentración de reactantes desde el seno de la fase gas hasta el centro activo. Desde la
Caracterización de materiales mediante estudios de actividad catalítica
871
fase gas, donde la concentración es CA,g, el reactante A se difunde hasta la superficie exterior de la partícula de catalizador, a través de la película de fluido que la rodea (resistencia externa a la transferencia de materia). La fuerza impulsora para que este transporte se produzca es el gradiente de concentración entre la fase gas CA,g, y la superficie externa de la partícula, CA,s. Esta es la concentración de A que «ven» algunos centros activos, aquellos situados a una distancia igual al radio de la partícula catalítica. Sin embargo, estos centros son solo una pequeña fracción del total. La mayor parte de la superficie de una partícula catalítica (que puede llegar a ser de cientos de m2 por gramo) se encuentra en el interior de la misma. Esto significa que las moléculas de A deben seguir difundiéndose hacia posiciones interiores dentro de la estructura porosa de la partícula catalítica, y la concentración de A seguirá disminuyendo (resistencia interna a la transferencia de materia) hasta alcanzar un valor de CA,c en el interior de la partícula catalítica. Los procesos de adsorción, reacción y desorción sobre un centro activo determinados son función de las concentraciones (tanto de reactantes como de productos), y por tanto la velocidad a la que transcurren es diferente, dependiendo de la posición radial que ocupe dicho centro con respecto a la superficie de la partícula catalítica. Por otro lado, hay que considerar el hecho de que, además de la variación de la concentración con el radio de la partícula catalítica, es frecuente que otros factores (temperatura, concentración de centros activos, etc.) también varíen con la posición, lo que debe tenerse en cuenta a la hora de calcular las velocidades de reacción globales. El tercer nivel corresponde a la descripción del proceso a nivel del reactor catalítico de lecho fijo. En el nivel anterior habíamos considerado una concentración fija de reactante A en fase gas, CA,g. Sin embargo, al considerar el conjunto del reactor, está claro que las concentraciones en la fase gas deben variar notablemente, ya que está ocurriendo una reacción química. De este modo, una partícula catalítica a la entrada del reactor está inmersa en una atmósfera con concentraciones altas de los reactantes (A y B) y bajas del producto R, ocurriendo prácticamente el efecto contrario al considerar una partícula en la salida del reactor, donde habrá máxima concentración de producto, R. A lo largo del reactor variarán además otros factores, como la presión total y la temperatura. La evolución de esta última dependerá no solo del calor de reacción y de la velocidad de reacción en cada punto, sino también del esquema de intercambio de calor que se haya implantado en el reactor. De modo que el diseño riguroso del reactor de lecho fijo catalítico puede llegar a complicarse considerablemente, aunque no siempre es necesario considerar los tres niveles en su complejidad. Normalmente, la realidad física del proceso permite realizar simplificaciones (como considerar al proceso isotermo o despreciar alguna de las resistencias a la transferencia de materia), que facilitarían notablemente el cálculo. Incluso si esto no es así, la disponibilidad de herramientas de cálculo cada vez más potentes hace posible abordar con cierta facilidad problemas que hace unas décadas hubieran resultado imposibles de resolver. Esto permite llevar a cabo una construcción sistemática del modelo de reactor, teniendo en cuenta sucesivamente las distintas etapas. El balance de materia del reactante A, aplicado a un elemento diferencial, con un peso de catalizador ∆W, en un reactor de lecho fijo puede expresar como:
Técnicas de análisis y caracterización de materiales
872
(entrada) = (salida) + (desaparecido por reacción) FA |W = FA | w + ∆W + ( − rA ) ∆W
[20.66]
de donde la velocidad puede despejarse como: ( − rA ) =
dX A d ( W / FA 0 )
[20.67]
expresión que permite la determinación de la velocidad de reacción mediante la diferenciación de las curvas experimentales conversión frente a tiempo espacial, y al que comúnmente se denomina método diferencial de análisis. La ecuación [20.67] puede expresarse también de la siguiente forma: X As dX W A =∫ 0 FA 0 ( − rA )
[20.68]
Cuando se conoce, o se supone, la expresión de la velocidad de reacción con la conversión, o lo que es igual, con las presiones parciales de reactivos y productos, la integración de la ecuación [20.68] proporciona una expresión matemática que podrá ser utilizada para la determinación de los parámetros cinéticos mediante el método integral de análisis de datos. En ocasiones interesa realizar experimentos en tales condiciones que la baja conversión alcanzada en el reactor integral permita el cálculo de la velocidad de reacción mediante la ecuación [20.65], sin necesidad de tener que diferenciar o integrar las ecuaciones [20.67] y [20.68]. Esto tiene lugar si la concentración de los reactivos en cualquier punto del reactor puede considerarse constante y aproximadamente idéntica a la concentración a la salida, y en consecuencia, la velocidad de reacción es la misma en todos los puntos del lecho catalítico. Conversiones logradas a la salida e inferiores a un 10% suelen permitir considerar al lecho catalítico como un reactor diferencial. En este caso la ecuación de diseño de flujo pistón de un reactor diferencial se convierte en: X As dX X As − X Ae W A =∫ = X Ae − r FAo ( − rA ) A
[20.69]
a partir de la cual puede calcularse la velocidad media para cada experimento como: ( − rA ) =
FA 0 ( X As − X Ae ) W
[20.70]
De manera que a partir de cada experimento, se obtiene directamente un valor de la velocidad para una conversión media en el reactor, y una serie de experimentos proporcionan un conjunto de datos velocidad-conversión (concentración) que se utilizarán para la determinación de la ecuación de la velocidad.
Caracterización de materiales mediante estudios de actividad catalítica
873
Por otro lado, puede llegar a establecerse el análisis de un reactor integral si se corresponde con una serie consecutiva de infinitos reactores diferenciales. Por ello, a veces se utilizan reactores con recirculación, en los que la conversión obtenida en cada paso es pequeña, es decir, con una relación de recirculación lo suficientemente grande para que pueda realizarse una evaluación directa de la velocidad de reacción en cada experimento.
20.6.4. Reactor de lecho fluidizado catalítico Existe un tipo de reactores de lecho catalíticos heterogéneos bifásicos donde el sólido catalítico se encuentra en movimiento, sea entrando o saliendo constantemente o simplemente circulando dentro del reactor. Dentro de este grupo podemos destacar los siguientes tipos de reactores: – Reactores de lecho fluidizado, donde la corriente de fluido atraviesa en sentido ascendente un lecho de partículas. El empuje del gas mantiene las partículas en suspensión y hace que el lecho de partículas en suspensión tenga un comportamiento similar a un fluido, lo que da lugar a su nombre. – Reactores de lecho móvil, en este tipo de reactores el sólido se mueve lentamente en dirección descendente, manteniendo la posición relativa de las partículas. – Reactor de transporte neumático, donde el sólido es arrastrado por gas a alta velocidad, siendo en este caso los tiempos de residencia de unos pocos segundos. El reactor de lecho móvil se utiliza a nivel industrial en el craqueo catalítico del petróleo para la obtención de combustibles líquidos como las gasolinas. En este proceso el catalizador se desactiva rápidamente por deposición de coque, y el catalizador fresco regenerado entra en la parte superior del reactor y se mueve a través del mismo como un lecho fijo empacado. Una vez desactivado pasa a un horno donde es regenerado por quemado del coque con aire. El catalizador fresco así regenerado se alimenta primero a un separador antes de iniciarse de nuevo el ciclo de reaccióndesactivación-regeneración. De estos tres tipos de reactores, el de lecho fluidizado catalítico es el más común, tanto por sus peculiaridades características como por su gran número de aplicaciones industriales. Este tipo de reactores resultan ventajosos respecto a los reactores de lecho fijo cuando es preciso alimentar continuamente el sólido, bien porque reacciona o porque es un catalizador que se desactiva con el tiempo. Una de las ventajas de los reactores de lecho fluidizado es la intensa mezcla del sólido, que facilita que el conjunto del lecho sea prácticamente isotermo, incluso para reacciones muy exotérmicas. Asimismo, la agitación del sólido facilita la obtención de altos coeficientes de transferencia de calor entre el lecho y las superficies en contacto con el mismo, lo que permite retirar o aportar calor con facilidad. Por ello resultan especialmente adecuados para reacciones muy exotérmicas, o aquellas en que interese mantener un estricto control de la temperatura, ya que puede resultar muy difícil controlar la temperatura en reactores de lecho fijos grandes, puesto que
874
Técnicas de análisis y caracterización de materiales
estos sistemas se caracterizan por una conductividad calorífica baja y un gran desprendimiento o absorción de calor. Por lo tanto, si las operaciones han de efectuarse en un intervalo estrecho de temperaturas, bien por la naturaleza explosiva de la reacción o por consideraciones de distribución del producto, será más adecuado el uso de un reactor de lecho fluidizado catalítico. Además son también una alternativa para el uso de catalizadores de partículas pequeñas en las que en un lecho fijo se alcanzaría una elevada pérdida de carga. Por consiguiente, para reacciones muy rápidas en la superficie, en las que la difusión en los poros y en la película gaseosa pueden ser las etapas controlantes de la reacción, los lechos fluidizados con su vigoroso contacto gas-sólido, y el empleo de partículas pequeñas, permitirán un uso más eficaz del catalizador. Por otro lado, cuando es necesario regenerar o tratar frecuentemente al catalizador, debido a que se desactiva rápidamente, entonces el estado fluidizado análogo al estado líquido, facilita el bombeo de una unidad a otra. Esta característica de contacto de los lechos fluidizados proporciona grandes ventajas para este tipo de sólidos con respecto a las operaciones en lecho fijo. El principal inconveniente del lecho fluidizado radica en el alejamiento del flujo del gas respecto al de flujo pistón. Una parte del gas de las burbujas puede llegar a salir del reactor sin haber reaccionado con el sólido, provocando un cierto cortocircuito considerable. Este comportamiento es inadecuado desde el punto de vista de un contacto efectivo, dado que para obtener elevadas conversiones del gas son necesarias mayores cantidades de catalizador, disminuyendo mucho la cantidad de producto intermedio que puede formarse en reacciones en serie. También puede llegar a producirse retromezcla de los gases, lo que en el caso de reacciones en serie se traduce también en pérdidas de rendimiento a productos intermedios. Por consiguiente, si la eficacia de contacto en el reactor es de importancia primordial, resulta más adecuado el reactor de lecho fijo. Por otro lado, dada la intensa agitación existente en el lecho, se presentan con frecuencia fenómenos de erosión de las partículas catalíticas, que se disgregan a su vez en otras más pequeñas. A su vez, estas pequeñas partículas son fácilmente arrastradas fuera del lecho por elutriación. Por tanto, no se pueden utilizar en lechos fluidizados partículas que no presenten una cierta dureza o resistencia mecánica, lo que limita el empleo de ciertos catalizadores. En sentido contrario, ciertos sólidos pueden presentar tendencia a la aglomeración si la temperatura de operación en el reactor es próxima a la de fusión, lo que de nuevo dificultaría la fluidización. En los reactores catalíticos de lecho fluidizado podemos considerar que el sólido catalítico se encuentra perfectamente mezclado, y el principal punto que hay que considerar en el diseño es determinar la conversión del gas. Para ello, además de la cinética de la reacción, se debe establecer un modelo de flujo para el gas. Este en general es bastante complejo, por lo que es necesario realizar ciertas simplificaciones. Los modelos más sencillos se basan en la existencia de dos fases, fase burbuja y fase emulsión, con un cierto coeficiente de intercambio entre las mismas, y suponiendo flujo pistón en ambas fases (o flujo pistón en la fase burbuja y mezcla perfecta en la fase emulsión).
Caracterización de materiales mediante estudios de actividad catalítica
875
Este tipo de modelos se ha empleado frecuentemente para ajustar datos experimentales, utilizando como parámetro de ajuste los coeficientes de transferencia de materia y/o calor entre las dos fases. Sin embargo, si estos coeficientes de transferencia no se relacionan con las condiciones de operación, no permiten predecir el comportamiento del reactor en otras condiciones diferentes. Existen diversos métodos para determinar el modelo de flujo de gas, entre los que destaca el modelo de Kunii-Levenspield basado en relacionar el coeficiente de intercambio entre la burbuja y la emulsión con un parámetro observable, que incluso puede llegar a predecir como es el diámetro de burbuja. Las principales dificultades para el diseño de este tipo de reactores catalíticos se reducen a las cuestiones siguientes: el modo de tener en cuenta el comportamiento no isotérmico de los lechos de relleno, y el modo de tener en cuenta el flujo no ideal del gas en los lechos fluidizados. Para obtener el diseño óptimo han de sopesarse numerosos factores, pudiendo ocurrir que el mejor diseño corresponda al empleo de dos tipos de reactores distintos conectados en serie. Por ejemplo, para conseguir conversiones altas en reacciones fuertemente exotérmicas puede resultar conveniente el empleo de un reactor de lecho fluidizado seguido de un reactor de lecho fijo.
20.6.5. Otros tipos de reactores catalíticos Existe un gran número de reacciones catalíticas en fase heterogénea en las que intervienen un gas y un líquido como reactante o como catalizador, o un sólido catalítico con reactantes en fase gas y en fase líquida a la vez. Estos procesos trifásicos sólido-líquido-gas o sólido-líquido-líquido (con ambos líquidos inmiscibles entre sí) son mucho más complejos y más difíciles de tratar que las reacciones gas-sólido catalíticas, por la gran dificultad de la mezcla y del tiempo de contacto de las tres fases. Los sistemas ternarios más frecuentes son los sistemas sólido-líquido-gas, donde alguno de los reactivos se encuentra en fase gas en las condiciones de reacción, otros se encuentran en fase líquida o disueltos en un disolvente adecuado, y el sólido es normalmente el catalizador del proceso. Existen un gran número de reacciones gas-líquido industriales importantes que se llevan a cabo entre un gas y un líquido con un sólido catalítico. Entre los procesos industriales de este tipo destaca la oxigenación catalítica de compuestos orgánicos con oxígeno o aire, la halogenación catalítica de compuestos orgánicos y la hidrogenación de aceites vegetales para la fabricación de margarinas. En este último caso los reactivos en fase líquida son los triésteres de ácidos grasos con 1,2,3-propanotriol que constituyen el aceite vegetal, y como catalizador sólido se emplea normalmente níquel soportado sobre sílice. Los reactores empleados en este tipo de reacciones deben conseguir un buen contacto íntimo entre las tres fases para que se lleve a cabo la reacción química. Pueden emplearse en principio reactores continuos o discontinuos, es habitual que tanto en instalaciones industriales como en estudios en laboratorio se empleen reactores de tipo discontinuo. La principal razón es la mayor versatilidad de estos últimos, y las dificultades de control que presentan los reactores continuos ante alimentaciones de composición variable.
876
Técnicas de análisis y caracterización de materiales
Entre los reactores continuos trifásicos, los más habituales son los reactores de tipo lecho de goteo. En ellos las partículas de catalizador constituyen un lecho fijo en el reactor, el reactivo líquido se alimenta por la parte superior de forma que va mojando por goteo la superficie de las partículas del catalizador, y el gas se alimenta en sentido ascendente. Es por tanto un sistema de fase gas continua y fase líquida dispersa, y las partículas de catalizador deben ser lo suficientemente grandes para evitar elevadas pérdidas de carga. Los reactores discontinuos trifásicos trabajan normalmente en fase líquida continua y fase gas dispersa, es decir, la fase gas se burbujea continuamente a través de la fase líquida. Las partículas de catalizador pueden estar introducidas en una cesta, de forma similar al reactor cesta catalítico bifásico descrito en el apartado 20.6.2, o bien mantenerse en suspensión en el líquido simplemente mediante agitación mecánica, siendo necesario trabajar en este último caso con partículas de catalizador muy pequeñas. En ocasiones puede presentarse la alternativa de llevar a cabo la reacción catalítica directamente en fase gas, en lugar de en tres fases, aumentando la temperatura para así evaporar el reactivo líquido. Las principales ventajas al operar con un sistema en tres fases son: ahorro de energía y de equipos, al evitar cambios de fase en los reactivos en fase líquida; se trabaja a temperaturas menores con lo que la desactivación del catalizador se ve sensiblemente disminuida; y la mayor capacidad calorífica de los líquidos permite controlar mejor la temperatura del proceso, lo que favorece a su vez el control de la composición de los productos; y además, pueden utilizarse tamaños de catalizador muy inferiores, lo que permite mayores velocidades de reacción. El principal inconveniente derivado de trabajar con tres fases viene determinado por los problemas de tipo difusional que surgen en el sistema. Para que la reacción química tenga lugar es necesario que los reactivos alcancen rápidamente la superficie del catalizador. Para el reactivo o reactivos presentes en fase líquida, las siete etapas que constituyen el mecanismo de la reacción catalítica heterogénea (apartado 20.4.1) continúan siendo válidas. Para el reactivo o reactivos presentes en fase gas, sin embargo, hay que incluir dos nuevas etapas que consideren su difusión hasta la fase líquida. De este modo, análogamente a las reacciones heterogéneas bifásicas, en las reacciones trifásicas catalíticas sólido-líquido-gas se presentan las siguientes etapas en el mecanismo de reacción: Fase gas: 1. Difusión externa de reactantes de la superficie de la película estancada en el gas a la superficie de la interfase gas-líquido. 2. Difusión externa de reactantes la superficie de la interfase gas-líquido a la superficie de la película estancada en el líquido. Fase líquida: 3. Difusión externa de reactivos de la superficie de la película estancada líquidosólido a la superficie exterior de la partícula catalítica. 4. Difusión interna de reactantes de la superficie exterior de la partícula a la superficie interna de la partícula catalítica. 5. Adsorción de reactantes en los centros activos. 6. Reacción Química. 7. Desorción de productos de los centros activos.
Caracterización de materiales mediante estudios de actividad catalítica
877
Fase líquida: 8. Difusión interna de productos de la superficie interna de la partícula a la superficie exterior de la partícula catalítica. 9. Difusión externa de productos de la superficie externa de la partícula a la superficie de la película estancada líquido-sólido. Fase gas: 10. Difusión externa de productos de la superficie estancada en el líquido a la superficie de la interfase gas-líquido. 11. Difusión externa de productos de la superficie de la interfase gas-líquido a la superficie de la película estancada en el gas. Las etapas 1, 2, 3, 4, 8, 9, 10 y 11 se corresponden con las etapas físicas de difusión mientras que las etapas 5, 6 y 7 son, en este caso, las etapas químicas, que conducen a ecuaciones cinéticas en función de las concentraciones y son similares a las citadas anteriormente para los procesos heterogéneos gas-sólido catalíticos. Las etapas físicas de difusión son particularmente importantes en este tipo de reacciones, debido a que en la aplicación industrial de este tipo de sistemas la presencia de controles difusionales está prácticamente garantizada. Esto da lugar a una ralentización de la velocidad de reacción, pudiendo llegar a ser modificada de forma significativa la selectividad del proceso. Las concentraciones de reactivos gaseosos y la concentración de los líquidos en la disolución puede medirse sin dificultad, no como las concentraciones en las interfases o en el interior de los poros de las partículas catalíticas, por lo que es importante estudiar los fenómenos de transferencia de materia. Análogamente y dado el efecto que la temperatura puede ejercer en la velocidad de reacción, se hace necesario considerar la posible existencia de gradientes de temperatura en el sistema a partir del calor de reacción que lleva asociado toda reacción química. En este caso tiene fundamentalmente interés el calor intercambiado en la partícula catalítica, generado o consumido por la reacción, y la fase líquida, ya que el calor específico de los gases es muy inferior al de los líquidos. Por otra parte, las condiciones fluidodinámicas son difíciles de definir, y tienen gran influencia sobre el funcionamiento de este tipo de reactores. La velocidad global del proceso vendrá, por tanto determinada por las velocidades de transferencia de materia en el gas y en el líquido, y por la velocidad de la reacción química. La difusividad de los gases es de varios órdenes de magnitud superior a la de los líquidos; por tanto la resistencia a la transferencia de materia en la fase gas solamente llega a ser significativa en el caso de reacciones muy rápidas. De manera que, dependiendo de la magnitud relativa de la velocidad de transferencia de materia con respecto de la velocidad de la reacción química, pueden distinguirse dos casos extremos: reacción irreversible instantánea, en la que la velocidad global del proceso venga controlada por la difusión de los reactantes; o reacción lenta, donde la velocidad global del proceso esté gobernada por la reacción química. En muchos procesos industriales la velocidad de transferencia de materia y la reacción química son comparables, y por lo tanto ambos efectos deben ser tenidos en cuenta en el diseño de los reactores químicos. Además, en una reacción gas-líquido, el rendimiento y la selectividad están afectadas por la transferencia de materia, la naturaleza del contacto gas-líquido y la distribución de tiempos de residencia en am-
878
Técnicas de análisis y caracterización de materiales
bas fases. Por ejemplo, para un conjunto de reactores en serie, una baja velocidad de transferencia de materia en la fase líquida origina una disminución de la selectividad al producto intermedio. En el diseño de un reactor gas-líquido catalítico hay por tanto que considerar no solo la elección del reactor considerado sino la definición de las condiciones de operación y los parámetros geométricos del contacto. En el caso de las reacciones gas-sólido-líquidas, la existencia de la fase sólida catalítica supone la introducción de una nueva resistencia a la transferencia de materia y energía respecto a las existentes en los reactores gas-líquidos. Se pueden considerar dos grandes grupos de reactores gas-líquido-sólido: los reactores con las partículas sólidas en lecho fijo (entre los que destacan los de lecho percolador) y los reactores con las partículas sólidas catalíticas en suspensión. En la práctica industrial es fácil encontrar reactores trifásicos en los que intervienen un sólido catalítico, como los procesos de adsorción de gases sobre sólidos que se encuentran en suspensión líquida, o la hidrogenación de hidrocarburos líquidos catalizada por sólidos, entre otros. De manera que tenemos este tipo de reactores trifásicos en la industria química, de polímeros, bioquímica y petrolífera, y su mayor uso se da en operaciones de hidroprocesado. Se pueden utilizar una gran variedad de reactores para los sistemas sólido-líquido-gas, pero la forma más común de clasificarlos es en función del tamaño de las partículas sólidas catalíticas, teniendo reactores con el sólido en lecho fijo (partículas catalíticas aproximadamente mayores de 1 mm) y reactores con el sólido en suspensión, con partículas muy finas. En los primeros es importante mantener condiciones de flujo uniforme a través del lecho sólido y una mezcla intensa de fases, siendo el grado de mojado del catalizador por el líquido un factor crucial en la eficacia del proceso. Suelen operar en condiciones adiabáticas, por lo que es importante evitar la producción de sobrecalentamientos puntuales cuando se usen en reacciones exotérmicas. El tipo más común de reactor de lecho fijo trifásico utilizado en la industria es el de trickle bed (lecho percolador o de goteo), en el que la fase líquida percola o gotea desde la parte superior del reactor a través de un lecho empaquetado de catalizador, mientras la fase gaseosa fluye de forma continua también desde la parte alta constituyendo una corriente paralela (existe la variante de flujos en contracorriente en la que la corriente gaseosa tiene una trayectoria ascendente). En este tipo de reactor las características de las partículas sólidas y de su empaquetamiento junto con los caudales y propiedades de las dos corrientes de fluido determinarán el régimen de flujo dentro del reactor y también sus propiedades fluidodinámicas. Entre los procesos catalíticos que se llevan a cabo en este tipo de reactores trickle bed se encuentran la hidrodesulfuración e hidrocraqueo de fracciones de petróleo con catalizadores de Mo y W, la producción de MTBE por reacción de isobutileno con metanol utilizando catalizadores basados en resinas de intercambio iónico. Otro tipo de reactores trifásicos son los reactores de slurry o de barros en los que las finas partículas de sólido catalítico se encuentran en suspensión en la fase líquida, que se corresponden con los reactores de tanque de borboteo con agitación producida únicamente por las burbujas, el tanque agitado mecánicamente y el reactor de lecho fluidizado.
Caracterización de materiales mediante estudios de actividad catalítica
879
En los reactores sólido-líquido-gas alguno de los componentes de la fase gaseosa se puede incluso llegar a disolver en la fase líquida reaccionando con alguno de los componentes de esta, lo que hace en líneas generales que el análisis detallado de este tipo de reactores sea muy complejo como consecuencia de la ocurrencia simultánea de los fenómenos de difusión y reacción química en tres fases, tendiendo generalmente a simplificaciones que hacen más sencillo su diseño e interpretación.
20.6.5.1. Reactores monolíticos El empleo de catalizadores monolíticos surgió en las últimas décadas del siglo xx como consecuencia de su aplicación en procesos catalíticos para la descontaminación ambiental. Estos catalizadores deben poseer no solo una alta actividad, selectividad y vida útil, análogamente a los catalizadores convencionales para los procesos de producción, sino que también deben evitar alterar en la medida de lo posible las condiciones de operación del proceso total. Este principio hace que generalmente los catalizadores de descontaminación operen en condiciones ya preestablecidas e impuestas por el funcionamiento del sistema productivo. Además, se les suele exigir que la pérdida de carga producida en el conjunto sea la menor posible dado que un posible taponamiento a la salida repercutiría sensiblemente en el rendimiento de producción y por consiguiente en los costes totales del proceso. Para lograr estos objetivos, se desarrollaron durante los años setenta del pasado siglo diferentes tipos de catalizadores de «flujo paralelo», formados por placas o tubos, apareciendo finalmente los catalizadores que se denominan en la actualidad honeycomb en la terminología anglosajona, por su similitud con la forma física de panal de abeja. A este tipo de catalizadores, formados por «estructuras unitarias atravesadas longitudinalmente por canales paralelos», se les da el nombre de monolitos, y su desarrollo se debe a su empleo por la industria automovilística para controlar los gases de escape de los vehículos automóviles, problema que se originó al inicio de los años setenta del siglo xx en numerosas zonas urbanas. Las diferencias fundamentales entre este tipo de estructuras y los catalizadores de formas convencionales, cilindros, esferas, etc., vienen dadas por las propiedades relativas a la pérdida de carga y transferencia de materia y de calor. Además el catalizador presenta una gran superficie geométrica por unidad de peso o volumen. Esta serie de propiedades han hecho que su uso se haya generalizado con éxito en el campo de las tecnologías catalíticas para la descontaminación ambiental. De este modo las propiedades más importantes de estos sistemas estructurados son: – La baja pérdida de carga que provocan los gases a su través, lo que los hace altamente atractivos en el tratamiento de elevados volúmenes de gas como es el caso de las centrales térmicas donde se pueden llegan a tratar hasta 1.000.000 m3 · h–1. – Elevada superficie geométrica de contacto por unidad de peso o volumen. Así en el caso de los convertidores catalíticos donde el espacio y volumen de los catalizadores es extremadamente pequeño, el empleo de este tipo de sistemas catalíticos permite obtener conversiones elevadas.
Técnicas de análisis y caracterización de materiales
880
– El flujo de gases es muy uniforme con bajos valores de dispersión axial. – Se comportan como sistemas casi adiabáticos por ser muy reducida la transmisión de calor radial. – Evitan o reducen los problemas causados por taponamientos o por formación de canales preferentes. Esta nueva concepción en el diseño de catalizadores constituye sin duda uno de los elementos innovadores más importante en la catálisis moderna de contacto gassólido, y el aumento espectacular de utilización de este tipo de sistemas en las últimas décadas está motivado, principalmente, por su aplicación a procesos de descontaminación ambiental. Al presentar una estructura unitaria continua atravesada por canales normalmente paralelos, en cuyas paredes internas se encuentra la fase activa, tienen la particularidad de que el propio catalizador constituye el reactor propiamente dicho. Sus características particulares hacen que se plantee su aplicación en diversos tipos de reacciones. Aunque hasta el momento se han aplicado principalmente en procesos de descontaminación en gases de salida de diversos procesos industriales o de automoción, se está estudiando su introducción en prácticamente todos los procesos catalíticos de producción, particularmente los sistemas trifásicos gas-líquido-sólido catalíticos, como alternativa a los reactores continuos de lecho de goteo o trikcled bed, o discontinuos con el catalizador en suspensión, entre otros.
20.6.5.2. Reactores bioquímicos El empleo y la utilización de reactores bioquímicos se remonta al principio de los tiempos, cuando el hombre primitivo producía bebidas alcohólicas a partir de granos y frutos. En la actualidad, los diferentes procesos derivados de fermentaciones tienen numerosas aplicaciones industriales. En un principio, estos procesos tenían lugar solamente por acción de los propios microorganismos y, posteriormente, se aprendió a separar a los catalizadores bioquímicos, enzimas responsables de diversas reacciones, para conseguir altas selectividades en reacciones que antes realizaban los propios microorganismos como parte de sus procesos vitales. Puesto que en ambos casos son las enzimas, separadas de la célula o formando parte de la misma, las que realizan la transformación química, cabe hablar de fermentación para ambos tipos de proceso. Desde el punto de vista del diseño del reactor, ambas situaciones son muy diferentes: en el diseño de reactores con microorganismos hay que considerar las necesidades nutricionales de los mismos, incluyendo, según los casos, luz, oxígeno o micronutrientes. El diseño de reactores enzimáticos es análogo al de cualquier otro reactor catalítico, excepto por el diferente tipo de ecuación cinética entre una enzima y un catalizador no biológico. Puede considerarse una fermentación microbiana como un proceso autocatalítico, según el siguiente esquema de reacción: Nutrientes (A)
+ Microorganismos
Microorganismos (C) + productos metabólicos (B)
Caracterización de materiales mediante estudios de actividad catalítica
881
Dependiendo del tipo de proceso, puede ser interesante: a) Eliminar los nutrientes, como en la depuración de las aguas residuales. b) Obtener los productos metabólicos, como en la producción de la penicilina. c) Obtener los microorganismos, como en la producción de proteínas celulares, levaduras de panificación o, en general, en la primera etapa de la mayor parte de las fermentaciones microbianas. El potencial de este tipo de proceso se entiende fácilmente si se considera que un Esterilia coli tiene un tiempo de duplicación de unos 20 minutos. Si no tuvieran limitaciones de nutrientes, los descendientes de un solo Esterilia coli alcanzarían en poco más de un día un peso tan grande como el de la Tierra. Los microorganismos utilizados en fermentaciones industriales suelen ser bacterias, levaduras u hongos, que son relativamente manejables, aunque algunas de las aplicaciones más avanzadas requieren el uso de células de organismos superiores (animales o plantas). Se pueden considerar varias clasificaciones de reactores de fermentación: – – – –
Por el tipo de flujo: de mezcla perfecta, de tanques en serie o flujo pistón. Por el principio de operación: discontinuos, semicontinuos o continuos. Por las condiciones de esterilidad: estériles o sépticos. Por el método mediante el que se introduce la energía de agitación: burbujeo, mecánica o mixta.
Las distintas combinaciones de los tipos anteriores dan lugar a diversas configuraciones de reactor según la aplicación final deseada. En los reactores de fermentación reales, el tipo de flujo puede variar ampliamente. En los reactores continuos, el tipo de flujo puede oscilar entre los dos extremos característicos: flujo pistón o mezcla perfecta. Frecuentemente se puede representar el comportamiento del reactor con base en alguno de estos dos tipos, o combinaciones entre ellos, como el modelo de tanques en serie.
20.7. PrOcesOs caTalíTicOs HeTerOGéneOs: casOs HisTóricOs y ejeMPlOs Los grandes descubrimientos científicos que tuvieron lugar durante la primera mitad del siglo xx dieron lugar a la aplicación y desarrollo a nivel industrial de diversos procesos catalíticos que revolucionaron el mundo de la industria química. El enorme éxito del proceso de la síntesis catalítica del amoníaco tuvo lugar como consecuencia de la aplicación de la recientemente desarrollada termodinámica, cinética y los principios de la ingeniería química, y constituyó el origen del gran avance de los procesos químicos industriales catalíticos. Distintos descubrimientos científicos a lo largo del siglo pasado en el campo de la ingeniería de la reacción química y la catálisis han dado lugar a un gran desarrollo en el mundo de la producción industrial. Desde la aplicación de las zeolitas en
Técnicas de análisis y caracterización de materiales
882
la industria petroleoquímica durante los años sesenta del siglo xx, que dio lugar a un gran avance en la industria del refino del petróleo, como por ejemplo, en la obtención de gasolinas y combustibles cada vez más limpios, hasta su actual aplicación en la industria farmacéutica y la química fina, pasando por infinidad de procesos catalíticos en la industria de fertilizantes, pinturas, plásticos, agroalimentaria, etc., hasta el actual avance de los biocatalizadores en procesos de fermentación o biomedicina.
20.7.1. síntesis del amoníaco A principios del siglo xx el uso de fertilizantes nitrogenados estaba ya bien establecido e implantado en el mundo agrícola, siendo la principal fuente el nitrato sódico, obtenido a partir de los Nitratos de Chile y, como subproducto a partir del sulfato amónico obtenido en la destilación (pirolisis) del carbón, base de la industria del gas de ciudad. Sin embargo, era reconocido en aquella época que las reservas disponibles no eran suficientes para la creciente demanda y empleo de los fertilizantes para diversos usos alternativos, como por ejemplo en la incipiente industria de explosivos. Como resultado de esta fuerte demanda, durante el periodo de los años veinte, la tecnología de la fijación química del nitrógeno atmosférico comenzó a desarrollarse rápidamente. En principio, a partir de 1910, dos procesos tecnológicos fueron implantados a nivel comercial para la fijación del nitrógeno atmosférico, el proceso de las ciaminas y el proceso del arco eléctrico, los cuales, sin embargo, necesitaban un gran aporte energético que encarecía considerablemente los costes finales del producto obtenido. Por otro lado, el gran avance de la ciencia realizado durante todo el siglo xix y primeros del xx permitió a Fritz Haber el descubrimiento de la síntesis catalítica del amoníaco a partir de H2 y N2, con catalizadores de hierro finamente divididos. A partir de la viabilidad a nivel de laboratorio de la producción catalítica del amoníaco con hidrógeno y nitrógeno a alta presión, en 1909, en la Universidad de Karlsruhe, Carl Bosh y sus colaboradores llevaron a cabo el proceso Haber a nivel industrial en la BASF, con un catalizador basado en hierro con diversos promotores catalíticos de aluminio, calcio y potasio, que revolucionó el mundo de la industria química. En 1917 más de 60.000 toneladas de amoníaco eran producidas anualmente con el hoy denominado proceso Haber-Bosch. El catalizador más utilizado hoy en día por la industria química es el BASFS6-10, preparado a partir de Fe2O4 (magnetita), al cual se funde con un pequeño porcentaje de K2O, Al2O3 y CaO, siendo el sistema catalítico posteriormente reducido. En las plantas modernas de la síntesis del amoníaco la fuente de hidrógeno es el gas natural, en contrapartida con el hidrógeno original obtenido a partir de la gasificación del carbón. De este modo, es obvio que la reacción química que tiene lugar: 3 H 2 ( g) + N 2 ( g) ↔ 2 NH 3 ( g)
− ∆H 773 K = 109 kJ/mol
[20.71]
Caracterización de materiales mediante estudios de actividad catalítica
883
está favorecida, termodinámicamente, a alta presión y baja temperatura. En la práctica para alcanzar velocidades de reacción lo suficientemente rápidas, se emplean elevadas temperaturas (450 ºC) y presiones generalmente en la región de 100-300 bar. La síntesis catalítica del amoníaco dio lugar a una gran revolución y desarrollo de la química industrial, ya que constituyó y constituye una de las materias primas básicas de la industria química. Así por ejemplo, a partir de su oxidación catalítica a óxido nítrico, empleando catalizadores basados en aleaciones de Pt o Pd, se obtiene el ácido nítrico, base de la industria de fertilizantes y explosivos.
20.7.2. síntesis del metanol La introducción por parte de la BASF, en 1923, del proceso de la síntesis del metanol a partir de monóxido de carbono e hidrógeno a presión supuso la segunda aplicación a gran escala de la catálisis y la tecnología de alta presión a la industria química. CO + 2 H 2 ↔ CH 3 OH
[20.72]
Partiendo del trabajo realizado con la síntesis del amoníaco diez años antes, y teniendo en cuenta los resultados de los trabajos de Otswald y Nernts, sobre los principios de la termodinámica y la cinética que controlan la reacción química, este proceso se desarrolló como resultado de una ardua y amplia investigación de la hidrogenación del monóxido de carbono, el cual había mostrado que, dependiendo del catalizador usado y de las condiciones del proceso, el CO2 y el H2 podían reaccionar a una presión de 100-300 bar para dar como productos desde metanol a diversos alcoholes superiores, además de otros compuestos oxigenados e hidrocarburos. El subsiguiente trabajo realizado por Fischer y Tropsch condujo a establecer en los años treinta del siglo xx el proceso de fabricación de fueles y combustibles sintéticos, el cual lleva sus nombres. Análogamente al proceso del amoníaco, la síntesis del metanol era dependiente del desarrollo de un catalizador efectivo, pero al contrario que en la síntesis del amoníaco, el catalizador para la síntesis del metanol tenía que ser además de activo altamente selectivo. El primer catalizador que se desarrolló fue un sistema basado en óxidos de zinc y cromo, el cual no era solamente activo sino también altamente selectivo en la obtención de metanol, lo que hizo que su composición se mantuviese virtualmente inalterable durante más de cuarenta años. A lo largo de estos años diversos intentos para mejorar el catalizador se llevaron a cabo sin gran éxito, hasta que en 1966 ICI introdujo un catalizador basado en cobre y óxidos de zinc sobre alúmina con mucha más actividad que el catalizador inicial, el cual era capaz de sintetizar metanol a temperaturas menores, inferiores a 300 ºC, permitiendo de este modo llegar a operar a presiones menores, 50-100 bar. La síntesis del metanol a baja presión es mucho más eficiente, necesita costes menores y además es mucho más seguro que el proceso inicial a alta presión, el cual se encuentra actualmente obsoleto. Aunque en los últimos años del siglo xx se han
884
Técnicas de análisis y caracterización de materiales
llegado a desarrollar otros catalizadores para la síntesis del metanol, ninguno ha alcanzado la práctica industrial, permaneciendo el proceso de baja presión como la única ruta viable económicamente para la síntesis industrial del metanol. Avances más recientes en la tecnología de la producción del metanol han dado lugar a mejoras en este tipo de catalizador, así como en el diseño global del proceso. La base de casi todas las unidades comerciales actuales para la producción de metanol es el proceso de la ICI, el cual convierte, a alta presión, una mezcla gaseosa de CO, CO2 e H2 en metanol con una eficiencia superior al 99%, utilizando un catalizador basado en cobre, óxido de zinc y alúmina a temperaturas entre 250-300 ºC. Esta síntesis es de enorme importancia para la industria química, ya que es un método muy efectivo y económico para convertir el gas de síntesis en un producto, el metanol, el cual es una de las materias primas básicas y primordiales para la obtención de otros productos, como por ejemplo el formaldehído y ácido acético, o incluso combustibles de alto índice de octano.
20.7.3. síntesis de fischer-Tropsch Los aspectos políticos y económicos de la historia del mundo han determinado la emergencia y el declive, y la subsiguiente re-emergencia de la síntesis catalítica de Fischer-Tropsch, como un proceso industrialmente importante para la fabricación de hidrocarburos y compuestos oxigenados a partir de mezclas de CO e H2 (gas de síntesis) en presencia de un catalizador sólido. Este proceso se desarrolló fundamentalmente en los años anteriores a la Segunda Guerra Mundial, a partir del gas de síntesis generado en la industria del carbón, como consecuencia de las escasas reservas de petróleo existentes en Alemania, en comparación con los grandes yacimientos de carbón de las cuencas mineras germanas. La industria alemana construyó un número considerable de plantas para obtener el gas de síntesis a partir del carbón, de manera que combustibles líquidos y otros productos deseables podrían ser obtenidos mediante síntesis catalítica a partir de los descubrimientos científicos publicados durante los años veinte del siglo xx. Las plantas de Fischer-Tropsch construidas en Alemania para la producción de hidrocarburos empleaban una catalizador de cobalto en reactores de lecho fijo (utilizando un catalizador de rutenio, se obtenían ceras de alto peso molecular, químicamente idénticas al polietileno). Sin embargo, durante los años cincuenta del pasado siglo se emplearon reactores de lecho fluidizado para convertir el gas de síntesis obtenido a partir del gas natural en petróleo (gasolinas), sin ningún éxito comercial. Como consecuencia de las grandes reservas mundiales de petróleo en el mundo, el interés por el proceso Fischer-Tropsch comenzó a desaparecer, excepto en zonas como Sudáfrica donde las reservas de carbón eran enormes. Las plantas más modernas de Sudáfrica, basadas en reactores de lecho fluidizado catalítico trabajan a 25 atm y 330 ºC, y producen principalmente gasolina y combustibles diésel. Actualmente existe un considerable interés industrial en modernizar las variantes de la síntesis de Fischer-Tropsch por muchas razones, la mayoría están centradas en la evolución y el desarrollo de los métodos de generar compuestos químicos de la indus-
Caracterización de materiales mediante estudios de actividad catalítica
885
tria petroquímica, a partir del gas natural (química del C1), o la biomasa y carbón, cuyas reservas actualmente son mucho más abundantes a nivel mundial que el petróleo. Parece enormemente ventajosa si la conversión del gas de síntesis, vía la síntesis de Fischer-Tropsch, produjese olefinas C2-C4 selectivamente, o alternativamente, parafinas C10-C20, las cuales podrían entonces ser utilizadas en la fabricación de detergentes o en el reformado catalítico para producir gasolinas libres de aromáticos. También sería enormemente ventajoso convertir el gas de síntesis directamente en gasolina, por ejemplo a partir de benceno y tolueno. Por otro lado, las zeolitas ZSM-5 también pueden llegar a convertir los hidrocarburos producidos en la síntesis de Fischer-Tropsch en gasolinas, incluso mucho más atractivo sería el empleo directo del benceno para obtener olefinas ramificadas y otros hidrocarburos de alto índice de octano.
20.7.4. Procesos catalíticos para el control de la contaminación atmosférica Desde sus orígenes, la actividad humana ha estado enfocada a obtener de la naturaleza todo aquello que contribuyese a satisfacer sus necesidades inmediatas; cobijo, vestido y alimento, se obtenían con grandes esfuerzos para no sucumbir en un medio agresivo con el hombre. La obsesión por el desarrollo incontrolado, iniciado con la Revolución industrial en el siglo xix, y retomado en los años cincuenta del siglo xx tras la Segunda Guerra Mundial, ha conducido a la alteración de los parámetros básicos que mantienen el equilibrio de la biosfera. El aumento de las necesidades energéticas de los países desarrollados y el empleo de combustibles fósiles para la obtención de la energía requerida han llevado consigo un gran aumento en las cantidades de los productos nocivos emitidos a la atmósfera, generándose problemas que amenazan la integridad de la naturaleza. El efecto invernadero, la destrucción de la capa de ozono, las lluvias ácidas y el calentamiento global son claros exponentes de ello. En las últimas décadas las naciones más avanzadas e industrializadas han experimentado un auge y una especial sensibilización hacia los problemas relacionados con la contaminación ambiental. El famoso concepto de quien contamina paga es una medida local que no soluciona el problema. Cualquier decisión política en el control de la contaminación atmosférica requiere una severa evaluación científica de las cargas y los niveles a las cuales es posible exponer a los ecosistemas sin que estos corran riesgos de ser afectados. De este modo, legislaciones más estrictas, foros internacionales y conferencias y cumbres mundiales, como las de Estocolmo, Montreal, Río de janeiro, Kyoto, Bonn o Copenhague sobre el medio ambiente y el cambio climático, obligan a la comunidad internacional a implantar una serie de medidas y acuerdos para evitar la degradación de la biosfera terrestre. La contaminación del aire puede definirse como cualquier condición atmosférica en la que ciertas sustancias alcanzan concentraciones lo suficientemente elevadas sobre su nivel normal, como para producir un efecto mesurable en el hombre, los animales, la vegetación o los materiales. Por sustancias entendemos cualquier elemento o compuesto químico natural o artificial, capaz de permanecer o ser arrastrado por el aire. Estas sustancias pueden existir en la atmósfera en forma de gases, de go-
886
Técnicas de análisis y caracterización de materiales
tas líquidas o de partículas sólidas. Entre los distintos contaminantes atmosféricos destacan, entre otros, el dióxido de azufre, los óxidos de nitrógeno, el monóxido de carbono y los hidrocarburos a excepción del metano. Una categoría de sustancias contaminantes de importancia creciente en las últimas décadas es la de los compuestos orgánicos volátiles. Las principales fuentes de emisión de contaminantes atmosféricos al medio ambiente son los procesos de combustión, ya sean fuentes fijas, como centrales térmicas de combustibles fósiles, o fuentes móviles, como los vehículos automóviles, camiones, transporte pesado, etc.; y la industria química y petroleoquímica. Entre los distintos métodos de tratamiento de los gases de combustión (medidas secundarias), la tecnología de catálisis ha demostrado ser un arma de gran utilidad en la preservación del medio ambiente, especialmente en la eliminación de los contaminantes atmosféricos, pues aporta soluciones eficaces para transformarlos en sustancias inocuas. Dentro de estas medidas secundarias, las tecnologías catalíticas de descontaminación ambiental han sido implantadas con éxito en procesos tales como la Reducción Catalítica Selectiva (SCR) de los óxidos de nitrógeno con amoníaco en centrales térmicas, la combustión catalítica de hidrocarburos y CO y la eliminación de contaminantes de los gases de escape de los automóviles-gasolina (HC, CO y NOx) mediante los catalizadores de tres vías, entre otros. Una de las diferencias más importantes que se debe tener en cuenta a la hora de elegir un determinado tipo de proceso o tecnología catalítica de descontaminación ambiental es que mientras que en los procesos industriales, las variables de operación, como temperatura, concentración, etc., deben ser seleccionadas de manera que se obtenga el mayor rendimiento del catalizador, en este tipo de tecnologías el sistema catalítico se tiene que adaptar a las condiciones del efluente a tratar. Así de este modo, aunque en ambos casos el catalizador debe poseer una alta actividad, selectividad, y vida útil, los catalizadores utilizados en sistemas de depuración deber perturbar lo menos posible las condiciones de operación del proceso productivo. Por tanto, deben operar en unas condiciones de operación impuestas, bien por las características del proceso, o bien en otros casos, en condiciones transitorias que cambian constantemente, e incluso pueden llevar impurezas de compuestos muy diversos que pueden inhibir la reacción o incluso desactivar el catalizador, lo que hace que además de una alta selectividad presenten una larga vida con elevada resistencia mecánica. Los óxidos de nitrógeno, principalmente el NO y el NO2, denominados genéricamente NOx por su facilidad de transformación mutua en presencia del oxigeno del aire, son junto con el SO2 uno de los agentes contaminantes más importantes de la atmósfera terrestre, y en especial de las áreas densamente pobladas o industriales. Son responsables de procesos tan perjudiciales como el smog fotoquímico y la lluvia ácida. Las principales fuentes de emisión son los procesos de combustión, fuentes fijas (centrales térmicas) o fuentes móviles (vehículos), y algunos procesos químicos, como las plantas de fabricación de ácido nítrico y ácido adípico. Entre las tecnologías comerciales para el control de la contaminación atmosférica en fuentes fijas destaca la Reducción Catalítica Selectiva de NOx (SCR) que utiliza amoníaco como agente reductor, y que es, hoy en día, la tecnología más utilizada
Caracterización de materiales mediante estudios de actividad catalítica
887
industrialmente y desarrollada en el mundo, pues permite eliminar eficaz, selectiva y económicamente los óxidos de nitrógeno en fuentes fijas. El proceso de la reducción catalítica selectiva de los NOx consiste en que cuando se emplea amoníaco como agente reductor, en presencia de un catalizador apropiado, y a temperaturas entre 200-350 ºC, reacciona selectivamente con los NOx incluso en presencia de O2, para transformarse en sustancias inocuas. Los catalizadores DeNOx comerciales instalados en las centrales térmicas, están fundamentalmente constituidos por una mezcla homogénea de TiO2, v2O5 y WO3. El v2O5 es el responsable de la actividad del catalizador, y también de la oxidación no deseable en este caso del SO2 a SO3. Por tanto, el contenido en vanadio se mantiene generalmente en valores bajos, reduciéndose alrededor del 1% en peso, en aplicaciones de alto contenido en azufre. El WO3 se utiliza en cantidades mayores, alrededor del 10% en peso, para aumentar la acidez del catalizador y limitar e inhibir la oxidación del SO2, este óxido metálico confiere, además, elevadas propiedades de conductividad y gran estabilidad térmica. Finalmente, se utilizan aluminosilicatos y fibras de vidrio como agentes aglomerantes, para conferir mayor resistencia mecánica al catalizador final. Por otro lado, las emisiones contaminantes originadas por las denominadas fuentes móviles, como son los automóviles y diferentes vehículos para el transporte, difieren en tipo y cantidad según sea el motor utilizado. A comienzos de la década de los años ochenta se introdujeron medidas más restrictivas respecto a las emisiones de los gases de escape de los automóviles gasolina, lo que obligó al desarrollo de catalizadores capaces de eliminar, junto con el CO y los HC, los NOx. Así, se implantaron los catalizadores de tres vías, o comúnmente denominados de triple efecto (Three Way Catalyst, TWC), por su capacidad de eliminar los tres tipos de contaminantes. Para alcanzar máximas conversiones de los tres contaminantes es necesario, sin embargo, operar con una relación en volumen de especies oxidantes y especies reductoras, próximas a la unidad, que se consigue para relaciones en peso de aire/ combustible próximas a la estequiométrica de 14,7. Esto, además, ha requerido el desarrollo de un sofisticado sistema de control de la composición de los efluentes gaseosos durante la operación del motor, estando la temperatura de operación óptima de estos sistemas catalíticos en el intervalo de 300-700 ºC. El desarrollo y uso de sistemas monolíticos en el control de las emisiones de los automóviles ha dominado la aplicación de este tipo de estructuras catalíticas desde el inicio de su implantación en los años setenta. Estos catalizadores de triple efecto convencionales tienen en su composición entre 0,1-0,15% en peso de metales nobles (Pt/Rh/Pd) como fases activas, un recubrimiento formado por 10-20% en peso de γ-alúmina con distintos óxidos metálicos como agentes estabilizantes (Ce, Ba), todo lo cual esta depositado sobre una estructura monolítica cerámica de cordierita que constituye el sistema catalítico final instalado en el tubo de escape del automóvil gasolina. Por otro lado, el término anglosajón vOC (volatile organic compounds), en castellano COv, recoge miles de especies químicas que son tóxicas para la salud o bien precursoras de oxidantes fotoquímicos responsables del smog, que contribuyen al efecto invernadero y/o a la degradación de la capa de ozono estratosférico. Las principales fuentes de COvs están relacionadas directa o indirectamente con la industria del petróleo y sus derivados, como por ejemplo los vapores de automóviles por combustión incompleta (compuestos aromáticos, olefinas y parafinas) que junto con las
888
Técnicas de análisis y caracterización de materiales
emisiones provenientes de las combustiones incompletas de residuos sólidos urbanos e industriales corresponden aproximadamente al 40% de las emisiones. El 60% restante provienen de industrias de pinturas, tintas, lacas y esmaltes (alcanos y cicloalcanos), vapores de gasolina emitidos desde los tanques de almacenamiento, disolventes empleados en pinturas y operaciones de desengrasado y limpieza (hexano, ciclohexano y aromáticos derivados del tolueno y xyleno), adhesivos metil-etil cetona, derivados tipo nafta, tricloroetano, aerosoles, industrias de plásticos (compuestos clorados), etc. No existe una tecnología de aplicación universal para el control de los COv. Para elegir el tratamiento más adecuado del amplio abanico existente, ha de considerarse no solo la eficacia del mismo, sino las condiciones de utilización que en definitiva determinan su viabilidad económica. De entre todos ellos, los procesos de tratamientos de COv más populares, por su dilatado intervalo de aplicabilidad, en cuanto a fuente y naturaleza de emisión, son los incineradores térmicos, los combustores catalíticos, los absorbedores y los condensadores. Sin embargo, entre todos los procesos y tecnologías para el control de los COv la oxidación catalítica se ha convertido en uno de los procesos más atractivos, dado que la oxidación del compuesto orgánico volátil tiene lugar a temperaturas mucho menores que aquellas requeridas para la destrucción térmica. Esta tecnología ha comenzado a ser popular, en muchos casos, debido a su mayor versatilidad e interesante economía para emisiones de compuestos orgánicos de baja concentración. La combustión catalítica permite alcanzar prácticamente destrucción total operando a temperaturas más bajas (250 ºC-500 ºC) que la combustión térmica (700 ºC-1.200 ºC). De manera que la disminución de la temperatura de operación significa un importante ahorro en combustible para precalentar la corriente gaseosa y el propio reactor. Además es imprescindible que el catalizador sea altamente activo y selectivo hacia la oxidación total, es decir, que no dé lugar a productos de oxidación parcial y que sea químicamente estable, con una velocidad de desactivación baja. Los sistemas catalíticos comerciales que se utilizan en el mercado para la oxidación catalítica se pueden clasificar en metales nobles soportados (principalmente Pt y Pd); óxidos metálicos (soportados o no), y mezclas de metales nobles y óxidos metálicos. No obstante, la mayoría de los catalizadores comerciales están basados en metales preciosos, Pt y /o Pd, soportados en γ-alúmina, debido a su alta actividad, resistencia a la desactivación y posibilidad de ser regenerados.
20.7.5. Descontaminación de efluentes acuosos El agua es uno de los recursos naturales más importantes para la vida, además de ser la base del desarrollo de nuestra civilización, tanto a nivel social como industrial. Sin embargo, a pesar de su aparente abundancia, muchos sectores de la población sufren serios problemas de escasez debido a su irregular distribución. Además, el problema se incrementa por el uso indiscriminado del agua disponible, lo que genera un gran volumen de agua contaminada. En este sentido, la idea de regenerar y reutilizar el agua contaminada es una necesidad que está dando lugar al desarrollo de tecnologías más eficientes para solucionar los problemas de contaminación. La contaminación del agua puede ser, a grandes rasgos, de origen doméstico, de origen agrícola y ganadero o de origen industrial, presentando en general altas car-
Caracterización de materiales mediante estudios de actividad catalítica
889
gas de materia orgánica disuelta. Actualmente, las estaciones depuradoras de aguas residuales urbanas (EDAR) purifican prácticamente la totalidad de los vertidos líquidos urbanos en los países de la Unión Europea. Suelen disponer de distintas etapas de tratamiento, comenzando por pretratamientos físicos, en los que se separan los sólidos de mayor tamaño; tratamientos primarios, que se basan fundamentalmente en provocar la coagulación y floculación de materia en suspensión para su posterior decantación; tratamientos biológicos o secundarios, donde se engloban todos los procesos de digestión aeróbica o anaeróbica de la materia orgánica del efluente y, por último, en determinadas ocasiones tratamientos terciarios, los cuales tienen como objetivo la depuración final del efluente acuoso. Sin embargo, las características particulares de las aguas industriales, por la heterogeneidad de sus vertidos y la toxicidad de muchos de ellos, hacen que sea necesaria su gestión por separado empleando distintos tratamientos específicos en función del tipo y carga de contaminantes. En estos casos es necesario aplicar tratamientos para la transformación de los contaminantes de este tipo de efluentes, o su separación y posterior eliminación. Hoy en día existen distintos procesos y tecnologías alternativas y avanzadas para el tratamiento de efluentes contaminados con compuestos orgánicos altamente tóxicos o difícilmente biodegradables, bien para eliminarlos, o bien para reducir su toxicidad y/o transformarlos en compuestos más fácilmente biodegradables por un posterior tratamiento biológico final. Los procesos que se emplean normalmente para la eliminación o reducción de este tipo de contaminantes pueden ser no destructivos, que suponen simplemente la transferencia del contaminante del agua residual a otro medio, y métodos destructivos que implican la transformación del contaminante en compuestos inocuos. Muchos de los tratamientos destructivos utilizan catalizadores, que permiten disminuir los costes de instalación y operación al suavizar las condiciones de operación. Entre ellos pueden distinguirse procesos basados en reducción u oxidación catalítica.
20.7.5.1. Tratamientos de reducción catalítica Entre los tratamientos de reducción que se han aplicado para la eliminación de contaminantes en aguas destacan fundamentalmente la hidrodecloración y la reducción catalítica de nitratos. La hidrodecloración consiste en la ruptura del enlace C-Cl de una molécula orgánica clorada mediante su hidrogenación, transformándose en el correspondiente compuesto orgánico sin cloro, el cual se elimina como HCl. Este tratamiento ha resultado muy eficiente para la transformación de contaminantes orgánicos clorados porque se transforman en otros compuestos menos tóxicos que pueden ser eliminados por otros tratamientos. Los catalizadores utilizados en este proceso están constituidos por fases activas de metales nobles, principalmente paladio, platino, rhodio y rutenio, soportadas sobre alúmina o carbón activo. Por otro lado, aunque la tecnología más eficiente desde el punto de vista ecológico para la reducción de efluentes acuosos contaminados por nitratos es la reducción anaeróbica a nitrógeno gas, se están desarrollando procesos de hidrogenación catalí-
890
Técnicas de análisis y caracterización de materiales
tica para suplir aquellos casos en los que el tratamiento biológico no es aplicable. En este sentido se utiliza generalmente hidrógeno como agente reductor, y catalizadores basados en metales nobles: paladio, platino, rhodio, etc. utilizando metales de transición como promotores: cobre, níquel o hierro, entre otros, sobre diversos tipos de soportes catalíticos.
20.7.5.2. Tratamientos de oxidación catalítica Entre los distintos métodos destructivos de oxidación de efluentes acuosos contaminados por materia orgánica destacan la incineración, la oxidación húmeda, la oxidación en condiciones supercríticas y la oxidación avanzada. La incineración es una técnica convencional del tratamiento de lodos. Suele ser aplicable al tratamiento de corrientes acuosas de caudales bajos o medios con una alta carga orgánica ya que en otras condiciones el coste energético del proceso sería muy elevado. La oxidación húmeda (WAO, Wet Air Oxidation) es un proceso de oxidación de la materia orgánica que utiliza una fuente de oxígeno en fase gas como agente oxidante. Aunque generalmente son necesarias altas temperaturas (200-370 ºC) y presiones (70-200 atm) el uso de distintos catalizadores en la oxidación húmeda catalítica (CWAO, Catalytic Wet Air Oxidation) ha conseguido suavizar considerablemente las condiciones de operación. Los catalizadores más utilizados han sido sistemas basados en óxidos de cobre, zinc, cobalto o hierro, y algunos metales nobles soportados como platino, paladio, rutenio, etc. Además, el carbón activo cataliza esta reacción en condiciones bastante suaves de operación. La oxidación en condiciones supercríticas (SCWO, Supercritical Water Oxidation) se basa en la destrucción de los contaminantes orgánicos en las condiciones de agua supercrítica, temperatura mayor de 374 ºC y más de 221 atm de presión, empleándose normalmente temperaturas alrededor de 650 ºC y 250 atm. En estas condiciones se alcanza la oxidación completa de los contaminantes en poco tiempo. El empleo de catalizadores suaviza también las condiciones de operación y disminuye considerablemente los tiempos de residencia. Destacan los catalizadores basados en óxidos de cobre y zinc, óxido de vanadio y óxido de manganeso. Finalmente, los procesos de oxidación avanzada (AOPs, Advanced Oxidation Processes) están basados en procesos físico-químicos, catalíticos y no catalíticos, capaces de generar radicales hidroxilo en el medio de reacción, especies altamente inestables que reaccionan oxidando la materia orgánica en condiciones suaves de presión y temperatura. Estos radicales son altamente inestables y deben ser generados in situ a través de reacciones químicas de oxidación/reducción o por medios fotoquímicos, aunque también pueden generarse mediante ultrasonidos, oxidación electroquímica, radiólisis o irradiando con haces de electrones. Una clasificación de estos AOP se muestra en la Tabla 20.3. Entre ellos, los procesos catalíticos (en negrita en la tabla) más comúnmente utilizados son: ozonización catalítica (O3 + catalizador), procesos Fenton (Fe2+ + H2O2), Fenton heterogéneo u oxidación catalítica con peróxido de hidrógeno (CWPO, Catalytic Wet Peroxide Oxidation) (Catalizador sólido + H2O2), oxidación electrocatalítica, foto-Fenton y relacionados (Fe2+ + H2O2 + UV o cataliza-
Caracterización de materiales mediante estudios de actividad catalítica
891
dor + H2O2 + UV), y fotocatálisis heterogénea (Catalizador-TiO2 + O2 + UV), además de sus posibles combinaciones. En estos procesos se puede distinguir entre los que utilizan radiación luminosa y los no fotoquímicos. En la ozonización catalítica, un catalizador basado en metales de transición o carbón activo favorece la descomposición del ozono vía radicales hidroxilo. Los procesos tipo Fenton, ya sea en homogéneo o heterogéneo, se basan en la descomposición catalítica de peróxido de hidrógeno con sales de hierro disueltas (Fenton homogéneo) o bien, con catalizadores sólidos con fases activas de hierro en su mayoría (CWPO). La oxidación electrocatalítica se basa en la generación de los radicales hidroxilo mediante un electrocatalizador sometido a una diferencia de potencial determinada. En la fotocatálisis heterogénea se emplean semiconductores (óxidos de titanio principalmente) que al ser irradiados con luz sufren un salto de electrones de su banda de valencia a la banda de conducción, generando un par de cargas electrón/hueco que pueden migrar a la superficie del material, y reaccionar con el oxidante presente para dar lugar a la formación de los radicales hidroxilo, responsables de la oxidación de la materia orgánica. En el proceso foto-Fenton se acelera en gran medida la velocidad de reacción gracias a la radiación utilizada respecto al tratamiento Fenton. Además, la tendencia actual a combinar dos o más de estos procesos ha dado lugar a resultados muy prometedores en cuanto a velocidades de reacción y eliminación de la materia orgánica. Tabla 20.3. clasificación de lOs aOP no fotoquímicos
fotoquímicos
Ozonización en medio alcalino [O3/OH–]
Fotólisis con radiación ultravioleta [Uv]
Ozonización con peróxido de hidrógeno [O3/H2O2]
Peróxido de hidrógeno con radiación ultravioleta [H2O2 / Uv]
Ozonización catalítica [O3 / CATALIZADOR]
Ozono y radiación ultravioleta [O3 / Uv]
Procesos Fenton y relacionados [Fe2+/H2O2] o [H2O2/CATALIZADOR SÓLIDO]
Peróxido de hidrógeno, ozono y radiación ultravioleta [H2O2 / O3 / Uv]
Oxidación electroquímica / electrocatalítica
Foto-Fenton y relacionados [Fe2+/H2O2/Uv] o [CATALIZADOR / H2O2/Uv]
Radiólisis y tratamiento con haces de electrones
Fotocatálisis heterogénea [CATALIZADOR / O2 / Uv]
Plasma no térmico Descarga electrohidráulica-Ultrasonido
892
Técnicas de análisis y caracterización de materiales
bibliOGrafía 1. Gòdia CasablanCas, F. et ál., Ingeniería Bioquímica, Síntesis, 1998. 2. SCott FoGler, H. Element of Chemical Reaction Engineering, Prentice-Hall, Inc., 1992. 3. twiGG, M. v. (ed.). Catalyst Handbook, Manson Publising, 1996. 4. Carberry, j. j. Chemical and Catalytic Reaction Engineering, McGraw-Hill, 1976. 5. Santa María, j. M. et ál., Ingeniería de Reactores, Síntesis, 1999. 6. SMith, j. M., Chemical Engineering Kinetics, McGraw-Hill, 1981. 7. ThoMas, j. M.; ThoMas, W. j. Principles and Practice of Heterogeneous Catalysis, vCH, 1997. 8. González velasCo, j. R. et ál., Cinética Química Aplicada, Síntesis, 1999. 9. RiChardson, j. T., Principles of Catalyst Development, Plenum Press, 1989. 10. MetCalF y Eddy, Ingeniería de aguas residuales, McGraw-Hill, Inc., 1995. 11. LevensPield, O. Ingeniería de las Reacciones Químicas, Reverté, 1981.
aGradeciMienTOs Los autores agradecen al doctor josé Antonio Casas de Pedro, al doctor Ángel Fernández Mohedano y al doctor Carlos Márquez Álvarez las sugerencias y comentarios, así como la ayuda prestada en la corrección del texto.
21. adQUisición de daTOs, sUPervisión y cOnTrOl de eQUiPOs de labOraTOriO POr OrdenadOr Consuelo Goberna selMa Instituto de Catálisis y Petroleoquímica (CSIC)
21.1. inTrOdUcción Los ordenadores personales (PC: personal computer) se han convertido en los últimas décadas en una herramienta común en la mayoría de los laboratorios, debido a la continua reducción de coste que han venido experimentado, al crecimiento de su potencial de cálculo y tratamiento de datos, y a la amplia variedad de hardware y de software disponible. Como consecuencia hoy los PC se utilizan para realizar muchas de las tareas que se llevan a cabo en los laboratorios, tales como cálculo matemático, diseño, elaboración de gráficos, etc., y por supuesto adquisición de datos, supervisión y control (SCADA = Supervisory Control And Data Acquisition), de los equipos e instrumentos de laboratorio, tanto reactores y plantas a escala laboratorio o piloto como equipos destinados a análisis instrumental. Aunque para los químicos o ingenieros químicos tal vez no sea posible ni deseado el conocimiento de la electrónica y de la informática (hardware y software), implicado en la adquisición de datos, la supervisión y el control por ordenador, normalmente no es necesario conocer exactamente el diseño interno de cada componente individual de un sistema, sin embargo, un conocimiento general puede ayudar al diagnóstico de fallos en el sistema y la adecuada elección del sistema más conveniente en cada técnica o proceso a llevar a cabo. La adquisición de datos, en sentido general, es el proceso de recoger información del mundo real. En una gran parte de las aplicaciones científicas o de ingeniería estos datos son, en su mayoría, numéricos. La supervisión y el control suponen garantizar que el valor de determinadas variables se mantendrá dentro de un rango permisible, asegurando la estabilidad y seguridad del proceso y/o la toma de medidas en condiciones adecuadas. El empleo de un ordenador automatiza la adquisición de datos y el control, permitiendo recoger, almacenar y analizar un mayor número de datos en menos tiempo y con menor error; así pues, las ventajas principales de utilizar un ordenador para llevar a cabo tareas de adquisición de datos, supervisión y control son:
894
Técnicas de análisis y caracterización de materiales
– lograr la automatización total o parcial de las medidas o ensayos, – posibilitar una mayor frecuencia de lectura de datos, así como mayor capacidad de almacenamiento y posterior análisis de los mismos, – reducir los errores de lectura de datos, – aumentar la reproducibilidad experimental, y – aprovechar la enorme capacidad de cálculo y tratamiento de datos. Aunque es posible utilizar diversas plataformas hardware, a lo largo de este capítulo solamente se va a tratar con detalle la familia de los PC compatibles, ya que representan el soporte más amplio de hardware y software para aplicaciones científicas y de ingeniería, habiéndose convertido en un estándar «de hecho» en los laboratorios. La intención principal de este capítulo es proporcionar una visión global de las opciones disponibles, así como dar la información necesaria para la correcta elección y configuración de un sistema de adquisición de datos, supervisión y control basado en un ordenador personal. Todo esto llevará a tratar los siguientes puntos: – Etapas y elementos que intervienen en la adquisición de datos y el control por ordenador. A lo largo de este punto se enumerarán todos los elementos, tanto externos como internos al PC, así como todas las etapas que son necesarias y que intervienen en cualquier sistema de adquisición de datos, supervisión y control por ordenador. – Señales. En este apartado se estudiarán las señales analógicas y digitales, así como el tratamiento y acondicionamiento a que deben ser sometidas las primeras para que puedan ser leídas y manejadas por un ordenador. – El ordenador. Se contemplarán aquí las plataformas hardware más empleadas para construir sistemas de adquisición de datos, supervisión y control por ordenador. Como ya se ha mencionado antes, el capítulo se centrará principalmente en ordenadores compatibles, repasando sus componentes y explicando el funcionamiento interno de un PC, fundamentalmente de todos aquellos aspectos relacionados con la adquisición de datos, la supervisión y el control de los equipos o instrumentos de laboratorio. – Interfases: • Digitales o estándar. A lo largo de este apartado se describirán las interfases digitales, o puertos de un PC que más frecuentemente se utilizan para conectar dispositivos destinados a la adquisición de datos, la supervisión o el control de equipos o instrumentos por ordenador. • Analógicas o no estándar. Este punto tratará las interfases analógicas, y se enumerarán detenidamente los parámetros que es necesario estudiar a la hora de seleccionar una interfase adecuada para un equipo o instrumento de laboratorio determinado. – Ruido y relación señal/ruido. Este apartado enumerará las distintas causas de ruido eléctrico, así como los métodos para su atenuación o eliminación. – Software para adquisición de datos y control por ordenador. Se estudiarán en este apartado los distintos aspectos que debe cubrir una aplicación dedicada a la adquisición de datos o al control de cualquier equipo o instrumento de laboratorio, así como los diversos sistemas operativos bajo los que pueden ejecutarse estas aplicaciones.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
895
– Futuro y conclusiones. Se expondrán, en este punto, las tendencias actuales y futuras tanto en lo referente a equipos de análisis instrumental como en reactores y plantas de laboratorio.
21.2. eTaPas y eleMenTOs necesariOs Para adQUisición de daTOs, sUPervisión y cOnTrOl Como ya se ha dicho, la adquisición de datos es el proceso de recoger y almacenar información del mundo real. Tanto la adquisición de datos como el control por ordenador implican un intercambio de señales o datos numéricos entre los distintos aparatos o dispositivos que forman parte de un equipo o instrumento de laboratorio, y el ordenador encargado de realizar la adquisición de datos, la supervisión, o el control de dicho equipo. Esta comunicación (Figura 21.1) se hace posible gracias a una serie de elementos.
Figura 21.1. Comunicación entre un ordenador y el equipo o instrumento de laboratorio.
21.2.1. equipos e instrumentos de laboratorio Un equipo o instrumento de laboratorio transforma la información relacionada con las propiedades físicas o químicas a medir en información que pueda ser manipulada e interpretada por un ser humano. Por tanto, el instrumento o equipo de laboratorio puede ser entendido como un dispositivo de comunicación entre el sistema objeto de estudio y el científico. Con el fin de comprender la relación existente entre los componentes de un equipo o instrumento y el flujo de información que se transmite a través de los mismos, hasta producir un resultado numérico o gráfico, se hace necesario explicar el concepto de dominio de los datos.
21.2.1.1. Dominio de los datos En un proceso de medida intervienen una amplia variedad de dispositivos que transforman la información. El estudio del funcionamiento de un equipo o instrumento de laboratorio supone entender la manera en que se codifica la información,
Técnicas de análisis y caracterización de materiales
896
transformándose en una señal eléctrica. Los distintos modos de codificar la información hasta obtener una señal eléctrica reciben el nombre de dominio de los datos. A su vez, los dominios de los datos se pueden clasificar en dominios no eléctricos y dominios eléctricos (Figura 21.2).
Figura 21.2. Mapa de dominios de los datos.
21.2.1.2. Dominios no eléctricos Todo proceso de medida comienza y termina en dominios no eléctricos. Las propiedades físicas y químicas objeto de medida pertenecen a estos dominios no eléctricos, al igual que el resultado final obtenido como consecuencia de dicho proceso de medida. La aparición de procesadores de señales electrónicas, detectores, sensores, transductores y dispositivos de lectura ha llevado al desarrollo de un gran número de equipos e instrumentos electrónicos, que recogen la información de dominios no eléctricos, la procesan en dominios eléctricos y, por último, la muestran de nuevo en dominios no eléctricos.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
897
21.2.1.3. Dominios eléctricos Todo proceso de medida puede entenderse como una serie de conversiones sucesivas entre distintos dominios. La propiedad física o química a medir se codifica a un dominio eléctrico mediante un dispositivo llamado transductor de entrada (transductor de presión, termopar, electrodo de pH, fotodetector, etc.), la relación matemática entre la señal eléctrica generada y la propiedad medida se denomina función de transferencia. Seguidamente, la señal eléctrica es codificada de nuevo y mostrada en un dominio no eléctrico gracias a otro dispositivo, el transductor de salida (voltímetro, visualizador alfanumérico, monitor de ordenador, etc.). Los diferentes modos en que puede codificarse la información hasta generar una señal eléctrica se pueden dividir en dominios analógicos, dominios del tiempo y dominios digitales. 21.2.1.3.1. Dominios analógicos En los dominios analógicos la información se codifica de manera que la magnitud eléctrica resultante varía de forma continua en el tiempo, proporcionando una señal analógica. Este tipo de señales son especialmente sensibles al ruido eléctrico, consecuencia de las interacciones que se producen entre los distintos componentes de los circuitos de medida o de otros circuitos próximos. Este ruido es totalmente indeseable y se hace necesaria su eliminación con objeto de optimizar la respuesta del instrumento de laboratorio. 21.2.1.3.2. Dominios del tiempo En los dominios del tiempo la información es almacenada como una variación de la señal medida respecto al tiempo. En los instrumentos que proporcionan señales periódicas respecto al tiempo se define la frecuencia como el número de ciclos de una señal por unidad de tiempo, y el período como el tiempo de duración de un ciclo completo. Existen dispositivos, como los convertidores de tensión a frecuencia (V/F) y los convertidores de frecuencia a tensión (F/V) capaces de transformar señales pertenecientes al dominio del tiempo en señales pertenecientes a dominios analógicos y viceversa. 21.2.1.3.3. Dominios digitales En los dominios digitales los datos se codifican generando una serie de niveles discretos (discontinuos en el tiempo), esto es, proporcionando una señal digital. Es importante destacar que una señal digital, por su propia naturaleza, presenta mayor inmunidad frente al ruido eléctrico que una señal analógica, aspecto que se tratará posteriormente.
21.2.2. adquisición de datos La adquisición de datos implica la transferencia de los valores de las variables a adquirir desde distintos dispositivos del equipo o instrumento de laboratorio hasta el
898
Técnicas de análisis y caracterización de materiales
ordenador. Pero esto no significa que la transmisión de información tenga lugar en una sola dirección, ya que la comunicación entre ambos equipos (el equipo de laboratorio y el ordenador) supone en la mayoría de los casos una transmisión de información bidireccional.
21.2.2.1. Medida de señales: detectores, transductores y sensores (Etapa 1) La mayor parte de los datos que se pueden recoger del mundo real, son variables físicas o químicas, tales como: temperatura, presión, flujo, masa, nivel, tensión, intensidad de corriente, voltaje, radiación electromagnética, radiación nuclear, etc., y estas no se encuentran en forma tal que puedan ser leídas y almacenadas directamente por un ordenador. Para que la lectura y el posterior tratamiento de dichos datos o variables puedan realizarse utilizando un ordenador será necesario, en primer lugar, transformarlos en una cantidad o parámetro que este sea capaz de entender, es decir, en una cantidad eléctrica, normalmente, voltaje o intensidad de corriente, para lo cual se utilizan elementos denominados detectores, sensores o transductores. Aunque los términos detector, sensor y transductor se emplean generalmente de forma indistinta se refieren a dispositivos cuya finalidad o función es bien distinta: – Detector: todo dispositivo mecánico, eléctrico o químico capaz de acusar los cambios experimentados por alguna variable de su entorno (temperatura, presión, conductividad, carga eléctrica, etc.). Para referirse al conjunto completo de dispositivos que registran variables físicas o químicas debería emplearse el término sistema de detección, aunque inadecuadamente se emplea la palabra detector para indicar instrumentos enteros. – Transductor: todo dispositivo capaz de convertir la información de dominios no eléctricos a dominios eléctricos y viceversa. Los transductores que convierten la información que procede de un dominio eléctrico a otro comprensible por el observador se denominan dispositivos de lectura. Estos dispositivos proporcionan siempre una señal de salida alfanumérica o gráfica. – Sensor: todo dispositivo analítico sensible a determinadas especies químicas de manera continua y reversible (electrodos de pH, electrodos selectivos de iones, sensores de fibra óptica, etc.). Los sensores poseen un transductor acoplado al sistema químicamente sensible. Según lo dicho, los primeros elementos necesarios para poder instalar un sistema de adquisición de datos o de control por ordenador, serán los detectores, transductores o sensores, que se encargarán de convertir las variables físicas o químicas en variables eléctricas. La descripción matemática de lo que hace un transductor, viene dada por su función de transferencia, designada normalmente como H, que permite calcular u obtener la señal proporcionada por el mismo (señal de salida) en función de la señal por él leída (señal de entrada) Así, la ecuación que describe un transductor puede expresarse como SALIDA=H(ENTRADA). Esto nos lleva a la primera etapa que tiene lugar en cualquier proceso de adquisición de datos o de control por ordenador, la medida de señales, en la que intervienen directamente los sensores o transductores.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
899
Ya que los detectores, transductores o sensores suponen el front end de todo sistema de adquisición de datos, sus propiedades son críticas en lo referente al comportamiento global del sistema. Algunas de estas propiedades son: – Sensibilidad: se define como la eficiencia en cuanto a la conversión de la medida que realiza. La sensibilidad de un dispositivo de medida determina el menor error con el que es posible realizar la medida de una variable física o química. Por ejemplo, si se desea medir temperatura con una precisión de 0,1 ºC, será necesario elegir un detector de temperatura cuya sensibilidad sea igual o inferior a la décima de grado, siendo esta la mayor precisión, o el menor error absoluto, con el que se podrá efectuar la medida. – Estabilidad: se dice que un dispositivo de medida es estable cuando su salida se mantiene constante para una entrada constante. Este parámetro es decisivo a la hora de escoger un determinado detector, transductor o sensor, y nunca se deberá elegir un dispositivo no estable, ya que esto implicaría que para un mismo valor de entrada el dispositivo de medida podría proporcionar distintos valores de salida. El valor de salida obtenido para un determinado valor de entrada, puede verse alterado por factores ambientales, como la temperatura, o por otro tipo de factores, como el número de horas de uso del dispositivo. – Susceptibilidad al ruido: es la mayor o menor alteración de la señal de salida debida a perturbaciones externas o internas al dispositivo de medida. Si un dispositivo presenta gran susceptibilidad al ruido, la señal proporcionada se verá modificada, por lo que el valor de salida se encontrará alterado y desviado de la realidad. – Rango: se define como el intervalo de la señal de entrada dentro del cual el dispositivo de medida es capaz de detectar variaciones de la misma. Fuera de su rango un dispositivo no será capaz de detectar modificaciones de la señal de entrada, y por tanto, su valor de salida permanecerá constante aun cuando la señal de entrada varíe. A la hora de seleccionar un dispositivo de medida hay que tener muy en cuenta este parámetro, y escoger aquel que mejor cubra todo el rango dentro del cual pueda variar la variable física o química que se desea medir. Por ejemplo, si se desea conocer la temperatura de un horno entre 500 ºC y 1.000 ºC, nunca deberá escogerse como detector una Pt100, ya que este tipo de termorresistencia solo es capaz de medir temperaturas entre –200 ºC y 800 ºC. – Linealidad: se dice que un dispositivo de medida es lineal si la salida proporcionada por el mismo es una función lineal de la entrada. En ocasiones, un transductor tiene un comportamiento lineal para un determinado rango de valores de entrada, mientras que fuera de ese rango su comportamiento deja de ser lineal, pasando a ser, entonces, la ecuación que lo representa un polinomio de grado n: SALIDA = H0 + H1xENTRADA + H2xENTRADA2 + …… + HnxENTRADAn. Algunos de los detectores, transductores o sensores de señales más empleados para la medida de propiedades físicas o químicas son: termopares, transductores de
900
Técnicas de análisis y caracterización de materiales
presión, transductores de flujo (por efecto térmico, vortex, coriolis, magnético, etc.), detectores de nivel (de presión diferencial, ultrasónicos, capacitivos, etc.), sensores de pH, sensores de humedad, sensores de gases, detectores de conductividad térmica, cámaras de ionización, contadores de centelleo, etc.
21.2.2.2. Comunicación: dispositivos e interfases de comunicación digitales, o tarjetas convertidoras analógico-digital (Etapa 2) La medida de una propiedad física o química de un sistema da como resultado una señal analógica, es decir, una señal que varía de forma continua en el tiempo. Por el contrario, un ordenador solo es capaz de procesar valores digitales, o sea, cantidades discretas que únicamente pueden tomar ciertos valores prefijados. Esto lleva a diferenciar los dos tipos de interfases de comunicación empleadas tradicionalmente para la adquisición de datos, la supervisión y el control de equipos e instrumentos de laboratorio: – Adquisición de datos digital. En el caso de disponer de un equipo o instrumento que implemente comunicaciones digitales, se podrá establecer la comunicación entre este y una interfase digital del ordenador. La comunicación se basará en la transmisión y recepción de secuencias de bits o de caracteres según un código. Los distintos tipos de interfases digitales se estudiarán en apartados posteriores. – Adquisición de datos analógica. En el caso de que el equipo o instrumento no posea una interfase digital, será necesario e imprescindible la conversión de las señales analógicas a señales digitales, y esta es la principal función de las tarjetas convertidoras analógico-digitales (tarjetas ADC = Analogic-Digital Converters). Actualmente se comercializan, por diversos fabricantes, diversas tarjetas ADC para adquisición de datos, supervisión y control por ordenador. La elección de una u otra dependerá del sistema concreto, y será preciso tener en cuenta el número de variables a adquirir, la velocidad de adquisición de datos necesaria, la precisión o exactitud requerida en la medida, etc. Todos estos factores, así como la diferencia que existe entre una señal analógica y una señal digital, y cómo se lleva a cabo la conversión analógico-digital, serán objeto de estudio posterior.
21.2.2.3. Almacenamiento, análisis y presentación de resultados: ordenador (Etapa 3) La última etapa que tiene lugar en cualquier adquisición de datos consiste en almacenar o guardar los valores de las variables físicas o químicas medidas, para su posterior análisis y presentación. El elemento que interviene en esta última etapa es el propio ordenador, y para ello será imprescindible el empleo de aplicaciones (es decir, de software), que permitan realizar cada una de dichas tareas. El almacenamiento de datos consiste en guardar, en algún dispositivo de almacenamiento del ordenador, los valores de las variables o señales procedentes del equipo
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
901
o instrumento de laboratorio, que han sido leídas gracias a los detectores, transductores o sensores. Para que el ordenador pueda llevar a cabo esta tarea, será necesario implementar en él alguna aplicación destinada a tal fin. Se pueden encontrar en el mercado un buen número de aplicaciones software para adquisición de datos, de forma que el usuario debe decidirse por la más adecuada para su sistema o equipo, teniendo siempre en cuenta que algunas de estas aplicaciones están diseñadas para trabajar con una tarjeta digital o con una tarjeta ADC determinada. El análisis y presentación de resultados también serán realizados por el ordenador, apoyándose en aplicaciones software, normalmente gráficas, y en algunos periféricos del mismo, tales como impresoras, plotters, monitor, etc. La aplicación utilizada para el análisis y presentación de resultados puede ser la misma que realiza la adquisición de datos, o una aplicación distinta y específica para esta labor.
21.2.3. supervisión y control de equipos En el caso de que no solo se desee llevar a cabo la adquisición o lectura de determinadas variables de un equipo o instrumento, sino que también se quiera supervisar o controlar dichas variables, será imprescindible que el ordenador envíe la correspondiente señal u orden a ciertos dispositivos o elementos del equipo de laboratorio, para que estos actúen sobre los elementos finales de control.
21.2.3.1. Cálculo matemático: ordenador (Etapa 1) Imaginemos, con un ejemplo muy simple, que se desea mantener constante la temperatura de un recipiente en 80 ºC, y que para ello se cuenta con vapor para calefacción y con agua para refrigeración. En primer lugar, será necesario conocer a que temperatura se encuentra dicho recipiente en un instante dado, con el fin de saber si hay que calentar, o si se debe enfriar. Es decir, para poder controlar una variable hay que hacer una adquisición o lectura previa de la misma. Supongamos ahora, que el control que se va a llevar a cabo es un control todo/ nada. En este tipo de control se hará llegar vapor de calefacción, o agua de refrigeración, al recipiente abriendo una electroválvula, y esta válvula será todo/nada, es decir, solo tendrá dos posibles posiciones: abierta o cerrada. Por tanto, en este caso, solo será necesario que el ordenador envíe una señal eléctrica para abrir o cerrar las electroválvulas que permiten el paso de vapor de calefacción o de agua de refrigeración. Este sería el control más simple y sencillo que podríamos llevar a cabo y no requiere ningún tipo de cálculo matemático complejo por parte del ordenador. Supongamos, por el contrario, que además es posible fijar el flujo o caudal de vapor de calefacción y de agua de refrigeración, de manera que cuanto mayor sea la desviación de la temperatura del recipiente del punto de consigna fijado (80 ºC), mayor caudal de vapor o de agua se proporcionará. En este segundo caso se deberá disponer de válvulas proporcionales, es decir válvulas que, en función de su apertura, permitirán controlar el caudal de vapor o de agua de refrigeración. La señal que el
902
Técnicas de análisis y caracterización de materiales
ordenador deberá enviar será una señal proporcional a la desviación (error), de forma que regulará la apertura de la válvula necesaria para fijar un determinado caudal, y el software implementado en el ordenador deberá disponer de los algoritmos matemáticos necesarios para calcular la magnitud de esta señal. Los algoritmos de control pueden llegar a ser muy complejos (incluyendo en sus ecuaciones derivadas, integrales, etc.), llegando a ser tanto más complejos cuanto mayor es el número de variables a controlar en nuestro equipo o instrumento, ya que estas pueden interaccionar entre sí (incorporando mecanismos adaptativos, predictivos, etc.). Aquí no se van a desarrollar estos algoritmos matemáticos de control ya que su estudio exhaustivo sería objeto de un tratado completo sobre control.
21.2.3.2. Comunicación: dispositivos e interfases de comunicación digitales o tarjetas convertidoras digital-analógico (Etapa 2) Como ya se ha indicado es posible utilizar dos tipos distintos de interfases de comunicación: – Supervisión y control digital. Se establecerá una comunicación digital siempre que el equipo o instrumento de laboratorio cuente con una interfase de comunicaciones digital. – Supervisión y control analógico. En el supuesto de que el equipo de laboratorio no disponga de una interfase digital será necesario emplear una tarjeta convertidora digital-analógico (tarjetas DAC: Digital-Analogic Converters). Continuando con el ejemplo anterior, puesto que para comandar una válvula esta debe recibir una señal analógica, será necesario un elemento intermedio entre el ordenador y la válvula, que convierta la señal digital calculada por el algoritmo matemático en una señal analógica que comande la válvula. Estos elementos son las tarjetas convertidoras digital-analógico. Existe un buen número de fabricantes de este tipo de tarjetas, cuyo estudio será objeto de un apartado posterior.
21.2.3.3. Recepción de la señal: elementos intermedios y finales de control (Etapa 3) En una última etapa, la señal enviada por el ordenador será recibida por los elementos intermedios o finales de control: motores, válvulas, controladores másicos de flujo, bombas, dosificadores, etc., que llevarán a cabo las acciones oportunas, conforme a la señal recibida, para mantener controlada la variable. Los Esquemas 21.1, 21.2, 21.3 y 21.4 resumen en diagramas de flujo los puntos anteriores. Estos diagramas de flujo permiten apreciar claramente las diferencias entre las etapas a seguir y los elementos que intervienen en una adquisición de datos analógica y una adquisición de datos digital, o bien, entre el control analógico y el control digital.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
Variable físico-química: T, P, pH, ... (Señal analógica) MEDIDA DE SEÑALES
â DETECTOR, TRANSDUCTOR O SENSOR â Variable o cantidad eléctrica: V, I, ... (Señal analógica) â
COMUNICACIÓN DIGITAL DISPOSITIVO - PC
DISPOSITIVOS CON COMUNICACIONES DIGITALES â Mensaje según un código (binario) â TARJETAS DE COMUNICACIONES DIGITALES â
ALMACENAMIENTO, ANÁLISIS Y PRESENTACIÓN
Comunicación con el PC â ORDENADOR: HARDWARE Y SOFTWARE â Almacenamiento, análisis y presentación de resultados
Esquema 21.1. Etapas, elementos y señales de una adquisición de datos digital. Variable físico-química: T, P, pH, ... (Señal analógica) MEDIDA DE SEÑALES
â DETECTOR, TRANSDUCTOR O SENSOR â Variable o cantidad eléctrica: V, I, ... (Señal analógica) â TARJETAS ACONDICIONADORAS â
ACONDICIONAMIENTO Y CONVERSIÓN AD
Señal eléctrica amplificada o atenuada y filtrada (Señal analógica) â TARJETAS ADC â Señal digital â
ALMACENAMIENTO, ANÁLISIS Y PRESENTACIÓN
ORDENADOR: HARDWARE Y SOFTWARE â Almacenamiento, análisis y presentación de resultados
Esquema 21.2. Etapas, elementos y señales de una adquisición de datos analógica.
903
Técnicas de análisis y caracterización de materiales
904
CÁLCULO COMPUTACIONAL MATEMÁTICO
ORDENADOR: HARDWARE Y SOFTWARE â Comunicación con el PC â
COMUNICACIÓN DIGITAL DISPOSITIVO - PC
TARJETAS DE COMUNICACIONES DIGITALES â Mensaje según un código (binario) â
RECEPCIÓN DE LA SEÑAL
ELEMENTOS INTERMEDIOS Y FINALES DE CONTROL CON COMUNICACIONES DIGITALES â Modificación de la variable a controlar
Esquema 21.3. Etapas, elementos y señales de una supervisión y/o control digital.
CÁLCULO COMPUTACIONAL MATEMÁTICO
ORDENADOR: HARDWARE Y SOFTWARE â Señal digital â
CONVERSIÓN DA Y ACONDICIONAMIENTO
TARJETAS DAC â Señal analógica (Señal eléctrica) â
RECEPCIÓN DE LA SEÑAL
ELEMENTOS INTERMEDIOS Y FINALES DE CONTROL â Modificación de la variable a controlar
Esquema 21.4. Etapas, elementos y señales de una supervisión y/o control analógico.
21.2.4. control por ordenador y control distribuido Por último, hay que mencionar la diferencia entre el control por ordenador propiamente dicho y el control distribuido. Siguiendo con el ejemplo anterior, si el control se realiza por ordenador, este será el que directamente enviará la señal a las válvulas o electroválvulas, para controlar el caudal de vapor o de agua de refrigeración. Por tanto, el software para
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
905
control instalado en el ordenador deberá poseer los algoritmos matemáticos necesarios que permitan calcular el valor de la señal que el ordenador debe enviar a las válvulas. Si por el contrario, se lleva a cabo un control distribuido, el ordenador se limitará a enviar el punto de consigna (80 ºC) y otros parámetros tales como límites de alarma, valores de las constantes de control (PID), etc., a un elemento externo, denominado controlador, que será el que realmente comande las válvulas o electroválvulas. La principal ventaja del control distribuido es que cada una de las variables del equipo o instrumento va a estar controlada por elementos de control independientes entre sí y a su vez independientes del ordenador, de manera que si se produce un fallo en el ordenador el proceso seguirá igualmente controlado, por lo que ofrece mayor seguridad. Como contrapartida, el control distribuido implica una mayor inversión inicial en equipamiento.
21.3. señales analóGicas y diGiTales Las propiedades físicas o químicas objeto de medida pueden ser muy diversas: temperatura, presión, fuerza, velocidad, posición, flujo o caudal, pH, intensidad de corriente, voltaje, etc. Como ya se ha dicho, para que estas variables puedan ser medidas o controladas utilizando un ordenador, deben ser primero convertidas a variables eléctricas, tales como voltaje o intensidad de corriente, y posteriormente digitalizadas, si se va a utilizar un sistema SCADA basado en ADC y DAC.
21.3.1. diferencia entre señales analógicas y señales digitales La gran mayoría de los procesos o fenómenos del mundo real vienen representados por funciones analógicas, es decir, por funciones continuas a lo largo del tiempo y que pueden tomar cualquier valor en un instante determinado de tiempo. Así pues, los detectores, transductores o sensores que, como se ha visto, son los elementos que posibilitan la medida de las variables físicas o químicas, operarán sobre señales analógicas, las cuales son siempre continuas y monotónicas, esto es, su valor puede moverse únicamente dentro de un rango determinado, y además este valor solo puede sufrir una pequeña variación (ya sea incremento o disminución) en un corto intervalo de tiempo. De igual forma, la señal que proporciona un detector, sensor o transductor sigue siendo una señal analógica, aunque este habrá transformado la propiedad o variable físico-química medida en una propiedad o cantidad eléctrica (voltaje o intensidad de corriente). Para ser leídos y almacenados por un ordenador, los datos deben estar en forma digital. Las señales digitales toman valores discretos, es decir, únicamente pueden tener ciertos valores permitidos, y son discontinuas, esto es, debe transcurrir un intervalo de tiempo especificado para que se produzca una variación en su valor. Cuando este intervalo de tiempo es lo suficientemente pequeño, la señal digital llega a ser una buena aproximación de la señal analógica (Figura 21.3).
Técnicas de análisis y caracterización de materiales
906
(a)
(b)
Figura 21.3. Señal analógica (a) y su aproximación a señal digital (b).
Según todo lo anterior, antes de llevar una señal hasta el ordenador habrá que transformarla en digital. La conversión de una señal analógica en una señal digital se hace basándose en el código binario.
21.3.2. el código binario Existen distintos sistemas numéricos, dependiendo del número de dígitos que se utilicen para expresar un determinado valor. El sistema numérico más empleado es el sistema decimal, que utiliza diez dígitos, de ahí su nombre, los números del «0» al «9» (ambos inclusive). Otro sistema numérico muy empleado, sobre todo en informática, es el sistema hexadecimal, que utiliza 16 dígitos para representar un valor, los números del «0» al «9» y las letras de la «A» a la «F». El sistema hexadecimal se tratará posteriormente. Un tercer sistema numérico, también muy empleado en informática, es el sistema octal, que utiliza ocho dígitos, los números del «0» al «7». En realidad, existen tantos sistemas numéricos como se puedan imaginar, siempre que se disponga de distintos números, letras, símbolos, o en general, caracteres alfa-numéricos. El sistema binario utiliza únicamente dos dígitos, el «0» y el «1», para expresar cualquier valor numérico. Al igual que en cualquier sistema numérico, el número de valores o estados posibles que pueden venir representados por un número binario, dependerá de la cantidad de dígitos que se utilicen para ello, así, si se emplean «n» dígitos (ceros o unos), se podrán representar 2n estados posibles. En la Tabla 21.1 se indican el número de valores posibles que podrán obtenerse dependiendo de la cantidad de dígitos binarios que se utilicen y en la Tabla 21.2 se recogen los números binarios de 2 y 3 dígitos.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
907
Tabla 21.1. núMerO de valOres POsibles seGún el núMerO de díGiTOs binariOs eMPleadO número de dígitos
estados posibles
1
21 = 2
2
22 = 4
3
23 = 8
4
24 = 16
5
25 = 32
6
26 = 64
7
27 =128
8
28 = 256
9
29 = 512
10
210 = 1024
11
211 = 2048
12
212 = 4096
Tabla 21.2. valOr deciMal cOrresPOndienTe a lOs núMerOs binariOs de 2 y 3 díGiTOs binario (2 dígitos)
decimal
binario (3 dígitos)
decimal
00
0
000
0
01
1
001
1
10
2
010
2
11
3
011
3
100
4
101
5
110
6
111
7
21.3.2.1. Conversión de decimal a binario Para convertir un número decimal en binario, hay que realizar sucesivas divisiones por «2», hasta obtener un cociente igual a «1», tal como se muestra a continuación. El dígito de menor peso, es decir, el primer dígito por la derecha, será el resto de la primera división efectuada, y así sucesivamente, hasta llegar al último cociente obtenido, que será el primer dígito por la izquierda, o sea, el dígito de mayor peso, y el resto de la última división será el segundo dígito empezando por la izquierda. Seguidamente pueden verse dos ejemplos.
908
Técnicas de análisis y caracterización de materiales
85 / 2 = 42 (cociente) + 1 (resto) à Dígito de menor peso (derecha) 42 / 2 = 21 (cociente) + 0 (resto) 21 / 2 = 10 (cociente) + 1 (resto) 10 / 2 = 5 (cociente) + 0 (resto) 5 / 2 = 2 (cociente) + 1 (resto) 2 / 2 = 1 (cociente) + 0 (resto) à 2º Dígito empezando por la izquierda â Dígito de mayor peso Según esto, el número binario correspondiente a «85» es «1 0 1 0 1 0 1» 128 / 2 = 64 (cociente) + 0 (resto) à Dígito de menor peso (derecha) 64 / 2 = 32 (cociente) + 0 (resto) 32 / 2 = 16 (cociente) + 0 (resto) 16 / 2 = 8 (cociente) + 0 (resto) 8 / 2 = 4 (cociente) + 0 (resto) 4 / 2 = 2 (cociente) + 0 (resto) 2 / 2 = 1 (cociente) + 0 (resto) à 2º Dígito empezando por la izquierda â Dígito de mayor peso Es decir, el número decimal «128» es en binario «1 0 0 0 0 0 0 0».
21.3.2.2. Conversión de binario a decimal 21.3.2.2.1. Números enteros y positivos Cada uno de los n dígitos necesarios para representar 2n valores debe tener un peso diferente. Por convenio, el dígito situado más a la derecha es el de menor peso, asignándosele un valor, en decimal, de 20 y el dígito situado más a la izquierda es el de mayor peso, correspondiéndole un valor, en decimal, de 2n–1. Generalizando, el bit en posición m tiene un valor en decimal de 2m. Para calcular el valor que un número binario representa en sistema decimal, se suma el valor correspondiente a cada uno de sus dígitos, también en decimal, multiplicado por el valor del propio dígito en binario (es decir, por 0 o por 1). Así, por ejemplo, el número binario, de 8 dígitos, 01010101 representa un valor, expresado en decimal de 85, ya que: Digito: 0 1 0 1 0 1 0 1 Posición: 7 6 5 4 3 2 1 0 valor: 27 26 25 24 23 22 21 20 valor (en decimal): 128 64 32 16 8 4 2 1 (0 × 128) + (1 × 64) + (0 × 32) + (1 × 16) + (0 × 8) + (1 × 4) + (0 × 2) + (1 × 1) = 85 21.3.2.2.2. Números enteros positivos y negativos En ocasiones, es necesario representar tanto valores positivos como negativos, y en este caso hay que utilizar un convenio, ya que puede haber varias posibilidades; seguidamente se explican los dos convenios más empleados:
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
909
– Primero: se calcula el valor en decimal, correspondiente al número binario, como si el dígito binario de mayor peso no existiera, y después se añade el signo, que será «positivo» si el dígito binario de mayor peso es un «0», y será «negativo» si el dígito binario de mayor peso es un «1». Aunque lo normal es lo que se acaba de indicar, también puede darse el caso de que si el dígito binario de mayor peso es un «0» se asigne el signo «negativo» al número en decimal, y si el dígito binario de mayor peso es un «1» se le asigne el signo «positivo». Siguiendo este criterio, con n dígitos, podemos representar 2n valores distintos, comprendidos entre –(2n – 1 – 1) y +(2n – 1 – 1), existiendo dos números binarios que representan el «0» (véase Tabla 21.3). – Segundo: los números binarios cuyo dígito de mayor peso es un «0» representan los números decimales positivos, calculándose el valor del número decimal tal como se hace normalmente. Los números binarios cuyo dígito de mayor peso es un «1» representan los números decimales negativos, y el valor de estos se calcula aplicando el método denominado de los complementarios a dos. Este método consiste en restarle «1» al número binario en cuestión, y después cambiar los «0» por «1» y los «1» por «0» respectivamente. Por ejemplo, si partimos del número binario de 3 dígitos «1 1 0», al restarle «1» se obtendrá «1 0 1», y al cambiar los «0» por «1» y los «1» por «0» quedará «0 1 0», que es el número decimal 2. Por tanto, el decimal negativo correspondiente a «1 1 0», según el método de los «complementarios a dos», es «–2». Como puede observarse, al aplicar este método, con n dígitos binarios podremos representar 2n valores diferentes, que variarán entre –2n – 1 y +2n – 1 – 1. En la Tabla 21.3 se indica la correspondencia entre los 8 posibles números binarios de 3 dígitos y su valor positivo o negativo, expresado en decimal, calculado por los dos métodos explicados antes. Tabla 21.3. disTinTOs MéTOdOs de cOnversión de binariO a deciMal binario
decimal (positivo)
decimal (positivo y negativo) Método 1
decimal (positivo y negativo) Método 2
000
0
+0
+0
001
1
+1
+1
010
2
+2
+2
011
3
+3
+3
100
4
–0
–4
101
5
–1
–3
110
6
–2
–2
111
7
–3
–1
21.3.2.2.3. Números fraccionarios Un número binario puede, también, utilizarse para representar números fraccionarios. En este caso, con n dígitos binarios se podrán representar 2n valores diferen-
Técnicas de análisis y caracterización de materiales
910
tes, que estarán comprendidos entre 0 y 1-2-n. El peso de un dígito binario situado en la posición «m» es un valor fraccionario, igual al cociente resultante de dividir 2m por 2n. Así por ejemplo, el bit de mayor peso tendrá un valor de 1/2, ya que se calcula como 2n – 1/2n = 2–1, siguiendo de izquierda a derecha, el siguiente dígito tendrá un valor de 1/4, el siguiente 1/8, y así sucesivamente. El valor decimal que representan los números binarios fraccionarios de 3 dígitos puede verse en la Tabla 21.4. Tabla 21.4. cOrresPOndencia enTre binariOs fracciOnariOs y deciMales binario
decimal fraccionario
0.0 0 0
0/8 = 0
0.0 0 1
1/8
0.0 1 0
2/8 = 1/4
0.0 1 1
3/8
0.1 0 0
4/8 = 1/2
0.1 0 1
5/8
0.1 1 0
6/8 = 3/4
0.1 1 1
7/8
Hay que hacer notar, que no tiene el mismo valor el número 0.0 0 1, que como se acaba de ver es 1/8, que el número 0.0 0 0 1, cuyo valor es 1/16, o que el número 0.0 0 0 0 1, que representa 1/32.
21.3.3. conceptos: bit, byte y palabra Los términos bit, byte y palabra son muy empleados en informática, y es imprescindible entender su significado para comprender los siguientes apartados.
21.3.3.1. Concepto de BIT El término bit es la abreviatura de binary digit (dígito binario). Así, pues al hablar de un «bit» nos referiremos a un dígito binario, que puede tomar los valores «0» o «1». En ocasiones, también se habla de «verdadero» y «falso» o de «on» y «off».
21.3.3.2. Concepto de BYTE El término byte se define como un conjunto de 8 bits, y, por tanto, puede representar 28 = 256 valores discretos posibles, o estados, dentro del rango 0 a 255 (o –128 a +127). La Tabla 21.5 indica la equivalencia de otras unidades empleadas y los símbolos con que se representan.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
911
Tabla 21.5. eQUivalencias enTre disTinTas Unidades Unidad
símbolo representado
equivale a: Un valor que puede ser 0 ó 1
Bit
–
Byte
–
8 bits
Kilobyte
K, KB
2 = 1024 bytes
Megabyte
MB
210 = 1024 KB
Gigabyte
GB
210 = 1024 MB
Terabyte
TB
210 = 1024 GB
10
21.3.3.3. Concepto de PALABRA El término palabra se define como un conjunto de bytes ordenados secuencialmente para representar un dato, mensaje o instrucción. El número de bytes que compone una palabra es variable, siendo usualmente 1, 2, 4 u 8.
21.3.4. convertidores analógico-digital (adc) y convertidores digital-analógico (dac) La conversión de datos es el corazón de los sistemas de adquisición de datos y control analógico por ordenador. En primer lugar, se hará una pequeña exposición a cerca de los DAC, ya que estos son generalmente más simples que los ADC, incluso muchos ADC contienen DAC como parte de sus circuitos. Los DAC utilizan técnicas de conversión de intensidad de corriente y de voltaje para producir un valor analógico de salida igual a la suma de varios valores analógicos discretos. Debido a la sencillez de sumar intensidades de corriente (más que de voltajes), utilizando circuitos analógicos, la gran mayoría de los DAC trabajan con intensidades de corriente. Primero realizan la suma de las fuentes de corriente internas y después convierten esta intensidad de corriente en un voltaje. Tal como se ha visto al principio de este capítulo, una señal analógica varía de forma continua con el tiempo, pudiendo tomar cualquier valor dentro del rango en el cual se mueve dicha señal. Por el contrario, una señal digital, por definición, únicamente puede tomar unos determinados valores o niveles discretos, de forma que su variación se produce de forma discontinua, pasando de uno de los valores o niveles posibles al siguiente cuando transcurre un corto intervalo de tiempo. Según esto, para convertir una señal analógica en digital, o viceversa, será necesario encontrar una función matemática tal que el error cometido al hacer esta transformación sea lo menor posible en todo el rango de variación de la señal. Por otra parte, y puesto que dicha conversión analógica-digital (AD) o digital-analógica (DA) la va a llevar a cabo un circuito eléctrico, hay que conocer cómo trabajan estos circuitos. La mayor parte de los equipos y componentes eléctricos o electrónicos trabajan con señales TTL (Transistor Transistor Logic). Una señal TTL es una señal de corriente eléctrica (y por tanto se expresa como un voltaje), de muy baja intensidad.
Técnicas de análisis y caracterización de materiales
912
Los dos valores estándar de voltaje que determinan los umbrales de las señales TTL, son 2,4 v y 0,8 v. Con el fin de poder realizar una similitud matemática, estos dos valores se asocian a los dos valores posibles del sistema binario, es decir 0 y 1. Así, una señal TTL igual o superior a 2,4 v (nivel alto) corresponde a un 1 del sistema binario, y una señal TTL igual o inferior a 0,8 v (nivel bajo) a un 0 del sistema binario. Una señal con un valor comprendido entre 0,8 v y 2,4 v se entiende como incertidumbre. También se habla, en ocasiones, de verdadero y falso o de on y off, para hacer referencia a estos dos estados posibles.
21.3.4.1. Tipos de DAC y características Seguidamente se muestran algunos esquemas de circuitos de DAC, y se explica la base de su funcionamiento. La Figura 21.4 muestra un DAC de 3 bits, es decir, capaz de diferenciar 8 valores diferentes. Un decodificador lógico decodifica la señal de 3 bits de entrada generando 8 señales en otras tantas líneas, cada una de las cuales corresponde a cada uno de los 8 estados posibles. Cada línea controla un switch, dejando o no pasar la corriente de una fuente conectada a él. De esta forma, la corriente aumenta progresivamente al aumentar el código digital, ya que se van activando sucesivamente los switch que permiten el paso de corriente.
BITS DE ENTRADA
Figura 21.4. DAC de 3 bits.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
913
La ventaja de este DAC es que proporciona una señal analógica monotónica, pero presenta como desventaja que el número de fuentes de corriente necesarias es igual al número de estados posibles requeridos menos uno. Así, para 4096 estados posibles diferentes (12 bits de resolución) serán necesarios 4095 fuentes, lo que es totalmente inviable en la práctica. Otro tipo de DAC es el esquematizado en la Figura 21.5, el cual emplea distintas resistencias, siendo el valor de cada una de ellas el doble que el de la resistencia anterior (2K, 4K y 8K). Cada bit controla un switch que cierra o abre un circuito, permitiendo o no el paso de corriente a través de la resistencia que hay en ese circuito. La corriente total de salida dependerá de por cuales de las 3 resistencias este circulando corriente en cada instante.
Figura 21.5. DAC de 3 bits de resistencias.
La principal ventaja de este DAC, frente al esquematizado en la Figura 21.4 es que solo requiere un switch y una resistencia por cada bit; sin embargo, presenta como inconveniente la necesidad de que el valor de las resistencias empleadas tenga que ser muy exacto, ya que de lo contrario se pueden producir errores considerables durante el proceso de conversión digital-analógico. El DAC de la Figura 21.6 es muy similar al anterior, pero emplea resistencias con solo 4 valores distintos (2K, 4K, 8K y 16K), que se repiten sucesivamente. La corriente que circula por las resistencias correspondientes a los 4 bits menos significativos está atenuada por otra resistencia que se intercala, y que tiene un valor de 16K. (LSB) Bit 0 Bit 1
Bit 2 Bit 3
Bit 4
Bit 5
Bit 6 Bit 7 (MSB)
8K
4K
Vref 16K
8K
4K
2K
16K
2K
16K
Figura 21.6. DAC de 8 bits de resistencias.
1K
Vout
Técnicas de análisis y caracterización de materiales
914
Otra variante de este tipo de DAC es la esquematizada en la Figura 21.7, en la que solo se emplean resistencias de dos valores distintos (R y 2R).
Vref
R
R
R
R
R
R
R
2R
2R
2R
2R
2R
2R
2R
2R 2R
R
Vout (MSB) Bit 7 Bit 6
Bit 5
Bit 4
Bit 3
Bit 2
Bit 1 Bit 0 (LSB)
Figura 21.7. DAC de 8 bits de resistencias de valor R-2R.
Los principales parámetros que caracterizan un DAC son los siguientes: – Número de bits de resolución: el número de bits de resolución más frecuentes en las tarjetas comerciales es de 8, 12 o 16. – Tiempo de conversión: es el tiempo necesario para que la señal de salida alcance la estabilidad cuando la señal de entrada varía. Este tiempo determina la velocidad de conversión y suele ser del orden de unos pocos microsegundos. – Linealidad: es la máxima desviación de la curva de transferencia respecto de la línea recta ideal. Normalmente se expresa como una fracción de la escala completa. – Monotonicidad: un DAC se considera monotónico cuando su salida se incrementa siempre al aumentar la señal digital de entrada. Un DAC no-monotónico presentará una caída en su curva de transferencia.
21.3.4.2. Tipos de ADC y características El ADC denominado de rampa simple, esquematizado en la Figura 21.8, consta de los siguientes componentes: – – – –
Un contador digital. Un DAC. Un comparador analógico. Un control lógico.
Su funcionamiento es simple, cuando se genera la señal para que se efectúe una conversión, el contador digital comienza a contar desde 0; tal como va contando, se va incrementando la señal de salida proporcionada por el DAC, y el «comparador» compara la señal analógica de entrada con la proporcionada por el DAC. Cuando ambas coinciden, o cuando la señal del DAC es superior a la señal analógica de entrada, el comparador le indica al «logic control» que la conversión ha finalizado, y el valor que hay en el contador digital es el resultado de la conversión.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
ENTRADA ANALÓGICA
915
+ COMPARADOR -
DAC SALIDA DIGITAL
RELOJ
n CONTADOR DIGITAL
FINAL DE CONVERSIÓN
CONTROL LÓGICO
PRINCIPIO DE CONVERSIÓN
Figura 21.8. ADC de rampa simple.
La secuencia de conversión típica de un ADC de rampa simple viene representada en la Figura 21.9. SALIDA DEL DAC
Full Scale
FS
3/4 FS
1/2 FS
1/4 FS
TIEMPO DE CONVERSIÓN (CICLOS DE RELOJ)
Figura 21.9. Salida de un ADC de rampa simple.
Técnicas de análisis y caracterización de materiales
916
Otro tipo de ADC es el denominado de aproximaciones sucesivas, esquematizado en la Figura 21.10, que es el más comercializado y consta de: – – – –
Un contador digital. Un DAC. Un comparador analógico. Un control lógico con registro de tiempo. ENTRADA ANALÓGICA
+ COMPARADOR -
DAC SALIDA DIGITAL
RELOJ
n CONTADOR DIGITAL
FINAL DE CONVERSIÓN PRINCIPIO DE CONVERSIÓN
CONTROL LÓGICO
Figura 21.10. ADC de aproximaciones sucesivas.
El funcionamiento es idéntico al anterior, pero el contador no comienza desde 0, ni incrementa su valor de 1 en 1 cada vez, sino que se comienza por el valor medio, y el siguiente valor a comparar será siempre la media de los 2 últimos valores seleccionados. Su secuencia de salida se representa en la Figura 21.11. Su principal ventaja es que realiza la conversión analógico-digital más rápidamente que el modelo anterior. Los principales parámetros que caracterizan un ADC se enumeran a continuación: – Rango dinámico: es una relación entre el máximo valor que puede ser medido y el valor más pequeño que puede ser resuelto. Este número se expresa en decibelios (dB) como: Rango Dinámico (dB) = 20 * log10 (vmáx / vmín) Si se miden tanto valores negativos como positivos, entonces: valor Máximo = vmáx. positivo – vmín. negativo Así, por ejemplo, un sistema de adquisición de datos con una resolución (mínimo cambio que puede ser medido) de 1 mv y un rango de valores a medir en-
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador SALIDA DEL DAC
917
Full Scale
FS
3/4 FS
1/2 FS
1/4 FS
TIEMPO DE CONVERSIÓN (CICLOS DE RELOJ)
Figura 21.11. Salida de un ADC de aproximaciones sucesivas.
tre 0 y +10 V (o entre –5 y +5 V), tendrá un rango dinámico de 10.000 / 1 (es decir, 80 dB). Este valor del rango dinámico requiere un mínimo de 14 bits para poder ser representado (ya que 214 = 16.384, pero 213 = 8.192). – Resolución: es el cambio más pequeño que se puede detectar en una medida. Puede venir expresado de varias formas, aunque normalmente se habla de «número de bits de resolución», siendo 8 bits o 12 bits lo más usual. Pero también puede especificarse en función de los valores posibles de salida determinados por el número de bits. Así, por definición, se dice que un ADC de n bits, capaz de generar 2n valores de salida, posee una resolución de 1/2n. – Velocidad de muestreo o de conversión: es el número de lecturas completas que es capaz de efectuar por segundo el ADC. Este parámetro es muy importante cuando las señales a medir cambian muy rápidamente. Para que una señal analógica pueda ser digitalizada, de forma correcta, por un ADC, debe ser muestreada por este a una velocidad al menos 2 veces superior (doble) a la frecuencia de cambio de dicha señal. – Precisión: se trata de una medida de las fuentes de error, y se define como la diferencia entre el voltaje de entrada ideal y el voltaje de entrada real para producir una salida determinada, generalmente se expresa como un porcentaje de la escala total. Las fuentes de error que contribuyen a alterar la precisión son el offset, la ganancia y los errores de no linealidad. • Un error de offset desplaza la totalidad de la curva provocando un error siempre constante, pero sin alterar la forma de la curva salida versus entrada. Este tipo de error puede corregirse ajustando el voltaje de referencia de la señal analógica. • Un error de ganancia modifica la pendiente de la recta, por lo que el error al digitalizar será tanto mayor a medida que aumenta el valor de la señal digital de entrada. Estos errores son más difíciles de corregir. • Un error de no linealidad se define como la máxima desviación respecto a la función de transferencia lineal, una vez corregidos los errores de offset y de ganancia.
Técnicas de análisis y caracterización de materiales
918
La Figura 21.12 muestra los distintos tipos de errores que se pueden originar durante una conversión analógico-digital. SALIDA DIGITAL
111 110 101 100 011 Libre de errores
010 001 000 0/8
1/8
2/8
3/8
4/8
5/8
6/8
7/8
ENTRADA ANALÓGICA (fracción de la escala total) SALIDA DIGITAL
111 110 101 100 011 Error de offset (desplazamiento de 0)
010 001 000 0/8
1/8
2/8
3/8
4/8
5/8
6/8
7/8
ENTRADA ANALÓGICA (fracción de la escala total) SALIDA DIGITAL
111 110 101 100 011 Error de ganancia
010 001 000 0/8
1/8
2/8
3/8
4/8
5/8
6/8
7/8
ENTRADA ANALÓGICA (fracción de la escala total)
Figura 21.12. Errores típicos en la conversión analógico-digital.
En apartados posteriores, se estudiarán las tarjetas para adquisición de datos y control por ordenador (denominadas, tradicionalmente, interfases no estándar), que inclu-
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
919
yen DAC y ADC, y se detallarán las características y parámetros que deberemos tener en cuenta a la hora de seleccionar la más conveniente para nuestro sistema.
21.4. el OrdenadOr La gran revolución de la informática se produjo a principios de la década de los años ochenta, con la introducción en el mercado de los ordenadores personales. Esta revolución se inició en 1981, cuando la compañía IBM presento el primer PC. El éxito del mismo fue tal que muy pronto comenzaron a surgir ordenadores compatibles IBM, es decir, ordenadores personales construidos por otras compañías y en los cuales podían funcionar los mismos programas o aplicaciones que lo hacían en los auténticos IBM. Esta compatibilidad se extendió también a los elementos físicos (hardware) de las máquinas, de manera que era posible intercambiar partes de los PC entre ordenadores fabricados por compañías diferentes. Este hecho, junto con la rápida evolución de los PC y con el desarrollo de paquetes de software útiles para las más variadas aplicaciones, ha hecho crecer el mercado de los ordenadores personales hasta cotas insospechadas. Por otra parte, la aparición masiva de compañías que fabrican compatibles, ha aumentado la competencia entre las mismas, y como consecuencia se ha reducido en gran medida el precio de los equipos. Todo lo citado, a lo que hay que añadir el auge que han experimentado las comunicaciones a través de ordenador, ha llevado a que hoy día los ordenadores personales (y más concretamente los compatibles) tengan aplicación en prácticamente todas las áreas de la vida (ofimática, ciencia, arquitectura, ingeniería, medicina, educación, ocio, etc.). A continuación se enumeran los distintos componentes de un ordenador, representados en la Figura 21.13. Esta enumeración no pretende ser exhaustiva, sino únicamente proporcionar una idea o visión general de los componentes que integran cualquier ordenador compatible y de su función dentro del mismo. 3
2
4 5 1
6
7 10
8 9
Figura 21.13. Componentes de un ordenador.
Técnicas de análisis y caracterización de materiales
920
21.4.1. Hardware: componentes de un Pc El hardware de un ordenador puede definirse como el conjunto de dispositivos físicos que lo componen. En términos muy generales, un ordenador esta formado por: – Una unidad central. – Una serie de periféricos de entrada y de salida. El esquema 21.5 resume los componentes principales de que consta cualquier ordenador, destacándose en negrita aquellos que interesan desde el punto de vista de la adquisición de datos, supervisión y control por ordenador y que serán explicados con mayor detalle en los puntos siguientes. Fuente de alimentación [6] Microprocesador (+ coprocesador) [3] Bus de transmisión de datos Placa Base [2]
Memorias: RAM y ROM [4] Ranuras de expansión (SLOTS) [5] Puertos o interfases: Serie y Paralelo Otros: niveles IRQ, canales DMA, ...
Unidad central Dispositivos de almacenamiento
PC
Tarjetas y Adaptadores [5]
Dispositivos de Entrada
Disqueteras: 3 1/2", unidades ZIP, … CD, DVD, ... [7] Discos Duros [8] de vídeo, de red, com. digitales, ADC-DAC... Teclado [9] Ratón [10] Otros: escáner, lápiz óptico, micrófono, ...
Periféricos
Monitor [1] Dispositivos de Salida
Impresora Otros: plotter, altavoces, ...
Esquema 21.5. Componentes de un ordenador (véase figura 21.13).
La unidad central de cualquier ordenador esta integrada por: – La fuente de alimentación, encargada de proporcionar corriente eléctrica a cada uno de los dispositivos del ordenador. Es habitual que la fuente de alimentación incorpore un ventilador, para disminuir el calor que disipan los circuitos electrónicos de la unidad central.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
921
– Los dispositivos de almacenamiento, que se utilizan para guardar la información, de forma que el usuario pueda recuperarla en cualquier momento y trabajar con ella. – Diversas tarjetas o adaptadores, tales como la tarjeta de video, tarjetas MODEM-fax, el adaptador de red, y por supuesto interfases para comunicaciones digitales o tarjetas ADC o DAC. – La placa base o placa madre (Figura 21.14), es una tarjeta con multitud circuitos integrados (chips), entre los cuales podemos citar: el microprocesador, los chips de memoria, la ROM BIOS, etc. Los principales elementos de una placa base son: • El microprocesador (y coprocesador matemático). • La memoria (RAM y ROM). • Los puertos o interfases de comunicación (serie y paralelo). • Las ranuras de expansión o slots. • La placa base permite trabajar con varios niveles de interrupciones hardware (IRQ = Interrupt Request, varios canales de acceso directo a memoria (DMA = Direct Memory Access) y varios temporizadores/contadores. • El bus de datos o canal a través del cual se transmite la información. Ranura PCI
SW3
BIOS con redstorm Ranura CNR
USB Zócalo CPU Puerto joystick/MIDI Puerto paralelo
Ranura AGP SW1
SW2 Conector ATX alimentación
USB USB
Conector ventilador
Batería
IDE2
Conectores memoria DDR 266
IDE1
Figura 21.14. Placa base de un ordenador.
Existen numerosos tipos de periféricos que pueden conectarse a la unidad central, algunos de ellos son indispensables para el funcionamiento del ordenador y otros son simplemente dispositivos opcionales que facilitan cierto tipo de tareas. Se
Técnicas de análisis y caracterización de materiales
922
entiende por periférico, cualquier dispositivo externo que pueda conectarse a la unidad central de procesos, con el fin de poder introducir, almacenar o dar salida a los datos del ordenador. Dependiendo de su función, los periféricos se clasifican en: – Periféricos de entrada: son aquellos que utiliza el usuario para introducir datos en el ordenador (teclado, ratón, etc.). – Periféricos de salida: son los dispositivos que sirven para presentar al usuario los datos o información ya procesada por el ordenador (monitor, impresora, etc.). – Periféricos de almacenamiento: son los empleados para guardar o almacenar los datos en el ordenador. Aunque en la mayoría de las ocasiones los dispositivos de almacenamiento están integrados en la unidad central, también es posible encontrar dispositivos de almacenamiento externos (discos duros, disquetes, CR, DvD, etc.). En los puntos siguientes se van a explicar con más detalle aquellas partes o componentes de un ordenador que tienen una importancia más relevante en los sistemas de adquisición de datos, supervisión y control por ordenador, y cuyo conocimiento va a ser fundamental para entender las bases del funcionamiento del hardware y el software que se emplea en dichos sistemas. La Figura 21.15 esquematiza el funcionamiento de un ordenador. En ella se puede apreciar como cualquier información pasa necesariamente por la memoria RAM antes de ser procesada y enviada a algún dispositivo de salida. TECLADO
MEMORIA
MICROPROCESADOR DISCOS
MONITOR
Figura 21.15. Esquema básico del flujo de información en un PC.
21.4.1.1. El microprocesador Un microprocesador es un circuito integrado compuesto por cientos de miles o incluso millones de transistores, resistencias, diodos y otros elementos miniaturizados de circuitos electrónicos que se colocan en un único chip de silicio, con un tamaño de unos pocos mm2. El microprocesador se encarga de dirigir todas las operacio-
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
923
nes y es el verdadero cerebro del ordenador. Existen distintos tipos de procesadores en función de su potencia y velocidad. El microprocesador está formado por una unidad de control que interpreta las instrucciones a realizar, una unidad aritmético-lógica, que realiza las operaciones lógicas y matemáticas, y un conjunto de registros o zonas donde se guardan los datos que se están procesando. Todos los datos que utiliza el ordenador tienen que pasar obligatoriamente por el microprocesador para que puedan ser procesados. Los ordenadores actuales pueden incorporar varios procesadores en la placa base. Existen muchos microprocesadores distintos, con diferentes potencias y prestaciones. Incluso dentro del mismo tipo de microprocesador, hay diferencias en cuanto a su velocidad. La velocidad de un microprocesador, se mide en MHz o GHz (millones o miles de millones de ciclos por segundo), y viene marcada por el reloj interno del mismo, es decir, por el número de pulsos por segundo que este genera. Cada vez que el reloj del microprocesador genera un pulso el microprocesador lleva a cabo una operación.
21.4.1.2. La memoria Se pueden encontrar dos tipos de memoria en cualquier ordenador compatible: – Memoria ROM. Hay dos características a destacar sobre este tipo de memoria: en primer lugar, hay que señalar que la ROM (Read Only Memory), tal como indica su nombre, es una memoria solo de lectura, por tanto, las rutinas grabadas en la ROM son inmodificables; y en segundo lugar, que se trata de memoria no volátil, es decir, los programas o rutinas almacenados en la ROM no se pierden al apagar el ordenador, sino que se mantienen en los chips de la ROM durante toda su existencia. Las dos características arriba descritas, hacen de la ROM el tipo de memoria ideal para guardar las rutinas básicas a nivel de hardware, por ejemplo el programa de inicialización que debe ejecutarse cada vez que se arranca el ordenador. Siempre existen chips de ROM integrados en la placa base del ordenador y en algunas tarjetas que se instalan para controlar ciertos periféricos del mismo. Por ejemplo, en la placa base se encuentran los chips de la ROM BIOS, que es el conjunto de rutinas más importante para comunicarse con los dispositivos. También las tarjetas de vídeo, las controladoras de discos y los adaptadores de red poseen un chip de ROM con rutinas especiales para gestionar dichos periféricos. – Memoria RAM. La filosofía general del ordenador es muy simple: recibe datos del usuario a través de algún periférico de entrada, procesa dichos datos en el microprocesador y presenta el resultado en algún periférico de salida. Ahora bien, el microprocesador no recibe los datos directamente de los periféricos de entrada, ni los envía directamente a los periféricos de salida, sino que los datos son almacenados temporalmente en la memoria RAM (Random Access Memory), que como su nombre indica es una memoria de acceso aleatorio. La RAM es una memoria de lectura y escritura, que permite la lectura y escritura de datos cuantas veces sea necesario. La RAM presenta dos ventajas muy im-
Técnicas de análisis y caracterización de materiales
924
portantes, por una parte, trabaja a gran velocidad y, por otra, el microprocesador puede acceder directamente a los datos almacenados en ella. Siempre hay que tener en cuenta que el contenido de la RAM se pierde al apagar el ordenador, es por consiguiente, una memoria volátil. La memoria RAM de un ordenador compatible se divide en varias zonas, dando lugar al mapa de memoria, que permite diferenciar distintos tipos de RAM (Figura 21.16), cada zona o posición de memoria es diferenciada del resto por su dirección, expresada en hexadecimal. En el mapa de memoria de un PC se distinguen las siguientes zonas y tipos de memoria: • Memoria convencional, que comprende los primeros 640 KB de memoria RAM. • Memoria superior, que abarca desde los 640 KB hasta los 1024 KB, correspondiendo a las direcciones comprendidas entre A0000h y FFFFFh. • Memoria alta, formada por 64 KB, comprendidos entre 1024 y 1088 KB. • Memoria extendida y memoria expandida, situada por encima de los 1024 KB, a la que corresponde las direcciones a partir de 100.000h. El modo en que se maneja la memoria RAM en un ordenador personal depende, en último término, del sistema operativo empleado. Los sistemas operativos más frecuentemente utilizados en la actualidad, y las aplicaciones o los programas que bajo ellos se ejecutan hacen uso de la memoria RAM de un PC de manera totalmente transparente al usuario. MEMORIA EXTENDIDA XMS 1088 Kb 1024 Kb MEMORIA SUPERIOR
MEMORIA CONVENCIONAL
640 Kb
0 Kb
Figura 21.16. Mapa de memoria (RAM) de un PC.
21.4.1.3. Puertos o interfases de comunicación Una interfase o puerto es un elemento que permite conectar un periférico al ordenador y establecer una comunicación con él. Cualquier ordenador compatible incluye dos tipos de puertos de forma estándar:
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
925
– Puerto serie: los puertos serie incluidos tradicionalmente en los ordenadores compatibles siguen la norma RS-232C. El MS-DOS soportaba hasta 4 puertos serie, que reciben el nombre de COM1, COM2, COM3 y COM4. Los puertos serie son más versátiles y polivalentes, aunque más lentos, utilizándose para conectar al ordenador diferentes tipos de dispositivos: ratones, módem, plotters, etc. En los últimos años se han incorporado otro tipo de puertos serie, como puertos USB (Universal Serial Bus) o puertos IEEE 1394 (o firewire). – Puerto paralelo. El puerto paralelo integrado en los PC sigue la especificación Centronics. Un ordenador puede tener más de un puerto paralelo (el MS-DOS soportaba hasta 3 puertos paralelos), denominados LPT1, LPT2 y LPT3. Existen diversos dispositivos que se pueden conectar a través del puerto paralelo: impresoras, CD-ROM, escáneres, dispositivos para adquisición de datos, etc. Los sistemas operativos actuales soportan mayor número de puertos paralelo o serie; por ejemplo, Windows soporta hasta 256 puertos. El uso de estos puertos para propósitos de adquisición de datos, supervisión y control por ordenador se explicará en los apartados dedicados al estudio de las interfases de comunicaciones digitales serie y paralelo.
21.4.1.4. Ranuras de expansión o ampliación (slots) Todas las placas base incorporan un número diverso de ranuras de ampliación (slots). Una ranura de ampliación es un zócalo longitudinal donde el usuario puede insertar tarjetas para aumentar las prestaciones del sistema. A lo largo del tiempo han ido apareciendo diferentes tipos de ranuras de expansión, que se diferencian, fundamentalmente, en el conector empleado y el ancho del bus utilizado (número de bits que se transmiten simultáneamente). No todos los slots son iguales, ni tampoco lo son las tarjetas que se pueden insertar en ellos. La Figura 21.17 muestra algunas interfases para distintos tipos de ranuras de expansión. Los primeros ordenadores (XT) incorporaban slots isa de 8 bits (y las tarjetas eran también de 8 bits). Los ordenadores aT incorporaban ya ranuras isa de 16 bits, en las que se pueden insertar tanto tarjetas de 16 bits como de 8 bits (no ocurre lo mismo a la inversa). Posteriormente se fueron desarrollando e incorporando a los ordenadores compatibles slots de 32 bits, de los cuales el más estandarizado actualmente es el denominado de tipo Pci. En la actualidad muchos ordenadores suelen incluir en la placa base slots de varios tipos, por ejemplo, 2 ISA de 16 bits y 5 PCI de 32 bits. La Figura 21.18 muestra una tarjeta PCMCIA, slots que se incorporan de forma estándar en todos los portátiles actuales. La Tabla 21.6 enumera los distintos tipos de slots que se pueden encontrar en un ordenador compatible (indicando el significado de las siglas por las que son habitualmente conocidos), así como la compatibilidad existente entre ellos. Se han resaltado aquellos que normalmente poseen las tarjetas destinadas a adquisición de datos, supervisión y control por ordenador.
926
Técnicas de análisis y caracterización de materiales
Figura 21.17. Tarjetas para distintos tipos de slots.
Figura 21.18. Tarjeta PCMCIA.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
927
Tabla 21.6. TiPOs de SLOTS y cOMPaTibilidad enTre ellOs isa MCA EISA VESA Pci AGP PcMcia
====> ====> ====> ====> ====> ====> ====>
Tipos de SLOTS
industry standard architecture Micro Channel Architecture Extended - ISA Video And Electronics Standard Association Peripherical component interconnect Accelerated Graphics Port Pc Memory card international association n.º de bits
compatible con tarjetas
ISA
8
ISA-8
isa
16
isa-8, isa-16
MCA
32
MCA
EISA
32
ISA-8, ISA-16, EISA
Bus Local vESA
32
ISA-8, ISA-16, vESA
Pci
32
Pci
PciX
64
Pci, PciX
AGP
32
AGP
Pci express
128, 256, ...
Pci express
PCMCIA I
32
PCMCIA I
PcMcia ii
32
PcMcia i y ii
PCMCIA III (2 stots)
32
PCMCIA I, II y III (1)
“PCMCIA Iv” (2 slots)
32
PCMCIA I, II y III (2)
(1) 1 tipo III o 2 tipo II (2) 1 tipo III y 1 tipo II o 2 tipo II
Cada tarjeta insertada en una ranura de expansión es identificada en el bus de datos del ordenador por una o unas direcciones, expresadas en hexadecimal, denominadas direcciones E/S (Entrada/Salida) o I/O address (Input/Output). La comunicación con una determinada tarjeta supone la lectura o escritura de datos en la dirección o direcciones de entrada/salida que la identifican. Las direcciones E/S son totalmente independientes de las direcciones de memoria, y el conjunto de posibles direcciones E/S que pueden tener las distintas tarjetas o adaptadores incluidos en un ordenador constituye el llamado mapa de direcciones E/S. Algunas direcciones son utilizadas por la placa base exclusivamente, y no están disponibles para tarjetas de ampliación insertadas en los las ranuras de expansión. Existen ciertas direcciones de E/S que se asignan de forma estándar a las interfases más usuales en un PC. En la Tabla 21.7 se indican cuáles son estas direcciones y a qué tipo de interfase corresponde cada una. Siempre hay que tener en cuenta que no se puede asignar la misma dirección E/S a dos interfases de un PC, ya que ello provocaría un conflicto de recursos, originando el mal funcionamiento de dichas interfases.
Técnicas de análisis y caracterización de materiales
928
Tabla 21.7. direcciOnes e/s asiGnadas de fOrMa esTándar dirección e/s base
interfase
278 - 27F
LPT2
2E8 - 2EF
COM4
2F8 - 2FF
COM2
378 - 37F
LPT1
3B0 - 3BB
Chipset
3BC - 3C1
LPT3
3C0 - 3CF
Chipset
3E8 - 3EF
COM3
3F8 - 3FF
COM1
Según lo expuesto, siempre que se inserte una nueva tarjeta o adaptador en una ranura de un ordenador se deberá configurar su dirección de E/S. Esta configuración podrá llevarse a cabo por hardware (mediante switch o jumpers integrados en la tarjeta) o por software (mediante alguna utilidad o aplicación que nos proporcione el fabricante). Actualmente las tarjetas de ampliación (interfases ethernet, tarjetas de sonido, capturadoras de vídeo, etc.) poseen características plug&play, y no es necesario configurar manualmente su dirección de E/S; sin embargo, todavía es usual encontrar tarjetas SCADA (tanto analógicas como digitales) que deben configurarse manualmente.
21.4.1.5. Otros: niveles IRQ, canales DMA Otros componentes de la placa base son: – Niveles de interrupción hardware. En un ordenador compatible existen varios niveles de interrupción hardware, denominadas IRQ0, IRQ1,..... IRQn, que determinan la prioridad de las tareas que cada una de las interfases envía al microprocesador. Un PC tipo XT manejaba 9 niveles de interrupciones, posteriormente el número de niveles de interrupción soportados paso a 16 y actualmente se dispone de 256 niveles de interrupción. Algunos se utilizan exclusivamente por la placa base y otros están disponibles para ser utilizadas por tarjetas insertadas en slots del PC. Al contrario que ocurre con las direcciones E/S, no todas las interfases presentes en un ordenador han de tener asignada un nivel de interrupción hardware, pero igual que sucede con las direcciones E/S no puede haber dos interfases en un PC con el mismo nivel de interrupción, ya que esto originaría un conflicto de recursos. Siempre que se añada una nueva tarjeta o adaptador a un ordenador compatible, y la comunicación con el mismo se vaya a llevar a cabo mediante la generación de interrupciones hardware será imprescindible configurar el nivel de interrupción que será utilizado, bien por hardware, o bien por software. La Tabla 21.8 indica a qué interfase corresponde normalmente cada nivel de interrupción hardware en un PC, aunque pueden encontrarse variaciones.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
929
Tabla 21.8. niveles de irQ asiGnadOs de fOrMa esTándar a alGUnOs disPOsiTivOs e inTerfases en Un Pc nivel de interrupción IRQ 3 IRQ 4 IRQ 5 IRQ 6 IRQ 7 IRQ 8 IRQ 12 IRQ 13 IRQ 14 IRQ 15
Pc tipo aT o superior COM2 (COM4) COM1 (COM3) LPT2 Controlador de disqueteras LPT1 Reloj / calendario PS/2 Procesador matemático Controladores Controladores
– Canales de acceso directo a memoria. Una característica importante en los PC es la posibilidad de escribir o leer directamente una posición de memoria, permitiendo que los datos sean transmitidos más rápidamente entre una interfase o periférico y la memoria del ordenador, sin necesidad de intervención por parte del procesador. Existen 8 canales de DMA en un AT u ordenadores superiores. Contadores y temporizadores. Un PC dispone tres temporizadores/contadores que controlan la hora y la fecha, la frecuencia de refresco de la memoria y la generación de tono del altavoz.
21.4.2. el código hexadecimal El «sistema hexadecimal» emplea 16 dígitos, los números del «0» al «9» y las letras de la «A» a la «F». En general, como en cualquier sistema numérico, el número de valores que pueden venir representados por un número hexadecimal, dependerá de la cantidad de dígitos que utilicemos para ello, así, si empleamos «n» dígitos, podremos representar 16n valores. En la Tabla 21.9 vemos el número de estados posibles dependiendo de la cantidad de dígitos utilizados. Tabla 21.9. esTadOs POsibles seGún el núMerO de díGiTOs HaXadeciMales n.º de dígitos 1 2 3 4 5 6 7 8
estados posibles 161 = 16 162 = 256 163 = 4.096 164 = 65.536 165 = 1.048.576 166 = 16.777.216 167 = 268.435.456 168 = 4.294.967.296
Técnicas de análisis y caracterización de materiales
930
21.4.2.1. Conversión de decimal a hexadecimal Para convertir un número decimal en hexadecimal, hay que ir realizando sucesivas divisiones por «16», hasta obtener un cociente igual o menor que «15», tal como se muestra a continuación. El dígito de menor peso, es decir, el primer dígito por la derecha, será el resto de la primera división efectuada, y así sucesivamente, hasta llegar al último cociente obtenido que será el dígito de mayor peso. 510 / 16 = 31 (cociente) + 14 (resto) à Dígito de menor peso (derecha) 31 / 16 = 1 (cociente) + 15 (resto) à 2º dígito por la izquierda ↓ Dígito de mayor peso Por tanto, el número 510 en decimal corresponde en hexadecimal a: 1 15 14 ↓ ↓ ↓ 1 F E
21.4.2.2. Conversión de hexadecimal a decimal Cada uno de los n dígitos necesarios para representar 16n valores debe tener un peso diferente. Por convenio, el dígito situado más a la derecha es el de menor peso, asignándosele un valor, en decimal, de 160 y el dígito situado más a la izquierda es el de mayor peso, correspondiéndole un valor de 16 n – 1, en decimal, y generalizando, el digito en posición m tiene un valor en decimal de 16m. Para calcular el valor que un número hexadecimal representa en sistema decimal, se suma el valor correspondiente a cada uno de sus dígitos, en decimal, multiplicado por el valor del propio dígito, también en decimal. Por ejemplo: Digito: Posición: valor: valor (en decimal):
2 2 162 256
F 1 161 16
8 0 160 1
Esto es: (8 × 1) + (15 × 16) + (2 × 256) = 760 La Tabla 21.10 muestra los números decimales correspondientes a algunos números hexadecimales de tres dígitos. Para distinguir los números hexadecimales de los decimales, se suelen utilizar en la bibliografía las siguientes notaciones: – Número hexadecimal precedido de «0x»: – Número hexadecimal seguido de «h»:
0×278 278h
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
931
Tabla 21.10. eQUivalencia HeXadeciMal - deciMal Hexadecimal 000 001 002 – 00A 00B – 00F 010 – 0FF – 1FF – FFF
decimal 0 1 2 – 10 11 – 15 16 – 255 – 511 – 4.095
21.4.3. Software El conjunto de programas e instrucciones instalados, y que pueden ejecutarse, en un ordenador constituyen el software. La correcta implementación del software en un ordenador es tan importante como el propio hardware para el buen funcionamiento del mismo. Seguidamente se explican los distintos niveles de software existentes en cualquier ordenador.
21.4.3.1. Niveles de software Se distinguen cuatro niveles de software en un ordenador compatible, cada uno de los cuales se comunica siempre con los dos niveles contiguos, tal como se observa en la Figura 21.19. Aplicaciones y Programas Sistema Operativo Disco (DOS) BIOS Registros Hardware
Figura 21.19. Niveles de software en un PC.
Técnicas de análisis y caracterización de materiales
932
A continuación se explica la función de cada uno de estos niveles comenzando por el nivel más bajo. 21.4.3.1.1. Registros Hardware Los registros hardware se pueden entender como el software que se encuentra a nivel del propio hardware, y que se comunica directamente con él, es decir, son instrucciones que leen y escriben directamente en direcciones de memoria (RAM) y en direcciones E/S. 21.4.3.1.2. Firmware o BIOS El BIOS (Basic Input Output System) es el software que reside en la ROM de la placa base. Actúa de interfase entre el hardware y el DOS, siendo el código que efectúa un test de los componentes durante el arranque del ordenador, y que posibilita que el DOS comience a operar. El BIOS incluye los detalles necesarios para trabajar con varios de los periféricos estándares, tales como el video y los discos. Por otra parte, este software tiene cierta independencia del hardware. Esta independencia del hardware tiene importantes ventajas, ya que si diferentes ordenadores utilizan hardware distinto para llevar a cabo las mismas operaciones, se elimina la necesidad de rescribir una rutina BIOS para cada máquina. Las únicas desventajas que presenta es la lentitud de ejecución y algunas limitaciones de funcionalidad. 21.4.3.1.3. Sistema operativo de disco (DOS = Disk Operating System) El sistema operativo es el conjunto de programas que se encargan de gestionar y controlar los diferentes dispositivos de un sistema informático, dando paso a las solicitudes o peticiones de recursos, llevando un registro de la utilización de los mismos y evitando conflictos entre los distintos dispositivos, programas y usuarios. El núcleo de un sistema operativo es el primer programa que se carga en la memoria de un ordenador durante el proceso de arranque, implementa la estructura y nombres de ficheros y directorios (carpetas), y actúa como interfase entre el firmware y las aplicaciones. El DOS está formado por: – Un núcleo, o subrutinas básicas que gestionan los dispositivos y recursos del sistema. – Un conjunto de funciones (que implementan funcionalidades para programación) y ordenes (para permitir la ejecución de comandos a los usuarios). Los sistemas operativos se pueden clasificar en: – Multitarea. Permiten que dos o más programas se ejecuten de forma concurrente (Figura 21.20).
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
933
Figura 21.20. Multitarea.
– Multiusuario. Permiten que dos o más usuarios ejecuten programas simultáneamente (Figura 21.21).
Figura 21.21. Multiusuario.
Técnicas de análisis y caracterización de materiales
934
– Multihebra. Permiten que distintas partes de un programa se ejecuten concurrentemente. – Multiproceso. Soportan la ejecución de un programa en más de un procesador. – Sistemas operativos en tiempo real. Tienen una respuesta instantánea a los requerimientos del sistema. El sistema operativo ideal para llevar a cabo tareas de adquisición de datos, supervisión y control debería ser multitarea y trabajar en tiempo real; sin embargo, la popularidad alcanzada entre los usuarios de ordenadores compatibles por MS-Windows, desde Windows 98 hasta Windows XP o Windows 7, ha llevado a que tanto los fabricantes de interfases para adquisición de datos, supervisión y control, como los fabricantes de equipos e instrumentos de laboratorio desarrollen aplicaciones que se ejecutan bajo estos sistemas operativos, aunque no posean todos los requerimientos convenientes para un sistema SCADA. 21.4.3.1.4. Aplicaciones y programas Las aplicaciones o programas son ficheros ejecutables desarrollados en algún lenguaje de programación, que actúan como interfase directa entre el ordenador y el usuario, y que se destinan a realizar las más diversas tareas, tales como: – – – – – –
Procesado de texto y autoedición. Elaboración de hojas de cálculo. Elaboración y consulta de bases de datos. Diseño gráfico. Tratamiento de imágenes o de sonido. Adquisición de datos, supervisión y control de equipos e instrumentos.
21.4.3.2. Lenguajes de programación Como es bien sabido, el único lenguaje que entiende un ordenador es el lenguaje máquina, es decir, instrucciones en binario que indican las tareas a ejecutar paso a paso. Los distintos lenguajes de programación conocidos convierten las instrucciones escritas en un programa en ordenes lógicas que el ordenador es capaz de comprender y ejecutar. En general, los lenguajes de programación pueden agruparse o clasificarse en dos grandes grupos: lenguajes de alto nivel y lenguajes de bajo nivel. 21.4.3.2.1. Lenguajes de BAjO NIvEL Un lenguaje de bajo nivel esta muy próximo al lenguaje máquina, siendo el más conocido y empleado el lenguaje ensamblador, el cual indica y convierte una por una, de su propio código a lenguaje máquina, las instrucciones que debe ir realizando el ordenador.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
935
21.4.3.2.2. Lenguajes de ALTO NIvEL Los lenguajes de alto nivel están mucho más alejados del código máquina, y solamente detallan las instrucciones más importantes, siendo muchas de las tareas implícitas, que el ordenador debe ejecutar, totalmente transparentes para el programador. Los lenguajes de alto nivel llegan a ser incluso independientes del microprocesador, lo que les confiere mayor portabilidad de una máquina a otra. Dentro de los lenguajes de alto nivel hay que hacer una distinción fundamental entre lenguajes compilados y lenguajes interpretados. – En un lenguaje compilado, todas las líneas que componen el programa son traducidas simultáneamente a lenguaje máquina, a través de una serie de pasos separados e independientes (es lo que se conoce como compilar). El resultado de este proceso de compilación es un fichero o conjunto de ficheros binarios ejecutables (con la extensión EXE). – Por el contrario, en un lenguaje interpretado, las líneas, con las distintas instrucciones que constituyen el programa, son traducidas a lenguaje máquina una por una, al mismo tiempo que el programa esta siendo ejecutado. La principal ventaja de un lenguaje interpretado es su flexibilidad en cuanto a la posibilidad que el programador tiene para ejecutar solo partes del programa, chequear valores intermedios de las variables, etc. Sin embargo, los lenguajes interpretados tienen varios inconvenientes frente a los compilados. En primer lugar, hay que decir que los programas compilados se ejecutan mucho más rápido que los programas interpretados ya que estos últimos han de ser traducidos a código máquina simultáneamente a su ejecución. En segundo lugar, un programa compilado necesita mucha menos memoria para ejecutarse que un programa interpretado, ya que estos han de ejecutarse sobre el correspondiente interprete de comandos. Por último hay que destacar que no todos los lenguajes compilados son igualmente eficientes, así por ejemplo, el C++ genera programas ejecutables de menor tamaño y de más rápida ejecución que el FORTRAN, por lo que se dice que el C++ es más eficiente que este último. Por tanto, el C++ es un lenguaje óptimo para diseñar aplicaciones de adquisición de datos, supervisión y control por ordenador. El esquema 21.6 resume todo lo explicado en los puntos anteriores sobre los lenguajes de programación.
21.4.3.3. Software especial Dentro de los programas o rutinas, escritas en algún lenguaje de programación, cabe hacer mención especial de dos tipos de rutinas ampliamente utilizadas: – Los controladores de dispositivos. – Los programas residentes.
Técnicas de análisis y caracterización de materiales
936
• Todas las instrucciones que componen el programa son traducidas simultáneamente a lenguaje máquina (COMPILAR)
Compilados
Lenguajes de ALTO NIVEL
Interpretados
FORTRAN • El resultado es un código binario ejecutable, PASCAL por lo que no es necesario el compilador C, C++ para su ejecución, y se consigue una mayor velocidad de ejecución y menor requerimiento de memoria.
• Las instruciones que componen el programa son traducidas a lenguaje máquina, y ejecutadas secuencialmente, una por una. • Es necesario el intérprete de comandos para poder ejecutar el programa, esto implica mayor requerimiento de memoria, y mayor tiempo de ejecución.
BASIC
• Próximos al lenguaje máquina Lenguajes de ...................... BAJO NIVEL
• Convierten una por una, de su propio lenguaje a lenguaje máquina, las instruciones que debe ir realizando el PC.
ENSAMBLADOR
Esquema 21.6. Lenguajes de programación.
21.4.3.3.1. Controlador de dispositivo (Device driver) Un driver o controlador es un programa, escrito en ENSAMBLADOR, que debe cargarse en la memoria del ordenador durante el arranque, para poder controlar y establecer comunicación con un dispositivo o periférico determinado. Los controladores de dispositivos actúan como una parte del DOS. Los sistemas operativos suelen incluir controladores para dispositivos de diversos fabricantes: ratones, tarjetas de vídeo, tarjetas de sonido, adaptadores de red, módem, etc. No obstante, el fabricante de un dispositivo debe proporcionar siempre el controlador o la información necesaria para desarrollarlo; de lo contrario la comunicación con el dispositivo será imposible. 21.4.3.3.2. Programas residentes (TSR = Terminate & Stay Resident) Un TSR es un programa que permite controlar un dispositivo hardware cuando no se dispone de un driver para él. A diferencia de un driver un programa TSR puede estar escrito en un lenguaje de alto nivel, como C o C++, pero al igual que un driver debe ser cargado en la memoria del ordenador para que sea posible la comunicación con el dispositivo en cuestión.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
937
Los programas TSR son ejecutables que se activan a través de interrupciones tanto hardware como software. Muchos fabricantes de dispositivos proporcionan programas TSR en lugar de un controlador de dispositivo, aunque, en general, solo se habla de drivers.
21.4.4. ¿cómo añadir interfases o dispositivos a un Pc y comunicarse con ellos? Siempre que se desee adquirir datos, supervisar o controlar un equipo o instrumento de laboratorio con un ordenador será imprescindible, en primer lugar, utilizar alguna de las interfases o puertos existentes o añadir una nueva interfase para tal fin, y en segundo lugar, establecer una comunicación entre dicha interfase o puerto y el equipo o instrumento de laboratorio. El esquema 21.7 resume las posibles maneras de añadir interfases o dispositivos a un PC y las formas de establecer una comunicación con dichas interfases o dispositivos. • Conectarlos a un puerto
Serie RS-232: COM1, ..., COM4, COMn Paralelo Centronics: LPT1, ..., LPT3
Formas de añadir interfases o dispositivos a un PC
USB: Universal Serial Bus Firewire (IEEE 1394) • Insertar una tarjeta en un SLOT
ISA, PCI, PCMCIA, etc
• Lectura / Escritura de una dirección del bus de E/S
I/O
Formas de comunicarse con • Utilizar un nivel de interrupción las interfases o hardware dispositivos de un PC • Utilizar un canal de acceso directo a memoria
IRQn DMAn
Esquema 21.7. Adición de interfases y dispositivos y métodos de comunicación.
Existen tres caminos diferentes a través de los cuales una aplicación puede comunicarse o controlar un dispositivo hardware, es decir, mediante los cuales se pueden transferir datos desde nuestra aplicación hasta el dispositivo y viceversa: – Mediante escritura o lectura de una dirección de entrada/salida. – Generando una interrupción hardware. – Mediante, transferencia a través de un canal de acceso directo a memoria.
938
Técnicas de análisis y caracterización de materiales
21.4.4.1. Escritura o lectura de una dirección del bus de entrada / salida El mecanismo de funcionamiento de este tipo de transferencia de datos es simple: – Escritura en una dirección del bus de E/S: la aplicación que se encuentra en ejecución, y por tanto cargada en la memoria, ordena la escritura de un dato en una dirección de un puerto de entrada/salida específico, entonces el dato (normalmente un byte) es transferido desde la memoria del ordenador hasta dicho puerto, a través del bus de datos. – Lectura de una dirección del bus de E/S: cuando la aplicación ordena la lectura del dato que se encuentra en una determinada dirección, dicho dato es transferido desde el puerto de entrada/salida, correspondiente a esa dirección, hasta la memoria del ordenador. Todo este proceso (denominado polled I/O) es supervisado por el propio procesador del ordenador, que es quien decide cuando es posible comenzar un ciclo de lectura o escritura, y cuando puede darse por concluido dicho ciclo. Esto implica: – que el procesador no pueda dedicarse a otras tareas mientras que esta controlando la realización de cada uno de estos ciclos de lectura/escritura; – una limitación en la velocidad con que se transfieren los datos, ya que el procesador debe repartir su tiempo de operación entre la transferencia de datos, necesaria para la adquisición o el control, y el resto de tareas que normalmente realiza para el correcto funcionamiento del ordenador.
21.4.4.2. Generación de interrupciones El mecanismo de funcionamiento cuando se genera una interrupción es el siguiente: en el momento en que es necesario transmitir un dato, el dispositivo (la tarjeta de adquisición y control) envía una señal por el bus de datos; esta señal es la correspondiente al nivel de interrupción seleccionado para el dispositivo, lo cual provoca que el procesador detenga la ejecución de cualquier tarea que esté realizando, y comience la ejecución de una rutina (TSR) que debe haber sido cargada en memoria previamente. La generación de interrupciones, debe estar en concordancia con el software o aplicación utilizada para llevar a cabo la adquisición de datos o el control por ordenador. Además, la utilización de una aplicación que soporte la generación de interrupciones requiere que la rutina a ejecutar, cuando se produzca la interrupción, haya sido escrita y colocada previamente en una posición de memoria determinada y conocida. Cada nivel de interrupción tiene asignados 4 bytes en la memoria del ordenador, y en esos 4 bytes hay que cargar la dirección donde se encuentra la rutina que se ejecutará al producirse la interrupción. Las direcciones de memoria correspondientes a los 16 niveles de interrupción posibles se reflejan en la Tabla 21.11.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
939
Tabla 21.11. direcciOnes de MeMOria cOrresPOndienTes a lOs disTinTOs niveles de irQ nivel de interrupción
dirección de memoria raM
IRQ0
20h - 23h
IRQ1
24h - 27h
–
–
IRQ7
3Ch - 3Fh
–
–
IRQ14
58h - 5Bh
IRQ15
5Ch - 5Fh
El empleo de interrupciones esta pensado para que sea posible el manejo de dispositivos sin que el procesador tenga que consumir tiempo de operación en el proceso de polling. La respuesta a una interrupción con el subsiguiente comienzo de ejecución de la subrutina que corresponda, requiere 61 periodos de reloj (sin tener en cuenta el tiempo necesario para ejecutar la el programa TSR). Además, se necesitan 32 periodos de reloj para retornar de dicha interrupción. Esto significa que un procesador a 1,7 GHz empleara: (61 + 32) / 1.700 × 106 = 0,0547 microsegundos Así pues, el tiempo de ejecución dependerá de la frecuencia del procesador de nuestro ordenador.
21.4.4.3. Transferencia a través de DMA Este método de transferencia de datos se emplea cuando se requieren velocidades de adquisición muy elevadas. En un PC la transferencia de datos a través de DMA requiere 6 periodos de reloj, y una vez efectuada, se necesitan otros 4 periodos de reloj. Por tanto, un ordenador cuyo procesador tenga una frecuencia de 1,7 GHz consumirá: (6 + 4) / 1.700 x 106 = 0,0059 microsegundos. La complejidad que conlleva realizar un programa que trabaje mediante DMA, hace que este tipo de transferencia solo se utilice cuando sea necesario adquirir gran número de variables en un intervalo de tiempo muy pequeño. Actualmente, casi todos los fabricantes de tarjetas para adquisición de datos y control por ordenador, distribuyen el driver (o TSR) para dichas tarjetas, y en muchas ocasiones este incluye una serie de funciones, que facilitan enormemente la tarea del programador, ya que este se limitará a hacer una llamada a una función, descrita por el fabricante, y que será la que realmente se encarga de la escritura/lectura de una dirección de un puerto de entrada/salida, o de enviar la señal correspondiente a la interrupción seleccionada, o de la lectura/escritura en una posición de la memoria del ordenador.
940
Técnicas de análisis y caracterización de materiales
21.5. inTerfases HARDwARE de cOMUnicaciOnes: PUerTOs, inTerfases O TarjeTas Tal como se ha dicho, para poder llevar a cabo la adquisición de datos, supervisión y control de un equipo o instrumento de laboratorio con un ordenador personal existen dos posibilidades: – Utilizar alguna de las interfases digitales de comunicación que incorpora de forma estándar cualquier ordenador compatible (RS232C, Centronics, etc). – Insertar en una ranura de expansión una nueva interfase digital (RS422, RS485, GPIB, etc.), o bien, o una tarjeta analógica. En los puntos siguientes se van a explicar las características fundamentales de las interfases digitales y analógicas más empleadas para tareas de adquisición de datos, supervisión y control.
21.5.1. interfases digitales (interfases estándar) A lo largo del tiempo se han ido desarrollando un buen número de interfases digitales de comunicación, cuyas especificaciones físicas, eléctricas, etc, vienen ampliamente descritas en la bibliografía. Todas las interfases digitales de comunicación se caracterizan por poseer unas líneas para la transmisión de datos, a través de las cuales circulan dos niveles de voltaje (nivel alto y nivel bajo), los cuales se asocian a los dígitos del sistema binario (0 o 1), por esta razón las interfases estándar reciben también el nombre de interfases digitales. Estos niveles de voltaje son diferentes para cada interfase digital ya que vienen dados por las especificaciones eléctricas que indique el estándar. La comunicación entre el ordenador y un dispositivo a través de una interfase digital se basa en el empleo de un código, compuesto por un determinado número de símbolos o caracteres, a cada uno de los cuales corresponde una secuencia única de ceros y unos, es decir, de bits. Cada secuencia de bits compone o representa un símbolo o carácter del código. Uno de los códigos más empleado es el código ASCII, que se compone en su forma reducida de 128 caracteres o símbolos, empleando 7 bits para representar cada uno de ellos; y de 256 caracteres o símbolos en su forma extendida, empleando 8 bits para su representación. Aunque existen otros códigos, el utilizado de forma estándar, por las interfases digitales, es el código ASCII. A continuación se indican los caracteres o símbolos (y su significado) correspondientes a cada secuencia de bits, tanto para el código ASCII reducido (Tabla 21.12) como extendido (Tabla 21.13). Las interfases digitales de un ordenador se pueden englobar en dos categorías: interfases paralelo e interfases serie. La diferencia entre ambas es sustancial, una interfase paralelo de n bits emplea n líneas de transmisión (es decir, n cables) para transferir de forma simultánea los n bits que componen un dato en un solo ciclo; por el contrario, una interfase serie utiliza una sola línea de transmisión para transferir los n bits en n ciclos de forma sucesiva. Como consecuencia, y en términos generales, se puede afirmar que una interfase paralelo transfiere datos n veces más rápido que una interfase serie.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
941
Tabla 21.12. códiGO ascii esTándar O redUcidO (7 biTs) dec 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Hex 0 1 2 3 4 5 6 7 8 9 0A 0B 0C 0D 0E 0F 10 11 12 13 14 15 16 17 18 19 1A 1B 1C 1D 1E 1F
car. nombre nUl Nulo sOH Inicio de cabecera sTX Inicio de texto eTX Fin de texto eOT Fin de transmisión enQ enquiry acK acknowledge bel Campanilla (beep) bs backspace HT Tabulador horizontal lf Salto de línea vT Tabulador vertical ff Salto de página cr Retorno de carro sO Shift fuera si Shift dentro dle Escape línea de datos dc1 Control dispositivo 1 dc2 Control dispositivo 2 dc3 Control dispositivo 3 dc4 Control dispositivo 4 naK neg acknowledge syn Sincronismo eTb Fin bloque transmitido can Cancelar eM Fin medio Sustituto sUb esc Escape fs Separador archivos Gs Separador grupos rs Separador registros Us Separador unidades
dec 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63
Hex car. dec 20 esp 64 21 ! 65 22 “ 66 23 # 67 24 $ 68 25 % 69 26 & 70 27 ‘ 71 28 ( 72 29 ) 73 2A * 74 2B + 75 2C , 76 2D 77 2E . 78 2F / 79 30 0 80 31 1 81 32 2 82 33 3 83 34 4 84 35 5 85 36 6 86 37 7 87 38 8 88 39 9 89 3A : 90 3B ; 91 3C < 92 3D = 93 3E > 94 3F ? 95
Hex car. dec 40 @ 96 41 a 97 42 b 98 43 c 99 44 d 100 45 e 101 46 f 102 47 G 103 48 H 104 49 i 105 4A j 106 4B K 107 4C l 108 4D M 109 4E n 110 4F O 111 50 P 112 51 Q 113 52 r 114 53 s 115 54 T 116 55 U 117 56 v 118 57 W 119 58 X 120 59 y 121 5A z 122 5B [ 123 5C \ 124 5D ] 125 5E ^ 126 5F _ 127
Hex car. 60 – 61 a 62 b 63 c 64 d 65 e 66 f 67 g 68 h 69 i 6A j 6B k 6C l 6D m 6E n 6F o 70 p 71 q 72 r 73 s 74 t 75 u 76 v 77 w 78 x 79 y 7A z 7B { 7C | 7D } 7E ~ 7F del
La Figura 21.22 muestra un esquema de una interfase paralelo y de una interfase serie, de transmisión unidireccional. La línea de control, que se incluye en el esquema de la interfase paralelo, es necesaria para comunicar al receptor cuando los datos transmitidos son válidos, y en ocasiones para comunicar al transmisor que los datos han sido recibidos. Por otra parte, el esquema correspondiente a la interfase serie
Técnicas de análisis y caracterización de materiales
942
presenta una sola línea para transmisión de datos y una línea de control. Si se tratara de una interfase bidireccional full duplex incluiría dos líneas de transmisión de datos. La línea de control se utiliza, entre otras funciones, para indicar cuándo el emisor está listo para enviar datos o cuándo el receptor está listo para recibir datos. Tabla 21.13. códiGO ascii eXTendidO (8 biTs) dec siM dec siM dec siM dec siM dec siM dec siM dec siM dec siM 000
032
064
@
096
`
128
Ç
160
á
192
└
224
α
001
☺
033
!
065
A
097
a
129
ü
161
í
193
┴
225
ß
002
☻
034
“
066
B
098
b
130
é
162
ó
194
┬
226
Γ
003
♥
035
#
067
C
099
c
131
â
163
ú
195
├
227
π
004
♦
036
$
068
D
100
d
132
ä
164
ñ
196
─
228
Σ
005
♣
037
%
069
E
101
e
133
à
165
Ñ
197
┼
229
σ µ
006
♠
038
&
070
F
102
f
134
å
166
ª
198
╞
230
007
•
039
´
071
G
103
g
135
ç
167
º
199
╟
231
τ
008
◘
040
(
072
H
104
h
136
ê
168
¿
200
╚
232
Φ
009
○
041
)
073
I
105
i
137
ë
169
⌐
201
╔
233
Θ
010
◙
042
*
074
j
106
j
138
è
170
¬
202
╩
234
Ω
011
♂
043
+
075
K
107
k
139
ï
171
½
203
╦
235
δ
012
♀
044
,
076
L
108
l
140
î
172
¼
204
╠
236
∞
013
♪
045
-
077
M
109
m
141
ì
173
¡
205
═
237
φ
014
♫
046
.
078
N
110
n
142
Ä
174
«
206
╬
238
ε
015
☼
047
/
079
O
111
o
143
Å
175
»
207
╧
239
∩ ≡
016
►
048
0
080
P
112
p
144
É
176
░
208
╨
240
017
◄
049
1
081
Q
113
q
145
æ
177
▒
209
╤
241
±
018
↕
050
2
082
R
114
r
146
Æ
178
▓
210
╥
242
≥
019
‼
051
3
083
S
115
s
147
ô
179
│
211
╙
243
≤
020
¶
052
4
084
T
116
t
148
ö
180
┤
212
╘
244
⌠
021
§
053
5
085
U
117
u
149
ò
181
╡
213
╒
245
⌡
022
▬
054
6
086
v
118
v
150
û
182
╢
214
╓
246
÷
023
↨
055
7
087
W
119
w
151
ù
183
╖
215
╫
247
≈
024
↑
056
8
088
X
120
x
152
ÿ
184
╕
216
╪
248
°
025
↓
057
9
089
Y
121
y
153
Ö
185
╣
217
┘
249
‘
026
→
058
:
090
Z
122
z
154
Ü
186
║
218
┌
250
‛
027
←
059
;
091
[
123
{
155
¢
187
╗
219
█
251
√
028
∟
060
094
^
126
~
158
Pt
190
╛
222
▐
254
■
031
▼
063
?
095
_
127
⌂
159
ƒ
191
┐
223
▀
255
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador D0
DATOS
D1
CONTROL
943
D2 D3 D4
PC
Periférico
PC
Periférico
D5 D6 D7 CONTROL Interfase paralela unidireccional de 8 bits
Interfase serie unidireccional
Figura 21.22. Interfases paralelo y serie.
21.5.1.1. Interfases serie En una interfase serie el valor digital de la línea de transmisión datos representa un bit diferente en cada instante o intervalo de tiempo, ya que, como se ha dicho, los bits que componen un dato o byte se transmiten por ella de forma secuencial, tal como se aprecia en la siguiente figura. La posición de un bit determina su valor o peso. Así, en el ejemplo de la Figura 21.23 el byte transmitido representa una «q» según el código ASCII. Datos
Posición Valor
7
6
5
4
3
2
1
0
128
64
32
16
8
4
2
1
Figura 21.23. Transmisión de un carácter.
El hecho de que los bits se transmitan secuencialmente por una única línea hace que se requiera un temporizador de referencia, que determine la duración de cada bit, y como consecuencia la velocidad de transmisión (normalmente expresada como bits/segundo o baudios). Esto nos lleva a diferenciar dos tipos de transmisión en las interfases serie: – Transmisión síncrona: en la que el temporizador de referencia es externo, lo que implica incluir una línea de control portadora de la señal de reloj. – Transmisión asíncrona: en la que el temporizador de referencia es interno. En este caso no existen líneas adicionales para la transmisión de la información de sincronismo, por tanto, la señal de sincronismo deberá viajar junto con la señal como información redundante, lo que permitirá al receptor reconocer adecuadamente los datos que le llegan. Así pues, y con el fin de sincronizar el emisor y el receptor, se emplea un bit de comienzo de transmisión (start bit), y uno o más bits de parada de transmisión (stop bits). Esto implica que se transmiten más bits de los que estrictamente componen el carácter o información a enviar. En la
Técnicas de análisis y caracterización de materiales
944
transmisión asíncrona (como se aprecia en la Figura 21.24) la línea se encuentra normalmente en el nivel alto (marking level), que representa un 1 lógico. En el momento de comenzar la transmisión se envía un bit de comienzo, lo que causa la transición al nivel bajo (spacing level), que representa un 0 lógico. NIVEL ALTO NIVEL BAJO
BIT DE START
D0
D1
D2
D3
D4
D5
D6
D7
BIT DE PARIDAD
BIT(S) DE STOP
BITS DE DATOS
Figura 21.24. Transmisión asíncrona.
Actualmente existen muchas interfases serie en uso. Las diferencias entre ellas se deben a múltiples factores, incluyendo niveles de voltaje de las líneas de datos y de control, protocolos de comunicación, tipo de cable requerido, comunicación half o full dúplex, etc. Todos estos factores determinan especificaciones del sistema muy importantes, tales como velocidad máxima de transmisión de datos, distancia máxima entre dispositivos o máximo número de dispositivos que se pueden conectar en una única línea de comunicaciones. Todas las interfases serie son estándares desarrollados por la Electronic Industries Association (EIA) y se identifican por su número estándar EIA. Estos estándares definen, entre otras, las características y especificaciones mecánicas o físicas y eléctricas de las señales que se transmiten por cada una de las líneas de datos y de control presentes en dichas interfases. El tratamiento exhaustivo de todas las especificaciones de las distintas interfases digitales, sería objeto de un libro completo, por lo que aquí solo se hará un resumen de las mismas. Algunas de las características que diferencian unas interfases serie de otras son: 1. Características mecánicas o físicas: que determinan el tipo de conectores, cables, etc., a emplear. 2. Características eléctricas: que fijan los niveles de voltaje para las líneas de transmisión de datos y para las líneas de control, así como los niveles máximos permitidos de sensibilidad al ruido, etc. 3. Distancia máxima: establece la máxima distancia a la que se pueden conectar los dispositivos, aunque dicha distancia solo podrá alcanzarse si se trabaja en condiciones ideales (poco ruido eléctrico, velocidad de transferencia baja, etc.), siendo necesario en ocasiones incluir repetidores de señal para aumentar la distancia de conexión. 4. Velocidad de transmisión: que indica el número de bits por segundo (bps) a transmitir, o lo que es lo mismo la duración de un bit. La velocidad de transmisión también puede expresarse en baudios, que se define como el número de cambios de estado (voltaje o frecuencia) de una señal, por segundo, en una línea de comunicación. La máxima velocidad de transferencia de datos está limitada por varios factores, como son el tipo de cable y de señales eléctricas empleadas o la distancia entre los dispositivos.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
945
5. Forma de codificación / transmisión de datos: se puede hablar de dos formas de transmisión: transmisión simple y transmisión diferencial. En la transmisión simple se transmite la señal, por una línea, tal como proviene del emisor, siempre referenciada a un cero común. Por el contrario, en la transmisión diferencial se emplean dos líneas, por una de ellas circula la señal tal como proviene del emisor, y por la otra se transmite la señal invertida. La transmisión diferencial tiene como ventaja ser mucho más inmune a los ruidos y a las interferencias externas tal como se evidencia en la Figura 21.25. Una sola señal diferencial requiere dos cables, uno para el dato no-invertido (lógica positiva) y otro para el dato invertido (lógica negativa). El dato recibido será la diferencia entre el dato no-invertido y el dato invertido. A ENTRADA
TRANSMISOR
R
A
RECEPTOR
LÍNEA BALANCEADA (PAR TRENZADO)
DATOS
A
A
TRANSMISIÓN DE DATOS DIFERENCIAL
DATOS TRANSMITIDOS RUIDO + A RUIDO EN UNA LÍNEA DE DATOS A RUIDO -
DATOS RECIBIDOS ANULACIÓN DEL RUIDO ELÉCTRICO EN UNA TRANSMISIÓN DIFERENCIAL
Figura 21.25. Transmisión de datos diferencial.
SALIDA
Técnicas de análisis y caracterización de materiales
946
6. Tipo de comunicación: dentro de la comunicación bidireccional se pueden distinguir dos tipos: • Comunicación full dúplex: en la que la información (transmisión o recepción) puede circular en ambos sentidos simultáneamente. Esto implicará disponer de dos líneas de datos, una línea para la transmisión y otra para la recepción. • Comunicación half dúplex: en la cual la información circula en un solo sentido en cada instante de tiempo. En este caso bastará con una sola línea de datos. 7. Topología: que define la forma física de conexión de los distintos dispositivos a comunicar. Hay interfases que solo permiten la conexión de un dispositivo (o nodo) al ordenador, sin embargo otras permiten conectar varios dispositivos formando una red, y esta conexión puede llevarse a cabo empleando diversas topologías, que se describen a continuación. • Estrella. Esta configuración requiere que uno de los dispositivos tenga más de un puerto o enlace, siendo este el elemento central. Permite realizar ampliaciones con relativa facilidad, pero concentra toda la información en un solo dispositivo (Figura 21.26). 6
1
5
2
4
3
Figura 21.26. Topología en estrella.
• Bus. En este tipo de configuración todos los elementos de la red se interconectan entre sí (Figura 21.27). Como todos los dispositivos comparten el mismo enlace es necesario un control eficaz del acceso, para evitar contenciones del bus y destrucción de los mensajes. Este tipo de control puede ser implementado a nivel hardware o software. Esta topología tiene, entre otras ventajas, la de conservar la integridad de la red aún cuando algún dispositivo salga fuera de servicio o se produzcan cortes en la red. 1
2
3
4
Figura 21.27. Topología en BUS.
n
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
947
• Anillo. En este tipo de topología todos los dispositivos se interconectan entre sí formando un anillo (Figura 21.28). En realidad es la integración de varios enlaces punto a punto, pero a diferencia de la topología en estrella, cada dispositivo solo tiene la responsabilidad de pasar de un enlace a otro los mensajes que le lleguen de los dos nodos vecinos, siempre que no vayan dirigidos a él. Una ruptura de la red o la puesta fuera de servicio de alguno de los nodos no impediría la continuidad de la red a través de la rama que queda interconectada, pero si más de un nodo sale de servicio entonces la red se fragmentaría en varias partes afectando su funcionamiento. Este tipo de topología es apropiado solo en aquellos casos donde se disponga de dos puertos de enlace en cada nodo, por lo que es de poca utilidad para interconectar elementos destinados a adquisición, supervisión o control de equipos o instrumentos. 1
2
3 5
4
Figura 21.28. Topología en anillo.
• Malla. Este tipo de topología es en realidad una topología estrella generalizada que intenta, insertando redundancia, aumentar la confiabilidad y disponibilidad de la red (Figura 21.29). El nivel de redundancia dependerá de los grados de libertad que se deseen incluir. Cuanta más redundancia, mayor posibilidad de interconexión habrá entre los diferentes nodos, pero también mayor será el costo, la carga y complejidad computacional de los algoritmos de encaminamiento en los nodos. A diferencia de la topología en bus, como los enlaces son todos punto a punto no se requiere de algoritmos de arbitraje de acceso al enlace. • La elección de la topología es una decisión importante a la hora de montar un sistema de adquisición de datos o de control de procesos, pero estará determinado fundamentalmente por las normas o estándares que soporten nuestros dispositivos. Aunque años atrás la mayor parte de los sistemas de medición, actuadores, controladores, etc., incorporaban una interfase RS-232, con el tiempo la mayoría de fabricantes ofrece interfases RS-485, TCP/IP, y en algunos casos, incluso, es posible elegir entre diversas posibilidades.
Técnicas de análisis y caracterización de materiales
948
1
2
5
4
3
Figura 21.29. Topología mixta.
8. Tipo de cable: el tipo de cable utilizado para la transmisión determina directamente parámetros tan importantes como la velocidad máxima de transferencia y la distancia de la conexión. A continuación se describen los más utilizados. • Par trenzado. Está formado por uno o varios pares trenzados de cables que pueden estar apantallados o no, es decir, rodeados de una malla metálica que ayuda a evitar interferencias externas. Si el cable es apantallado (Figura 21.30) se conoce como STP (Shielded Twister Pair) y si no es apantallado (Figura 21.31) como UTP (Unshielded Twister Pair). Existen varias categorías de cable UTP o STP, desde Categoría 1 a 5, que determinan la velocidad máxima de transmisión de datos. La impedancia característica del par trenzado depende del tipo de cable (geometría, características electromagnéticas del medio, etc.) y determina el ancho de banda. Típicamente la impedancia característica está en el orden de 100 a 120 W.
Par trenzado Cubierta Malla
Figura 21.30. Par trenzado apantallado.
Par trenzado Cubierta
Figura 21.31. Par trenzado no apantallado.
• Coaxial. Está formado por un hilo de cobre rodeado de una vaina aislante, que a su vez está rodeada por una malla también de cobre (Figura 21.32).
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
949
Típicamente la impedancia característica es de 50 ó 75 W. Existen básicamente dos tipos de cable coaxial, coaxial fino y coaxial grueso. Las características de transmisión y estándares de comunicación del cable coaxial y de par trenzado se recogen en la Tabla 21.14. Aislante
Cubierta Núcleo de cobre
Malla
Figura 21.32. Cable coaxial. Tabla 21.14. caracTerísTicas de TransMisión y esTándares de cOMUnicación seGún el TiPO de cable Par trenzado velocidad (Mbps) Distancia (m) Estándar Conector
4 (categoria2) ... 10.000 (categoría 7) 100 10 Base T, 100 Base TX Rj-45
Coaxial fino coaxial grueso 10 185 10 base 2 BNC
100 500 10 Base 5 AUI
• Fibra óptica. Ofrece la mayor velocidad de transmisión a grandes distancias, y la mayor fiabilidad porque no tiene problemas de atenuación (pérdida de señal), capacitancia (distorsión de la señal), ni cruces (interferencia). Tiene un tiempo promedio de fallos estimado de 114 años. Su precio es muy superior al cable coaxial y al par trenzado. • Inalámbrico. Emplea, normalmente, ondas de radio o de luz infrarroja (Figura 21.33). La comunicación inalámbrica proporciona velocidades de transmisión dependen del estándar y pueden alcanzar los 300 Mbps.
Figura 21.33. Transmisión inalámbrica.
Técnicas de análisis y caracterización de materiales
950
21.5.1.1.1. Parámetros de comunicación Como se ha visto, la transmisión de un dato utilizando un protocolo asíncrono, requiere el envío una serie de bits: bit de comienzo, bits de datos y bits de parada, cuyo número puede variar dependiendo del código utilizado y del protocolo empleado por los instrumentos, dispositivos o equipos a comunicar. Sea cual fuera el caso la sincronización deberá hacerse al menos a uno de los siguientes niveles: – Sincronismo al nivel de bit, para fijar el instante en que se debe comenzar a enviar o leer un bit. – Sincronismo al nivel de carácter, gracias al cual el receptor reconoce el número de bits que corresponden a un carácter, o dicho de otra manera, cuál es el primer bit de un carácter. – Sincronismo al nivel de bloque, que define el conjunto de caracteres que formarán la unidad básica para el tratamiento de errores, paquetes de datos, tramas, mensajes, etc. Estos tres niveles de sincronismo determinan los distintos mecanismos o métodos a utilizar para la detección de errores durante la comunicación, como el envío de un bit de paridad (pudiéndose trabajar con paridad par, paridad impar o sin paridad) o el uso de códigos de redundancia horizontal o vertical: BCC, CRC, etc. El estudio en profundidad sobre cómo calcular el código de detección de error correspondiente a un mensaje o trama determinado correspondería a un tratado de comunicaciones digitales, por lo que aquí no se va a profundizar más en ellos. Por último, en el caso de que la interfase serie permita la conexión de varios transmisores o receptores, en una sola línea de comunicación, será imprescindible asignar un número de identificación a cada uno de ellos. Normalmente, esto se hace empleando un par de dígitos, bien en decimal (00.....99) o en hexadecimal (00h.....FFh), excepto cuando se utiliza una interfase cuyo protocolo de comunicación es TCP/IP, empleándose en este caso un número IPv4, es decir, 4 series de 3 dígitos (cuyo valor va de 000 a 255) separadas entre sí por un punto. Todo esto lleva a establecer los parámetros de comunicación, que se enumeran en la Tabla 21.15. Tabla 21.15. ParáMeTrOs de cOMUnicación en Una TransMisión serie asíncrOna Número de bits de datos (Data bits): Paridad (Parity bit): Número de bits de paro (Stop bit): velocidad de transmisión (baudios): ID del dispositivo: Código de redundancia:
5............8 Par, Impar o Sin paridad 1, 1,5 o 2 300, ..., 9.600, ..., 115.200 0, ..., 99 o 00h, ..., FFh nnn.nnn.nnn.nnn (IPv4) BCC, CRC, ...
Para que la comunicación entre dos instrumentos, dispositivos o equipos, utilizando una interfase serie con protocolo asíncrono, se lleve a cabo de forma correcta,
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
951
todos ellos deben estar configurados con idénticos parámetros de comunicación. Esto no implica necesariamente que no puedan conectarse equipos con parámetros de comunicación distintos en una misma red, puesto que siempre es posible recurrir a reinicializar el puerto de comunicaciones del ordenador tantas veces como sea necesario para comunicarse con equipos de diferentes características. 21.5.1.1.2. Protocolos de comunicación Se entiende por protocolo de comunicación el conjunto de formatos de mensaje y de reglas que dos o más equipos deben seguir para intercambiar dichos mensajes y transmitirse información. En general, la mayoría de los dispositivos que incorporan comunicaciones digitales emplean un protocolo asíncrono, donde la unidad mínima de información es el carácter. Un mensaje completo constituye lo que se denomina trama, estando estas compuestas por un conjunto de caracteres agrupados secuencialmente en el tiempo. Una trama suele estar formada por varios campos, y estos, a su vez, por varios caracteres. Los campos pueden ser de dos tipos, los que contienen la información a transmitir (tal como el nombre y el valor numérico de las variables a adquirir o controlar) y los que contienen caracteres de control (tales como: principio de mensaje, fin de mensaje, identificador del dispositivo, códigos de redundancia, etc.). Supongamos un dispositivo cuyo protocolo fuera el indicado en la Tabla 21.16, según el cual el mensaje o trama para modificar el punto de consigna seguiría el modelo STXnnEPCvvvvvETX (por ejemplo, para fijar el punto de consigna del dispositivo número 28 en un valor igual a 1130: STX28EPC01130STX). Un aspecto a considerar es que muchos fabricantes de equipos limitan el conjunto de caracteres empleado para componer las tramas, lo que introduce un alto nivel de incompatibilidad con otros protocolos y en definitiva con equipos de otros fabricantes. En la implementación de un protocolo hay que tener en cuenta que este debe contemplar o incluir: – Delimitadores de trama: son caracteres que indican el comienzo y el final del mensaje. Algunos protocolos utilizan tramas de longitud fija y otros tramas de longitud variable, siendo necesario, introducir en la trama un delimitador que indique al receptor la longitud de la misma o el final de mensaje. En el protocolo indicado en el ejemplo de la Tabla 21.16 los delimitadores corresponden a los caracteres STX y ETX. Tabla 21.16. ejeMPlO de PrOTOcOlO de Un disPOsiTivO asíncrOnO secuencia de caracteres ( = trama) Principio de mensaje: ID del dispositivo: Lectura / Modificación de una variable Punto de consigna valor numérico de la variable Fin de mensaje:
carácter según el código ascii STX (0x02 del código ASCII) nn (2 dígitos en decimal del 01 al 99) L/E PC vvvvv (5 dígitos en decimal, sin signo) ETX (0x03 del código ASCII)
952
Técnicas de análisis y caracterización de materiales
– Direccionamiento: necesario siempre que en una misma red se conecten varios dispositivos, con el objeto de que cada uno de ellos identifique los mensajes a él destinados. La asignación de direcciones puede ser estática o dinámica, en el primer caso la dirección se asigna una sola vez durante el proceso de configuración de la red, mientras que en el segundo la dirección se asigna a un equipo cada vez que este hace una petición de conexión a la red. – Secuenciación: es el mecanismo que garantiza la correcta ordenación de los mensajes o tramas y la integridad de la información transmitida en caso de pérdida de mensajes, permitiendo la retransmisión de tramas específicas en caso necesario. – Verificación y control de errores: debe realizarse siempre un cuidadoso análisis de las tramas transmitidas, verificando que la información esté completa y sea correcta, para lo cual suelen incluirse campos de validación en las propias tramas. Aquellos protocolos que no incorporan mecanismos de validación no pueden garantizar una transmisión de información fiable y libre de errores. – Control de enlace: que garantice un muestreo de todas las señales a adquirir o variables a controlar en un intervalo de tiempo mínimo. El control de enlace habilita la transferencia solo cuando se va a transmitir un mensaje y no permite que más de un dispositivo transmita en la red simultáneamente, evitando así posibles colisiones. El grado de compatibilidad de los protocolos de distintos fabricantes es un factor muy importante para el diseño de redes universales siendo primordial garantizar la no interferencia entre dispositivos de diferentes fabricantes. 21.5.1.1.3. Integración de dispositivos en redes Las redes universales donde colaboran entre sí dispositivos de varios fabricantes armónicamente para conseguir sistemas de adquisición de datos, supervisión y control potentes y fiables es todavía una utopía. Por ejemplo, imaginemos que para fijar el punto de consigna, del dispositivo número 5, en 1.528 se ha de enviar el mensaje STX05EPC01528ETX, y que para el dispositivo número 1, conectado en la misma red, el mensaje C01528ETX significa que su parámetro 5 de tomar el valor 28. Esto supondría que al enviar el primer mensaje, se habría modificado el parámetro 5 del dispositivo número 1 (ya que el segundo mensaje está contenido en el primero), sin que esto fuera lo que se pretendía. Una red universal, debe asegurar la no interferencia entre dispositivos, y la posibilidad de ampliación de la misma. En el caso de que no pueda asegurarse la no interferencia será necesario recurrir a: – Conectar el dispositivo o dispositivos no compatibles en una red paralela, lo que implicará disponer de más de un puerto de comunicaciones digitales en el ordenador. – Conectar el dispositivo o dispositivos no compatibles en la misma red pero utilizando parámetros de comunicación (tales como velocidad, número de
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
953
bits de datos, tipo de paridad, etc.) diferentes. Esto supondrá una ralentización de la comunicación al tener que reinicializar los puertos de comunicación cada vez que se inicie la transmisión con un dispositivo de distinto tipo. – Incorporar un filtro de mensajes o un «encapsulador» de mensajes, lo que supone incorporar hardware adicional. Hasta el momento en que todos los fabricantes de dispositivos o equipos, que implementan comunicaciones digitales, desarrollen un protocolo estándar será imprescindible conectar los equipos en «redes de Babel», donde cada uno envíe mensajes construidos según los distintos protocolos propietarios. La Tabla 21.17 recoge ejemplos del protocolo empleado por dos dispositivos distintos, uno de ellos utiliza el código BCC para la detección de errores BCC y el otro no emplea ningún código de detección de error. En esta tabla se indican los caracteres que componen una trama (o mensaje) de encuesta y de respuesta para ambos dispositivos. En el ejemplo correspondiente al dispositivo 1 (que es el número 27 de una red) se solicita (encuesta) el «valor de proceso» (Pv1) y este responde que el valor es 777 (con 5 dígitos: 00777). En el caso del dispositivo 2 (que es el número 17 de una red) se solicita (encuesta) que indique su lectura (del único parámetro que es capaz de leer) y este responde que la lectura es +3.1117. 21.5.1.1.4. Características de algunas interfases serie RS-232C Sin lugar a dudas, la interfase EIA RS-232C es la más antigua y conocida de las interfases serie empleadas en los PC, de hecho, los puertos serie que incorporan los PC de manera estándar son interfases RS-232C. Debido al extenso uso que se hace de ella, la RS-232C se ha convertido, paradójicamente, en la interfase más no-estándar de los estándares existentes. La causa que ha originado este hecho, es su empleo en aplicaciones y propósitos para los que no fue diseñada inicialmente. La RS-232C fue desarrollada en los años sesenta como una interfase estándar para la conexión, a distancias medias y con velocidades de transferencia bajas, de data terminal equipment (DTE), tales como los terminales utilizados en los mini-ordenadores, a data comunications equipment (DCE), tales como un módem (Figura 21.34). Con el paso del tiempo, la RS-232C se ha convertido en una interfase de propósito general, útil para la conexión de muy diversos equipos. Hay que hacer notar que esta interfase tiene dos líneas de datos, ya que soporta comunicación full-duplex, es decir, los periféricos interconectados pueden enviar y recibir datos simultáneamente (si ellos son capaces). La velocidad máxima de transmisión de datos alcanza los 115.200 baudios, y la máxima distancia a la que pueden situarse los dispositivos es de unos 15 m (aunque esta longitud puede incrementarse si se trabaja a bajas velocidades y en entornos con niveles de ruido reducidos). El modo de transmisión es simple, y trabaja con líneas de transmisión unipolares (señales siempre positivas).
Técnicas de análisis y caracterización de materiales
954
Tabla 21.17. ejeMPlOs de TraMas de encUesTa y resPUesTa de dOs disPOsiTivOs encuesta - dispositivo 1 código
carácter ascii
símbolo ascii
STX
☻
(2) Dirección
27
27
(3) Solicitud
R
R
(4) Identificadores
Pv1
Pv1
(5) Terminador
ETX
♥
(1) Inicio
(6) BCC
a
respuesta - dispositivo 1 código (1) Inicio (2) Dirección (3) Acuse
carácter ascii
símbolo ascii
STX
☻
27
27
ACK
♠
(4) Identificadores
Pv1
Pv1
(5) Dato solicitado
00777
00777
(6) Terminador
ETX
♥
(7) BCC
a
encuesta - dispositivo 2 carácter ascii
símbolo ascii
(1) Delimitador
código
#
#
(2) Dirección
17
17
(3) Terminador
CR
♪
carácter ascii
símbolo ascii
>
>
+3.1117
+3.1117
CR
♪
respuesta - dispositivo 2 código (1) Delimitador (2) valor (3) Terminador
La RS-232C estándar utiliza un conector de 25 pines. Los PC actuales suelen incluir dos puertos serie (que solo soportan comunicación asíncrona) pudiendo incorporar conectores sub-D de 9 o de 25 pines. La asignación de señales de los mismos (pin-out) está representada en la Figura 21.35.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador Pin
Pin
DTE
1
Protective Ground
1
7
Signal Ground
7
2
Transmited Data (TXD)
2
3
Received Data (RXD)
3
4
Request to send (RTS)
4
5
Clear to Send (CTS)
5
6
Data Set Ready (DSR)
6
20 8
955
Data Terminal Ready (DTR)
DCE
20
Received Line Signal Detector (Camier Detect)
8
23
Speed Select
23
15
Transmit Signal Element Timing
15
17
Receive Signal Element Timing
17
22
Ring Indicator (R)
22
Figura 21.34. Conexión estándar entre un DTE y un DCE.
RS-423A Esta interfase puede considerarse como una versión mejorada de la RS-232C, permitiendo velocidades de transferencia de datos de hasta 100 Kbps y longitudes de cable de hasta 1.200 m, en función de las condiciones del entorno (Tabla 21.18). Tabla 21.18. velOcidad MáXiMa seGún la disTancia en Una inTerfase rs-423a distancia (m)
velocidad (Kbps)
10
120
100
10
1.200
3
La principal diferencia entre la RS-232C y la RS-423A es que esta última soporta la conexión de varios receptores en la misma línea, hasta un máximo de 10 dispositivos.
Técnicas de análisis y caracterización de materiales
956
TERMINAL ASÍNCRONO Pin 5
3
2
7
8
6
4
1
9 Ring Indicator (R)
Signal Ground
Carrier Detect
Transmitted Data (TXD)
Data Terminal Ready (DTR)
Received Data (RXD)
Data Set Ready (DSR)
Request to send (RTS) Clear to Send (CTS)
TERMINAL ASÍNCRONO
Pin 7
Signal Ground
2
Transmitted Data (TXD)
3
Received Data (RXD)
4
Request to send (RTS)
5
Clear to Send (CTS)
6
Data Set Ready (DSR)
20 8 22
Data Terminal Ready (DTR) Received Line Signal Detector (Camier Detect) Ring Indicator (R)
9
+ Transmit Current Loop Data
11
- Transmit Current Loop Data
18
+ Receive Current Loop Data
25
- Receive Current Loop Data
Figura 21.35. Pin-out de los conectores de 9 y 25 pines de una RS232.
RS-422A Otra interfase serie estándar, cuya popularidad se ha incrementado con el tiempo, es la RS-422A, que trabaja con transmisión de datos diferencial y bipolar (señales negativas y positivas). Al transmitir sobre líneas equilibradas, generalmente un par trenzado apantallado, esta interfase posee mayor resistencia a las interferencias externas.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
957
Las características enumeradas antes, sobre la RS-422A, posibilitan que esta interfase proporcione velocidades de transmisión de datos muy elevadas (hasta 10 Mbps) y que permita la conexión de periféricos a grandes distancias (hasta 1200 m). Al igual que la RS-423A, la RS-422A puede tener múltiples receptores en una misma línea (10 máximo), con un solo transmisor. Por esta razón se utiliza ampliamente en sistemas, que requieren el envío de datos a varios equipos, desde un mismo receptor. Hay variaciones en la designación de pines usados para interconectar equipos a través de RS-422A. La mayoría de las tarjetas, con este tipo de interfase, para PC tiene un conector de 9 pines, sin embargo la asignación de señales a cada uno de ellos varía con el fabricante. Como puede apreciarse en la Figura 18.36, la RS-422 emplea dos líneas de dos hilos (4 hilos), una la transmisión de datos (TXD), y otra para la recepción (RXD).
AUXOUT +
1 6
TXD +
7 GND
RXD -
4 9
AUXIN +
TXD -
3 8
RXD +
AUXOUT -
2
AUXIN -
5
Figura 18.36. Pin-out de un conector de 9 pines de una RS422.
RS-485 La interfase EIA RS-485 es prácticamente una copia de la RS-422A, con especificaciones similares a las descritas antes para esta interfase. Las diferencias fundamentales entre ambas son dos: la primera es que la RS-485 solo emplea un par de hilos para la transmisión y recepción de datos (TXD y RXD), por lo que la comunicación es half duplex; y la segunda es que la RS-485 soporta hasta 32 transmisores y 32 receptores en la misma línea según la norma estándar. En la práctica el número de transmisores y receptores en la misma línea puede alcanzar los 256. Puesto que todos los transmisores y receptores comparten los mismos cables, hay que asegurar que solo un transmisor este activo en cada instante o intervalo de tiempo, y una forma de realizar esto es establecer una relación de «master-slave» en la línea. Los slaves solo podrán transmitir datos cuando reciban la orden apropiada de un master.
958
Técnicas de análisis y caracterización de materiales
El uso creciente de las líneas de transmisión de datos diferenciales ocasionó la necesidad de múltiples combinaciones de emisores y receptores sobre una línea de par trenzado. La principal aportación de la norma RS-485, introducida en 1983, fue permitir la seguridad en las comunicaciones multipunto, manteniendo las exigencias de velocidad de transmisión de datos y longitud del cable. La Figura 21.37 muestra una tarjeta con dos puertos configurables independientemente como RS-422 o RS-485, mientras que la Figura 21.38 compara las señales transmitidas y recibidas por una RS-232 y una RS-422 o RS-485 para un mismo dato o secuencia de bits.
Figura 21.37. Tarjeta con dos puertos RS422/RS485.
RS-449 La RS-449 es una interfase de propósito general que permite alcanzar velocidades de transmisión de hasta 2Mbps y distancias de hasta 1200 m y, en caso de trabajar en modo diferencial, una gran inmunidad frente al ruido. Sus características eléctricas son compatibles con la RS-422 y RS-423 respectivamente (modo diferencial y modo simple). Las señales tienen correspondencia con la filosofía de la RS-232 pero con una serie de funciones nuevas orientadas al servicio, y las señales se dividen en tres grupos: datos, control y diagnóstico. Su empleo no se ha extendido para propósitos de adquisición, supervisión y control de equipos. IrDA La definición del estándar IrDA (Infrared Data Association) para enlaces de datos mediante infrarrojos y la disponibilidad de circuitos integrados que la satisfacen constituyen una manera muy fácil para el intercambio de información entre cualquier tipo de dispositivo. Con IrDA se alcanzan velocidades de hasta 115 Kbps y distancias de pocos metros. Las ondas de luz infrarroja tienen problemas añadidos de obstáculos visuales, entornos de luz cambiantes, etc, pero debido a la simplicidad del protocolo de intercambio y al económico hardware los enlaces IrDA han ido ganado popularidad rápidamente.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
959
Datos a transmitir «1» «0»
Señal de salida del emisor RS232
+V
Señal de llegada del receptor RS232
-V V de referencia
Señal de salida del emisor RS422/485 +5V 0 +5V 0
Señal en hilo + Señal en hilo -
Señal de llegada del emisor RS422/485 +5V 0 +5V 0
Señal en hilo + Señal en hilo -
Figura 21.38. Comparación RS232 y RS422/485.
Ethernet (TCP/IP) Las interfases Ethernet (Figura 21.39) han sido y son utilizadas habitualmente para la conexión de PC a redes locales o redes de área amplia tales como Internet. Sin embargo, en los últimos tiempos están apareciendo numerosos dispositivos que implementan una interfase Ethernet, tales como impresoras, escáneres, etc, y por supuesto algunos equipos o instrumentos de laboratorio, como cromatógrafos de gases o de líquidos. Actualmente existe una tendencia cada vez mayor a incluir una interfase Ethernet en estos equipos e instrumentos.
Figura 21.39. Interfase Ethernet.
Técnicas de análisis y caracterización de materiales
960
Una interfase Ethernet, utilizando el protocolo TCP/IP, posibilita la conexión de un número indefinido de dispositivos o instrumentos, permitiendo velocidades de 10 Mbps o 1.000 Mbps y distancias prácticamente ilimitadas gracias al empleo de dispositivos tales como gateways, routers, etc. Otras Aunque existen otras interfases serie, como la USB (Universal Serial Bus) o la IEEE 1394 (también conocida como firewire), que incorporan de manera estándar los PC actuales, no se utilizan en sistemas SCADA para equipos de laboratorio. La Tabla 21.19 muestra una comparativa, de algunas características físicas y eléctricas, de las interfases serie ya descritas y utilizadas habitualmente para adquisición de datos, supervisión y control de equipos. Tabla 21.19. caracTerísTicas y ParáMeTrOs elécTricOs de las disTinTas inTerfases diGiTales serie Parámetro rs-232c rs-422a rs-423a rs-485 Simple
Diferencial
Simple
Diferencial
N.º máx. de transmisores y receptores
Modo de transmisión
1T 1R
1T 10 R
1T 10 R
32 (256)T 32 (256)R
Distancia máxima (m)
16
1200
1200
1200
velocidad máxima (Kbps)
20
10.000
100
10.000
voltaje máximo de salida (v)
±25
-0.25....+6
±6
-7....+12
±5 a ±15 ±25
±2 ±6
±3.6 ±6
±1.5 ±6
voltaje mín/máx del transmisor (v)
±15
-10....+10
±12
-7....+12
Resistencia de entrada del receptor (KW)
Rango de voltaje de entrada del receptor (v)
3 ... 7
4
4
>=12
Sensibilidad del receptor (mv)
±3.000
±200
±200
±200
21.5.1.2. Interfases paralelo Aunque una interfase paralelo es inherentemente más rápida que una interfase serie equivalente, hay que hacer algunas puntualizaciones. La mayoría de las interfases paralelo emplean niveles estándares de voltaje digital, usualmente señales compatibles TTL (transistor-transistor logic). Esto limita su inmunidad al ruido, tanto más cuanto mayor sea la longitud de los cables, siendo necesario utilizar cables apantallados en la mayor parte de los casos. Además, las interfases paralelo presentan limitaciones en cuanto a la longitud del cable, que debe ser de unos pocos metros (del orden de 10 m máximo), debido a problemas de atenuación (pérdida) de señal. 21.5.1.2.1. Características de algunas interfases paralelo Seguidamente se explicarán algunas de las interfases paralelo más conocidas y utilizadas tradicionalmente para adquisición de datos, supervisión y control de equipos e instrumentos de laboratorio.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
961
Centronics unidireccional La interfase paralelo Centronics ha sido utilizada tradicionalmente para conectar una impresora a un PC. La interfase Centronics es una interfase unidireccional de 8 bits, diseñada casi exclusivamente para transferir datos desde un ordenador hasta una impresora usando señales TTL. La transmisión alcanza velocidades de 100 MB/s. El puerto paralelo de un PC incluye un conector hembra de 25 pines (DB-25), mientras que las impresoras utilizan un conector hembra especial (card edge) de 36 pines (denominado conector Centronics), por lo que para la conexión de cualquier impresora al puerto paralelo del PC se emplea un cable especial. En la Tabla 21.20 se indican las señales que son transmitidas por cada uno de los 25 pines del conector. Tabla 21.20. PIN-OuT de Un cOnecTOr de Un PUerTO ParalelO Pin n.º
señal
dirección
1
-STROBE
OUT
2 3 4
DATA 0
OUT
DATA 1
OUT
DATA 2
OUT
5
DATA 3
OUT
6 7 8 9
DATA 4
OUT
DATA 5
OUT
DATA 6
OUT
DATA 7
OUT
10
-ACK
IN
11 12 13 14
BUSY
IN
PE
IN
SELECT
IN
-AUTO FD XT
OUT
15
-ERROR
IN
16 17 18-25
-INIT
OUT
-SELECT IN
OUT
GROUND
Un PC soporta hasta 3 puertos paralelos, designados como LPT1, LPT2 y LPT3, y cada uno de ellos utiliza 3 direcciones E/S consecutivas (las cuales comienzan en 378h, 278h y 3BCh). Una interfase paralelo centronics puede ser utilizada para otros propósitos, además de para la conexión de una impresora. Así, por ejemplo, existen hoy día diversos periféricos externos que pueden conectarse al puerto paralelo del ordenador: unidades ZIP, CD-ROM, escáneres, etc., e incluso tarjetas convertidoras A/D-D/A para adquisición de datos, supervisión y control por ordenador. Por supuesto, para poder
962
Técnicas de análisis y caracterización de materiales
utilizar dichos periféricos, conectados al puerto paralelo, será necesario instalar en el PC el software necesario para el correcto funcionamiento de los mismos. Este software deberá ser proporcionado el fabricante del periférico o desarrollado por el propio usuario. IEEE-488 (GPIB) Otra interfase paralelo muy común es la denominada IEEE-488 o GPIB (General Purpose Interface Bus). Esta interfase (Figura 21.40), que en ocasiones se denomina también HPIB, fue desarrollada originalmente por Hewlett Packard para la conexión entre ordenadores y sus instrumentos programables. La interfase GPIB fue concebida para conectar múltiples periféricos a un ordenador o a otro periférico de control, pudiéndose alcanzar velocidades de transferencia de datos de hasta 1,5 MB/s.
Figura 21.40. Interfase GPIB.
La interfase GPIB transfiere datos asíncronamente a través de ocho líneas de datos paralelas, utilizando varias líneas de control. Otra característica de la interfase GPIB es que permite conectar y controlar simultáneamente hasta 15 periféricos distintos, actuando, en muchas ocasiones, como un bus convencional de ordenador. Cada periférico GPIB tiene su dirección propia en el bus, lo que posibilita su acceso de forma independiente. Un cable típico, para interfase GPIB, está constituido por 24 cables apantallados, por 16 de ellos circulan las señales generadas por esta interfase y los otros 8 van conectados a masa (Figura 21.41). El conector empleado es un conector especial, que permite el encadenamiento de los periféricos formando configuraciones tanto lineales como en estrella. En general, la longitud del cable entre dos periféricos no debe ser mayor de 2 metros, y la longitud total del cable que constituye el bus no debe superar los 20 metros. Estas limitaciones pueden superarse añadiéndose extensiones especiales del bus. Una tercera limitación viene impuesta por el hecho de que, al menos, dos terceras partes de los periféricos deben estar encendidos, sin embargo, el último periférico no precisa una terminación especial.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
DIO1
1
13
DIO5
DIO2
2
14
DIO6
DIO3
3
15
DIO7
DIO4
4
16
DIO8
EOI
5
17
REN
DAV
6
18
GND
NRFD
7
19
GND
NDAC
8
20
GND
IFC
9
21
GND
SRQ
10
22
GND
ATN
11
23
GND
SHIELD
12
24
SIGNAL GROUND
963
GPIB
Figura 21.41. Pin-out de un conector GPIB.
La GPIB trabaja bajo un protocolo del tipo «master-slave» para la transferencia de datos. Únicamente puede haber un «master», o controlador, en el bus, en cada momento, y este normalmente es el ordenador. Cualquier periférico conectado al bus de la GPIB posee uno de los tres atributos siguientes: Controller, Talker o Listener. El controller, que es el master, maneja el bus, enviando comandos que habilitan o deshabilitan a los talkers o listeners, que son los slaves. Los talkers envían datos al bus cuando el controller lo indica, y los listeners aceptan datos del bus. Un mismo periférico puede tener múltiples atributos, pero no simultáneamente, así, el ordenador puede ser controller, talker o listener. Sin embargo, un periférico de solo lectura (como una impresora o un plotter) únicamente podrá ser listener, y uno de solo escritura (como un voltímetro digital) podrá ser tanto talker (cuando envía una lectura de datos) como listener (cuando reciba información para su propia configuración). – Controller: maestro; maneja el bus. Envía comandos que habilitan o deshabilitan a los esclavos (Talker o Listener). – Talker: esclavo; envía datos al bus cuando el Controller lo indica. – Listener: esclavo; aceptan datos del bus.
Técnicas de análisis y caracterización de materiales
964
Para terminar, hay que destacar que existe un buen número de paquetes de software comerciales que soportan interfases GPIB. Además la mayor parte de las tarjetas que se emplean para añadir una interfase GPIB a un PC, incluyen drivers para lenguajes de programación tales como BASIC, C y PASCAL, con objeto de que el usuario desarrolle su software a medida aprovechando estos drivers. IEEE 1284 o centronics bidireccional El estándar IEEE 1284, «Método de Señalización Estándar para Interfaz de Periféricos Paralelos Bi-direccionales para Computadoras Personales», fue creado debido a la ausencia de la definición de un estándar para comunicación paralela bidireccional entre computadoras personales y periféricos. Se desarrolló para abrir las posibilidades de comunicación entre ordenadores y periféricos inteligentes. Con el tiempo la IEEE 1284 ha ido sustituyendo a la interfase centronics unidireccional, y es el puesto paralelo que incorporan la mayoría de los PC y las impresoras hoy en día. Sus principales innovaciones son: – – – –
Añade capacidades bi-direccionales a la «Interfaz Paralela Centronics». Múltiples modos de operación bi-direccional. En modo de operación mejorado puede llegar a alcanzar velocidades de 2 mb/s. Nueva interfaz eléctrica, cableado y conector para mejorar rendimiento y confiabilidad conservando la compatibilidad hacia atrás.
SCSI La interfase paralelo SCSI (Small Computer System Interfase) se utiliza para conectar diversos periféricos a un ordenador, tales como discos duros de alta velocidad, CD-ROM, escáneres, etc. La interfase SCSI es una interfase paralela asíncrona, que originalmente se diseñó para trabajar a 8 bits, y posteriormente se implementó para 16 bits. Esta interfase, de propósito general, puede emplearse para conectar a un PC periféricos para adquisición de datos; sin embargo, esto raramente se lleva a cabo, exceptuando los Macintosh más antiguos que únicamente poseían un bus SCSI en lugar del actual NuBus. Antes de terminar con las interfases paralelo, hay que destacar que existen otras muchas interfases estándares de este tipo, además de la Centronics y la GPIB. Sin embargo, la mayoría de estas interfases propietarias no están soportadas por los equipos para adquisición de datos y control por ordenador basados en PC.
21.5.2. interfases analógicas (interfases no-estándar) En el caso de que se desee comunicar, con un ordenador, un equipo o instrumento de laboratorio, y este no disponga de comunicaciones digitales, será necesario insertar en el ordenador una interfase no estándar, es decir, una tarjeta para adquisición de datos, supervisión y control que permita recoger las señales enviadas por el equipo o
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
965
instrumento y enviar señales al mismo desde el ordenador. Este tipo de interfases no estándar se conocen, normalmente, como tarjetas convertidoras analógico-digitales (ADC) y tarjetas convertidoras digital-analógicas (DAC), ya que incorporan estos componentes en sus circuitos (ya explicados en apartados anteriores), permitiendo además enviar y recibir señales de dispositivos TODO/NADA (ON/OFF) a través de sus canales digitales.
21.5.2.1. Tarjetas ADC y DAC Las tarjetas ADC y DAC son propias de cada fabricante en particular, lo que supone que no cumplen ningún tipo de especificación estándar, por lo que el fabricante debe proporcionar siempre todas y cada una de las características de sus tarjetas o interfases, tanto a nivel hardware (niveles de señal que podemos adquirir o enviar, número de canales o señales que podemos adquirir, resolución, etc.), como a nivel software, en este sentido junto con la tarjeta debe venir incluida alguna aplicación que permita la lectura y el envío de señales o un manual que explique de forma detallada la manera de desarrollar tal aplicación. Actualmente, la mayor parte de fabricantes de tarjetas ADC y DAC suministran drivers, que posibilitan la comunicación con las mismas, para diversos sistemas operativos (o al menos para MS-Windows), y que facilitan enormemente la tarea de programación. Por otra parte, los fabricantes, también suelen comercializar aplicaciones que pueden ejecutarse bajo los sistemas operativos más habituales (en su gran mayoría MS-Windows). Las tarjetas ADC y/o ADC integran 4 tipos de canales distintos: – Canales de entrada analógicos o entradas analógicas, que permiten llevar hasta la tarjeta señales analógicas, con objeto de adquirir variables como: temperatura, pH, flujo o caudal, etc. – Canales de salida analógicos o salidas analógicas, a través de los cuales es posible enviar señales analógicas al equipo o instrumento de laboratorio, con el fin de controlar variables tales como: velocidad de giro de un motor, apertura de una rendija, flujo de gas, caudal de líquido, potencia eléctrica a suministrar, etc. – Canales de entrada digitales o entradas digitales, para la lectura o adquisición de señales digitales, que indican el estado de algún elemento o dispositivo TODO/NADA (ON/OFF) del equipo o instrumento de laboratorio, como por ejemplo: válvula abierta o cerrada, bomba encendida o apagada, etc. – Canales de salida digitales o salidas digitales, gracias a los cuales es posible enviar señales digitales, que permitirán activar o desactivar, abrir o cerrar, apagar o encender ciertos dispositivos TODO/NADA (ON/OFF) como válvulas, bombas, motores, etc. En la Figura 21.42 se muestra un esquema de una adquisición de datos y control por ordenador con tarjetas analógicas, y en la Figura 21.43 se muestran varias tarjetas analógicas.
966
Técnicas de análisis y caracterización de materiales
DAC1
Detectores, sensores y transductores
Elementos intermedios y finales de control
Figura 21.42. Esquema de una adquisición de datos y control por ordenador con una interfase analógica.
Figura 21.43. Tarjeta analógica (AD/DA).
Seguidamente se describen las características fundamentales de estos 4 tipos de canales, que serán las que determinen cuál será la interfase más apropiada para llevar a cabo la adquisición de datos, la supervisión o el control de un equipo o instrumento de laboratorio concreto.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
967
21.5.2.1.1. Entradas analógicas (AI = Analogic Input) Las características que hay que tener en cuenta a la hora de seleccionar una tarjeta ADC, en lo que respecta a los canales analógicos de entrada, son: – El número de entradas analógicas y de qué tipo son estas entradas (simples o diferenciales). Las tarjetas más utilizadas poseen normalmente 8 o 16 canales de entrada analógicos, aunque existen tarjetas con 32 y hasta con 48 canales, según cada fabricante en particular. Dependiendo de la forma en que pueda conectarse cada señal de entrada, los canales analógicos, pueden ser de dos tipos: simples o comunes (single-ended) o diferenciales (differential). En el primer caso las entradas están referenciadas a una masa común, y se utilizan cuando las señales de entrada son del orden de 1v o mayores, y la distancia entre la fuente de señal y el hardware de adquisición es pequeña (inferior a 4 metros, aproximadamente). En el caso contrario se utiliza el modo diferencial, donde cada entrada tiene su propia referencia, de manera que el ruido eléctrico puede ser eliminado, o al menos atenuado. Normalmente, todos los fabricantes de tarjetas ADC indican en sus manuales cual es la forma correcta de realizar la conexión de las señales para cada una de las entradas analógicas, en función de que los canales de la tarjeta sean simples o diferenciales. Por último, cabe destacar que existen tarjetas en las que pueden configurarse los canales de entrada analógicos como simples o diferenciales. En general, se podrá escoger entre 16 canales simples u 8 canales diferenciales. – La resolución se puede definir como el cambio de señal más pequeño que se puede detectar en una medida. Este valor viene especificado por los fabricantes de tarjetas ADC por el número de bits del convertidor AD. Las tarjetas ADC suelen tener 12 bits de resolución, aunque existen tarjetas de 14, 16 y 24 bits de resolución. Según el código binario, con 12 bits podemos representar 212 valores diferentes, es decir 4096 valores discretos distintos. Supongamos que con una de las entradas analógicas de nuestra tarjeta, con 12 bits de resolución, se desea adquirir una temperatura, cuyo rango varía entre 0 ºC y 1.000 ºC. Esto implicaría que, dentro de este rango de temperatura, el ordenador puede recibir 4096 valores diferentes, o lo que es lo mismo, es capaz de discernir (1.000-0)/4096=0,244 ºC. Puesto que siempre se considera que el error de una entrada analógica es de +/- 1 bit, el error en la medida de la temperatura, en este caso, sería de +/-0,244 ºC. Hay que tener muy en cuenta que aquí solo se ha considerado el error en la medida correspondiente a la resolución de la tarjeta ADC, y no errores debidos a ruido eléctrico, interferencias o no linealidad o inherentes al propio detector de temperatura. – El rango de entrada de una tarjeta ADC hace referencia al intervalo de valores de entrada permitidos, expresado en Voltios. Este rango de tensión de entrada puede ser unipolar (por ejemplo 0 - 10v) o bipolar (–5 – +5V). Siempre será recomendable elegir una tarjeta cuyo rango de entrada se adecue lo más posible al rango de la señal a medir. volviendo al caso anterior, en el que se disponía de una tarjeta de 12 bits de resolución para medir una temperatura entre 0 y 1.000 ºC, y suponiendo que el rango de la tarjeta ADC es unipolar de 0 a 5v,
968
Técnicas de análisis y caracterización de materiales
y el de la señal de entrada es, también, de 0 a 5v, el error cometido al medir la temperatura será, como se dijo antes, de 0,244 ºC. Sin embargo, si el rango de la tarjeta es bipolar de -5 a +5V, puesto que la señal de entrada varía entre 0 y 5V, el error en la medida de temperatura se duplicará (1.000-0/2,048 = 0,488 ºC), ya que únicamente se emplea la mitad del rango total de la tarjeta. Por esta razón conviene siempre hacer coincidir, en la mayor medida posible, el rango de la señal de entrada con el rango de la tarjeta ADC. Muchas de las tarjetas existentes en el mercado permiten que su rango de entrada sea configurado en intervalos diferentes: ±5, ±2.5, ±1,25, etc., e incluso hay tarjetas que pueden configurarse para trabajar con rango unipolar o con rango bipolar de forma independiente para cada canal. – La velocidad de muestreo o de conversión es el número de lecturas completas que es capaz de efectuar por segundo el convertidor AD de la tarjeta ADC. Este parámetro es muy importante cuando las señales a medir cambian muy rápidamente. Las tarjetas, que se comercializan hoy en día, alcanzan velocidades de muestreo desde los 25 kHz hasta los 330 kHz. Estas velocidades son más que suficientes para el muestreo de variables físicas o químicas, sin embargo pueden ser insuficientes en la medida de algunas variables eléctricas, ópticas, etc. Hay que señalar, que esta velocidad de muestreo no es la velocidad para uno solo de los canales de entrada analógicos de una tarjeta ADC, sino para el conjunto de ellos. Así, una tarjeta que posea una velocidad de muestreo de 100 KHz y 8 canales de entrada, será capaz de leer cada uno de ellos 100.000/8 = 12.500 veces cada segundo, mientras que si posee 16 canales leerá cada uno de ellos 100.000/16 = 6.250 veces cada segundo. – La manera en que un convertidor AD transfiere los datos leídos a la memoria del ordenador, está íntimamente ligada con la máxima velocidad de muestreo que realmente podamos alcanzar, y con la forma en que tendremos que desarrollar nuestro software. Como se vio en apartados anteriores, existen fundamentalmente 3 formas de transferir datos a la memoria del ordenador: • Transferencia mediante lectura/escritura directa en una dirección E/S (por software). • Transferencia mediante generación de interrupciones hardware. • Transferencia mediante acceso directo a memoria (DMA). Las tres formas citadas pueden ser utilizadas para llevar a cabo la transferencia de datos entre el convertidor AD y la memoria del ordenador. No todas las tarjetas implementan estas tres formas de transferencia, y debe ser el fabricante de la tarjeta el que especifique cuál de ellas podemos emplear con una determinada tarjeta ADC. Desde el punto de vista de velocidad, es suficiente con sondear por software la tarjeta de forma continua. En el caso de que el software realice otras tareas que penalicen fuertemente el periodo de muestreo, resulta conveniente realizar la transferencia aprovechando el hardware de interrupciones. De esta forma, el procesador solo es interrumpido por la tarjeta cuando realmente es necesaria la transferencia de datos. No obstante, vía interrupción se siguen manteniendo dos servidumbres importantes: por un lado, al ser un método de entrada/salida, el resto de actividades o dispositivos atendidos por el procesador (tecla-
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
969
do, disco, pantalla...) se ven penalizadas en cuanto a velocidad; por otro, solo una palabra puede ser transferida a memoria en cada interrupción. Las tarjetas ADC con un controlador DMA permiten salvar las limitaciones citadas, al liberar al procesador de las tareas de adquisición. Las tarjetas con un solo canal de DMA proporcionan velocidades de transferencia de hasta 100 KHZ. Para aplicaciones cuyos requerimientos sean mayores es necesario utilizar un doble canal de DMA, de esta forma la tarjeta puede realizar transferencia de datos sin tiempos de espera, pues mientras un canal es reprogramado con un nuevo buffer de memoria, por el otro canal se realiza la transferencia de un dato. 21.5.2.1.2. Salidas analógicas (AO = Analogic Output) Al igual que en el caso de los canales analógicos de entrada, hay una serie de características a estudiar, referentes a los canales de salida analógicos, a la hora de seleccionar una determinada tarjeta DAC: – El número de salidas analógicas. Tradicionalmente, las tarjetas DAC que se comercializan tienen un número de canales analógicos de salida mucho menor que de entrada, normalmente, 1 o 2 canales, sin embargo, también existen en el mercado tarjetas que son únicamente convertidoras DA, es decir, poseen salidas analógicas pero no entradas, en estos casos las tarjetas pueden llegar a tener 6, 12 o hasta 16 canales de salida analógicos. – La resolución, que en este caso también viene expresada como el número de bits del convertidor DA. Los valores más típicos de resolución son 12 y 16 bits. – El rango de salida. Los convertidores DA pueden generar dos tipos de señales analógicas: en tensión (Voltios) o en corriente (Miliamperios). Esta última resulta más conveniente en entornos con alto nivel de ruido eléctrico. Además de preservar la integridad de la señal a grandes distancias, con menor ruido por inducción, la salida en corriente no presenta perdida de señal. Los rangos más habituales para los canales analógicos de salida son: • En tensión: • Unipolar: entre 0 y 5v, o entre 0 y 10v • Bipolar: entre –5 y +5V, o entre –10 y +10V (en tarjetas especiales). • En corriente: 4 – 20 mA, o 0 – 20 mA. – El tiempo de conversión, que es el tiempo necesario para que la señal de salida alcance la estabilidad cuando la señal de entrada cambia. Este tiempo determina la velocidad de conversión y suele ser del orden de unos pocos microsegundos (4,..., 70 microseg); aunque puede llegar a ser del orden de nanosegundos en los convertidores más rápidos. Muchos fabricantes expresan este tiempo de conversión como una frecuencia, es decir, como el número de valores distintos de señal que es posible enviar por un canal de salida en cada segundo. Un valor típico es 30 KHz. 21.5.2.1.3. Entradas y salidas digitales (DI = Digital Input & DO = Digital Output) Las entradas y salidas digitales trabajan con señales TTL, es decir, señales de muy baja intensidad. Se emplean dos niveles de señal que se hacen corresponder con los dos estados posibles del sistema binario, normalmente el valor binario 1 correspon-
970
Técnicas de análisis y caracterización de materiales
de a un nivel alto (> 2,4 V) mientras que el valor binario 0 corresponde a un nivel bajo (< 0,8 V). A su vez, estos dos valores se corresponden con los dos posibles estados (abierto/cerrado, activado/desactivado, encendido/apagado...) de cualquier dispositivo TODO/NADA (ON/OFF). Las únicas características determinantes en cuanto a las entradas y salidas digitales son: – El número de canales. Las tarjetas ADC o DAC suelen tener 16 canales digitales de entrada y de salida digitales, aunque también existen tarjetas DI o DO (que únicamente poseen canales digitales de entrada o de salida) que pueden llegar a tener un número de canales mucho mayor. – El tiempo necesario para realizar la conmutación (especialmente en tarjetas que utilizan relés).
21.5.2.2. Tarjetas multiplexoras y acondicionadoras En el caso de que el número de señales a adquirir sea muy elevado o superior al número de canales de la tarjeta ADC de que se dispone será necesario emplear una o varias tarjetas multiplexoras conectadas en serie, de manera que por cada canal de la tarjeta ADC pueda leerse más de una variable. De igual forma, si el rango de los canales analógicos de entrada o salida de la tarjeta ADC o DAC no se adecua al rango de las señales analógicas provenientes del equipo o instrumento de laboratorio, habrá que utilizar tarjetas acondicionadoras de señal (Figura 21.44), que amplifiquen o atenúen la señal procedente de los dispositivos de medida o de la tarjeta DAC.
Figura 21.44. Tarjetas acondicionadoras.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
971
21.5.2.2.1. Multiplexión Las tarjetas multiplexoras son aquellas que, conectadas a las entradas analógicas de una ADC, permiten muestrear o adquirir, de forma sucesiva, distintas variables o señales a través de un solo canal de entrada. Se comercializan tarjetas multiplexoras de 8, 16, 32 y hasta 64 canales. Gracias a las tarjetas multiplexoras es posible muestrear un gran número de variables o señales sin necesidad de insertar varias tarjetas en el ordenador. Así, por ejemplo, si conectamos una multiplexora de 16 canales a cada una de las 16 entradas analógicas de una tarjeta ADC, podremos llegar a adquirir hasta 256 señales con una sola tarjeta ADC. En el caso de que, al configurar un sistema de adquisición de datos, se decida utilizar tarjetas multiplexoras, hay que tener en cuenta que la máxima velocidad a la que conseguiremos muestrear cada una de nuestras señales será igual a la velocidad de muestreo de la tarjeta ADC dividida por el número total de canales. Así, si la tarjeta ADC posee una velocidad de muestreo de 100 KHz, y en el caso antes citado, con 256 canales totales, nuestro sistema sería capaz de leer 100.000 / 256 = 390 veces por segundo cada una de las señales a adquirir. 21.5.2.2.2. Filtrado y amplificación La amplificación o atenuación es necesaria para que la amplitud de la señal se encuentre dentro de un rango razonable en referencia al rango de los canales analógicos de entrada de la tarjeta ADC. Por ejemplo, si un sensor produce una onda de amplitud 50 mv pico-pico, cuando sea directamente digitalizada por el convertidor AD (cuyo rango de entrada es normalmente de 0 a 5v) será seriamente distorsionada. Por el contrario, si la señal es amplificada primero por un factor de 100 (produciendo una onda de amplitud 5v pico-pico) se empleará el rango dinámico de entrada total de dicho conversor AD, por lo que se perderá un mínimo de información en esta conversión. Hay que destacar, sin embargo, que si una señal se somete a una amplificación muy alta sufrirá otro tipo de distorsiones, que no se van a explicar aquí ya que serían objeto de estudio de un tratado de electrónica. Existen en el mercado tarjetas multiplexoras que permiten amplificar o atenuar las señales originales, multiplicándolas por unos valores concretos antes de que sean llevadas hasta la tarjeta ADC. La ganancia de estas tarjetas, es decir, el valor por el que se multiplica la señal, normalmente es configurable, de forma que es posible elegir entre ciertos valores, por ejemplo: 0,5, 1, 2, 10, 50, 100, 200 o 1.000. Hay que notar que una ganancia 0,5 equivale realmente a dividir la señal por la mitad, es decir, a atenuarla. Esta amplificación es muy útil en algunos casos. Supongamos el caso de la medida de temperatura con un termopar, cuya señal varía entre 0 y 80 mv. Esta señal es realmente pequeña para ser introducida directamente en una entrada analógica de una tarjeta ADC, pero si previamente se multiplica por 100, la señal pasará a tener un rango entre 0 y 8v, que sí puede ser leída por una entrada analógica de rango, por ejemplo, 0 – 10v.
Técnicas de análisis y caracterización de materiales
972
Hay que tener especial cuidado al amplificar una señal, ya que si se comete el error de amplificarla en exceso, podrían llegar a deteriorarse los circuitos y componentes electrónicos de la tarjeta ADC e incluso podría dañarse el ordenador. Para terminar, hay que decir que algunas tarjetas multiplexoras incorporan también lo que se conoce como compensación de unión fria para termopar o CJC. La señal que genera un termopar varía en referencia a la temperatura de su unión fría, la cual teóricamente debe encontrarse a 0 ºC. Puesto que en la mayor parte de los casos la unión fría no se encuentra a 0 ºC, hay que introducir un factor de corrección. Esta corrección se realiza en algunas multiplexoras, que han sido diseñadas específicamente para la conexión de termopares, mediante un circuito eléctrico integrado en estas tarjetas.
21.6. señal y rUidO Toda señal que llega a un receptor consta de dos componentes, la primera es la señal enviada por el emisor, y la segunda, llamada ruido, está compuesta por información ajena e indeseada que degrada la exactitud y la precisión de una medida. En la mayoría de las medidas, el valor promedio de la señal de ruido (R) es constante e independiente de la magnitud de la señal (S), es decir, el efecto del ruido en el error relativo de una medida aumenta al disminuir el valor de la cantidad medida. Así pues, la relación señal/ruido (S/R) medido en dB, es un parámetro de calidad mucho más significativo que el valor absoluto de la señal de ruido, para describir la calidad de un método de medida o el funcionamiento de un equipo o instrumento.
21.6.1. Tipos de ruido Cualquier medida realizada por un equipo o instrumento de laboratorio se ve afectada por dos tipos de ruido: el ruido instrumental y el ruido químico. – El ruido instrumental está asociado a cada uno de los componentes eléctricos o electrónicos de un instrumento (fuentes de alimentación, transductores, procesadores de señal, etc.). El ruido generado por cada uno de estos componentes puede ser de distintos tipos, siendo la resultante final una señal compleja que, difícilmente, puede ser caracterizada en forma matemática. Se distinguen los siguientes tipos de ruido: • Ruido térmico o de Johnson. El ruido térmico se debe a la agitación térmica de los electrones o de otros portadores de carga en elementos como resistencias, condensadores, celdas electroquímicas, etc. Esta agitación de partículas se produce de forma aleatoria, generando variaciones de tensión que aparecen como ruido. Hay que hacer notar que el ruido térmico existe incluso en ausencia de corriente y solo desaparece en el cero absoluto de temperatura. • Ruido de disparo o de Schottky. El ruido de disparo se origina siempre que se produce movimiento de portadores de carga a través de barreras de potencial, tal como una interfase «pn» en un circuito electrónico, o el espacio vacío
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
973
entre el ánodo y el cátodo en tubos de vacío o fotocélulas. En estos casos las corrientes son la consecuencia de una serie de procesos cuantizados, determinados por la transferencia de electrones individuales a través de la unión, fluctuando al azar el número de estas transiciones de un instante a otro. • Ruido de centelleo o de parpadeo. El ruido de centelleo ocurre como resultado del flujo de portadores de carga en un medio discontinuo (resistencia de carbón, diodo, transistor etc.). Las discontinuidades del medio se pueden considerar como productoras de fluctuaciones en la velocidad de los portadores y de derivas en la dirección impuesta por una diferencia de potencial. Este tipo de ruido también se asocia a la recombinación que se produce en la región de la unión base-emisor en los transistores. El valor de la tensión eficaz del ruido de centelleo es inversamente proporcional a la frecuencia, y por tanto es un ruido a tener en cuenta principalmente a baja frecuencia. • Ruido ambiental. Se produce debido a que cada cable de un instrumento actúa como una antena potencial, capaz de captar radiación electromagnética y convertirla en una señal eléctrica. Este tipo de ruido suele englobarse dentro de los fenómenos conocidos como interferencias. • Ruido originado por el rizado de las fuentes de alimentación. Este tipo de ruido habitualmente conlleva un tratamiento aparte, pero puede ser considerado dentro de esta clasificación. En la banda de 100 Hz en Europa y de 120 Hz en Estados Unidos aparece una señal típicamente comprendida entre 10 nv y 100 nv consecuencia de un fenómeno denominado rizado de las fuentes de alimentación. Es un ruido de muy difícil eliminación y solo puede ser evitado mediante el uso de baterías. – El ruido químico es debido a la variación incontrolada y no detectada de determinadas variables, entre las que se encuentran aquellas que afectan al equilibrio químico, la humedad relativa ambiental, la intensidad de la luz, y la presencia de compuestos o contaminantes que se encuentren en el ambiente. El ruido químico afecta, sobretodo, a la medida realizada por ciertos sensores y su eliminación pasa por controlar de forma estricta las condiciones en las que se realiza dicha medida, manteniendo constantes la temperatura y humedad de los laboratorios y evitando la contaminación ambiental.
21.6.2. aumento de la relación señal/ruido La mejora de la relación señal/ruido debe ser siempre uno de los objetivos a alcanzar cuando se realiza una medida. En general, para aumentar la relación señal/ruido se emplean dos métodos bien diferenciados: métodos hardware y métodos software.
21.6.2.1. Métodos hardware Los métodos hardware implican el empleo de distintos dispositivos físicos, siendo posible distinguir entre métodos pasivos y métodos activos. Seguidamente se exponen algunas de las técnicas o dispositivos más empleados para la mejora de la relación señal/ruido, indicando el tipo de ruido que son capaces de eliminar o disminuir.
974
Técnicas de análisis y caracterización de materiales
– Métodos pasivos: • Blindaje y conexión a tierra. El blindaje o apantallamiento consiste en proteger los hilos con una pantalla de material conductor que se conecta a tierra. La radiación electromagnética es absorbida por el blindaje, antes que por los conductores protegidos y derivada a tierra. Un error muy extendido es el de unir a tierra ambos extremos del blindaje, lo que no debe hacerse nunca, ya que la existencia de tierras múltiples puede llegar a generar una corriente que circule por el blindaje y, en consecuencia, inducir una f.e.m. sobre el conductor que se encuentra en su interior, fenómeno intrínsecamente opuesto a la misión encomendada al apantallamiento. • Apantallamiento electrostático. Consiste en encerrar uno de los conductores dentro de otro. En este caso, el campo electromagnético asociado al primero, al circular por este una corriente, es de signo opuesto al asociado al segundo de los conductores o pantalla, ya que por este la corriente se desplaza en sentido inverso. A diferencia del blindaje, que evita que los campos electromagnéticos externos induzcan perturbaciones en los conductores, el apantallamiento evita que se generen campos electromagnéticos hacia el exterior. • Pares trenzados. La corriente a través de hilos paralelos produce campos electromagnéticos en ambos hilos, los cuales interactúan entre sí, produciendo interferencias. Lo mismo que ocurre cuando un campo electromagnético externo interactúa con estos hilos. Los efectos de estos campos electromagnéticos pueden cancelarse si los hilos paralelos se trenzan entre sí, ya que los pares trenzados pueden considerarse como una secuencia de bucles de corriente, con las corrientes de los bucles sucesivos en direcciones opuestas. Así pues, los campos electromagnéticos producidos en cada bucle tendrán direcciones opuestas y la f.e.m. inducida en la porción de hilo que forma un bucle será opuesta a la del bucle siguiente y, por tanto, se anularán entre sí. – Métodos activos: • Aislamiento de la señal. Este método se utiliza con el objeto de no transmitir ruidos a través de masas desde el emisor hasta el receptor. El aislamiento galvánico más simple consiste en hacer uso de transformadores de relación 1:1 en los que no existe conexión física o eléctrica entre las bobinas del circuito primario y el secundario, siempre que trabajemos en corriente alterna. Otra forma habitual de realizar el aislamiento de señales es hacer uso del principio de optocoplamiento, en el que se recurre al uso de convertidores v/F y F/v, donde una señal en tensión se convierte a una señal de frecuencia, que excita a un fotoemisor y que, a su vez, hace conducir a un fotoconductor según esta señal en frecuencia. Finalmente, la señal es decodificada en una señal en tensión, la cual se encuentra exenta de cualquier ruido portado por la señal original. Lógicamente, las masas de la alimentación de ambas secciones del circuito no deben ser las mismas (aislamiento galvánico en la alimentación). • Amplificadores diferenciales e instrumentales. Cualquier ruido generado en un circuito es amplificado al amplificar la propia señal para su lectura y tratamiento. Para evitar esto la mayoría de los instrumentos utilizan amplificado-
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
•
•
•
•
975
res diferenciales o instrumentales. El empleo de este tipo de amplificadores es vital en la medida de señales de nivel bajo, ya que permiten amplificar la señal por 1.000 proporcionando un rechazo del ruido de modo común del orden de 106. Amplificadores de corte. Estos amplificadores convierten una señal de entrada en una onda de forma cuadrada gracias a un cortador electrónico (cortocircuitando a tierra alternativamente las señales de entrada y salida del amplificador mediante un conmutador) o mecánico. Por ejemplo, en espectroscopía de absorción atómica las fluctuaciones de baja frecuencia, inherentes a una llama o a otros dispositivos de atomización, provocan problemas de ruido que pueden ser evitados interponiendo un disco giratorio ranurado en la trayectoria del haz. El disco actúa como cortador, produciendo una señal que varía periódicamente entre 0 y un valor máximo, que es convertida en una señal eléctrica de corriente alterna de onda cuadrada cuya frecuencia depende de la velocidad de giro del disco y del tamaño de sus ranuras. Amplificadores de cierre. Este tipo de amplificadores permite recuperar una señal aun cuando la relación señal/ruido sea igual o inferior a 1. Los amplificadores de cierre requieren el empleo de una señal de referencia que posea la misma frecuencia y una relación de fase fija respecto a la señal a amplificar. Los amplificadores de cierre solo amplifican las señales en fase con la señal de referencia, por lo que quedan sin amplificar el resto de frecuencias. Filtrado analógico. Muchas de las señales procedentes de instrumentos o equipos de laboratorio son señales de baja frecuencia, con anchos de banda de solo unos pocos hercios. En estos casos, el empleo de un filtro analógico de paso bajo eliminará una buena parte de los componentes de alta frecuencia de la señal, incluidos aquellos que provienen del ruido térmico o del ruido de disparo. Por el contrario, si la señal procedente del instrumento es una señal de alta frecuencia se deberá utilizar un filtro analógico de paso alto, con el objeto de disminuir el efecto de deriva y el ruido de centelleo de baja frecuencia. Modulación – desmodulación. En ocasiones resulta difícil la amplificación directa de una señal de corriente continua de baja frecuencia, debido a la deriva del amplificador y al ruido de centelleo. Esta es la razón por la que se recurre a transformar dichas señales de baja frecuencia a señales de alta frecuencia, proceso denominado modulación, antes de que sean amplificadas. Después de la amplificación la señal modulada es filtrada con un filtro de paso alto. Por último, la señal se somete a desmodulación (transformación en una señal de baja frecuencia) y a la acción de un filtro de paso bajo, obteniéndose así la señal amplificada y «libre» de ruido.
21.6.2.2. Métodos software Los métodos software suponen la realización de cálculos matemáticos complejos, tarea que se ha visto enormemente facilitada por la incorporación de microprocesadores y microordenadores, cada vez más potentes, a los equipos e instrumentos de
976
Técnicas de análisis y caracterización de materiales
laboratorio. Los métodos software, también conocidos como filtros digitales, implican el empleo de programas de ordenador que implementan rutinas destinadas a realizar distintos cálculos numéricos; los más utilizados son: – Promediado. Las técnicas de promediado implican el almacenamiento en memoria de varias series de datos recogidas mediante la realización de sucesivas medidas. Posteriormente, estas series de datos son tratadas estadísticamente, siendo la relación señal ruido igual al valor medio de la señal dividido por su desviación estándar. Para poder aplicar los métodos de promediado hay que tener en cuenta el teorema de Nyquist, según el cual el muestreo de una señal debe realizarse con una frecuencia al menos dos veces superior a la frecuencia más alta de la señal estudiada. Esto limitará el número de medidas que será posible realizar en el intervalo de tiempo entre dos muestras de la señal. – Métodos de correlación. Estos métodos se emplean para extrapolar medidas cuyo valor parece discordante respecto al resto de medidas efectuadas, para el suavizado de datos muy afectados por ruido eléctrico o electrónico, comparación de los datos obtenidos con los disponibles en bases de datos, o para resolver picos solapados o no resueltos en técnicas de cromatografía o espectroscopías. – Transformada de Fourier. Mediante la transformada de Fourier una señal obtenida en el dominio del tiempo se convierte en otra señal del dominio de la frecuencia, esta señal es filtrada multiplicándola por una función de filtro digital de paso bajo, y por último aplicando la transformada inversa de Fourier se recupera la señal original en el dominio del tiempo con la mayor parte del ruido de alta frecuencia eliminado. Este método es muy utilizado en los espectrómetros de IR y RMN, realizándose los cálculos de forma muy rápida y eficaz gracias a un ordenador. – Suavizado polinomial por mínimos cuadrados. En este método se realiza un ajuste polinomial por mínimos con los puntos de una pequeña parte de la curva, y se toma el punto central de la curva polinomial ajustada como nuevo punto. Este ajuste se realiza para los sucesivos tramos que componen la curva original y se obtiene un conjunto de puntos que conforman la nueva curva suavizada. Para finalizar, hay que resaltar que en cualquier proceso de filtrado la señal sufre siempre cierta distorsión, y queda a criterio del usuario ponderar la disminución del ruido lograda con la distorsión originada en la señal original.
21.7. inTerfases SOFTwARE de cOMUnicaciOnes: PrOGraMas O aPlicaciOnes Una vez estudiadas las distintas interfases hardware para adquisición, supervisión y control, es necesario dar una visión general de las interfases software (sistemas operativos y aplicaciones) que pueden emplearse para llevar a cabo estas tareas, haciendo hincapié en las características y requisitos que debemos exigir en ellas.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
977
21.7.1. sistemas operativos Un sistema para control de procesos basado en la arquitectura de un PC requiere entre otros: – Sistema de interrupciones por prioridad. – Transferencias eficientes de datos. – Ejecución de múltiples tareas (compartiendo el tiempo de ejecución o en un entorno multiproceso). – Gestor por prioridades de los recursos del sistema (almacenamiento de datos, periféricos de entrada/salida, etc.). – Comunicaciones entre sistemas. – Seguridad. – Mecanismos de protección ante fallos (interrupciones eléctricas, caída del sistema, etc.). y muchas otras características poco habituales en un sistema operativo de propósito general. QNX, UNIX y MS Windows son algunos de los sistemas operativos más empleados para sistemas SCADA en equipos destinados investigación, siendo incluso más utilizados los últimos por razones de mercado más que por sus características técnicas. Las versiones de Windows hasta la aparición del Windows 95 en realidad ofrecían un entorno de ventanas, amigable al usuario, que oculta al MSDOS MS-DOS (sistema operativo monotarea, pensado para la gestión de disco más que para control de procesos, que pese a algunos parches, que permiten simular algunas de las características requeridas por los sistemas de control de procesos, no ofrecía todos los requerimientos deseados). Las versiones de 32 bits de Windows permiten la ejecución de múltiples programas en entornos distintos (máquinas virtuales) aprovechando parte de la potencia que ofrece la arquitectura de los procesadores actuales. Esto es, modo protegido y modo virtual. En el primer caso, el propio procesador ofrece un mecanismo de control de acceso en el espacio de direccionamiento (por ejemplo, para compartir o no diversas áreas de memoria), de esta manera se evita que un programa interfiera en las zonas de memoria de otro (por ejemplo, a causa de un fallo) y en modo virtual el procesador tiene la potencialidad de gestionar diversas tareas «simultáneamente». El entorno gráfico de Windows es muy amigable, «multitarea» y ofrece un mecanismo de intercambio de información entre programas vía DDE (Dynamic Data Exchange) y OLE (Object Linking and Embedding). Con las versiones de Windows de 32 bits aparece la ejecución multihebra (diferentes procesos ejecutándose simultánea e independientemente), pero salvo en casos excepcionales, para conservar la compatibilidad con las versiones anteriores, no aprovechan al máximo el rendimiento y la capacidad del procesador. En general Windows es un sistema operativo multitarea cooperativo, es decir, una vez que el sistema operativo cede el procesador a una tarea, no recupera su control hasta que «de buena fe» la tarea lo devuelva, es decir no establece derechos preferenciales. Windows presenta ciertas limitaciones en el control de tiempo real y en
Técnicas de análisis y caracterización de materiales
978
la atención simultánea a comunicaciones. Por ello la mayoría de fabricantes de software de control de procesos para Windows, aprovechan el soporte DDE para la impresión de informes, pero utilizan sus propios gestores para el control de proceso y comunicaciones, ya que es la única vía de asegurar la integridad de la información. UNIX y sus versiones del entorno SUN (Solaris, etc.), HP, y la versión libre (LINUX) son también sistemas operativos multitarea que proporcionan, al igual que Windows NT, una alta seguridad como sistema. Aunque tampoco fue diseñado para el trabajo en tiempo real de los sistemas de control de procesos. QNX es un sistema operativo en tiempo real que toma todas las ventajas de un verdadero microkernel. Es pequeño, escalable, extensible y rápido. Es tan pequeño que permite su utilización incluso en aplicaciones embebidas y lo suficientemente potente para correr en redes distribuidas de cientos de procesadores. El microkernel del QNX manipula la creación de procesos, gestión de memoria y gestión de los temporizadores, incluyendo muchos servicios de tiempo real. Entre sus características fundamentales se encuentran: – Múltiples temporizadores por proceso, resolución de los temporizadores en nanosegundos y un control muy flexible (los temporizadores pueden ser síncronos o asíncronos, periódicos o aperiódicos), – Interrupciones completamente encadenadas, – Creación y destrucción de manipuladores de interrupción dinámicamente, – Primitivas flexibles para memoria compartida, – Primitivas de depuración incluidas para el seguimiento local y remoto desde cualquier lugar en la red, – Límites y recursos del sistema configurables por el usuario, – 32 niveles de prioridad, conmutación de contexto priorizado y con derecho preferencial, selección de algoritmos de ejecución de tareas (scheduling): FIFO (First Input First Output), cíclicos (round robin), adaptativos o todos seleccionables por proceso, cambio de prioridad en los servidores por los mensajes recibidos desde los clientes, y pase de mensajes de manera completamente preferencial.
21.7.2. aplicaciones Los sistemas de control de proceso habituales (adquisición, supervisión y control) se pueden descomponer en pequeños módulos, tareas o procesos que se ejecutan al ser invocados por alguna acción o evento. La arquitectura monoproceso del PC fuerza la utilización del procesador como un recurso que deberán compartir todas las tareas en ejecución, de manera tal que se garantice el comportamiento armónico del sistema. Las tareas de un sistema de control de procesos son invocadas: 1) por la ocurrencia de un evento (disparo de una alarma, etc.), 2) de forma periódica (cada intervalo de tiempo igual al tiempo de muestreo se debe leer determinada variable del proceso, etc.), o 3) por el usuario de la aplicación (para realizar tareas de cálculo, tratamiento de datos almacenados, acceso a los históricos, etc.).
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
979
Las aplicaciones SCADA se pueden agrupar en tres grandes grupos dependiendo de cual sea la tarea principal a la que se destinen, lo que a su vez determinará las funcionalidades que deberán implementar. – Adquisición de datos. En el caso de aplicaciones destinadas meramente a la adquisición, monitorización y registro de datos, la aplicación no tiene responsabilidad sobre el proceso, pero sí será deseable que posea capacidades gráficas de representación de datos e interfases con el usuario simples y robustas. – Supervisión. Si el objetivo fundamental de una aplicaciones es la supervisión de un equipo o instrumento, será necesario que la aplicación garantice la continuidad en la recogida y almacenamiento de datos, gestione los datos históricos y obtenga periódicamente información significativa que facilite la toma de decisiones en tiempo real. – Control. Finalmente, cuando la tarea prioritaria es el control (no distribuido) de procesos, las mayores exigencias se centrarán en una alta velocidad en la gestión de las señales de entrada y salida, así como en la capacidad de detección y generación de alarmas, ya que estos factores son los que determinan la seguridad del sistema. Otros factores a tener en cuenta son: – Número de señales a manejar, rango de variación de las mismas y período de muestreo necesario. – Posibilidad de comunicación con diferentes tipos de interfases y posibilidad de configurar los parámetros de comunicación (en el caso de comunicaciones digitales). – Posibilidad de representación de variables en tiempo real, así como de establecer y configurar varias ventanas para la representación gráfica. – Generación de informes y/o históricos. – Nivel de seguridad requerido (avisos o alarmas). – Entorno actual y futuro de la aplicación. – Relación con otras aplicaciones (compatibilidad de los ficheros de datos generados con otras aplicaciones). Por otra parte, las aplicaciones SCADA pueden clasificarse en aplicaciones específicas y aplicaciones integradas.
21.7.2.1. Aplicaciones específicas Una aplicación específica para adquisición de datos es aquella cuya única función es almacenar los datos leídos en algún soporte magnético del PC, permitiendo también en ocasiones la representación gráfica, en tiempo real, de dichos datos en la pantalla del ordenador o su impresión en una impresora o plotter. El empleo de una aplicación de este tipo hará imprescindible, para el tratamiento posterior de los datos, la utilización de otras aplicaciones software que posibiliten realizar cálculos numéricos con los datos almacenados, y representaciones gráficas
980
Técnicas de análisis y caracterización de materiales
de los resultados obtenidos. Para ello es posible emplear cualquier hoja de cálculo y de los distintos programas de gráficos x-y o gráficos tridimensionales que se comercializan. Por supuesto, para que los datos almacenados, por un programa específico de adquisición de datos, puedan ser entendidos por una hoja de cálculo, un programa de gráficos, etc., deberán haber sido grabados en un formato compatible con estos últimos. En el caso de aplicaciones que supervisen y controlen equipos, el software permitirá, no solo almacenar los valores de las variables adquiridas, sino también comandar y actuar sobre distintos elementos o dispositivos del instrumento o equipo.
21.7.2.2. Aplicaciones integradas Algunos fabricantes de hardware ofrecen paquetes de software completos, que en principio, solo pueden ser utilizados con sus propias tarjetas o interfases para adquisición de datos, supervisión y control. Estos paquetes integrados de software realizan las tres tareas ya mencionadas: adquisición de los datos, análisis y cálculo matemático y representación gráfica de resultados. Algunos fabricantes de paquetes integrados flexibilizan las tareas o funciones a realizar por el software, de manera que el usuario puede configurarse su propia aplicación dentro de unos límites o requerimientos. Esta configuración suele llevarse a cabo, bien, a base de elegir determinadas opciones, de una serie de menús, que se incluyen en el paquete integrado de software a tal fin, o bien, utilizando comandos o instrucciones, similares a las empleadas en los lenguajes de programación, cada una de las cuales activará una opción determinada de nuestro paquete de software. La ventaja de utilizar un paquete integrado de software para realizar todas las tareas en un proceso de adquisición de datos es obvia, sin embargo, el empleo de este tipo de aplicaciones también presenta ciertas desventajas. Por una parte, la flexibilidad o la posibilidad de configurar nuestra propia aplicación nunca llega a ser total, y por otra parte, los datos almacenados pueden ser grabados en un formato que no sea compatible con otras aplicaciones, que quizá quisiéramos utilizar posteriormente para realizar tratamientos matemáticos que el paquete integrado no permita. Así pues, y como conclusión, cada usuario deberá decidir la utilización de aplicaciones específicas o de aplicaciones integradas según las necesidades concretas de su proceso. Además, hay que indicar que el coste de un paquete integrado es siempre superior al de una aplicación específica, y que este se ve agravado todavía más por el hecho de que estos paquetes de software únicamente pueden ser utilizados con el hardware comercializado por el mismo fabricante. Las Figuras 21.45, 21.46 y 21.47 muestran volcados de pantallas de varias aplicaciones destinadas a adquisición de datos, supervisión y control por ordenados de distintos instrumentos o equipos de laboratorio. Concretamente la Figura 21.45 muestra un espectro de IR y una isoterma de adsorción; mientras que las Figuras
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
981
21.46 y 21.47 muestran dos pantallas correspondientes a una aplicación que permite adquirir distintas variables de proceso de una planta a escala laboratorio, así como enviar distintos parámetros (puntos de consigna, valores de alarma, parámetros PID de control, etc.) a los dispositivos y elementos que la integran.
Figura 21.45. Aplicaciones SCADA: FTIR e isotermas de adsorción.
982
Técnicas de análisis y caracterización de materiales
Figura 21.46. Aplicación SCADA: esquema planta de laboratorio.
Figura 21.47. Aplicación SCADA: ventanas de gráficas.
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
983
21.8. cOnclUsiOnes y fUTUrO A la hora de elaborar unas conclusiones y estudiar las tendencias futuras en el campo de la adquisición de datos, supervisión y control por ordenador de equipos e instrumentos de laboratorio, se hace necesario diferenciar entre: – Equipos destinados a análisis instrumental o caracterización de materiales (cromatógrafos, espectrómetros, porosímetros, difractómetros, etc.). – Reactores y plantas piloto. 1. Tradicionalmente las interfases más utilizadas en estos dos sectores han sido: – Equipos de análisis instrumental y caracterización: • RS-232C: Sus principales inconvenientes son la limitación en la distancia máxima (15 m) de conexión y la velocidad de transmisión (115.200 baudios), así como el hecho de que se requiere una interfase o puerto RS-232 por cada dispositivo del instrumento con el que se desee establecer comunicación, siendo necesario en ocasiones instalar tarjetas multipuerto (que incluyen hasta 8 puertos RS-232). • Centronics: aunque la comunicación a través de una interfase Centronics es más rápida que a través de una RS-232C, permanece el problema de la distancia máxima de conexión (10 m) y de que únicamente sea posible conectar un dispositivo. • IEEE488 (GPIB): esta interfase soluciona el problema de la velocidad de transmisión (1,5 MB/s) de datos, además de permitir el encadenamiento de hasta 15 dispositivos conectándolos a una única interfase. Sin embargo, la distancia máxima sigue siendo relativamente corta (20 m). • Interfases analógicas propietarias: este tipo de interfases resuelven el inconveniente del número de dispositivos o de señales que es posible adquirir o controlar con una única interfase, aunque la distancia máxima de conexión de los dispositivos sigue siendo bastante corta (10 m) debido a problemas de atenuación de señal y la susceptibilidad a ruidos e interferencias externas. Por otra parte, el empleo de interfases analógicas supone gran complejidad en el cableado. – Reactores y plantas piloto o escala laboratorio: • Interfases analógicas propietarias: las interfases analógicas han sido las más utilizadas durante mucho tiempo para adquirir datos, supervisar y controlar reactores y plantas piloto o de laboratorio, debido sobre todo al gran número de variables a adquirir o controlar. Como ya se ha dicho, estas interfases, presentan como grandes inconvenientes, la distancia máxima posible entre el ordenador y el reactor o planta, la gran susceptibilidad de verse afectadas por ruidos o interferencias externas, y la complejidad del cableado necesario. 2. Actualmente la tendencia está cambiando en ambos campos: – Equipos de análisis instrumental y caracterización: • Ethernet: aunque todavía se siguen utilizando las interfases antes citadas, cada vez más los equipos de análisis y caracterización incorporan una interfase
Técnicas de análisis y caracterización de materiales
984
ethernet que permite su conexión a una red local de este tipo, pudiendo así gestionarse, almacenar y tratar los resultados del análisis en cualquier ordenador que esté también conectado a dicha red. El empleo de una interfase ethernet supone pues la eliminación de las limitaciones en cuanto a la distancia entre el ordenador y el equipo o instrumento de laboratorio, posibilitando además que un único ordenador gestione y recoja datos de varios equipos o instrumentos. – Reactores y plantas piloto o escala laboratorio: • RS-422 y/o RS-485: pese a que aún hay muchos reactores y plantas operativos que trabajan con interfases analógicas, desde hace pocos años es posible encontrar instrumentos y dispositivos de todo tipo que incorporan interfases RS-422 o RS-485, y que permiten la construcción de reactores y plantas piloto o de laboratorio cuya comunicación con el ordenador que las supervisa o controla se hace a través de este tipo de interfases digitales. Una de las principales ventajas de este tipo de sistemas es la distribución del control. • Ethernet + RS-485/RS-422/RS-232: en los últimos meses han aparecido módulos que incorporan una interfase ethernet y una o más interfase serie digitales configurables como RS-485, RS-422, o RS-232. Esto permite comunicar los instrumentos y dispositivos presentes en la planta piloto o de laboratorio (bombas, controladores, medidores y controladores másicos de flujo, etc) con dicho dispositivo mediante las interfase RS-485, RS-422 y RS-232, a la vez que este se establece una comunicación con el ordenador a través de la interfase ethernet. Gracias a esto se pueden superar todos los límites de distancia entre ordenador y reactor o planta, así como de número de dispositivos a conectar (Figura 21.48). Ethernet
RS232/ RS422 / RS485
Figura 21.48. Comunicación Ethernet + RS/232/RS/422/RS485.
• Ethernet inalámbrica + RS-485/RS-422/RS-232: esta configuración es semejante a la anterior, aunque la interfase ethernet incorporada en el PC es inalámbrica, de manera que la comunicación entre el PC y el módulo converti-
Adquisición de datos, supervisión y control de equipos de laboratorio por ordenador
985
dor ethernet (inalámbrica) y RS-485/RS-422/RS-232 no requiere cableado (Figura 21.49). Aunque las interfases ethernet inalámbricas se están utilizando desde hace tiempo para la conexión de ordenadores a redes locales o a Internet, su empleo con fines de adquisición de datos o control por ordenador se encuentra todavía en fase incipiente.
Punto de acceso inalámbrico
Módulo convertidor: Ethernet - RS485/422/232 RS485/422/232
Figura 21.49. Ethernet inalámbrica y RS485/RS422/RS232.
Aunque las nuevas tendencias ya se están implantando, aún deberá transcurrir un lapso de tiempo considerable para que reemplacen por completo a las interfases tradicionales, ya que los equipos de laboratorio, por su elevado coste, tienen un tiempo de vida bastante amplio.
bibliOGrafía 1. austerlitz, H. Data Acquisition Techniques Using Personal Computers, Academic Press, Inc., c. 1991. 2. skooG, D. A.; holler, F. j.; nieMan, T. A. Principios de análisis instrumental, McGraw Hill, [2000]. 3. kevin, j. PC interfacing and data acquisition: techniques for measurements, instrumentation and control, Newnes, 2000.
986
Técnicas de análisis y caracterización de materiales
4. 5. 6. 7.
taylor, H. R. Data acquisition for sensor system, Chapman & Hall, 1997. bolton, W. Instrumentación y control industrial, Paraninfo, 1996. Manual de instrumentación y control de procesos, Alción, [1998]. altMann, W. Practical Process Control for Engineers and Technicians (IDC Technologies), Elsevier/Newnes, 2005. Practical SCADA Systems (IDC technologies). tarik, o. Practical Data Acquisition using Personal Computers & Standalone Systems (IDC Technologies), Marciel Dekker, c. 1996. IBM PC, PC/XT, PC/AT, PS2 y Micro Channel son marcas registradas de IBM Corporation. MS-DOS y MS-Windows son marcas registradas de Microsoft Corporation. OS/2 es marca registrada de Microsoft e IBM Corporation. UNIX es marca registrada de AT&T Information System. Apple Macintosh es marca registrada de Apple Computer, Inc. NuBus es marca registrada de Texas Instruments. Intel es marca registrada de Intel Corporation. Advantech es marca registrada de Advantech Co., Ltd.
8. 9. 10. 11. 12. 13. 14. 15. 16. 17.
22. calidad en el labOraTOriO isabel PaCheCo Pérez Instituto de Catálisis y Petroleoquímica (CSIC)
22.1. inTrOdUcción El concepto actual de la calidad ha evolucionado desde sus orígenes viendo alterado su significado según las diferentes fases por las que ha pasado la filosofía de la calidad, hasta convertirse en una forma de gestión que introduce la mejora continua en cualquier organización, a todos los niveles de la misma y que afecta a todas las personas y a todos los procesos. Analizando algunas de las definiciones formales que expertos y organizaciones reconocidas han ofrecido del concepto de calidad, se puede comprobar el carácter abierto y dinámico de este término: – Según la Real Academia Española [1]: «calidad es la propiedad o conjunto de propiedades inherentes a algo, que permiten juzgar su valor». – Según joseph juran [2]: «calidad es la idoneidad o aptitud para el uso de un producto o servicio». – Según William Edwards Deming [3]: «calidad es satisfacción de las expectativas del cliente». – Según la Organización Internacional para la Estandarización (ISO) [4]: «calidad es el grado en el que un conjunto de características inherentes cumple con los requisitos». En las definiciones planteadas se pueden identificar los conceptos de «calidad para un fin» y «calidad en relación con la satisfacción del cliente y el cumplimiento de sus requisitos». En el ámbito de un laboratorio el producto son los resultados, cualitativos y cuantitativos, obtenidos de las diversas técnicas instrumentales que han de satisfacer los requisitos del cliente, entendiendo por cliente a la organización o persona que recibe ese producto [4], es decir, al usuario de los datos del laboratorio. Los clientes de un laboratorio son muy diversos, desde el propio analista, el investigador o el grupo con el que se colabora (considerados como clientes o usuarios internos), hasta clientes externos o ajenos a la organización (comunidad científica, financiadores públicos o privados en sus diferentes modalidades, sociedad en general, etc.). Al objeto de responder mejor a las demandas de estos clientes, el laboratorio ha de proporcionar unos resultados veraces y fiables que generen confianza en quienes
988
Técnicas de análisis y caracterización de materiales
los consultan y emplean, de forma que sean reproducibles independientemente del laboratorio que los haya obtenido y que se adecuen a la finalidad a la que se destinan. Por tanto, la calidad en un laboratorio concierne a la calidad de los métodos y prácticas empleadas para obtener esos resultados. Al contrario de lo que ha ocurrido en la actividad empresarial y económica donde el desarrollo de las diversas técnicas de gestión de la calidad ha sido un largo proceso que viene teniendo lugar desde el siglo xx hasta la actualidad, en el caso particular de las organizaciones de I+D la calidad se ha incorporado de forma tardía encontrando la primera referencia europea a la calidad en I+D en 1987. Si bien es preciso mencionar que en las actividades de medida y ensayos realizados en los laboratorios de universidades y centros de investigación, se está produciendo ya un acercamiento a la utilización de herramientas de gestión de calidad normalmente basadas en esquemas relacionados con normas de calidad. Con el fin de incorporar estas herramientas a los laboratorios de los organismos públicos de investigación, este capítulo describe los modelos y metodologías de calidad aplicables a laboratorios que tratan de mejorar las prácticas de investigación y, por tanto garantizan los resultados. Ello contribuirá a alcanzar la máxima eficiencia de los datos, de los instrumentos y, por consiguiente, de los recursos económicos y humanos invertidos en la investigación. La Guide Experimentale pour la qualité en recherche [5] surgida en Francia en 1997 justifica e impulsa la adopción de sistemas y herramientas de gestión de calidad en la investigación, mencionando entre otros requisitos la trazabilidad o la expresión del dominio de validez de los resultados (incertidumbre) como criterios de calidad referidos a los resultados de la investigación, conceptos que se tratan en este capítulo.
22.2. MOTivación POr la calidad Los motivos que llevan a un laboratorio a contemplar las herramientas de calidad en sus actividades son de diversa índole pero todos deben conducir a un mismo fin: garantizar la fiabilidad de los resultados emitidos a sus clientes. Globalmente la implantación de la calidad en un laboratorio nace de alguna de estas razones: – De un requisito establecido por el cliente. En muchos casos es el cliente el que establece como cláusula en los acuerdos o contratos, que el laboratorio disponga de un sistema de gestión de calidad reconocido externamente. – De un requisito normativo o reglamentario. La Unión Europea, Estados Unidos, japón, Australia, Canadá y muchos otros países utilizan la norma ISO 9001 como sistema de gestión de calidad para cumplir ciertos requisitos reglamentarios. Por ejemplo, el sector de los productos sanitarios o el farmacéutico cuentan con varias normas de calidad dirigidas a cumplir los requisitos de fabricantes, consumidores y organismos notificados. – De un requisito comercial. En muchos sectores, cumplir y superar los requisitos de ISO 9001 se reconoce como algo esencial para lograr el éxito en un mercado cada vez más competitivo, empleando los certificados en los anuncios que promocionan sus productos o servicios.
Calidad en el laboratorio
989
– De la voluntad del personal responsable del laboratorio. Algunos laboratorios optan voluntariamente por emplear herramientas de calidad en los procesos y tareas que realizan por los beneficios que aportan, mejorando así el nivel de desempeño del laboratorio. Precisamente son estos beneficios los que han llevado a determinados organismos públicos de investigación a promover la cultura de calidad en sus instituciones. Por ejemplo, la Agencia Estatal Consejo Superior de Investigaciones Científicas (CSIC) contempla como acción estratégica en su Plan de Actuación 2010-2013 implementar, a nivel institucional, la cultura de calidad tanto en los ámbitos de gestión como de investigación y servicios; tarea de la que responsabiliza la Unidad de Calidad creada el 1 de junio de 2009. A nivel autonómico las acciones en materia de calidad también se vienen fomentando activamente en los últimos años, en el caso de la Comunidad de Madrid (CM) la Red de Laboratorios e Infraestructuras, incluida como Programa en los III y Iv Planes Regionales de Investigación Científica e Innovación Tecnológica (PRICIT), apuesta estratégicamente por la calidad en su misión de dar a conocer, facilitar y mejorar la prestación de los servicios que se llevan a cabo en los laboratorios e infraestructuras científicas de las universidades y organismos públicos de investigación de la CM. Pero, ¿qué beneficios pueden lograrse en las prácticas de la investigación al contemplar modelos y herramientas de calidad? Para responder a esta cuestión se exponen a continuación los beneficios más importantes [6].
22.2.1. Proporcionar un marco general de acción para la investigación ganando tiempo para la creatividad En el proceso de investigación y de generación de conocimiento la creatividad es una de las características más propias y destacadas de la investigación. Se suele admitir que en los procesos de investigación el 20% del tiempo se dedica a actividades innovadoras y creativas y el 80% a actividades rutinarias. Si para este tipo de actividades más clásicas y repetitivas se implantan métodos de gestión de calidad adaptados a la investigación (por ejemplo, protocolos o procedimientos normalizados de trabajo para la realización de ensayos bien definidos e implantados que estén a disposición del personal, o para el archivo y tratamiento de la documentación, etc.), se podrá ganar tiempo para la reflexión e innovación en la investigación.
22.2.2. Producir información y conocimientos científicos fiables Solo a partir de conocimientos científicos de los que se pueda asegurar su fiabilidad y trazabilidad se puede proporcionar el máximo grado de confianza a los resultados sobre los que se sustenta la investigación. Por ejemplo, trabajando con patrones o materiales de referencia para evaluar la incertidumbre asociada a cada medida, o determinando programas de control, calibración y mantenimiento de equipos.
990
Técnicas de análisis y caracterización de materiales
22.2.3. responder mejor a las demandas de socios y destinatarios de la investigación Las herramientas de calidad pueden diseñarse para tener más específicamente en cuenta las demandas de los que utilizan finalmente los resultados de la investigación y, así, satisfacerlas mejor a lo largo de todo el proceso de I+D. De esta forma, a través del empleo de buenas prácticas y de la solidez de los métodos empleados se puede conseguir finalmente una mejor calidad de los resultados obtenidos.
22.2.4. Mejorar la eficacia económica en un entorno de competencia 22.2.4.1. Mejora de la posición competitiva La obtención de recursos económicos para realizar nuevos proyectos o líneas de investigación se produce en una situación de cada vez más competencia, tanto en lo que se refiere a la obtención de fondos públicos como privados. En este contexto los grupos que por sus buenas prácticas de investigación y de laboratorio aumenten las garantías en la fiabilidad de sus resultados y la seguridad de la buena gestión de los medios que les son confiados, podrán ver mejorada su situación competitiva en la obtención de fondos.
22.2.4.2. Disminución de los costes de no calidad En el mundo industrial los costes asociados a la no calidad pueden llegar a alcanzar, e incluso superar el 20% de la facturación de las empresas. La «no calidad» en investigación también existe, por ejemplo: muestras mal etiquetadas o de origen dudoso que se convierten en no utilizables, instrumentos de medida no calibrados o mal mantenidos pueden descalificar y obligar a repetir una serie de medidas, medios de cultivo defectuosos que implican la no validez de un ensayo, etc. Incidentes como los mencionados, fruto de la «no calidad» en investigación, tienen como consecuencia importantes costes en términos financieros (cierre de líneas de investigación, etc.) y temporales (retrasos, incumplimiento de plazos, etc.) que disminuyen la credibilidad y la eficacia de los grupos de investigación y de los organismos a los que pertenecen. La utilización de técnicas de calidad en investigación puede, sin duda, contribuir a disminuir estos costes.
22.2.5. capitalizar los resultados y mejorar la gestión del conocimiento Una parte importante de la capacidad de la I+D de un grupo de trabajo está constituida por los investigadores temporales: doctorandos, postdoctorales, investigadores en intercambio, etc., que contribuyen de forma importante con su trabajo a la producción científica del grupo de acogida. A este respecto existen unos periodos transitorios de acogida en que se debe preparar de forma adecuada la integración de estos miembros a la organización. Los grupos de investigación que a través de un empeño en calidad formalizan los procesos de acogida (por ejemplo, a través de la
Calidad en el laboratorio
991
entrega de procedimientos para los ensayos y medidas más habituales, de utilización de equipos, de manipulación de muestras y productos, de condiciones de seguridad del laboratorio, etc.) están en condiciones de reducir el tiempo de aprendizaje e integración y ganarlo para la realización de investigación efectiva. Por otra parte, no siempre el trabajo de estas personas queda en el equipo de acogida una vez que finaliza el tiempo de estancia. Si no está correctamente registrado (por ejemplo, en cuadernos de laboratorio) el conocimiento científico de estas personas no se capitaliza ni deviene permanentemente en los grupos. Poner en marcha sistemas documentales eficaces permite mejorar la transmisión de la información y evitar la repetición de trabajos cuyos resultados no hubieran sido registrados y validados correctamente.
22.3. sisTeMas de calidad en labOraTOriOs. MOdelOs aPlicables Un sistema de calidad se define como «el conjunto de la estructura organizativa, de responsabilidades, de procedimientos, de procesos y de recursos que una organización establece para llevar a cabo la gestión de su calidad» [4]. Generalmente los sistemas de calidad se implantan utilizando modelos basados en normas ISO o en pautas normalizadas legalmente. En la Figura 22.1 se agrupan los diferentes modelos de calidad aplicables a un laboratorio en función del tipo de reconocimiento externo que pueden tener, es decir, según sean modelos certificables o acreditables. Frecuentemente existe confusión entre los conceptos de acreditación y certificación, para comprender la diferencia basta con identificar el objeto de cada actividad; de esta manera cuando se habla de certificación es «evaluar y declarar públicamente que el laboratorio cumple los requisitos de una norma de gestión de calidad». La importancia de la certificación para los laboratorios radica en demostrar que se tiene un sistema de gestión implementado. Por otro lado, acreditar es «reconocer formalmente que se tiene la competencia técnica para desempeñar determinadas tareas». La importancia de la acreditación para los laboratorios radica en demostrar que además de tener implementado un sistema de gestión, son competentes técnicamente y que los resultados reportados tienen validez.
Figura 22.1. Modelos de calidad auditables en laboratorios.
Técnicas de análisis y caracterización de materiales
992
Así por ejemplo, un laboratorio certificado ISO 9001 ha demostrado que dispone de un sistema de gestión de calidad implementado según esa norma, mientras que un laboratorio acreditado ISO 17025 ha demostrado su competencia técnica, es decir, su capacidad para producir resultados de ensayo o calibración precisos y correctos. La Tabla 22.1 recoge a modo de resumen las principales diferencias entre los procesos de acreditación y certificación de laboratorios. Tabla 22.1. PrinciPales diferencias enTre cerTificación y acrediTación de labOraTOriOs Certificación isO 9001
acreditación 17025 / 15189
Implica el cumplimiento de los requisitos de una norma. Herramienta de gestión
Provee un reconocimiento formal de que un laboratorio es competente para llevar a cabo ensayos o tipos de ensayo específicos
Otorgada por muchas entidades
Otorgada por una única entidad
Utilizan auditores de sistemas de gestión que estén cualificados para cumplir criterios acordados internacionalmente por un organismo independiente
Utiliza evaluadores técnicos que son especialistas reconocidos en su campo de actividad
Aplica a todo tipo de empresas y de procesos
Aplica a laboratorios y solo a una actividad delimitada
La guía ISO 2:1996 define la acreditación como «el procedimiento mediante el cual, en interés de la sociedad, un organismo autorizado evalúa y declara formalmente que una organización es técnicamente competente para la realización de una determinada actividad de evaluación de la conformidad». El reconocimiento de dicho cumplimiento lo otorga el organismo de acreditación nacional correspondiente, que en el caso de España es ENAC (Entidad Nacional de Acreditación). ENAC es el organismo designado por la Administración para establecer y mantener el sistema de acreditación a nivel nacional, de acuerdo a normas internacionales, siguiendo en todo momento las políticas y recomendaciones establecidas por la Unión Europea. Su misión es evaluar la competencia técnica de los organismos de evaluación de la conformidad (laboratorios, entidades de inspección, de certificación y verificadores) para así generar confianza en sus actividades a la Administración, al mercado y a la sociedad en general [7], véase la Figura 22.2. Los diferentes modelos de calidad cubren necesidades diferentes, por ello es el laboratorio quién decide hasta dónde desea llegar con la implantación de su sistema de gestión de calidad (SGC), siendo aconsejable que antes de lanzarse a esa tarea el laboratorio estudie previamente cuál es el sistema que mejor se adapta a sus necesidades: si limitarlo a los procesos de gestión (certificación) o dimensionarlo hasta demostrar sus competencias técnicas (acreditación). Dada la relevancia de esta decisión, a continuación se describen brevemente cada uno de los modelos.
Calidad en el laboratorio
ISO 17025/15189 ENSAYO
CALIBRACIÓN
993
EN 45011
EN 45012
EN 45013
PRODUCTO
SISTEMA DE CALIDAD
PERSONAS
Figura 22.2. La Entidad Nacional de Acreditación (ENAC) en España.
22.3.1. sistemas de calidad basados en la norma isO 9001 Las normas ISO 9000 son un conjunto de normas y directrices internacionales para la gestión de la calidad que desde su publicación inicial en 1987, han obtenido una reputación global como base para el establecimiento de un sistema de gestión de la calidad. En el año 2000 se publicó una revisión importante de ISO 9001 al integrar y actualizar las normas publicadas en 1994 con el fin de hacer los documentos más asequibles a los usuarios. ISO 9001:2008 es la 4.ª y actual edición de la norma y su propósito es aclarar los requisitos de la edición anterior pero sin modificarlos [8]. La norma ISO 9001 determina los requisitos que deben reunirse en un sistema de gestión de la calidad para aquellas organizaciones que deseen demostrar su capacidad para suministrar productos y/o servicios que satisfagan las especificaciones de sus clientes y de las reglamentaciones que sean aplicables. Esta norma también tiene como objetivo incrementar la satisfacción del cliente, incluyendo procesos para la mejora continua y el aseguramiento de la conformidad de los productos con las especificaciones mencionadas. El modelo de sistema de gestión de la calidad planteado en la norma ISO 9001 promueve la adopción de un SGC basado en procesos, entendiendo por proceso el «conjunto de actividades interrelacionadas o que interactúan, las cuales transforman elementos de entrada en resultados» [4]; actividades que requieren la asignación de recursos tales como personal, material, etc. La Figura 22.3 muestra un ejemplo sencillo de proceso, la recepción y gestión de muestras en un laboratorio en el que tanto
Técnicas de análisis y caracterización de materiales
994
los elementos de entrada como los resultados previstos pueden ser tangibles (muestras, solicitudes de ensayo) o intangibles (información).
Elementos de entrada
Resultados
• Solicitud de ensayo (requisitos de cliente) • Muestras
• Aceptación de trabajos • Muestras aptas / no aptas
Figura 22.3. Proceso de recepción y gestión de muestras en un laboratorio.
El modelo de un sistema de gestión de la calidad basado en procesos que se muestra en la Figura 22.4 ilustra la interacción entre los procesos generales reflejados en la norma ISO 9001, considerando los requisitos de los clientes como entradas y el producto y la satisfacción del cliente como salidas [8], [9]. Mejora continua del sistema de gestión de la calidad
Clientes
Clientes
Entradas
Salidas
Leyenda Actividades que aportan valor Flujo de información
Figura 22.4. Modelo de un sistema de gestión de la calidad basado en procesos.
Calidad en el laboratorio
995
La norma ISO 9001 es genérica y se aplica a todas las organizaciones independientemente de su tipo, tamaño o categoría de producto. Por tanto, un laboratorio también puede basar su sistema de gestión de la calidad en esta norma, y una vez implementada proceder a certificarse con las entidades autorizadas para tal fin (AENOR, SGS, Bureau Veritas Certification, Lloyds, etc.); siendo reconocido externamente como organización con un sistema de gestión de calidad implementado en sus procesos. Como ya se ha mencionado, el hecho de certificarse le da posicionamiento al laboratorio ya que le permitirá mejorar sus aspectos organizativos, generar confianza en sus clientes, etc; pero la certificación no establece ningún aseguramiento en cuanto a su competencia técnica. En el ámbito de los laboratorios de investigación, la norma ISO 9001 se elige frecuentemente como base de los sistemas de gestión de la calidad debido a la flexibilidad de sus requisitos (en particular de los requisitos técnicos), y a la relativa facilidad en su implementación en un laboratorio cuya actividad principal es la investigación y no la realización habitual de ensayos de forma repetitiva. En este sentido, a principios de 2010 en el CSIC había dieciocho laboratorios, centros y/o institutos con sistemas de gestión de la calidad certificados bajo la norma ISO 9001, véase la Tabla 22.2.
22.3.2. sistemas de calidad basados en la norma 166000 Las actividades denominadas I+D+i han adquirido una gran importancia en los últimos años, pues permiten a las organizaciones adquirir conocimientos para incorporar tecnología propia o adaptar nuevas tecnologías en los productos, servicios y procesos. La norma UNE 166000 recoge aspectos y directrices relativos a la gestión de I+D+i, entre ellos las referentes a la gestión de proyectos. Existen numerosos organismos públicos y organizaciones a nivel nacional, europeo e internacional que evalúan proyectos I+D+i, sin embargo cada organismo clasifica los proyectos de diferentes maneras. La adopción de un estándar que normalice los proyectos I+D+i ayuda tanto a las empresas y entidades que realizan proyectos, como a las organizaciones que los evalúan (y probablemente subvencionan). La norma UNE 166000, reconocida por las principales entidades nacionales que evalúan proyectos (CDTI, MYCIT, etc.), está formada por tres documentos diferentes. El primero está referido a la terminología y definición de las actividades de I+D+i (UNE 166000), el segundo a los requisitos de los proyectos de I+D+i (UNE 166001) y el tercero a los requisitos de los sistemas de gestión de la I+D+i (UNE 166002). Los sistemas de calidad basados en estas normas son certificables aunque una organización puede realizar proyectos de I+D+i sin tener su sistema de gestión certificado.
22.3.3. sistemas de calidad basados en la norma 17025 La conformidad del sistema de gestión de la calidad implementado por el laboratorio con los requisitos de la norma ISO 9001, no constituye por sí sola una prueba de la competencia del laboratorio para producir datos y resultados técnicamente válidos. Por ello la norma ISO 17025 es la base para la evaluación de la competencia
Técnicas de análisis y caracterización de materiales
996
Tabla 22.2. labOraTOriOs, cenTrOs O insTiTUTOs del csic cerTificadOs isO 9001 entidad de reconocimiento externo
fecha
Centro de Investigación Cardiovascular (CIC)
Applus
23/05/2002
Laboratorio de Paleomagnetismo. Instituto de Ciencias de la Tierra jaume Almera (ICTjA)
Applus
28/03/2005
Laboratorio de Difracción de Rayos X. Centro Nacional de Investigaciones Metalúrgicas (CENIM)
AENOR
05/03/2007
Servicios de Apoyo a la Investigación. Instituto de Biología Molecular y Celular del Cáncer de Salamanca (IBMCC)
BUREAU vERITAS
30/03/2007
Laboratorio de Patología Molecular de Sarcomas y otros Tumores. Instituto de Biología Molecular y Celular del Cáncer de Salamanca (IBMCC)
BUREAU vERITAS
30/03/2007
Laboratorio de Ensayos de Materiales Metálicos: Unidad de Ensayos Mecánicos. Centro Nacional de Investigaciones Metalúrgicas (CENIM)
AENOR
14/02/2008
Grupo de Tamices Moleculares. Instituto de Catálisis y Petroleoquímica (ICP)
AENOR
13/03/2008
Laboratorio de Cromatografía de Líquidos y Electroforesis Capilar (HPLC-EC). Instituto de Química Orgánica General (IQOG)
AENOR
13/03/2008
Laboratorio de Petrofísica. Instituto de Geología Económica (IGE)
AENOR
25/03/2008
Instituto del Frío (IF)
AENOR
28/03/2008
BM TRADA
06/06/2008
Unidad de Apoyo a la Investigación. Instituto de Catálisis y Petroleoquímica (ICP)
AENOR
12/01/2009
Servicio de Microscopía Óptica y Confocal. Instituto de Biología Molecular Severo Ochoa (CMBSO)
AENOR
04/03/2009
Laboratorio de Ultracentrifugación Analítica e Interacciones Macromoleculares. Centro de Investigaciones Biológicas (CIB)
AENOR
11/03/2009
Departamento de Publicaciones (CSIC)
AENOR
11/03/2009
DNv
06/08/2009
Servicios de Secuenciación, Medios y Esterilización, SEMYC, SIERMAC y ENNI-LNA. Instituto de Investigaciones Biomédicas Alberto Sols (IIB)
AENOR
30/10/2009
Servicio de Microscopía Confocal. Centro Nacional de Biotecnología (CNB)
AENOR
21/12/2009
laboratorio / centro o instituto
Laboratorio de Metrología. Instituto de Física de Cantabria (IFCA)
Unidad de Apoyo a la Creación de Empresas
Fuente: Unidad de Calidad del CSIC (30/04/2010)
Calidad en el laboratorio
997
técnica de los laboratorios de ensayo y calibración por parte de los organismos de acreditación. Esta norma internacional establece los requisitos, técnicos y de gestión, que han de cumplir los laboratorios de ensayo y calibración si desean mostrar: – que poseen un sistema de gestión, – que son técnicamente competentes, – y que son capaces de generar resultados técnicamente válidos. Para el establecimiento de los requisitos de gestión se tuvieron en cuenta los criterios establecidos en la norma ISO 9001; sin embargo, la conformidad demostrada con la norma ISO 17025 no significa que el sistema de gestión de la calidad implementado por el laboratorio cumpla todos los requisitos de la norma ISO 9001 [10]. La norma internacional ISO 17025 es aplicable a todas las organizaciones que realizan ensayos o calibraciones utilizando métodos normalizados, no normalizados y métodos desarrollados por el propio laboratorio. Estas organizaciones pueden ser por ejemplo, los laboratorios de primera, segunda y tercera parte, y los laboratorios en los que los ensayos o calibraciones forman parte de la inspección y certificación de producto [10]. Esta norma es elegida habitualmente por los laboratorios que realizan ensayos y/o calibraciones rutinarias según normativa específica. En el contexto de la investigación el número de laboratorios que optan por implementar la norma ISO 17025 es reducido, debido fundamentalmente a los requisitos técnicos de esta. A modo de ejemplo, se puede citar que a principios de 2010 en el CSIC había cuatro laboratorios, servicios o unidades de análisis que habían obtenido la acreditación por parte de ENAC, número inferior al de los laboratorios certificados en esa fecha (véase la Tabla 22.2). Tabla 22.3. labOraTOriOs del csic acrediTadOs seGún isO 17025 laboratorio / centro o instituto Servicio de Microanálisis Orgánico. Instituto de Química Avanzada de Cataluña (IQAC) Laboratorio de Ensayos de Materiales Galvanizados. Centro Nacional de Investigaciones Metalúrgicas (CENIM) Laboratorio de Dioxinas. Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA) Laboratorio de Dioxinas. Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA) Unidad de Análisis. Instituto de la Grasa de Sevilla (IG)
fecha 26/03/1999 01/05/2002 27/10/2006 13/06/2008 24/04/2009
Fuente: Unidad de Calidad del CSIC (30/04/2010)
22.3.4. sistemas de calidad basados en la norma 15189 La norma ISO 15189 está específicamente dirigida a la acreditación de los laboratorios de ensayos clínicos demostrando su competencia técnica. Esta norma cubre la demanda de los laboratorios del sector sanitario de una norma que se ajuste a las
998
Técnicas de análisis y caracterización de materiales
particularidades de este sector, pues a diferencia de la norma ISO 17025, que trata sobre todo de la fase analítica, la norma ISO 15189 incluye consideraciones especiales para las fases pre y postanalítica, para los procedimientos no normalizados y desarrollados por el laboratorio y para las propiedades con valores nominales como las descripciones de los grupos sanguíneos o las preparaciones. A diferencia de otros laboratorios de análisis, la mayoría de laboratorios clínicos tienen: – Obligaciones preanalíticas hacia los pacientes relacionadas con la preparación, identificación y transporte de muestras. – Obligaciones postanalíticas hacia el personal sanitario en relación a la validación, información, interpretación y asesoramiento. – Y además hay consideraciones de seguridad, ética y prevención de enfermedades. La estructura de la norma es similar a la de ISO 17025 al incluir dos apartados bien diferenciados: sobre el sistema de gestión de calidad, equivalente a los requisitos para la certificación, y sobre los requisitos técnicos adicionales necesarios para la acreditación. Los anexos sobre la protección del sistema de información del laboratorio y la ética proporcionan una información muy útil.
22.3.5. sistemas de calidad basados en las bPl Las Buenas Prácticas de Laboratorio o Good Laboratory Practice (BPL o GLP) son un conjunto de reglas, procedimientos operativos y prácticas establecidas y promulgadas por determinados organismos como la Organization for Economic Cooperation and Development (OCDE) o la Food and Drug Administration (FDA), que se consideran de obligado cumplimiento para asegurar la calidad e integridad de los datos producidos en determinados tipos de investigaciones o estudios. Los sistemas de gestión de calidad basados en las BPL tratan de establecer los procesos y condiciones bajo las cuales se han de planificar, realizar, controlar, registrar, archivar e informar los estudios no clínicos sobre sustancias y productos químicos. El objetivo de dichos estudios es la obtención de datos sobre la seguridad para las personas, los animales y el medio ambiente, requeridos reglamentariamente por las autoridades reguladoras competentes con el fin de registrar o autorizar productos farmacéuticos, plaguicidas, aditivos destinados a la alimentación humana y animal, cosméticos, medicamentos veterinarios así como para la regulación de las sustancias químicas industriales. En conclusión, la realización de ensayos bajo BPL será obligatoria cuando los estudios sean realizados como requisito para una autorización de comercialización. El sistema BPL es acreditable, siendo ENAC el órgano de evaluación. La aplicación de las Buenas Prácticas de Laboratorio en España se regula en el Real Decreto 1369/2000, de 19 de julio, por el que se establecen los principios de buenas prácticas de laboratorio y su aplicación en la realización de estudios no clínicos sobre sustancias y productos. Una información más amplia sobre las BPL se puede encontrar en los enlaces de la Agencia Española de Medicamentos y Productos Sanitarios [11] y de la OCDE [12].
Calidad en el laboratorio
999
22.4. iMPlanTación de Un sisTeMa de GesTión de calidad en Un labOraTOriO La implantación de un sistema de gestión de calidad (SGC) debería ser una decisión estratégica del laboratorio pues requiere de su compromiso, del establecimiento de unos objetivos y de la asignación de los recursos necesarios para su consecución, de la definición de una estructura organizativa y responsabilidades definidas, de un sistema documentado y de los procesos necesarios para evaluar y mejorar continuamente la eficacia del sistema. La norma en la que el laboratorio decida basar su SGC contiene los requisitos y actividades necesarias para que el sistema sea eficaz, pero no explica al laboratorio cómo llevar a cabo esos requisitos ni cómo implantar el sistema. El éxito en la implantación depende de cómo se implanten los requisitos, del proceso que se utilice para la implantación, del modo de pensar del responsable del laboratorio y de la disposición del personal que lo forma. Para tener éxito en la implantación de un SGC existen una serie de pautas a tener en cuenta [8]: – Involucrar a la alta dirección. Las acciones requeridas para adoptar un sistema de gestión de la calidad no se pueden poner en práctica sin la implicación completa, el apoyo y la participación de la alta dirección. Este compromiso se plasma en la realización de actividades concretas; por ejemplo, establecer y comunicar la política de calidad, definir los objetivos de la calidad, asegurar la disponibilidad de recursos económicos, técnicos y humanos necesarios para mantener el sistema, llevar a cabo revisiones periódicas, etc. – Seleccionar el modelo de calidad que mejor se adapte a las necesidades y actividad del laboratorio. Para la toma de esta decisión se ha de tener presente por qué se necesita un sistema formal de gestión de la calidad y realizar un estudio minucioso de los diversos modelos de calidad aplicables a un laboratorio, cuyos fundamentos se han descrito en el apartado 22.3. – Sensibilización y motivación del personal. La implantación de un sistema de calidad no solo afecta al responsable o persona designada en materia de calidad, sino que requiere la participación activa y la colaboración de todo el personal del laboratorio independientemente de su nivel jerárquico, existiendo entre todos ellos una comunicación efectiva liderada por la alta dirección. – Mantener la documentación y el conjunto del sistema de gestión de la calidad lo más sencillo y fácil de comprender. Hay tantas cosas que hacer que lo más tentador es empezar a escribir procedimientos y no parar hasta que todo esté escrito con gran lujo de detalles. Sin embargo, hay que resistirse a esa tentación y, en lugar de eso, evaluar cómo y por qué se hacen las cosas, documentando quién y cómo las hace, y registrando los resultados para mostrar que efectivamente se han realizado. Hay muchas formas de implantar un sistema de gestión de la calidad, como ejemplo se cita la metodología de trabajo ilustrada en la Figura 22.5, que han seguido los laboratorios y centros de investigación del CSIC cuyos sistemas de calidad han sido certificados bajo la norma ISO 9001. Puesto que esta metodología puede ser extrapo-
Técnicas de análisis y caracterización de materiales
1000
lable a otros laboratorios, se cree conveniente detallar un poco más cada una de las fases que la forman.
Fase 1: Planificación
Fase 2: Elaboración de la Documentación
Fase 3: Implantación - Seguimiento
Fase 4: Auditoría Interna del Sistema
Fase 5: Auditoría de Certificación del Sistema
CERTIFICADO ISO 9001
Mantenimiento del Sistema MEJORA CONTINUA
Figura 22.5. Fases en la implantación de un sistema de gestión de la calidad ISO 9001.
22.4.1. fase I: planificación Tal y como se ha mencionado en el apartado 22.3, en esta primera etapa el laboratorio debe definir el estándar o modelo de calidad a implantar de acuerdo a su actividad y al fin previsto, así como establecer el alcance o ámbito de aplicación del sistema de gestión de la calidad (SGC) justificando cuando aplique, los requisitos de la norma que se excluyen siempre que no afecten a su capacidad para proporcionar el producto conforme y no sean necesarios para satisfacer los requisitos del cliente. Esta fase está orientada a evaluar la situación inicial del laboratorio en materia de calidad; para realizar este diagnóstico se ha de recopilar la información existente referente a las sistemáticas de trabajo empleadas en el laboratorio, la existencia de protocolos escritos, el equipamiento empleado, la tipología de los clientes, así como los requisitos de estos o los reglamentarios que apliquen. Esta evaluación tiene como objetivo identificar las deficiencias o desviaciones que existen con respecto a la norma de referencia y establecer las áreas de trabajo en las que se debe hacer mayor énfasis. Para realizar esta evaluación es aconsejable celebrar reuniones o seminarios de concienciación del personal del laboratorio a los que también asista la alta dirección, en los que se explique el modelo de calidad a implantar y las ventajas del mismo, haciéndoles parte importante del sistema. En función del alcance del SGC puede ser necesario la ayuda de un consultor externo y/o la creación de un comité de calidad integrado por el responsable de calidad (o persona que se designe), los jefes de departamento o de los diversos grupos que integren el laboratorio, así como la alta dirección. También es útil planificar el proceso de implantación mediante la creación de una lista o cronograma con las actividades y el plazo para su realización. Como la lista de acciones y tiempos será diferente para cada laboratorio, es necesario meditarla detenidamente en el contexto de cada una [8].
22.4.2. fase ii: elaboración de la documentación La documentación constituye la base para entender el sistema, comunicar los procesos y requisitos dentro del laboratorio, describírselo a otras organizaciones y determinar la eficacia de la implantación. Aunque existen múltiples opciones a la
Calidad en el laboratorio
1001
hora de documentar un sistema de calidad, la norma ISO 9001 establece la documentación mínima que debe incluir [9], cuya estructura se representa habitualmente en forma piramidal según se muestra en la Figura 22.6.
Manual de calidad
• ¿Para qué? • ¿Hacia qué?
Procedimientos
Instrucciones de trabajo
Registros
• ¿Quién hace qué? • ¿Qué se hace?
• ¿Cómo se hace? • ¿Con qué se hace?
• Evidencias
Figura 22.6. Estructura piramidal de la documentación.
– Documentos que describan la política de calidad y que proporcionen los objetivos de la calidad. La política de calidad es una declaración en la que se establece de forma expresa el compromiso de la alta dirección con la calidad y con la implantación y cumplimiento del sistema. En la política de calidad se citan además los objetivos generales del laboratorio en materia de calidad (entre los que se deben incluir la satisfacción del cliente y el cumplimiento de los requisitos legales vigentes) y las estrategias para su consecución. – El manual de la calidad es el documento que describe el conjunto del sistema de gestión de la calidad, sus procesos y las interrelaciones entre ellos. Ha de incluir el alcance del SGC incluyendo la justificación de cualquier exclusión, así como los procedimientos documentados o referencia a los mismos. – Los procedimientos son documentos de carácter organizativo en los que se describe, con el nivel de detalle necesario en cada caso, cómo se desarrolla una determinada función y quién la realiza. – Los protocolos o instrucciones de trabajo son documentos de carácter técnico que describen el desarrollo de una determinada actividad; por ejemplo, la realización de un ensayo, la calibración de un equipo, etc. – Los registros son un tipo especial de documento que proporcionan evidencia objetiva de las actividades realizadas. En la elaboración de los documentos mencionados se requiere establecer quién realiza cada una de las actividades; para ello es necesario establecer cuál es la estructura organizativa del laboratorio o cuando menos las funciones que se llevan a cabo. En laboratorios de pequeña dimensión, la responsabilidad de todas las funciones
1002
Técnicas de análisis y caracterización de materiales
puede llegar a recaer sobre una única persona, pero ello no significa que por eso no se estén realizando dichas funciones. La falta de definición escrita puede llevar en ocasiones a solapes de autoridad, o a responsabilidades no asumidas por nadie al no tenerse claro cuál es el papel realizado y hasta dónde se tiene autoridad. La estructura organizativa variará de un laboratorio a otro y cada uno decidirá cómo plasma su organigrama (por funciones, por personas, por jerarquías, etc.).
22.4.3. fase iii: implantación y seguimiento La implantación progresiva del sistema se realizará mediante el seguimiento de las actividades descritas en la documentación y comprobando que se cumplen todos los requisitos de la norma en la que se basa el sistema. En esta fase de implantación la alta dirección debe garantizar que el sistema realmente se implanta, obviamente no basta con tener un sistema documentado que no describe el sistema real. En este sentido, la implantación irá acompañada de reuniones y acciones de formación y concienciación, en las que la participación del personal será uno de los factores clave de éxito. Normalmente la calidad se asocia con la idea de que su implantación genera una ingente cantidad de papeles dentro del laboratorio al ser necesario documentar muchas acciones. Para una adecuada gestión de la calidad se recomienda el uso de algún software especializado que facilite dicha gestión documental de manera fácil, rentable y sin tener que crear una organización paralela a la real para poder cumplir con las exigencias que impone la norma.
22.4.4. fases iv y v: auditorías interna y externa Una vez finalizada la implantación del sistema, la norma ISO 9001 establece como requisito que la organización lleve a cabo auditorías internas periódicas para evaluar la idoneidad de la documentación del sistema de gestión de la calidad, la conformidad con los requisitos y la eficacia de la implantación [9]. Los resultados de la auditoría interna deben documentarse en un informe que incluya las deficiencias encontradas, las oportunidades de mejora y las prácticas recomendadas. El laboratorio, por su parte, ha de establecer un plazo para responder a los hallazgos de la auditoría y emprender las acciones correctivas oportunas. En la jerga de los auditores, las auditorías internas se consideran auditorías de primera parte, pues son realizadas por, o en nombre de la propia organización a efectos internos. En cambio las auditorías externas incluyen lo que se denomina generalmente auditorías de segunda y tercera parte. Las de segunda parte se llevan a cabo por partes que tienen un interés en la organización, tal como los clientes o por otras personas en su nombre. Las auditorías de tercera parte son realizadas por entidades independientes y externas, tales como las que proporcionan la certificación o acreditación [8]. Una vez conseguido el reconocimiento externo del sistema de gestión de la calidad del laboratorio, es preciso mantenerlo puesto que nada es estático. En la mayoría de las organizaciones se producen cambios constantemente; esto significa que el sistema debe utilizarse y mantenerse al día para mejorar continuamente la eficacia me-
Calidad en el laboratorio
1003
diante el uso de la política de la calidad, los objetivos de la calidad, los resultados de las auditorías, el análisis de datos, las acciones correctivas y preventivas y la revisión por la dirección.
22.5. calidad de las Medidas La calidad de las medidas o de los resultados de medición proporcionados por un laboratorio se demuestra verificando la trazabilidad del método analítico y proporcionando un parámetro (incertidumbre) que dé una idea del grado de confianza de los resultados, es decir, que refleje lo que puede alejarse el resultado analítico del valor considerado como verdadero. En este sentido, y al objeto de que los laboratorios proporcionen resultados trazables y con una incertidumbre asociada, a continuación se tratan estos conceptos relativos a la calidad de los resultados.
22.5.1. Trazabilidad de las medidas El vocabulario Internacional de Metrología (VIM) [13] define la trazabilidad como «la propiedad del resultado de una medida o de un patrón que le permite relacionarlo con referencias determinadas, generalmente patrones nacionales o internacionales, a través de una cadena ininterrumpida de comparaciones todas ellas con incertidumbres determinadas». Siendo rigurosos, la trazabilidad es una propiedad del resultado de una medición; sin embargo, por extensión de la palabra trazabilidad también se aplica a muestras (se ha de asegurar que el resultado proporcionado corresponde a aquella muestra analizada), a métodos analíticos (aquellos que proporcionen resultados trazables), a procedimientos (en el sentido de que se han de seguir exactamente todos los pasos realizados con el método analítico hasta obtener el resultado), incluso a documentos (en el sentido de que puedan seguirse documentalmente todos los pasos realizados hasta obtener un resultado), etc. La verificación de la trazabilidad de los resultados se lleva a cabo mediante la comparación con una referencia o con un patrón. En la Figura 22.7 se observa una jerarquía de patrones según su accesibilidad y proximidad al valor verdadero.
Figura 22.7. jerarquía de patrones.
1004
Técnicas de análisis y caracterización de materiales
– Patrón primario [13]: patrón que es designado o ampliamente reconocido como poseedor de las más altas cualidades metrológicas y cuyo valor se acepta sin referirse a otros patrones de la misma magnitud. – Patrón secundario [13]: patrón cuyo valor se establece por comparación con un patrón primario de la misma magnitud. Desde un punto de vista metrológico la mejor referencia para verificar la trazabilidad de los resultados de un método analítico la constituyen los métodos definitivos o absolutos, que son aquellos que por definición se pueden trazar directamente al patrón base del Sistema Internacional. Sin embargo, el hecho de que para ser considerados como tales deban ser aplicados en rigurosas condiciones de garantías de calidad, junto con su reducido campo de aplicación, hace que los métodos definitivos sean una referencia poco utilizada. Desde un punto de vista práctico, la mejor referencia posible la constituyen los materiales de referencia certificados (MRC). Un material de referencia (MR) [14] es «un material o sustancia que tiene una o varias de sus propiedades suficientemente bien establecidas para calibrar un aparato o instrumento, validar un método analítico, o asignar valores a un material o sistema». Un material de referencia certificado (MRC) [14] es «un material de referencia que tiene certificados uno o varios de sus valores de una o más propiedades por procedimientos técnicamente válidos llevados a cabo por un organismo competente». La principal diferencia entre un MR y un MRC es el certificado asociado al MRC que garantiza que sea la mejor referencia posible en la verificación de la trazabilidad de un método analítico. Por tanto, un MRC es un material parecido a las muestras reales que estamos analizando en nuestro laboratorio, del cual un organismo competente nos certifica y garantiza la cantidad del mensurando (por ejemplo, la concentración de un determinado analito) que queremos analizar con nuestro método analítico. Para verificar la trazabilidad, analizaremos el MRC y compararemos con nuestro método con el valor asignado por el organismo competente al MRC. A diferencia de la verificación de la trazabilidad en las medidas físicas, donde se suele tener una cadena ininterrumpida de comparaciones reales, en medidas químicas se suele tener una sola comparación con la referencia utilizada, aunque siempre seguirá unos parámetros generales. En la Figura 22.8 se puede observar el esquema para verificar la trazabilidad de un procedimiento analítico utilizando como referencia un material de referencia certificado. En este caso se analizaría con nuestro procedimiento n veces el material de referencia certificado y posteriormente se compararían estos resultados con los asignados al MRC [15]. Por último, es importante puntualizar que si demostramos que nuestro procedimiento analítico, aplicado en las condiciones de rutina de nuestro laboratorio, es trazable a la referencia utilizada, habremos hecho todo lo posible para que los resultados de las muestras desconocidas sean trazables a la referencia utilizada mientras nuestro laboratorio esté en condiciones de aseguramiento de la calidad.
22.5.1.1. Propiedades de los materiales de referencia Para que un cierto material pueda ser considerado como un material de referencia certificado (MRC) tiene que cumplir una serie de propiedades; las más importantes son:
Calidad en el laboratorio
1005
XMRC,SMRC
X1 . . Xn X,S
Comparación estadística
Figura 22.8. Verificación de la trazabilidad utilizando un material de referencia certificado.
– Incertidumbre. Los valores certificados de la propiedad deseada en el MRC deben ir acompañados por sus valores de incertidumbre. Es importante que el usuario verifique que la incertidumbre del MRC sea compatible con los requisitos de precisión y exactitud de las determinaciones a realizar. La incertidumbre asociada a un MRC se propaga al valor final de la incertidumbre del resultado analítico en el laboratorio que está utilizando dicho MRC. Por lo tanto, no se pueden obtener incertidumbres menores que las incertidumbres de los MRC utilizados. – Trazabilidad. El MRC debe ser trazable a patrones de referencia, nacionales o internacionales; esto debe quedar perfectamente reflejado en el certificado que aporte el organismo productor. – Homogeneidad. El MRC debe ser homogéneo y de composición constante. Se debe prestar atención a los datos sobre estudios de homogeneidad que facilite el fabricante y valorar si es adecuado, teniendo en cuenta el tamaño de muestra recomendado para su uso y la precisión del método utilizado. – Estabilidad. El material debe ser estable durante las condiciones de envío y el usuario debe conocer durante cuánto tiempo permanece estable el MRC desde su recepción y desde que se abre el recipiente. La estabilidad tiene que referirse tanto a las propiedades certificadas como a la matriz. – Similitud con las muestras reales. El MRC ha de ser lo más parecido posible, tanto en la composición de la matriz como en el valor de la propiedad a determinar, a las muestras reales que serán posteriormente analizadas con nuestro método analítico. A veces es difícil encontrar distintas concentraciones para un mismo MRC, cuando deba optarse por una única concentración es preferible elegir el valor más crítico.
22.5.1.2. Los cuadernos de laboratorio como herramienta de trazabilidad Si la trazabilidad es la capacidad para reconstruir la historia, la aplicación o la localización de un determinado producto identificando desde su origen hasta su destino final, tanto en el proceso de investigación científica como en el realizado en un laboratorio industrial, la trazabilidad de los resultados se verifica en el cuaderno de laboratorio.
1006
Técnicas de análisis y caracterización de materiales
El cuaderno de laboratorio debe contener toda la información necesaria para que cualquier otra persona sea capaz de reproducir el experimento de la misma forma en que lo ha realizado el autor del cuaderno, incluyendo las ideas, hipótesis, operaciones llevadas a cabo, registros experimentales, hechos observados y conclusiones que se derivan de todo ello. Por ejemplo, cuando se discute sobre la validez de una patente industrial, la prueba esencial la constituyen siempre los cuadernos de laboratorio correspondientes, y cualquier indeterminación en los mismos puede conducir a la anulación de la patente con grandes pérdidas económicas. Las pautas para los cuadernos de laboratorio varían de una organización a otra y entre los laboratorios individuales, pero algunas son bastante comunes: – Debe tener una encuadernación permanente, es decir, ser de tapa dura y hojas cosidas, ya que de esta manera la única forma de quitar una hoja es cortándola. Es conveniente que el cuaderno de laboratorio no sea de espiral y tenga las hojas numeradas. En él se pueden grapar notas cuando sea necesario. – Debe utilizarse un material con escritura indeleble, es decir, nunca puede utilizarse un lápiz y una tinta que pueda desaparecer con el tiempo o emborronarse. – Nunca debe borrarse nada. Las correcciones deben hacerse tachando con una línea por encima de forma que aún puedan leerse y, por supuesto, nunca debe arrancarse una página. El trabajo se debe poder reproducir en todos sus detalles, es decir, se debe poder averiguar lo que ocurrió. varias compañías ofrecen cuadernos electrónicos de laboratorio, formato que ha ganado un cierto renombre especialmente en las grandes compañías farmacéuticas por las ventajas que ofrece: puede ser compartido por un grupo de investigadores y estar accesible de modo remoto, no puede ser extraviado, perderse o ser destruido accidentalmente (si se realizan copias de seguridad), es muy fácil incorporar ficheros de ordenador, gráficas, espectros, imágenes, etc, y pueden realizarse búsquedas de forma fácil, eficaz y rápida. En definitiva queda asegurada la trazabilidad del trabajo en el laboratorio.
22.5.2. incertidumbre de medición La incertidumbre es, junto con la trazabilidad, uno de los conceptos metrológicos fundamentales, que están íntimamente ligados al no poder establecer la trazabilidad de un resultado analítico sin considerar la incertidumbre asociada a dicho resultado. El vocabulario de Metrología Internacional, VIM, [13] define la incertidumbre de «medida como un parámetro, asociado al resultado de una medición, que caracteriza la dispersión de los valores que pueden atribuirse razonablemente al mensurando». En esta definición el mensurando indica la magnitud concreta objeto de la medición. El contenido de zinc en un acero o el índice de octano en gasolina son dos ejemplos de mensurandos en análisis químicos. El concepto de incertidumbre refleja, pues, duda acerca de la veracidad del resultado obtenido una vez que se han evaluado todas las posibles fuentes de error y que se han aplicado las correcciones oportunas. Por tanto, la incertidumbre nos da una idea de la calidad del resultado ya que muestra el intervalo alrededor del valor estimado dentro
Calidad en el laboratorio
1007
del cual se encuentra el valor considerado como verdadero (Figura 22.9). La expresión del resultado de una medición está completa solo cuando contiene tanto el valor atribuido al mensurando (y) como la incertidumbre de medida (U) asociada a dicho valor. Expresión del resultado de la medición: y ± U
Figura 22.9. Incertidumbre de medida.
22.5.2.1. Importancia de la incertidumbre Las razones que justifican por qué es importante conocer la incertidumbre de las medidas son varias; las más relevantes se exponen a continuación: – Indica la calidad de los resultados. El valor de la incertidumbre es el primer índice de la calidad de una medida, que es tanto mayor cuanto menor es aquella. Como se observa en la Figura 22.10 la incertidumbre cualifica las medidas; sin embargo, debe adecuarse al propósito de la medición no a la menor.
(17,015 0,015 mm) (17,015 0,025 mm) (17,015 0,040 mm)
Medidas de Mayor calidad
La incertidumbre cualifica las medidas:
Figura 22.10. Incertidumbre. Cuál es la calidad necesaria.
– Permite comparar resultados obtenidos por varios laboratorios u obtenidos con diferentes metodologías analíticas. Por ejemplo, si pidiéramos a dos laboratorios que analizaran el mercurio en un agua residual, ¿obtendrían el mismo resultado? Podemos afirmar que, muy probablemente, no obtendrían el mismo resultado, pero, ¿podríamos decir que ambos laboratorios no proporcionan los mismos resultados? La incertidumbre permite solucionar este problema. Si el
1008
Técnicas de análisis y caracterización de materiales
laboratorio A proporciona un resultado de 14 ppb de mercurio y el laboratorio B de 15 ppb, no podremos decir si proporcionan o no resultados comparables. Pero, si el laboratorio A da un resultado de 14 + 1 ppb y el laboratorio B de 15,0 + 0,5 ppb, ya podemos afirmar que ambos resultados son comparables. – Es necesaria en la toma de decisiones. Cuando se realizan ensayos o calibraciones para establecer la conformidad de un producto con una especificación, es importante tanto para el cliente como para el laboratorio, que la incertidumbre sea conocida y determinada adecuadamente. Aunque en algunos casos la especificación de ensayo o de calibración ofrece orientaciones detalladas para la estimación de la incertidumbre, es responsabilidad del laboratorio decidir qué incertidumbre podrá ser obtenida y con qué nivel de confianza, debiendo discutirla con el cliente antes de realizar el ensayo o calibración. Un laboratorio no debería acordar realizar un trabajo sin antes informar al cliente sobre sus incertidumbres, particularmente si el cliente no está familiarizado con la medición en cuestión o si existieran pocas informaciones y experiencias anteriores sobre el producto o material ensayado. – Requisito normativo. La norma ISO 17025 requiere que los laboratorios declaren la incertidumbre de la medición en sus certificados e informes, cuando sea pertinente.
22.5.2.2. Evaluación de la incertidumbre El cálculo de la incertidumbre no es sencillo debido al elevado número de fuentes de error presentes en un procedimiento analítico, hecho que ha conducido a que se hayan propuesto diversas aproximaciones para el cálculo de la incertidumbre. En 1993, ISO publicó en nombre de otras seis organizaciones internacionales (BIPM, IEC, IFCC, IUPAC, IUPAP y OIML) la Guide to the expression of uncertainty in measurement o guía GUM [16], la cual se basa en identificar, cuantificar y combinar todas las fuentes de incertidumbre del procedimiento de medida. Esta metodología se aplicó inicialmente a las medidas físicas y, posteriormente, Eurachem la adaptó a las medidas químicas; sin embargo, esta adaptación fue muy criticada y debatida ya que se hizo sin considerar las diferencias que hay entre los procesos de medida químicos y los físicos. Eurachem proponía calcular la incertidumbre tal y como se hace en las medidas físicas, es decir, identificando y cuantificando cada uno de los componentes de incertidumbre presentes en el proceso de medida químico. Sin embargo, esta metodología es muy costosa e inviable en muchos procedimientos analíticos, lo que hizo que se fueran imponiendo otras metodologías basadas en calcular la incertidumbre más globalmente, como la propuesta en 1995 por el Analytical Methods Committee (AMC), que utiliza la información generada en los ejercicios interlaboratorios [17]. Puesto que en este capítulo no es posible tratar con detalle cada una de las metodologías existentes, este apartado describe la estrategia desarrollada por ISO mostrando en la Figura 22.11 las cuatro etapas a seguir para el cálculo de la incertidumbre aplicadas al caso práctico y sencillo de una medida de masa en una balanza analítica [18], una de las operaciones más comunes en un laboratorio.
Calidad en el laboratorio
1009
Figura 22.11. Etapas a seguir para calcular la incertidumbre de una medida de masa según el método ISO.
1.ª ETAPA: ESPECIFICACIÓN En esta etapa debe establecerse cuál es la relación, si es posible a través de una ecuación matemática, entre el resultado de la medida y los parámetros de los que depende. En el caso práctico que nos ocupa, la masa de una muestra se expresa como: masa = masam + corrección + deriva
[22.1]
donde masam es el peso de la muestra registrado por la balanza. La corrección se calcula en el proceso de calibración de la balanza y considera la diferencia entre el valor asignado de las masas patrón y el valor proporcionado por la balanza al pesar la masa patrón. La deriva de la balanza es debida en primer lugar a que con el tiempo la balanza se va descalibrando y en segundo lugar al error sistemático debido a la diferencia entre la temperatura a la que se calibra la balanza y la temperatura a la que se pesa la muestra. 2.ª ETAPA: IDENTIFICACIÓN DE LAS FUENTES DE INCERTIDUMBRE En esta etapa deben identificarse las fuentes de incertidumbre, es decir, aquellos fenómenos que contribuyen al hecho de que el resultado de una medición no pueda ser caracterizado con un único valor. Sin pretender ser exhaustivos, algunas de las fuentes de incertidumbre están asociadas a la heterogeneidad de la muestra, a la calibración del equipo, a la pureza de los reactivos, a las condiciones ambientales, a los patrones y materiales de referencia y a la variabilidad del operador.
Técnicas de análisis y caracterización de materiales
1010
Las fuentes de incertidumbre asociadas a la pesada de una muestra son la incertidumbre de la calibración, la incertidumbre de la propia medida de la masa y la deriva de la balanza. 3.ª ETAPA: CUANTIFICACIÓN En esta etapa deben cuantificarse todas las fuentes de incertidumbre identificadas en la etapa anterior, expresándolas como incertidumbre estándar. Hay dos formas de cuantificarlas: a) experimentalmente, es decir, haciendo replicados en el laboratorio; en este caso la incertidumbre estándar se obtiene calculando la desviación estándar de los replicados; y b) usando información disponible en certificados de calibración, tolerancias de material volumétrico, manuales de instrumentos, etc. A continuación se cuantifican las fuentes de incertidumbre asociadas a la pesada de una muestra e identificadas en la etapa anterior. 1. La incertidumbre de la calibración depende de que la balanza la calibre el propio laboratorio (calibración interna) o bien de que se calibre en otro laboratorio (calibración externa). a) La calibración interna se realiza por comparación directa con masas patrón que cubren el campo de medida de la balanza. La calibración de la balanza debe hacerse entre 5 y 10 puntos de la escala de la balanza, de tal forma que el campo de medida quede dividido en intervalos aproximadamente iguales. En cada uno de estos puntos de calibración debe pesarse entre 6 y 10 veces la masa patrón. De esta forma, se calcula la corrección, ci, para cada punto de calibración i a partir de la diferencia entre el valor de la masa patrón, mpat,i, y el valor medio obtenido al pesar la masa patrón n veces con la balanza, mi : ci = mi – m pat,i
[22.2]
La incertidumbre debida a la calibración tiene dos componentes: uno sistemático debido a la propia corrección y que debe incluirse si la corrección calculada es significativa, y uno aleatorio debido a la incertidumbre de dicha corrección. La incertidumbre de la corrección en cada punto de calibración i se calcula aplicando la ley de propagación de errores (GUM, 1993) a la expresión anterior: u (calibración i ) =
2 s (mi )2 res 2 U ( m pat ,i ) 2 + + + ci n 3 2
[22.3]
El primer término de la ecuación [22.3] considera la incertidumbre del valor medio, mi , obtenido al pesar la masa patrón y tiene dos componentes: el primero considera los errores cometidos en el proceso de pesada debidos a la variabilidad de las condiciones ambientales y al propio analista y se calcula utilizando la desviación estándar de las m medias obtenidas al pesar la masa
Calidad en el laboratorio
1011
patrón, y el segundo componente considera la incertidumbre debida a la resolución, res, de la balanza. El segundo término de la ecuación considera la incertidumbre de la masa patrón y se calcula utilizando la incertidumbre expandida, U (mpat,i ), proporcionada por el fabricante. Esta incertidumbre se ha dividido por 2 porque el fabricante la calcula utilizando un valor de k = 2. Finalmente, ci, es la corrección calculada durante la calibración. Este término debe incluirse si la corrección calculada es significativa ya que las futuras medidas hechas con la balanza no se corrigen por dicho valor. Si la calibración la ha realizado otro laboratorio (calibración externa) el cálculo de la incertidumbre es más sencillo ya que en el certificado de calibración debe figurar el valor de la corrección obtenida, ci, y su incertidumbre asociada, U(ci ), para cada uno de los puntos del campo de medida donde se ha realizado la calibración de la balanza. Normalmente el fabricante proporciona una incertidumbre expandida calculada con un valor de k = 2. Para obtener la incertidumbre estándar, u(ci ), debe dividirse U(ci ), por el valor de k = 2. Al igual que en la calibración interna debe incluirse la corrección cuando esta sea significativa. U ( ci ) 2 2 2 + ci
u (calibración i ) =
[22.4]
2. La incertidumbre de la medida de la masa depende de la precisión y de la resolución de la balanza. La incertidumbre debida a la precisión puede evaluarse a partir de la desviación estándar, s(mi ), de las medidas de las masas patrón para cada punto i, y la resolución de la balanza, res, viene especificada por el fabricante. u ( medida) =
s ( mi )2 +
res 2 3
[22.5]
3. Deriva de la balanza. La incertidumbre de la deriva considera dos componentes: la incertidumbre debida a que la balanza se va descalibrando con el paso del tiempo, u(dcal); y la incertidumbre asociada al error sistemático debido a la diferencia entre la temperatura a la que se calibra la balanza y la temperatura a la que se pesa la muestra, u(dT). u ( deriva) =
u ( dcal )2 + u ( dT )2
[22.6]
La incertidumbre u(dcal) puede obtenerse calculando la deriva que tiene la balanza entre dos calibraciones sucesivas. Esta deriva se calcula para cada punto de la calibración como la diferencia, difi, entre las correcciones obtenidas en ambas calibraciones: u ( dcal ) =
dif i 2 3
[22.7]
Técnicas de análisis y caracterización de materiales
1012
La incertidumbre debida a la diferencia entre la temperatura en que se calibra la balanza y la temperatura en que se pesa la muestra debe calcularse para las diferentes masas en que se ha realizado la calibración de la balanza con la siguiente expresión: u ( dT ) =
sen ⋅ ∆T ⋅ m pat,i 3
[22.8]
Donde sen es la deriva de la sensibilidad debida a cambios de temperatura y viene dada en las especificaciones de la balanza, ΔT es la diferencia máxima que puede haber entre la temperatura del laboratorio y la temperatura a la que se hace la calibración de la balanza y mpat,i es el valor de referencia de la masa patrón. 4.ª ETAPA: COMBINACIÓN Una vez que se han calculado todas las fuentes de incertidumbre, estas deben combinarse siguiendo la ley de propagación de errores. De esta forma, se obtiene una incertidumbre estándar combinada, u, asociada al peso de una muestra problema: 2 2 2 si res2 U ( mpat ,i ) res2 difi2 ( sen⋅∆T ⋅ mpat ,i ) 2 2 u = + + [22.9] + ci +si + + + n 3 2 3 3 3
Esta expresión es la suma de los tres componentes de la incertidumbre identificados en la primera etapa: calibración de la balanza, medida de masa y deriva de la balanza. El último paso consiste en calcular la incertidumbre total expandida, U; para ello debe multiplicarse la incertidumbre estándar por un factor de cobertura, k: U=k.u
[22.10]
Normalmente, k es igual a 2. De esta forma hay aproximadamente un 95% de probabilidad de que el intervalo masai + U contenga la masa verdadera de la muestra problema. Para asignar la incertidumbre de la masa de una muestra hay dos posibilidades: asignar a la muestra el valor de incertidumbre del punto de calibración más próximo a la masa de la muestra problema, o asignar a todas las muestras la incertidumbre mayor calculada independientemente de la masa de la muestra problema.
22.6. cOnTrOl de eQUiPOs El control de equipos es un aspecto fundamental en cualquier laboratorio dada su influencia en la validez y fiabilidad de los resultados proporcionados por ellos. Se consideran equipos al «conjunto de materiales y medios técnicos que un laboratorio necesita para el desarrollo de sus métodos de ensayo y calibración». En esta defini-
Calidad en el laboratorio
1013
ción quedan incluidos los instrumentos de medida, software, instalaciones, elementos auxiliares y de muestreo, reactivos, patrones y materiales de referencia. Algunas de las actividades necesarias para asegurar un buen control de los equipos son: – Elaborar un inventario. Es aconsejable que los equipos del laboratorio estén inventariados de forma que sea posible identificar en cada momento el equipo utilizado. En este sentido, se pueden elaborar fichas o registros para cada uno de los equipos con información que permita reproducir su historial (fabricante, modelo, número de serie, emplazamiento actual, histórico de daños, averías y reparaciones, etc.). – Establecer programas o planes de mantenimiento preventivo que permitan mantener bajo control las condiciones de funcionamiento de los equipos empleados y así prevenir la aparición de fallos o averías. Estos programas suelen incluir tanto las operaciones de mantenimiento realizadas por el personal del laboratorio (mantenimiento interno), como las realizadas por entidades externas al mismo (mantenimiento externo). La frecuencia o periodicidad de estas operaciones dependerá, entre otros factores, de la frecuencia de uso de los equipos. – Establecer programas o planes de calibración periódica para aquellos equipos mediante los que se obtengan valores de magnitudes con influencia apreciable en el resultado final de los ensayos o calibraciones. Dado que la calibración de los instrumentos o equipos de medida es una etapa fundamental para asegurar la veracidad de los resultados proporcionados por ellos, esta operación se detalla en el siguiente apartado.
22.6.1. calibración Tal y como se ha descrito en el apartado 22.5, la trazabilidad de las medidas depende en gran parte de la calibración de los equipos con los que se mide. Por tanto, es necesario realizar una operación de comprobación de las respuestas de los equipos con los valores conocidos de una medida para garantizar, por una parte, que medimos igual que otros laboratorios y, por otra, que los valores de nuestras medidas se mantienen con el paso del tiempo. A esta comparación se la conoce como proceso de calibración. Según el vocabulario Internacional de Metrología (vIM) [13] la calibración es «el conjunto de operaciones que establecen, en condiciones determinadas, la relación que existe entre los valores de una magnitud indicados por un instrumento o un sistema de medida, o los valores representados por una medida materializada, y los correspondientes valores de esa magnitud realizados por patrones». Por tanto, la calibración se realiza mediante comparación directa con patrones de medida o materiales de referencia certificados (MRC), véase el apartado 22.5.1. Como el patrón es aquello a lo que nos vamos a comparar, siempre que sea posible se han de utilizar patrones con elevado nivel metrológico, es decir, elevada trazabilidad y reducida incertidumbre como los MRC. De no existir estos, se ha de recurrir a patrones o materiales de referencia avalados por instituciones prestigiosas.
1014
Técnicas de análisis y caracterización de materiales
En la Figura 22.12 se representa la calibración instrumental de un pHmetro; en este caso el valor conocido (proporcionado por el patrón) se expresa en la misma magnitud que mide el equipo y la relación entre el valor de magnitud conocido y el valor del equipo se suele expresar como una diferencia denominada corrección [19]. Así mismo, se ha de calibrar el instrumento en las mismas condiciones en que se trabaja habitualmente: mismo intervalo, mismas condiciones ambientales, etc.
Instrumento de medida: pH-metro
Patrón: soluciones tampón
Valor del equipo
Valor conocido
Figura 22.12. Calibración de un pH-metro.
Sin embargo, hay que puntualizar que en las medidas químicas la calibración tiene un doble sentido ya que también se refiere al establecimiento de la relación entre la señal instrumental y la magnitud medida (normalmente concentración de analito en la muestra), que frecuentemente se denomina curva o recta de calibrado. Este concepto de calibración se refiere a la calibración ligada al método específico que estamos aplicando y se denomina frecuentemente calibración metodológica. Algunos ejemplos de este tipo de calibración son la calibración de un termopar (donde se relaciona temperatura con voltaje), o la calibración de un equipo Uv-visible para determinar nitratos en agua (donde relaciona absorbancia con concentración de nitratos) [19].
22.6.1.1. Información obtenida en la calibración Como consecuencia del proceso de calibración se obtiene información sobre la capacidad de medida actual del equipo y se garantiza la comparabilidad mediante: – La relación entre el valor del equipo y el valor proporcionado por el patrón. Esta relación indica uno o varios valores numéricos que se utilizan para obtener los valores verdaderos de nuestra medida.
Calidad en el laboratorio
1015
– Incertidumbre. El valor numérico de la corrección o de la función de respuesta obtenida tendrá una incertidumbre asociada al método, al patrón y al equipo utilizado. Esta incertidumbre que se propaga a todos los resultados obtenidos puede calcularse utilizando la información generada en el proceso de calibración. – Trazabilidad. Si la operación de calibración tiene como objetivo asegurar que nuestros resultados son comparables con el resto de laboratorios, el certificado o los registros de la calibración deberían garantizarnos la trazabilidad de nuestros resultados a patrones apropiados. – Evaluación de los resultados de la calibración. Como parte final de todo el proceso es necesario realizar un análisis de los resultados obtenidos. De él se debe desprender si el equipo puede ser utilizado para el uso previsto (lo que conlleva que la incertidumbre asociada al equipo sea adecuada) y cómo debe ser utilizado (cuál es la relación obtenida en el momento de la calibración).
22.7. aseGUraMienTO de la calidad La necesidad de dar una respuesta fiable a los problemas analíticos planteados, hace que los laboratorios deban realizar determinadas actividades que aseguren la calidad de los análisis. Una parte importante de estas actividades es la validación de un método de ensayo que establece, mediante estudios sistemáticos de laboratorio, que las características técnicas de dicho método cumplen las especificaciones relativas al uso previsto de los resultados analíticos. Del proceso de validación se obtienen gran parte de los parámetros aplicables al control de calidad, actividad que confirma en el tiempo el estado de validación de los métodos utilizados por el laboratorio asegurando que se mantienen bajo control. La norma ISO 17025 referida a los laboratorios de ensayo y calibración, establece como requisitos la validación de los métodos de análisis y que el laboratorio disponga de procedimientos de control de calidad. En este sentido y al objeto de mostrar al lector los fundamentos básicos de estas actividades que aseguran la calidad en un laboratorio, a continuación se describe la validación de métodos y dos herramientas de control de calidad: los gráficos de control (control de calidad interno) y los ejercicios de intercomparación (control de calidad externo).
22.7.1. validación de métodos de análisis Todas las operaciones de un procedimiento de medida suponen introducir errores aleatorios y puede que también sistemáticos, debido a defectos en el material empleado, en el operador y en el método de análisis. Solo la utilización de un método validado, en el que se investiguen las posibles fuentes de error de cada una de las etapas del procedimiento empleado, permite garantizar la calidad y comparabilidad de los resultados de los laboratorios. La norma ISO 17025 define la validación como «la confirmación mediante examen y la aportación de evidencias objetivas que demuestren el cumplimiento de ciertos
1016
Técnicas de análisis y caracterización de materiales
requisitos para el uso específico previsto» [10]. Por tanto, validar un método de análisis consiste en establecer la evidencia documental de que un procedimiento conducirá con un alto grado de seguridad a la obtención de resultados precisos y exactos dentro de las especificaciones y atributos de calidad previamente establecidos, demostrando ser apropiado para el fin deseado. La validación del método se debe realizar determinando mediante estudios de laboratorio los parámetros de calidad del método de análisis, previa comprobación del estado en que se encuentra toda la instrumentación utilizada en el método. Este último aspecto no siempre se considera. Existen siete parámetros de calidad que es preciso determinar en una validación para que el método sea operativo y útil: selectividad/especificidad, linealidad, exactitud, precisión, límite de detección, límite de cuantificación e intervalo de trabajo. Si bien es preciso mencionar que no todos estos parámetros son requeridos en todos los casos, dependerá del alcance o finalidad del método de ensayo a validar, véase la Tabla 22.4. Tabla 22.4. ParáMeTrOs a validar seGún el TiPO de ensayO a realizar Tipo de ensayo
Parámetros
Identificación
Selectividad/especificidad Selectividad/especificidad Linealidad Exactitud
Determinación cuantitativa de algún componente
Precisión Límite de detección Límite de cuantificación Intervalo de trabajo
Determinación cualitativa
Selectividad/especificidad Límite de detección
Hay que destacar que la robustez no está presente en la lista de parámetros recogidos en la Tabla 22.4; sin embargo, hay que considerar la necesidad de su estudio en el desarrollo del método de análisis, ya que para la validación de un método no robusto hay que conocer qué parámetros experimentales del mismo son críticos, para así controlarlos adecuadamente. De lo contrario, los parámetros de calidad serán muy pobres.
22.7.1.1. Proceso de validación Este apartado describe brevemente los parámetros o criterios fundamentales de una validación; información más detallada sobre ellos o en relación con los procedimientos para su evaluación se puede consultar en bibliografía especializada [20], [21], [22], [23] al no ser este el objeto del capítulo.
Calidad en el laboratorio
1017
– Selectividad / Especificidad. La selectividad de un método de análisis es «la capacidad que tiene el método para medir y/o identificar simultánea o separadamente los analitos de interés, de forma inequívoca, en presencia de otros componentes que puedan estar presentes en la muestra analizada». El término especificidad debería reservarse para aquellas situaciones donde la respuesta obtenida solo se puede producir con una única especie, algo que no es posible cuando se refiere a procedimientos de análisis que emplean instrumentación no específica. Este parámetro es una medida del grado de interferencias o efectos de matriz que producen los compuestos de la muestra que acompañan al analito. La presencia de estas interferencias produce errores sistemáticos de dos tipos: • Aquellas que causan un error absoluto constante. Este tipo de interferencias pueden asociarse a la acción de determinadas sustancias presentes en la matriz de la muestra o añadidas de forma no intencionada durante el análisis y constituyen uno de los problemas más importantes de los métodos de análisis. • Aquellas que causan un error absoluto proporcional a la concentración de analito, siendo a menudo denominadas como efecto de matriz. En estos casos los compuestos interferentes si bien no proporcionan por sí mismos señal en el detector empleado, producen una modificación de la pendiente de calibrado con respecto a la del estándar, lo que origina un importante error en la cuantificación del analito. Dado que habitualmente la composición de la matriz de las muestras es desconocida, la existencia de interferencias de matriz hace necesario aplicar el calibrado de adiciones estándar, en el cual el analito se mide en presencia de la muestra con el objeto de evitar dicho efecto interferente. – Linealidad. La linealidad es «la capacidad del método para proporcionar resultados que son directamente (o por medio de transformaciones matemáticas) proporcionales a la concentración del analito en la muestra dentro de un intervalo de trabajo». Son numerosos los métodos de análisis que, en un intervalo de concentraciones suficientemente amplio, proporcionan una señal que se relaciona con la concentración a través de una función lineal de primer orden. Así, siempre que sea posible se buscará una respuesta de tipo lineal que facilitará su trazado, interpolación e interpretación. – Exactitud. La exactitud de un método de medida se define como «el grado de concordancia entre el resultado de una medida y el valor real del mensurando» [24]. Puesto que se trata de un concepto cualitativo, es decir, un resultado puede ser muy exacto o poco exacto, hace falta un parámetro que pueda medir cuantitativamente la exactitud. El error o sesgo se define como «la diferencia entre el resultado de la medida y el valor real del mensurando» [24]. El resultado de una medida puede ser un valor individual o un valor medio de una muestra estadística, mientras que el valor real del mensurando es lo que se pretende averiguar al realizar las medidas, es decir, se trata casi siempre de un valor desconocido. Por tanto, en la práctica, para poder realizar una estimación de la exactitud es necesario disponer de un valor real aceptado o valor de referencia. – Precisión. La precisión se define como «el grado de concordancia entre los valores de ensayos independientes obtenidos en unas condiciones bien definidas» [25]. Dado que el número de factores que pueden afectar a la precisión de los resulta-
1018
Técnicas de análisis y caracterización de materiales
dos es elevado, al evaluar la precisión de un método es conveniente distinguir entre condiciones de mínima y máxima variación de los factores de influencia, normalmente conocidas como condiciones de repetibilidad y de reproducibilidad respectivamente. • Repetibilidad: término de precisión que se utiliza cuando el conjunto de medidas se obtienen con un mismo método aplicado a una misma muestra, con el mismo instrumental y los mismos reactivos, por el mismo operador y en un intervalo corto de tiempo (mismo día). • Reproducibilidad: término de precisión que se utiliza cuando el conjunto de medidas se obtienen con un mismo método aplicado a una misma muestra, pero en diferentes laboratorios, lo cual presupone reactivos, equipos, condiciones ambientales, operadores y días distintos. Ahora bien, un estudio de reproducibilidad supone la organización de un ejercicio interlaboratorio de tipo colaborativo, organización laboriosa y con un coste económico elevado. Por esta razón se han propuesto medidas intermedias de la precisión, lo que se denomina como precisión intermedia, término utilizado cuando el conjunto de medidas se obtienen con un mismo método, aplicado a una misma muestra, en un mismo laboratorio, pero en diferentes condiciones tales como diferentes equipos, diferentes operadores y en distintos días. Generalmente el factor tiempo suele ser el más estudiado cuando se desea obtener una estimación de la precisión intermedia. – Límite de detección. El límite de detección (LOD, limit of detection) de un método es «la mínima cantidad de analito que se puede detectar en una muestra aunque no necesariamente cuantificar con un valor exacto». Para determinar este parámetro es necesario aplicar apropiados contrastes de significación o pruebas de hipótesis estadísticas. Durante años se ha utilizado, y se sigue utilizando, el conocido como criterio 3σ según el cual el LOD es «aquella concentración de analito que produce una señal igual a la señal del blanco más tres veces la desviación estándar del blanco (yLD = yB + 3σB )». La justificación del valor 3 fue establecida de acuerdo con los intervalos de confianza de una distribución de probabilidad normal del blanco. – Límite de cuantificación. Se entiende por límite de cuantificación (LOQ, limit of quantitation) «la mínima cantidad de analito presente en la muestra capaz de ser cuantificada o determinada por un método una precisión y exactitud aceptables». El límite de cuantificación es siempre mayor que el de detección y estadísticamente supone una mayor probabilidad de rechazar la hipótesis nula, es decir, que la señal obtenida corresponda al analito y no al blanco. Por tanto, la expresión utilizada para calcular el LOD es: y = yB + 10 σB ; LOQ = 10 σB /b
[22.11]
– Intervalo de trabajo. El «intervalo de trabajo» se define como «el intervalo de concentraciones de analito en el que puede obtenerse una exactitud, precisión y linealidad adecuadas al objetivo del método». Por tanto, este intervalo se confirmará en función de los resultados obtenidos después de haberse llevado a cabo la evaluación de los distintos parámetros de validación, estableciéndose después de obtener el LOQ, ya que es el límite inferior más bajo posible del intervalo.
Calidad en el laboratorio
1019
22.7.2. Control interno de calidad mediante gráficos de control El sistema de gráficos de control más utilizado es el propuesto por Shewart y es aplicable a la representación de datos tanto de exactitud como de precisión; este tipo de gráfico se configura representando en ordenadas los valores analíticos obtenidos (observaciones individuales o valores medios en los gráficos de exactitud o diferencias entre resultados repetidos en los gráficos de precisión) y, en abscisas, unidades de tiempo o secuencias de datos, véase la Figura 22.13. En este gráfico se traza una línea horizontal de referencia, al nivel de lo que tendría que ser el valor verdadero o esperado (en el gráfico de exactitud) o, en su caso, de la precisión media a alcanzar (en el de precisión). Paralelamente a esta línea de referencia se trazan dos tipos de líneas o límites de control: – Límite de alarma, trazado a un nivel de probabilidad del 95%. – Límite de control o invalidación de los resultados, trazado generalmente al nivel del 99%.
Exactitud
Cuando el resultado observado rebasa el límite de control se deben invalidar los resultados observados en el «grupo» de observaciones (lote, tanda, resultados del día, resultados del analista, etc.) y revisarse la metodología, modificando lo que haya fallado y repetir los análisis. El límite de alarma no debe ser rebasado (sin superar el de control) en más del 4% de ocasiones. El estudio del gráfico de control permite revelar tendencias y ciclos de causas sistemáticas que deberán ser corregidas. 30
LSE99 % LSE95 % Diana
25 20
LIE99 % LIE95 %
Precisión
15
LP99 % LP95 % Pmedia
10 5 0 1
2
3
4
5
6
7
8
9
10
Figura 22.13. Gráfico de control de exactitud/precisión.
22.7.3. ejercicios de intercomparación de laboratorios La participación en programas de intercomparación ofrece a los laboratorios un medio objetivo para evaluar y demostrar la fiabilidad de los datos que se obtienen en la ejecución de los ensayos analíticos; se puede recurrir a los ejercicios de intercomparación para:
Técnicas de análisis y caracterización de materiales
1020
– Asignar valores a materiales de referencia y evaluar su validez para su empleo en métodos de ensayo específicos. – Identificar diferencias entre laboratorios. – Establecer la eficacia y la posibilidad de comparar nuevos métodos de ensayo o medida y supervisar y controlar métodos ya existentes. – Determinar las características de funcionamiento de un método. – Ofrecer mayor confianza entre los clientes de los laboratorios. Existen tres tipos de ejercicios de intercomparación dependiendo de sus objetivos principales: a) Los estudios colaborativos tienen como objetivo evaluar un método de análisis. Existen documentos de referencia para este tipo de ejercicios publicados por IUPAC donde se definen todas las cuestiones relativas a las características de los laboratorios participantes, a las características de la muestra, al método a validar, al análisis estadístico de los resultados y al contenido del informe final. b) Los estudios de certificación tienen como objetivo determinar el contenido de uno o varios elementos de un material y certificarlo. En este tipo de ejercicios participan laboratorios de alto nivel bajo un esquema de trabajo igual al de los estudios colaborativos o al de los ensayos de aptitud. c) Los ensayos de aptitud, también llamados simplemente ejercicios de intercomparación, tienen como objetivo evaluar la aptitud de los laboratorios para efectuar ensayos de modo competente. Suponen un complemento más a los procedimientos de control interno de calidad de los laboratorios mediante una evaluación externa que complementa sus competencias y capacidades técnicas en materia de ensayo. Esta evaluación puede ser realizada por los propios laboratorios, sus clientes o también otras partes como organismos de acreditación o instancias reglamentarias. Dado que los ensayos de aptitud son los que, básicamente, se potencian desde los organismos de acreditación, los contenidos de este apartado se centran en este tipo de ensayos de intercomparación. No obstante, en la Tabla 22.5 se resaltan algunas de las características de los tres tipos de estudios de intercomparación. Tabla 22.5. TiPOs y caracTerísTicas de lOs ejerciciOs de inTercOMParación de aptitud Demostrar la competencia técnica de los laboratorios
colaborativo validar métodos analíticos
De certificación Asignar valor a uno o varios mensurandos
niveles de ensayo laboratorios participantes
Uno o varios Abierto a todos
varios niveles Seleccionados
Uno o varios Seleccionados con alto nivel
Método analítico
Abierto / Definido
Definido
Abierto / Definido
Objetivo
Calidad en el laboratorio
1021
22.7.3.1. Tipos de ensayos de aptitud Las técnicas de los ensayos de aptitud varían en función de la naturaleza del objeto sometido al ensayo, del método empleado y del número de laboratorios participantes. La mayor parte tiene como característica común la comparación de los resultados obtenidos entre dos o más laboratorios. Los tipos más habituales de programas de ensayos de aptitud son: a) Programas de comparación de medidas. En estos programas, el objeto del ensayo, medición o calibración pasa sucesivamente de un laboratorio participante al siguiente. Normalmente un laboratorio de referencia aporta el valor asignado, que debe ser verificado a lo largo del proceso para comprobar que no sufre ninguna modificación significativa. Es necesario tener en cuenta la incertidumbre en la medida declarada por cada laboratorio participante. b) Programas de ensayos interlaboratorios. En este caso, se reparten simultáneamente a los laboratorios participantes alícuotas seleccionadas al azar de un material original para realizar ensayos en paralelo. Los resultados se remiten al organizador y se comparan con los valores de referencia aceptados. Uno de los requisitos de este tipo de programas es la homogeneidad de la muestra original. c) Programas cualitativos. La evaluación de la eficacia de los laboratorios no siempre supone la existencia de valores numéricos (identidad de un organismo patógeno, aparición de signos de corrosión, etc.). Para ello, este tipo de programas consisten normalmente en la preparación de objetos de ensayos a los que el coordinador del programa añade el componente a estudiar. d) Programas de valores conocidos. Se basan en la preparación de objetos de ensayo con magnitudes conocidas del mensurando. No es necesaria la participación de varios laboratorios, al comparar directamente con el valor asignado. e) Programas de procesos parciales. En este caso se trata de evaluar la capacidad de los laboratorios para efectuar partes de un proceso global de ensayo o de medida.
22.7.3.2. Organización y diseño de los ensayos de aptitud El coordinador deberá elaborar un programa adecuado para el tipo de ensayo de aptitud seleccionado, para lo cual se recomienda acordar un plan documentado cuyo contenido puede ser el recogido en la norma UNE 66543-1. El personal que participe en el programa debe tener la cualificación y experiencia necesarias, siendo aconsejable la participación de expertos técnicos y estadísticos que apoyen al coordinador. En la preparación de los objetos de ensayo deben considerarse todas las condiciones que puedan afectar a la integridad de la intercomparación como la homogeneidad, la toma de muestras, las posibles alteraciones durante el transporte y los efectos de las condiciones ambientales. Los objetos o materiales que se vayan a distribuir en el programa deberían ser de naturaleza similar a los que los laboratorios participantes someten regularmente a ensayo.
Técnicas de análisis y caracterización de materiales
1022
En cuanto a los informes del programa, estos han de ser claros, completos e incluir datos sobre la distribución de los resultados en el conjunto de los laboratorios con una indicación de la competencia de cada participante y conservando siempre la confidencialidad de su identidad. El contenido de los informes puede ser el establecido en la norma UNE 66543-1. Los resultados de un ejercicio intercomparativo pueden presentarse de numerosas formas, siempre y cuando contemplen al menos dos etapas: a) La determinación del valor asignado, siendo este el valor adjudicado a una magnitud particular y reconocida, a veces por convenio, como representativo de la misma con una incertidumbre adecuada para su uso dado. Los procedimientos habituales de determinación de valores asignados se citan a continuación de menor a mayor incertidumbre: – Valores conocidos con resultados determinados en la formulación específica del objeto de ensayo. – Valores de referencia certificados. – valores de referencia determinados por análisis, medición o comparación con materiales de referencia o con patrones con trazabilidad nacional o internacional. – valores consensuados procedentes de laboratorios especializados. – valores consensuados entre los laboratorios participantes. En este caso se determinan los valores asignados con técnicas de consenso que fomenten la concordancia, como la media ponderada, la mediana, la moda o cualquier otra técnica robusta que minimice la influencia de los resultados extremos. b) Evaluación de la eficacia. Dentro del informe emitido será necesario transformar los resultados, de forma que se obtenga una estadística de eficacia que facilite la interpretación y medida de la desviación con respecto al valor asignado. Algunos de los criterios que podemos aplicar se enumeran en grado creciente de complejidad: – Diferencia (x – X), siendo x el resultado de cada participante y X el valor asignado. – Diferencia en porcentaje: D (%) =
(x − X) X
⋅ 100
[22.12]
– Percentil o rango. Orden numerado de los laboratorios desde el menor resultado hasta el mayor. ( i − 1 / 2) p
⋅ 100
– Siendo i el número de orden y p el número de laboratorios.
[22.13]
Calidad en el laboratorio
1023
– Indicador Z-score o puntuaciones z´. Es el criterio más ampliamente utilizado en los ejercicios de intercomparación; se calcula según la ecuación: z’ =
x− X s
[22.14]
– Donde s es una medida de la variabilidad. Como criterio de eficacia con estas puntuaciones se suele aceptar el siguiente: | z’| ≤ 2: satisfactorio 2 < | z’| < 3: discutible | z’| ≥ 3: insatisfactorio
bibliOGrafía 1. Diccionario de la lengua española, 2001, 22.ª ed.; Diccionario panhispánico de dudas, 2005, 1.ª ed. Real Academia Española: http://www.rae.es/rae.html. 2. juran, j. M.; Gryna, F. M.; BinGhaM, R. S. Manual de control de calidad, t. 1, 2.ª ed., Reverté, Barcelona, 2005, p. 6 (traducción de la obra original: Quality Control Handbook, 3.ª ed, Mc Graw-Hill Book Company, New York, 1974). 3. DeMinG, W. E. Out of the crisis, Cambridge, Massachusetts, Massachusetts Institute of Technology, Center for Advanced Educational Service, 1982, p. 169. 4. Norma UNE-EN ISO 9000:2005. Sistemas de gestión de la calidad. Fundamentos y vocabulario, AENOR, Madrid, 2005. 5. Alonso-MiGuel, P. «Calidad en Investigación (2.ª parte). Aproximación metodológica a la mejora de las actividades de investigación», Revista de Investigación en Gestión de la Innovación y Tecnología, 33 (2005), pp. 2-4. 6. Alonso-MiGuel, P. «Calidad en Investigación (1.ª parte). De qué trata la gestión de calidad en investigación», Revista de Investigación en Gestión de la Innovación y Tecnología, 32 (2005), pp. 1-5. 7. Entidad Nacional de Acreditación (ENAC): http://www.enac.es/web/enac/definicion. 8. CianFri, C. A.; Tsiakals, j. j.; West, j. E. M. ISO 9001:2008 comentada, AENOR, Madrid, 2009, pp. 11-12, 19-20, 34-41, 168-177, 217-229, 243-247 (traducción de la obra original: ISO 9001:2008 explained, American Society for Quality, 2009). 9. Norma UNE-EN ISO 9001:2008. Sistemas de gestión de la calidad. Requisitos, AENOR, Madrid, 2008, pp. 9-13. 10. Norma UNE-EN ISO/IEC 17025:2005. Requisitos generales para la competencia de los laboratorios de ensayo y de calibración, AENOR, Madrid, 2005, pp. 2-5. 11. Agencia Española de Medicamentos y Productos Sanitarios: http://www.aemps. es/actividad/sgInspeccion/BPL.htm. 12. Organization for Economic Co-Operation and Development (OCDE): http://www. oecd.org/document/63/0,3343,en_2649_34381_2346175_1_1_1_1,00.html.
1024
Técnicas de análisis y caracterización de materiales
13. BIPM, IEC, IFCC, ISO, IUPAC, IUPAP, OIML. International Vocabulary of Basic and General Terms in Metrology, vIM, 2.ª ed., International Organization for Standardization, Ginebra (Suiza), 1993. 14. ISO Guide 30. Terms and definitions used in connection with reference materials, Ginebra (Suiza), International Organization for Standardization, 1993. 15. riu, j.; Maroto, A.; boqué, R.; rius, F. X. Determinación de la trazabilidad en medidas químicas, Universitat Rovira i virgili, 2000, pp. 2-7. 16. BIPM, IEC, IFFCC, ISO, IUPAC, IUPAP, OIML. Guide to the Expression of Uncertainty in Measurement, 1.ª ed., Ginebra (Suiza), 1993. 17. Maroto, A. et ál. «Estrategias para el cálculo de la incertidumbre», Técnicas de Laboratorio, 270 (2002), pp. 223-227. 18. Maroto, A. et ál. Cálculo de incertidumbre en medidas físicas: medida de una masa, Universitat Rovira i virgili, 2000. 19. Riu, j. et ál. Calibración de equipos de medida, Universitat Rovira i virgili, 2000. 20. Hubber, L. Validation and Qualification in Analytical Laboratories, Interpharm Press, Inc. Buffalo Grove, Illinois, 1999. 21. Massart, D. L. et ál. Handbook of Chemometrics and Qualimetrics, Elsevier, Amsterdam, 1997. 22. EURACHEM. The Fitness for Purpose of Analytical Methods: http://www. eurachem.org. 23. CEA-ENAC-LC/02. Expresión de la incertidumbre de medida en las calibraciones, rev. 1, 1998 (descarga libre del documento en la página web de ENAC). 24. ISO. International Vocabulary of Basic and General Terms in Metrology, 1993. 25. IUPAC. Compendium of Analytical Nomenclature, Definitive Rules, 3.ª ed., Blackwell Science, Oxford, 1997.
aGradeciMienTOs La autora quiere mostrar su agradecimiento a las editoras del libro, las doctoras Marisol Faraldos y Consuelo Goberna, por hacerme partícipe de él, y al doctor Enrique Sastre por sus valiosas sugerencias e inestimable apoyo.
Se abordan en esta obra, de forma concisa y rigurosa, los aspectos más relevantes de distintas técnicas instrumentales en el análisis y la caracterización de materiales. Su enfoque facilita la comprensión de los principios en que se basan dichas técnicas, ayuda a establecer los criterios para seleccionar las más apropiadas según la información que se desee obtener de un material, y ofrece una valoración objetiva de sus dificultades y limitaciones. Centrado en un área de gran relevancia tecnológica, este libro repasa las técnicas instrumentales de análisis y caracterización de materiales, aplicables en numerosos campos de la ciencia, la tecnología y la investigación, desde las ciencias tradicionales (física, química, geología, biología y medicina) hasta los campos más recientes en el estudio de nuevos materiales, restauración de obras de arte, criminología, nanomateriales, biotecnología, etc., que plantean un continuo reto para desarrollar la instrumentación y los procedimientos analíticos necesarios. El amplio espectro de técnicas tratadas ofrece, a quien pretenda iniciarse en este campo, una visión práctica desde el enfoque de quien está familiarizado con la instrumentación, la metodología y puesta a punto de cada técnica, los tratamientos previos de las muestras y su preparación, así como su adecuación al dispositivo de medida, el estudio de las señales obtenidas y la interpretación de resultados. Todo ello, en una especialidad dominada por la bibliografía en inglés, confiere a esta obra un carácter ambicioso e interdisciplinar con el que atender las necesidades del interesado en la materia.
Técnicas de análisis y caracTerización de MaTeriales
Marisol Faraldos consuelo Goberna (eds.) Marisol Faraldos consuelo Goberna (eds.)
20 Estudios sobre la biodiversidad de la región de Bahía Honda (Veraguas, Panamá). Santiago Castroviejo y Alicia Ibáñez (eds.). 21 International Studbook Gazella Dama Mhorr. Andrés Barbosa y Gerardo Espeso. 22 Landscapes as cultural heritage in the European research, Proceedings of the Open Workshop Madrid, 29 th October 2004. María Ruiz del Árbol y Almudena Orejas (eds.). 23 Las lecciones de la catástrofe del Prestige. Antonio Figueras, Emilio Lora-Tamayo D´Ocón, Joaquín Tintoré, Fiz F. Pérez, J. Albaigés, Francisco Sánchez, M. Anxo Murado García, Emilio Esteban Rodríguez Merino y Ramón Hernán Paadín. 24 Depuración de aguas residuales: modelización de procesos de lodos activos. Manuel Gil Rodríguez. 25 New acoustics. Selected topisc II. Francisco Montero de Espinosa Freijo, Carlos Ranz-Guerra y Jaime Pfretzschner (eds.). 26 Biología y cultivo del mejillón (Mytilus Galloprovincialis) en Galicia. Antonio Figueras Huerta. 27 Prácticas de tratamiento estadístico de datos con el programa SPSS para Windows. Aplicaciones en el Área de Ciencia y Tecnología de Alimentos. Pedro J. Martín Álvarez. 28 Ecología acuática y sociedad de las Lagunas de Ruidera – Aquatic ecology and society of Ruidera Lakes (Central Spain). Miguel Álvarez Cobelas, Santos Cirujano Bracamonte, Esperanza Montero González, Carmen Rojo García Morato, María Antonia Rodrigo Alacreu, Elisa Piña Ochoa, Juan Carlos Rodríguez Murillo, Óscar Soriano Hernando, Marina Aboal Sanjurjo, José Pedro Marín Murcia y Rafael Araujo Armero. 29 El protocolo de Kyoto y su impacto en las empresas españolas. Félix Hernández Álvarez y Pablo del Río González. 30 Corrosión en las estructuras de hormigón armado: fundamentos, medida, diagnosis y prevención. José Antonio González Fernández y Juana Miranda Vidales. 31 Histofisiología de moluscos bivalvos marinos. Eduardo Cargnin-Ferreira y Carmen Sarasquete Reiriz. 32 Estudio de los suelos del Campo de Calatrava (Ciudad Real) y sus condiciones de fertilidad. José Luis de la Horra Ruiz, Francisco Sarrano Comino y Juan José Calevaris Muñiz. 33 Estudios etnobotánicos en Campoo (Cantabria). Conocimiento y uso tradicional de plantas. Manuel Pardo de Santayana. 34 Comunicación y ciencia médica. Investigar con animales para curar a personas. Enrique Sueiro. 35 Plantas y sabiduría popular del Parque Natural de Montesinho. Un estudio etnobotánico en Portugal. Ana Maria Carvalho. 36 Microtecnología: diario de un proceso. Fabricación de un microacelerómetro. María Cruz Acero, Jaume Esteve, José Antonio Plaza y Emilio Lora-Tamayo. 37 Protagonistas de la química en España: los orígenes de la catálisis. Pedro Bosch Giral, Juan Francisco García de la Banda, Joaquín Pérez Pariente y Manoel Toural Quiroga. 38 Spectroscopy of the Atmospheres. Rafael Escribano e Isabel Tanarro (eds.).
Técnicas de análisis y caracTerización de MaTeriales
39
ÚLTIMOS TÍTULOS PUBLICADOS
CSIC
CONSEJO SUPERIOR DE INVESTIGACIONES CIENTÍFICAS
Los autores que han participado en la elaboración de esta obra pertenecen al Consejo Superior de Investigaciones Científicas, concretamente, en su mayoría, al Instituto de Catálisis y Petroleoquímica. En este entorno de vanguardia científica y tecnológica han desarrollado su amplia experiencia en las técnicas instrumentales de análisis y caracterización de materiales. Su grado de especialización en cada una de ellas ha desembocado en este compendio de conocimiento básico y experiencia con el que facilitar el acercamiento del usuario a las técnicas de caracterización, de las más clásicas a las más actuales. Se ha dedicado en esta obra un gran esfuerzo al desarrollo de un texto claro y conciso, seleccionando las aplicaciones más atractivas, las tablas y los gráficos más representativos y recopilando la colección de lecturas de referencia más destacadas que, junto con las páginas en Internet, constituyen la bibliografía específica de cada tema.