124 93 15MB
Spanish Pages 168 [170] Year 2015
21
COLECCIÓNDIVULGACIÓN
La luz La luz
Ciencia y tecnología
SERGIO BARBERO, CARLOS DORRONSORO, JOSÉ GONZALO
COORDINADORES
•
¿Qué es la luz? Es una de las grandes preguntas que se ha hecho la ciencia desde sus inicios. Ya desde el siglo XVII se planteó una crucial disyuntiva: ¿la luz es partícula u onda? Si bien inicialmente la noción corpuscular pareció imponerse, gracias sobre todo a la autoridad de Newton, fenómenos ópticos como la difracción o la interferencia óptica hicieron que en el siglo XIX el modelo ondulatorio acabase desplazando al corpuscular. La luz es fundamental para entender lo que nos rodea. Es un elemento básico del universo e incluso algunos aspectos esenciales de este, como la vida, no serían posibles sin ella. Así pues, no sorprende que una mirada atenta a la historia demuestre que las ciencias que se han preocupado por la luz hayan sido cruciales para el progreso de la humanidad; de ahí que sea tan estimulante su estudio y conocimiento. Con motivo del Año Internacional de la Luz, este libro pretende explicar las bases de lo que, actualmente, sabemos sobre las propiedades de la luz y su interacción con otros objetos, poniendo especial énfasis en las aplicaciones tecnológicas. En particular, se describe la relación de la luz con el universo, la vida, la visión, las moléculas, la atmósfera, la materia, la iluminación, la comunicación, la nanociencia y la energía. Ciertamente, es abrumador constatar la presencia de la luz en toda la realidad, y si aún la ciencia no ha postulado, como muchas religiones, que en el principio fue la luz, sí parece claro que el mundo no sería tal y como lo conocemos si no fuese por ella.
COLECCIÓNDIVULGACIÓN
La luz Ciencia y tecnología SERGIO BARBERO, CARLOS DORRONSORO, JOSÉ GONZALO COORDINADORES
ISBN: 978-84-00-09922-0
21_Laluz.indd 1
7/5/15 13:53
La luz Ciencia y tecnología
MINISTERIO DE ECONOMêA Y COMPETITIVIDAD
C000 luz 2015 (FERROS).indd 3
05/05/15 12:59
C000 luz 2015 (FERROS).indd 4
05/05/15 12:59
COLECCIÓNDIVULGACIÓN
La luz Ciencia y tecnología
Coordinadores: Sergio Barbero, Carlos Dorronsoro y José Gonzalo
MINISTERIO DE ECONOMêA Y COMPETITIVIDAD
Madrid, 2015
C000 luz 2015 (FERROS).indd 5
05/05/15 12:59
Con la COLECCIÓN DIVULGACIÓN, el CSIC cumple uno de sus principales objetivos: proveer de materiales rigurosos y divulgativos a un amplio sector de la sociedad. Los temas que forman la colección responden a la demanda de información de los ciudadanos sobre los temas que más les afectan: salud, medio ambiente, transformaciones tecnológicas y sociales… La colección está elaborada en un lenguaje asequible, y cada volumen está coordinado por destacados especialistas de las materias abordadas. COMITÉ EDITORIAL
CONSEJO ASESOR
Pilar Tigeras Sánchez, Directora Beatriz Hernández Arcediano, Secretaria Ramón Rodríguez Martínez Jose Manuel Prieto Bernabé Arantza Chivite Vázquez Javier Senén García Carmen Viamonte Tortajada Manuel de León Rodríguez Isabel Varela Nieto Alberto Casas González
José Ramón Urquijo Goitia Avelino Corma Canós Ginés Morata Pérez Luis Calvo Calvo Miguel Ferrer Baena Eduardo Pardo de Guevara y Valdés Víctor Manuel Orera Clemente Pilar López Sancho Pilar Goya Laza Elena Castro Martínez
Rosina López-Alonso Fandiño Maria Victoria Moreno Arribas David Martín de Diego Susana Marcos Celestino Carlos Pedrós Alió Matilde Barón Ayala Pilar Herrero Fernández Miguel Ángel Puig-Samper Mulero Jaime Pérez del Val
Catálogo general de publicaciones oficiales http://publicacionesoficiales.boe.es MINISTERIO DE ECONOMêA Y COMPETITIVIDAD
Primera edición: 2015 © CSIC, 2015 © Sergio Barbero, Carlos Dorronsoro, José Gonzalo, Ramón Corbalán, Germán J. de Valcárcel, Eugenio Roldán, Ramón Vilaseca, Alfred Rosenberg González, Alfonso V. Carrascosa, Carolina Martín Albaladejo, Susana Marcos, José Vicente García Ramos, Delia Fernández Torre, Belén Maté Naya, Javier Solís, Mar Gandolfo, Juan Diego Ania Castañón, Pedro Corredera Guillén, Pablo Aitor Postigo y Fernando J. Castaño, 2015 © Los Libros de la Catarata, 2015 © Fotografía de cubierta: Comstock/Stockbyte/Thinkstock Reservados todos los derechos por la legislación en materia de Propiedad Intelectual. Ni la totalidad ni parte de este libro, incluido el diseño de la cubierta puede reproducirse, almacenarse o transmitirse en manera alguna por medio ya sea electrónico, químico, mecánico, óptico, informático, de grabación o de fotocopia, sin permiso previo por escrito de la editorial. Las noticias, los asertos y las opiniones contenidos en esta obra son de la exclusiva responsabilidad del autor o autores. La editorial, por su parte, sólo se hace responsable del interés científico de sus publicaciones. ISBN (CSIC): 978-84-00-09922-0 eISBN (CSIC): 978-84-00-09923-7 ISBN (Catarata): 978-84-9097-026-3 NIPO: 723-15-068-8 eNIPO: 723-15-069-3 IBIC: PDZ Depósito legal: M-15.155-2015 En esta edición se ha utilizado papel ecológico sometido a un proceso de blanqueado ECF, cuya fibra procede de bosques gestionados de forma sostenible.
Índice
Agradecimientos............................................................................. 9 1. Introducción, por Sergio Barbero, Carlos Dorronsoro y José Gonzalo.... 11 2. ¿Qué es la luz?, por Ramón Corbalán, Germán J. de Valcárcel, Eugenio Roldán y Ramón Vilaseca.............................................................. 17
3. Luz y universo, por Alfred Rosenberg González..................................... 31 4. Luz y vida, por Alfonso V. Carrascosa y Carolina Martín Albaladejo......... 43 5. Luz y visión, por Susana Marcos............................................................. 57 6. Luz y moléculas, por José Vicente García Ramos................................... 69 7. Luz y atmósfera, por Delia Fernández Torre y Belén Maté Naya............. 81 8. Luz y materia, por José Gonzalo y Javier Solís........................................ 95 9. Luz e iluminación, por Mar Gandolfo .................................................. 109
C000 luz 2015 (FERROS).indd 7
05/05/15 12:59
10. Luz y comunicación, por Juan Diego Ania Castañón y Pedro Corredera Guillén.......................................................................... 125
11. Luz y nanociencia, por Pablo Aitor Postigo........................................... 139 12. Luz y energía, por Fernando J. Castaño................................................. 145 Glosario.................................................................................................... 157 Sobre los autores.................................................................................... 161
C000 luz 2015 (FERROS).indd 8
05/05/15 12:59
Agradecimientos
E
libro no hubiese sido posible sin el apoyo del Instituto de Óptica, y en especial su director Joaquín Campos, que acogió con entusiasmo el proyecto desde sus orígenes. Agradecemos a Daniel Cortés, Sebastián Jarabo, Uly Martín, Daniel López, Jalil Armijo, Iván Prieto, Crina Cojorau, José F. Trull, Agnès Escobar, Miky Seisdedos por su colaboración para la adquisición de algunas de las imágenes del libro. También mostramos gratitud, a este respecto, al Instituto de Ciencias Fotónicas (ICFO) y al grupo IOSA del Instituto de Óptica (CSIC). Agradecemos a Iván Camps sus sugerencias sobre algunas imágenes y a Rosalía Serna su ayuda en la elaboración de los cuadros del capítulo 8. ste
9
C000 luz 2015 (FERROS).indd 9
05/05/15 12:59
Figura 1.1. Para conseguir esta imagen se construyó una cubeta con uno de sus laterales cerrado por una de las caras de un prisma equilátero de vidrio. La cubeta se rellenó con aceite virgen de oliva. Al incidir con un láser de neodimio doblado en frecuencia (verde) en la arista del prisma opuesta a dicha cara, la luz penetra en el aceite de oliva con gran dispersión angular. La clorofila presente en el aceite absorbe luz del láser, pero emite parte de ella como luz de fluorescencia con longitudes de onda más largas (amarillo, rojo). En la parte derecha de la imagen se ve el prisma iluminado por la luz verde del láser sin filtrar, mientras que en la parte izquierda se observa la luz de fluorescencia tras el filtro. Fotografía: Sebastián Jarabo.
C000 luz 2015 (FERROS).indd 10
05/05/15 12:59
Sergio Barbero, Carlos Dorronsoro y José Gonzalo
1. Introducción
“¡L
uz,
más luz!” fue, parece ser, la última exclamación de Goethe en su lecho de muerte. La luz siempre le había fascinado, hasta tal extremo que, convencido de que la teoría de los colores de Newton era errónea (luz blanca compuesta de colores), dedicó bastantes esfuerzos durante su vida para idear una teoría diferente. El tiempo acabó demostrando que Goethe estaba equivocado y que Newton tenía razón, al menos en parte… Valga el ejemplo de Goethe para ilustrar cómo el fenómeno de la luz ha sido objeto de fascinación para los más grandes pensadores. La fenomenología y el potencial tecnológico de la luz han estado presentes en toda la rica historia de la ciencia y de la técnica y no cabe duda de que desempeñará un papel cada vez mayor en nuestras vidas.
¿Qué es la luz? Es una de las grandes preguntas que se ha hecho la ciencia desde sus inicios. El capítulo 2 de este libro hace un repaso histórico de cómo distintas teorías científicas han tratado de responder a esta escurridiza cuestión. Ya desde el siglo XVII se planteó una crucial disyuntiva: ¿la luz es partícula u onda? Si bien inicialmente la noción corpuscular pareció imponerse, gracias sobre todo a la autoridad de Newton, fenómenos ópticos como la difracción o la interferencia óptica hicieron que en el siglo XIX el modelo ondulatorio acabase desplazando al corpuscular. El clímax de esta evolución ocurrió hace 150 años (1865) cuando Maxwell acabó deduciendo que la luz no era otra cosa sino un campo electromagnético. Esto condujo a la ilusa idea de pensar que por fin se tenía una comprensión completa de la esencia de la luz. 11
C000 luz 2015 (FERROS).indd 11
05/05/15 12:59
Figura 1.2. La soledad del agujero negro. Escultura del artista Björn Dahlem en Matadero de Madrid. Fotografía: Daniel Cortés.
Sin embargo, dos revoluciones científicas desmoronaron, a principios del siglo XX, este frágil castillo de conocimientos: la teoría de la relatividad especial de Einstein y,
sobre todo, la teoría cuántica. La luz pasaba a estar compuesta de pequeños entes discretos, llamados fotones, que se propagaban como una onda electromagnética. Esta aparente
12
C000 luz 2015 (FERROS).indd 12
05/05/15 12:59
paradoja de la naturaleza dual de la luz quedaría solventada por De Broglie utilizando el principio de complementariedad, que tan fructífero fue en la nueva física y cuya propuesta como principio general se debe agradecer al físico-filósofo Niels Bohr. Hoy en día, la naturaleza cuántica de la luz es la que más preguntas suscita en cuanto a la determinación de la esencia íntima de la luz, algo que se analizará en el capítulo 2. La luz es el único hilo de comunicación que nos une al resto del universo más allá del sistema solar, con lo que, como se verá en el capítulo 3, hablar del universo es en cierta manera hablar de la luz. A pesar de que no hay nada que vaya más rápido que la luz, según el principio relativista postulado por Einstein, la distancia entre estrellas es tan inmensa que la luz recogida por los telescopios nos da no solo información de dónde se encuentran estas, sino también de sucesos que ocurrieron hace mucho tiempo. Por lo que ver la luz que nos llega del universo significa acercarnos a su propio origen. En la Tierra, la luz es fundamental, ya que sin luz no habría vida, pero es que, además, esta ha determinado de manera decisiva cómo los distintos organismos vivos han ido evolucionando. De ello aprenderemos en el capítulo 4. Se verá cómo los primeros seres vivos unicelulares, que habitaban en medios acuosos, fueron
capaces de una innovación crucial: la utilización de la energía de la luz para sintetizar el alimento necesario para crecer y multiplicarse. Desde entonces, los organismos vivos evolucionaron en diversas formas posibles, llegando incluso a la paradoja de que algunos de ellos, que surgieron gracias a la luz, han acabado por recolonizar los lugares donde no llega la luz: las llamadas zonas afóticas, como los fondos marinos. Dentro de la evolución de los seres vivos, el desarrollo diferencial de los órganos sensoriales, especialmente los ojos, es un claro distintivo. Nuestra principal fuente sensorial de lo que nos rodea es la visión, que funciona gracias a la captura de luz. Ya lo decía Platón en su diálogo Timeo: “A mi juicio, la vista es la mayor utilidad que tenemos, porque ninguno de los discursos que hemos pronunciado sobre el universo jamás se hubiese dicho si no hubiésemos visto los astros, el sol y el cielo. […] Así pues, afirmo que este es el bien más grande: los ojos”. El capítulo 5 nos introducirá en el sistema visual, y en particular en el del ser humano. La visión es un fenómeno complejo que involucra varias etapas: una primera óptica en la que se forman imágenes en la retina, la conversión de la señal luminosa en eléctrica, el procesado de esta señal en las distintas partes del cerebro y, por último, su interpretación como imágenes sensoriales. Con todo,
y a pesar de las capacidades asombrosas del ojo humano, este tiene unas claras limitaciones: defectos que necesitan de elementos de corrección. La materia inanimada también interacciona con la luz. La materia está compuesta por átomos, los cuales se agrupan en moléculas mediante enlaces químicos, siendo estas, más que los átomos, las que configuran la estructura macroscópica de la materia. Queda, pues, patente la importancia de analizar la estructura de las moléculas. Para este propósito la luz nos sirve de gran ayuda. Si hacemos interaccionar luz (especialmente en la región infrarroja) con las moléculas, estas empiezan a vibrar, de manera que sus vibraciones es el lenguaje que tienen para explicarnos su estructura. La rama de la ciencia que estudia esta interacción de la luz con las moléculas se denomina espectroscopía y sus fundamentos se explicarán en el capítulo 6. Una de las aplicaciones de las técnicas espectroscópicas es el estudio de la atmósfera. La atmósfera es uno de los factores imprescindibles para hacer posible la vida en la Tierra. Está compuesta de una mezcla de gases, tales como el nitrógeno y oxígeno, y una serie de partículas sólidas o líquidas en suspensión, entre las que se encuentran los aerosoles responsables de la contaminación del aire. La interacción de la luz con la atmósfera genera interesantes fenómenos, lo cual 13
C000 luz 2015 (FERROS).indd 13
05/05/15 12:59
Figura 1.3. Aurora boreal en el Parque Nacional de Skaftafell, Islandia. Fotografía: Diario de Canarias.
introducirá al lector (capítulo 7) en alguno de los procesos más importantes de la óptica: reflexión, absorción y refracción. Los fenómenos ópticos atmosféricos, que se analizan en este capítulo, tales como el arcoíris, los halos o las auroras boreales, han fascinado y estimulado la mente humana desde el principio del pensamiento científico. Algunos son arquetipo del tránsito intelectual de la mitología al conocimiento científico; así, por ejemplo, el arcoíris pasó de ser Iris, la mensajera de los dioses en la Ilíada, a convertirse en un fenómeno natural producido por —gracias al atrevimiento de Anaxímenes en el siglo VI a.C—: “Rayos de sol atravesando una capa de aire densa”. Si los fenómenos ópticos han sido sin duda algunos de los máximos alicientes del progreso científico, también se puede afirmar que la ciencia ha avanzado en la medida en que la tecnología ha permitido ensanchar el reducido ámbito de nuestros órganos sensoriales, y muy especialmente el de la visión. Dos claros ejemplos de esta evolución han sido el 14
C000 luz 2015 (FERROS).indd 14
05/05/15 12:59
avance de la astronomía, cuyo destino está intrínsecamente ligado al telescopio (capítulo 3) y el de la biología, que no hubiese podido llegar a donde está sin la invención del microscopio (capítulo 4). Se podría, pues, parafrasear a Platón y decir que no sabríamos lo que sabemos del universo si no hubiésemos visto más allá de nuestros sentidos con la imprescindible ayuda de las tecnologías basadas en la luz. La luz no solo nos ayuda a desentrañar la estructura de la materia; también nos sirve para transformarla en nuestro propio beneficio. El espíritu audaz de Einstein le permitió, como en tantas ocasiones, ser el primero en entenderlo: descubrió que la luz era capaz de, mediante la absorción de fotones, generar en la materia movimientos de electrones (efecto fotoeléctrico). En este sentido, la invención del láser a mediados del siglo XX ha sido crucial, pudiendo considerarse, sin pecar de desmesura, como el avance tecnológico más importante de la óptica del último siglo. De cómo usamos la luz para transformar la materia modificando sus propiedades tratará el capítulo 8. Esencialmente, la luz interacciona con la materia gracias al efecto que produce sobre los electrones. Estos ocupan determinados niveles energéticos, y al absorber o emitir luz cambian su estado energético. Precisamente aquí radica el potencial del láser, ya que permite
concentrar grandes cantidades de energía en áreas muy pequeñas, con lo que se amplifica la perturbación electrónica. El desarrollo de láseres pulsados que consiguen alcanzar potencias pico del orden de los petavatios (mil billones de vatios) permite transformar los materiales de una forma inimaginable hace unas pocas décadas. Indudablemente, el dominio y control del fuego es uno de los puntos de inflexión en la evolución de los primeros homínidos, constituyendo un factor verdaderamente diferencial respecto del resto de especies animales. No de menor importancia fue el uso que se hizo del fuego como fuente de iluminación, al permitir alargar el tiempo de actividad humana más allá del anochecer. El capítulo 9 nos describe cómo el hombre ha utilizado distintas formas de iluminación, identificando diferentes etapas históricas en las que la humanidad ha pasado de intentar conseguir una llama constante a buscar formas de iluminación más eficientes, reduciendo el consumo de energía. Ello nos ha conducido al nacimiento de la tecnología LED, obtenida gracias a un fenómeno denominado electroluminiscencia, que se produce por la interacción de un campo eléctrico dentro de un diodo. El fuego, además de iluminar, cumplía otras múltiples funciones: calentar, cocinar y, también, comunicar. Las señales luminosas producidas por
Figura 1.4. Desde antiguo se sabe que la luz sigue trayectorias determinadas por ciertas leyes (ley de reflexión, refracción, etc.). La imagen representa cómo los rayos de luz, en un medio macroscópicamente homogéneo (aire), siguen trayectorias rectilíneas. Fotografía: Jalil Armijo.
15
C000 luz 2015 (FERROS).indd 15
05/05/15 12:59
hogueras o faros sirvieron en las primeras civilizaciones como herramientas de comunicación a larga distancia. Así, en el siglo III a.C. existía una red de señales de alerta a lo largo de 750 kilómetros de la Gran Muralla China (capítulo 10). Se dice que nuestra era es la de las telecomunicaciones y que vivimos en la sociedad de la información. Ciertamente, la necesidad de comunicaciones rápidas y seguras se ha convertido casi en una necesidad vital, al menos en las sociedades avanzadas. El cubrir estas necesidades, en un futuro cercano, pasa por el desarrollo de tecnologías fotónicas, como se argumentará en el capítulo 10. Otra de las tecnologías de indudable futuro y en la que la luz es un ingrediente fundamental es la llamada nanotecnología, tecnología basada en la nanociencia, que se presentará en el capítulo 11. La nanociencia estudia los sistemas físicos comprendidos entre 10 y 100 nanometros (10-9 metros). A estos niveles, la física clásica deja de funcionar, haciéndose necesaria la
teoría cuántica (o semiclásica) para explicar determinados fenómenos físicos especialmente peculiares. Una de las grandes innovaciones de la física cuántica fue postular que la naturaleza dual ondapartícula de la luz es igualmente cierta en la materia, de manera que los electrones son asimismo onda y partícula. Sabemos que la luz interacciona con los electrones libres o semilibres de determinados materiales. Las “ondas” asociadas a estos electrones (denominadas plasmones) producen fenómenos de interferencia de ondas, que dan lugar a la llamada “plasmónica”. Estos complejos fenómenos dan lugar a aplicaciones que inundan nuestra vida cotidiana: desde los discos compactos al uso de nanopartículas en nuevas técnicas biomédicas, pasando por distintos tipos de sensores utilizados en la nanoelectrónica. Todo un mundo nuevo por descubrir. El libro finaliza con otro de los grandes retos de la humanidad: la energía. El acceso fácil y sin peligros a la energía es indudablemente uno de los pilares de nuestros sistemas socioeconómicos modernos. Como
se plantea en el capítulo 12, uno de los grandes retos actuales de la humanidad es el de ser capaz de desarrollar de manera plena las energías renovables como una alternativa real al uso de combustibles fósiles de naturaleza finita. La luz del Sol es indudablemente la principal fuente de energía disponible, sin menoscabo de otras posibilidades ligadas al viento, el agua o la energía geotérmica. No olvidemos que nuestra vida en el planeta es posible gracias al proceso de fotosíntesis de las plantas (capítulo 4), que en esencia produce energía gracias a la luz del Sol. Por todo ello, es imprescindible conocer las tecnologías actuales que nos permiten generar energía a partir de la luz del Sol y que son, principalmente, como se explicará en el capítulo 12, la solar térmica de concentración y la fotovoltaica. Ciertamente, es abrumador constatar la presencia de la luz en toda la realidad y si aún la ciencia no ha postulado, como muchas religiones, que en el principio fue la luz, sí parece claro que el mundo no sería tal y como lo conocemos si no fuese por ella.
16
C000 luz 2015 (FERROS).indd 16
05/05/15 12:59
Ramón Corbalán, Germán J. de Valcárcel, Eugenio Roldán y Ramón Vilaseca
2. ¿Qué es la luz? 2.1. Una breve (e incompleta) historia de la luz hasta la revolución cuántica La luz ha atraído la curiosidad humana desde la más remota antigüedad. Ya el libro del Génesis le reserva un lugar de privilegio: “Dios dijo: ‘Hágase la luz’… Día primero”. No en vano, la luz es esencial para nuestra supervivencia: permite el crecimiento de las plantas, nos transmite la mayor parte de la información que adquirimos del mundo, permite nuestra orientación en la vida diaria… Además, hemos aprendido a utilizarla para obtener información sobre objetos tan dispares como las galaxias más lejanas del universo o los seres más diminutos, para implementar sensores extraordinariamente sensibles, realizar operaciones quirúrgicas, disfrutar de la información distribuida por Internet,
imprimir en 3D, soldar el fuselaje del superavión Airbus 380 y otras muchas cosas. Desde que en algún momento remoto comenzamos a preguntarnos “¿qué es la luz?”, la subsiguiente búsqueda de respuestas ha constituido uno de los motores principales para el desarrollo no solo de la óptica, sino de toda la física. Durante mucho tiempo a lo largo de la historia se avanzó muy poco: no estuvo claro si la luz era un flujo de partículas o bien un movimiento ondulatorio, y tampoco si la luz era algo que iba de los objetos al ojo o bien al revés. Para los antiguos griegos y árabes, el asunto central fue la conexión entre luz y visión. La teoría táctil de los griegos, y sus variantes, mantenía que la visión se iniciaba porque nuestros ojos emitían algo que “tocaba” de alguna forma los objetos (lo cual no está tan 17
C000 luz 2015 (FERROS).indd 17
05/05/15 12:59
Figura 2.1. Haz de luz emitido por un láser de Nd:YAG, de longitud de onda 532 nanómetros (color verde) y potencia 100 mW, atravesando diferentes elementos ópticos. Fotografía: Grupo de investigación en Dinámica y Óptica No Lineal y Láseres (DONLL), de la Universidad Politécnica de Catalunya (Campus de Terrassa).
Figura 2.2. Un prisma de vidrio separa los diferentes colores (espectro) de pulsos “coherentes” de luz blanca, generados en una fibra de cristal fotónico bombeada con pulsos de 180 femtosegundos de duración y 800 nanómetros de longitud de onda. Fotografía: Grupo de investigación en Dinámica y Óptica No Lineal y Láseres (DONLL), de la Universidad Politécnica de Catalunya (Campus de Terrassa).
falto de sentido como pudiera parecer, si lo comparamos con lo que hacen los murciélagos con los ultrasonidos en la ecolocalización. No fue, sin embargo, hasta el siglo XI cuando se formuló una teoría emisionista verdaderamente científica y útil, la cual debemos al pensador árabe de origen persa Ibn al-Haytam (conocido como Alhacén, posiblemente “el primer científico”), según la cual los objetos iluminados o luminosos emitían “energía” en forma de “rayos” individuales, que son detectados por nuestros ojos. Posteriormente, los pensadores del Renacimiento tendieron a considerar la luz como un flujo de pequeñísimas partículas o corpúsculos. Durante la revolución científica del siglo XVII se estableció la controversia onda-partícula entre quienes, como René Descartes, Robert Hooke y Christiaan Huygens, sostenían que la luz era más bien un movimiento ondulatorio, análogo al sonido, y los que, como Pierre de Fermat, Galileo Galilei y, especialmente, Isaac Newton, mantenían una concepción corpuscular. Pese a la gran reputación científica de Newton, cuya opinión se impondría durante todo el siglo XVIII, diversas observaciones experimentales de principios del siglo XIX en relación con fenómenos interferenciales (Thomas Young), de difracción (Augustin Fresnel) y de polarización (Étienne- Louis Malus, Jean-Baptiste
Biot) apoyaron la concepción ondulatoria de la luz, la cual llegó a su plenitud a finales del siglo XIX con la teoría electromagnética de James C. Maxwell, basada en la teoría de los campos de fuerza que Michael Faraday había introducido poco antes. Maxwell, mediante sus famosas ecuaciones, dedujo que existen campos eléctricos y magnéticos que se propagan íntimamente unidos, en forma de ondas, y lo hacen a la misma velocidad que la luz (cuyo valor en el vacío es c = 299.792.458 m/s). Maxwell comprendió que dicha igualdad de velocidades no era casual, lo cual le permitió intuir que la luz no era sino un caso particular de onda electromagnética (e.m. en lo que sigue). De esta forma, quedaba aparentemente zanjada cuál era la naturaleza de la luz: una onda e.m. Las ondas e.m. pueden tener frecuencias de oscilación (f ) extendiéndose desde valores próximos a cero hasta valores extremadamente elevados. Lo que llamamos “luz” solo cubre el intervalo de frecuencias entre 4·1014 y 7,5·1014 Hz o, lo que es lo mismo, el intervalo de longitudes de onda (l) entre 0,75 mm (color rojo) y 0,4 mm (color violeta), el cual puede ser percibido por nuestro sistema visual y que llamamos “espectro visible” (recuérdese que la frecuencia f es la inversa del periodo de oscilación de la onda y que se relaciona con la longitud de onda l
18
C000 luz 2015 (FERROS).indd 18
05/05/15 12:59
Figura 2.3. Haz de luz emitido por un láser de Nd:YAG, de longitud de onda 532 nanómetros (color verde) y potencia 100 mW, atravesando diferentes elementos ópticos (diafragmas, lentes). Fotografía: Grupo de investigación en Dinámica y Óptica No Lineal y Láseres (DONLL), de la Universidad Politécnica de Catalunya (Campus de Terrassa).
mediante la relación l = c/f). Pero no hay nada esencial que distinga la luz de, por ejemplo, la radiación infrarroja o la ultravioleta: solo son distintas para nosotros (algo semejante ocurre con los ultrasonidos, los cuales son vibraciones del aire, al igual que lo que llamamos sonido, salvo que nosotros no los oímos —los perros, sí—). El éxito de la teoría electromagnética fue tal que a principios del siglo XX muchos consideraron que, por fin, se había alcanzado la respuesta definitiva a la pregunta “¿qué es la luz?”, y que la física estaba completa (pues se entendían ya la mecánica, la gravitación, el calor, la electricidad, el magnetismo y la luz). Pensaban que, si acaso, solo quedaban pendientes de explicación unas pocas observaciones que, curiosamente, estaban relacionadas con la luz y, notablemente, llevaron a diversas revoluciones en la física. El primer aspecto sin explicación estaba relacionado con el medio
material por el que las ondas e.m. debían propagarse: igual que el sonido es una deformación (compresión) del aire (¡por eso las explosiones de naves espaciales que aparecen en la serie de Star Wars no se podían oír!) o las olas son una deformación de la superficie del agua, ¿qué era lo que se deformaba en el caso de la luz? Como a simple vista no parecía haber nada, se postuló la existencia de un medio material invisible, que llamaron éter. Pero si el éter existía, tenía que haber forma de detectarlo (así funcionan las ciencias positivas como la física: podemos postular la existencia de algo, pero tenemos que ser capaces de medirlo; si no, ¡no vale!). Pues bien, Albert A. Michelson y Edward W. Morley realizaron un célebre experimento en 1887 en el
que midieron la velocidad de la luz a lo largo de diferentes direcciones de propagación; si el éter existía, esas velocidades deberían ser distintas entre sí, pero… ¡no encontraron diferencia alguna! El resultado era absolutamente sorprendente por dos razones: primero, porque demostraba que el éter no existía, con lo que la luz no requería de ningún medio material para propagarse; y segundo, porque indicaba que la luz siempre viaja a velocidad c en el vacío ¡sin importar que te muevas a una velocidad grande o pequeña, acercándote o alejándote, con respecto al emisor! (piénsese que esto no ocurre cuando lanzamos un objeto, como una pelota). Este resultado ayudó al desarrollo, por Albert Einstein en 1905, de la teoría de la relatividad especial, primera gran revolución de la física en el siglo XX. 19
C000 luz 2015 (FERROS).indd 19
05/05/15 12:59
Espectro visible por el ojo humano (luz) 400 nm
450 nm
500 nm
550 nm
600 nm
650 nm
700 nm
750 nm
Onda electromagnética plana: onda de luz que se propaga en la dirección x, constituida por un campo eléctrico E y un campo magnético B transversales (perpendiculares a la dirección de propagación). La longitud de onda l es la distancia entre dos crestas consecutivas. Los campos E y B oscilan en el tiempo, con una frecuencia f (número de oscilaciones por segundo), siendo l y f inversamente proporcionales entre sí: l = c/f (c es la velocidad de propagación de la onda en el medio en que se encuentra; en el vacío vale c = 299792458 m/s). El valor del campo eléctrico de la onda, en cada punto x del espacio e instante t, se puede escribir como: E=A·cos(2π(x/l-ft)+f) , siendo A la amplitud y f la fase inicial de la onda. Cuanto mayor sea la amplitud A, mayor será la intensidad o energía de la onda. La fase inicial f viene dada por el momento en que la onda empieza a oscilar (cambiar la fase inicial equivale, pues, a desplazar la onda entera, en bloque, un poco hacia la derecha o la izquierda, en el dibujo). Espectros Espectro del cuerpo negro: muestra la cantidad de energía que emite un cuerpo negro en cada longitud de onda. El espectro es muy ancho, como puede verse, y la energía que emite aumenta con el aumento de la temperatura T a que está sometido. Nótese que la longitud de onda en la que la emisión es máxima disminuye al aumentar T. Este espectro no depende de la composición específica del cuerpo negro y describe muy aproximadamente el espectro de las estrellas y el espectro de la radiación de fondo, que es un resto del big-bang. La explicación del espectro del cuerpo negro en 1900 por Planck haciendo uso de la hipótesis cuántica fecha el nacimiento de la teoría cuántica.
Cuadro 2.1. Ondas electromagnéticas.
20
C000 luz 2015 (FERROS).indd 20
05/05/15 12:59
Otra observación pendiente de explicación concernía a la forma que tiene el espectro energético de la luz emitida por los cuerpos calientes (por espectro queremos decir cuánta cantidad de ultravioleta, de azul, de verde, de amarillo, de rojo, de infrarrojo, etc., hay en la luz emitida por dichos cuerpos; es decir, cómo se distribuye la energía luminosa en función de la frecuencia, o de la longitud de onda). La búsqueda de tal explicación llevó, ni más ni menos, a la segunda gran revolución de la física en el siglo XX: la física cuántica. El primer paso lo dio Max Planck en el año 1900, al explicar el espectro de emisión de ciertos cuerpos calientes en equilibrio térmico (cuerpos negros) introduciendo la idea de que la materia absorbe y emite luz no en cantidades cualesquiera, sino en múltiplos de una unidad mínima, o “cuanto” de luz, que ahora llamamos “fotón”. Dicha cantidad era igual a hf, siendo h = 6,6260693 ╳ 10-34J · s la constante de Planck, y f la frecuencia de la luz. Según Planck diría después, se vio forzado a adoptar este extraño punto de vista “en un acto de desesperación” y pensando que se trataba de un truco poco elegante que quizá se pudiese eliminar en el futuro. Pero poco después, en 1905, Einstein propuso que aquello que había hecho Planck no era un truco matemático casual, sino que la propia luz estaba formada por cuantos discretos, lo que hoy llamamos los
fotones. Con esa hipótesis, Einstein pudo explicar las características del efecto fotoeléctrico (que consiste en la emisión de electrones por los metales al ser iluminados por luz de longitud de onda suficientemente corta, provocada por la súbita absorción de un fotón por parte de uno de los electrones del metal), cuyo uso cotidiano podemos ver en las células fotoeléctricas y en determinados tipos de fotodetectores. No obstante, se tardó casi 20 años en aceptar el punto de vista de Einstein, lo cual ocurrió a partir del año 1923 con el descubrimiento y explicación del efecto Compton referente a la colisión de un fotón y un electrón.
2.2. La luz: onda y partícula La teoría de los cuantos de Einstein, ya plenamente aceptada y contrastada, ponía a la física en una encrucijada, pues planteaba la llamada dualidad onda-partícula: la luz se propaga claramente como una onda electromagnética, como Maxwell explicó, pero se produce o se detecta de forma discreta (como si llegasen partículas al detector). Inspirado en ello, en 1923 Louis de Broglie, físico francés que introdujo la idea complementaria de que también las partículas materiales (electrones, átomos, etc.) podían comportarse como ondas. Por extraño que parezca,
este comportamiento ondulatorio de la materia se observa experimentalmente y tiene importantes aplicaciones, como el microscopio de efecto túnel —¡que permite ver átomos individuales!— o la difracción de electrones, utilizada por ejemplo en análisis cristalográfico. Pero, claro, ambas imágenes (corpuscular y ondulatoria) son mutuamente incompatibles en el marco de la física clásica: ¡una partícula es una partícula y una onda es una onda! Así, hubo que desarrollar un nuevo marco conceptual, la teoría cuántica, que fuese capaz de integrar las imágenes corpuscular y ondulatoria para un mismo objeto físico. Esta revolución cuántica fue fundamental para comprender mejor la naturaleza, incluyendo la materia (átomos, moléculas…) y los campos, en concreto el campo electromagnético, y en particular la luz, y ha servido de base para desarrollar tecnologías como el GPS, el láser, los chips de las videoconsolas, los teléfonos inteligentes y ordenadores, la resonancia magnética nuclear…, todas ellas de uso cotidiano en la actualidad. La dualidad onda-partícula conduce a un mundo cuántico bastante extraño, en el que un mismo objeto físico puede manifestarse de forma distinta según las medidas que decidamos realizar: la luz puede comportarse como una onda o como una partícula, y lo mismo les pasa a un electrón o a un átomo. Por este 21
C000 luz 2015 (FERROS).indd 21
05/05/15 12:59
Figura 2.4. Haz de luz emitido por un láser de Nd:YAG, de longitud de onda 532 nanómetros (color verde) y potencia 100 mW, reflejándose en dos espejos multicapa. Fotografía: Grupo de investigación en Dinámica y Óptica No Lineal y Láseres (DONLL), de la Universidad Politécnica de Catalunya (Campus de Terrassa).
motivo, el mundo cuántico es imposible de entender intuitivamente con nuestra mente clásica, que ha evolucionado para comprender el mundo macroscópico que nos rodea y así poder sobrevivir. Pese a todo, podemos describirlo mediante ecuaciones, lo que nos ha permitido realizar predicciones cuya precisión y acuerdo con los experimentos no tiene parangón en ninguna otra disciplina científica. De hecho, durante más de medio siglo, los físicos se dedicaron a calcular y predecir resultados experimentales, en los que se basó lo que hemos denominado primera revolución cuántica, sin profundizar en los aspectos conceptuales más contraintuitivos de la física cuántica (superposición, entrelazamiento, etc.). No estaba generalmente bien visto entre los físicos dedicarse a reflexionar sobre estos aspectos, que se consideraban como preocupaciones académicas o entretenimientos minoritarios sin utilidad práctica. Pese a todo, los
científicos han tenido suficiente audacia e imaginación para transformar, progresivamente, estos aspectos más sorprendentes y contraintuitivos en fundamento de aplicaciones de la llamada segunda revolución cuántica, con repercusiones tecnológicas profundas hoy en día en relación con la llamada información cuántica (criptografía cuántica, computación cuántica), las medidas ultraprecisas, la simulación cuántica, etc. La teoría cuántica describe satisfactoriamente la naturaleza dual (onda-corpúsculo) de cualquier sistema físico. Curiosamente, ello se consigue describiendo cada sistema material, un electrón por ejemplo, mediante una onda (que llamamos “función de ondas”), cuya evolución en el tiempo viene gobernada por la famosa ecuación de Schrödinger y nos va dando cómo va cambiando el estado (es decir, la situación, forma, propiedades, etc.) de dicho sistema. Dicha función de onda
contiene toda la información posible sobre el sistema; en particular, nos puede indicar en qué condiciones el sistema se manifestará como onda y en qué condiciones lo hará más bien como partícula. Ahora bien, a diferencia de las predicciones de la física clásica, la teoría cuántica tiene carácter probabilista; ello no se debe a que no sepamos bien lo que pasa y solo podamos hablar de probabilidades —como cuando se lanza una moneda—, sino que parece ser una propiedad intrínseca de la naturaleza (por ejemplo, la “función de ondas” nos permite conocer la probabilidad de presencia de la partícula en cada punto del espacio, pero no puede dar ninguna certeza de dónde la encontraremos exactamente, en el momento de realizar una medida…). Una de las consecuencias fundamentales, que nos ayudará a entender qué pasa con la luz en el mundo cuántico, es la imposibilidad de conocer con total precisión, y de manera simultánea, la posición (x) y la velocidad (v) de una partícula (pongamos por caso
22
C000 luz 2015 (FERROS).indd 22
05/05/15 12:59
Figura 2.5. Trayectoria de pulsos “coherentes” de luz blanca de 180 femtosegundos de duración, con un espectro de colores que va del rojo al verde (centrado en el amarillo), dentro de un prisma de vidrio. Fotografía: Grupo de investigación en Dinámica y Óptica No Lineal y Láseres (DONLL), de la Universidad Politécnica de Catalunya (Campus de Terrassa).
un electrón para fijar ideas). Matemáticamente esto se describe mediante la “relación de indeterminación de Heisenberg”, la cual implica que si el estado de la partícula tiene la posición muy bien definida, entonces la velocidad estará mal determinada y viceversa. Otra de las consecuencias de la teoría cuántica es la existencia de niveles de energía en los átomos. Normalmente, el electrón de un átomo de hidrógeno, por poner un ejemplo, está en su estado de más baja energía (de valor E1), pero podemos excitarlo a un estado de energía superior E2 suministrándole energía, por ejemplo, mediante luz. Ahora bien, dicha luz debe tener una frecuencia f tal que hf = (E2 – E1); esto lo podemos entender como que el átomo absorbe un fotón, cuya energía (hf) es igual al incremento de energía del átomo. Asimismo, cuando el átomo se desexcita, emite un fotón, cuya energía es igual a la diferencia de energías de los niveles atómicos. Pero lo que resulta fascinante, y este es el tercer resultado que nos va a hacer
falta, es que la teoría cuántica predice que el electrón puede estar en el estado 1, en el estado 2 o, también, ¡simultáneamente en el estado 1 y 2!, cosa que clásicamente es imposible (es como estar en dos sitios diferentes a la vez). Esta predicción, que ha sido comprobada experimentalmente muchas veces, es consecuencia del principio de superposición: la suma de dos ondas también es una onda y, por tanto, es una nueva posible solución (o estado)… si bien, cuando midamos, solo podamos encontrar al electrón en el estado 1 o en el estado 2. Esta sorprendente posibilidad de que un sistema cuántico pueda estar simultáneamente en dos estados diferentes es uno de los ingredientes que se explotan para almacenar, transmitir y procesar información en el campo de la información cuántica, actualmente en rápido desarrollo. Nótese que todas estas tareas juegan un papel muy relevante en nuestra sociedad de la información: ordenadores, telecomunicaciones, redes
de ordenadores, memorias ópticas, etc., y que todo ello funciona actualmente con la lógica (las leyes) de la física clásica. Pasar a la lógica cuántica abre nuevas perspectivas, las cuales se están investigando. Conviene decir que todos los sistemas físicos son cuánticos y pueden describirse mediante la teoría cuántica. Lo que ocurre es que la física clásica es una magnífica aproximación en muchas situaciones, principalmente cuando se trata de sistemas u objetos grandes, es decir, constituidos por un gran número de elementos cuánticos individuales tales como átomos o fotones. Nótese no obstante que hay circunstancias, particularmente a muy bajas temperaturas, en que objetos relativamente grandes (“mesoscópicos” o realmente macroscópicos) tienen comportamientos cuánticos. Ejemplos notables son los llamados condensados atómicos de Bose-Einstein, el helio superfluido y los superconductores. 23
C000 luz 2015 (FERROS).indd 23
05/05/15 12:59
Figura 2.6. Haz de luz emitido por un láser de Nd:YAG, de longitud de onda 532 nanómetros (color verde) y potencia 100 mW, atravesando o reflejándose en diferentes elementos ópticos. Fotografía: Grupo de investigación en Dinámica y Óptica No Lineal y Láseres (DONLL), de la Universidad Politécnica de Catalunya (Campus de Terrassa).
Pasemos a ver cómo se manifiestan estos hechos cuánticos en el caso específico de la luz. Resulta que, tanto clásica como cuánticamente, una onda e.m. viene descrita tal como hemos explicado en el primer texto y figura del cuadro 2.1: está formada por un campo eléctrico E y un campo magnético B que se propagan en el espacio en la forma allí indicada. Entonces, ¿dónde está la diferencia entre clásico y cuántico? Por un lado, desde el punto de vista cuántico, la energía de la onda (la cual está asociada con el cuadrado de la amplitud A) no puede variar de manera continua, ha de hacerlo en múltiplos enteros de hf. Es decir, puede aumentar o disminuir en cantidades correspondientes a la energía de un número entero de fotones, ya que un fotón no puede dividirse; lo cual confirma la intuición de Einstein de que la luz estaba formada por fotones. Por otra parte, y de modo semejante a la relación de indeterminación de Heisenberg posición-velocidad para un electrón, la amplitud A y la fase inicial f de la onda e.m. no pueden estar jamás ambas perfectamente bien determinadas, lo que implica que las perfectas y exactas ondas e.m. clásicas pueden aparecer como desdibujadas en el caso cuántico, pues siempre queda un cierto grado de incertidumbre en su amplitud (y por tanto en su número
de fotones) y/o su fase inicial. Dependiendo de cómo sean esas indeterminaciones, y de cuál de ellas domine (cuanto mejor esté determinada una de ellas, peor lo estará la otra, y viceversa) tendremos una gran variedad de estados cuánticos de la luz (bien diferentes de los estados clásicos). Por ejemplo, cuando ambas incertidumbres son iguales entre sí, tenemos los estados coherentes, con los que podemos describir, entre otros, la luz emitida por los láseres (los láseres no tienen pues un número de fotones perfectamente bien definido, si bien para altas intensidades la indeterminación es relativamente muy pequeña). Cuando la fase está mejor definida que la amplitud, tenemos los llamados estados comprimidos (squeezed en inglés) en fase, que particularmente se utilizan para intentar detectar ondas gravitatorias (predichas por la teoría de la relatividad general de Einstein, pero todavía no observadas directamente), en grandes experimentos como LIGO. Por último, cuando la amplitud está mejor definida que la fase, tenemos los estados comprimidos en amplitud. En el caso límite ideal de tener la amplitud (y, por tanto, el número de fotones y la energía) perfectamente bien definida (y por tanto la fase totalmente al azar), se les llama estados número o estados de Fock. Observar que, salvo en este último tipo de estado, en todos los demás, y por el
24
C000 luz 2015 (FERROS).indd 24
05/05/15 12:59
DA
DA
Amplitud (A)
principio de superposición, la luz puede estar simultáneamente en estados con diferente número de fotones, con todas las posibilidades de aplicación en el campo de la información cuántica que ello supone y que se están investigando. Queda todavía una intrigante propiedad: ¿qué pasa cuando apagamos todas las luces (es decir, cualquier fuente de radiación, para ser más precisos)? Según lo dicho anteriormente, en este estado hay 0 fotones, por lo tanto debería ser nada (y por eso a este estado se le denomina “vacío”). Sin embargo, el vacío e.m. es un estado de verdad: queda un poco de campo electromagnético residual, imborrable, con una energía igual a la de medio fotón (se trata de un estado de Fock con energía igual a hf/2). Pero se trata de medio fotón por cada posible frecuencia y dirección de propagación de las ondas, por lo que resulta en una energía total considerable (que cuenta para la llamada “energía oscura” total del universo…) y que afecta al movimiento de los electrones de los átomos, haciendo posible que estos puedan emitir luz y podamos por tanto disponer de fuentes de luz. Por lo dicho arriba, pudiera parecer que el concepto de fotón solo sea útil cuando trabajemos con luces con un número de fotones perfectamente bien
A
D D
f
f tiempo
Estado coherente.
t Estado comprimido en fase.
DA
DA = 0
A
D f
Df = 2p t
Estado comprimido en amplitud.
Estado número (o de Fock).
DA y Df representan la incertidumbre en la amplitud A y en la fase inicial f de la onda, respectivamente, debidas al principio de incertidumbre de Heisenberg.
Cuadro 2.2. Estados cuánticos de la luz.
definido (estados número) ¿Cómo es posible entonces que la palabra fotón sea poco menos que sinónimo de luz? La naturaleza de los fotones radica en la forma en que la luz interacciona con la materia: ya hemos dicho que el electrón de un átomo de hidrógeno, por ejemplo, puede ser excitado desde un estado dado a otro de más energía mediante la absorción de un fotón; por otra parte, si el electrón ya se encuentra excitado, puede pasar a un estado de menor energía mediante la emisión de un fotón. Lo relevante es que estas transiciones entre estados 25
C000 luz 2015 (FERROS).indd 25
05/05/15 12:59
Figura 2.7. Albert Einstein en sus últimos años. Einstein postuló la naturaleza cuántica de la luz y también predijo la existencia de la emisión estimulada, base de los láseres actuales. Fotografía: Wikimedia Commons.
atómicos ocurren siempre mediante la absorción o emisión de un único fotón, y como la detección de la luz viene siempre mediada por su interacción con la materia, siempre medimos un cierto número exacto de fotones —aunque de una medida a otra este número pueda variar debido a la indeterminación que tenga la luz que está siendo detectada—. Por ello, el concepto de fotón es extremadamente útil. Sorprendentemente, aunque el concepto de fotón nace en el primer cuarto del siglo XX, el fenómeno que realmente puso de manifiesto su existencia, independientemente de que estos interaccionen o no con la materia para su detección, tuvo lugar en el año 1976. Ese efecto se denomina “antiarracimamiento” (antibunching en inglés) y resulta precioso para apreciar claramente la dualidad onda-corpúsculo en la luz. Veámoslo con un experimento que Alain Aspect realizó por primera vez en 1986. Tal como se muestra en el cuadro 2.3, el experimento consta de dos partes. La primera, el “experimento A”, es muy simple: colocamos un átomo excitado frente a una lámina de vidrio (técnicamente se denomina divisor de haz) y situamos dos detectores de luz en las dos salidas del dispositivo. El divisor de haz deja pasar (transmite) luz, así como la refleja. Esto no es magia, sino algo usual: cuando miramos al exterior desde una habitación a través de un
vidrio de ventana, también nos vemos reflejados en ella; los divisores de haz son simplemente más sofisticados, ya que se construyen para que dejen pasar exactamente la mitad de la energía y reflejen la otra mitad. Ahora viene la pregunta: ¿qué ocurre con la luz emitida por el átomo cuando este se desexcita? Lo que se observa es que unas veces hace clic el fotodetector 1 y otras lo hace el fotodetector 2, pero nunca lo hacen los dos a la vez (se dice que nunca hay coincidencias). ¿Cómo podemos entender esto? Si pensamos en términos de ondas, no podemos, puesto que la mitad de la onda se transmite y la otra mitad se refleja, con lo que ambos detectores deberían hacer clic. Sin embargo, pensando en términos de fotones, la explicación es clara: dado que el fotón es indivisible (es una partícula) solo puede ser o transmitido o reflejado por la lámina (¡no puede reflejarse medio fotón!). Así, la mitad de las veces el fotón es transmitido y la otra mitad de las veces es reflejado, lo que significa que solo uno de los dos detectores hará clic cada vez: nunca habrá coincidencias en los detectores, de acuerdo con el experimento. Otro aspecto importante es que es imposible saber si un fotón concreto se reflejará o se transmitirá: la teoría cuántica solo permite saber la probabilidad de que ocurra la reflexión o transmisión (que es del 50% para cada suceso, en este caso). Ahora bien, la luz muestra fenómenos de interferencia,
26
C000 luz 2015 (FERROS).indd 26
05/05/15 12:59
Figura 2.8. Montaje experimental para investigación de propiedades ópticas de nuevos materiales tales como cristales fotónicos, etc., mediante láseres. Fotografía: Grupo de investigación en Dinámica y Óptica No Lineal y Láseres (DONLL), de la Universidad Politécnica de Catalunya (Campus de Terrassa).
precisamente la clase de fenómenos que confirmó la teoría ondulatoria de la luz en el siglo XIX. ¿Qué ocurrirá entonces si intentamos hacer un experimento de interferencias con un único fotón? Este experimento se ha hecho muchas veces desde el año 1985 y el resultado contiene todo el misterio de la teoría cuántica: la dualidad onda-corpúsculo. Primero tenemos que entender el funcionamiento de uno de los dispositivos más comunes utilizados para hacer interferencias con luz “normal”, denominado interferómetro de MachZehnder. En la segunda figura del cuadro 2.3 se muestra este dispositivo: la luz entra en el interferómetro (trazo verde) a través de un primer divisor de haz, que transmite (trazo rojo) y refleja (trazo azul) al 50% (esto es, pues, como en el experimento A); dos espejos se emplean para redirigir esos haces (rojo y azul) hacia un segundo divisor de haz, en el que ambos haces son recombinados. Ya fuera del interferómetro se miden, finalmente, las intensidades de los haces reflejados y transmitidos por este último divisor.
Claramente a la salida encontramos la superposición de los haces que han seguido los dos caminos posibles dentro del interferómetro (rojo y azul), lo que produce interferencias entre ambos. Lo que es crucial es que estas interferencias son constructivas (hay más luz) o destructivas (hay menos luz) dependiendo de la diferencia de longitud de los dos caminos. Pero ¿qué ocurrirá si en el interferómetro entra un solo fotón? Llamaremos a este experimento “experimento B”. Uno estaría tentado de decir que nada especial, porque hemos visto en el experimento A que, en el primer divisor de haz, el fotón bien se transmite, bien se refleja. Así, si se transmite, irá por el camino superior
(rojo) del interferómetro y, al llegar al divisor de haz de salida, bien se reflejará, bien se transmitirá, por lo que, al final, solo uno de los dos detectores hará clic, ambos con igual probabilidad; si repetimos el experimento muchas veces, esperaríamos que en la mitad de ellas el detector 1 hiciera clic y en la otra mitad lo hiciera el detector 2. Este razonamiento es obviamente igual si, tras el primer divisor de haz, el fotón se reflejó (yendo ahora por el camino inferior, azul, del interferómetro), en lugar de transmitirse. Si todo ello fuese cierto, que los brazos del interferómetro tengan o no longitudes diferentes debería ser completamente irrelevante, pues el fotón que sigue un camino “no sabe ni le importa” cómo de largo es 27
C000 luz 2015 (FERROS).indd 27
05/05/15 12:59
Lámina semitransparente Átomo
Fotodetector 1
Estado con un solo fotón Fotodetector 2 Nunca se observan coincidencias en las detecciones: partículas.
EXPERIMENTO A
Lámina semitransparente
Átomo
Estado con un solo fotón
Lámina semitrans.
Espejo
Fotodetector 1
Espejo
Fotodetector 2
EXPERIMENTO B
Número de detecciones (recogidas durante un tiempo T en un fotodetector)
Diferencia de caminos en el interferómetro
Cuadro 2.3. Observación de las interferencias en función de la diferencia de camino para diferentes duraciones del experimento. Dualidad onda-corpúsculo.
Se observan interferencias: cuando aún ha transcurrido poco tiempo, no se aprecian bien, pero a medida que van llegando más fotones (T mayor), la interferencia se hace clara: ondas.
el otro camino. Sin embargo, cuando repetimos muchas veces el experimento, se observa que, aunque cada vez solo uno de los detectores hace clic (el fotón, a la salida, bien se transmite,
bien se refleja), el número de veces que detectamos en 1 o en 2 sí depende de la diferencia de longitud entre ambos caminos del interferómetro, de acuerdo con la teoría cuántica. ¡De hecho, puede ajustarse esta diferencia para que todos los fotones salgan hacia el detector 1 y ninguno hacia el 2, y al revés! Pero ¿dónde nos hemos equivocado en el razonamiento inicial? O, dicho de otra forma, ¿cómo puede un solo fotón saber la longitud de ambos brazos del interferómetro sin llegar a recorrer ambos? ¿O acaso recorre ambos? Lo que la teoría cuántica dice es que todo ocurre como si la partícula recorriese ambos caminos simultáneamente (como hacen las ondas…), cosa que no podemos imaginar con nuestra mente clásica, ya que, cuando hacemos el experimento A, el fotón no se divide en dos trozos. Lo que vemos es que en un dispositivo experimental (experimento B) diseñado para medir una propiedad ondulatoria (las interferencias) la luz se comporta, efectivamente, como una onda, mientras que se comporta como una partícula cuando le “preguntamos” por dónde ha ido, como en el experimento A. Esta es la esencia de la dualidad onda-partícula y decimos que lo que en realidad ocurre es que el fotón (que es una partícula) se comporta como una onda, interfiriendo consigo mismo cuando le forzamos a ello. Si el lector se siente perplejo ante estas afirmaciones, puede pensar que esa perplejidad es la misma que sienten
28
C000 luz 2015 (FERROS).indd 28
05/05/15 12:59
los físicos y físicas que estudian estas cuestiones. No podemos afirmar si la luz es una onda o una partícula; solo podemos decir que la luz se comporta como una onda cuando no tenemos acceso al camino que siguió (experimento B), mientras que lo hace como una partícula cuando le preguntamos por ese camino (experimento A). De hecho, aún puede darse otra vuelta más de tuerca al experimento B: si introducimos en uno de los brazos del interferómetro algún elemento que nos informe sobre si el fotón ha pasado por allí o no, pero sin destruirlo (estos dispositivos existen)… ¡las interferencias desaparecen y el resultado de las medidas deja de depender de la diferencia de longitudes de los dos caminos! Los experimentos nos muestran inequívocamente que es imposible observar comportamiento ondulatorio (interferencias) y corpuscular (por dónde pasó el fotón) simultáneamente: u onda o corpúsculo, pero no ambas cosas a un tiempo. Podría pensarse que las extrañas propiedades cuánticas de la luz que hemos descrito sean curiosidades sobre la naturaleza de las cosas sin consecuencias, pero no es así en absoluto. Probablemente, la aplicación más importante de la teoría cuántica de la luz, por su enorme trascendencia, es la invención y desarrollo del láser, algunas de cuyas fascinantes aplicaciones se explican en varios de los capítulos que siguen a este. Para finalizar, podemos, pues, resumir diciendo que la luz posee
propiedades cuánticas tan potentes como las de cualquier partícula o unidad básica de materia, las cuales se manifiestan con rasgos propios muy atractivos que abren un fascinante mundo de fenómenos contraintuitivos y de gran aplicación. Parece por tanto que en el futuro seguiremos disfrutando de la luz, de la belleza (con los colores y las formas que crea) y de las utilidades que nos brinda no solo cuando brota a raudales, como cuando es emitida por un láser u otra de las potentes fuentes actuales, sino cuando se nos presenta en sus formas cuánticas más sofisticadas. ¡Nuevas e insospechadas aplicaciones están esperando a ser descubiertas!
Figura 2.9. Montaje experimental para investigación de propiedades ópticas de nuevos materiales tales como cristales fotónicos, etc., mediante láseres. Fotografía: Grupo de investigación en Dinámica y Óptica No Lineal y Láseres (DONLL), de la Universidad Politécnica de Catalunya (Campus de Terrassa).
29
C000 luz 2015 (FERROS).indd 29
05/05/15 12:59
Figura 2.10. Alineando el haz de luz verde de un láser de Nd:YAG, en un experimento de investigación.
Figura 2.11. Haces de luz láser de color verde y azul (luz difundida), en un montaje para investigación científica.
Fotografía: ICFO-The Institute of Photonic Sciences (Barcelona).
Fotografía: ICFO-The Institute of Photonic Sciences (Barcelona).
30
C000 luz 2015 (FERROS).indd 30
05/05/15 12:59
Alfred Rosenberg González
3. Luz y universo 3.1. Introducción Los humanos somos seres vivos sensorialmente limitados. De los cinco sentidos, podemos recibir información directa del universo a través de tan solo dos: la vista y el tacto. Y en ambos casos, nuestra percepción del universo es el resultado de la respuesta (muy limitada) de nuestros órganos sensoriales a la luz. En el caso de la vista, somos sensibles a la denominada (por definición) luz visible, mientras que en el caso del tacto lo somos especialmente a la energía calorífica. Tanto la luz como el calor son formas de radiación, es decir, energía que se propaga. Nos distingue de los demás seres vivos la capacidad de nuestro sistema nervioso para descubrir, diseñar y construir “prótesis” tales como telescopios e instrumentos que nos permiten salvar estas limitaciones
para poder ver y oír de forma indirecta el universo, y para ello aprovechamos cualquier tipo de radiación. Podríamos decir que la luz es nuestra única fuente de información sobre el universo, especialmente más allá del sistema solar. Así que hablar del universo es hablar de la luz. Los astrofísicos hemos tenido que aprender a recoger todos los fotones (partículas portadoras de la luz) que podamos y sacarles toda la información posible. Pero no ha sido un proceso sencillo. Desde nuestros orígenes hasta hace poco más de 400 años, tan solo conocíamos el universo mediante la luz que podían recoger nuestros ojos. Eso limitaba nuestro cosmos a unas 3.000 estrellas, cuatro planetas, la Luna y el Sol. Cabría incluir un par de galaxias enanas irregulares, las Nubes de Magallanes, para los habitantes del 31
C000 luz 2015 (FERROS).indd 31
05/05/15 12:59
que utiliza la descomposición de la luz) y el efecto Doppler (cambio aparente de frecuencia de una onda producido por el movimiento relativo de la fuente respecto a su observador) nos permitirían pasar de percibir un universo estático y eterno, a uno en expansión e incluso estimar ¡la edad del universo! en unos 13.800 millones de años. Gracias a la luz conocemos cada día un poco más del universo en que nos encontramos.
3.2. La astrofísica y los telescopios Figura 3.1. La mayor máquina del tiempo construida hasta el momento: el Gran Telescopio CANARIAS (GTC), con sus 10,4 metros de espejo primario equivalente, es el mayor telescopio óptico-infrarrojo del mundo y se encuentra en el Observatorio del Roque de los Muchachos (IAC), en la isla de La Palma. Recoger más luz significa poder ver objetos más lejanos, más débiles y con mayor detalle. Fotografía: Pablo Bonet/IAC.
hemisferio Sur, y una galaxia espiral, Andrómeda, para los habitantes del hemisferio Norte, que más que verla se intuye. Con la utilización del telescopio para la observación astronómica comenzó una verdadera revolución científica y social. Galileo observó que la superficie de la Luna no era perfecta, fases en Venus que demostraban que el Sol era el centro del sistema solar, manchas en la superficie solar y satélites que giraban en torno a Júpiter y no en torno al Sol… Luego llegaría el descubrimiento de otros tipos de luz, invisibles a nuestro ojo, que nos abrirían nuevas ventanas al universo. Con el conocimiento de la estructura de la materia y los átomos, descubriríamos la composición química de los astros. La espectroscopía (técnica
La astrofísica es un área de la ciencia sin duda singular. Su misión es estudiar las propiedades físicas de los cuerpos celestes (tales como su luminosidad, tamaño, masa, temperatura, composición química…), así como su origen y evolución. Sin embargo, pese a que cuenta con el mayor de los laboratorios (el propio universo), resulta imposible interactuar con los cuerpos objeto de su estudio: no podemos pedirle a una estrella que vuelva a explotar como una supernova, acelerar la rotación de una galaxia o tomar una muestra del Sol. La astrofísica es una ciencia observacional. Debemos esperar a recibir el mensaje que nos aportan los fotones y aprender a interpretar adecuadamente esta información.
32
C000 luz 2015 (FERROS).indd 32
05/05/15 12:59
Es en este punto en el que entran en juego los telescopios, principal herramienta de los astrofísicos. Los telescopios están formados por dos partes fundamentales: una destinada a recoger y concentrar la mayor cantidad de luz posible (habitualmente un conjunto de lentes o espejos) y un detector que nos permite medir objetivamente la luz que hemos recogido. Capturar más luz (más información sobre el universo en el que estamos inmersos) significa poder ver objetos más lejanos, más débiles y con mayor detalle. Más adelante veremos algunas de las técnicas utilizadas para analizar la luz, pero de momento centrémonos en una de sus propiedades más sorprendentes: su velocidad (solo superada por nuestra imaginación) y cómo afecta a nuestra imagen del Cosmos.
3.3. La luz y las distancias en el universo Por rápidas que nos parezcan las comunicaciones hoy en día, nunca podrán ser instantáneas. Y no porque nuestra tecnología sea aún primitiva o los descubrimientos científicos apenas hayan comenzado. Sencillamente, porque la velocidad de la luz, aunque muy rápida, es finita. Las comunicaciones vía satélite, a través de fibra óptica, por radio o utilizando simplemente el código morse con una linterna utilizan todas distintos tipos
de luz (microondas, infrarroja, ondas de radio, luz visible…), pero todas ellas tienen en común que se desplazan a la misma velocidad: la velocidad de la luz. La luz, y nos referimos a cualquier radiación del espectro electromagnético (como veremos en el siguiente apartado), recorre casi 300.000 kilómetros por segundo en el vacío. Y eso es una distancia enorme. Para hacernos una idea más cercana, un conductor puede hacer 300.000 kilómetros con su coche a lo largo de 15 o 20 años, distancia que recorrerá la luz en un solo segundo. Por simplificar, pensemos inicialmente en el sonido como medio de comunicación.
Figura 3.2. La Luna desde el Observatorio del Teide (Tenerife). Nuestro satélite es el objeto astronómico más cercano, situado a poco más de un segundo-luz. Fotografía: Daniel López/IAC.
33
C000 luz 2015 (FERROS).indd 33
05/05/15 12:59
Figura 3.3. Imagen del Sol a través de un filtro denominado Hα (situado a 6563 Å) muy utilizado en astrofísica para el estudio de regiones de formación estelar y, como en este caso, de la cromosfera solar. El Sol es el objeto astrofísico que más nos afecta en nuestras vidas, especialmente debido a su proximidad: tan solo 150.000.000 km = 500 segundos-luz = 1 UA. Fotografía: Daniel López/IAC-SolarLab. 34
C000 luz 2015 (FERROS).indd 34
05/05/15 12:59
Cuando conversamos con alguien, el movimiento de sus labios y el sonido que llega a nuestros oídos podemos considerarlo prácticamente simultáneo. Sin embargo, dos interlocutores situados a unos 300 metros comenzarán a percibir casi un segundo de retardo entre sus labios o gestos respecto a los sonidos correspondientes. Mucho más notable es el tiempo entre el relámpago y el trueno. ¿Sabían que se puede calcular la distancia a la que se encuentra una tormenta contando los segundos transcurridos entre el relámpago (luz) y el trueno (sonido)? El sonido, mucho más lento, recorrerá aproximadamente un kilómetro cada tres segundos, mientras que el relámpago podemos considerarlo prácticamente instantáneo. Todo depende de las distancias y de las velocidades en el medio de comunicación. Aunque tanto la luz como el sonido dependen del medio en que se propaguen, podemos decir que, en nuestra experiencia diaria, la luz es aproximadamente un millón de veces más rápida que el sonido. La luz recorre una distancia equivalente a dar siete vueltas y media a la Tierra en un segundo. La velocidad de la luz es enorme, pero es que las distancias en el universo son realmente “astronómicas”. Veamos algunos ejemplos. Nuestra Luna está, de media, a unos 384.000 kilómetros. Eso significa que un fotón cualquiera tardará poco más de un segundo en
recorrer esta distancia. Quedó claro para todo el mundo el 16 de julio de 1969, cuando Neil Armstrong se convirtió en el primer hombre en poner el pie en la Luna. Tras cada pregunta del Control Terrestre de Houston, debían pasar casi 3 segundos para tener una respuesta aun cuando los astronautas respondían inmediatamente. El Sol, la estrella más cercana (y con mucha diferencia), se encuentra a una distancia casi 400 veces mayor que la Luna (a unos 150 millones de kilómetros), por lo que los fotones de su superficie tardarán unos 500 segundos en llegar hasta nosotros. La próxima vez que disfrute con una puesta de Sol, recuerde que hace más de ocho minutos que el Sol realmente ¡ya no está ahí! Y la siguiente estrella más cercana (Próxima Centauri) se encuentra a unos 40 billones de kilómetros. Si explotase durante unos Juegos Olímpicos (cosa que no va a pasar, podemos estar tranquilos), no nos enteraríamos hasta después de los siguientes, ya que la luz de esta hipotética explosión no nos llegaría hasta pasados algo más de cuatro años. Y esto respecto a la estrella más cercana. Si pasamos a una escala mayor, podemos considerar las galaxias, los bloques fundamentales que conforman el universo. Una galaxia tiene varios cientos de miles de millones de estrellas, todas ellas separadas por enormes distancias. Andrómeda, el objeto astronómico más lejano en el universo
que podemos “intuir” a simple vista en un cielo privilegiado, es la galaxia espiral de nuestro barrio astronómico (el Grupo Local) más próxima. Se encuentra a una distancia de unos 23 trillones de kilómetros. Si mirásemos desde allí hacia la Vía Láctea (la galaxia en que nos encontramos) y pudiésemos ver lo que está ocurriendo en la Tierra, observaríamos a los primeros homínidos en África hace 2,5 millones de años. Y así podríamos seguir alejándonos más y más en el universo, retrocediendo en el tiempo. Por todo esto, podemos afirmar que los telescopios son verdaderas máquinas del tiempo. Debido a que la luz se desplaza a una velocidad finita, y dado que esta nos aporta toda la información del universo, observar más lejos significa observar más atrás en el tiempo, y observar cerca de los límites observables del universo significa acercarnos a su propio origen. ¿Cómo medir la velocidad de la luz? Actualmente conocemos con gran precisión la velocidad de la luz: en el vacío es, por definición, una constante universal de valor 299.792,458 km/s y que designamos con la letra “c”. Nos equivocaremos por una fracción despreciable si la aproximamos a los 300.000 km/s. Esa condición de constante universal le confiere la propiedad de poder ser utilizada como unidad de distancia. En divulgación astronómica solemos hablar de distancias en segundo-luz, minutos-luz o, sobre 35
C000 luz 2015 (FERROS).indd 35
05/05/15 12:59
Figura 3.4. Imagen de la galaxia NGC 7331 obtenida con el telescopio IAC80 del Observatorio del Teide. Situada a casi 50 millones de años luz de nosotros, es mucho más brillante y masiva que nuestra galaxia, la Vía Láctea. Aunque la luz se tome todo ese tiempo en llegar desde ella hasta nosotros, estamos viendo una galaxia muy próxima si consideramos el resto del universo. Fotografía: Daniel López/IAC.
todo, años-luz para referirnos a las distancias recorridas a la velocidad de la luz en dicho lapso de tiempo. Pero ¿cuándo nos dimos cuenta de que la luz tenía una velocidad finita?, ¿cuándo estimamos por primera vez la velocidad de la luz? y… ¿cómo se midió? Este es otro capítulo de la historia de la ciencia en el que la astronomía ha jugado un papel interesante. Empecemos con un sencillo experimento: imaginemos un faro, como el utilizado en las costas, enviando
destellos de luz de forma regular en el tiempo. Sin duda, podríamos predecir cuándo se producirá cualquiera de ellos, puesto que funciona como un reloj, emitiendo pulsos de luz a intervalos regulares de tiempo. Ahora situémonos en Júpiter… ¿Qué observaríamos? Si la luz fuese a una velocidad infinita (instantánea), seguiríamos viendo los destellos de luz en los intervalos de tiempo programados, pero no es así. La luz se tomará cierto tiempo en recorrer la distancia entre Júpiter y la Tierra.
Claro que con esta información aún no podemos calcular la velocidad de la luz, puesto que no podemos distinguir un destello de otro, ni saber, por lo tanto, en qué momento fue emitido. Lo que sí podemos hacer es medir cuánto se adelantan o atrasan los pulsos de luz en función de las distintas posiciones relativas en las órbitas, en especial, cuando la Tierra y Júpiter se encuentran lo más cerca y lo más lejos posible. En esas posiciones, la luz deberá recorrer adicionalmente dos veces la distancia de la Tierra al Sol (unos 300 millones de kilómetros), una distancia ya no despreciable ni para la luz, que tardará unos 1.000 segundos en recorrerla. Por lo tanto, a medida que los dos planetas se alejen, los pulsos de luz se van dilatando en el tiempo hasta que su desajuste alcanza unos 1.000 segundos, para luego irse contrayendo hasta regresar a los tiempos esperados. Con un experimento similar (pero esta vez real) basándose en observaciones de los movimientos orbitales del Satélite Galileano Ío (que podemos imaginarnos como la manecilla de un reloj), Ole Rømer estimó en 1676
36
C000 luz 2015 (FERROS).indd 36
05/05/15 12:59
que la luz tardaba unos 22 minutos en recorrer una distancia equivalente al diámetro de la órbita terrestre. Uniendo este resultado con el valor más preciso de la Unidad Astronómica (U.A., distancia promedio entre el Sol y la Tierra) de aquel momento (aproximadamente 140 millones de kilómetros), Christian Huygens fue el primero en calcular un valor de la velocidad de la luz de unos 220.000 km/s, un valor muy superior a cualquier otro fenómeno físico conocido hasta entonces. Hoy en día sabemos que un valor más aproximado para el retraso aparente de los Satélites Galileanos en sus órbitas es de 16 minutos y 40 segundos (unos 1.000 segundos) y que la U.A. se aproxima más a unos 150 millones de kilómetros.
3.4. El espectro electromagnético Aunque las estrellas emiten luz de todos los tipos posibles, nosotros solo somos sensibles a un estrecho intervalo que denominamos luz visible. Esto es debido a varios factores. Uno de ellos es que nuestra estrella, el Sol, irradia con máxima intensidad en este intervalo, por lo que la evolución de las especies en nuestro planeta ha llevado a la mayoría de los seres vivos a desarrollar órganos sensoriales adaptados a estas longitudes de onda o muy próximas. Estrellas más pequeñas y frías emiten más luz en el
infrarrojo, mientras que estrellas más grandes y calientes tienen su máximo de emisión en radiaciones más energéticas, tales como el ultravioleta. Otro factor muy importante es la presencia de uno de los dos escudos que nos protegen de las agresiones del espacio: el campo magnético y la atmósfera terrestre. Esta última tiene la peculiaridad de no dejar pasar (ser opaca) a las radiaciones más energéticas (rayos gamma, rayos X y buena parte de la luz ultravioleta), que tienen energía suficiente para destruir moléculas (radiaciones ionizantes) y, por lo tanto, incompatibles con el desarrollo de la vida. Gracias a ella podemos sobrevivir, pero al mismo tiempo nos impide la observación directa del universo en esas longitudes de onda. En cambio, la atmósfera es casi perfectamente transparente a la luz visible. Nuestra imagen del universo ha ido cambiando enormemente en los últimos dos siglos. Desde los albores de la humanidad, en que observábamos el cielo a simple vista, hasta el momento actual, en que estamos aprendiendo a escudriñar el universo en todo su esplendor, hemos tenido que pasar por numerosos pasos intermedios. A modo de brevísimo e impreciso resumen, destaquemos algunos hechos que nos permitieron comenzar a descubrir esas “nuevas ventanas al universo” a través de las cuales lo observamos hoy en día. Fue a principios
del siglo XIX cuando el astrónomo William Herschel descubrió un nuevo tipo de luz: los “rayos calóricos”. Midiendo con un termómetro la temperatura de los distintos colores de la luz dispersada por un prisma, descubrió que el calor aumentaba hacia el rojo, alcanzando su máximo valor donde ni tan siquiera había luz. Fue la primera prueba de que el calor puede transmitirse por una forma invisible de luz. Los primeros detectores de radiación infrarroja eran bolómetros, es decir, detectores que captan la radiación por el aumento de temperatura. Hoy en día disponemos de detectores bidimensionales que nos permiten realizar imágenes del universo en infrarrojo. Casi simultáneamente fue descubierta la luz ultravioleta por Johann Wilhelm Ritter. Se estudió cada nuevo tipo de luz, descubriéndose que la ultravioleta era más energética que la visible y que esta, a su vez, más que la infrarroja. También que la luz se comportaba como una onda, cuya frecuencia o longitud de onda variaba de una a otra. Estos descubrimientos (junto con muchos más) culminaron allá por 1870 con la formulación de las cuatro ecuaciones del electromagnetismo de James Clerk Maxwell, que describían el comportamiento de la electricidad y el magnetismo, aspectos distintos de una misma interacción. Quedó entonces claro que debían de existir más formas de luz y los científicos supieron qué 37
C000 luz 2015 (FERROS).indd 37
05/05/15 12:59
´
´
Figura 3.5. El espectro electromagnético abarca todos los tipos de luz existentes. Se distinguen siete regiones (del más energético al menos): rayos gamma, rayos X, ultravioleta, visible, infrarrojo, microondas y ondas de radio. Fuente: SMM/IAC.
Figura 3.6. Los telescopios MAGIC, con sus 17 metros de diámetro, utilizan la interacción de los rayos gamma con la atmósfera para estudiar el universo más violento y energético. Fotografía: Daniel López/IAC.
buscar. En pocas décadas, antes del siglo XX, ya se conocían todas ellas. El espectro electromagnético es el conjunto de todos los tipos de luz, entre los cuales se encuentra la luz visible. Actualmente lo dividimos en siete grandes regiones: rayos gamma, rayos X, ultravioleta, visible, infrarrojo, microondas y ondas de radio.
Pero ¿qué diferencia un tipo de luz de otra? La clave está en la energía asociada a cada una, una cantidad determinada y precisa para cada tipo de la luz. Si bien podemos utilizar distintas propiedades de la luz para describirla, todas ellas están relacionadas entre sí, por lo que se puede recurrir indistintamente a cualquiera de ellas. En astrofísica solemos utilizar
38
C000 luz 2015 (FERROS).indd 38
05/05/15 13:00
Figura 3.7. Los observatorios del Instituto de Astrofísica de Canarias se encuentran entre los lugares más privilegiados del planeta para la observación del universo. Arriba: panorámica nocturna del Observatorio del Roque de Los Muchachos (con la Vía Láctea de fondo), donde se encuentran varios de los mayores telescopios del planeta. Abajo: panorámica diurna del Observatorio del Teide donde destacan las torres solares. Fotografías: Daniel López/IAC.
distintas características (su energía, la frecuencia o la longitud de onda) según la región del espectro electromagnético en que observemos el universo. Una característica principal es su frecuencia o longitud de onda, ambas relacionadas entre sí por una ecuación muy sencilla (l ·n = c; longitud de la onda x frecuencia de la onda = velocidad de la luz), de forma que mayores frecuencias implican menores longitudes de onda y viceversa. Igualmente, mayor frecuencia (menor longitud de onda) implica mayor energía asociada (E = h · c/l = h · n), donde E es la energía
asociada a la luz y h es la constante de Planck). En este punto, cabe preguntarse por la utilidad de observar el universo en distintas longitudes de onda. ¿No nos basta verlo en luz visible? En astrofísica, cada tipo de luz está asociada a distintos fenómenos físicos. Mientras que la luz visible nos permite hacernos una idea más cercana a nuestra experiencia cotidiana (nos gusta saber qué aspecto tienen la Luna, el Sol, las galaxias o las nebulosas) y esta observación aporta valiosa información sobre el universo que nos rodea, no deja de ser una
información limitada. Los rayos gamma y rayos X se producen en eventos altamente energéticos, tales como explosiones de supernova o discos de acreción en torno a agujeros negros, por lo que, si estamos interesados en ellos, debemos observarlos en estas longitudes de onda. Gracias a la luz infrarroja, podemos adentrarnos en las nebulosas y estudiar objetos calientes envueltos por polvo y gas interestelar, tales como el centro de nuestra galaxia o regiones de formación estelar. Las frías y oscuras nubes de gas y polvo pueden ser estudiadas solo en la región 39
C000 luz 2015 (FERROS).indd 39
05/05/15 13:00
de las ondas de radio, mientras que las microondas son la clave para descifrar las teorías sobre el origen del universo y los modelos cosmológicos. La observación en cada región del espectro electromagnético va a representar piezas clave para poder descifrar ese gran puzle que es el universo. Esta extraordinaria aventura se inició en la década de los años sesenta del siglo XX, con el lanzamiento de telescopios espaciales que posibilitaron la observación en altas energías y la construcción de observatorios modernos de alta montaña, como los presentes en las islas Canarias (el Observatorio del Roque de los Muchachos, en la isla de La Palma, y el Observatorio del Teide, en la isla de Tenerife, ambos pertenecientes al Instituto de Astrofísica de Canarias, IAC).
3.5. Del átomo al universo Son muchos los pasos que se han tenido que dar para llegar a entender lo que creemos hoy en día sobre “qué es el universo”. Uno de los más destacados es el relativo a la materia. Y resulta cuando menos curioso que, para llegar a comprender lo más grande, el universo, tuvimos previamente que entender lo más pequeño, el átomo. Todo el universo que conocemos es, o bien luz, o bien materia. Sobre la luz y su diversidad hemos hablado previamente, así que
centrémonos por un momento en la naturaleza de la materia. Todo lo que nos rodea está formado por átomos: nosotros mismos, todo lo que hay en la Tierra, incluso los planetas, las estrellas, el medio interestelar…, pero ¿cómo lo sabemos si no tenemos posibilidad de acceder a ellos? Resulta además sorprendente que no exista una variedad infinita de átomos. Con tan solo 90 elementos distintos podemos “construir” cualquier cosa material presente en el universo. Estos son los bloques mínimos de los que está compuesto todo. Y además de una forma muy desproporcionada. Imaginemos toda la materia del universo formando una tarta. La partimos en cuatro. Tres cuartos son hidrógeno, el elemento más sencillo. El cuarto de tarta restante es helio, el segundo elemento más sencillo de la tabla periódica. Y todos los demás elementos químicos (entre ellos la mayoría de que estamos compuestos: oxígeno, carbono, nitrógeno, calcio, fósforo, potasio, cloro…) se encontrarán entre las migajas del corte. Podemos repasar todos los elementos en una tabla periódica y veremos que están ordenados según el número de protones que poseen en su núcleo. Pero los átomos tienen además neutrones (con masa similar a los protones y sin carga eléctrica, situados junto a los protones en el denominado núcleo del átomo) y electrones (con una masa muy pequeña comparada con el protón, pero con
igual aunque opuesta carga eléctrica) que de forma didáctica se ilustran girando como un satélite en torno al núcleo, en igual número que el de protones si su carga total es neutra. No obstante, los electrones pueden encontrarse en diversos niveles energéticos (órbitas), pero no en cualquiera, sino en unos niveles de energía muy precisos. Y los electrones pueden saltar de unos niveles de energía a otros, pero para ello necesitarán absorber o liberar cantidades precisas de energía en forma de luz. Aunque esto es una idea muy simplificada de lo que ocurre en realidad, nos ayudará a entender qué es la espectroscopía. Algunos objetos pueden resultarnos realmente “mágicos”, tales como un prisma o las gotas de lluvia cuando interaccionan de una manera específica con la luz, dispersándola y descomponiéndola en toda la gama cromática que somos capaces de percibir, mostrándonos todos los colores del arcoíris. Ya por 1667, Isaac Newton trató de explicar dicho fenómeno y presentó ante la Royal Society su experimento sobre la descomposición de la luz solar. Dedujo que los colores del arcoíris eran colores puros, mientras que la luz blanca era la mezcla de todos ellos. Este es el fundamento de la espectroscopía, dispersar la luz para estudiar cada uno de sus componentes.
40
C000 luz 2015 (FERROS).indd 40
05/05/15 13:00
Ahora tratemos de visualizar el siguiente experimento. Encendamos una bombilla incandescente, hacemos pasar su luz a través de una rendija y dispersamos con un prisma este haz de luz que pasa. Lo que obtenemos es un arcoíris con todos sus colores. Hasta aquí, fácil. A continuación, coloquemos un gas de un elemento químico entre la bombilla y la rendija. ¿Qué ocurrirá? Los átomos del gas absorberán energía de solo ciertos valores (a modo de filtro) correspondientes a los posibles saltos de los electrones entre los posibles niveles del elemento presente. Ciertos valores de energía que se corresponderán con ciertos colores de la luz. El resultado de nuestro experimento es que, en lugar de obtener un arcoíris continuo, obtendremos uno en el que aparecerán líneas oscuras correspondientes a la luz que ha sido absorbida por el gas. Esto es lo que denominamos un espectro de absorción, y nos permite saber de forma unívoca qué gas hemos interpuesto. Obtenemos lo que coloquialmente podríamos llamar “código de barras” o “huella digital” del elemento químico en cuestión. De esta forma, en 1814, Joseph von Fraunhofer fue el primero en ver una serie de líneas oscuras en el espectro del Sol y determinó con precisión sus longitudes de onda. Comparándola con elementos en su laboratorio fue capaz de identificar qué elementos químicos estaban presentes en nuestro Sol. Sin embargo, existían
Reposo
Movimiento
Rojo
Azul
algunas líneas que no se pudieron reproducir en el laboratorio, por lo que se predijo la existencia de un nuevo elemento, el helio. Unas décadas más tarde fue descubierto dicho elemento también en la Tierra. La espectroscopía demostró que el universo estaba compuesto por los mismos elementos que encontramos en la Tierra. También existen espectros de emisión. Para ello basta observar una bombilla de sodio como las que se utilizan para la iluminación de las ciudades o de cualquier otro gas. Una bombilla llena de hidrógeno, helio, neón, dióxido de carbono o cualquier otro gas que sometemos a una corriente eléctrica emitirá luz exclusivamente en los colores que le esté permitido por su estructura atómica, resultando
Figura 3.8. Representación gráfica del efecto Doppler. Cuando se emiten ondas desde un emisor (e) con una frecuencia dada (“tono” en el caso del sonido, o “color” en el caso de la luz) y el emisor permanece en reposo respecto a los observadores (A y B) como es el caso de la izquierda, ambos observadores miden la misma frecuencia que coincide con la emitida. Si el emisor está en movimiento (caso de la derecha), los observadores recibirán una menor frecuencia si se aleja de él (A) o mayor en caso de dirigirse en su dirección (B). Esto significa que el observador A oirá un tono más grave (en el caso del sonido) o que recibirá un color más cercano el rojo (el conocido como “desplazamiento al rojo”) en el caso de la luz. De igual manera, el observador B oirá un sonido más agudo o verá un color más cercano al azul. De la variación en el tono de sonido o color de la luz podemos obtener la velocidad del movimiento del emisor. Fuente: SMM/IAC.
41
C000 luz 2015 (FERROS).indd 41
05/05/15 13:00
en un espectro inverso al de absorción. Gracias a esta técnica podemos recoger la luz del Sol, de las nebulosas, de las galaxias… con los telescopios y luego dispersarla para estudiar su “código de barras”, determinando así su composición química, aun sin poder acceder a ellos. La espectroscopía, en astrofísica, nos permite obtener gran cantidad de datos sobre los objetos que observamos: composición química, temperatura, campos magnéticos… Incluso la velocidad a la que se mueven las galaxias y, en última instancia, llegar a la teoría del Big Bang y permitir estimar la edad del universo. Pero ¿cómo?
3.6. El efecto Doppler-Fizeau y la expansión del universo Todos hemos oído alguna vez una ambulancia, un tren o una ruidosa moto que se acerca a nosotros a cierta velocidad para luego alejarse de nuevo, produciéndose un cambio perceptible en el tono de su sonido. Este cambio
se debe a que el intervalo entre cada una de las sucesivas ondas es más breve cuando se acerca que cuando se aleja, de manera que llegan al oído con mayor frecuencia en el primer caso, y menor en el segundo, respecto a cuando se encuentra en reposo. También es perceptible cómo mayores velocidades producen mayores cambios en el tono. En 1842, el físico Christian Johann Doppler determinó la relación matemática entre velocidad y tono para el caso de los sonidos. En su honor, a este fenómeno se le conoce como efecto Doppler. En astrofísica, tal como señaló Armand Hippolyte Fizeau en 1848, el fenómeno y las ecuaciones son las mismas, aunque relativas a la luz y su velocidad (por ello, en ocasiones, cuando hablamos de este efecto referido a la luz, lo denominamos efecto Doppler-Fizeau). Si recordamos el código de barras (espectro), este está compuesto por líneas de un color (o frecuencias o longitudes de onda) determinados. Cuando un cuerpo estelar se desplaza, como una
galaxia, por ejemplo, esas barras del código se desplazan hacia el lado de menores frecuencias (comúnmente denominado “desplazamiento al rojo”) o hacia mayores frecuencias (“desplazamiento al azul”), según la galaxia se aleje o se acerque a nosotros, respectivamente. El primero en determinar la velocidad a la que se alejaba una estrella (Sirio) fue William Huggins en 1868, quien obtuvo un valor de 46 km/s. Medio siglo más tarde, Edwin Powell Hubble fue capaz de medir las distancias y velocidades de numerosas galaxias, llegando a la conclusión de que no importa en dónde nos encontremos en el universo, todas las galaxias se alejan las unas de las otras. Si retrocedemos en el tiempo, podemos imaginar que todo el universo era mucho más compacto en el pasado, llegando a estar totalmente concentrado en un solo punto en un momento dado… hace unos 13.800 millones de años. ¿No es maravilloso cuánto podemos saber del universo gracias a la luz?
42
C000 luz 2015 (FERROS).indd 42
05/05/15 13:00
Alfonso V. Carrascosa y Carolina Martín Albaladejo
4. Luz y vida 4.1. Introducción La luz ha sido y es un elemento esencial para la vida. Tanto, que esta no se entiende del todo sin aquella. Hizo falta luz, mucha luz, para llegar adonde estamos, y la hubo en abundancia. Todo comenzó cuando aprendimos a hacer uso de la luz. Así avanzó la vida. Fueron los seres vivos unicelulares los primeros que habitaron el agua. Con el tiempo surgieron en ella células con la habilidad de utilizar la energía de la luz para sintetizar el alimento necesario para crecer y multiplicarse. Fue esta destreza, unida a la capacidad de romper el agua para obtener hidrógeno y unirlo a átomos de carbono, lo que hizo posible sintetizar azúcar; en este proceso se liberó oxígeno, algo que hizo de la atmósfera un entorno respirable para las plantas y animales que llegarían después.
Y entonces surgieron otras formas de vida más complejas; una vida que ocupó diferentes entornos y que se relacionó con la luz de muy distintas maneras. La luz ha sido y es imprescindible para el avance del conocimiento sobre la vida. Sin luz, la vida no se desarrolla, pero tampoco se la ve. Ser capaces de producir luz nos ha permitido conocer, más y mejor, otras formas de vida y su entorno.
4.2. Luz y algas unicelulares La luz del cielo son las estrellas. Hace mucho calor cerca de ellas. El Sol y su sistema aparecieron hace unos 4.500 millones de años, 9.000 millones de años después del principio del universo, instante en el que se hizo la luz de las primeras estrellas. 43
C000 luz 2015 (FERROS).indd 43
05/05/15 13:00
Figura 4.1. Fumarola de Ciudad Perdida. En estructuras similares pudo aparecer la vida sobre la Tierra. Fotografía: MARUM, University of Bremen, Alemania.
La Tierra incandescente se fue enfriando, y el vapor de agua se fue condensando y atrapando elementos como oxígeno, carbono, nitrógeno, hidrógeno o sus gases. Se originó un gran océano en el que gases y elementos se combinaron constituyendo compuestos orgánicos que formaron la “sopa orgánica primordial”, en la que surgió la vida. En algún momento, estos compuestos orgánicos comenzaron a interaccionar y surgieron el
metabolismo y las moléculas capaces de hacer copias de sí mismas, los hoy llamados ácidos nucleicos. Después, los compuestos y moléculas serían envueltos por membranas y aparecerían diversos tipos de células, independientes al medio circundante, hasta llegar a LUCA (last universal common ancestor o último ancestro universal común), del cual derivarían todas las células posteriores hasta la actualidad, algo que ayudaría a entender las, aún a día de hoy, asombrosas coincidencias de todas las células existentes. La primera vida sería pues pequeña y sencilla, microscópica y unicelular, microbiana y parecida a las actuales bacterias procariotas (sin núcleo). Luego el material genético se envolvería con una membrana interna dentro de las células y aparecerían células eucariotas (con núcleo). Disminuida la despensa de la “sopa orgánica primordial”, algunas células desarrollarían la capacidad de consumir dióxido de carbono y producir metano, gas que comenzó a acumularse en la atmósfera. Eran los microbios metanógenos. La luz del Sol seguía llegando a la Tierra cargada de energía y la vida aprendió a aprovecharla para producir comida gracias a un nuevo proceso: la fotosíntesis. Tomando dióxido de carbono atmosférico e hidrógeno del agua, y liberando oxígeno a la
44
C000 luz 2015 (FERROS).indd 44
05/05/15 13:00
atmósfera, estas células fotosintéticas atraparían energía lumínica y la convertirían en energía química, todo ello gracias a una molécula orgánica llamada clorofila. Con esta energía sintetizarían cadenas de azúcares útiles como alimento tanto para ellos como para los demás. Estos primitivos microbios fotosintetizadores serían muy parecidos a las actuales cianobacterias. La luz cambió así la vida. Y los continentes se empezaron a formar hace unos 3.000 millones de años (m.a.), y unos 400 m.a. después, los microbios del mar comenzaron a desembarcar, y la vida colonizó el medio terrestre…
4.3. Luz, plantas y animales La escasez de alimento en la “sopa orgánica primordial” hizo que células eucariotas empezaran a comer bacterias. Seguramente en algún caso no llegaron a hacer bien la digestión y las bacterias se quedaron a vivir dentro de aquellas células. Era la endosimbiosis. Con el paso del tiempo aparecieron las células animales en las que las bacterias terminaron haciendo la función de pulmones —las mitocondrias— y las células vegetales, en las que se daría una doble indigestión: además de pulmones aparecerían cloroplastos, llenitos de clorofila para hacer la fotosíntesis, que
Figura 4.2. Izquierda: cianobacterias (franjas verdes dentro de la roca) y derecha: diatomeas. Ambas son ejemplos de seres unicelulares fotosintéticos similares a la vida primitiva. Fotografías: Izquierda: cortesía del doctor Jacek Wierzchos, investigador del MNCN (CSIC). Derecha: cortesía de la doctora Carmen Diéguez, investigadora del MNCN (CSIC).
45
C000 luz 2015 (FERROS).indd 45
05/05/15 13:00
Figura 4.3. Ejemplo de endosimbiosis, proceso que pudo dar origen a las primeras células cilado-vegetales con cloroplastos. Fotografía: Doctora G. F. Esteban, Bournemouth Universiy (Reino Unido).
originalmente serían cianobacterias, indigestas y endosimbióticas también. Y la luz siguió brillando y el oxígeno aumentó —las algas y las plantas producen en la actualidad unas 10.000 toneladas de oxígeno por segundo— y la vida se abrió camino y se fue complicando, todo ello gracias a la gran cantidad de energía que se podía obtener oxidando los azúcares sintetizados a partir de la luz del sol. Las células fueron organizándose unas junto a otras y aparecieron los seres vivos pluricelulares, hace unos 1.000 m.a. Más tarde aparecieron las primeras plantas y animales marinos,
pero ya con agrupamientos celulares muy complejos y especializados que hoy llamamos tejidos. Los animales marinos aumentaron en número y se diversificaron espectacularmente, durante la denominada Explosión Cámbrica, en la que se originaron, hace tan solo unos 500 m.a., los patrones y morfologías básicas que presentan los animales actuales. Todo esto sucedió gracias a la despensa de toneladas de biomasa vegetal que la fotosíntesis había producido gracias a la luz del sol. Y 100 m.a. después, ocurrió la Explosión Devónica, esta vez protagonizada por las plantas terrestres,
que se hicieron numerosas y de muchas formas. Algunos animales marinos, explorando ambientes en busca de nuevos recursos, comenzaron a colonizar la superficie terrestre hace unos 400 m.a. Primero invertebrados artrópodos, parecidos a los actuales ciempiés, y anfibios poco después. Claro que en la Tierra ya había abundante comida: las plantas que habían llegado antes y habían formado bosques. Tal vez a partir de anfibios, surgirían reptiles y aves, y al final mamíferos, y con ellos nosotros, todo gracias a la luz. A las explosiones de vida le sucedieron extinciones masivas causadas por cambios climáticos como las glaciaciones o calentamientos de origen vulcanológico, o por cataclismos como el impacto de asteroides kilométricos contra la Tierra. La mayor extinción, conocida como la Gran Mortandad, ocurrió hace unos 250 m.a. y en ella desapareció el 95% de la vida marina y el 70% de la terrestre. Las erupciones volcánicas o los impactos de meteoritos grandes producirían nubes de polvo que
46
C000 luz 2015 (FERROS).indd 46
05/05/15 13:00
Figura 4.4. Las selvas tropicales son un ejemplo de grandes masas vegetales producidas gracias a la luz. Fotografía: Doctor José Luis Nieves Aldrey, investigador del MNCN (CSIC).
inundarían la atmósfera y dificultarían la llegada de la luz, además de aumentar la temperatura y el efecto invernadero, con lo cual morirían primero las plantas y
después los animales que se alimentaran de ellas. Por estos motivos se cree que hace unos 65 millones de años desaparecieron la mayor parte de los
dinosaurios: por haber disminuido las plantas que comían. Las extinciones ocasionaron el enterramiento de grandes cantidades 47
C000 luz 2015 (FERROS).indd 47
05/05/15 13:00
Figura 4.5. El registro fósil nos permite conocer las expansiones y extinciones de la vida. Izquierda: Placenticeras placenta, ammonite del Cretácico; derecha: molde de Diplodocus carnegii, saurisquio que vivió durante el Jurásico. Fotografías: Izquierda: cortesía de la doctora Carmen Diéguez del MNCN (CSIC). Derecha: signatura ACN003/003/08178, Archivo Histórico del MNCN.
de materia orgánica procedente de animales, plantas, algas y otros organismos. Por presiones internas y calor debidos al soterramiento, se convirtieron en combustibles fósiles, petróleo y gas natural que ahora utilizamos. No obstante, la energía solar que llega en pocos segundos a la Tierra gracias a la luz equivale a toda la que la especie humana gasta al año, y la que la Tierra recibe anualmente es equivalente, más o menos, al doble de toda la energía producida jamás por otras fuentes de energía no renovables como son el petróleo, el carbón, el uranio y el gas natural. El 30% de la energía solar es devuelta al espacio y el 70% restante es absorbido por las nubes, los océanos y las masas terrestres. La fotosíntesis
captura algo menos del 0,1% de ella y genera 200.000 millones de Tm de biomasa vegetal al año. Esa biomasa es y fue la base de las cadenas alimentarias, en las que las plantas sirvieron y sirven de alimento a herbívoros y estos a su vez a carnívoros.
4.4. Vida a oscuras Luz ha habido desde el principio; la vida llegó bastante después. Al propagarse, la vida fue ocupando espacios nuevos buscando cómo sobrevivir. Parte de la vida que surgió con ayuda de la luz acabó adaptándose a la oscuridad. Donde la luz no llega hay poca vida, y es de otra manera. Es la vida a oscuras. En
48
C000 luz 2015 (FERROS).indd 48
05/05/15 13:00
la profundidad de los océanos o de las cuevas. Vida extrema. Y así la vida alcanzó esa región que, a partir de 400 metros de profundidad, la ciencia llama afótica (sin luz), en los fondos abisales marinos entre 3.000 y 6.000 metros de profundidad, o en los fondos hadales, de 6.000 metros para abajo. Allí hace frío (cuatro grados es calor) y se vive bajo presión: hasta 1.100 veces más que en la superficie. Nadie tiene prisa. Así se gasta menos y se llega a vivir muchos años. Mucha tranquilidad, larga vida y, sin fotosíntesis, muy poca comida. Lo que va cayendo desde arriba o lo que se va cazando. Una vida oculta que seguimos descubriendo. Y entre tanta oscuridad, la vida hizo luz… ¡la bioluminiscencia! Vida que produce luz porque, en el fondo, facilita las cosas. Un 90% de las especies afóticas la tienen. Sirve para localizar a la presa o a la pareja, para comunicarse o defenderse, casi siempre a partir de una sustancia llamada luciferina, que al oxidarse emite luz verde o azul. La bioluminiscencia es originada por grupos de células especializadas, o porque hay bacterias bioluminiscentes que viven en el interior de estos animales. Algunos animales expulsan un líquido con luciferina que acaba formando nubes luminosas. Así asustan o por lo menos despistan. También hay vida en las oscuridades terrestres, en las cuevas. La vida de la
superficie, del medio epigeo, se adentró en la profundidad, en el medio hipogeo. En algunos sitios, la vida epigea desapareció, como por ejemplo durante las glaciaciones, pero en las cuevas sobrevivió, eso sí, evolucionando de distinta manera. Sin luz, sin plantas, con mucha humedad, comiendo lo que caía dentro, parecido a los fondos oceánicos, pero sin tanta presión. Pero también era vida extrema. Los ubicuos microbios —bacterias, levaduras y hongos— no necesitan la luz
Figura 4.6. La bioluminiscencia, al igual que la luz, favorece la expansión de la vida. Fotografía: Jesús Dorda (MNCN, CSIC).
49
C000 luz 2015 (FERROS).indd 49
05/05/15 13:00
Figura 4.7. Los troglobios presentan adaptaciones a la vida en la oscuridad. En la imagen, isópodos de la cueva de la Pileta Benaoján, Málaga. Fotografía: Carlos Puch.
50
C000 luz 2015 (FERROS).indd 50
05/05/15 13:00
Figura 4.8. Los girasoles presentan un acusado fototropismo. Fotografía: David Martín.
y a veces se encuentran en las cuevas embebidos en sustancias externas a las células, formando las denominadas biopelículas o biofilms, que ofrecen mayor protección frente al ambiente circundante. Conviven con los troglobios, animales de las cuevas, rodeados en la oscuridad de estalactitas y estalagmitas, banderolas, coladas, etc.: estructuras materiales a base de minerales. Algunos microbios también las construyen. Los troglobios están adaptados a la oscuridad total. Muchos de ellos son invertebrados que han evolucionado a partir de habitantes del exterior, reduciendo o perdiendo los ojos al tiempo que multiplican la dotación sensorial táctil y química, disminuyendo los pigmentos que dan color o protegen de la luz y el grosor de la piel hasta hacerse esta permeable. Progresivamente, habrían también elongado el cuerpo y apéndices para favorecer el comportamiento exploratorio y la búsqueda de recursos en un medio oscuro y en ocasiones
escarpado, húmedo y resbaladizo. La evolución de los troglobios no se trata por tanto de un simple proceso degenerativo, sino que los eventos constructivos van asociados por entero al proceso regresivo. Los troglobios no tienen prisa: a algunos insectos se les atrofian las alas y a algunos crustáceos acuáticos, los apéndices que utilizan para nadar. Un vertebrado típico en cuevas con agua es el proteo, un anfibio. También hay peces cavernícolas, con ojos recubiertos por piel o incluso sin ellos. En las cuevas hay poquísima bioluminiscencia: se ve que hace menos falta. ¡Claro, como la mayoría de los troglobios son ciegos, les da igual!
4.5. Día y noche Al principio todo daba vueltas, y así sigue el universo: se expande dando vueltas. Siempre hubo día y noche en la Tierra, porque daba vueltas desde el principio a la luz del Sol. Después vino la vida, que también dio vueltas. Y todo cogió ritmo, el ritmo de la vida, el biorritmo. La cronobiología es la disciplina que se dedica a estudiarlo. Porque la luz, desde el principio, dio también ritmo a la vida. Y para medir el ritmo, nada mejor que un reloj. Un reloj que llevamos dentro. No suena, pero está. Es un reloj biológico. Un reloj solar asociado a otro reloj, el geofísico, el de la Tierra. Este último nos indica el ritmo de la Tierra, 51
C000 luz 2015 (FERROS).indd 51
05/05/15 13:00
Figura 4.9. El canto del gallo es una de las expresiones de su ritmo circadiano. Fotografía: David Martín.
4.6. Luz y ciencia
lo que tarda en dar una vuelta sobre su eje, es decir, 24 horas. A muchos microbios, a los animales de los fondos oceánicos y a los troglobios, la luz les da un poco igual, tienen poco ritmo, pero no sucede así con el resto. Luz y vida manifiestan así una vez más su estrecha relación. A la vida, la luz le marca el ritmo. Y la vida lleva el ritmo muy dentro. Son los denominados ritmos circadianos —que significa “cerca de un día”— de aproximadamente 24 horas de duración. El ritmo circadiano se puede observar hasta en microbios como el hongo Neurospora, que solo replica su material genético de noche. Se cree que en origen sería así, y que haciendo esto evitarían que la radiación ultravioleta de
la luz solar provocase en ellos mutaciones letales. A la puesta del Sol, las cianobacterias y las plantas solo respiran, tomando oxígeno y emitiendo dióxido de carbono a la atmósfera. De día las plantas crecen atraídas por la luz. Esta atracción es el fototropismo positivo. A la raíz de las plantas, sin embargo, le pasa lo contrario. En los microbios la capacidad de dirigirse hacia a la luz se denomina fototaxia, y la tienen algunos procariotas fotosintéticos gracias a unos fotorreceptores que se llaman manchas oculares: los ojos más sencillos que existen. En los animales los ritmos regulan muchas funciones, incluida la actividad cerebral, gracias a la melatonina.
No hace mucho apareció la especie humana, gracias a la luz, fuente de energía que hizo posible que la organización de la vida se complicara tanto. La especie humana fue creando herramientas y aprendió a usarlas. Se interesó por el mundo que le rodeaba. Y en ello sigue, y en ello está. Para conocer y estudiar el entorno siempre nos ha hecho falta luz. En el caso del mundo que se escapa a nuestra vista por pequeño, uno de los instrumentos que ha posibilitado su estudio ha sido el microscopio, aparato para el cual se tuvo que aprender a manejar la luz. Podemos citar al primero en ver células, el científico inglés Robert Hooke (1635-1703), cofundador de la Royal Society de Londres, que en 1665 publicó su obra Micrographia, en la que por primera vez aparecía la palabra célula, refiriéndose a las cavidades poliédricas que observaba al contemplar al microscopio una lámina de corcho. Por la misma época, Antonie von Leewenhoek (1632-1723), científico
52
C000 luz 2015 (FERROS).indd 52
05/05/15 13:00
Figura 4.10. Microscopios y lupas permitieron el estudio de la vida con la ayuda de la luz. Microscopio de la marca G. Adams (1A001) de alrededor de 1750. Fotografía: Servicio de Fotografía del MNCN (CSIC).
de origen holandés, a través de cartas escritas de 1674 a 1676 a la Royal Society, da cuenta de sus observaciones sobre lo que el traductor de las mismas denominó animálculos, que no serían otra cosa que los microbios del grupo de las bacterias, protozoos, algas, que luego llegarían a estudiarse y observarse con profusión, pero sobre todo con mejores medios y con mejores microscopios. Además de estas observaciones, todavía es más reciente lo que se admite como el nacimiento de la microbiología, algo ocurrido de la mano del químico francés Louis Pasteur (1822-1895), también experto como sus antecesores en el manejo del microscopio. Al ver lo que vio Von Leewenhoek, dijo que, además de tratarse de seres vivos, también realizaban transformaciones tales como la fermentación del mosto o causaban enfermedades. Él enunció la teoría microbiana de la fermentación y de las enfermedades infecciosas. Todo ello fue posible gracias al manejo de la luz solar y a la capacidad de construir herramientas como el microscopio. 53
C000 luz 2015 (FERROS).indd 53
05/05/15 13:00
o el pan, han sido retratados gracias a la existencia no solo de vida, sino de todo lo necesario para poderla observar.
4.7. Luz y salud
Figura 4.11. Imagen microscópica de Saccharomyces cerevisiae, corazón de la dieta mediterránea, productora del pan, del vino y la cerveza. Fotografía: A. V. Carrascosa.
La microbiología se desarrolló de la mano de estos aparatos. Ha sido por tanto durante un tiempo la disciplina científica estudiosa de la vida, cuyo desarrollo más ha dependido del manejo acertado de la luz. Hacerla entrar por un tubo con suficiente intensidad como para iluminar la vida microscópica no ha sido tarea fácil. Eso sí, fue más fácil creer en la existencia de los microbios viéndolos. Microbios patógenos, como los que producen enfermedades, o benignos, como los que nos permiten deleitarnos con alimentos como el vino
La luz tiene que ver y mucho con nuestra salud. La luz solar produce bienestar, ya que tiene un ligero y agradable efecto vasodilatador, que rebaja la tensión arterial. Hay quien la considera un antidepresivo natural, y es que fomenta la síntesis de serotonina, conocida como la hormona de la felicidad. La luz solar estimula también la síntesis de noradrenalina, sustancia que contribuye a levantar el ánimo. Esto coincide con que en los países nórdicos la frecuencia de depresiones es mayor, porque hay menos luz y, por lo tanto, menos serotonina. Otro importante efecto beneficioso de la luz sobre la salud es que promueve la síntesis de vitamina D. Con media horita de sol al día sintetizamos la vitamina D necesaria para que el calcio se absorba y pueda así fijarse en nuestros huesos. Un poco de sol mejora ciertas dolencias de la piel como la psoriasis, la dermatitis atópica o el acné. Pero no siempre la luz es buena para la salud. Por eso, en el transcurso de los cambios evolutivos fue necesario también protegerse de ella. Más allá de las molestias que produce la exposición prolongada al sol, y que familiarmente
54
C000 luz 2015 (FERROS).indd 54
05/05/15 13:00
Figura 4.12. La luz solar se utiliza para la potabilización del agua en países en desarrollo (SODIS). Fotografía: SODIS Eawag.
denominamos “insolación”, o las posibles interferencias que se puedan desencadenar en nuestro sistema inmunológico, ciertos componentes de la luz solar pueden hacernos daño. Son los rayos ultravioleta o rayos UVA. La aparición de la capa de ozono mejoró las condiciones de la vida sobre la Tierra y posibilitó que la vida pudiera salir del agua. Sin embargo, esta capa de ozono no evita la entrada de todas las radiaciones UVA. Estos rayos dañan la piel. Desde irritaciones a quemaduras, pasando por fotosensibilizaciones fototóxicas o fotoalérgicas, a agravamientos de enfermedades dérmicas en curso son procesos que pueden ser desencadenados por el exceso de la exposición a la luz solar. Además, fomenta el envejecimiento de la piel y con ello la pérdida de su elasticidad por el deterioro acelerado del colágeno con la consiguiente aparición de más arrugas, además de aumentar de manera generalizada su fragilidad. Es el fotoenvejecimiento. Eso por no hablar de los trastornos psicológicos que desencadenan la dependencia al
bronceado denominada tanorexia, debido al gusto por ver el oscurecimiento de la piel que la exposición prolongada al sol o a lámparas artificiales produce. Todo ello es consecuencia de la síntesis de melanina en los melanocitos de la piel, cabello e iris, precisamente para una mejor protección contra los perniciosos efectos del exceso de sol. Además, anualmente se producen en el mundo más de 100.000 casos de melanoma maligno, el tipo más mortal de cáncer de piel, un proceso
degenerativo de los melanocitos causado por los UVA del sol. También está el cáncer de piel o carcinoma cutáneo, producido en células distintas a los melanocitos, o el daño en los ojos que produce cataratas y ceguera en zonas con exceso de UVA. Pero también ha ocurrido que hemos aprendido a manejar la luz en beneficio propio. Su calor y hasta sus rayos UVA nos ayudan a potabilizar el agua y conservar los alimentos, ya que matan los microbios perjudiciales que pueden vivir en ellos. 55
C000 luz 2015 (FERROS).indd 55
05/05/15 13:00
Bibliografía Losada, M. (1987): “Treinta años de investigación en bioenergética”. Discurso leído en la solemne apertura del curso académico 1987-1988 en la Universidad de Sevilla, Ed. Universidad de Sevilla.
Martín-Torres, F. J. y Buenestado, J. F. (2013): La vida en el universo, Ed. CSIC-Los Libros de la Catarata, Madrid. Puigdomenech, P. (2009): Las plantas que comemos, Ed. CSIC-Los Libros de la Catarata, Madrid.
56
C000 luz 2015 (FERROS).indd 56
05/05/15 13:00
Susana marcos
5. Luz y visión 5.1. El ojo como un sistema formador de imágenes La visión es el más importante de nuestros sentidos, a través del cual obtenemos casi el 90% de la información. La visión es un fenómeno complejo que involucra la proyección de imágenes del mundo exterior sobre la retina, la conversión de señal luminosa en eléctrica en los fotorreceptores, el procesado de la información visual en la retina y distintas etapas en el cerebro, y finalmente el reconocimiento e interpretación de las imágenes en el cerebro. El sistema visual por tanto transforma los estímulos luminosos en sensación visual. Se suelen comparar las primeras etapas de la visión con una cámara fotográfica. Las cámaras inteligentes más avanzadas son sistemas de visión que
además de capturar las imágenes extraen información específica de ellas, permitiendo controlar ciertas aplicaciones o toma de decisiones. Estas cámaras se inspiran en algunos de los procesados de la señal que tienen lugar en el sistema visual. La primera etapa del proceso visual es óptica. La luz entra en el ojo atravesando medios transparentes (córnea, humor acuoso, cristalino y humor vítreo), proyectando la imagen sobre la retina, del mismo modo que las lentes de una cámara proyectan la imagen sobre la película fotográfica o el sensor digital. Así como la resolución de una imagen digital viene dada por la densidad de píxeles en el chip de captura, la resolución de la imagen visual está determinada por la densidad de fotoreceptores retinianos y de neuronas. 57
C000 luz 2015 (FERROS).indd 57
05/05/15 13:00
5.2. Las lentes del ojo: córnea y cristalino
B Fotorreceptores
Cristalino Vítreo
Células nerviosas
D Pupila Mácula
Córnea
Nervio óptico Retina
A
C Figura 5.1. Esquema de una sección del ojo humano con detalles de algunas de sus partes. A. Córnea e iris. Imagen obtenida en el Instituto de Óptica del CSIC mediante tomografía de coherencia óptica. B. Cristalino. Imagen obtenida mediante imagen de Scheimpflug. C. Imagen de la retina de la autora, obtenida en el Schepens Eye Research Institute mediante oftalmoscopio de barrido láser. D. Esquema de las capas de células de la retina. Fuente: Composición de Susana Marcos.
La óptica ocular se compone de dos lentes, la córnea y el cristalino. La córnea es la lente transparente que cubre la cara anterior del globo ocular. Su forma no es perfectamente esférica, sino que es asférica, generalmente más curva en el centro que en la periferia. La integridad mecánica y la transparencia óptica de la córnea se deben a la disposición de las fibras de colágeno de diámetro uniforme que se distribuyen de manera altamente regular, agrupándose en lamelas entrecruzadas como en una cesta de mimbre. La córnea se une a la esclera (la parte blanca del ojo) que constituye el resto del globo ocular. La córnea es una lente de aproximadamente 43 dioptrías, responsable de dos terceras partes de la potencia óptica del ojo. El cristalino es la segunda lente del ojo y está situado detrás del iris. Es una lente biconvexa de aproximadamente 20 dioptrías en su estado relajado. Está formada por células alargadas (fibras) compuestas principalmente por unas proteínas, llamadas cristalinas, que están distribuidas muy regularmente, lo que proporciona transparencia al cristalino. Estas fibras se producen durante toda la vida humana, lo que hace que el espesor del cristalino crezca con la edad, formando estructuras concéntricas estratificadas, como en
capas de cebolla. El cristalino está envuelto por una membrana elástica, el saco capsular, que se une al músculo ciliar a través de unas fibras llamadas zónulas. Cuando el músculo ciliar se contrae, las zónulas se estiran y la cápsula aplana las superficies del cristalino, permitiendo enfocar las imágenes lejanas sobre la retina. Cuando el músculo ciliar relaja la tensión de las zónulas, la cápsula moldea al cristalino en su posición más acomodada, enfocando imágenes cercanas. Con la edad, el cristalino se endurece, perdiendo su capacidad de acomodar a partir de aproximadamente 45 años de edad, condición que se conoce como presbicia. Además, el deterioro de las proteínas cristalinianas conduce a la pérdida de transparencia con la edad, lo que se conoce como catarata.
5.3. Capacidades asombrosas del sistema óptico ocular El sistema óptico del ojo es asombroso y en muchos aspectos difícil de igualar por sistemas artificiales. La forma de la córnea y del cristalino les confiere una calidad óptica superior a la de las lentes de superficies esféricas convencionales. Por ejemplo, la asfericidad de la córnea (el hecho de que la zona central de la córnea sea más plana que en la periferia, como indicábamos en la sección anterior) proporciona una
58
C000 luz 2015 (FERROS).indd 58
05/05/15 13:00
calidad óptica superior a la de una córnea análoga esférica. Por otro lado, la geometría y estructura del cristalino del ojo joven es tal que se coordina con la córnea mejorando la calidad de cada uno de los elementos oculares (córnea y cristalino por separado). Esta estrategia es similar a la de los diseñadores ópticos que combinan distintas lentes para mejorar la calidad óptica de un objetivo fotográfico. Aparte de la sofisticación en la geometría de las superficies ópticas de la córnea y el cristalino, la estructura interna del cristalino es tal que también optimiza la calidad óptica ocular. En particular, el índice de refracción del cristalino es variable, siendo mayor en el centro del cristalino y disminuyendo progresivamente hacia las superficies (distribución conocida como gradiente de índice). Se ha demostrado, inicialmente en cristalinos de peces y más recientemente en otras especies animales, y en humanos, que la presencia del gradiente de índice del cristalino compensa, al menos parcialmente, la aberración esférica de las superficies. Además, proporciona una potencia óptica mayor que la que se obtendría con un índice de refracción uniforme. Sin duda, la capacidad más extraordinaria del cristalino es la de cambiar dinámicamente de forma (acomodación) para enfocar objetos lejanos y cercanos. La acomodación cristaliniana es prácticamente exclusiva de los primates, si bien distintas especies
terrestres y marinas han desarrollado estrategias alternativas de acomodación, mucho más sofisticadas que cualquier sistema de autoenfoque en una cámara fotográfica. Siguiendo con la analogía entre el ojo y una cámara fotográfica, el ojo también dispone de un diafragma (el iris) que controla la cantidad de luz que entra en el ojo. El iris contiene un músculo en forma de anillo que contrae la pupila y músculos dilatadores que tiran del iris radialmente para dilatar la pupila. El reflejo pupilar a la luz está controlado por un sistema complejo que involucra a células de la retina y una zona específica del cerebro llamada núcleo Edinger-Westphal. Ocurre ante un cambio en las condiciones luminosas en la región del visible, con un tiempo de reacción inferior a 200 milisegundos (ms). El diámetro pupilar también cambia con la acomodación, dada su vinculación a sistemas involucrados en la respuesta acomodativa. Como en una cámara de fotos, el diámetro pupilar juega un papel en la calidad de las imágenes y su profundidad de foco.
5.4. Imperfecciones del ojo: ¿cuándo necesitamos gafas? Durante el desarrollo, el ojo experimenta un exquisito grado de coordinación, conocido como emetropización. Es
otra asombrosa capacidad del ojo. La longitud del ojo se ajusta a la potencia de la córnea y el cristalino, de modo que la imagen se proyecte nítidamente sobre la retina. En ocasiones, el proceso de emetropización se ve alterado y el ojo se alarga excesivamente (en comparación con la potencia ocular), resultando en miopía. Por el contrario, si el ojo es excesivamente corto, la condición resulta en hipermetropía, que en el ojo joven se puede compensar acomodando. El debate sobre el origen de la miopía es amplio, argumentándose un origen genético, pero sobre todo un origen ambiental. Muchos estudios concluyen que la miopía es una emetropización a imágenes cercanas por el excesivo tiempo dedicado a trabajo de cerca o poca exposición a la luz en ambientes abiertos. La miopía y la hipermetropía se corrigen con lentes divergentes (más estrechas en el centro que en la periferia) y convergentes (más estrechas en la periferia que en el centro), respectivamente, y que en combinación con la córnea y el cristalino proyectan la imagen en el plano adecuado de retina. Otro error refractivo relativamente frecuente es el astigmatismo, relacionado con una variación de la potencia del ojo, en unas orientaciones más que en otras. En presencia de astigmatismo, la imagen aparece más emborronada en unas 59
C000 luz 2015 (FERROS).indd 59
05/05/15 13:00
Figura 5.2. Ilustración de la formación de imágenes en la retina de un ojo emétrope (normal), miope (la imagen se forma por delante de la retina) e hipermétrope (la imagen se forma detrás de la retina). A. Característica imagen desenfocada (por miopía o hipermetropía). B. Imagen a través de un ojo con astigmatismo. C. Imagen a través de un ojo con aberraciones naturales.
Emetropía
Miopía
Fuente: Composición de Susana Marcos.
Hipermetropía
Desenfoque
A
direcciones que en otras. La corrección de astigmatismo requiere el uso de lentes cilíndricas o tóricas, con más curvatura en un eje que otro. Finalmente, la pérdida de la capacidad de acomodación del cristalino, condición conocida como presbicia, impide la focalización nítida en la retina de imágenes cercanas, exigiendo la utilización de gafas de cerca o progresivas, u otras soluciones correctoras.
Astigmatismo
B
Aberraciones
C
Además de los errores refractivos convencionales (miopía, hipermetropía o astigmatismo), el ojo sufre de otras imperfecciones ópticas que producen una degradación de la imagen que se proyecta en la retina, conocidas como aberraciones ópticas. Por ejemplo, la aberración esférica hace que cambie la potencia del ojo con el diámetro de la pupila. Como se ha indicado anteriormente, la geometría esférica de las superficies oculares, la compensación
entre la córnea y el cristalino y la presencia de gradiente de índice del cristalino (en el ojo joven) minimizan la aberración esférica en el ojo. Sin embargo, el ojo es un sistema altamente descentrado. El eje óptico del ojo no coincide con la línea de mirada, y la pupila y el cristalino están generalmente inclinados con el eje de la córnea, produciendo aberraciones ópticas. Además, las superficies oculares presentan irregularidades que resultan en aberraciones de alto orden. El ojo además presenta aberraciones (imperfecciones) cromáticas, que dependen de la longitud de onda de la luz. Por ejemplo, entre los extremos de la luz visible —entre la luz roja y la azul— hay un desenfoque de casi dos dioptrías. La presencia de otras imperfecciones ópticas, sin embargo, ayuda a compensar la degradación producida por las aberraciones cromáticas. Las aberraciones del ojo no se pueden corregir mediante óptica convencional. Pero al igual que en astronomía se utilizan telescopios que compensan las turbulencias atmosféricas,
60
C000 luz 2015 (FERROS).indd 60
05/05/15 13:00
en los laboratorios de óptica visual los sistemas de óptica adaptativa permiten la medida de aberraciones y su corrección mediante espejos deformables, lo que permite experimentar la visión del mundo bajo una óptica perfecta.
5.5. La retina: receptora de luz La retina es la capa interior del globo ocular y tiene un espesor de medio milímetro. Contiene células fotosensibles que responden a la luz transformándola en impulsos nerviosos que se propagan hasta el cerebro a través de varias capas de neuronas interconectadas. Una imagen del fondo del ojo de una retina normal presenta una zona más oscura en el centro (la fóvea, donde se concentra la mayor densidad de fotorreceptores de tipo cono), capilares sanguíneos y un disco circular en un lado llamado la papila o cabeza del nervio óptico. Este último es el conducto de todas las fibras nerviosas que transmiten la información desde la retina hasta el cerebro (ver la figura 5.1.C para distinguir la fóvea, región más oscura, los capilares sanguíneos o la papila, en forma de disco, a la derecha de la imagen). Las primeras células que actúan en el proceso de la visión son los fotorreceptores (conos y bastones). Los fotorreceptores de los vertebrados responden a la luz en virtud del pigmento visual que contienen,
consistente en una proteína (llamada opsina, fabricada en la propia célula fotorreceptora) y un cromóforo (llamado retinal, derivado de la vitamina A). Los fotorreceptores contienen miles de moléculas de pigmento visual. Tras la absorción de un fotón de luz, el pigmento visual desencadena el proceso de transducción que acaba con una señal eléctrica. Además de detectar luz, los fotorreceptores son capaces de adaptarse a la luz ambiental. Los conos están especializados en niveles altos de luz y los bastones se adaptan a condiciones de baja iluminación y conjuntamente hacen que nuestro sistema visual pueda operar en un intervalo extremadamente amplio de intensidades de luz, desde pleno sol a luz de luna. Los conos y los bastones tienen distinto tipo de fotopigmento. Los bastones contienen rodopsina y los conos, opsina. Dependiendo de la estructura exacta de opsina, los conos son sensibles a longitudes de onda largas (rojo, conos L); intermedias (verde, conos M) o bajas (azul, conos S). La sensibilidad espectral de los distintos tipos de cono y sus correspondientes vías de conectividad hacia el cerebro constituyen la base de la percepción de color en la imagen visual. Existen en promedio unos 7 millones de conos y 100 millones de bastones en la retina humana, distribuidos en forma de mosaico. La mayor concentración de conos, con el mínimo espaciado, se
Figura 5.3. Dibujo de retina de mamífero realizado por Ramón y Cajal. Fuente: Archivo del Museo Cajal (CSIC).
61
C000 luz 2015 (FERROS).indd 61
05/05/15 13:00
A Absorción normalizada
C
B Figura 5.4. A. Imagen de un mosaico de conos fuera del área de la fóvea (imagen adaptada de Curcio et al.), mediante microscopía óptica. B. Espectro de potencias teórico del mosaico de A, y espectro de potencias experimental obtenido en vivo mediante la técnica de interferometría ocular de Speckle, desarrollada en el Instituto de Óptica, denotando regularidad en el empaquetamiento de los conos. En estas imágenes, el radio de la elipse se corresponde con el inverso del espaciado entre conos. C. Mosaico de conos, identificando cada tipo de cono L, M y S (imagen adaptada de Roorda et al, obtenida mediante SLO con óptica adaptativa y blanqueo selectivo de fotopigmentos). D. Espectros de absorción de los fotopigmentos de conos y bastones. Fuente: Cortesía de Austín Roorda.
Longitud de onda (nm)
D
produce en la fóvea, siendo por tanto la región de mayor resolución espacial y donde obtenemos mayor cantidad de información. El pico de concentración de bastones se encuentra en torno a 5 grados de la fóvea. Hasta hace unas décadas, la única visualización posible de los fotorreceptores retinianos era mediante técnicas histológicas ex vivo. El desarrollo de nuevas técnicas de alta resolución de imagen, desde la interferometría ocular de Speckle a la óptica adaptativa ha permitido la caracterización de los fotorreceptores en vivo. La retina puede entenderse como una cascada de neuronas. Ramón y Cajal
describió, a principios del siglo XX, los principales tipos de células que componen la retina, a partir de observaciones de microscopía óptica. Además de los fotorreceptores, las células más importantes son las células bipolares, las células horizontales, las células amacrinas y las células ganglionares. La respuesta de las distintas células está interrelacionada. Las células ganglionares poseen axones largos que se extienden hasta el cerebro, al que envían señales tanto de la presencia como de la ausencia de estímulos luminosos. En la retina humana hay un millón y medio de células ganglionares. Un pequeño porcentaje de ellas son fotosensibles, aunque no contribuyen a la visión, sino a los ritmos circadianos y al reflejo pupilar a la luz.
5.6. Fenómenos ópticos en el ojo El ojo permite ejemplificar la mayor parte de los fenómenos ópticos que se describen en libros de fundamentos de la óptica. Los fenómenos de reflexión, difusión, dispersión, polarización, absorción, aberraciones, guiado de ondas, efecto Doppler, efecto fotoeléctrico ocurren en el ojo, siendo la base de la formación óptica, fenómeno de la visión o el principio de distintas técnicas de diagnóstico en el ojo.
62
C000 luz 2015 (FERROS).indd 62
05/05/15 13:00
La refracción se produce por la curvatura de las superficies oculares y los cambios de índice de refracción entre el aire y los distintos medios intraoculares. La refracción en la córnea y cristalino permite la proyección de las imágenes en la retina. La medida de la refracción del ojo (mediante técnicas objetivas y subjetivas) es la base de la prescripción de lentes para la corrección de la miopía, hipermetropía y astigmatismo. El ojo es un medio transparente; sin embargo, una pequeña cantidad de luz sufre reflexión en las distintas estructuras oculares, lo que constituye la base de todas las herramientas diagnósticas oculares. Algunas técnicas para medir la forma de la córnea, como las llamadas queratometría o topografía corneal, hacen uso de la luz reflejada por la córnea. Otras técnicas como la llamada facometría utiliza la luz reflejada por el cristalino para medir su geometría. Generalmente todas las técnicas de examen de fondo de ojo hacen uso de la luz reflejada por la retina. El ojo muestra numerosos ejemplos de difusión, por ejemplo, la coloración azul del iris o la opacificación del cristalino con la edad. Existen distintos pigmentos en el ojo que absorben la luz de determinadas longitudes de onda. La coloración marrón de los ojos se produce por la presencia de melanina en las células epiteliales del iris. La región foveal en la retina (mácula) está recubierta por el
pigmento macular que absorbe luz en la región azul a ultravioleta. Los fotopigmentos de los fotorreceptores absorben luz en distintas regiones del visible. A diferencia de algunos casos en el reino animal, por ejemplo insectos, el ojo humano no es sensible al estado de polarización de la luz. Aun así, en el ojo se producen fenómenos de polarización de la luz. La córnea, por la organización de las células de colágeno que la componen, presenta propiedades birrefringentes, es decir, que la luz viaja más o menos deprisa en función (o actúa como si tuviera índices de refracción distintos) de la orientación. También se ha encontrado birrefringencia en los fotorreceptores. Imágenes obtenidas en distintos estados de polarización del fondo de ojo se han usado como método diagnóstico de enfermedades retinianas, en particular para el estudio de los cambios en el espesor de la capa de fibras nerviosas en la retina asociados al glaucoma. Los fotorreceptores en la retina actúan como guías de onda, canalizando la luz que capturan hacia el fotopigmento alojado en los segmentos externos de los conos (efecto conocido como Stiles-Crawford). Se han llegado a demostrar experimentalmente modos de propagación de fibras en los fotorreceptores de vertebrados. Como consecuencia del guiado de la luz se maximiza la eficiencia en la excitación
de los conos, y se minimiza tanto la captura de luz difusa como el impacto de las aberraciones. La naturaleza discreta de la luz en cuantos, propuesta por Einstein, se hace evidente en la sensibilidad de los bastones, capaces de detectar cuantos de luz individuales.
5.7. ¿Cómo vemos y cómo distinguimos los colores? Nuestra percepción del mundo visual la construyen paso a paso neuronas de la retina y de distintas áreas del cerebro. La organización del procesado de la información visual está estructurada en niveles constituidos por neuronas que extraen características de la escena visual cada vez más complicadas. La unidad de procesado más importante en el sistema visual son los campos receptivos. En la retina se identifican con regiones donde la acción de la luz altera el disparo de una neurona. El campo receptivo más simple sería el de un único fotorreceptor. Los campos receptivos se van combinando y agrupando en los distintos niveles de neuronas retinianas, para formar campos receptivos más amplios y complejos que responden no solo a la cantidad de luz que recogen los fotorreceptores, sino también al contraste, el color o la presencia de bordes en una determinada región de 63
C000 luz 2015 (FERROS).indd 63
05/05/15 13:00
Figura 5.5. Esquema del procesado visual de imagen: células fotorreceptoras y campos receptivos en la retina, núcleo lateral geniculado (LGN) y el área cortical V1.
Áreas visuales superiores
Córtex visual V1
Células OFF
LGN
Células ON Células OFF
Células ganglionares retinianas
Células ON
Fotorreceptores
la imagen que se forma en la retina. Es decir, los distintos campos receptivos están asociados a atributos específicos de la imagen. Los campos receptivos de las células ganglionares son los que envían al cerebro, a través del nervio
óptico, la información preprocesada acerca del contenido de la imagen en cada área de la retina por medio de ráfagas de disparos eléctricos. Las siguientes etapas del procesado visual, ya en el cerebro, también se basan en
campos receptivos que progresivamente van refinando y comparando la información que reciben. En el núcleo lateral geniculado (LGN) las neuronas vecinas están estimuladas por neuronas correspondientes a regiones adyacentes en el espacio visual (organización retinotópica). La señal llega finalmente a la corteza cerebral, donde la representación retinotópica de la imagen está tremendamente distorsionada, con el área foveal (que aporta más información) representada en una zona del cerebro muchísimo más amplia que en áreas periféricas de la imagen. En la corteza visual los campos receptivos son muy grandes. Inicialmente se especializan en atributos muy concretos de la imagen, como por ejemplo, la orientación de una barra, el movimiento en una determinada dirección o un determinado tamaño de los detalles y posteriormente se sintonizan a categorías de imagen mucho más complejas, como manos o caras. La información del color en el sistema visual humano se origina en los
64
C000 luz 2015 (FERROS).indd 64
05/05/15 13:00
A Entorno exuberante
Entorno árido
Figura 5.6. Adaptación en el sistema visual. A. El sistema visual se adapta a cambios de color en la escena, por ejemplo, producidos por las estaciones en el trópico. B. El sistema visual también se adapta a cambios en la nitidez de la imagen.
B
Fuente: A. Datos de Michael Webster, Universidad de Nevada. B. Datos de VioBio Lab.
conos, fotorreceptores que responden al rojo, al verde o al azul. En las células ganglionares se combina la información de color, pero se siguen manteniendo solo tres canales (rojo-verde; azul-amarillo, clarooscuro). Es en la corteza visual donde se reconstruye toda la gama de colores, gracias a campos receptivos especializados que procesan la
información de esos tres canales. El sistema visual humano es capaz de distinguir alrededor de 10 millones de colores. Es notable que el color percibido de los objetos se mantiene constante bajo distintas condiciones de iluminación (que también se tiene en cuenta en el proceso de reconstrucción), algo se denomina constancia de color. 65
C000 luz 2015 (FERROS).indd 65
05/05/15 13:00
CCT
Ángulo: 5,46º
Ángulo: 12,41º
Profundidad: 410 mm
Profundidad: 405 mm
ILP
Figura 5.7. A. Imagen cuantitativa de tomografía de coherencia óptica, proporcionando una reconstrucción tridimensional del ojo de un paciente tras cirugía de cataratas: se muestra córnea (naranja), iris (verde) y lente intraocular (gris), así como las distancias entre los distintos elementos. B. Mapa de aberraciones oculares correspondiente (mapa de los defectos ópticos del ojo). Datos de Viobio Lab. Fuente: VioBio Lab.
ILT
A
5.8. Imagen óptica y perceptual: adaptación neuronal El sistema visual se adapta continuamente a cambios en el entorno (iluminación, color, contraste) y en el propio observador (errores refractivos, imperfecciones ópticas, difusión por cataratas). Esto permite una constancia de la percepción visual pese a los cambios. Por otro lado, una misma imagen proyectada en la retina de distintos sujetos se percibirá como más o menos nítida, en función de la experiencia visual previa de los sujetos. No nos gustaría ver a través de los ojos de otra persona, porque estamos
B
adaptados a los nuestros. La neurociencia visual ha mostrado que se producen cambios en la percepción visual tras un proceso de adaptación. Por ejemplo la percepción cambia tras una cirugía de cataratas o tras la inducción y corrección de astigmatismo. La percepción del color cambia entre la estación seca y húmeda en un entorno tropical.
5.9. Defectos en la visión y su corrección El complejísimo proceso de la visión se puede alterar por enfermedad o trauma en cualquiera de sus etapas. Algunas se
pueden tratar mediante intervenciones ópticas y/o quirúrgicas, principalmente en la parte anterior del ojo. Los pacientes con problemas en la retina (degeneraciones o desprendimientos) o en etapas más avanzadas del sistema visual (como consecuencia de daños cerebrales) se pueden beneficiar, en cierto modo, de ayudas ópticas para mejorar el rendimiento visual. Las defectos oculares más frecuentes son los errores refractivos, previamente mencionados (miopía, y en menor medida, hipermetropía y astigmatismo). La miopía afecta en torno al 30% de la población en países occidentales y más del 80% en algunas zonas del sudeste asiático. La OMS considera que los errores refractivos, junto a las cataratas y el tracoma (infección causada por una bacteria) son la mayor causa de ceguera prevenible en el mundo. La solución más sencilla para la corrección de errores refractivos son las gafas, aunque también se usan mucho las lentes de contacto y la cirugía láser. La presbicia afecta al 100% de la población por encima de cierta edad y puede compensarse con gafas de
66
C000 luz 2015 (FERROS).indd 66
05/05/15 13:00
Figura 5.8. La luz es el elemento clave de la mayoría de los sistemas de diagnóstico ocular, en el laboratorio. A. Sistema de óptica adaptativa policromática en VioBio Lab. B. Sistemas de diagnóstico clínico. C. Cirugía ocular (cirugía LASIK).
cerca, gafas progresivas, lentes de contacto o lentes intraoculares multifocales. La solución definitiva a la presbicia sería la sustitución del cristalino por una lente capaz de acomodar dinámicamente, del mismo modo a como lo hace el cristalino del ojo joven. Las cataratas, que emborronan la calidad de la imagen proyectada en la retina por opacificación del cristalino, se corrigen con el reemplazo del cristalino por una lente intraocular transparente, que generalmente corrige también los errores refractivos del paciente, y en las lentes de última generación restaura la compensación de las aberraciones de la córnea del ojo joven. Las enfermedades retinianas llevan asociada la muerte de las células de la retina. Varias degeneraciones retinianas se atribuyen al fallo en los genes involucrados a la generación y el funcionamiento de los pigmentos visuales. Otras enfermedades retinianas, como la retinopatía diabética, están asociadas a procesos vasculares. El glaucoma daña la cabeza del nervio
A
B
óptico y por tanto la transmisión de la información visual desde las células ganglionares al cerebro, y puede estar asociado a una presión intraocular elevada.
C
La oftalmología es la rama de la medicina que estudia y cura las enfermedades del ojo. Se beneficia de que muchos tejidos y medios del ojo son transparentes, lo que permite desarrollar 67
C000 luz 2015 (FERROS).indd 67
05/05/15 13:00
herramientas de diagnóstico y herramientas terapéuticas basadas en luz. La mayoría de las técnicas objetivas diagnósticas en el ojo hacen uso de la luz reflejada o retrodifundida en las distintas estructuras oculares. La fuente de iluminación en la mayoría de los casos son láseres, LED
o diodos superluminiscentes, y se usan con potencias bajas, muy por debajo de los límites de seguridad. El láser se ha convertido en una herramienta esencial para los tratamientos en oftalmología. La cirugía refractiva corneal,
Bibliografía Atchison, D. y Smith, G. (2000): The Optics of the Human Eye, Butterworth-Heinemann.
una alternativa a las gafas para la corrección de los errores refractivos, utiliza tecnología de láseres para la alterar la forma de la córnea. También se utilizan cada vez más láseres en cirugía de cataratas, en tratamientos para el glaucoma y las enfermedades retinianas.
Ramón y Cajal, S. (1894): La retina de los vertebrados, versión y prólogo del doctor Greeff, Berlín. Rodieck, R. W. (1998): The first steps in seeing, Sinauer Associates, Saunderland, MA.
68
C000 luz 2015 (FERROS).indd 68
05/05/15 13:00
José Vicente García Ramos
6. Luz y moléculas 6.1. Concepto de átomo y molécula. Breve historia de las teorías desarrolladas Cuando bebemos un vaso de agua, nos parece que el líquido es una cosa continua, que podría ser dividida como queramos en cantidades mucho más pequeñas. Si lo hacemos, llegaremos a unidades discretas llamadas moléculas. Veamos lo que sucede cuando tenemos 18 gramos de agua en una probeta, que equivalen a un mol de agua, esto es, 6x1023 moléculas. Si cogemos la mitad, serán 9 gramos y dividiendo por la mitad tendremos 4,5 gramos, y así sucesivamente. Cuando lleguemos a la décima división, tendremos únicamente 18 microlitros (1 litro = 1 millón de microlitros). Si pudiéramos continuar, tendríamos que llegar a la división número 79 para conseguir tener una sola
molécula. Por lo tanto, no es raro que no notemos la naturaleza discreta del agua a nivel macroscópico. Una molécula de agua es la mínima cantidad posible de agua que puede existir. Cualquier división posterior nos daría ya hidrógeno y oxígeno, o una serie de partículas subatómicas. Hoy en día, la microscopía de efecto túnel nos permite obtener hasta imágenes de átomos individuales. Sin embargo, la existencia de los átomos ya fue postulada por Demócrito y Leucipo en la Grecia clásica, cinco siglos antes de Cristo. La palabra griega átomo se podría traducir como indivisible, aunque luego resultó no serlo tanto. Fue entonces cuando se evidenció que, aunque la materia estaba compuesta por partículas indivisibles muy pequeñas, los átomos, había que distinguir entre un cuerpo simple, formado por un 69
C000 luz 2015 (FERROS).indd 69
05/05/15 13:00
Figura 6.1. Ilustración idealizada de un átomo. Fuente: Wikimedia Commons.
Figura 6.2. Sistema periódico de los elementos. Fuente: Wikimedia Commons.
solo tipo de átomos, al que llamaron elemento, y un cuerpo compuesto. Para explicar la estructura de un cuerpo compuesto se necesitaba introducir el concepto de molécula, algo tan simple como un pequeño montón de átomos. Dicho concepto se construyó basándose en la palabra latina moles, que significa grande. En castellano, usamos el término mole para referirnos a cualquier cosa que sea de gran peso o volumen y su diminutivo molécula para incluir en la misma palabra el concepto de voluminoso y su contrario, algo pequeño. Esta forma de diminutivo lo usamos en la vida diaria para determinadas palabras como montículo, cuadrícula o versículo.
De todas formas, las palabras átomo y molécula fueron creadas para explicar algo que no se veía, únicamente se intuía. Más adelante, se descubrió que, en realidad, un átomo está formado por una nube de electrones que giran frenéticamente alrededor de un núcleo de protones y neutrones. Los electrones están cargados negativamente, mientras que, en el núcleo, los neutrones no tienen carga alguna y los protones están cargados positivamente. Evidentemente, para que un átomo sea neutro y pueda existir en la naturaleza, tendrá que estar formado por el mismo número de protones
70
C000 luz 2015 (FERROS).indd 70
05/05/15 13:00
que de electrones. Dicho número es lo que caracteriza cada elemento y hace que un átomo sea de oro, sodio, hidrógeno o platino. El número de protones característico de un átomo se llama número atómico y lo podríamos considerar como el DNI de cada elemento químico. Los primeros intentos de clasificar los elementos químicos se basaron en la masa atómica (suma de protones y neutrones del núcleo). Sin embargo, la ordenación según el número atómico resulta más adecuada. Basándose en la hipótesis de que las propiedades de los elementos son función del carácter periódico de sus masas atómicas, el científico ruso Dmitri Mendeléyev (1834-1907) publicó en el año 1869 una tabla periódica en la que situó todos los elementos conocidos en aquella época, ordenándolos de tal forma que los elementos pertenecientes a una misma familia aparecieran en la misma línea horizontal. Además, Mendeléyev también predijo la existencia de nuevos elementos con las características indicadas por el espacio que ocupan en la tabla. Pero ¿cuál es la naturaleza de las fuerzas que unen átomos entre sí para formar las moléculas? Este problema es de capital importancia tanto para los físicos como para los químicos. En principio, hay dos tipos de interacciones que son responsables del enlace químico, la
iónica (o heteropolar) y la covalente (u homopolar). En la mayoría de las moléculas ninguna de las dos actúa exclusivamente, sino que se establece una situación intermedia. La configuración electrónica más estable de un átomo es aquella en la que las capas de electrones están completas. Los átomos que tienen capas externas sin llenar tienden a ganar o perder electrones con el fin de adquirir una configuración estable, transformándose entonces en iones: negativos (si los gana) o positivos (si los pierde). Los iones negativos también se llaman aniones y los positivos cationes. El ejemplo más claro es el del sodio y el cloro. Cuando un ion sodio (Na+) y un ion cloruro (Cl-) se encuentran próximos y libres para moverse, la fuerza de atracción entre ellos los hace unirse, formando una molécula estable de cloruro sódico (NaCl), conocida como sal común. Sin embargo, el enlace iónico es incapaz de explicar el caso de moléculas diatómicas como el hidrógeno (H2) o el cloro (Cl2), cuyos átomos constituyentes son idénticos. Es necesario, entonces, recurrir a lo que se conoce como enlace covalente. En este tipo de enlace los electrones están compartidos entre los átomos que componen la molécula. El ejemplo más sencillo para ilustrar el enlace covalente es el formado entre dos átomos de hidrógeno. Cada átomo
Sodio
Cloro
Figura 6.3. Ejemplo de enlace iónico. Fuente: http://losenlacesquimicos4.blogspot.com.es
71
C000 luz 2015 (FERROS).indd 71
05/05/15 13:00
Figura 6.4. Ejemplo de enlace covalente. Fuente: José Vicente García Ramos.
de hidrógeno tiene un solo electrón. Cuando dos átomos de hidrógeno se aproximan, el núcleo de uno de los átomos atrae al electrón del otro, solapándose los dos orbitales que se transforman en un solo orbital con dos electrones. Se forma así la molécula de hidrógeno en la que cada átomo tiene su última capa completa. En el caso de la molécula de hidrógeno, se trata de dos átomos iguales, por lo que se puede suponer que los electrones que forman este enlace covalente están igualmente compartidos por los dos átomos. Pero, como es de esperar, la mayoría de los enlaces químicos no se forman entre átomos iguales, sino entre átomos de distintos elementos, como el enlace cloro-hidrógeno, en el que los electrones no están igualmente compartidos por los dos átomos, ya que son atraídos con más fuerza por el cloro que por el hidrógeno,
por lo que se encontrarán con más facilidad más cerca del cloro. Diremos que se trata de un enlace covalente polar. También podemos decir que este enlace es un dipolo o que tiene un momento dipolar, ya que tiene una parte positiva (el hidrógeno) y una negativa (el cloro). Podemos encontrar tres tipos de enlaces covalentes: sencillos, dobles y triples. Los enlaces sencillos son los que resultan de compartir un solo par de electrones, pero también hay enlaces dobles y triples según compartan cuatro o seis electrones entre dos átomos.
6.2. Interacción luz-molécula: vibraciones moleculares ¿Cómo es que la luz se transforma en calor cuando, por ejemplo, se calienta una pared de ladrillo bajo la luz del Sol? Sabemos que los electrones de los
átomos de los materiales de la pared absorben luz, pero ¿cómo se convierte la luz absorbida en energía térmica? La absorción de energía solar da como resultado que los átomos y, por lo tanto, las moléculas que forman los ladrillos aumenten su vibración, lo cual hace que choquen entre sí y se calienten. Cuando un fotón es absorbido por una molécula, se transforma en energía cinética de la propia molécula. Y cuando la energía cinética de un gran número de moléculas aumenta, se detecta un aumento de temperatura. La energía cinética puede ser de tres tipos: de translación (es el movimiento de la molécula de un lugar a otro), de rotación a lo largo de uno o de todos los ejes de rotación de la molécula y de vibración. En sólidos, como es el caso del ladrillo, la mayor parte de la energía cinética de sus moléculas es de vibración. El ladrillo, a su vez, emitirá fotones térmicos (con longitudes de onda en el infrarrojo) y nosotros sentiremos esta radiación con una sensación de calor. Así es como se transforma la energía electromagnética (luz) en calor.
72
C000 luz 2015 (FERROS).indd 72
05/05/15 13:00
Lo que realmente resulta curioso es que las vibraciones de las moléculas inducidas por la luz es el lenguaje que tienen estas para decirnos cómo se encuentran, esto es, su estructura, los enlaces que las forman y su posición respecto a las moléculas de su entorno. Las radiaciones más útiles para el análisis de la estructura de las moléculas están en la región infrarroja, aunque no las más próximas al espectro visible (infrarrojo cercano), sino aquellas situadas en un intervalo de longitudes de onda entre 2.500 y 16.000 nm (frecuencias entre 1,9x1013 y 1,2x1014 Hz). La energía de los fotones asociados con esta parte de la región infrarroja puede inducir a que vibren los grupos de átomos unidos por enlaces covalentes de una molécula determinada. Estos enlaces los podríamos equiparar a muelles que se pueden estirar o doblar. Es fácil, entonces, imaginar que una molécula determinada puede experimentar una amplia variedad de vibraciones características de dicha molécula. Por todo ello, en principio, podemos afirmar que cualquier molécula con enlaces covalentes absorberá una cantidad de fotones, con frecuencias en la región infrarroja, que se corresponden con la energía de sus vibraciones, dando lugar a un espectro de absorción único para dicha molécula, que es un fiel reflejo de su estructura.
6.3. Espectroscopía infrarroja y Raman Los espectros moleculares son la forma que tienen las moléculas de hablarnos, de decirnos cómo son y cuál es su estructura. Este lenguaje conforma una disciplina que se conoce como espectroscopía y que no es más que el uso de la absorción, emisión o esparcimiento (en inglés scattering) de la radiación electromagnética cuando interacciona con átomos, moléculas o iones (atómicos o moleculares), lo que nos permitirá estudiar su estructura y una serie de procesos físicos relacionados. La interacción de la luz con la materia puede causar transiciones entre los niveles de energía de las moléculas que la componen. Una transición desde un nivel bajo a uno más alto, acompañada por una transferencia de energía a la molécula, se llama absorción. Cuando la transición va de un nivel alto a uno más bajo, se llama emisión si la energía se transfiere en forma de luz (radiación), o transición no radiativa si no emite radiación. Por el contrario, cuando hay un cambio de dirección de la luz debido a su interacción con la materia tenemos el fenómeno de esparcimiento o scattering, que puede tener lugar con o sin transferencia de energía; esto es, la luz esparcida puede tener la misma longitud de onda (scattering elástico o
Rayleigh) o cambiar ligeramente de longitud de onda (scattering inelástico o Raman). Cuando una molécula absorbe luz o, lo que es lo mismo, se le inyecta energía, se “excita”, pasando a un nivel con energía más alta. El tipo de excitación depende de la longitud de onda, λ, (o de la frecuencia, ν; ya que λ = νt) de la luz. Además, hay que tener en cuenta que la energía, E, es: E= hv (siendo h la constante de Planck). Se conoce como espectro de absorción de una molécula determinada a la representación gráfica de la absorción de luz por parte de dicha molécula en función de la longitud de onda. El espectro de una molécula depende de su estructura, la cual da lugar a unos determinados niveles de energía, por lo que es muy útil para la identificación de compuestos químicos. Se pueden obtener espectros infrarrojos (IR) de muestras en cualquier estado (sólido, líquido y gaseoso). Normalmente se obtienen los espectros midiendo la luz que transmite la muestra, por lo que se necesita que las muestras sean transparentes a la radiación IR. Si se usan disolventes en el caso de moléculas solubles, hay que tener en cuenta que las bandas de absorción del disolvente no interfieran demasiado con las bandas de la sustancia a estudiar, por lo que se usan disolventes clorados como el tetracloruro de carbono, CCl4, cloroformo, CHCl3, 73
C000 luz 2015 (FERROS).indd 73
05/05/15 13:00
Figura 6.5. Sir C.V. Raman (1888-1970). Fotografía: http://tyagi.blogspot.com.es/2011/04/c-vraman.html
y tetracloroetileno, CH2Cl2. Sin embargo, el agua absorbe prácticamente toda la radiación infrarroja, lo cual es un inconveniente de esta técnica, al no poder medir disoluciones acuosas. Tanto la espectroscopía Raman como la IR proporcionan una gran cantidad de información, complementaria entre sí, sobre la estructura molecular y la interacción entre moléculas. La espectroscopía IR se desarrolló tras el descubrimiento del proceso de scattering inelástico por parte del físico indio C.V. Raman en 1928, que usó su propio ojo como detector, la luz del Sol como fuente de energía y un telescopio como receptor. Por este descubrimiento se le otorgó el Premio Nobel en 1930 y al nuevo fenómeno se le llamó efecto Raman. Muy pronto se vio que la espectroscopía basada en este efecto era una herramienta excepcional para estudiar las moléculas. La llegada de los láseres como poderosas fuentes monocromáticas de luz supuso un importante desarrollo de la espectroscopía Raman que, junto con otros avances instrumentales y mejoras en el manejo de muestras durante los años sesenta y setenta, amplió su uso a muchos más sistemas moleculares y macromoleculares. Igual que en la espectroscopía IR, de un espectro Raman podemos obtener datos que describen las vibraciones moleculares. Cuando un haz de luz monocromático (por ejemplo, de un láser) con frecuencia ν0 interactúa
con una molécula, el componente eléctrico del campo electromagnético de la luz ejerce una fuerza sobre todos los electrones de dicha molécula y tiende a desplazarlos de sus posiciones de equilibrio alrededor de los núcleos cargados positivamente. Este proceso induce un momento dipolar en la molécula, es decir, la convierte en un dipolo, que vibra a la frecuencia del láser, ν0. Como consecuencia de ello, la molécula emite una radiación de frecuencia ν0, llamada radiación Rayleigh (scattering elástico). La amplitud de la onda emitida es proporcional a una magnitud característica de la molécula en cuestión, conocida como polarizabilidad. Pues bien, cuando cambia la polarizabilidad de una molécula como consecuencia de su interacción con la luz, lo cual induce un cambio en la forma de la molécula debido a las vibraciones de los núcleos atómicos que la componen, da como resultado lo que se llama scattering Raman. Como resultado de ello, la luz que es esparcida por las moléculas no solo tendrá la frecuencia de excitación del láser (ν0) sino también la suma y la diferencia de las frecuencias de las vibraciones moleculares (νR = ν0 ± νm). Los desplazamientos de frecuencia (ν0 - νm) y (ν0 + νm) se llaman vibraciones Stokes y anti-Stokes, respectivamente. Para poder comprender mejor este proceso, podemos representarlo en términos de niveles de energía.
74
C000 luz 2015 (FERROS).indd 74
05/05/15 13:00
Estado electrónico excitado
3.756 cm-1
3.652 cm-1 1.595 cm-1
Estado electrónico fundamental Rayleigh
AntiStokes
Stokes
IR
Raman
Figura 6.6. Esquema de los procesos Raman y Rayleigh en términos de niveles de energía.
Figura 6.7. Esquema de las vibraciones de la molécula de agua. Fuente: José Vicente García Ramos.
Fuente: José Vicente García Ramos.
En general, cuando se habla de espectros Raman, se registra y estudia únicamente la región Stokes. Sin embargo, si la energía de la luz que incide sobre una molécula es idéntica a la diferencia de energías entre dos niveles vibracionales, por ejemplo ΔE = Ev=1 – Ev=0 entonces la molécula puede absorber luz, y este tipo de absorción tiene lugar en la región infrarroja, como ya hemos visto más arriba, al hablar de la espectroscopía IR. Por lo tanto, las frecuencias νR correspondientes a las bandas del espectro Raman de una molécula determinada serán las mismas que las del espectro IR de la misma molécula. Una molécula tendrá más o menos vibraciones en función
de su número de átomos y esas vibraciones darán lugar a bandas IR o Raman. Por ejemplo, en el caso del vapor de agua, H2O, se observan únicamente 3x3-6=3 bandas de absorción centradas a 1595, 3657 y 3756 cm-1 en su espectro IR. De estas tres vibraciones, dos son simétricas (mantienen la simetría de la molécula) y una antisimétrica (no mantiene la simetría). Sin embargo, para moléculas con mayor número de átomos, el número de vibraciones puede ser muy grande y dará lugar a espectros muy complicados. Una de las aplicaciones de mayor interés práctico es que los espectros de vibración de una molécula complicada
sirven de huella digital para identificar la composición o para indicar la presencia de ciertos grupos en la molécula.
6.4. Técnicas espectroscópicas Los instrumentos capaces de medir la radiación IR absorbida por una muestra tienen en común componentes como son las fuentes de radiación y los detectores. Sin embargo, para conseguir separar las diferentes frecuencias del espectro se emplean dos procesos físicos diferentes, lo cual ha dado lugar a dos familias de espectrómetros que trabajan con luz infrarroja: los espectrofotómetros dispersivos, hoy en día prácticamente 75
C000 luz 2015 (FERROS).indd 75
05/05/15 13:00
Fuente
Muestra
Tiempo
Frecuencia
Chopper
Figura 6.9.Representación de una onda luminosa en el dominio tiempo (izquierda) y en el dominio frecuencia (derecha). Detector Red de difracción Rendija
Figura 6.8. Esquema de un espectrómetro dispersivo. Fuente: José Vicente García Ramos.
Fuente: José Vicente García Ramos.
en desuso, y los interferómetros, instrumentos que utilizan un proceso matemático conocido como transformada de Fourier. En el caso de los espectrómetros dispersivos, a partir de una fuente luminosa que emite en el infrarrojo se generan dos haces luminosos iguales y paralelos que, tras atravesar todo el sistema óptico que dispersa la luz, llegan al detector. El detector solo responde cuando la intensidad de los dos haces no es la misma. En uno de los haces se coloca la muestra que, evidentemente, absorberá una fracción diferente de la radiación IR para cada frecuencia. El detector irá midiendo la diferencia de intensidades correspondientes. En este tipo de instrumentos se suelen usar las llamadas redes de difracción como elementos para separar las distintas frecuencias, con el mismo cometido que los prismas utilizados en los primeros espectrómetros de este tipo.
Sin embargo, cualquier tipo de onda luminosa puede ser representada de dos maneras. Normalmente se expresa en función de cómo avanza la onda con el tiempo (dominio tiempo), pero también puede representarse en función de la frecuencia de la onda (dominio frecuencia), que es lo que llamamos espectro. Los espectrofotómetros dispersivos operan en el dominio de las frecuencias. Sin embargo, al medir en el dominio del tiempo se pueden obtener algunas ventajas. No obstante, se necesita de técnicas computacionales para pasar de un dominio al otro. Si quisiéramos registrar una onda luminosa en el dominio del tiempo, lo primero que se nos ocurre es dejar que la radiación llegue a un detector y registrar su respuesta con el tiempo. Para ello se utiliza un interferómetro de Michelson que modula la señal IR a una frecuencia detectable. La gráfica de salida de un interferómetro se llama interferograma.
76
C000 luz 2015 (FERROS).indd 76
05/05/15 13:00
Detector CCD Espejo estacionario Redes de difracción
Separador de haz
Láser
Fuente de radiación Espejo móvil Filtro
Espejo macro
Posición de la muestra
Rendija ajustable Espejos
Detector
Esquema de un interferómetro de Michelson
La radiación que sale de la fuente se separa en dos, gracias a un separador de haz. La mitad de la radiación se refleja e incide sobre un espejo fijo, llamado estacionario, y luego vuelve sobre el separador. Esta radiación habrá recorrido una distancia fija. La otra mitad de la radiación atraviesa el separador de haz y se refleja sobre un espejo móvil. En este caso, la longitud recorrida por el haz es variable. Los dos haces reflejados se vuelven a reunir en el separador donde producen interferencias. Es decir, para una longitud de onda determinada, producirán una interferencia constructiva cuando la diferencia entre los caminos recorridos por los
Muestra
Objetivo microscopio
Separador de haz
dos haces es un múltiplo exacto de la longitud de onda. Sin embargo, el hecho real es que no tenemos una fuente monocromática, sino todas las frecuencias que emite dicha fuente, por lo que su interferograma será extremadamente complicado. Una vez que se ha obtenido el interferograma en cuestión, necesita ser sometido a un proceso matemático conocido como transformada de Fourier rápida (en inglés, Fast Fourier Transform), que nos pasará los datos del dominio tiempo al dominio frecuencias (intensidad frente a número de ondas) que se conoce como espectro IR. Por otro lado, los espectrómetros Raman, al igual que en el caso de los IR,
Filtro de Noch
Figura 6.10. (Izquierda) Esquema de un interferómetro de Michelson. Fuente: José Vicente García Ramos.
Figura 6.11. (Derecha) Esquema de un espectrómetro Raman dispersivo. Fuente: José Vicente García Ramos.
77
C000 luz 2015 (FERROS).indd 77
05/05/15 13:00
Figura 6.12. Trabajando con un microscopio Raman. Fotografía: Uly Martín-El País.
Figura 6.13. Imagen Raman de un área de 0,6 x 2,4 mm2 de un comprimido farmacéutico, donde se muestra la distribución de aspirina (rojo), paracetamol (verde), cafeína (azul) y celulosa (amarillo). Fuente: HORIBA International Corporation (HIC).
6.5. Aplicaciones a distintos campos de la ciencia y de la industria
pueden ser dispersivos o interferómetros FT (Fourier Transform). En la figura 6.11 se muestra el esquema de un espectrómetro Raman dispersivo con una geometría de 180º que actualmente es la más usada, ya que se aprovecha la posibilidad
de recoger la luz esparcida por la muestra, que es donde está la información del espectro Raman, a través de un microscopio. Como detectores se usan cámaras CCD, que no son más que cámaras digitales de gran precisión.
Una de las principales áreas de crecimiento de la espectroscopía Raman continúa siendo sus aplicaciones al estudio de moléculas biológicas y sistemas biomédicos de gran relevancia. En primer lugar, se puede mencionar el estudio de la estructura del colágeno —proteína relacionada con los niveles de mineralización de los huesos— y sus diferentes funciones. De hecho, mediante la espectroscopía Raman se puede calcular la relación entre el hueso
78
C000 luz 2015 (FERROS).indd 78
05/05/15 13:00
Figura 6.14. Trabajando en un laboratorio de espectroscopía Raman. Fotografía: Uly Martín-El País.
y el colágeno y cómo la alteración de esta relación afecta a las propiedades mecánicas del hueso. Lo que sí ha supuesto un aumento de las aplicaciones de la espectroscopía vibracional de un gran número de moléculas ha sido la combinación de un espectrómetro Raman con un microscopio óptico, aprovechando el propio objetivo del microscopio para hacer pasar por allí el haz luminoso del láser de excitación, y aprovechando el mismo objetivo para recoger el scattering producido por la preparación que nos dará el espectro Raman con una resolución espacial (esto es, la capacidad para distinguir dos puntos de la citada preparación) del orden de las micras (1 micra o μm = 10-6 m). Como consecuencia del uso de la microscopía Raman se ha desarrollado todo un nuevo conocido como Imagen Raman (Raman imaging), en el que se puede llegar a hacer una verdadera cartografía (mapping) de un área elegida de una muestra, basándose en los espectros Raman en cada punto, lo que nos dará la distribución de cada una de
las moléculas que componen la muestra en dicha área y, por lo tanto, una imagen molecular microscópica de la misma. Gracias al mapping se han podido estudiar, por ejemplo, la organización y la composición bioquímica de óvulos inmaduros en los primeros estados embrionarios. Entre las aplicaciones de la espectroscopía Raman a los nanomateriales, cabe destacar que es la técnica adecuada para caracterizar nanotubos de carbono, pues por el simple análisis del espectro podemos saber si lo que tenemos en la muestra son nanotubos de pared única o múltiple, así como el carácter metálico o semiconductor de los mismos. Evidentemente, la espectroscopía Raman también ha sido de capital importancia
en la caracterización del grafeno y sus derivados. Así, las imágenes Raman de muestras de grafeno obtenidas por distintos métodos suponen un verdadero control de calidad de las muestras, ya que podemos observar a nivel molecular su regularidad y sus defectos. Finalmente, podemos mencionar la aplicación de la espectroscopía IR y Raman al estudio de obras de arte y arqueológicas. Estas técnicas se han venido usando desde hace tiempo como técnicas microdestructivas para conocer los pigmentos y la composición molecular de muchos de los materiales que las componen y así poder hacer un diagnóstico previo a una posible restauración. Sin embargo, con la aparición de los microscopios Raman, especialmente los 79
C000 luz 2015 (FERROS).indd 79
05/05/15 13:00
instrumentos portátiles, ha aumentado mucho su aplicación como técnica no destructiva que puede usarse tanto en el laboratorio, en condiciones controladas de las muestras, como in situ, permitiendo medidas espectrales de muestras sin tener que desplazarlas
de los museos y bibliotecas, o en los mismos yacimientos y grutas si se trata de muestras de este tipo. Por ejemplo, la espectroscopía Raman ha sido utilizada para diagnosticar el estado de
Biliografía Aroca, R. (2006): Surface-Enhanced Vibrational Spectroscopy, John Wiley & Sons Ltd. Chichester, UK. Domingo, C.; Escribano, R. y García-Ramos, J. V. (eds.) (2003): Nanoestructuras: fabricación, caracterización y aplicaciones, Sociedad Española de Óptica, Madrid. García-Ramos, J. V. (2014): ¿Qué sabemos de las moléculas? Cuando la luz te ayuda a vibrar, CSICLos Libros de la Catarata, Madrid.
conservación de las pinturas que aparecen en excavaciones tan importantes como las de Pompeya (Italia) o la potencial degradación por las partículas aéreas de la Alhambra de Granada.
Nafie, L.A. (2013): “Recent Advances in Linear and Non-linear Raman Spectroscopy. Part VII”, Journal of Raman Spectroscopy, 44, pp. 1629-1648. Rose, M. (ed.) (2010): A History of the Laser: A Trip through the Light Fantastic, Photonics Spectra [disponible en http://www.photonics.com/Article.as px?PID=5&VID=61&IID=464&Tag=Features&A ID=42279]. Thomas Engel, T. y Reid, P. (2006): Química Física, Addison-Wesley, Reading (MA), Estados Unidos.
80
C000 luz 2015 (FERROS).indd 80
05/05/15 13:00
Delia Fernández Torre y Belén Maté Naya
7. Luz y atmósfera “Naturaleza en lo vario tanto su poder mostró, siendo todo necesario, que un veneno aún no engendró sin engendrar su contrario.” Calderón de la Barca
7.1. Introducción a la atmósfera terrestre Vivimos inmersos en un fluido, la atmósfera terrestre, que resulta esencial para el desarrollo y sostenimiento de la vida sobre el planeta. Además de proporcionarnos oxígeno, mantiene la temperatura media terrestre en torno a unos 17 ºC, lo que permite la existencia de grandes cantidades de agua líquida, el componente mayoritario de plantas y animales. Las radiaciones solares que resultan perjudiciales para la vida, como ciertas regiones del ultravioleta, son filtradas por la atmósfera, y las que
son esenciales, como la luz visible, la atraviesan sin apenas pérdidas. Además, tanto la temperatura a nivel local como el resto de detalles del tiempo meteorológico vienen determinados por ella y su interacción con la hidrosfera (océanos) y la litosfera (tierra). No se supo mucho acerca de las propiedades más básicas de la atmósfera hasta que, en el siglo XVII, se demostró que esta ejerce una presión sobre la superficie terrestre a nivel del mar que es, en promedio, la misma que ejerce una masa de 1 kg sobre una superficie de 1 cm2 (1 atmósfera). Esta presión se 81
C000 luz 2015 (FERROS).indd 81
05/05/15 13:00
A
B
Nitrógeno Oxígeno Argón Dióxido de carbono Otros
Figura 7.1. A. Representación pictórica del satélite Aqua de la NASA, que está dedicado al estudio de la atmósfera y el clima. B. Proporción (en tanto por ciento de volumen) de gases en la atmósfera (hasta una altura de unos 80 km). Fuente: A. NASA. B. Modificado a partir de un fichero de Wikimedia Commons.
debe al peso de la columna de aire y, por tanto, disminuye con la altura. Poco después se descubrieron las leyes de los gases, lo que permitió reconocer que la disminución de la presión con la altura sigue una ley exponencial. Y si la presión decae exponencialmente, también lo hará la densidad del aire. Esta ley del decrecimiento exponencial de la presión y la densidad describe bastante bien el comportamiento de los gases atmosféricos. Hoy en día se sabe que la atmósfera consiste en una mezcla de gases y, en menor proporción, de partículas sólidas o líquidas de distinta composición. Los componentes mayoritarios del aire son el nitrógeno (N2), el oxígeno (O2), el argón (Ar) y el dióxido de carbono (CO2), en las cantidades relativas que se indican en la figura 7.1.B. Otro de los gases más abundantes en la atmósfera, el vapor de agua, no aparece en la figura porque su proporción, en torno al 1%, es variable. El agua es una molécula muy importante para el equilibrio radiativo terrestre (esto es, la relación entre energía luminosa entrante y saliente de la tierra), para el que también son muy relevantes ciertas moléculas que, paradójicamente, están presentes en cantidades muy pequeñas, como el CO2 (prácticamente invisible en la figura 7.1.B) y algunos de los gases traza, como el metano (CH4), el ozono (O3) y el dióxido de nitrógeno (NO2). En cuanto a las partículas suspendidas en el aire, se suele distinguir
entre aquellas cuyo componente mayoritario es el agua y el resto. Las primeras forman las nubes, por lo que son un factor determinante en el tiempo meteorológico. Las segundas se denominan aerosoles y pueden tener distintas composiciones según su origen sea natural (sales marinas, cenizas de explosiones volcánicas, tierra, polen) o antropogénico (como las partículas carbonáceas que contaminan el aire de las ciudades o los aerosoles de sulfato que participan en la lluvia ácida). La propiedad fundamental de la atmósfera que nos queda por tratar es la temperatura. Como sabemos por nuestra propia experiencia, en la superficie de la Tierra la temperatura varía bastante a nivel local, dependiendo del tiempo meteorológico y del periodo del año en que nos encontremos. Pero su variación más crítica se produce en la dirección vertical, según aumentamos la altura sobre la superficie terrestre. Intuitivamente, parecería que la temperatura debería disminuir según aumenta la altura, pues eso es lo que sucede cuando subimos una montaña. Y la intuición es válida, porque, como veremos en el próximo apartado, la Tierra es un emisor de radiación y, por tanto, es de esperar que según nos vamos alejando de su superficie nos llegue menos radiación y la temperatura descienda. Sin embargo, eso no es lo que observamos en la figura 7.2: hay dos tramos (el primero y el tercero, de abajo
82
C000 luz 2015 (FERROS).indd 82
05/05/15 13:00
100 Termosfera
75 Mesosfera
h (km)
arriba) en los que la temperatura disminuye y otros dos (el segundo y el cuarto) en los que aumenta. Estos dos tramos de comportamiento anómalo se explican con algo que no hemos tenido en cuenta en nuestro razonamiento anterior: la luz procedente del Sol puede interaccionar con las moléculas presentes en ese intervalo de alturas. En ambos casos, se producen reacciones químicas que liberan energía y por tanto la temperatura del aire aumenta. El comportamiento de la temperatura divide la atmósfera en una serie de capas relativamente independientes entre sí, pues las inversiones térmicas reducen mucho la mezcla de gases en la dirección vertical. La primera capa que nos encontramos es la más próxima a la superficie terrestre y se denomina troposfera. Llega desde la superficie de la Tierra a nivel del mar hasta una altura de unos 12 km. Es la parte más densa de la atmósfera y contiene el 80% de su masa total. Es aquí donde se producen los fenómenos que dan lugar al tiempo meteorológico, como las nubes y los vientos, y donde se encuentran la mayor parte de las partículas contaminantes. El aire troposférico está en continuo movimiento, frente a la tranquilidad que caracteriza a capas más altas, manteniendo una circulación global que va del ecuador (aire caliente que es menos denso y sube) hacia los polos (donde dicho aire se enfría y baja) y
50
Estratosfera
Capa de ozono 25
Troposfera 0
-50
viceversa. Esta circulación no es perfectamente paralela a los meridianos, sino que se desvía debido a la rotación de la Tierra. La siguiente capa según vamos ascendiendo es la estratosfera. Lo más característico de esta zona es la presencia de la capa de ozono entre los 15 y los 50 km. El ozono actúa como filtro de una parte de la radiación ultravioleta solar (la más dañina para los seres vivos) mediante un ciclo de reacciones químicas que convierten la luz en calor. Por esta misma razón, la temperatura estratosférica aumenta según subimos en altitud.
0 T (ºC)
50
Figura 7.2. Perfil típico de temperatura en la atmósfera. Se indican las distintas capas y, de forma esquemática, la localización de la capa de ozono. Fuente: Elaboración propia.
83
C000 luz 2015 (FERROS).indd 83
05/05/15 13:00
Figura 7.3. La Tierra vista desde un satélite. Lo que se observa es la luz reflejada por los continentes, los océanos, las nubes y los casquetes polares (los dos últimos reflejan de forma muy eficiente todas las longitudes de onda visibles. Fotografía: NASA.
84
C000 luz 2015 (FERROS).indd 84
05/05/15 13:00
Entre los 50 y los 80 km se encuentra la mesosfera, en la que de nuevo la temperatura se invierte y desciende con la altitud. En esta zona la presión del aire es muy baja y existen trazas de metales procedentes de la vaporización de meteoritos. La siguiente capa es la termosfera, entre 80 y 500 km, también llamada ionosfera, porque está compuesta de gas ionizado (procedente de O2 y N2) y electrones libres. Esta capa vuelve a presentar una temperatura creciente con la altura, debido principalmente a la interacción del oxígeno con la radiación solar. La termosfera refleja las ondas de radio, lo que nos permite recibir en la superficie terrestre las ondas procedentes de emisoras lejanas. Es en esta capa donde se producen las auroras boreales. Lo que hay más allá de los 500 km de altitud se denomina exosfera. No está claro dónde se debe considerar que termina la atmósfera y empieza el espacio exterior, puesto que el límite depende de la magnitud en que estemos interesados.
7.2. Balance radiativo global. Efecto invernadero En el núcleo del Sol se están produciendo continuamente reacciones de fusión nuclear que liberan una gran cantidad de energía. Esta viaja lentamente hacia la superficie solar y allí es reemitida en forma de radiación. La mayor parte de esta radiación tiene longitudes de onda entre 0,25 y 2,5 mm, lo que incluye rayos ultravioleta, visibles e infrarrojos. Su máximo de intensidad se localiza en la zona visible del espectro. La curva de emisión solar puede explicarse mediante un modelo de máxima emisividad (también llamado de cuerpo negro) suponiendo una temperatura en la superficie del Sol de aproximadamente 5.800 K. En este modelo, un cuerpo que se encuentra a una temperatura dada emite mayor cantidad de radiación y en longitudes de onda más cortas cuanto mayor sea su temperatura. Así, la Tierra, cuya superficie se encuentra a unos 17 ºC (unos 290 K) también
Irradiancia (u.a.)
Figura 7.4. Espectro aproximado para la radiación emitida por el Sol (línea negra, T=5800K) y por la Tierra (línea verde, T=290 K). Se indican los límites de las regiones ultravioleta, visible (delimitada por un arcoíris) e infrarroja. En el eje vertical la emisión solar y terrestre no están a escala real (pues les separan seis órdenes de magnitud).
UV
IR
T = 5.800 K
0,1
1
10
T= 290 K
100
l (mm)
emite radiación en la región infrarroja del espectro. Como veremos enseguida, la radiación solar y la terrestre, al tener sus máximos en distintas regiones del espectro, serán absorbidas en cantidades muy diferentes por la atmósfera. Cuando la radiación emitida por el Sol llega a la parte exterior de la atmósfera terrestre se establece un equilibrio, llamado balance radiativo, en el que la cantidad de luz que entra y la que sale se iguala. El efecto más importante de este equilibrio es que determina la temperatura de la superficie terrestre. La atmósfera, como veremos ahora, juega un papel fundamental en este equilibrio. Vamos a estudiar el balance radiativo dividiéndolo en dos partes: 1) la que corresponde a la radiación solar que entra a la atmósfera, interacciona con ella y acaba o llegando a la superficie 85
C000 luz 2015 (FERROS).indd 85
05/05/15 13:00
Radiación saliente: 71%
Radiación solar entrante: 100% Radiación solar reflejada: 29% Emisión atmosférica: 50%
Reflejada por las nubes y la atmósfera: 23%
Absorbida en la atmósfera: 23%
Ventana atmosférica: 12%
Convección: 5% Reflejada por la superficie: 7%
Absorbida por la superficie: 48%
Figura 7.5. Representación esquemática de los procesos que intervienen en el balance energético terrestre. Fuente: Wikimedia Commons.
Evaporación: 25%
Radiación terrestre: 115%
Emisión de las nubes: 9%
Gases de efecto invernadero
Radiación de vuelta: 100%
terrestre o volviendo al espacio, y 2) la que corresponde a la radiación emitida por la Tierra que interacciona con la atmósfera y acaba o saliendo al espacio o volviendo a la Tierra. Empezamos con la primera parte del balance radiativo (radiación solar que llega a la atmósfera y a la Tierra), que se ilustra en la parte izquierda de la figura 7.5 (en color amarillo). De 100 unidades de radiación solar que llegan al exterior de nuestra atmósfera, 29 vuelven a ella reflejadas por las nubes, la atmósfera y la superficie terrestre. De las 71 unidades restantes, 23 sufren absorción al atravesar la atmósfera, luego solo 48 unidades (aproximadamente la mitad de la radiación incidente original) llegan a la superficie terrestre y son absorbidas
por ella. Para que la superficie de la Tierra mantenga su equilibrio térmico debe reemitir esta radiación. De hecho, en la parte derecha del esquema de la figura 7.5 (en color rojo), que se refiere a la segunda parte del balance radiativo (radiación terrestre que llega a la atmósfera y al espacio exterior), se observa que la Tierra emite bastante más de las 48 unidades que le llegan debido a la radiación solar. En concreto, emite 117 unidades de radiación, a las que hay que añadir 30 unidades más debido a transporte de materia (evaporación y convección); luego en total emite 147 unidades. La razón por la que la superficie terrestre emite 100 unidades de radiación extra es el efecto invernadero, que se debe a ciertos gases presentes en la atmósfera (principalmente H2O, CO2 y alguno de los gases traza, como CH4) que tienen mucha tendencia a absorber la luz infrarroja. Estos gases absorben la radiación emitida por la Tierra, que tiene su espectro completo en esa región y la reemiten, en su mayor parte, de nuevo hacia la superficie terrestre (esto se corresponde con las 100 unidades de radiación de vuelta indicadas en la parte derecha de la figura 7.5, y son justo las unidades de radiación necesarias para explicar la emisión total de 147 unidades por la superficie terrestre). Finalmente, una pequeña parte de la radiación terrestre consigue atravesar la atmósfera y se une a la emitida por los gases atmosféricos y las nubes, resultando en total 71 unidades de
86
C000 luz 2015 (FERROS).indd 86
05/05/15 13:00
De la luz solar que llega a la atmósfera una parte es reflejada, otra es refractada y/o absorbida y el resto llega inalterado a la superficie terrestre. Estos mecanismos de interacción se ilustran en estas imágenes. Cuando la luz trata de penetrar una superficie que separa dos medios, una parte de ella no lo logra y rebota, y otra parte sí. Al primer mecanismo se le llama reflexión (A) y al segundo refracción (B). La luz refractada cambia su trayectoria y su velocidad de propagación, y la magnitud de estos cambios depende de la longitud de onda de la radiación incidente produciendo lo que se conoce como dispersión cromática (C). En nuestro caso, las superficies con las que interacciona la luz solar serán las de las gotas de agua o cristales de hielo que forman las nubes, las de los aerosoles y la superficie terrestre. Un tercer mecanismo es la absorción, que puede afectar a la luz que atraviesa un medio material o un gas, y consiste en que una parte de la radiación incidente es absorbida por el medio y se emplea en subir su temperatura y/o es reemitida. La mayor parte de la absorción atmosférica se debe a gases como el vapor de agua, el dióxido de carbono, el ozono o el oxígeno. El mecanismo de la absorción se ilustra en la imagen B, en la que un láser pasa de viajar por aire a vidrio, con lo que el rayo se refracta y, al salir de nuevo al aire, se aprecia una pérdida de intensidad del haz que se debe a procesos de absorción en el vidrio. La absorción depende mucho de la longitud de onda de la radiación y del medio en que esta se propague. A
B
C
Figura 7.6. Principales mecanismos de interacción de la luz con la atmósfera. Representación gráfica de los procesos de interacción luz-materia más relevantes en la atmósfera. A. Reflexión. B. Refracción y absorción de radiación monocromática. C. Refracción de luz blanca. Dispersión cromática. Fuente: Wikimedia Commons.
radiación que abandonan la atmósfera, que se equilibran con la radiación entrante neta que mencionamos al principio. El efecto invernadero hace que la temperatura de equilibrio terrestre sea de aproximadamente 17 ºC. Sin él no sería posible la vida sobre la Tierra tal y como la conocemos, pues la temperatura promedio descendería hasta aproximadamente -18 ºC.
7.3. Fenómenos ópticos en la atmósfera La interacción de la luz del Sol con nuestra atmósfera genera multitud de fenómenos ópticos curiosos que vemos en el cielo. El color azul del cielo, los arcoíris, el color rojo del Sol al atardecer o los halos y coronas son debidos a la
interacción de la luz solar con los gases de nuestra atmósfera, con gotas de agua de lluvia o con los pequeños cristalitos en suspensión que forman algunas nubes. Para entender estos efectos necesitaremos considerar tres propiedades básicas de la luz: reflexión, refracción y dispersión cromática. 87
C000 luz 2015 (FERROS).indd 87
05/05/15 13:00
Si miramos el cielo sin mirar al Sol, vemos que es de color azul, lo que quiere decir que nos está llegando luz desde esa dirección del espacio. Por tanto, la luz del Sol ha cambiado de dirección, ya que si no veríamos solo el negro del espacio exterior y la luz proveniente de estrellas lejanas. Son las moléculas de nuestra atmósfera las que hacen que veamos el cielo iluminado. Las moléculas atmosféricas absorben parte de la luz solar y la reemiten en todas las direcciones, siendo la intensidad de la radiación reemitida inversamente proporcional a la cuarta potencia de su longitud de onda. Como la longitud de onda de la luz azul es menor que la de la luz roja, el azul se reemite más intensamente y es el color que domina en nuestro cielo.
Figura 7.7. ¿Por qué el cielo es azul? Fotografía: Wikimedia Commons.
Probablemente, el más espectacular y más conocido de los fenómenos ópticos que ocurren en la atmósfera sea el arcoíris. Un observador en tierra ve el arcoíris como un arco de colores que cae cubriendo un largo segmento del cielo. Es un fenómeno que se observa sobre
todo al atardecer, cuando se está frente a una cortina de lluvia o niebla y se tiene el Sol a la espalda. Pero también se pueden ver miniarcoíris siempre que haya pequeñas gotas de agua iluminadas por el Sol, como en la base de una cascada o
88
C000 luz 2015 (FERROS).indd 88
05/05/15 13:00
Figura 7.8. Arcoíris fotografiado en Vega de Pas, España. Fotografía: Luis Marina (https://www.flickr.com/photos/ luismarina/8687273063/).
simplemente mirando el aspersor de una manguera. Para entender cómo las gotas de agua generan un arcoíris tenemos que recordar el fenómeno de la refracción y también recordar las características de la luz solar. La luz del Sol, como decíamos en la sección inicial, incluye rayos ultravioleta, visibles e infrarrojos y por este motivo se suele llamar “luz blanca”. Cada longitud de onda (o color de la luz) viaja a distinta
velocidad en la gota de agua y, por tanto, cada una sufre una desviación distinta. Esto hace que cuando el rayo de luz pasa de la atmósfera a la gota, su velocidad y dirección de propagación cambien, pero de forma distinta para el rayo violeta que para al rojo. La luz roja es la que menos cambia su velocidad y menos se desvía, mientras que la violeta es la que más se frena. Así, cuando la luz del Sol entra en la gota, debido al fenómeno de refracción, los colores se separan.
La descomposición de la luz blanca en colores debido a la refracción es lo que se conoce como dispersión cromática. Cuando se forma un arcoíris, las gotas de lluvia actúan como pequeños prismas, descomponiendo la luz del Sol en su espectro de colores. Los rayos solares al penetrar en la gota se refractan, es decir, cambian sus direcciones de propagación, siendo mayor el cambio en el violeta que en el rojo. Cuando los rayos alcanzan la cara opuesta de la gota se reflejan para salir 89
C000 luz 2015 (FERROS).indd 89
05/05/15 13:00
A
Figura 7.9. Descomposición de la luz del sol en una gota de lluvia que da lugar al arcoíris: (A) primario y (B) secundario. Fuente: Wikimedia Commons.
B
de la gota por la misma cara que entraron. Al salir sufren una última refracción que incrementa la separación en colores. El ángulo entre la luz solar incidente y el haz de colores final que forma el arcoíris es 42 grados para el rojo y 40 grados para el violeta. Los otros colores —naranja, amarillo, verde y azul— siguen trayectorias con ángulos intermedios. Aunque cada gota dispersa cromáticamente todo el espectro de colores, cada observador ve un solo color procedente de cada una, ya que, al estar alejado de las gotas, los rayos dispersados viajan una larga distancia y se separan mucho espacialmente. Por ejemplo, si de una gota le llega al ojo el color verde, eso quiere decir que el rayo violeta pasará sobre su cabeza y el rayo rojo caerá en tierra delante de él. En consecuencia, cada observador ve su propio arcoíris, generado
por un conjunto particular de gotas de agua y rayos de Sol, diferentes a los de otro observador en otra posición. En ocasiones, cuando el arcoíris es muy brillante, es posible distinguir un arcoíris secundario, tal como se aprecia en la figura 7.8, que parece que está por encima del primario. Este segundo arco es ligeramente más fino que el primero y menos intenso, y en él los colores aparecen en orden inverso. El arcoíris secundario se genera de forma similar al primario, la única diferencia es que la luz solar es reflejada dos veces dentro de la gota de lluvia antes de salir. La reflexión extra es la causa de la inversión en los colores y también de que sea menos intenso. Aunque el arcoíris secundario siempre se forma, ocurre que muchas veces no es discernible. Otro fenómeno óptico bastante común, aunque no tan fácil de ver de forma casual, son los halos. Se trata de un anillo brillante de gran diámetro que aparece centrado en el Sol (o la Luna), normalmente al amanecer o al atardecer, cuando el cielo está cubierto de una capa de finas nubes tipo cirros. Como el arcoíris, el halo se produce por la reflexión y refracción de la luz solar, pero en este caso los responsables del efecto son los cristalitos de hielo presentes en estas nubes. Los cristalitos de simetría hexagonal que forman estas nubes, aunque orientados al azar,
90
C000 luz 2015 (FERROS).indd 90
05/05/15 13:00
Figura 7.10. Halo alrededor del Sol en Roscoff, Francia. Fotografía: Wikimedia Commons.
C000 luz 2015 (FERROS).indd 91
91
05/05/15 13:00
Figura 7.11. Aurora boreal sobre Lyngenfjorden, Noruega. Fotografía: Ximonic (Simo Räsänen). Wikimedia Commons.
¿Cuándo se ve rojo el Sol? El Sol se pone rojo al amanecer y atardecer cuando está cerca del horizonte y la luz llega a nosotros después de atravesar las densas capas inferiores de la atmósfera. Este efecto es causado por el mismo fenómeno que explica por qué el cielo es azul. Como dijimos, la dispersión de la luz solar en todas las direcciones causada por las moléculas de nuestra atmósfera es más intensa para la luz azul. Es decir, el azul se pierde en todas las direcciones en mayor proporción que el rojo. Por tanto, una mayor fracción de luz roja mantiene inalterada su dirección y llega a nuestros ojos cuando miramos hacia el Sol al atardecer.
Figura 7.12. Cielo rojo en la puesta de sol Fotografía: Wikimedia Commons.
92
C000 luz 2015 (FERROS).indd 92
05/05/15 13:00
refractan la luz favoreciendo una dirección, que en el caso de prismas hexagonales es de 22 grados. Aunque en principio cada cristal dispersa la luz también separando los colores, las formas imperfectas de los cristales, comparadas con las esferas perfectas de las gotas de agua, hacen que las trayectorias de los distintos colores se vuelvan a superponer y los halos aparezcan blancos. Las auroras boreales son un fenómeno óptico espectacular que tiene lugar en la ionosfera. Tienen formas cambiantes, en algunas ocasiones se ven bandas verticales, bailando en el cielo nocturno, otras veces se muestran como una cortina de verde eléctrico o como un tornado de luz tenue. Son de un verde luminoso, a veces con un toque rosa en los bordes, y ocasionalmente violeta en el centro. Los mejores lugares para divisar auroras boreales están por encima del Círculo Polar Ártico. Son consecuencia de las grandes tormentas solares, que envían ráfagas de partículas cargadas.
Contaminación atmosférica en la zona este de China. Los aerosoles y gases generados por la actividad humana y liberados a la atmósfera terrestre afectan negativamente al clima de nuestro planeta y la salud de los que en él vivimos. Las principales fuentes de contaminación son el tráfico, el sector energético y la industria, que produce gases como CO2, óxidos de azufre, óxidos de nitrógeno y compuestos orgánicos, todos ellos sustancias contaminantes. Algunos de estos gases incrementan el efecto invernadero y producen un aumento de la temperatura global del planeta. Figura 7.13. Contaminación atmosférica. Fotografía: Wikimedia Commons.
93
C000 luz 2015 (FERROS).indd 93
05/05/15 13:00
Cuando estas partículas provenientes del Sol alcanzan nuestro planeta chocan contra las moléculas
de aire de la ionosfera y les transfieren parte de su energía, excitándolas. Estas moléculas excitadas
Bibliografía Escribano, R. y Tanarro, I. (2010): Spectroscopy of the Atmospheres, Editorial CSIC.
emiten luz visible, que es lo que vemos y conocemos como auroras boreales.
Lutgens, F. K. y Tarbuck, E. J. (1992): The Atmosphere, Prentice Hall. Visconti, G. (2001): Fundamentals of Physics and Chemistry of the Atmosphere, Springer.
94
C000 luz 2015 (FERROS).indd 94
05/05/15 13:00
José Gonzalo y Javier Solís
8. Luz y materia 8.1. Introducción Nuestra percepción del mundo exterior está definida por nuestros sentidos y por cómo estos detectan diferentes tipos de energía (mecánica en el caso del tacto y del oído, luminosa en el caso de la vista) o de compuestos químicos (en el caso del gusto y olfato). Disponemos también de mecanismos para percibir los cambios de temperatura exterior, orientación espacial y velocidad. Sin embargo, la vista es el sentido que determina en mayor medida nuestra relación con el entorno, siendo la luz y su interacción con la materia la que condiciona buena parte de nuestra percepción del mundo exterior. La radiación electromagnética interacciona con nuestro sistema visual en un intervalo de longitudes de onda que, precisamente por ello,
denominamos intervalo visible. La interacción de los fotones visibles con la materia que nos rodea es la fuente de lo que conocemos como colores, tal como se muestra en los ejemplos de la figura 8.1. Tanto en el visible como en otras regiones del espectro electromagnético, la luz interacciona con los medios materiales dando lugar a una amplia gama de fenómenos que el ser humano ha utilizado, desde sus orígenes, para su propio desarrollo. Probablemente los tres ejemplos más recientes de este uso son las comunicaciones ópticas, el almacenamiento óptico de información y el procesado de materiales por láser. En este capítulo nos centraremos en las transformaciones que podemos provocar con un haz láser en un sólido, lo que nos lleva a preguntarnos, ¿cómo interacciona la luz con los medios materiales? 95
C000 luz 2015 (FERROS).indd 95
05/05/15 13:00
Figura 8.1. Ejemplos de la interacción de la luz con diferentes tipos de materiales. Izquierda: orgánicos, como los de un bosque (izquierda) en el que podemos apreciar los diferentes colores de las hojas de los árboles y sus cambios, e inorgánicos, en los que podemos apreciar la diferencia de coloración entre una moneda de oro (centro) y un trozo de carbón (derecha). Fotografías: Izquierda: Sergio Barbero; centro: Wikimedia Commons; derecha: Educerva, Wikimedia Commons.
8.2. ¿Cómo absorben la luz diferentes tipos de materiales? A la hora de intentar entender cómo interacciona la luz con los medios materiales, lo primero que tenemos que plantearnos es qué es la luz y con qué constituyentes de la materia interacciona. La luz es radiación electromagnética que se propaga en forma de ondas en la que los campos eléctrico y magnético oscilan con frecuencias típicas comprendidas entre 400 y 750 THz (4,0-7,5 x 1014 Hz) para los extremos infrarrojo y ultravioleta de la radiación visible. Esto quiere decir que el campo electromagnético oscila entre 400 y 750 billones de veces por segundo. De los constituyentes de la materia, solo los electrones son partículas cargadas suficientemente ligeras para poder responder a variaciones tan rápidas del
campo electromagnético asociado a una onda luminosa. En un átomo aislado, los electrones ocupan determinados niveles de energía entre los que pueden realizar transiciones emitiendo o absorbiendo energía. Por ejemplo, la luz amarilla que generan las farolas de las calles se produce al excitar eléctricamente los electrones de átomos de sodio en forma gaseosa desde su nivel electrónico fundamental a un estado excitado. Al desexcitarse (transición desde el estado de alta al de baja energía), cada electrón emite un paquete de energía (fotón) con una longitud de onda, l, de 590 nm que corresponde al color amarillo. Sin embargo, en los sólidos la situación es distinta a los gases. Los átomos se encuentran muy cerca unos de otros, de forma que mientras los orbitales electrónicos de las capas internas de los distintos átomos
96
C000 luz 2015 (FERROS).indd 96
05/05/15 13:00
permanecen aislados y no interactúan, sus orbitales electrónicos externos se superponen e interaccionan entre sí, dando lugar a los enlaces que forman las moléculas y los sólidos. Desde el punto de vista energético, dicha interacción provoca que los niveles electrónicos discretos asociados a los orbitales externos den lugar a bandas de absorción continuas con múltiples estados energéticos. Una descripción exhaustiva de los tipos de enlace y de la teoría cuántica de bandas en la que basamos la descripción actual de los sólidos queda lejos de nuestro objetivo. Nos bastará considerar que en nuestro sólido podemos distinguir dos tipos de bandas: de valencia y conducción. La banda de valencia está ocupada por electrones ligados que contribuyen a los enlaces que mantienen los sólidos cohesionados, mientras que la de conducción está ocupada por electrones deslocalizados y casi libres que se han desligado de sus átomos y pueden moverse sobre regiones extensas. Atendiendo a su estructura electrónica podemos dividir los materiales en tres grandes grupos: dieléctricos, semiconductores y metales. Los dieléctricos o aislantes se caracterizan por presentar una banda de valencia llena, mientras que la de conducción está vacía existiendo entre ambas un intervalo, llamado “zanja”, de
energía prohibida (Eg en la figura 8.3), que depende de cada dieléctrico en particular. Por tanto, son necesarios fotones con una energía mayor o igual a ese valor mínimo para que un electrón pase de la banda de valencia a la de conducción, deslocalizándose al absorber energía. En la mayoría de los casos, ya sean sólidos amorfos, como los vidrios, o
Figura 8.2. Plasma luminoso producido por ablación láser de un blanco vítreo de TeO2-Nb2O5-TiO2 en una atmósfera de 10-1 mbar de O2 utilizando un láser pulsado de excímero (l = 193 nm, duración de pulso = 20 nanosegundos). Fotografía: M. Galván, Grupo de Procesado por Láser, Instituto de Óptica, CSIC.
97
C000 luz 2015 (FERROS).indd 97
05/05/15 13:00
Banda de conducción
E
Eg
EF
Banda de valencia
Metal
Aislante Semiconductor
Figura 8.3. Diagrama simplificado de la estructura de bandas de aislantes, semiconductores y metales. En el caso de los aislantes y semiconductores es necesaria una energía mínima, mayor a Eg, para que un electrón pase de la banda de valencia (azul) a la de conducción (amarilla). En los metales las bandas de valencia y de conducción se encuentran parcialmente superpuestas (verde). El nivel de Fermi, indicado como EF, corresponde al nivel de energía más elevado ocupado por los electrones a la temperatura de 0 K (cero absoluto, T= -273,15 ºC). Fuente: Elaboración propia.
cristalinos, como el cuarzo o el diamante, dicha energía corresponde a la región ultravioleta del espectro electromagnético. Los fotones con una energía menor, que corresponden a la región visible del espectro, no pueden ser absorbidos por los dieléctricos, a no ser que se produzcan procesos de absorción multifotónica. Dichos procesos, en los que un electrón absorbe simultáneamente varios fotones, exigen densidades espaciales de fotones, o lo que es lo mismo, intensidades luminosas elevadísimas.
Por esta razón, en condiciones normales, los dieléctricos son transparentes a la luz desde el ultravioleta hasta longitudes de onda en la región del infrarrojo en la que aparecen procesos de absorción resonante asociados a la interacción de la luz con la red atómica que conforma el sólido, lo que provoca la excitación de sus modos de vibración y reduce su transparencia en dicha región. La energía de dichos modos vibracionales está cuantizada, utilizándose el término “fonón” para
referirse a una cuasi partícula sin masa que corresponde a un cuanto de energía vibracional por analogía con el fotón. Ahora bien, los dieléctricos no son perfectos, sino que pueden presentar impurezas o defectos que permiten que estos materiales absorban en el visible, como ocurre con el zafiro, el rubí o la esmeralda. Conceptualmente los semiconductores son similares a los dieléctricos, aunque presentan algunas diferencias. En primer lugar, la energía necesaria para generar electrones casi libres es mucho menor, pudiendo llegar a ser del orden de la energía térmica a temperatura ambiente. Por ello, los semiconductores
98
C000 luz 2015 (FERROS).indd 98
05/05/15 13:00
Figura 8.4. Respuesta a la luz visible de los diferentes tipos de materiales. Izquierda: un dieléctrico como un vidrio; centro: un semiconductor; derecha: un metal como un espejo. Fuente: Izquierda: Saint Gobain; centro y derecha: Wikimedia Commons.
pueden poseer a temperatura ambiente una cierta cantidad de electrones en la banda de conducción y absorber en el visible. Por otra parte, la absorción asociada a la excitación de los modos de vibración de la red atómica se encuentra más próxima al infrarrojo que en el caso de los dieléctricos. Por último, los metales se caracterizan por presentar una banda de conducción parcialmente llena a temperatura ambiente, lo que determina cómo absorben la luz, ya que los electrones de la banda de conducción son capaces de responder
al campo electromagnético, siendo acelerados por el mismo. Por tanto, deberían absorber luz a cualquier longitud de onda. Sin embargo, en la práctica, la absorción depende de la densidad de electrones en la banda de conducción, lo que determina una frecuencia óptica característica, denominada frecuencia de plasma, por encima de la cual el metal es transparente a la luz, mientras que para frecuencias menores los metales presentan una absorción y una reflectividad elevadas. La frecuencia de plasma se encuentra en la región espectral del ultravioleta de vacío
(l< 200 nm), lo que confiere a los metales su característico brillo. Expresado en términos de longitud de onda, ello equivale a que los metales presentan una alta reflectividad y absorción en la región visible del espectro electromagnético. En la figura 8.4 podemos apreciar cómo la respuesta de los tres tipos de materiales a la luz visible es diferente. Un dieléctrico como el vidrio es transparente (transmisión elevada y una absorción reducida), mientras que los semiconductores y los metales presentan el característico brillo metálico (reflectividad y absorción elevadas). 99
C000 luz 2015 (FERROS).indd 99
05/05/15 13:00
Los colores de la esmeralda, el rubí y el zafiro se deben a la presencia de impurezas metálicas sin las cuales serían transparentes como el diamante. La esmeralda es un silicato de berilio y aluminio (berilo) de composición Be3Al2Si6O18 al que la presencia de iones de cromo (Cr3+) le proporciona su intenso color verde. Más curioso es el caso del rubí y el zafiro. Ambos tienen la misma composición (Al2O3) y estructura cristalina (corindón). La única diferencia entre ambos es la presencia de iones de cromo (Cr3+) o de titanio (Ti3+), que son responsables del color rojo en el rubí y del azul en el zafiro.
Cuadro 8.1. Los colores de las piedras preciosas.
8.3. ¿Cuánta luz podemos depositar en un material? y ¿qué efectos produce? Tal como ocurre cuando la luz del Sol atraviesa la atmósfera, un haz de luz se atenúa al propagarse en un material absorbente. Pero ¿qué efectos provoca la luz absorbida en el material? Todos hemos sentido una agradable sensación de calor en una soleada tarde de invierno, lo que nos permite responder de forma intuitiva a la pregunta: la luz absorbida se transforma en calor en el seno del material. Ahora bien, ¿por qué aumenta la temperatura?
Ya hemos visto que son los electrones los que absorben la luz. En función de la longitud de onda y del valor de Eg, ello provoca que parte de los electrones en la banda de valencia pasen a la banda de conducción o que adquieran energía cinética si ya estaban en ella. En algunos casos, como en el ejemplo de la lámpara de sodio antes citado, los electrones se desexcitan emitiendo fotones, con lo que el material vuelve a la situación inicial. Sin embargo, en la mayoría de los sólidos el comportamiento es diferente. En las primeras decenas de femtosegundos, (1 fs = 10-15 s), tras la absorción, los electrones excitados en la banda de conducción interaccionan entre sí hasta que alcanzan una situación de equilibrio térmico. Posteriormente, los electrones transfieren en pocas decenas de picosegundos (1 ps = 10-12 s) la mayor parte de su energía cinética a la red atómica mediante la emisión de fonones. El mecanismo de transferencia es complejo, depende del tipo de material y ocurre en un intervalo de tiempo que va desde unos pocos hasta cientos de ps en algunos dieléctricos. Cuando el conjunto formado por los electrones excitados y los átomos del sólido alcanza la situación de equilibrio térmico, la temperatura del material aumenta. Todo el proceso es extraordinariamente rápido (tan solo unas decenas de ps). Evidentemente, cuanta más luz absorba el sólido, mayor debería ser el aumento de temperatura.
100
C000 luz 2015 (FERROS).indd 100
05/05/15 13:00
Figura 8.5. Ejemplos de materiales con muy baja y alta conductividad térmica. Izquierda: las losetas térmicas del transbordador espacial estaban hechas de fibras de SiO2 de alta pureza y eran capaces de aislar su estructura de las elevadas temperaturas ocasionadas por la reentrada del transbordador en la atmósfera. Derecha: por el contrario, los metales son buenos conductores térmicos. Basta calentar una pieza metálica por un extremo para que la temperatura de toda la pieza se homogenice y aumente rápidamente. Fotografías: Izquierda: Convención de 2001 de la Asociación Nacional de Profesores de Ciencias (NSTA) de Estados Unidos. Derecha: Wikimedia Commons.
Ahora bien, como la absorción de luz es un fenómeno local, el calentamiento depende de otros factores como el tiempo que el haz de luz interactúa con el sólido y de las propiedades térmicas de este. En particular, depende de la difusividad térmica del material, esto es, de la capacidad del material para “evacuar” el calor producido de la zona en la que se absorbe la luz y de cuánta energía es necesaria para aumentar su temperatura por unidad de volumen. Este parámetro varía mucho de unos materiales a otros. La figura 8.5 ilustra dos casos extremos. Las cerámicas son en general malas conductoras del calor,
por lo que el aumento de temperatura se concentra en una zona localizada, mientras que en los metales, que sí son buenos conductores térmicos, se produce un aumento homogéneo de temperatura en todo el material. Dependiendo de la intensidad de la fuente de luz, de su duración y de las características del material es posible provocar desde su simple calentamiento hasta su evaporación e incluso la formación de un plasma altamente excitado. La utilización de fuentes de luz con características muy especiales como son los láseres permite aplicar de forma controlada
estos procesos al procesado de materiales.
8.4. Procesado de materiales con láseres convencionales Los láseres son fuentes de luz monocromáticas, con una gran direccionalidad y capacidad de enfoque, lo que nos permite depositar una gran cantidad de energía en un área muy pequeña (menos de 1 mm2). Podemos entender fácilmente lo que esto significa si consideramos un láser continuo de 100 vatios de potencia que tenga un 101
C000 luz 2015 (FERROS).indd 101
05/05/15 13:00
Cuadro 8.2. El láser.
El término láser proviene del acrónimo inglés Light Amplification by Stimulated Emission of Radiation, que significa amplificación de luz mediante emisión estimulada de radiación. Con este término nos referimos a los dispositivos que, basados en el fenómeno cuántico de la emisión estimulada, amplifican de manera extraordinaria un haz de luz. Un láser consta de tres elementos fundamentales: 1) medio activo; 2) sistema de bombeo, y 3) cavidad resonante. El medio activo es un material en el que se produce la amplificación óptica gracias a la presencia de átomos, iones o moléculas que pueden emitir luz a una determinada longitud de onda (λ). Para ello, dichas especies activas deben de ser excitadas desde un nivel de baja energía a otro de mayor energía y luego almacenar esta energía, manteniéndose en este último nivel cierta cantidad de tiempo. La energía necesaria es proporcionada por el sistema de bombeo, que puede ser eléctrico o luminoso. La emisión láser se produce cuando las especies activas vuelven a su nivel fundamental de forma coherente (emisión estimulada). La energía que el medio activo había almacenado se emite en forma de luz con una λ característica. Para que esta luz se intensifique (amplificación óptica) el medio activo se coloca dentro de una cavidad resonante, que normalmente está formada por dos espejos paralelos entre los que la luz se refleja múltiples veces, consiguiéndose así la emisión estimulada. En un láser típico uno de los espejos es semitransparente, es decir, su reflectancia (R en la figura) es menor del 100%, de modo que deja salir parte del haz láser una vez ha sido suficientemente amplificado.
2. Bombeo
1. Medio activo
Espejo (R ≈ 100%) 3. Cavidad resonante
tamaño de haz de 1 cm2 y lo comparamos con una bombilla de la misma potencia. Dada la elevada direccionalidad de los haces láser su densidad de potencia será de
Luz láser
Espejo (R < 100%)
100 vatios/cm2 a un metro de distancia. Sin embargo, la bombilla emite luz en todas las direcciones de forma que su densidad de potencia será de tan solo unos pocos milivatios/cm2 a la
misma distancia, esto es, 100.000 veces menor. Los láseres pueden ser continuos o pulsados, con pulsos tan cortos como unos pocos fs. Para que nos hagamos una idea de lo que esto significa, la luz recorre en un fs una distancia de 0,3 micras (1 mm = 10-3 mm), que es el tamaño aproximado de la bacteria más pequeña conocida, la Nanoarchaeum equitans. Gracias a ello es posible alcanzar potencias luminosas instantáneas muy elevadas, que pueden alcanzar los petavatios (1 PW = 1015 vatios) en el caso de los láseres de fs. Todas estas propiedades, junto con la posibilidad de disponer de diferentes tipos de láseres que emiten a longitudes de onda que van desde el ultravioleta hasta el infrarrojo, han permitido el desarrollo de numerosas aplicaciones del láser en el procesado de materiales. Existen muchas formas de clasificar dichas aplicaciones y probablemente ninguna sea completa, ya que el conjunto de todos los factores descritos determinan qué podemos hacer en cada material y con qué tipo de láser. En este
102
C000 luz 2015 (FERROS).indd 102
05/05/15 13:00
Evaporación 1010
Fusión
Endurecimiento por shock 108
Perforación
Solidificación rápida
Corte y soldadura Fusión y cladding
Calentamiento
106 Ablación
104
Endurecimiento y cristalización 10-1
Densidad de potencia (W/cm2)
apartado describiremos las aplicaciones de láseres convencionales, entendiendo como tales aquellos que son continuos o con una duración de pulso mayor a 1 nanosegundo (1 ns = 10-9 s) en función de la densidad de potencia y duración del pulso láser, tal como se muestra en la figura 8.6. El empleo de láseres continuos o con duraciones de pulso mayores a unos milisegundos, ms, (1 ms = 10-3 s) y una densidad de potencia de unos pocos kW/cm2 permite calentar superficialmente un material sin alcanzar la temperatura de fusión. Con ello podemos mejorar sus propiedades estructurales. Ejemplos del calentamiento con láser son el endurecimiento o templado de metales; el recocido de cristales para reducir la concentración de defectos y mejorar su calidad; la difusión de dopantes en semiconductores o la cristalización de láminas amorfas en células solares. Si aumentamos la densidad de potencia hasta valores típicos de 104-105 W/cm2 es posible provocar la fusión superficial del material, lo que permite redistribuir los átomos en la zona fundida, que solidifica rápidamente. La ventaja de la fusión con láser respecto a procedimientos convencionales es doble. En primer lugar, es un proceso localizado que afecta a un volumen muy reducido, incluso menor que 1 mm3. En segundo lugar, permite alcanzar
10-3
10-5
10-7
10-9
Tiempo de interacción (s)
velocidades de enfriamiento altísimas (~106-1012 K s-1), lo que permite obtener materiales con características inalcanzables de otro modo y limitar la zona afectada por la fusión por láser a la zona irradiada, aumentando la precisión de las aplicaciones. Ejemplos del uso tecnológico de los procesos de fusiónsolidificación rápida son la recristalización de semiconductores implantados, lo que es esencial en la tecnología microelectrónica actual para mejorar el rendimiento de los chips; la aleación superficial o cladding (plaqueado) de materiales, que permite mejorar sus propiedades superficiales y tiene aplicaciones en campos como la aeronáutica o la automoción y los
Figura 8.6. Procesos tecnológicos que pueden realizarse con un láser convencional en función de su densidad de potencia y el tiempo de interacción con el material. Se indica de forma cualitativa las regiones en las que el láser provoca calentamiento, fusión o evaporación. Fuente: Cortesía de J. Singh, Penn State University. Adaptado de J. Singh, J. Mat. Science 29, 5232 (1994).
103
C000 luz 2015 (FERROS).indd 103
05/05/15 13:00
Figura 8.7. Ejemplos de la aplicación de los láseres convencionales al procesado de materiales. De izquierda a derecha: soldadura con láser, cladding o plaqueado y ablación láser. Fotografías: Izquierda: http://seetech-corp.com/ engineering/robotized-welding/; centro: http:// thermalspraydepot.com/images/laser%20head%20crop. jpg; derecha: M. Galván, Grupo de Procesado por Láser, Instituto de Óptica, CSIC.
procesos de solidificación rápida que hacen posible obtener materiales amorfos que de otra forma cristalizarían, como es el caso de los vidrios metálicos o de las memorias ópticas. Por último, otras aplicaciones de uso generalizado en la industria son las de perforado, corte y soldadura mediante láser, que permiten la fabricación de macro y microestructuras con gran precisión. La figura 8.7 ilustra alguna de dichas aplicaciones. Por último, el empleo de densidades de potencia más elevadas (~106-1010 W cm-2), lo que requiere pulsos más cortos (~10-6-10-9 s), provoca la evaporación o ablación superficial del material irradiado. Una de las aplicaciones más generalizadas de este proceso la encontramos en el ámbito de las aplicaciones médicas. La cirugía LASIK, utilizada para la corrección
de errores refractivos, se basa en el empleo de un láser pulsado ultravioleta que modifica la forma de la córnea del paciente. En otros ámbitos, la eyección del material por ablación láser puede estar acompañada de una onda de presión que puede utilizarse para endurecer el material irradiado. Por otra parte, en el intervalo más alto de densidades de potencia, el material arrancado puede estar fuertemente ionizado y excitado, constituyendo un plasma luminoso, como el mostrado en la figura 8.7, que puede ser utilizado para analizar la composición de materiales mediante técnicas espectroscópicas o para la elaboración de materiales en lámina delgada utilizando la técnica del depósito por láser pulsado (PLD del inglés pulsed laser deposition).
104
C000 luz 2015 (FERROS).indd 104
05/05/15 13:00
8.5. Absorción lineal y no lineal de luz En el apartado anterior hemos descrito las diferentes transformaciones que podemos inducir en medios materiales utilizando láseres pulsados convencionales. Independientemente del tipo de material, todas las transformaciones resumidas en la figura 8.6 son consecuencia de un calentamiento del material que tiene su origen en procesos en los que un electrón absorbe un fotón del haz láser generando electrones excitados con una energía cinética elevada. Sin embargo, el desarrollo de láseres con duraciones de pulso inferiores a unas decenas de ps (pulsos ultracortos) ha abierto nuevas posibilidades para el procesado de materiales con láser. En primer lugar, estos láseres nos permiten alcanzar densidades de potencia de irradiación superiores a ~10 GW/cm2, con lo que se producen fenómenos de absorción multifotónica. En ellos un electrón puede absorber más de un fotón, volviendo absorbentes incluso a aquellos materiales que son transparentes a la longitud de onda del láser. Así, durante la absorción de un pulso láser ultracorto por un dieléctrico, un electrón de su banda de valencia puede absorber varios fotones hasta pasar a la de conducción y verse acelerado a continuación por la absorción de más fotones. Este
fenómeno permite procesar casi cualquier tipo de material. Además, como la absorción multifotónica se produce solo por encima de una densidad de potencia de irradiación, los pulsos ultracortos permiten transformar el interior de un dieléctrico sin afectar a su superficie, empleando un sistema óptico de enfoque adecuado. En segundo lugar, como la duración del pulso es menor que el tiempo necesario para que los electrones transfieran su excitación a la red atómica, solo una pequeña fracción de la energía del haz láser se pierde por conducción térmica durante la absorción del pulso. La consecuencia es que la zona afectada por el calentamiento en la región del sólido irradiada es muy pequeña, con lo que la precisión del procesado con láser con pulsos ultracortos puede alcanzar casi la escala nanométrica.
8.6. Procesado de materiales con láseres de pulsos ultracortos Las dos características anteriores han generalizado la utilización de estos láseres en el procesado de materiales como metales, cerámicas, vidrios, polímeros e incluso tejidos biológicos. Su versatilidad ha favorecido el desarrollo de aplicaciones en campos que van desde la biomedicina hasta las
aplicaciones industriales. En algunos casos, los láseres ultrarrápidos permiten mejorar un proceso que ya era posible con pulsos láser de ns, bien porque se consigue una mayor precisión o porque es necesaria una menor energía, o bien porque es posible procesar materiales que no son procesables con pulsos de ns. Otras son aplicaciones completamente nuevas sin equivalente en el caso de láseres convencionales. Concluiremos este capítulo presentando algunos ejemplos de las mismas. En primer lugar, los láseres de pulsos ultracortos se utilizan para modificar la superficie de materiales creando micro y nanotexturas. La combinación de esta estructuración superficial con una atmósfera de procesado adecuada se utiliza ya para reducir la fracción de luz reflejada por el silicio, es lo que se conoce como black-silicon (silicio negro) y permite mejorar la eficiencia de las células solares. En particular, los láseres de fs permiten crear patrones superficiales periódicos en metales y dieléctricos con un espaciado menor que la longitud de onda del láser (~100s nm). Entre las aplicaciones potenciales de este tipo de nanoestructuras destacan la reducción de la fricción entre superficies o la mejora de la adhesión en el caso de implantes médicos. La disminución de los efectos térmicos al utilizar pulsos láser ultracortos no solo mejora la resolución 105
C000 luz 2015 (FERROS).indd 105
05/05/15 13:00
Figura 8.8. Izquierda: válvula para un motor diésel de inyección directa. Como se ilustra en el recuadro, la fabricación de orificios de diferentes tamaños permite distribuir de forma precisa el combustible en la cámara de combustión. Derecha: la imagen muestra un ejemplo de dichos orificios fabricados mediante pulsos láser ultracortos. El empleo del láser permite obtener bordes muy definidos y paredes lisas, lo que permite una pulverización óptima del combustible, disminuyendo el consumo y las emisiones. En la imagen de la derecha se compara el tamaño de los orificios con el del cabello humano, que tiene un diámetro de unas 100 μm. Fuente: Grupo Bosch.
espacial, sino que suaviza los bordes de la zona procesada evitando la formación de rebabas o microrroturas. Ello hace posible producir agujeros de tamaño muy reducido mediante procesos de nanoablación, lo que ha hecho que estos láseres se empleen en la fabricación de boquillas de inyección para las impresoras de chorro de tinta y, más recientemente, hayan comenzado a ser utilizados en la fabricación de inyectores para motores diesel como en el ejemplo mostrado en la figura 8.8. Asimismo, estos láseres también se emplean para la fabricación de microestructuras con un elevadísimo nivel de reproducibilidad, como los estents coronarios partiendo de materiales biocompatibles como aleaciones de magnesio o biopolímeros. En este caso, el empleo de estos láseres permite obtener superficies de una gran calidad y mantener las propiedades estructurales de las zonas del material no irradiadas, ya que estas no se han visto
afectadas por un aumento de temperatura. La posibilidad de que se produzcan procesos de absorción multifotónica a partir de una densidad de potencia umbral permite la fabricación de estructuras tridimensionales (3D) en un paso único a partir de polímeros fotosensibles. Desplazando la zona en la que se enfoca el láser es posible “curar” (solidificar) el polímero generando una estructura tridimensional. Es lo que se conoce como estereolitografía láser 3D. Si bien esta técnica también puede realizarse con láseres convencionales, no es posible alcanzar el mismo grado de resolución espacial que puede llegar a alcanzar valores próximos a los 100 nm utilizando pulsos láser de fs. Tal como se muestra en la figura 8.10, esta técnica permite fabricar estructuras fotónicas, además de nanosistemas como válvulas antirretorno o dispositivos tipo lab-on-a-chip. De entre las aplicaciones que solo son posibles utilizando láseres con pulsos ultracortos desataca la modificación interna de dieléctricos transparentes como los vidrios. En este caso, la estructura interna del sólido se modifica al irradiarlo con una densidad de potencia superior a la del umbral de absorción multifotónica. Esta transformación modifica el índice de refracción del material, de manera
106
C000 luz 2015 (FERROS).indd 106
05/05/15 13:00
Estent Arteria coronaria Placa
que desplazando el láser de irradiación sobre la muestra es posible fabricar guías de onda de buena calidad con un diámetro de 2 a 25 μm de diámetro, lo que permite implementar microdispositivos ópticos 3D como acopladores y divisores de haz e incluso láseres en vidrios dopados con iones de tierras raras. Dependiendo del material irradiado es posible realizar un ataque químico posterior, tal como ocurre en el caso de la sílice (SiO2) vítrea, para eliminar las zonas irradiadas, lo que permite diseñar dispositivos microfluídicos, con conductos de unos pocos μm de diámetro que pueden se utilizados en la detección de contaminantes, gases como el CO2 o incluso para el análisis de sangre como en el ejemplo mostrado en la figura 8.10. Por último, los láseres de fs han comenzado a ser utilizados en biomedicina, ya que por sus características pueden ser utilizados en micro y nanocirugía de tejidos y células. Un ejemplo relevante es el desarrollo de
Figura 8.9. Izquierda: los estents intravasculares permiten mantener abiertas las arterias y los vasos sanguíneos. Derecha: el empleo de pulsos láser ultracortos en la fabricación de estents biopolímeros permite alcanzar un elevadísimo nivel de reproducibilidad, con resolución mejor que 1 μm y obtener una gran calidad de acabado sin rebabas o microsurcos. Fuente: Abbott.
Láser de escritura
Canales m-fluídicos
Guía de onda
Muestra Fluorescencia
Láser de excitación
Figura 8.10. Izquierda: cristal fotónico fabricado mediante estereolitografía láser tridimensional utilizando un láser de ps. Derecha: idealización de un dispositivo tipo lab-on-a-chip fabricado a partir de un vidrio mediante escritura con láser de fs para el análisis mediante fluorescencia de muestras biológicas. Fotografías: Izquierda: cortesía de Boris N. Chichkov, Laser Zentrum Hannover e.V. y derecha: Roberto Osellame, Departamento de Física, Politécnico de Milán.
107
C000 luz 2015 (FERROS).indd 107
05/05/15 13:00
nuevas técnicas para el tratamiento de la miopía, que se espera sean menos invasivas que el LASIK. Para concluir debemos reseñar que aunque desapercibidos en muchas ocasiones, los láseres y sus interacciones con los medios materiales forman parte de nuestra vida cotidiana: la lectura de un código de barras en el supermercado,
la grabación de un DVD en nuestro ordenador, las soldaduras del coche que conducimos o la señal óptica multimedia que reciben muchos hogares (más allá de Internet) no serían posibles sin esa forma de luz tan especial que es el láser. El desarrollo de nuevos láseres y aplicaciones, en especial en el ámbito de los láseres de pulsos
Bibliografía Aboites, Vicente (1991): El láser, Fondo de Cultura Económica de España. Asociación de estudiantes OSAL (2010): El láser, la luz de nuestro tiempo, Univ. de Salamanca [http:// optica.usal.es/gioe/images/El_laser.pdf ]. Bäuerle, Dieter W. (2010): Laser Processing and Chemistry, Springer. Caamaño Ros, Aureli; Del Barrio Barrero, José Ignacio; Puente Azcutia, Julio y Agustench Masdeu, Montserrat: Física y Química. 1º Bachillerato, SM.
ultracortos, hará posible en los próximos años nuevos avances en cuanto a nuestra capacidad de procesar los materiales. Aunque estos procesos ya se caracterizan por su precisión, bajo consumo de recursos y energía, baja generación de residuos y versatilidad, lo mejor está aún por llegar…
Cuesta Arranz, Alberto y Gómez Rosas, Gilberto (2010): La tecnologia láser: aplicaciones industriales, 2ª edición, MARCOMBO. Hecht, Eugene (1999): Óptica, Editorial Addison-Wesley. Kittel, Charles: Introducción a la Física del Estado Sólido, 3ª edición, Reverte. Osselame, R.; Cerullo, G. y Raponi, R.: Femtosecond laser micromachining: photonic and microfluidic devices in transparent materials, Springer series Topics in Applied Physics, vol. 123, Springer. Tilley, Richard J. D. (2005): Understanding Solids: The Science of Materials, 2ª edicion, John Wiley & Sons.
108
C000 luz 2015 (FERROS).indd 108
05/05/15 13:00
Mar Gandolfo
9. Luz e iluminación 9.1. Introducción Desde el comienzo de la historia, cuando el hombre aprendió a controlar el fuego y realizar las primeras antorchas como luz portátil hasta llegar al estado actual de las fuentes de luz de última tecnología LED y OLED podemos recorrer cinco etapas importantes en el campo de la iluminación. La primera se caracteriza por el intento de conseguir una llama constante, que arda durante largos periodos de tiempo sin necesidad de prestarle mucha atención. Esto lo consiguieron en la Edad de Piedra con las lámparas de aceite y los romanos nos dejaron las velas entre muchos de sus legados. Muchos años tuvieron que pasar hasta que en el siglo XVIII el quemador tubular de Argand consiguió un
incremento importante en la emisión de la llama. Podemos indicar en este hecho el verdadero comienzo de la era de la tecnología del alumbrado. De la tercera etapa fueron testigos nuestros abuelos, hace tan solo algo más de un siglo. Se abandona la llama como fuente de luz a favor de los cuerpos sólidos incandescentes: la lámpara de gas con la camisa Auer y la lámpara eléctrica incandescente fueron dos grandes inventos. La cuarta etapa, en la segunda década del siglo XX, hace posible la generación de luz con muchísima menos generación de calor, mediante la lámpara de descarga, cuyo desarrollo sigue activo en la actualidad. Finalmente, desde hace aproximadamente 40 años, se está produciendo un avance espectacular 109
C000 luz 2015 (FERROS).indd 109
05/05/15 13:00
Figura 9.1. Izquierda: quemador tubular de Argand. Derecha: lámpara de gas con la camisa de Auer. Fotografías: Philips.
Figura 9.2. Izquierda: lámpara de descarga. Centro: fuente LED. Derecha: fuente OLED. Fotografías: Philips.
en la emisión de luz usando un diodo o, lo que es lo mismo, los LED y OLED (luz emitida por un diodo, en material inorgánico u orgánico). Según cómo se produce la luz, las fuentes de luz se dividirán en dos grandes grupos: incandescencia y descarga.
9.2. Generación de luz 9.2.1. Generación térmica o incandescencia Cuando se somete un cuerpo a calentamiento comienza a emitir energía de forma continua, es decir, emite todas y cada una de las longitudes de onda dentro de un rango determinado en función de la temperatura a la que se encuentra en cada momento. A partir
de cierta temperatura, las longitudes de onda emitidas son las que se encuentran en la parte visible del espectro electromagnético. El ejemplo más sencillo para entenderlo es pensar en un hierro puesto al fuego: tras un rato, nuestros ojos no perciben nada, pero si se acerca el hierro a la piel o a un objeto, quema. Ha comenzado a emitir energía en el infrarrojo donde nuestro ojo todavía no consigue ver, pero la energía emitida se percibe en forma de calor. Si se mantiene más tiempo ese hierro en el fuego se pone al “rojo vivo”, es decir, comienza a emitir energía en el visible, en la zona del rojo (las longitudes de onda más largas del espectro visible). Si se mantiene el hierro al fuego pasará sucesivamente del rojo a un naranja, amarillo, blanco, blanco brillante, blanco azulado. Puesto que la
110
C000 luz 2015 (FERROS).indd 110
05/05/15 13:00
Ley de desplazamien to de Wien: hay una relación entre la temperatura que adquiere el cuerpo y la longitud de onda donde se emite la mayor energía. Cuanto más caliente está el cuerpo emisor, más se desplaza la longitud máxima a colores más fríos.
UV
Radiation visible
IR
Ley de Stephan-Boltzmann 7.000 K 6.000 K
Potencia espectral relativa
temperatura a la que funde el hierro es de 1.808 Kelvin (K), los colores más fríos solo los podremos ver en un hierro que se ha hecho líquido. Lo que se puede observar es que conforme se incrementa la temperatura del hierro, este va emitiendo energía en longitudes de onda cada vez más cortas, componiendo luz blanca por la mezcla de todas y cada una de las longitudes de onda del espectro visible. Esto tendrá repercusiones en la capacidad de reproducir los colores. Mediante este método de generación de luz también se genera una gran cantidad de calor, pues para llegar a emitir luz estamos obligados a emitir las longitudes de onda más largas (IR), que son calor. Una lámpara incandescente o halógena funciona mediante este tipo de emisión de energía: se hace pasar una corriente eléctrica por un filamento de wolframio y como consecuencia el filamento se calienta; en función de la temperatura del filamento, se observa que el color de la lámpara va pasando de un amarillorojizo a un blanco dorado. El punto de sublimación del wolframio es de 3.660K; al alcanzar esta temperatura el wolframio pasa directamente de estado sólido a gas. Normalmente, las lámparas incandescentes trabajan a 2.800K y las halógenas entre 3.000K y 3.100K. Si lo hicieran a mayor temperatura, se fundirían demasiado rápido. A mayor
E = 5,669 · 10-8 · T4
5.000 K 4.000 K
Ley de desplazamiento de Wien 3.000 K
2,8978 · 10-3 l max = –––––––––––––– T
2.000 K
400
800
1.600
2.400
3.200
Longitud de onda (nm)
Figura 9.3. Ley de desplazamiento de Wien.
temperatura se obtiene más cantidad de luz, por lo tanto la eficacia es mejor y la luz es más blanca, pero también la velocidad de evaporación del wolframio es mayor, reduciendo, por tanto, su vida útil. En el caso de las halógenas la vida es mayor por el ciclo regenerativo del filamento.
Fuente: Philips.
9.2.2. Generación mediante descarga: descarga en gas En este caso, la generación de la luz se produce mediante la excitación de los electrones de los átomos de un gas encerrado en un tubo de descarga. Normalmente, este gas puede ser sodio o mercurio. En algunos casos al mercurio se le añade otro tipo de sales, como en el caso de los halogenuros metálicos. En este tipo de lámparas se va a producir una excitación de electrones 111
C000 luz 2015 (FERROS).indd 111
05/05/15 13:00
Nivel de ionización
PRINCIPIO DE DESCARGA EN GAS
Niveles energéticos [eV]
Gas (ej., vapor de mercurio)
Niveles excitados
Cátodo
Ánodo
Electrones Cargas positivas Nivel de equilibrio
Figura 9.4. Izquierda: saltos energéticos en una lámpara. Derecha: principios de descarga en gas. Fuente: Philips.
en los átomos del gas por medio de una diferencia de potencial entre los extremos del tubo en donde se encuentra encerrado dicho gas. Se establece una corriente eléctrica en el tubo de descarga; alguno de los electrones de esta, al chocar con los átomos del gas, puede ocasionar movimientos de electrones entre las diversas bandas energéticas del átomo. Si un electrón ha subido a una banda de energía superior, tenderá a volver a su banda para restablecer el equilibrio energético del átomo; en esta caída emitirá parte de la energía que adquirió en el choque. Dependiendo de la presión y tipo de gas, los saltos energéticos difieren en cada lámpara, determinando las longitudes de onda de la energía emitida y por tanto la distribución espectral de la fuente de luz.
9.2.3. Diodos emisores de luz Son fuentes de luz en las que esta se crea dentro de materiales en estado sólido. La emisión de luz se obtiene por la interacción de un campo eléctrico con el material sólido. El proceso físico se llama “electroluminiscencia”. Este fenómeno se descubrió ya en 1907 y el primer producto práctico basado en él se creó en 1962. El material sólido utilizado es un material semiconductor que, como los chips de diodos habituales, posee una estructura fundamental denominada unión p-n, lo que da lugar al nombre diodo emisor de luz o LED. El material n tiene un exceso de electrones, mientras al material p le faltan electrones: huecos de electrones. Si se aplica un voltaje a la unión p-n, los átomos se dirigen hacia la unión de los dos materiales, donde
electrones del material n caen en los huecos del material p. Así, los electrones van de un nivel de energía más alta a otro de menor energía y la diferencia de energía se emite en forma de luz. Todos los diodos emiten radiación electromagnética. El material semiconductor usado en los LED se selecciona de forma que emita en el intervalo visible. Materiales distintos producen luz con distintas longitudes de onda y distintos colores. Hasta mediados de los años noventa, los LED tenían un flujo luminoso bajo y poca eficacia, por lo que solo eran adecuados para lámparas de señalización. En la actualidad, la eficacia de los LED es comparable a la de las lámparas de descarga y el flujo luminoso de un solo LED puede ser mayor que el de una lámpara incandescente de 75 vatios.
112
C000 luz 2015 (FERROS).indd 112
05/05/15 13:00
Huecos
Nivel de energía superior
Electrones
ón
Fot
Tipo-p
n
Unión
Tipo-n
n LED está compuesto por una sección de material tipo N U enlazado con una sección de material tipo P.
ó ni
U
Nivel de energía inferior
Cuando se aplica una tensión al diodo los electrones se mueven desde el área tipo N hacia el área tipo P, y los huecos se mueven en sentido contrario comenzando así a fluir corriente a través de la unión; esto implica una caída desde la banda de conducción a una órbita más baja y así los electrones liberan energía en forma de fotones.
P-material Unión
N-material
Figura 9.5. Principio de funcionamiento de un diodo emisor de luz. Fuente: Philips.
Los LED pueden tener una vida útil de hasta 50.000 horas y se esperan nuevas mejoras que harán que los LED blancos tengan una eficacia de en torno a 15 veces la de las lámparas incandescentes. Puesto que el espectro de un solo LED es siempre estrecho, todavía no se pueden fabricar chips de LED blancos directamente. Un método habitual para obtener luz blanca consiste en combinar chips de LED rojos, verdes y azules en un solo módulo o sistema para producir luz blanca. Es una solución complicada, puesto que cada uno de los chips necesita su voltaje e intensidad y tener coherencia de color entre distintos productos es complicado. Se está investigando la fabricación de chips LED únicos con varias capas, cada una de las cuales produzca un color de luz concreto, de manera que un único LED
que genere luz roja, verde y azul produciría luz blanca. Otra solución posible para conseguir luz blanca es el uso de un chip de LED azul o ultravioleta junto con material fluorescente que convierte gran parte de la luz azul en luz de distintas longitudes de onda distribuida por casi todo el espectro visible. En la tecnología de LED ese material fluorescente se conoce como fósforo y, en consecuencia, el LED blanco basado en este principio se denomina “LED de fósforo blanco”. En la figura 9.7 se muestra la distribución espectral de la energía de un LED de fósforo blanco, donde se ve que la luz se emite ahora sobre prácticamente todo el espectro visible. Los LED están hechos de material semiconductor inorgánico; por su parte, los más recientes OLED están hechos de material semiconductor orgánico.
Figura 9.6. Distribución espectral típica de LED azules, verdes y rojos. Fuente: Philips.
Figura 9.7. Distribución espectral de un LED de fósforo blanco. Fuente: Philips.
113
C000 luz 2015 (FERROS).indd 113
05/05/15 13:00
9.3.1. La ‘apariencia de color’: temperatura de color
Fuentes de luz Generación térmica
Diodos emisores de luz
Descarga en gas
Incandescencia Aplicaciones especiales
LED
Halógenas OLED Baja presión
Sodio baja presión
Alta presión
Mercurio baja presión Halogenuros metálicos
Vapor de mercurio Inducción
Fluorescencia Halogenuros metálicos en quemador de cuarzo
Figura 9.8. Fuentes de luz según su principio de funcionamiento y las principales familias en las que se pueden dividir. Fuente: Philips.
Halogenuros metálicos en quemador cerámico
Sodio
Sodio alta
Sodio confort
Sodio blanco
A diferencia de los LED, que son fuentes puntuales, los OLED son superficies de luz. Al igual que los LED, se pueden fabricar de muchos colores distintos. Su eficacia es menor que la de los LED, aunque el tamaño de los paneles OLED que se fabrican está aumentando rápidamente, lo mismo que su eficacia.
9.3. Características de las fuentes de luz Hay una serie de características fundamentales de las fuentes de luz que se deben conocer.
Hace referencia al color de la luz que emite. La luz blanca que produce una lámpara puede variar desde tonalidades cálidas a frías, definidas así en función de las sensaciones psicológicas que nos producen. En las fuentes de luz incandescentes, la temperatura de color de la luz está estrechamente relacionada con la temperatura física del filamento (medida en Kelvin). Al variar la temperatura del filamento varía también la apariencia de la luz. Cuanto más baja es la temperatura del filamento más cálida o dorada nos parece la luz, mientras que al aumentar la temperatura la luz nos resulta más fría o azulada. En las lámparas de descarga no hay filamentos, por tanto la temperatura de color no puede venir determinada por una temperatura física real. Se establece la “temperatura de color correlacionada”, que se obtiene por comparación con una fuente incandescente o cuerpo negro que tenga la misma apariencia de color que la lámpara de descarga que se esté analizando. Con frecuencia se piensa que una vez elegida la temperatura de color, la impresión de color queda totalmente determinada, pero en realidad no es así. Debe seleccionarse también la capacidad de reproducir los colores de la fuente de luz.
114
C000 luz 2015 (FERROS).indd 114
05/05/15 13:00
Blanco cálido, 2.700 K
9.3.2. Índice de reproducción cromática (IRC o Ra) Es el efecto que una fuente luminosa produce sobre el aspecto cromático de los objetos que ilumina, por comparación con el aspecto que estos tendrían con un iluminante de referencia, es decir, es la capacidad que tiene la fuente de devolvernos la realidad de los colores que ilumina, tomando como referencia el color obtenido con una fuente patrón. Esta capacidad se cuantifica con el índice de reproducción cromática (índice IRC o Ra). La temperatura de color y el índice de reproducción cromática son parámetros completamente independientes. Como ejemplo sirva pensar en la diferencia entre la luz solar y una lámpara incandescente. Ambas tienen una reproducción cromática excelente, puesto que en su espectro se
Blanco neutro, 4.000 K
encuentran todos y cada uno de los colores, pero la apariencia de color es distinta, ya que en el caso de la luz solar su temperatura de color al mediodía es fría, mientras que la de las lámparas incandescentes es cálida, por lo que producen diferentes sensaciones sobre los espacios y objetos iluminados. La mayoría de las lámparas de descarga tiene un espectro discontinuo, es decir, su espectro no contiene todos los colores. En función de los colores que contiene el espectro, la reproducción del color puede ser desde muy deficiente, como en el caso de las lámparas de sodio a baja presión, hasta excelente, como es el caso de las lámparas fluorescentes de pentafósforos o de la familia de halogenuros metálicos cerámicos, o algunos LED. El índice de reproducción cromática (Ra) y la temperatura de color vienen indicados según la Normativa Europea
Blanco frío, 6.500 K
Figura 9.9. Tipos de temperatura de color. Fuente: Philips.
115
C000 luz 2015 (FERROS).indd 115
05/05/15 13:00
IRC: Índice de reproducción cromática
Tc: Temperatura de color
El primer dígito, el 8, indica que el Ra de la lámpara es superior a 80 y si es un 9 que el Ra de la lámpara es superior a 90. Lo que significa que los colores de los objetos iluminadores con este tipo de luz serán muy próximos a los que se verían bajo una luz natural de la misma temperatura de color. El índice de reproducción cromática se obtiene como una nota de exámen de los 8 o 14 colores muestra. Un Ra 100 significa que todos los colores reproducen perfectamente. Conforme se aleja del valor 100 cabe esperar mayor dispersión sobre todos los colores. En función del valor de Ra podemos esperar la siguiente fiabilidad.
Los dos siguiente dígitos: 40 o 30 hacen referencia a la temperatura color (tc) de la lámpara, si se le añaden dos ceros, indican que esta lámpara tiene una temperatura de color de 4.000 K o de 3.000 K respectivamente.
Ra < 60 pobre
Se pueden dividir las fuentes de luz en: Blanco cálido (Tc < 3.300 K) Blanco neutro (3.3000 < Tc < 5.000 K) Blanco frío (Tc > 5.000 K)
60 < Ra < 80 bueno 80 < Ra < 90 muy buena 90 < Ra < 100 excelente
Tabla 9.1. Máster TL-D Super 80 36W/840 o Máster C CDM-T 70W/930.
por el código que aparece tras la potencia en la nomenclatura de una lámpara tanto de fluorescencia como de descarga compacta. 9.3.3. Vida de las fuentes de luz Existen varias formas de definir la vida de una lámpara o de un conjunto de lámparas incluidas en una instalación de alumbrado, entre las que pueden destacarse las siguientes: • Vida individual: número de horas de encendido después del cual una determinada lámpara muere. • Vida media: valor medio estadístico que resulta del análisis y ensayo de una determinada población de lámparas trabajando en condiciones de laboratorio. Se define como el tiempo transcurrido hasta que falla el 50% de las
lámparas de un lote representativo trabajando en las condiciones específicas de laboratorio. La metodología de ensayo incluye siempre un ciclo de conmutación, que varía de acuerdo con el tipo de lámpara y que está relacionado con las condiciones de trabajo previstas. La variación de estos ciclos en las aplicaciones donde estén instaladas las lámparas puede hacer aumentar o disminuir la vida proporcionada por el fabricante. • Vida útil: es el dato que determina los periodos de reposición. Se fija estudiando las curvas de depreciación de flujo luminoso y de supervivencia. Normalmente se fija cuando las pérdidas entre las dos curvas suman un 20% o un 30%. 9.3.4. Eficacia luminosa La eficacia de una fuente de luz es el cociente entre el flujo luminoso emitido por la fuente dividido por los vatios consumidos por la misma (lumen por vatio, lm/W). La eficacia luminosa, por tanto, va a estar determinada por la capacidad de convertir electricidad en radiación electromagnética dentro del espectro visible, pero también por su distribución espectral, es decir, la cantidad de luz emitida en cada color,
116
C000 luz 2015 (FERROS).indd 116
05/05/15 13:00
Figura 9.10. Iluminación del Alcázar de Toledo. Fotografía: Philips.
puesto que la conversión a lúmenes viene determinada por la sensibilidad espectral del ojo humano.
9.4. Unidades y magnitudes luminotécnicas ¿Por qué se usan unidades especiales en iluminación? En iluminación se ha adoptado un conjunto de conceptos y medidas que no tienen relación directa
con los utilizados en otros campos de la física. La principal razón para ello es que las unidades de iluminación tienen que tener en cuenta el contenido de energía de la radiación y la sensibilidad del ojo humano a dicha radiación. El flujo luminoso expresa la cantidad total de energía emitida por segundo ponderada respecto a la sensibilidad espectral del ojo humano. Esto es debido a que la capacidad del ojo humano
de enviar información al cerebro es diferente en función del color que produce el estímulo. En esta curva, denominada curva V(l), la sensibilidad relativa del ojo se considera una función de la longitud de onda. La unidad del flujo luminoso es el lumen (lm) y su símbolo es F. El flujo luminoso se usa para especificar la cantidad total de luz emitida por una lámpara, pero no específica en que direcciones se irradia la luz. 117
C000 luz 2015 (FERROS).indd 117
05/05/15 13:00
1,0
Figura 9.11. Curva de sensibilidad espectral del ojo humano para visión fotópica.
1 Vatio radiado en 555nm = 683 lm
Fuente: Philips.
Sensibilidad relativa del ojo
0,8 V (l)
0,6
0,4 555 nm 0,2
0
400
500
600
700
800
Longitud de onda [nm] Con niveles de luz diurna, el ojo es unas 20 veces más sensible a luz con una longitud de onda de 550 nm (amarillo verde) que a longitudes de onda de 700 nm (rojo oscuro) o 450 nm (violeta azul).
Figura 9.12. Intensidad luminosa. Fuente: Philips.
La intensidad luminosa es el flujo luminoso radiado por una fuente de luz en una dirección específica. Se define como el cociente del flujo luminoso emitido por una fuente de luz y el ángulo sólido que contiene la dirección de emisión. Es un concepto que expresa la concentración de luz en una dirección concreta.
Se representa normalmente bajo el símbolo I. La intensidad luminosa se expresa en candelas (cd). En las lámparas reflectoras la magnitud que informa sobre la cantidad de luz irradiada por la lámpara es la intensidad luminosa y no el flujo, ya que el reflector hace que la luz se emita en una dirección determinada. El ángulo sólido (w en figura 9.12) determina el grado de concentración de la luz irradiada. Un haz estrecho con un ángulo sólido pequeño concentrará la luz en una dirección muy concreta, conforme se aumente este ángulo la luz se concentrará menos. Los haces anchos se suelen utilizar para alumbrado general o iluminación a corta distancia, mientras que los haces estrechos se emplean en alumbrado de acento o cuando la
distancia a la superficie u objeto que se quiere iluminar es grande. La iluminancia (E) es la cantidad de luz, o flujo luminoso F, que llega a una superficie. La unidad es el lux, que equivale a un lumen de luz incidente por metro cuadrado de la superficie que recibe la luz. E=F / A La iluminancia media Emed sobre una superficie es igual al flujo luminoso (Finc) que incide sobre la superficie dividido por el área (A) de la superficie. Si un flujo luminoso de 10.000 lm incide sobre una superficie con un área de 12 m2, la iluminancia media será: Emed = 10.000lm/12m2 = 833 lux. La luminancia (L) de un objeto o superficie que emite luz es la intensidad luminosa (I) emitida por unidad de área (aparente) de esa superficie, en una dirección determinada. La unidad es candela por metro cuadrado (cd/m2). L = I / A aparente
118
C000 luz 2015 (FERROS).indd 118
05/05/15 13:00
Lo que percibimos de superficies iluminadas como libros, paredes o carreteras no es la luz que incide sobre ellas, sino la luz que se refleja desde ellas. Dicho de otro modo, lo que “vemos” no son iluminancias, sino luminancias o, más exactamente, variaciones de luminancia en el campo de visión. En consecuencia, es la magnitud más importante en la ingeniería de iluminación, si bien las otras tres (flujo luminoso, intensidad luminosa e iluminancia) suelen ser más fáciles de manejar al realizar cálculos o mediciones.
ILUMINANCIA [LUX] VALORES TIPOS
ILUMINANCIA [cd/m2] VALORES TIPOS
Un día soleado
100.000 lux
Superficie del sol Filamento
Cielo cubierto
5.000 lux
incandesdente
Cielo cubierto Oficinas
500-750 lux Fluorescente
Salón hogar
1.650 Mcd/m2
7.000.000 cd/m2
2.000/8.000 kcd/m2 5.000-15.000 cd/m2
50-100 lux Mesa despacho
Noche luna llena
0,25 lux
Calzada (calle)
100 cd/m2
0,5-2,0 cd/m2
Figura 9.13. Valores de luminancia típicos. La iluminancia sobre un punto de un plano perpendicular a la dirección de la incidencia de la luz equivale a la intensidad luminosa en la dirección del punto dividida por el cuadrado de la distancia entre la fuente de luz (puntual) y el punto en cuestión Por ejemplo, si una fuente de luz de puntual emite una intensidad luminosa de 100 cd en dirección perpendicular a una superficie a una distancia de 1 metro, la iluminancia E en el punto en que la luz toca la superficie será 100/1 = 100 lux. Si la superficie está a una distancia de 3 metros de la fuente de luz, la iluminancia será: 100/9 = 11,11 lux.
11 lux
25 lux
100 lux
Fuente: Philips.
100 cd r=1m
r=2m
r=3m
I Ley de la inversa del cuadrado: E = ––– r2
Figura 9.14. Ley de la inversa del cuadrado. Fuente: Philips.
La iluminancia sobre un punto de un plano no perpendicular a la dirección de la incidencia de la luz equivale a la intensidad luminosa en la dirección del punto dividida por el cuadrado de la distancia entre la fuente de luz y el punto en cuestión, multiplicado por el coseno del ángulo que forma la dirección de la luz incidente con la normal perpendicular al plano. 9.14. Ley deuna inversa del cuadrado. Si una fuente Figura de luz puntual emite intensidad luminosa de cedida porpunto Philips.sobre una superficie a 3 1.200 cd en laImagen dirección de un metros de distancia y la luz llega la superficie con un ángulo de 60º respecto a la normal de la superficie, la iluminancia (Ep) en ese punto será igual a: (1.200 / 32) x cos (60º) = 67 lux.
0º 30º
q 100% 87%
60º 50% 85º
9%
Ley del coseno: Eq = E * cos (q)
Figura 9.15. Ley del coseno. Fuente: Philips.
119
C000 luz 2015 (FERROS).indd 119
05/05/15 13:00
Figura 9.16. Iluminación del acueducto de Noain. Fotografía: Philips.
120
C000 luz 2015 (FERROS).indd 120
05/05/15 13:00
9.5. Calidad de la iluminación En las normas UNE-EN 12464-1 y UNE-EN 12464-2 se recogen los principales criterios de calidad del alumbrado para iluminación en lugares de trabajo para interior y exterior respectivamente. La calidad de la iluminación proporcionada por una instalación se puede describir principalmente mediante los siguientes parámetros. 9.5.1. Nivel de iluminación La capacidad visual para realizar una cierta tarea depende del tamaño de la tarea, la velocidad en caso de estar en movimiento, la edad del observador, del contraste y del nivel de iluminación. Por ello, para las diversas tareas las normas especifican niveles de iluminación mínimos mantenidos por debajo de los cuales no debería encontrarse la instalación. Niveles de iluminación inferiores a los recomendados pueden causar cansancio visual y errores en las tareas a realizar. 9.5.2. Distribución de luminancias Nuestro entorno visual está formado por diversos patrones de luminosidad y color, por lo que disponer de un nivel de iluminación adecuado no es suficiente para garantizar el correcto funcionamiento del ojo. Como lo que 121
C000 luz 2015 (FERROS).indd 121
05/05/15 13:00
Figura 9.17. Iluminación Rijksmuseum, Ámsterdam, Países Bajos. Fotografía: Philips.
nosotros vemos es la luz que los objetos reflejan en nuestra dirección de mirada y no la luz presente en el espacio, en el diseño de una iluminación es importante tener en cuenta cómo se distribuye la luz en el espacio, pero también cuáles son los efectos de reflexión de las superficies y objetos a los que llega la luz. En general, trabajar con superficies mates en lugar de especulares proporcionará un mayor confort visual; además, para asegurar un balance equilibrado de brillos en las áreas de visión deberemos atender a que las superficies del local no sean ni demasiado claras ni demasiado oscuras. Si el nivel de iluminación medio mantenido y las uniformidades son adecuados para garantizar un balance confortable de luminancias o brillos
en el campo de visión, se establecen criterios de factores de reflexión en las superficies del local: techo: 0,6-0,9; paredes: 0,3-0,8; planos de trabajo: 0,2-0,6; suelo: 0,1-0,5. 9.5.3. Control del deslumbramiento El deslumbramiento es una sensación incómoda creada por un contraste elevado en las luminancias dentro del campo visual con relación a la luminancia de adaptación. El deslumbramiento, que puede estar motivado por luminarias brillantes, puede tener un efecto incapacitante, un efecto incómodo o ambos. Cuando se realiza un proyecto de iluminación se debe tener en cuenta tanto las posibles molestias de
deslumbramiento directo, es decir, que desde una posición de observación normal se pueda ver la fuente de luz luciendo o brillos directos desde la luminaria, como los posibles deslumbramientos causados por reflexiones, el más común puede ser el producido por una pantalla de ordenador. Las normas indicadas anteriormente proporcionan límites a estos posibles deslumbramientos. 9.5.4. Sombras y modelado La capacidad de modelado, es decir, la posibilidad de revelar forma y textura, es importante para proporcionar una sensación agradable con un proyecto de iluminación, siendo esencial para ver el mundo en tres dimensiones. Nos
122
C000 luz 2015 (FERROS).indd 122
05/05/15 13:00
Figura 9.18. Iluminación Puente Romano de Córdoba. Fotografía: Philips.
permite reconocer rasgos y tener una buena comunicación entre las personas. Podemos conseguirlo haciendo llegar la luz a un objeto o persona desde más de una dirección y proporcionando intensidades distintas desde cada dirección. Pero si este efecto direccional es demasiado fuerte, puede llegar a ocasionar sombras confusas e incluso impedir el reconocimiento. Si la luz es demasiado difusa, es decir, llega desde muchas direcciones pero en todas por igual, el modelado es demasiado ligero y tendremos la sensación de falta de relieve. 9.5.5. Color de la luz La distribución espectral de la radiación visible emitida por una fuente de luz
determina la capacidad de reproducción del color de la fuente y la impresión del color, o apariencia del color, que se obtiene al mirar a la fuente. Estas dos características tienen gran importancia en cuanto a la calidad de la iluminación, ya que determinan la impresión del color que se recibe de una escena iluminada. 9.5.6. Reproducción del color La reproducción del color adecuada es importante cuando los objetos se deben ver con sus colores “verdaderos”. Todas las recomendaciones y normas, nacionales e internacionales, especifican valores mínimos del índice general Ra de reproducción del color para muchos usos de iluminación de interiores y exteriores.
9.5.7. Temperatura de color Dado que el tono de la luz blanca (es decir, la apariencia del color) se considera a menudo una cuestión de gusto, solo unas cuantas recomendaciones y normas especifican temperaturas de color concretas. Con todo, cuando se tiene en cuenta la influencia de la iluminación en la salud, la temperatura de color de la instalación de iluminación puede ser esencial. En ocasiones puede ser aconsejable que haya iluminación dinámica, es decir, en la que el nivel de iluminación y la temperatura de color cambian con el transcurso del tiempo. 123
C000 luz 2015 (FERROS).indd 123
05/05/15 13:00
Figura 9.19. Iluminación de “la Cosa” en la antigua serrería belga, hoy MediaLab. Fotografía: Philips.
124
C000 luz 2015 (FERROS).indd 124
05/05/15 13:00
Juan Diego Ania Castañón y Pedro Corredera Guillén
10. Luz y comunicación 10.1. Telecomunicación visual y óptica desde la prehistoria Antes de la invención del lenguaje escrito, las únicas herramientas de comunicación a larga distancia disponibles para los seres humanos fueron aquellas que sus propios cuerpos proveían. Así, el alcance de nuestros tres sentidos “remotos” —el olfato, el oído y la vista— y las posibilidades de procesado de información del cerebro definían claramente los límites de alcance y capacidad de los primitivos sistemas de comunicación. En condiciones idóneas —línea directa de visión, iluminación adecuada— y sin ayudas externas, la vista, basada en la recepción de señales, como los gestos o las imágenes del propio cuerpo, o de forma más
sofisticada y a más distancia señales luminosas, es el sentido que permite una comunicación más rápida y lejana, y por tanto debió de resultar natural para el hombre primitivo buscar métodos que permitieran optimizar su uso para el envío de mensajes. Así, se sospecha que ya el hombre de Neanderthal pudo utilizar señales de humo y hogueras para la transmisión de mensajes básicos a muchos kilómetros de distancia, advirtiendo a sus congéneres de la presencia de peligros o fuentes de alimento. Dada la naturaleza efímera de las señales de humo resulta imposible verificar su uso antes de las primeras referencias escritas a ellas. Homero, en el siglo VIII a.C., se refiere a ellas en la Ilíada: “Como se ve desde lejos el humo que, saliendo de una isla donde se halla una ciudad sitiada por los enemigos, llega al éter, cuando sus habitantes, 125
C000 luz 2015 (FERROS).indd 125
05/05/15 13:00
Figura 10.1. Sistema básico de comunicación. Fuente: Pedro Corredera.
después de combatir todo el día en horrenda batalla, fuera de la ciudad, al ponerse el sol encienden muchos fuegos, cuyo resplandor sube a lo alto, para que los vecinos los vean, se embarquen y les libren del apuro [...]”. Inicialmente, la complejidad de los mensajes transmitidos visualmente era muy básica, y estaba limitada por el código disponible —a menudo constreñido a “encendido” o “apagado”—, pero el uso de múltiples hogueras como faros o balizas separadas entre sí tanto como la vista alcanzaba permitía enviar estos mensajes a grandes distancias. Así, está documentada la transmisión de señales de alerta a lo largo de 750 kilómetros en la Gran
Muralla China en el siglo III a.C. Con el tiempo, la presencia de la escritura como forma de codificar y preservar la información propició la aparición de otras tecnologías competidoras o complementarias que permitían enviar mensajes complejos a largas distancias, si bien con menor rapidez. De este modo, al mismo tiempo que el hombre domesticaba palomas mensajeras, las comunicaciones basadas en la luz, impulsadas por la necesidad y la competencia, se volvían más sofisticadas. De esta época datan también los sistemas de semáforos hidráulicos, descritos por Eneas Tacticus en el siglo IV a.C., así como los primeros sistemas de señalización marítima con estandartes o banderas y los primeros heliógrafos o telégrafos solares, que utilizaban el reflejo de la luz del sol en escudos u objetos de metal para enviar señales sin necesidad de hogueras. El heliógrafo viviría mucho después una segunda juventud al ser reinventado en la era moderna por Carl Friedrich Gauss con un diseño basado en espejos. Su uso se generalizaría como parte del equipamiento común en multitud de ejércitos a partir del siglo XIX de nuestra era con la invención del código Morse, desarrollado inicialmente para codificar las señales enviadas a través del telégrafo eléctrico. Los sistemas de balizas continuaron en uso durante más de un milenio, y, en
126
C000 luz 2015 (FERROS).indd 126
05/05/15 13:00
el siglo IX, el Imperio bizantino utilizaba una red de torres espaciadas entre 50 y 100 kilómetros para enviar mensajes a través de 720 kilómetros desde la frontera con el califato Abbasid hasta el Faro de Constantinopla. El sistema de codificación incluía un sofisticado sistema de relojes de agua (clepsidras) sincronizados en origen y destino, de modo que la iluminación de una hoguera tenía diferente significado según su hora de encendido. Los medios de comunicación ópticos permanecerían prácticamente sin cambios desde el siglo IX hasta finales del siglo XVII. En 1684, Robert Hooke elaboraría de forma teórica, en una brillante presentación para la Royal Society británica, las bases de un sistema de líneas de semáforos hidráulicos, como el mostrado en la figura 10.2, para transmitir mensajes complejos a larga distancia, pero no sería hasta 1792 que los hermanos Chappe, ingenieros hidráulicos franceses, pondrían en marcha un sistema de estas características, creando la primera red de comunicación óptica o visual, que llegó a tener, durante las guerras napoleónicas, 556 estaciones que cubrían una distancia de 4.800 kilómetros. La capacidad de este sistema era de aproximadamente un símbolo por minuto, dependiendo de las condiciones atmosféricas, con una constelación de símbolos igual al alfabeto completo más los números del 1 al 10.
Un magnífico ejemplo de sofisticación puede encontrarse en el sistema de codificación alfabético de las fryktorias, inventado por los ingenieros griegos Kleoxenis y Dimoklitos en el siglo II a.C. Las fryktorias eran torres o faros de comunicación establecidos en islas del mar Egeo —estos faros existían previamente, conservándose hoy en día algunos del siglo VI a.C.—, que tuvieron importancia estratégica en las guerras médicas. El sistema utilizaba dos hileras de cinco antorchas. El encendido independiente de entre 1 y 5 antorchas de cada una de las dos hileras permitía codificar el alfabeto griego al completo de forma matricial. Así, dos antorchas iluminadas en la primera hilera y tres en la segunda darían como resultado la letra µ (mu). De este modo, y utilizando fryktorias intermedias como repetidores, era posible enviar mensajes complejos a grandes distancias de forma muy rápida y con la seguridad que ofrecía un inmediato acuse de recibo, algo que otros sistemas de comunicación basados en el correo (ya fuera personal o con aves mensajeras) no podía garantizar. 1
2
3
4
5
1
α
β
γ
δ
ε
2
ζ
η
θ
ι
κ
3
λ
μ
ν
ξ
ο
4
π
ρ
σ
τ
υ
5
φ
χ
ψ
ω
Cuadro 10.1. Fryktorias.
En el siglo XIX, con las invenciones del telégrafo y del teléfono, el mundo de las telecomunicaciones vivió una revolución sin precedentes. La superior capacidad y fiabilidad de los sistemas basados en la transmisión de señales eléctricas relegó a los sistemas ópticos al olvido durante casi 100 años. Entre las invenciones abandonadas más brillantes destaca el fotófono, creado por Charles Sumner Tainter y Alexander Graham Bell en 1880. 127
C000 luz 2015 (FERROS).indd 127
05/05/15 13:00
Figura 10.2. Semáforo hidráulico con su alfabeto. Fuente: Roberts Library, Toronto.
El fotófono fue el primer sistema moderno de transmisión de señales de alta capacidad sin cables, y permitía conversaciones telefónicas a distancias de cientos de metros. Las vibraciones de la voz se utilizaban para modular el brillo de un haz de luz reflejado, que se transformaba de nuevo en vibraciones en el receptor mediante el uso de algún tipo de transductor, mecánico o eléctrico. Los desarrollos más avanzados del fotófono incluyeron los primeros transductores de señales ópticas a eléctricas, basados en el uso de células fotoeléctricas de selenio. Pese a lo extraordinario de la tecnología empleada, esta invención quedó pronto eclipsada por la irrupción de la radio.
10.2. Guiando la luz
Figura 10.3. El fotófono de Tainter y Bell. Fuente: Universidad de Sevilla.
Entre 1840 y 1841, Jacques Babinet, un especialista en óptica francés, y Daniel Colladon, catedrático en la Universidad de Ginebra, demostrarían de forma independiente el fenómeno que, un siglo más tarde, terminaría por abrir la puerta a las comunicaciones por fibra óptica.
128
C000 luz 2015 (FERROS).indd 128
05/05/15 13:00
Babinet, utilizando tubos de vidrio, y Colladon, enfocando luz solar con un sistema de lentes sobre un tanque de agua y conduciéndola después hasta su mesa utilizando el propio líquido, mostraron por primera vez la posibilidad de guiar la luz a través de un medio de transmisión mediante el fenómeno conocido como reflexión interna total. Esta se produce cuando un rayo de luz alcanza la frontera entre el medio en el que se estaba propagando (por ejemplo, el agua) y un medio con un índice de refracción más bajo (en el que la luz se propaga más deprisa, como el aire). Si el ángulo con el que la luz incide en esa frontera es menor que un cierto ángulo, conocido como ángulo crítico, el rayo de luz se refleja completamente, quedando confinado en el medio inicial. El ángulo crítico se calcula fácilmente a partir de la ley de Snell, obteniéndose para el mismo la siguiente expresión: n2 q = arcsen –––– n1
( )
donde n1 y n2 son los índices de refracción del medio de propagación y el medio exterior, respectivamente, mientras que arcsen es la función arco seno. El índice de refracción de un medio es un coeficiente que indica cuán rápido la luz se propaga en dicho medio. Cuanto mayor es n, menor es la
velocidad de la luz en ese medio (en el aire, n ≈ 1, mientras que en un vidrio n ≈ 1,5, y en el agua n ≈ 1,33). Durante décadas, los experimentos de Colladon y Babinet no sirvieron para mucho más que para crear fuentes de colores, como las de la Exposición Universal de París en 1900, o efectos especiales para espectáculos operísticos. Hubo, no obstante, visionarios como William Wheeler, un ingeniero norteamericano, que propuso a finales del siglo XIX utilizar un sistema de tuberías para el transporte de luz en las ciudades a lugares de difícil acceso para
Figura 10.4. Luz confinada en un chorro de agua. Fotografía: IOSA.
129
C000 luz 2015 (FERROS).indd 129
05/05/15 13:00
la iluminación por gas. Su idea quedaría pronto eclipsada por la invención de la primera bombilla comercialmente viable por parte de Edison. Poco a poco, sin embargo, el guiado de la luz a través de tubos de vidrio fue implantándose en el mundo de la medicina. El uso de tubos de vidrio permitía iluminar muestras de microscopio o llevar la luz a zonas de difícil acceso para la realización de operaciones quirúrgicas o tratamientos dentales. En 1930, Heinrich Lamm, un estudiante de medicina en Alemania, ideó y creó el primer gastroscopio. Lamm propuso que un haz flexible de fibras de vidrio podría ser adecuado para observar el interior del cuerpo humano, y en particular para estudiar enfermedades gastrointestinales. Las fibras de vidrio, tubos de vidrio extremadamente delgados, no eran desconocidas en aquellas primeras décadas del siglo XX. Habían demostrado su utilidad en la industria de la confección, la elaboración de vendajes o la fabricación de aislantes, pero nunca habían sido consideradas como una opción para el guiado de la luz, dado su pequeño grosor. El ascenso al poder en Alemania del partido nazi obligó a Lamm, de origen judío, a huir a los Estados Unidos y abandonar su investigación. En los años cincuenta, Abraham van Heel, presidente de la Comisión Internacional para la Óptica (ICO), y
Brian O’Brien, presidente de la Sociedad Americana de Óptica (OSA), así como de forma independiente Møller Hansen, un joven inventor danés, propusieron crear fibras ópticas con salto de índice de refracción entre el núcleo y el revestimiento, en las cuales la frontera para la reflexión total interna se encontrase en el interior de la fibra y no en su borde exterior, para reducir las pérdidas en el guiado y mejorar el diseño de gastroscopios capaces de captar imágenes del interior del cuerpo humano. Los diseños de las fibras continuarían mejorando a lo largo de los años cincuenta, impulsados en parte por el interés de las agencias de inteligencia durante la guerra fría, que consideraban su uso para la criptografía de imágenes. Al mismo tiempo, el éxito en la implantación del teléfono y la radio en todo el mundo había dado lugar a una enorme y siempre creciente demanda de capacidad en los sistemas de transmisión de información, basados en señales eléctricas o de microondas. Aunque se comenzaban ya a considerar alternativas basadas en la transmisión de frecuencias más altas (luz visible o infrarroja), la ausencia de una fuente coherente, capaz de emitir frecuencias puras y fácilmente modulable, representaba una barrera infranqueable.
10.3. La fibra óptica y la irrupción del láser La invención del láser en 1960, gracias principalmente al trabajo de Townes, Schawlow y Maiman, iba a cambiar radicalmente las reglas del juego. Con la aparición de una fuente ideal para generar señales ópticas de gran capacidad, las grandes compañías de comunicaciones se lanzaron a buscar una guía óptica capaz de transmitir estas señales a largas distancias. Inicialmente, la NASA y las fuerzas aéreas estadounidenses plantearon la posibilidad de utilizar el láser para las comunicaciones a través de la atmósfera. Aunque la idea nunca se abandonó del todo, pronto quedó claro que la capacidad de estos sistemas (el número de bits de información que podían transmitir por segundo sin errores) nunca podría ser elevada debido a la influencia de las condiciones atmosféricas (nieve, lluvia, niebla…). Buscando el medio idóneo, Antoni Karbowiak, que trabajaba para la empresa americana AT&T en el Reino Unido, realizó un estudio sistemático de las guías de luz disponibles, llegando a la conclusión de que tan solo las fibras ópticas, que hasta entonces se habían desarrollado en el contexto médico y militar, tenían el potencial para realizar esta tarea. Cuando Karbowiak aceptó un puesto universitario en Australia, la tarea de
130
C000 luz 2015 (FERROS).indd 130
05/05/15 13:00
Figura 10.5. Fibras ópticas con conectores. Fuente: Juan Diego Ania.
explorar y superar las limitaciones de las fibras ópticas recayó en dos jóvenes ingenieros del equipo de Karbowiak: Charles Kao y George Hockam. Las fibras ópticas con que contaban Karbowiak, Kao y Hockam distaban mucho de ser las guías de onda casi ideales que conocemos hoy en día. Pese a los avances realizados en las primeras décadas del siglo XX, las fibras presentaban dos inconvenientes importantes para la transmisión eficiente de información codificada en forma de luz: la poca transparencia del vidrio de que estaban compuestas, que
reducía la distancia a la cual podía enviarse la información, y la presencia de varios modos guiados simultáneos, cada uno con velocidades de propagación ligeramente diferentes (lo que se conoce como dispersión modal), que imponía un límite a la capacidad máxima de transmisión. En las comunicaciones por fibra óptica, la forma más común de codificar información consiste en utilizar un código binario, en el cual la presencia de luz indica un 1 y la ausencia de luz un 0. A cada 1 o 0 se lo denomina un bit de información. Con este tipo de
codificación, la información viaja en forma de pulsos de luz a través de la fibra. Si parte de la luz se propaga más rápido o más despacio que el resto (dispersión), esos pulsos de luz van aumentando su duración al propagarse, lo cual hace que los ceros terminen por desaparecer, destruyéndose el mensaje inicial. Cuanto más corta sea la duración de los 1 y 0, mayor será la capacidad del sistema, al poder enviarse más bits en menos tiempo, pero también más susceptibles serán estos bits a ser borrados por efecto de la dispersión. Karbowiak y Kao descubrieron que utilizar fibras cilíndricas, reducir su 131
C000 luz 2015 (FERROS).indd 131
05/05/15 13:00
Dependiendo de las dimensiones, la geometría y los índices de refracción de una guía de onda, existen ciertas distribuciones de intensidad del campo electromagnético, ciertas formas que el haz de luz toma en el interior de la guía, que son incapaces de propagarse. Aquellas que, por contra, pueden transmitirse a través de la guía, se conocen como modos guiados. Las primeras fibras ópticas admitían más de un modo de propagación. La figura muestra la amplitud del campo eléctrico para varios modos guiados en una fibra con salto de índice.
Cuadro 10.2. Modos guiados.
radio a unas pocas micras y añadir una capa exterior de mayores dimensiones e índice de refracción ligeramente menor al del núcleo interno permitía limitar el número de modos guiados por la fibra a tan solo uno. De ese modo, la capacidad de la fibra aumentaba considerablemente.
El otro problema, aparentemente insalvable, era el de la poca transparencia de las fibras de vidrio. Incluso en las mejores fibras de vidrio, el 99% de la luz se absorbía o se perdía al cabo de tan solo 20 metros. Sin embargo, Kao y Hockam demostraron, tras un exhaustivo trabajo, que la transparencia podía mejorarse drásticamente eliminando las impurezas en el proceso de fabricación de las fibras. Sus mejores predicciones (que las fibras perderían un 99% de la luz cada kilómetro) se quedaron cortas. Las fibras actuales pierden menos de un 5% de la luz en cada kilómetro. En 2009, se reconoció la importancia del trabajo de Kao (Hockam ya había fallecido) con el Premio Nobel de Física. La mejora de la pureza y del diseño de las fibras ópticas a los sesenta y setenta, y la invención del láser de semiconductor, cuya intensidad podía controlarse fácilmente a través de corrientes eléctricas, dieron un impulso definitivo a las comunicaciones a través de fibra óptica. En los años ochenta vivieron un rápido desarrollo, impulsado por importantes avances en la fabricación de fibras ópticas de vidrio (esencialmente realizadas con arena de sílice) en Japón y Estados Unidos. Al mismo tiempo, la longitud de onda preferida para transmitir información se desplazó de forma natural desde la luz visible hacia la infrarroja, en la cual las fibras presentaban la menor atenuación.
132
C000 luz 2015 (FERROS).indd 132
05/05/15 13:00
En la actualidad, varias compañías multinacionales desarrollan fibras optimizadas para comunicaciones a larga distancia que permiten enviar señales a distancias de más de 100 kilómetros sin necesidad de repetidores o amplificadores.
10.4. Sistemas actuales de comunicaciones ópticas. Codificación, transmisión y recepción Una red de comunicación a través de fibra óptica es un sistema extraordinariamente complejo, con multitud de componentes optoelectrónicos que permiten transmitir señales entre un emisor y un receptor situados en dos puntos cualesquiera de la red. La espina dorsal de estas complejas redes la componen los enlaces de gran capacidad y larga distancia, que transportan el grueso de la información a través de miles de kilómetros. Estos enlaces pueden ser subterráneos o submarinos y conectan a menudo nodos en diferentes continentes. Para enviar una señal a través de una fibra óptica, el primer paso es decidir cómo va a codificarse esa señal en el transmisor. Hoy en día existen multitud de opciones de codificación y constantemente se experimentan nuevos formatos de transmisión que permiten enviar más información ocupando
menos espacio espectral (bandas de color). Una misma fibra permite enviar información en varias longitudes de onda (colores) simultáneamente, mediante una técnica conocida como multiplexado en longitud de onda. A cada una de estas bandas de color se la denomina canal. De este modo, existen sistemas capaces de enviar multitud de terabits (miles de millones de bits) por segundo combinando decenas o cientos de canales ópticos por una misma fibra. La forma más sencilla de codificación es, como hemos visto, la antigua técnica binaria de encendido y apagado usada en las primitivas torres de balizas. Aunque muchos sistemas funcionan utilizando esta codificación, denominada “en amplitud”, hoy existen formatos más complejos, pero más ventajosos desde el punto de vista de la distancia y capacidad de transmisión, como la codificación “en fase”, que permite el uso de más de dos símbolos con relativa facilidad. Una vez decidido el tipo de codificación, el mensaje debe transformarse en una señal óptica. Así, un ordenador, por ejemplo, traduce la imagen de una fotografía a una secuencia de bits representados por un tren de 1 y 0 (11100001110, por ejemplo). Este tren envía en forma de señal eléctrica desde un enrutador, normalmente junto con otras muchas señales de diversos usuarios, a un transductor que la convierte a gran velocidad en una señal pulsada de luz.
Este conversor de la señal eléctrica a una señal óptica puede ser, en su forma más básica, un láser de semiconductor que emite luz solamente cuando recibe un voltaje determinado. Así, si la señal llega codificada como diferencias de voltaje cuidadosamente ajustadas, estas salen del transductor como pulsos de luz. Cuanto más rápida pueda ser esta traducción de señal eléctrica a señal óptica, mayor cantidad de información podremos enviar en menos tiempo. Estos pulsos de luz se combinan con señales procedentes de otros láseres, cada una en una banda de color diferente, para crear una señal multiplexada en longitud de onda que viajará a través de la fibra para llegar a su destino. La transmisión a través de la fibra de estos pulsos de luz no está exenta de dificultades. A la atenuación se unen otros efectos que cobran importancia cuando se envían pulsos de corta duración. Entre ellos destaca la dispersión cromática, causada por la diferencia de velocidad a la que se propagan los diferentes colores por un material, la dispersión de polarización, causada por defectos de simetría de las fibras o los múltiples efectos englobados dentro de la denominación de no lineales, provocados por el diferente comportamiento de la fibra frente a diferentes intensidades de la señal, y que pueden, entre otras cosas, desplazar o modificar su longitud de onda. Todos estos efectos se combinan para 133
C000 luz 2015 (FERROS).indd 133
05/05/15 13:00
Transmisor
Fibra óptica
Señal óptica Transductor Señal electrónica
Receptor
Fibra óptica Amplificador óptico Señal óptica
Transductor
Señal electrónica
Figura 10.6. Representación esquemática de un sistema de comunicaciones por fibra óptica. Fuente: Juan Diego Ania.
distorsionar las señales durante su transmisión, haciéndolas más ruidosas. Si deseamos enviar una señal a distancias de más de unos 100 kilómetros, la atenuación hace obligatorio recurrir a amplificadores. En los primeros años de los sistemas de comunicaciones por fibra óptica, estos amplificadores operaban sobre las señales eléctricas, de modo que era necesario hacer conversiones intermedias de la señal óptica a eléctrica y viceversa. Desde los años noventa se utilizan amplificadores ópticos, que recuperan la intensidad de la señal óptica directamente en la propia fibra. Esto se consigue logrando emisión estimulada (como la del láser) en un tramo de la fibra, ya sea haciendo uso de alguna de
sus propiedades no lineales, o mediante la introducción en la misma de elementos químicos como el erbio (Er) o el iterbio (Yb). La amplificación óptica es absolutamente necesaria para poder enviar una señal a distancias de miles de kilómetros, como sucede en el caso de los cables submarinos, pero también introduce ruido en la línea de comunicación, que debe mitigarse mediante técnicas como el filtrado espectral. Finalmente, una vez que el mensaje llega a su destino en forma de señal óptica, la banda de color correspondiente se selecciona mediante un filtro. La señal debe entonces ser convertida de nuevo en el receptor en una señal eléctrica que puedan interpretar los dispositivos
electrónicos que vaya a hacer uso del mensaje. En el ejemplo demostrado en la figura 10.6, el dispositivo puede ser otro ordenador que reproduzca la imagen original. Para ello un nuevo transductor, como aquellos ideados por Tainter y Bell en el siglo XIX para su fotófono, convertirá la señal óptica en eléctrica. De nuevo, es fundamental que este dispositivo (por ejemplo, un fotodiodo que produce corrientes de diferente intensidad en función de la intensidad de la luz que lo alcance) sea muy rápido para que no provoque un cuello de botella en el canal de comunicación. Esa señal eléctrica se descodificará y enviará al usuario final. Si todo ha funcionado bien, un feliz usuario de la red de comunicación contemplará en la pantalla de su
134
C000 luz 2015 (FERROS).indd 134
05/05/15 13:00
Po
la r
iz a
do
r
ordenador la fotografía que unas décimas de segundo antes alguien le envió desde otro ordenador a miles de kilómetros de distancia.
10.5. El futuro de las comunicaciones ópticas La capacidad de los sistemas de comunicaciones por fibra óptica se ha multiplicado por 50 en los últimos 10 años. Se estima que existen aproximadamente 15 millones de kilómetros de fibra instalados a lo largo y ancho del globo, lo que supone unas 3.900 veces la distancia de la Tierra a la Luna, o cerca de 37.500 vueltas al mundo. Actualmente, la capacidad combinada de las líneas de comunicación transoceánicas intercontinentales ya instaladas es de más de 16 Tbit/s, lo que equivale a transmitir el contenido de unos 430 DVD completos, o el contenido de 20 kilómetros de estanterías llenas de libros cada segundo. La próxima generación de sistemas de comunicaciones, ya ensayada en laboratorio, permite transmitir señales a más de 100 Tbit/s a enormes distancias por una única fibra. Sin embargo, es altamente improbable que el rápido desarrollo de los últimos años pueda mantenerse por mucho tiempo. Cualquier canal de comunicación está limitado en su capacidad máxima según la teoría elaborada por Claude Shannon en los
Haz incidente no polarizado
Campo eléctrico (E)
Haz con polarización lineal
Figura 10.7. Efecto de un polarizador.
años cuarenta del siglo XX. Shannon, un brillante ingeniero de Bell Labs en Estados Unidos, desarrolló una teoría matemática de la comunicación, en la que demostró que toda fuente de información (telégrafo, radio, teléfono, conversaciones, imágenes de televisión, etc.) puede medirse y cuantificarse. En su versión adaptada para las comunicaciones ópticas, su teoría muestra que los nuevos formatos de transmisión y las mejoras realizadas en los últimos tiempos nos han llevado extraordinariamente cerca de la capacidad límite que las fibras pueden ofrecer. La demanda por una mayor capacidad de transmisión, sin embargo, no deja de aumentar, casi triplicándose cada 12 meses. Aun es más, si atendemos a aplicaciones como el vídeo de alta definición a demanda, los servicios de comunicación de vídeo y voz sobre IP, la televisión inteligente, el intercambio de
Fuente: Juan Diego Ania y Pedro Corredera.
135
C000 luz 2015 (FERROS).indd 135
05/05/15 13:00
figura 10.8. Red de cable submarino. Fuente: Telegeography.
136
C000 luz 2015 (FERROS).indd 136
05/05/15 13:00
grandes archivos mediante servicios P2P y muchas otras posibilidades de utilización de las redes de comunicación que aparecerán en un futuro, este continuo crecimiento de la demanda no tiene visos de ir a ralentizarse. ¿Cómo hacer frente a esta aparente paradoja? Muchos grupos de investigación en todo el mundo trabajan buscando una solución. Por el momento, no existe una alternativa mejor que la fibra óptica como medio de transmisión. La solución inmediata pasa por tender más y más líneas de comunicación, pero la instalación y mantenimiento del cable submarino tiene un coste económico y energético muy elevado. El mismo problema surge si pensamos en reemplazar antiguas fibras ópticas por fibras más modernas que, por ejemplo, dispongan de más de un núcleo a través del cual enviar información. La solución más práctica pasa por encontrar una nueva forma de separar canales de comunicación en una fibra convencional. Así, de la misma forma que es posible enviar información en diferentes colores y separarla en su llegada a destino mediante filtros, se pueden utilizar otras propiedades de la luz. Un ejemplo de este tipo de soluciones es la técnica conocida de multiplexado en modo de polarización. Una onda electromagnética polarizada oscila, al mismo tiempo que se propaga, con una orientación determinada, tal como se ilustra en la figura 10.7. Se ha 137
C000 luz 2015 (FERROS).indd 137
05/05/15 13:00
comprobado que es posible enviar dos ondas con información independiente, de modo que cada una oscile en ángulo recto con la otra, y separar después en destino la información según su ángulo de oscilación. Otra alternativa, complementaria de la anterior, pasa por compensar de forma eficiente algunos efectos que distorsionan la señal durante la propagación. Hoy en día se conocen métodos para compensar efectos dispersivos y mitigar el efecto del ruido de amplificación, y se experimenta con nuevas técnicas para eliminar la distorsión causada por los efectos nolineales.
Finalmente, el otro gran desafío de las futuras redes de comunicaciones ópticas es el ecológico. El extraordinario crecimiento de la demanda de capacidad ha traído consigo un aumento equivalente del consumo energético. Por ello, uno de los objetivos más importantes en el diseño de la red de comunicaciones del futuro es la eficiencia energética, ya sea a través de la reducción en el número de amplificadores, mediante formatos que requieran menores intensidades de luz, la mejora de los sistemas electrónicos o la invención de nuevas tecnologías
Bibliografía Hetch, Jeff (1999): City of Light: The Story of Fiber Optics, editorial Oxford University Press. — (1999): “A short history of fiber optics” [http://www. jeffhecht.com/history.html]. Martín Pereda, José A. (2007): “El alba de las comunicaciones ópticas: de la Revolución Francesa al Imperio”, Una década del Instituto de Física Aplicada
verdes que puedan sustituir a las actuales. Como hemos podido ver en este capítulo, las tecnologías fotónicas aplicadas a las comunicaciones tienen una historia ilustre y representan, a día de hoy, la base de la moderna sociedad de la información. Pese a la gran implantación de estas tecnologías, su desarrollo dista mucho de estar estancado y enfrenta enormes desafíos de cara al futuro. Cómo seamos capaces de afrontar esos desafíos tendrá una gran influencia en la forma que adopten Internet y los medios de comunicación del mañana.
1995-2005, editorial CSIC, Madrid [http://digital. csic.es/bitstream/10261/2744/1/Una%2 d%C3%A9 cada%20del%20IFA,%201995-2005.pdf ]. Schofield, Hugh (2013): “El semáforo de Napoleón que achicó el mundo” [http://www.bbc.co.uk/ mundo/noticias/2013/06/130614_napoleon_ telegrafo_finde]. Szymanczyk, Oscar (2013): Historia de las telecomunicaciones mundiales, Dunken.
138
C000 luz 2015 (FERROS).indd 138
05/05/15 13:00
Pablo Aitor Postigo
11. Luz y nanociencia 11.1. Luz y nanociencia: una historia que comienza hace cincuenta millones de años La nanociencia es el estudio de los sistemas cuyo tamaño es de unos pocos nanómetros. Nano es un prefijo griego que indica una medida de 10-9 = 0,000000001. Un nanómetro (nm) es 10-9 metros, espacio en el que caben alrededor de 10 átomos de hidrógeno. La separación entre los átomos de Na y de Cl en un cristal de sal común (NaCl) es de 0,5 nm. La luz en el espectro visible (la que nuestros ojos ven) tiene una longitud de onda entre unos 400 nm y 750 nm. Un leucocito tiene alrededor de 100.000 nm de diámetro. La nanociencia trata de comprender qué ocurre en estas escalas y la nanotecnología busca manipular y controlar los materiales y fenómenos
en esa escala. Lo más habitual es que dicha manipulación se produzca en un intervalo de entre uno y cien nanómetros. Los materiales así fabricados se denominan “nanomateriales”. En la naturaleza se dan numerosos ejemplos de la interacción entre la luz, nanociencia y nanotecnología. Uno de los más llamativos lo constituye la coloración de la mariposa de la especie Morpho, habitual en países tropicales. Estos insectos poseen un intenso color azulado-metálico, especialmente en las alas, que no se debe a la presencia de pigmentación (los pigmentos azulados son de rara presencia en la naturaleza). ¿En qué consiste, entonces, la coloración de estas mariposas? Si se toma una pequeña escama de sus alas y se fotografía con la suficiente magnificación usando un microscopio electrónico, como muestra la figura 11.1, 139
C000 luz 2015 (FERROS).indd 139
05/05/15 13:00
Iridiscencia en lepidópteros: mariposa
Intensidad de reflexión
Morpho
400
500
600
700
Longitud de onda (nm)
Figura 11.1. Mariposa Morpho y sucesivas ampliaciones de las escamas que componen sus alas azuladas. No existe presencia de pigmento en estas escamas, sino que el color azulado se debe al filtrado de la luz reflejada por las nanoestructuras que se observan en sus escamas. En la parte inferior derecha se observa el espectro de reflexión de una de estas escamas. Fuente: Composición de Pablo Aitor Postigo.
podemos observar una multitud de aristas longitudinales y verticales, cuya separación es de pocas centenas de nanómetros. Esta nanoestructura en el interior de la escama altera la reflexión de la luz, produciendo estos colores tan llamativos y frecuentemente tornasolados e iridiscentes. Se ha demostrado que en fósiles de hace 50 millones de años esta iridiscencia ya estaba presente y contribuía al camuflaje verdoso de estos insectos. La iridiscencia es una propiedad óptica de ciertas superficies en las cuales el tono de la luz varía de acuerdo al ángulo desde el que
se observa la superficie, como en las manchas de aceite, las burbujas de jabón, las alas de una mariposa o el lado reproducible del disco compacto, ya sea CD o DVD. La iridiscencia está causada por múltiples reflexiones de la luz en múltiples superficies semitransparentes separadas por distancias similares a la longitud de onda de la luz que las atraviesa. Etimológicamente, el término proviene de la deidad griega Iris, personificación del arcoíris y mensajera de los dioses que dejaba una estela de colores luminosos tras su paso. La iridiscencia observada en la mariposa Morpho (y en multitud de otros insectos como algunos escarabajos e incluso algunos frutos como determinadas bayas) se debe, por tanto, a la interacción de la luz con un nanomaterial (la escama del ala de la mariposa). Esta escama presenta unas formas que están en la misma escala que la longitud de onda de la luz que interacciona con ellas (el color azul posee una longitud de onda de unos 450 nm). La escama de la mariposa es un “nanomaterial” de origen natural que ha sido perfeccionado a lo largo de millones de años para la reflexión de la luz de color azul. En este capítulo se mencionarán algunos otros ejemplos de cómo la nanociencia, la nanotecnología y la luz están fuertemente relacionadas.
140
C000 luz 2015 (FERROS).indd 140
05/05/15 13:00
11.2. Música a la velocidad de la luz A finales de los años ochenta se desarrollaron los discos compactos (CD, DVD, etc.) para almacenar todo tipo de información en forma digital. La lectura y escritura en estos discos se realiza a través de métodos ópticos. El almacenamiento de la información se lleva a cabo mediante perforaciones en la superficie del disco de unos cientos de nanómetros, que alteran la reflexión de la luz. Cuanto menores sean las perforaciones, mayor cantidad de información se podrá almacenar en un disco. El CD usa perforaciones en el rango de 1.000 nm de separación, aproximadamente, y para su lectura o escritura se debe usar un láser de la misma longitud de onda. El DVD y el
Blu-ray son discos que usan perforaciones, con una separación entre ellas cada vez menor (unos 750 nm y 375 nm, respectivamente) aumentando así la cantidad de información por unidad de superficie que puede almacenarse (figura 11.2). La luz láser que se necesita para leer y escribir estos discos utiliza también una longitud de onda más pequeña que la del CD (650 nm para el DVD —color rojo— y 405 nm para el Blu-ray —que la proporciona un láser de color azul—). Los discos compactos que usamos a diario utilizan la nanotecnología y la luz, y en parte son responsables del descubrimiento del fenómeno físico que regula la transmisión de luz a través de nanoagujeros y del que hablaremos en el siguiente apartado.
Figura 11.2. Imágenes de microscopía electrónica de superficies de CD (izquierda), DVD (centro) y Blu-ray (derecha). La barra blanca en todas las imágenes corresponde a un tamaño de 1.000 nanómetros. Fuente: Composición de Pablo Aitor Postigo.
141
C000 luz 2015 (FERROS).indd 141
05/05/15 13:00
Figura 11.3. La imagen muestra una composición de un cristal fotónico superpuesto a un cabello humano, ambos en la misma escala. Las flechas indican el camino que seguiría un rayo de luz en este nanomaterial. La barra lateral blanca corresponde a un tamaño de 0,01 milímetros. Fuente: Composición de Pablo Aitor Postigo.
11.3. ¿Pasará la luz a través de un agujero más pequeño que la propia luz? En el año 1998, el químico-físico noruego Thomas Ebbesen descubrió un nuevo fenómeno óptico mientras trabajaba en nuevos métodos ópticos de almacenamiento de la información. Encontró que, contrariamente a la teoría aceptada entonces, y bajo ciertas condiciones, era posible transmitir la luz de forma extremadamente eficiente a través de un material metálico, relativamente delgado y perforado con nanoagujeros (agujeros con diámetro de pocos cientos de nanómetros). Descubrió que la luz pasaba a través de estos nanoagujeros en una cantidad mucho mayor de la esperada y la razón parecía estar relacionada precisamente con los tamaños de los nanoagujeros, mucho menores que la longitud de onda de la luz que se transmitía. La explicación a este curioso fenómeno proviene de la
interacción de las ondas de luz con las ondas de electrones de los átomos que constituyen el material metálico (dichas ondas se denominan “plasmones”) y ha dado lugar a la denominada “plasmónica” y, en el caso de estar involucradas nanoestructuras, la “nanoplasmónica”. La plasmónica se utiliza, entre otras aplicaciones, en la fabricación de sensores para la detección química y en aplicaciones biomédicas, incluidas algunas relacionadas con la destrucción de tumores. Los nanoagujeros han resultado también muy útiles para el control de la luz en materiales no metálicos. En estos nanomateriales se usan nanoperforaciones periódicas para controlar muy eficientemente la interacción del material con la luz: son los denominados “cristales fotónicos”, de los que hablaremos a continuación.
11.4. Cristales fotónicos: control de la luz mediante nanoestructuras Los cristales fotónicos son nanomateriales formados por nanoestructuras que se repiten periódicamente. Este nanomaterial posee propiedades únicas que afectan a la luz. Las escamas de la mariposa Morpho, mencionadas anteriormente, constituyen cristales fotónicos biológicos, aunque este hecho se ha descubierto solo en los últimos años debido al uso de la nanotecnología que ha permitido visualizarlos, comprender cómo funcionan y reproducirlos en los laboratorios. Para dar una idea del tamaño de un cristal fotónico, la figura 11.3 muestra un cristal fotónico a la misma escala que un cabello humano. El cabello tiene un diámetro aproximado de una décima de milímetro. El cristal fotónico
142
C000 luz 2015 (FERROS).indd 142
05/05/15 13:00
Figura 11.4. Imagen de microscopía electrónica de un cristal fotónico fabricado en el IMM-CNM-CSIC formado por la fabricación de una red periódica de agujeros en material semiconductor. El diámetro de los agujeros es de unos 200 nm. La zona en la que falta un nanoagujero concentra la luz 10.000 veces. Fuente: IMM-CNM (CSIC).
está formado por una red periódica de nanoagujeros con un diámetro de 400 nm que están separados entre sí unos 500 nm. Los nanoagujeros están rellenos de aire (cuyo índice de refracción es 1) y están realizados en un material con mayor índice de refracción que el del aire. La distribución periódica de nanoagujeros produce una distribución periódica del índice de refracción. Al material con una distribución periódica del índice de refracción se le denomina “cristal fotónico”. El nombre proviene del hecho de que los nanoagujeros se repiten periódicamente como ocurre con los átomos en un material cristalino (como el yeso o la sal). Es, por así decirlo, una red cristalina para la luz que se propaga en el mismo. El comportamiento de la luz en el interior del cristal fotónico puede ser controlado en función de su diseño (tamaños de nanoagujeros y separaciones entre los mismos). Este control permite concentrar la luz en tamaños mucho menores que su longitud de onda y los hace muy interesantes, por ejemplo, para
su aplicación en células solares, porque favorecen que la luz sea convertida en energía eléctrica de forma muy eficiente. La figura 11.4 muestra un cristal fotónico de alta calidad fabricado en el IMM-CNM-CSIC. Este cristal fotónico es capaz de confinar la luz en una zona de unos 500 nm con gran eficiencia, mediante la reflexión múltiple causada por los nanoagujeros. El cristal fotónico refleja la luz con tanta eficiencia que, si imaginamos que nos situamos dentro del mismo, nos veríamos reflejados más de 10.000 veces. Y lo que aún es más asombroso, esto se puede conseguir en tamaños muy reducidos, como ocurre con la escama de la mariposa. Por eso es probable que los cristales fotónicos tengan en el futuro numerosas aplicaciones en chips.
11.5. ¿Tendrán los futuros robots un cerebro ‘nanofotónico’? Aunque esta pregunta parece propia de una novela de ciencia ficción, su respuesta puede llegar mucho antes de lo que pensamos. Una de las principales limitaciones de los microprocesadores actuales (los “chips” que actúan como “cerebros” en ordenadores y teléfonos móviles) es la velocidad con la que se comunican las diferentes partes del microprocesador entre sí y con otros microprocesadores. Esta comunicación, en la actualidad, es electrónica. El problema de la comunicación mediante electrones es que está limitada por la capacidad de las interconexiones, que está lejos de ser ideal y genera calor en los microprocesadores, además de acotar 143
C000 luz 2015 (FERROS).indd 143
05/05/15 13:00
su frecuencia de trabajo. Una alternativa a este tipo de interconexiones electrónicas son las interconexiones ópticas, en las cuales la luz (los fotones) sustituye a los electrones. Las interconexiones ópticas no generan calor y poseen una frecuencia de trabajo mucho mayor, pero requieren que los
microprocesadores cuenten en su interior con diminutos “circuitos de luz”. Una posibilidad para que los microprocesadores cuenten con este tipo de “circuitos fotónicos” es utilizar nanoestructuras para guiar la luz, como los cristales fotónicos. Un microprocesador con interconexiones
ópticas dotaría a los ordenadores de una mayor velocidad y reduciría notablemente su consumo de energía, por lo que este es un campo de investigación muy activa. Y, por qué no, quizá algún día los robots tengan un cerebro basado en la emisión, distribución y detección de luz en la nanoescala.
144
C000 luz 2015 (FERROS).indd 144
05/05/15 13:00
Fernando J. Castaño
12. Luz y energía 12.1. Potencial de la luz solar El continuo incremento de las necesidades energéticas de la sociedad actual, acompañado por la certeza de que la mayor parte de los combustibles fósiles no renovables existentes en la corteza terrestre estarán prácticamente acabados antes de que finalice el siglo XXI, ha generado uno de los mayores retos recientes para la humanidad: ¿cómo sustituir los combustibles fósiles por fuentes de energía alternativas (o renovables) que permitan mantener un ritmo sostenible de desarrollo? Estas nuevas fuentes energéticas deben, además, ser limpias, es decir, no generar gases de efecto invernadero u otros contaminantes que contribuyen al efecto de calentamiento terrestre evidenciado durante las últimas décadas. El calentamiento global es debido a siglos
de desarrollo industrial basado en combustibles fósiles y, si no se consigue controlar, podría incluso hacer peligrar la supervivencia de la especie humana en la Tierra. La figura 12.1 muestra una representación esquemática del potencial de las distintas energías renovables (solar, mareas, geotérmica, hidroeléctrica, biomasa, conversión térmica oceánica y viento) frente a las reservas conocidas de combustibles fósiles (gas natural, petróleo, uranio y carbón). La figura incluye como referencia el consumo de energía global previsto para 2020. Claramente, el potencial de la luz solar para satisfacer las necesidades energéticas de la sociedad del futuro es superior a cualquier otra fuente renovable o no renovable. Sin embargo, a pesar de la aparente vertiginosa implantación que las energías renovables han experimentado durante las últimas 145
C000 luz 2015 (FERROS).indd 145
05/05/15 13:00
Reservas
Viento 25-70 / año
Gas natural 215 total
Solar 23,000 TWaño/año Conversión térmica oceánica 3-11 / año
Petróleo 240 total
Biomasa 3-6 / año 20 TWaño/año. Consumo mundial estimado para 2020
Uranio Hicroeléctrica 3-4 / año
90-300 total
Geotérmica 0,3-2 / año Mareas 0,3-0,7 / año
Carbón 900 total
Figura 12.1. Energía en TWaño/año disponible a partir de fuentes renovables y a partir de las reservas fósiles en la corteza terrestre. El consumo energético mundial estimado para 2020 se representa con un círculo blanco. Fuente: Abengoa.
décadas, la contribución actual de estas fuentes energéticas al consumo energético mundial continuo se sitúa en torno al 8%, lo que significa que continuamos dependiendo de los combustibles fósiles en un 92%. La luz del Sol es la principal fuente de energía de nuestro planeta y su energía se encuentra tanto en los combustibles fósiles como en todos los seres vivos. Este astro es considerado una estrella pequeña con un diámetro de 1.390.000 kilómetros y está formado principalmente por gas de hidrógeno a temperaturas del orden de 14 millones
de grados centígrados. La luz emitida desde su superficie tarda cerca de ocho minutos en recorrer la distancia a la tierra (180 millones de kilómetros). Esta radiación electromagnética llega a la atmósfera terrestre con una intensidad de 1.350 W/m2 y, al atravesar la atmósfera, la radiación es en parte reflejada, dispersada y absorbida por gases como el ozono (O3), el dióxido de carbono (CO2) o el vapor de agua. La magnitud de la alteración de la radiación depende de la composición de la atmósfera y del camino recorrido por los rayos de luz. La figura 12.2 muestra la distribución de energía de la luz solar para longitudes de onda correspondientes a las regiones del ultravioleta (UV), visible e infrarrojo. La luz solar está compuesta por un 7% de radiación ultravioleta, un 47% de luz visible y un 46% de radiación infrarroja. La mayor parte de la radiación ultravioleta es absorbida por el ozono en las capas más altas de la atmósfera, mientras que la región visible de onda corta es dispersada por las moléculas de aire, dando al cielo su característico color azul. El vapor de agua de las capas más bajas de la atmósfera es el responsable de las características bandas de absorción en el infrarrojo cercano que se pueden apreciar en la figura 12.2, fenómeno también producido en menor grado por el CO2. La luz solar absorbida por la atmósfera puede variar
146
C000 luz 2015 (FERROS).indd 146
05/05/15 13:00
dependiendo de factores como la contaminación o el vapor de agua, pero los mayores cambios relativos de la radiación solar antes de llegar a la corteza terrestre los produce la nubosidad.
En la primera sección de este capítulo se ha descrito el gran potencial de la luz solar para satisfacer la creciente necesidad energética de la sociedad actual, pero ¿cómo podemos convertir la luz solar en electricidad? Las tecnologías disponibles actualmente pueden ser clasificadas en indirectas, como la tecnología solar-térmica en las que la luz se utiliza para calentar un líquido cuyo vapor mueve una turbina que produce electricidad, y directas, como las tecnologías fotovoltaicas en las que las células solares convierten directamente la radiación solar en electricidad. 12.2.1. Tecnología solar térmica de concentración La primera referencia histórica relativa al uso de la energía solar térmica de concentración es de Arquímedes, quien durante la batalla de Siracusa en el siglo III a.C., que enfrentó a romanos y griegos, utilizó espejos hexagonales
Visible
Infrarrojo
1,6 Espectro solar (AM 1,5-G, 1.000 W/m2) Energía [W (m2/nm)]
12.2. Tecnologías para la conversión de la luz solar en electricidad
UV
1,2
0,8
0,4
0,0
400
800
1.200
1.600
2.400
2.400
Longitud de onda (nm)
fabricados en bronce para reflejar los rayos solares concentrándolos en las naves de la flota romana con el objetivo de destruirla. En el año 1515, Leonardo da Vinci ideó un concentrador de seis kilómetros de diámetro a base de espejos cóncavos para la producción de vapor y calor industrial, pero este sistema se quedó en un proyecto que el genio florentino no llegaría a completar. A mediados del siglo XVIII, GeorgesLouis Leclerc, conde de Buffon, llegó a fabricar un concentrador de energía solar utilizando 360 piezas de cristal. Experimentando con el sistema, se percató de que concentrando la luz
Figura 12.2. Espectro solar con masa de aire (AM) de 1,5. Fuente: Abengoa.
147
C000 luz 2015 (FERROS).indd 147
05/05/15 13:00
La primera central solar. En 1913, el norteamericano Frank Shuman desarrolló la primera estación solar térmica de bombeo en Meadi, Egipto. El sistema funcionaba con cinco reflectores de 62 metros de largo que contenían espejos de vidrio cilindroparabólicos. Con este tipo de espejos, se consigue concentrar la luz que llega al espejo en una línea. De esta forma, cada reflector centraba la luz solar en un tubo, calentando el agua que por ellos circulaba. El vapor generado alimentaba un motor conectado a una bomba, capaz de distribuir 23.000 litros de agua por minuto desde el río Nilo hasta lugares cercanos.
Figura 12.3. Frank Shuman, el diseño principal de los colectores extraído de su patente y un esquema de la instalación realizada en Egipto en 1913.
con un número distinto de cristales era posible derretir arcilla o incluso fundir limaduras de plata. La historia moderna de la energía solar térmica se inició durante la crisis del petróleo de los años setenta. Jimmy Carter, el entonces presidente de Estados Unidos, impulsó el desarrollo de esta tecnología y, en 1984, se completó la primera planta en California. Este tipo de instalaciones utilizan colectores cilindro-parabólicos (CCP) para concentrar la luz solar sobre un tubo por
el que circula un aceite, que se denomina fluido caloportador, que se calienta. Este aceite caliente se envía a un intercambiador de calor donde se genera el vapor sobrecalentado requerido para accionar un turbo-alternador, produciéndose de esta forma la energía eléctrica que se inyecta en la red. El esquema general de funcionamiento de las plantas CCP se muestra en la figura 12.4. La alternativa a las centrales CCP son las denominadas centrales
de torre mostradas en la figura 12.5. Este tipo de centrales se empezaron a desarrollar en los años ochenta del siglo pasado y en la actualidad se encuentran ya en explotación comercial. La primera planta solar piloto basada en tecnología de receptor central de torre se llamó Solar One y empleaba como fluido caloportador agua/vapor. Los ingenieros participantes en el proyecto, que se desarrolló de 1982 a 1988, se dieron cuenta de que se podía mejorar significativamente la eficiencia de la planta si se empleaba como fluido caloportador y medio de almacenamiento térmico otro fluido con mayor capacidad calorífica como, por ejemplo, las sales fundidas. Posteriormente, a finales de los noventa, entró en operación la central Solar Two en Barstow (California), que sería la primera planta experimental con tecnología de receptor central de torre de sales y sistema de almacenamiento energético basado en sales fundidas. La tecnología de torre consiste en un campo
148
C000 luz 2015 (FERROS).indd 148
05/05/15 13:00
Campo solar
Turbina de vapor
Tanque de sales alta temperatura
Generador Condensador
Aceite-Sal intercambiador
Generador de vapor
Tanque de sales baja temperatura
Figura 12.4. Izquierda: colectores cilindro parabólicos en la central solar térmica SHAMS-1 en Abu Dabi. Derecha: esquema de una planta CCP, incluyendo los generadores de vapor, turbina de vapor y los tanques de sales para almacenamiento de energía necesario para continuar suministrando electricidad cuando no hay sol. Fuente: Abengoa.
de heliostatos (conjunto de espejos que se mueven sobre dos ejes) y un receptor, situado en la parte superior de la torre. El campo de heliostatos refleja la luz solar, concentrándola con una energía hasta 1.000 veces superior a la radiación solar inicial. Esta energía eleva la temperatura de un fluido que, al llegar a un intercambiador de calor, produce vapor sobrecalentado que se utiliza para mover un turbo-alternador. Al contrario de lo que ocurre con la tecnología CCP, la configuración óptima de la tecnología de torre depende de la posición geográfica de la planta. Este factor y la potencia de la planta definen tanto la altura de la torre como la posición de los heliostatos en el campo, así como la
geometría del receptor. La planta Solar Two permitía la generación de 10 MW eléctricos utilizando un campo 71.500 m2 de helióstatos y una torre de algo más de 90 metros de altura. La primera torre termosolar comercial a nivel mundial es la PS10, desarrollada por Abengoa en el sur de España y puesta en operación en 2007. Produce 11 MW utilizando una turbina de vapor saturado a 45 atmósferas y 256 ºC. La luz solar es inherentemente intermitente, ya que la generación de energía está limitada al periodo entre el amanecer y el anochecer. Sin embargo, la utilización de tanques de sales fundidas para almacenar energía en las plantas de
solar térmica permite independizar la producción de energía eléctrica de la colección de energía térmica procedente de la radiación solar. Por ejemplo, en el proyecto Solar Two era posible producir electricidad durante tres horas sin aporte de luz, gracias a la energía almacenada en las sales fundidas. Hoy en día esta tecnología de almacenamiento de energía está presente ya en un gran número de centrales de termosolares de concentración. Por ejemplo, la planta de torre basada en tecnología de sales fundidas que Abengoa está construyendo en el desierto en Atacama (Chile) tendrá una capacidad de almacenamiento equivalente a 17 horas a plena producción. 149
C000 luz 2015 (FERROS).indd 149
05/05/15 13:00
Colector solar
Tanque de vapor
Vapor 40 bar, 250C
Turbina
Generador
Tanque almacenamiento de vapor
Condesador 0,06bar, 50C
Campo de heliostatos
Figura 12.5. Arriba: configuración de una planta solar térmica de torre. Abajo, izquierda: central solar térmica de torre PS-20 en Sanlúcar la Mayor (Sevilla). Abajo, derecha: esquema de una planta solar térmica de torre, incluyendo los componentes principales. Fuente: Abengoa.
150
C000 luz 2015 (FERROS).indd 150
05/05/15 13:00
12.3. Tecnología fotovoltaica En 1893, el físico francés Edmond Becquerel descubrió el efecto fotovoltaico al experimentar con una pila electrolítica con electrodos de platino, en la que observó el incremento de corriente que causaba la exposición a la luz de uno de los electrodos. Esto le permitió sugerir que algunos materiales podían transformar la luz en corriente eléctrica, pero no fue hasta 1920 cuando Albert Einstein describió satisfactoriamente el efecto fotoeléctrico (fotovoltaico), demostrando que los electrones en el material absorbían fotones de forma linealmente proporcional a la frecuencia de la fuente lumínica. Por su descripción del efecto fotovoltaico, Albert Einstein recibiría el premio Nobel de Física en 1921. La eficiencia de conversión de las primeras células de silicio era inferior al 6%, es decir, tan solo un 6% de la radiación solar era convertida en electricidad. A pesar de que los laboratorios Bell continuaron desarrollando esta primera célula, no se consiguió llegar a un producto comercial en parte porque, en 1956, el precio de las células solares era superior a 300 dólares por vatio (W), mientras que el coste de generación de electricidad de una planta de carbón de la época era de 50 centavos de dólar por vatio. Por esta razón, estas primeras células solares solo encontraron demanda en aplicaciones
En 1954, los científicos norteamericanos Gerald Pearson, Daryl Chapin y Calvin Fuller, trabajando en los laboratorios Bell, fabricaron la primera célula solar capaz de crear una corriente eléctrica regulable. Los tres científicos tenían como objetivo resolver problemas asociados al sistema telefónico de la empresa Bell. Las baterías que se utilizaban entonces para aplicaciones no conectadas a la red eléctrica se degradaban con facilidad, así que la compañía sugirió a estos tres científicos que estudiasen la viabilidad técnica y económica de tecnologías para producir energía, distintas a las baterías. Una de las tecnologías que Chapin propuso investigar fue el efecto fotoeléctrico. Por otro lado, Pearson y Fuller habían descubierto recientemente cómo controlar la introducción de impurezas en un semiconductor como el silicio, de forma que se conseguía conductividad eléctrica. Fuller disponía de pequeños trozos de silicio cristalino que contenían pequeñas cantidades de galio, lo cual generaba que estuviese cargado positivamente. A continuación, Pearson introdujo este silicio en un baño de litio, generando un área cargada negativamente. En esencia habían formado una unión pn de semiconductores. A continuación, iluminaron el silicio con luz y al medirlo con un amperímetro constataron una corriente. Se trataba de la primera célula solar de silicio. Cuadro 12.1. Las células solares.
como satélites espaciales, en los cuales el precio de los componentes es una ínfima parte del coste de poner en órbita el satélite. No fue hasta los años ochenta cuando las mejoras en eficiencia, producción y durabilidad permitieron que las células solares se utilizasen en mayor escala en equipos de telecomunicaciones, calculadoras y otros dispositivos de bajo consumo eléctrico. Durante este periodo y hasta finales de los años noventa, se realizaron instalaciones fotovoltaicas para generar electricidad en lugares remotos sin acceso a la red eléctrica y se empezaron a considerar las instalaciones fotovoltaicas como una fuente energética viable para suministrar electricidad a la red. En los últimos años, los espectaculares aumentos del volumen de producción de células solares y las reducciones de costes 151
C000 luz 2015 (FERROS).indd 151
05/05/15 13:00
Contactos eléctricos frontales Capa antirreflejante Semiconductor tipo n Semiconductor tipo p Contactos eléctricos traseros
Figura 12.6. Derecha: imagen de la parte frontal de una célula de silicio monocristalino 156 mm x156 mm. Izquierda: esquema de la estructura interna de la célula, incluyendo los contactos frontales, la capa antirreflejante, la unión pn y el contacto trasero. Fuente: Abengoa.
conseguidas por la industria han llevado a que la energía fotovoltaica suministrada por grandes plantas de decenas o incluso centenas de megavatios (MW) cueste en 2014 en torno a 1,5 dólares por vatio. Pero dejemos de momento la historia y centrémonos en entender cómo funcionan las células solares, así como las distintas tecnologías comerciales. La mayor parte de las células solares se fabrican utilizando materiales semiconductores. Los semiconductores pueden comportarse como conductores o aislantes eléctricos dependiendo de diversos factores como el campo eléctrico o magnético, la presión, la radiación o la temperatura. En las células solares, el elemento más utilizado con diferencia es el silicio, seguido del germanio, materiales binarios como el arseniuro de galio (GaAs) o el teluro de cadmio (CdTe), y más complejos como aleaciones de cobre-indio-galio-selenio (CuInGaSe). Cuando uno de estos materiales
semiconductores es expuesto a la luz solar, los fotones son absorbidos por los electrones adscritos a los átomos de la red cristalina. Esto permite a los electrones adquirir suficiente energía como para liberarse de los átomos, generando “huecos”. La mayor parte de los electrones liberados se recombinan encontrando rápidamente otro hueco para volver a llenarlo y la energía proporcionada por el fotón se disipa en forma de calor. Con el fin de conseguir concentraciones elevadas de portadores de carga, la mayor parte de las células solares utilizan materiales semiconductores en los que las estructuras cristalinas se “infiltran” o dopan con elementos como el boro o el fósforo. De esta forma, el material resultante tendrá como portadores de carga mayoritarios a los electrones (semiconductor tipo n) o a los huecos (semiconductor tipo p). El material permanece eléctricamente neutro, ya que tanto los átomos de semiconductor como los del material dopante son neutros: sin embargo, la red cristalina tiene globalmente una mayor presencia de electrones o huecos. El principio de una célula fotovoltaica es obligar a los electrones y a los huecos a avanzar hacia el lado opuesto del dispositivo en lugar de recombinarse en el material. De esta manera, se produce una diferencia de potencial y, por lo tanto, tensión entre las dos partes del dispositivo. Para ello,
152
C000 luz 2015 (FERROS).indd 152
05/05/15 13:00
Figura 12.7. Fotografía del Sol tomada el 29 de agosto de 2013. Fuente: NASA.
153
C000 luz 2015 (FERROS).indd 153
05/05/15 13:00
Figura 12.8. Planta termosolar de torre. Fotografía: Abengoa.
se crea un campo eléctrico permanente que se consigue al unir un semiconductor tipo n con otro tipo p en lo que se denomina unión pn. En el momento de la formación de la unión pn, los electrones libres de la capa n entran instantáneamente en la capa p y se recombinan con los huecos en la región p. Existirá así una carga positiva en la región n a lo largo de la unión (porque faltan electrones) y una carga
negativa en la región p (porque los huecos han desaparecido). Este conjunto forma la Zona de Carga de Espacio (ZCE) y existe un campo eléctrico entre las dos regiones: de n hacia p. Este campo eléctrico hace de la ZCE un diodo, que solo permite el flujo de corriente en una dirección. Los electrones pueden moverse de la región p a la n, pero no en la dirección opuesta y, por el contrario, los huecos no pasan
154
C000 luz 2015 (FERROS).indd 154
05/05/15 13:00
más que de n hacia p. Como resultado, una parte de la unión tiene una mayor concentración de electrones que la otra, lo que origina voltaje entre ambas regiones. Al unir ambos lados de la unión con un contacto eléctrico se permite que los electrones fluyan de un lado al otro del dispositivo, generando una corriente eléctrica. La figura 12.6 muestra una imagen y un esquema de una célula solar. De forma general, estas están formadas por una o varias uniones pn con contactos para extraer la corriente. En torno al 90% de las células solares que se producen a nivel mundial están basadas en silicio y se fabrican sobre la oblea de un cristal con un espesor en torno a 200 micrómetros y dimensiones laterales de 156 mm x 156 mm. La eficiencia de conversión de estas células industriales varía entre un 17% y un 22%, dependiendo del tipo de cristal y de la complejidad de la arquitectura del dispositivo. Estas células se conectan eléctricamente en serie y se encapsulan en un módulo o panel solar, que para el caso de 60 células genera una potencia entre 240W y 320W. El proceso de encapsulado o laminado es clave para poder certificar que el panel solar continuará generando hasta un 80% de la potencia inicial al trascurrir 25 años, que es una de las garantías de los módulos fotovoltaicos. La producción de módulos fotovoltaicos global ha crecido anualmente un 25% durante la última
Contacto eléctrico frontal Semiconductor tipo n
Semiconductor tipo p CulnGaSe
Contacto trasero. Mo
1 mm
Mag = 10,00 KX EHT = 5,00 kV
WD = 3,7 mm Signal A = InLens
década. Incluso durante estos últimos años de crisis económica se han instalado 31GW en 2012 y 38GW en 2013. En la actualidad, la capacidad de generación instalada en el mundo supera los 100 GW, lo cual es equivalente a 16 centrales nucleares. Las células de silicio constituyen lo que históricamente se ha denominado células de primera generación. Las células comerciales hoy en día también incluyen la tecnología de células solares de capa fina, que se denominan células solares de segunda generación. Al igual que las células de silicio, las células de capa fina se basan en una unión pn con contactos. Sin embargo, en vez de utilizar secciones de un cristal de un semiconductor, estas células están basadas en capas delgadas, aumentadas mediante técnicas de deposición a partir
Figura 12.9. Imagen de microscopía electrónica de una célula solar de capa fina, basada en un semiconductor tipo p de CuInGaSe y un semiconductor tipo n de CdS. Fuente: Abengoa.
155
C000 luz 2015 (FERROS).indd 155
05/05/15 13:00
de fase vapor y tienen un espesor total de unos pocos micrómetros. Este tipo de tecnología consigue eficiencias de conversión algo inferiores a las del silicio, llegando a eficiencias de 17% en
el módulo. Un ejemplo de una célula solar de capa fina se muestra en la figura 12.9. A pesar de que la cuota de mercado de las células solares de capa fina
Bibliografía Luque, Antonio y Hegedus, Steven (2011): Handbook of Photovoltaic Science and Engineering, Wiley.
continúa siendo inferior al 10%, en la actualidad los precios por vatio de esta tecnología son ligeramente inferiores a la tecnología de silicio.
Nelson, Jenny (2003): The Physics of Solar Cells, Imperial College Press. Vogel, Werner y Kalb, Henry (2010): Large-scale Solar Thermal Power: Technologies, Costs and Development, Wiley-VVH.
156
C000 luz 2015 (FERROS).indd 156
05/05/15 13:00
Glosariolo Absorción: fenómeno óptico por el cual un haz de luz pierde energía al propagarse por un medio. Amplificación: proceso por el que aumenta la intensidad de una señal mediante el aporte de energía de una fuente diferente a la de la señal. Banda electrónica: conjunto continuo de estados electrónicos accesibles para un electrón en un sólido como consecuencia de la superposición e interacción de los orbitales electrónicos externos de sus átomos. Campo electromagnético: distribución en el espacio de una onda transversal eléctrica acoplada a una onda transversal perpendicular de carácter magnético. Color: propiedad perceptual de la visión que en los humanos se corresponde a categorías como rojo, azul, amarillo, y muchas otras. El color deriva del espectro electromagnético de la luz emitida, de la reflectividad espectral de las superficies donde refleja la luz y de la absorción espectral en los receptores. Descarga: emisión energética en forma de luz producida mediante la excitación de los electrones de los átomos encerrados en un tubo. Dieléctrico (o aislante): medio material caracterizado por presentar una banda de valencia llena y una banda de conducción vacía que están separadas por un intervalo de energía. Difracción: fenómeno óptico que ocurre cuando la luz al propagarse encuentra un obstáculo, como un agujero o una rendija, de un tamaño comparable al de su longitud de onda, y que produce que el haz se ensanche y sufra fenómenos de interferencia. 157
C000 luz 2015 (FERROS).indd 157
05/05/15 13:00
Difusión o esparcimiento (scattering): fenómeno óptico que ocurre cuando la luz es desviada de su trayectoria por no-uniformidades en el medio que atraviesa. Dispersión cromática: fenómeno óptico que ocurre cuando la propagación de la luz depende de su longitud de onda, como sucede en prismas o las gotas de agua que dan lugar al arcoíris. Efecto Doppler: fenómeno por el cual cuando una fuente de luz (como una estrella) se aleja a gran velocidad de un observador (como por ejemplo un telescopio en la Tierra), las longitudes de onda se estiran, y el espectro de luz se desplaza hacia el rojo. Si la fuente de luz se acercara a gran velocidad se produciría un desplazamiento hacia el azul. Efecto fotoeléctrico: descubierto por Heinrich Hertz, consiste en el cambio energético de los electrones por acción de un campo electromagnético. Emisión estimulada: proceso por el que un fotón interacciona con un medio que se encuentra excitado, dando lugar a la emisión de un fotón por este último, cuyas características (energía fase y polarización) son idénticas a las del fotón inicial. Enlace químico: fuerza física que une los átomos entre sí para formar moléculas. Espectro electromagnético: intervalo de longitudes de onda sobre el que se extiende la radiación electromagnética obtenida por absorción, emisión o scattering de la luz con la materia. Espectroscopía: rama del conocimiento que estudia la estructura de la materia a través de los espectros electromagnéticos. Fibra óptica: hilo transparente y flexible creado a partir de vidrio o plástico, diseñado para confinar la luz de forma muy eficiente, lo que resulta en una guía de onda con muy pocas pérdidas. Fluorescencia: emisión de luz por una sustancia, que se produce tras la absorción de luz. Habitualmente la luz emitida tiene una longitud de onda más larga que la absorbida. Fonón: cuasi partícula sin masa que corresponde a un cuanto de energía vibracional de la red atómica de un sólido. Fosforescencia: un tipo de fluorescencia en el cual la emisión no es inmediata, sino retardada segundos, minutos o hasta horas. Fotón: mínimo constituyente (carente de masa) de la luz y que posee una naturaleza dual tanto corpuscular como ondulatoria. Guía de onda: estructura que permite guiar ondas con bajas pérdidas. En particular, una guía de onda óptica es aquella que guía ondas electromagnéticas con frecuencias normalmente incluidas en el intervalo visible o infrarrojo. 158
C000 luz 2015 (FERROS).indd 158
05/05/15 13:00
Iluminancia: cantidad de luz que llega a una superficie por unidad de área. Incandescencia: emisión energética en forma de luz provocada cuando un cuerpo se somete a calentamiento. Índice de refracción de un medio: número adimensional que rige cómo se propaga la luz por ese medio: la velocidad de propagación y el ángulo con el que se desvía la luz al pasar de un medio a otro diferente. Infrarrojo: región del espectro electromagnético comprendida entre las longitudes de onda de 750 nm y 1 mm, lo que corresponde al intervalo de frecuencias comprendido entre 400 THz y 300 GHz. Interferencia: es un fenómeno óptico que pone de manifiesto la naturaleza ondulatoria de la luz. Cuando se superponen dos ondas luminosas forman una onda que en algunos puntos tiene mayor amplitud, y en otros menor. Láser: dispositivo que basándose en el fenómeno cuántico de la emisión estimulada amplifica de manera extraordinaria un haz de luz coherente tanto espacial como temporalmente. Del acrónimo inglés Light Amplification by Stimulated Emission of Radiation, que significa amplificación de luz mediante emisión estimulada de radiación. LED: diodo emisor de luz basado en la combinación dos semiconductores con exceso de electrones (tipo n) y huecos (tipo p), respectivamente. En la región de contacto entre ambos se produce la recombinación de electrones y huecos dando lugar a la emisión de luz. Del acrónimo inglés Light Emitting Diode. Longitud de onda: el periodo espacial de una onda luminosa, la distancia entre dos picos consecutivos. Luminancia: intensidad luminosa emitida por unidad de área de un objeto. Nanociencia: ciencia que aborda los fenómenos que ocurren en sistemas cuyo tamaño característico se encuentra en el intervalo de 10 a 100 nm. Polarización: propiedad de un campo electromagnético que hace referencia a la dirección de vibración de la onda transversal asociada. Radiación electromagnética: campo electromagnético resultante de la aceleración de una carga eléctrica que se propaga a través del espacio en forma de ondas oscilantes del campo eléctrico y magnético y que porta energía. Refracción: fenómeno óptico por el cual un haz de luz se desvía en la superficie de separación entre dos medios que tienen propiedades ópticas diferentes y en concreto distinto índice de refracción. Reflexión: fenómeno óptico por el cual un haz de luz se refleja en una superficie. 159
C000 luz 2015 (FERROS).indd 159
05/05/15 13:00
Relatividad especial: teoría física que postula que la velocidad de la luz en el vacío es independiente del sistema de referencia utilizado para medirla. Relatividad general: teoría física desarrollada por Einstein que describe una geometría del espacio-tiempo afectada por la materia a través de la gravedad. Semiconductor: medio material que se caracteriza por presentar un intervalo de energía entre sus bandas de valencia y conducción mucho menor que en un aislante, de forma que puede poseer una cierta cantidad de electrones en la banda de conducción a temperatura ambiente. Teoría cuántica: teoría física que describe un sistema físico formado por magnitudes discontinuas cuya unidad mínima de energía o materia es un cuanto. Transmisión: fenómeno óptico que se produce cuando la luz atraviesa un medio. Habitualmente va acompañado de otros fenómenos ópticos, especialmente absorción. Ultravioleta: región del espectro electromagnético comprendida entre las longitudes de onda de 4 nm y el extremo violeta del espectro visible, lo que corresponde a unos 400 mm (3000-790 THz). Visible: región del espectro electromagnético a la que es sensible el ojo humano, lo que aproximadamente corresponde al intervalo de longitudes de onda comprendido entre 400 nm y 750 nm (790-400 THz).
160
C000 luz 2015 (FERROS).indd 160
05/05/15 13:00
Autores
Sergio Barbero es científico titular del CSIC en el Instituto de Óptica. En la actualidad desempeña el cargo de secretario de la Sociedad Española de Óptica y del Comité Español del Año Internacional de la Luz 2015. Su principal área de investigación es la óptica visual y el diseño óptico. Es autor del libro de divulgación: ¿Cómo funcionan nuestras gafas?, editado por el CSIC y Los Libros de la Catarata.
Carlos Dorronsoro es científico titular del CSIC en el Instituto de Óptica. Ha desarrollado su labor investigadora en el campo de la óptica y la visión, en el CSIC, en el CIDA y en distintas empresas. Es socio fundador de dos empresas de base tecnológica e inventor en unas 20 patentes en el campo de las tecnologías ópticas, la mitad de ellas licenciadas a la industria.
161
C000 luz 2015 (FERROS).indd 161
05/05/15 13:00
José Gonzalo de los Reyes es investigador científico del CSIC en el Instituto de Óptica, de cuyo Laboratorio de Síntesis y Procesado de Materiales por Láser es responsable. Su investigación se centra actualmente en el diseño, desarrollo y producción de nuevos materiales y nanoestructuras para aplicaciones en energía, comunicaciones y óptica integrada mediante técnicas láser avanzadas. Es miembro de las Sociedad Óptica Española y la Sociedad Cerámica Americana.
Alfonso V. Carrascosa es científico del CSIC en el Museo Nacional de Ciencias Naturales. La mayor parte de su carrera profesional la ha dedicado a la investigación en microbiología, y desde hace un tiempo estudia también historia y documentación de las ciencias naturales en España, actividad que compagina con la divulgación científica.
Carolina Martín Albaladejo es investigadora en el Museo Nacional de Ciencias Naturales, institución donde trabaja desde hace más de 30 años. Actualmente investiga en temas relacionados con la historia de la ciencia, en especial, la del museo y la de la entomología española. Fue conservadora de la colección de insectos del museo y ahora es responsable científica de la de instrumentos científicos históricos y de la colección de bellas artes y artes decorativas.
162
C000 luz 2015 (FERROS).indd 162
05/05/15 13:00
Susana Marcos es profesora de investigación del CSIC en el Instituto de Óptica, del cual ha sido directora. Su trabajo en el campo de la óptica visual y biofotónica ha sido reconocido con numerosos premios internacionales. Ha sido nombrada “elected Fellow” de la Sociedad Europea de Óptica (EOS), de la Association of Research in Vision and Ophthalmology (ARVO), y de la Sociedad Americana de Óptica (OSA), en la que también ocupa un cargo directivo (Director-at-large).
Pedro Corredera es investigador científico del Instituto de Óptica del CSIC. Doctor en Ciencias Físicas por la Universidad de Salamanca. Su principal campo de investigación es el de la metrología de las fibras ópticas, sus propiedades no lineales y sus aplicaciones como sensores. Es miembro de las Sociedades de Óptica Española, Europea y Americana.
José Vicente García Ramos es profesor de investigación del CSIC en el Instituto de Estructura de la Materia, del cual fue director. Ha dedicado su labor investigadora a la espectroscopía molecular (infrarroja y Raman). Pionero en España de la técnica Surface Enhanced Raman Scattering, ha sido investigador principal de numerosos proyectos y ha publicado cerca de 200 artículos científicos. Fue presidente de la Sociedad Española de Óptica (1996-1999) y vicepresidente adjunto de programación científica del CSIC (2004-2008).
163
C000 luz 2015 (FERROS).indd 163
05/05/15 13:00
Pablo Aitor Postigo es científico titular del CSIC en el Instituto de Microelectrónica de Madrid. Su trabajo se centra en aplicar la nanotecnología a dispositivos como las células solares o los microláseres para obtener una mayor eficiencia en el funcionamiento de los mismos.
Juan Diego Ania Castañón es investigador científico del CSIC en el Instituto de Óptica. Su labor investigadora está principalmente relacionada con el estudio de las propiedades de la luz al propagarse por un medio confinado, como las fibras ópticas, y la aplicación de estas propiedades a campos como las telecomunicaciones, los sensores o el desarrollo de nuevos tipos de láser. Aparte de su labor investigadora, es autor de varios artículos de divulgación y coautor de varios libros de carácter científico-técnico.
Alfred Rosenberg González es astrofísico divulgador del Instituto de Astrofísica de Canarias (IAC). Sus campos principales de investigación son: “Poblaciones Estelares”, “Formación y Evolución Galáctica” y “Exoplanetas”. Tras realizar el doctorado en el Osservatorio Astronomico di Padova (Italia), trabajó ocho años como astrónomo de soporte de los observatorios de Canarias, y desde hace una década realiza labores de divulgación y comunicación en el IAC.
164
C000 luz 2015 (FERROS).indd 164
05/05/15 13:00
Fernando Jesús Castaño es director científico de la división de I+D fotovoltaico de Abengoa Research. Sus intereses se centran en materiales en forma de películas delgadas, fabricación de dispositivos con semiconductores y sistemas fotovoltaicos integrando células solares basadas en silicio cristalino, películas delgadas y semiconductores III-V. Es socio fundador de dos startups de base tecnológica, coautor de siete patentes y más de 100 artículos científicos.
Ramón Corbalán Yuste es catedrático de Óptica en la Universidad Autónoma de Barcelona. Siguiendo la espectacular evolución de la óptica durante las últimas décadas, ha estudiado diversas cuestiones relacionadas con la interacción luz (láser)-materia (átomos o moléculas), que se enmarcan en campos tales como: espectroscopia láser de alta resolución, óptica no lineal, óptica cuántica, física del láser, dinámica no lineal y caos en láseres, información cuántica y óptica atómica.
Germán J. de Valcárcel Gonzalvo es catedrático de Óptica en la Facultad de Física de la Universitat de València. Como docente ha impartido diversas asignaturas, la mayoría relacionada con la luz y su interacción con los átomos y moléculas. Su campo de especialización es la óptica cuántica y la óptica no lineal (láseres, fluctuaciones cuánticas, solitones), habiendo publicado cerca de cien artículos de investigación en revistas internacionales.
165
C000 luz 2015 (FERROS).indd 165
05/05/15 13:00
Eugenio Roldán Serrano es catedrático de Óptica en la Facultad de Física de la Universitat de València. Desde hace veinte años ha impartido cursos de óptica general, óptica cuántica y óptica no lineal. Siempre interesado en la naturaleza de la luz, sus investigaciones cubren la física del láser, la dinámica espaciotemporal de sistemas ópticos y la generación de luz comprimida. Es autor de un centenar de publicaciones internacionales.
Ramón Vilaseca Alavedra es catedrático de Física Aplicada en la Universitat Politècnica de Catalunya (UPC), en el campus de Terrassa. Es profesor de Física, Fotónica y Láseres en las carreras de Ingeniería Industrial e Ingeniería Aeronáutica, además de director del Máster Interuniversitario de Fotónica. Coordina el grupo de investigación en Dinámica No Lineal, Óptica No Lineal y Láseres (DONLL) de la UPC, temáticas en las que realiza su labor investigadora.
María del Mar Gandolfo de Luque es licenciada en Ciencias Físicas por la Universidad Autónoma de Madrid, en la especialidad de Óptica y Estructura de la Materia. En la actualidad es directora de Formación de Alumbrado de Philips. Es además profesora en diversos másteres y cursos: Máster DIA, Máster Diseño de Interiores de Salamanca, Máster ERMA o el Curso de Experto de Construcción Sostenible de la Universidad de Granada.
166
C000 luz 2015 (FERROS).indd 166
05/05/15 13:01
Javier Solís es profesor de Investigación del CSIC en el Instituto de Óptica, donde es responsable del Laboratorio de Pulsos Ultracortos del Grupo de Procesado por Láser. Su investigación se centra en el uso de espectroscopias resueltas en el tiempo para el análisis y control de procesos de interacción láser-materia en escalas ultrarrápidas, así como en el procesado de materiales con pulsos láser ultracortos para aplicaciones fotónicas.
Belen Maté Naya es científica titular en el Instituto de Estructura de la Materia del CSIC. Licenciada en Ciencias Físicas por la Universidad de Zaragoza (1992) y doctora en Ciencias Físicas por la Universidad Autónoma de Madrid (1997), su trabajo actual se centra en el campo de la astroquímica de laboratorio. Es especialista en espectroscopia infrarroja de sólidos moleculares, análogos a los existentes en objetos astrofísicos. Es presidenta del Comité de Espectroscopía de SEDOPTICA.
Delia Fernández Torre es licenciada en Ciencias Físicas (2000) y doctora en Ciencias Químicas (2005) por la Universidad Autónoma de Madrid. Ha dedicado gran parte de su actividad investigadora al estudio teórico de hielos presentes en la atmósfera terrestre, a la predicción de sus propiedades ópticas y a la interpretación de sus espectros de infrarrojo medidos in situ y en el laboratorio.
167
C000 luz 2015 (FERROS).indd 167
05/05/15 13:01
C000 luz 2015 (FERROS).indd 168
05/05/15 13:01
21
COLECCIÓNDIVULGACIÓN
La luz La luz
Ciencia y tecnología
SERGIO BARBERO, CARLOS DORRONSORO, JOSÉ GONZALO
COORDINADORES
•
¿Qué es la luz? Es una de las grandes preguntas que se ha hecho la ciencia desde sus inicios. Ya desde el siglo XVII se planteó una crucial disyuntiva: ¿la luz es partícula u onda? Si bien inicialmente la noción corpuscular pareció imponerse, gracias sobre todo a la autoridad de Newton, fenómenos ópticos como la difracción o la interferencia óptica hicieron que en el siglo XIX el modelo ondulatorio acabase desplazando al corpuscular. La luz es fundamental para entender lo que nos rodea. Es un elemento básico del universo e incluso algunos aspectos esenciales de este, como la vida, no serían posibles sin ella. Así pues, no sorprende que una mirada atenta a la historia demuestre que las ciencias que se han preocupado por la luz hayan sido cruciales para el progreso de la humanidad; de ahí que sea tan estimulante su estudio y conocimiento. Con motivo del Año Internacional de la Luz, este libro pretende explicar las bases de lo que, actualmente, sabemos sobre las propiedades de la luz y su interacción con otros objetos, poniendo especial énfasis en las aplicaciones tecnológicas. En particular, se describe la relación de la luz con el universo, la vida, la visión, las moléculas, la atmósfera, la materia, la iluminación, la comunicación, la nanociencia y la energía. Ciertamente, es abrumador constatar la presencia de la luz en toda la realidad, y si aún la ciencia no ha postulado, como muchas religiones, que en el principio fue la luz, sí parece claro que el mundo no sería tal y como lo conocemos si no fuese por ella.
COLECCIÓNDIVULGACIÓN
La luz Ciencia y tecnología SERGIO BARBERO, CARLOS DORRONSORO, JOSÉ GONZALO COORDINADORES
ISBN: 978-84-00-09922-0
21_Laluz.indd 1
7/5/15 13:53