127 84 6MB
Spanish Pages 142 [146] Year 2019
49. Las moléculas: cuando la luz te ayuda a vibrar. José Vicente García Ramos
50. Las células madre. Karel H. M. van Wely 51. Los metales en la Antigüedad. Ignacio Montero 52. El caballito de mar. Miquel Planas Oliver 53. La locura. Rafael Huertas 54. Las proteínas de los alimentos. Rosina López Fandiño 55. Los neutrinos. Sergio Pastor Carpi 56. Cómo funcionan nuestras gafas. Sergio Barbero Briones 57. El grafeno. Rosa Menéndez y Clara Blanco 58. Los agujeros negros. José Luis Fernández Barbón 59. Terapia génica. Blanca Laffon, Vanessa Valdiglesias y Eduardo Pásaro 60. Las hormonas. Ana Aranda 61. La mirada de Medusa. Francisco Pelayo 62. Robots. Elena García Armada 63. El Parkinson. Carmen Gil y Ana Martínez 64. Mecánica cuántica. Salvador Miret Artés 65. Los primeros homininos. Paleontología humana. Antonio Rosas 66. Las matemáticas de los cristales. Manuel de León y Ágata Timón 67. Del electrón al chip. Gloria Huertas, Luisa Huertas y José L. Huertas 68. La enfermedad celíaca. Yolanda Sanz, María del Carmen Cénit y Marta Olivares
69. La criptografía. Luis Hernández Encinas 70. La demencia. Jesús Ávila 71. Las enzimas. Francisco J. Plou 72. Las proteínas dúctiles. Inmaculada Yruela Guerrero 73. Las encuestas de opinión. Joan Font Fàbregas y Sara Pasadas del Amo 74. La alquimia. Joaquín Pérez Pariente 75. La epigenética. Carlos Romá Mateo 76. El chocolate. María Ángeles Martín Arribas 77. La evolución del género ‘Homo’. Antonio Rosas 78. Neuromatemáticas. El lenguaje eléctrico del cerebro. José María Almira y Moisés Aguilar-Domingo 79. La microbiota intestinal. Carmen Peláez y Teresa Requena 80. El olfato. Laura López-Mascaraque y José Ramón Alonso 81. Las algas que comemos. Elena Ibáñez y Miguel Herrero 82. Los riesgos de la nanotecnología. Marta Bermejo Bermejo y Pedro A. Serena Domingo 83. Los desiertos y la desertificación. J. M. Valderrama 84. Matemáticas y ajedrez. Razvan Iagar 85. Los alucinógenos. José Antonio López Sáez 86. Las malas hierbas. César Fernández-Quintanilla y José Luis González Andújar 87. Inteligencia artificial. Ramon López de Mántaras Badia y Pedro Meseguer González 88. Las matemáticas de la luz. Manuel de León y Ágata Timón 89. Cultivos transgénicos. José Pío Beltrán 90. El Antropoceno. Valentí Rull 91. La gravedad. Carlos Barceló Serón 92. Cómo se fabrica un medicamento. María del Carmen Fernández Alonso y Nuria E. Campillo Martín 93. Los falsos mitos de la alimentación. Miguel Herrero 94. El ruido. Pedro Cobo Parra y María Cuesta Ruiz 95. La locomoción. Adrià Casinos 96. Antimateria. Beatriz Gato Rivera 97. Las geometrías y otras revoluciones. Marina Logares 98. Enanas marrones. María Cruz Gálvez Ortiz 99. Las tierras raras. Ricardo Prego Reboredo
¿de qué sirve la ciencia si no hay entendimiento?
100_ElLHCylafronteradelafísica.indd 1
¿QUÉ SABEMOS DE?
El LHC y la frontera de la física
Diez años después de la primera edición de este libro, Alberto Casas actualiza y amplía este viaje fascinante por la ciencia básica y por la física fundamental. Realiza un sugerente recorrido por la historia de las ideas más importantes en las que se basa nuestra comprensión actual de la naturaleza y expone las preguntas aún sin respuesta, hasta llegar a la frontera actual de la física y lo que puede haber más allá de la misma. ¿Qué es y para qué sirve el LHC? ¿Entraña algún peligro para el planeta? “Con mano firme, y excelente prosa, el autor les conduce, a través de una exposición magistral, por los logros de la física moderna: la teoría de la relatividad, la mecánica cuántica, la física de partículas, la cosmología moderna. Con sus luces y sus sombras. Descubrirán los interrogantes que obsesionan y fascinan a miles de científicos en la búsqueda de las leyes que rigen el funcionamiento del universo, y por qué el LHC es un eslabón fundamental para encontrar respuestas a preguntas que ponen en cuestión nuestra propia existencia [… el libro] es una miniatura maestra”. Luis Álvarez-Gaumé, director de la División Teórica del CERN
¿QUÉ SABEMOS DE? EL LHC Y LA FRONTERA DE LA FÍSICA
y Ágata Timón
Alberto Casas
48. Rompiendo códigos. Vida y legado de Turing. Manuel de León
El LHC y la frontera de la física El camino a la teoría del todo Alberto Casas
edi A M P L ción ACTUA IADA Y LIZADA
¿ QUÉ SABEMOS DE?
1. El LHC y la frontera de la física. Alberto Casas 2. El Alzheimer. Ana Martínez 3. Las matemáticas del sistema solar. Manuel de León, Juan Carlos Marrero y David Martín de Diego
4. El jardín de las galaxias. Mariano Moles 5. Las plantas que comemos. Pere Puigdomènech 6. Cómo protegernos de los peligros de Internet. Gonzalo Álvarez Marañón
7. El calamar gigante. Ángel Guerra Sierra y Ángel F. González González 8. Las matemáticas y la física del caos. Manuel de León y Miguel Á. F. Sanjuán
9. Los neandertales. Antonio Rosas 10. Titán. Luisa M. Lara 11. La nanotecnología. Pedro A. Serena Domingo 12. Las migraciones de España a Iberoamérica desde la Independencia. Consuelo Naranjo Orovio 13. El lado oscuro del universo. Alberto Casas 14. Cómo se comunican las neuronas. Juan Lerma 15. Los números. Javier Cilleruelo y Antonio Córdoba 16. Agroecología y producción ecológica. Antonio Bello, Concepción Jordá y Julio César Tello
17. La presunta autoridad de los diccionarios. Javier López Facal 18. El dolor. Pilar Goya Laza y Mª Isabel Martín Fontelles 19. Los microbios que comemos. Alfonso V. Carrascosa 20. El vino. Mª Victoria Moreno-Arribas 21. Plasma: el cuarto estado de la materia. Teresa de los Arcos e Isabel Tanarro
22. Los hongos. M. Teresa Tellería 23. Los volcanes. Joan Martí Molist 24. El cáncer y los cromosomas. Karel H. M. van Wely 25. El síndrome de Down. Salvador Martínez Pérez 26. La química verde. José Manuel López Nieto 27. Princesas, abejas y matemáticas. David Martín de Diego 28. Los avances de la química. Bernardo Herradón García 29. Exoplanetas. Álvaro Giménez 30. La sordera. Isabel Varela Nieto y Luis Lassaletta Atienza 31. Cometas y asteroides. Pedro José Gutiérrez Buenestado 32. Incendios forestales. Juli G. Pausas 33. Paladear con el cerebro. Francisco Javier Cudeiro Mazaira 34. Meteoritos. Josep Maria Trigo Rodríguez 35. Parasitismo. Juan José Soler 36. El bosón de Higgs. Alberto Casas y Teresa Rodrigo 37. Exploración planetaria. Rafael Rodrigo 38. La geometría del universo. Manuel de León 39. La metamorfosis de los insectos. Xavier Bellés 40. La vida al límite. Carlos Pedrós-Alió 41. El significado de innovar. Elena Castro Martínez
Alberto Casas es doctor en Física Teórica y profesor de Investigación del CSIC en el Instituto de Física Teórica (CSIC-UAM). Sus áreas de investigación son la física de partículas elementales y la cosmología.
e Ignacio Fernández de Lucio
42. Los números trascendentes. Javier Fresán y Juanjo Rué 43. Extraterrestres. Javier Gómez-Elvira y Daniel Martín Mayorga 44. La vida en el universo. F. Javier Martín-Torres y Juan Francisco Buenestado
ISBN: 978-84-00-10464-1
100
45. La cultura escrita. José Manuel Prieto 46. Biomateriales. María Vallet Regí 47. La caza como recurso renovable y la conservación de la naturaleza. Jorge Cassinello Roldán
25/2/19 12:00
El LHC y la frontera de la física El camino a la teoría del todo
Alberto Casas
Colección ¿Qué sabemos de? COMITÉ EDITORIAL
CONSEJO ASESOR
Pilar Tigeras Sánchez, Directora Carmen Guerrero Martínez, Secretaria Ramón Rodríguez Martínez Jose Manuel Prieto Bernabé Arantza Chivite Vázquez Javier Senén García Carmen Viamonte Tortajada Manuel de León Rodríguez Isabel Varela Nieto Alberto Casas González
José Ramón Urquijo Goitia Avelino Corma Canós Ginés Morata Pérez Luis Calvo Calvo Miguel Ferrer Baena Eduardo Pardo de Guevara y Valdés Víctor Manuel Orera Clemente Pilar López Sancho Pilar Goya Laza Elena Castro Martínez
Rosina López-Alonso Fandiño María Victoria Moreno Arribas David Martín de Diego Susana Marcos Celestino Carlos Pedrós Alió Matilde Barón Ayala Pilar Herrero Fernández Miguel Ángel Puig-Samper Mulero Jaime Pérez del Val
Catálogo general de publicaciones oficiales http :// publicacionesoficiales . boe . es
Diseño gráfico de cubierta: Carlos Del Giudice © © ©
Alberto Casas, 2019 CSIC, 2019 Los Libros de la Catarata, 2019 Fuencarral, 70 28004 Madrid Tel. 91 532 20 77 www.catarata.org
isbn (csic):
978-84-00-10464-1 978-84-00-10465-8 isbn (catarata): 978-84-9097-643-2 isbn electrónico (catarata): 978-84-9097-644-9 nipo: 694-19-077-5 nipo electrónico: 694-19-078-0 depósito legal: M-6.953-2019 ibic: PDZ/PHP isbn electrónico (csic):
Reservados todos los derechos por la legislación en materia de Propiedad Intelectual. Ni la totalidad ni parte de este libro, incluido el diseño de la cubierta, puede reproducirse, almacenarse o transmitirse en manera alguna por medio ya sea electrónico, químico, óptico, informático, de grabación o de fotocopia, sin permiso previo por escrito del Consejo Superior de Investigaciones Científicas y Los Libros de la Catarata. Las noticias, los asertos y las opiniones contenidos en esta obra son de la exclusiva responsabilidad del autor o autores.
El Consejo Superior de Investigaciones Científicas y Los Libros de Catarata, por su parte, solo se hacen responsables del interés científico de sus publicaciones. la
Índice
INTRODUCCIÓN 5 CAPÍTULO 1. El porqué de las cosas 9 CAPÍTULO 2. Los pilares de la física 23 CAPÍTULO 3. La frontera actual: el Modelo Estándar 48 CAPÍTULO 4. La partícula maldita 73 CAPÍTULO 5. La ‘terra incognita’ 86 CAPÍTULO 6. La máquina de la verdad 100 CAPÍTULO 7. ¿Para qué sirve el LHC? 113 CAPÍTULO 8. ¿El fin del mundo? 121 APÉNDICE. Nueve años de LHC 127 BIBLIOGRAFÍA 141
Introducción
El LHC es la máquina más grande y compleja jamás proyec tada por la humanidad. Eso, en sí mismo, no es especialmente sorprendente, alguna tendría que serlo. Lo asombroso es que esa máquina no tenga una finalidad económica o militar, sino científica. El LHC es un instrumento para investigar la natu raleza al nivel más básico posible. Su objetivo es satisfacer la curiosidad humana acerca del universo, algo casi romántico. Quizá más increíble aún: no es el proyecto de un solo país. En el LHC participan miles de físicos, ingenieros y técnicos de todo el mundo. Aunque se trata de un proyecto funda mentalmente europeo, a su financiación contribuyen también Estados Unidos, Rusia, India, Canadá, Japón y otros países. Pero ¿qué es el LHC? Cuando se realizó la primera edición de este libro, en 2009, las siglas LHC eran desconocidas para la mayoría de la población. A finales de ese año, y después de 10 años de di seño y 14 de construcción, el LHC comenzó su andadura científica. En 2012 ocupó la primera página de todos los pe riódicos del mundo al realizar el descubrimiento del bosón de Higgs. En ese momento, muchas personas se enteraron de que el LHC era un acelerador de partículas, con la forma de un anillo de dimensiones colosales. Lo que quizá no quedó tan claro es qué sucedía dentro de ese anillo, qué cosas se estaban 5
investigando con él, y qué era el dichoso bosón de Higgs y por qué era tan importante. Tampoco quedó muy claro cuáles eran los siguientes objetivos científicos del LHC. El propósito de este librito es responder a estas preguntas. En pocas palabras, el LHC es una máquina para acelerar protones (es decir, núcleos de hidrógeno) hasta velocidades próximas a las de la luz, y hacerlos chocar unos contra otros. Sus siglas, LHC, corresponden a Large Hadron Collider, o sea Gran Colisionador de Hadrones. Los hadrones son una clase de partículas elementales a la que pertenecen los proto nes, y cuyo significado quedará claro más adelante. En cada choque se producen gran cantidad de partículas subatómicas, cuyo estudio permite adentrarse en los entresijos más íntimos de la naturaleza. La parte más importante de esta máquina es un anillo de 27 km de circunferencia instalado dentro de un túnel a 100 m de profundidad entre Suiza y Francia, cerca de la ciudad de Ginebra. Por el interior del anillo circulan, en los dos sentidos, millones de protones, que son acelerados y dirigidos por intensísimos campos eléctricos y magnéticos. Las colisiones entre protones se producen en ciertos puntos del anillo, donde están instalados gigantescos y sofisticados detectores que registran y analizan las partículas produci das. Todo en el LHC es de una proporción sin precedentes. Además de su gigantesco tamaño, pensemos en los siguien tes hechos. El LHC no es solo el mayor acelerador de partículas, sino también el congelador más grande y potente del mundo, ya que es capaz de mantener las 40.000 toneladas del anillo (unas cinco veces la masa de la Torre Eiffel) a una tempera tura de 271,3 ºC bajo cero, más baja que la del espacio inter galáctico. Paradójicamente, dentro del LHC se generan las temperaturas más altas de la galaxia: unas 100.000 veces la temperatura del interior del Sol, pero en el minúsculo espacio donde tienen lugar algunas de las colisiones. Por este hecho se ha dicho a veces que el LHC es la “máquina del Big Bang”, ya que puede recrear las condiciones que tenía el universo 6
primitivo una fracción de segundo después de la gran explo sión, como nunca antes se había logrado. El LHC ostenta otros récords y hechos impresionantes. El tubo por donde circulan los protones es uno de los lugares más vacíos del sistema solar (más vacío que la atmósfera lu nar). Los electroimanes encargados de producir los campos magnéticos que dirigen los protones están constituidos por bobinas de hilos superconductores, 10 veces más finos que un cabello humano. Si se pusieran uno a continuación de otro, harían seis viajes de ida y vuelta hasta el Sol. Los protones viajan por el anillo al 99,999999% de la velocidad de la luz. En cada momento hay 300 billones de protones circulando en cada sentido. Sin embargo, los protones son tan ligeros que esto representa tan solo el peso de una microscópica célula del cuerpo humano. Aun así, su velocidad es tan gigantesca que esa alargada “célula” lleva la misma energía cinética que un tren de 400 toneladas, circulando a 150 km/hora. Pero todo esto son aspectos técnicos. ¿Qué se investiga en el LHC? En pocas palabras, el objetivo del LHC es traspasar la frontera actual del conocimiento básico sobre la naturaleza. Por supuesto, el conocimiento humano, y en particular el científico, tiene muchas fronteras. Todo lo que no entende mos y desearíamos entender supone una frontera, y por ello se investiga con gran intensidad en muchos campos: las cé lulas madre, la neurociencia, los nuevos materiales, el cambio climático, etc. Muchas de estas investigaciones pueden tener un gran impacto práctico en nuestras vidas. Sin embargo, el LHC se dirige a una frontera especial de nuestro conocimien to: comprender el porqué de las cosas, es decir, las leyes básicas de la naturaleza; un territorio lleno de descubrimientos y mis terios fascinantes. Ese es el viaje que vamos a realizar a lo largo del libro; y se trata realmente de un viaje apasionante, en el que nos adentraremos en uno de los logros intelectuales más extraor dinarios de la historia.
7
CAPÍTULO 1
El porqué de las cosas
Para empezar por el principio, es conveniente pensar sobre la forma en que la ciencia ofrece explicaciones a los fenómenos naturales. La variedad de fenómenos observables a simple vista es extraordinaria. Por ejemplo, existe una gran canti dad de sustancias con propiedades diversas: aire, agua, rocas, metales, etc. También observamos todos los seres vivos en su fantástica diversidad. Y observamos estrellas y otros planetas; y fenómenos como la luz, el calor, la gravedad, el fuego, la electricidad, etc. Con ayuda de instrumentos, se pueden ob servar muchos más objetos y fenómenos interesantes: desde átomos y partículas elementales a escala microscópica, hasta galaxias y procesos cósmicos, como la expansión del univer so, a escalas gigantes. Después de 400 años de historia, la ciencia moderna ha conseguido explicar satisfactoriamente la mayor parte de estos fenómenos. “Explicar” significa en gran medida com prender que dos o más fenómenos, que aparentemente no tienen nada que ver, son realmente consecuencia de una mis ma causa. Por ejemplo, los millones de sustancias diversas a nuestro alrededor se explican a partir de unos 100 elementos químicos básicos y sus combinaciones; todas las órbitas de los planetas y satélites se explican por la ley de la gravedad, la misma que describe la caída de objetos en la Tierra; la luz, 9
los rayos X y las ondas de radio son todos ellos ondas electro magnéticas, que solo difieren en su longitud de onda; etc. De este modo la diversidad extraordinaria de la naturaleza queda descrita por un número relativamente pequeño de hechos y leyes físicas subyacentes. Esto supone un gran éxito intelec tual. En cuatro siglos, la ciencia ha avanzado en este camino mucho más de lo que se avanzó en todos los miles de años anteriores. Además de satisfacer la curiosidad humana, esta forma de explicar los fenómenos naturales tiene un potencial práctico extraordinario, ya que no solo nos permite compren der fenómenos; nos permite también predecirlos. Por ejemplo, usando la ley de la gravedad, se puede predecir el movimiento de los planetas y otros cuerpos celestes.Y también el de sondas espaciales lanzadas desde la Tierra, lo que ha permitido ha cerlas llegar a todos los planetas del sistema solar, o poner en órbita satélites de comunicaciones, observación meteorológica o localización GPS. A pesar de estos éxitos, hay fenómenos y sistemas físicos que no son fáciles de comprender, debido a su complejidad. Por ejemplo, creemos que el funcionamiento de los seres vi vos es la consecuencia de los procesos físicos y químicos que ocurren en su interior. Estos procesos se basan en leyes físicas bien conocidas. Sin embargo, la tremenda complejidad de un ser vivo, especialmente de su cerebro, hace muy difícil reali zar predicciones precisas de cómo se comportará en una si tuación determinada. Aunque se ha avanzado mucho en este terreno, estamos aún lejos de predecir el comportamiento de un cerebro como predecimos el movimiento de un planeta. Sin embargo, sigue siendo cierto que ese comportamiento es la consecuencia de leyes físicas relativamente simples, aun que en un sistema extremadamente complejo. No hay ningún dato experimental que contradiga esta creencia, y hay millo nes que la respaldan. No solo un sofisticado cerebro es un sis tema de gran complejidad. Un simple material amorfo puede ser terriblemente complejo y difícil de comprender. Incluso algo tan elemental como un protón es, como veremos, de una extraordinaria complejidad interna. Entender estos complejos 10
sistemas, a veces tan importantes y fascinantes como un ce rebro humano, a partir de leyes físicas conocidas es una tarea científica de primer orden, que se sitúa indudablemente en la frontera de nuestro conocimiento. Sin embargo, no son estas fronteras del conocimiento hacia las que se dirige el LHC. Volvamos un paso hacia atrás. Hemos dicho que las sus tancias y materiales que observamos pueden explicarse a par tir de 100 elementos químicos. Eso está muy bien, pero no es enteramente satisfactorio. La nueva pregunta por contestar es: ¿por qué existen esos 100 elementos químicos distintos? Esta pregunta se situó en su momento (a principios del si glo XX) en la frontera fundamental de la ciencia. El proble ma no era que los elementos químicos fuesen sistemas muy complejos y difíciles de explicar a partir de hechos conocidos. El problema era que no se podían explicar a partir de hechos conocidos. Para explicarlos había que ir un paso más allá, ha cia las leyes y hechos básicos de la naturaleza. Ese es el tipo de frontera fundamental hacia la que se dirige hoy el LHC. En su momento, el enigma de los elementos químicos pudo ser explicado en términos más básicos. Las propiedades de dichos elementos son consecuencia de la estructura de los átomos que los componen: un núcleo formado por protones y neutrones, y una corteza formada por electrones. De esta for ma, los elementos químicos y sus propiedades pudieron ser entendidos a partir de tres partículas básicas y las interaccio nes entre ellas. Este hallazgo, uno de los más impresionantes de la ciencia moderna, requirió algunas décadas de trabajo e imaginación de grandes científicos, como Rutherford y Bohr. Una vez que la existencia y estructura de los átomos que dó establecida, las partículas de las que están hechos pasaron a ser el nuevo hecho enigmático por explicar: ¿por qué hay protones, neutrones y electrones, y por qué son como son? Esta pregunta se situó en la nueva frontera del conocimiento, y de hecho hasta el momento solo ha podido ser respondida de forma parcial, como veremos. En gran medida, la ciencia en general, y la física en particular, se hace preguntas en la forma que lo hacen los niños de tres o cuatro años, siempre 11
preguntando el porqué de todas las cosas. A cada nueva “explicación” que se les da, ellos vuelven a preguntar “¿por qué?” y llega un momento en que no sabemos responder. Ahí es cuando chocamos con la frontera de nuestro conocimiento básico. Alguien extremadamente escéptico podría objetar que, en realidad, la ciencia no explica nada, ya que para cada respuesta tenemos siempre una pregunta nueva. Pero desde luego, esto no es así. Descubrir que fenómenos sin relación aparente son en realidad efectos de una causa común representa un avance decisivo en la profundidad de nuestro conocimiento. Es inne gable que hoy conocemos la naturaleza incomparablemente mejor que en cualquier época pasada. Además, ni siquiera está claro si siempre podremos hacernos nuevas preguntas que no sabremos responder. Un hecho fascinante que hemos apren dido de la naturaleza es que a medida que nos acercamos a las causas últimas de los fenómenos, el número de preguntas básicas es cada vez menor. Esto podría no haber sido así. En un mundo imaginario, la enorme diversidad de fenómenos que observamos podría haber sido consecuencia de una enorme diversidad de causas. En ese mundo, el poder explicativo y la capacidad predictiva de la ciencia serían mucho menores. Sin embargo, no parece que sea así. Cuanto más profundizamos en las causas últimas de las cosas, más se reduce el número de leyes y hechos básicos que explican todos los demás, a veces de forma asombrosa. No solo eso: a medida que encontramos leyes más básicas, normalmente estas resultan ser más simples. Por supuesto, no hay ninguna regla que diga que esto tiene que ser así. Sin embargo, hasta ahora lo ha sido. Este hecho nos permite intuir que las causas últimas de las cosas serán mara villosamente simples. Desde luego, esto no quiere decir que las teorías físicas más modernas sean simples en su formulación. Al contrario, hacen falta matemáticas muy sofisticadas para entenderlas de manera completa. Pero esas matemáticas son solo la herramienta técnica para formular de manera precisa principios y simetrías muy simples y bellos. Un ejemplo de esto es la teoría de la relatividad de Einstein. Su formulación precisa 12
exige conocer conceptos matemáticos avanzados de geometría diferencial. Sin embargo, está construida sobre principios ex tremadamente simples. Uno de ellos es que las leyes básicas de la naturaleza son las mismas para todos los observadores, independientemente del lugar en que se encuentren y a la ve locidad que vayan. Otro es que la velocidad de la luz es la mis ma para todos los observadores. Enunciar estos principios es sencillo (aunque hace falta ser un genio para hacerlo por vez primera), pero resulta más complicado darles forma matemáti ca precisa. Dado que, a medida que profundizamos, el número de leyes básicas se reduce, no es descabellado especular que al final pudiéramos encontrar una única explicación básica de todas las cosas (o “teoría del todo”) de forma que sea la única lógicamente consistente. Eso sería equivalente a descubrir que el mundo es así porque sencillamente no puede ser de otra forma. No sabemos si ese será el final del camino ni si nuestros cerebros están capacitados para entender esa hipotética expli cación última. Este es un tema fascinante, en el que no pode mos extendernos; pero lo que es seguro es que, en cualquier caso, aún tenemos camino por recorrer en esa dirección.Y para avanzar en ese camino es para lo que se ha construido el LHC. La visión que acabamos de dar del avance de la física contiene algunas simplificaciones. Normalmente los fenóme nos no son el efecto de una única causa, sino de causas com binadas. Por ejemplo, para entender cómo funcionan las estre llas hay que combinar la ley de la gravedad, que mantiene el gas confinado, con física nuclear, que explica las reacciones de fusión que producen calor en su interior. Es mejor pensar que, por debajo de toda la diversidad de fenómenos, existe un gru po reducido de principios que, de forma colectiva, los explica. Debajo de ese sustrato de principios básicos existe otro sustra to aún más profundo que explica el precedente, y así sucesi vamente. La tarea de la física fundamental es escarbar en esos sustratos y descubrir causas cada vez más profundas. Otra simplificación ha sido decir que “siempre” se encuentra que las causas más profundas son también más simples. A veces las nuevas leyes son más complicadas que las anteriores, pero 13
capaces de explicar muchos más fenómenos. Por ejemplo, la mecánica cuántica, desarrollada en la primera mitad del siglo XX, es más intrincada que la mecánica clásica, desarrollada por Newton y otros en los siglos anteriores. Pero es que la clá sica falla estrepitosamente a la hora de explicar, por ejemplo, el comportamiento microscópico de la materia. Finalmente, el número de preguntas básicas no es necesariamente cada vez menor. En muchas ocasiones, el descubrimiento de nuevas leyes suscita a su vez nuevas preguntas que antes no nos ha bíamos formulado, a veces por falta de imaginación o audacia intelectual. Por ejemplo, la teoría de la relatividad ha estimula do a los científicos a imaginar mundos con un número distinto de dimensiones espaciales. Esos mundos imaginarios son per fectamente consistentes desde el punto de vista matemático. Por ello, podemos preguntarnos ¿por qué nuestro universo tiene tres dimensiones espaciales (y no dos, o cuatro)? Esta pregunta podría haber sido formulada antes de la teoría de la relatividad, pero nadie lo hizo. Hoy en día es objeto de inves tigación, como veremos. Otras veces ocurre simplemente que antes de determinados hallazgos éramos demasiado ignoran tes para poder formular esas nuevas preguntas. Por ejemplo, ¿por qué el electrón es 2.000 veces más ligero que el protón? Nadie podría haber formulado esta pregunta antes del siglo XX. A pesar de todo, vista en retrospectiva, la historia de la física es indudablemente una historia reduccionista, en la que ha ido disminuyendo el número de hechos inexplicados, y en la que descubrimos una naturaleza cada vez más simple en sus principios básicos.
¿A qué se debe el éxito de la ciencia? Posiblemente el objetivo de la filosofía o de la religión sea más o menos el mismo que el de la ciencia: ofrecer un esquema consistente de explicación del mundo. Lo que distingue a la ciencia, más que sus objetivos, es su método. Y, a juzgar por los resultados, el método científico es extremadamente eficaz, 14
ya que en 400 años (muchos menos que sus “competido ras”) la ciencia moderna ha conseguido éxitos sin parangón. Hemos hablado de algunos de esos éxitos, pero no hemos di cho nada acerca del método para obtenerlos. Entender el mé todo científico es importante para valorar el lugar que ocupa el LHC en el progreso de la ciencia actual. Supongamos que un día de verano, un caminante entra en una cafetería y pide un vaso de agua. El camarero, en lugar de dárselo, le grita de forma aterradora. Pero en vez de enfa darse, el caminante dice “¡gracias!” y sigue su camino. Esta historia, que posiblemente el lector conozca, perte nece a un divertido tipo de acertijos lógicos que consisten en plantear un pequeño relato aparentemente absurdo, como el anterior, y pedir al jugador que descubra la explicación lógica oculta. Para ello puede formular preguntas cuya respuesta sea “sí” o “no”. Si el lector no conoce la explicación de este relato en particular, le invitamos a que piense un poco intentado averiguarla. Rápidamente se dará cuenta de que, sin poder hacer preguntas, no es posible encontrar la explicación. O tal vez se pueden imaginar varias explicaciones alternativas, pero no se puede saber cuál es “la buena”. Por cierto, la explica ción buena es la siguiente: el caminante no tiene sed, sino hipo. El camarero es amigo suyo y decide darle un susto para quitárselo, lo que el caminante agradece. ¿Qué tienen que ver este relato y los acertijos lógicos con el método científico? Este juego es una pequeña metáfora de cómo funciona la ciencia. El relato simboliza un fenómeno o conjunto de fenómenos naturales que queremos explicar. Las posibles explicaciones alternativas que vamos diseñan do en nuestro cerebro representan las teorías científicas (o, más exactamente, los “modelos científicos”, como pronto ve remos) para explicar el fenómeno. Finalmente las preguntas con respuesta “sí” o “no” representan los experimentos. Al fin y al cabo, los experimentos son preguntas que se hacen a la naturaleza.Y los resultados de los experimentos son las res puestas que esta nos da. Pensando sobre esta metáfora, pode mos sacar algunas conclusiones. Sin preguntar a la naturaleza 15
(o sea, sin hacer experimentos), es improbable que descubra mos la explicación de los fenómenos o que podamos descar tar explicaciones alternativas. Pero por otro lado, haciendo preguntas sin más, es decir, sin hacer ninguna hipótesis sobre la explicación del misterio, no es muy probable que lleguemos a encontrarnos con la explicación. Las hipótesis que realiza mos son las que nos permiten hacer preguntas inteligentes e interpretar las respuestas de forma eficaz. Finalmente, tam poco avanzaremos si nos obcecamos en una explicación que se nos ha ocurrido y que nos parece más bonita o incluso más verosímil que la verdadera. Solo avanzaremos si somos humildes y somos capaces de reorientar nuestra búsqueda basándonos en las respuestas a nuestras preguntas (los re sultados experimentales). La conclusión más importante de esta pequeña historia es que la forma más eficaz de buscar explicaciones es la retroalimentación de teoría y experimento. Y esta es precisamente la clave del método científico. La metáfora anterior es una simplificación de lo que en realidad hacen los científicos. En la práctica todo es más confuso y también más libre. Por ejemplo, los científicos no siempre se basan en la observación para formular hipótesis. Muchas veces, la motivación es la falta de consistencia mate mática de las teorías anteriores, o incluso su falta de simplici dad o belleza. No hay ninguna regla que restrinja la imagina ción de los científicos. A la hora de formular hipótesis, estos se sienten tan libres como un filósofo o un poeta, y segura mente con parecidos prejuicios y condicionamientos. La di ferencia, como ya se ha mencionado, es que por más bonita y seductora que resulte una teoría, mientras no reciba respaldo experimental no pasará de ser una especulación. Otra complicación es que, en la práctica, los experimen tos no suelen funcionar como las preguntas de “sí” o “no” de nuestro acertijo lógico. Muchas veces, los resultados ex perimentales son confusos o se prestan a interpretaciones diversas. En ocasiones se puede incluso sospechar que son incorrectos, y a veces lo son. Es como si, en nuestra metáfora del acertijo, algunas respuestas a nuestras preguntas nos las 16
dieran con voz confusa y no estuviéramos totalmente seguros de si eran “síes” o “noes”. En esos casos, es necesario seguir repitiendo el experimento o realizar experimentos alternati vos hasta aclarar la situación.
Modelos Un concepto clave en la ciencia actual es el de modelo. Todas las teorías científicas actuales, incluso las comprobadas ex perimentalmente con mayor precisión y en todo tipo de condiciones, se consideran modelos, es decir, teorías pro visionales, siempre pendientes de que puedan encontrarse discrepancias con el experimento y hayan de ser sustituidas por otras mejores. Un ejemplo de esto es el modelo de átomo propues to por Thomson en 1904. Según Thomson (premio Nobel de Física por el descubrimiento del electrón), los átomos estaban formados por electrones, moviéndose en una espe cie de gota líquida de carga eléctrica positiva, que equili braría la carga negativa de los electrones. Este modelo fue puesto a prueba experimental por Rutherford en 1909. Bombardeando una lámina de oro con partículas positivas alfa (núcleos de helio) y observando como algunas de estas partículas modificaban sus trayectorias, pudo concluir que en realidad los átomos tenían la carga positiva concentra da en un núcleo mucho más pequeño que el átomo, pero responsable de casi toda su masa. Los electrones, mucho más ligeros, ocupaban sin embargo un espacio mucho ma yor alrededor de este núcleo. Este experimento hizo que el modelo de átomo de Thomson fuera abandonado, abriendo paso a concepciones más realistas de la estructura atómica. Como veremos, el LHC va a jugar un papel semejante al que tuvo el experimento de Rutherford en su momento, ponien do a prueba modelos muy atractivos acerca de la naturaleza de las partículas elementales… que tal vez sean falsos. Pero incluso en tal caso, el LHC será decisivo para reorientar 17
nuestras concepciones en la buena dirección, como sucedió con el experimento de Rutherford. Siguiendo con la historia del átomo, el propio Ruther ford propuso un nuevo modelo mucho más ajustado a la realidad. Según Rutherford, los electrones giraban alrede dor del núcleo de forma semejante a los planetas girando en torno al sol. Este modelo es atractivo por su simplici dad, e incluso tiene una indudable cualidad poética: los áto mos serían como sistemas solares en miniatura. Todo resulta encantador… excepto que el modelo es también incorrec to, aunque “menos” que el de Thomson. El átomo de Ru therford tenía un problema grave: un electrón girando emite radiación electromagnética, de la misma forma que lo ha cen los electrones que giran en los circuitos de un teléfono móvil. Al emitir radiación, los electrones pierden energía, y por tanto velocidad, por lo que acabarían cayendo al núcleo positivo. Sin embargo, los átomos son estables. Esta dificul tad fue superada cuando se aplicaron conceptos nuevos y revolucionarios acerca del comportamiento de la materia a escalas microscópicas. En 1913 Bohr formuló un modelo de átomo semejante al de Rutherford, pero asumiendo que los electrones no se comportaban como pequeñas bolitas de bi llar, sino que tenían una naturaleza cuántica. En el próximo capítulo hablaremos del significado de esa misteriosa “na turaleza cuántica”, uno de los aspectos más sorprendentes y fascinantes de la materia. El átomo de Bohr fue precisa mente uno de los éxitos más importantes de la nueva teoría cuántica. Permitió explicar multitud de hechos enigmáticos y realizar predicciones exitosas sobre el comportamiento de la materia. Por cierto que el modelo de Bohr tuvo aún que sufrir algunas mejoras para ser totalmente satisfactorio, pero en lo esencial daba la descripción correcta de los átomos. Además de ilustrar el concepto de modelo científico, la historia anterior nos enseña que. incluso cuando los expe rimentos no dan la razón a las teorías dominantes (o preci samente entonces más que nunca), resultan imprescindibles para el avance de la ciencia. 18
¿Qué es el sentido común? Teorías efectivas Decía Einstein que “el sentido común es la colección de pre juicios que una persona ha adquirido antes de los 18 años”. Efectivamente, el sentido común está modelado por nuestra experiencia. El problema es que nuestra experiencia abarca un rango muy limitado de escalas físicas. Comprendemos muy bien lo que es un centímetro y un kilómetro, pero no tanto lo que es un ångström (una diezmillonésima de milíme tro) o un año-luz (unos 10 billones de kilómetros). Podemos entender su definición, pero no tenemos una experiencia in mediata de cómo se comporta la naturaleza a esas escalas. Lo mismo sucede con otras magnitudes físicas: el tiempo, la velocidad, la energía, la temperatura, etc. Nuestra experien cia está limitada a rangos muy estrechos de las mismas. Y los modelos mentales que utilizamos para describir la naturaleza en esos rangos suelen fracasar cuando se extrapolan a otros más amplios. El sentido común no siempre es una guía fiable. Por ejemplo, nuestra experiencia nos dice que un objeto puede estar frío o caliente. Si está frío, aún podría estar más frío; y si está caliente, aún podría estar más caliente. Esto ocurre así en los rangos de temperaturas habituales, pero no cuando nos salimos de ellos. Es cierto que la materia puede estar a tem peraturas arbitrariamente altas (por ejemplo, el interior del Sol está a millones de grados), pero no arbitrariamente bajas. El cero absoluto de temperaturas es 273 ºC bajo cero. Este hecho, que puede chocar con el sentido común, tiene una explicación sencilla. La temperatura es una manifestación de la agitación de los átomos que componen la materia. A mayor agitación, mayor temperatura. Los átomos (o las partículas que los componen) siempre podrían estar aún más agitados, y por tanto a mayor temperatura. Pero lo contrario no es cierto: los átomos no pue den estar menos agitados que cuando están “quietos”, y ese es tado es el que corresponde al cero absoluto de temperaturas. De la misma forma que nuestros modelos mentales pue den fracasar cuando se extrapolan más allá de nuestra expe riencia inmediata, las teorías físicas, incluso las de más éxito, 19
pueden tener limitaciones. Aunque los instrumentos científicos y los experimentos nos permiten ampliar enormemente el ran go de escalas (de distancia, energía, etc.) en el que podemos estudiar la naturaleza, lo cierto es que el rango sigue siendo limitado. Y una teoría, aunque parezca muy robusta, puede fa llar en cuanto ampliemos ese rango con nuevos experimentos. Por ejemplo, como puso de manifiesto Galileo en la primera mitad del siglo XVII, todos los cuerpos caen hacia abajo con la misma aceleración (salvo por efectos de resis tencia del aire). Esta aceleración de la gravedad parece ser la misma independientemente de la altura: es igual al nivel del mar que en la cumbre de una montaña. Sin embargo, esto es solo una buena aproximación. Cincuenta años después, Newton demostró que la fuerza de la gravedad, y por tanto, la aceleración, disminuye con la distancia; más exactamente, es inversamente proporcional al cuadrado de la distancia. El radio de la Tierra es de unos 6.370 km, y esa es por tanto la distancia típica de los objetos ordinarios al centro de la Tierra. Pero si levantamos un objeto cualquiera otros 6.370 km (es decir, lo situamos a doble distancia del centro de la Tierra), su peso disminuye a la cuarta parte. La teoría de Galileo es buena para nuestra experiencia cotidiana: el peso de un obje to en la cumbre de una montaña de 3.000 m solo es un 0,1% más pequeño que al nivel del mar. Esta diferencia es medible con instrumentos de precisión, pero no a simple vista. ¿Y qué sucede con la teoría de Newton? Durante siglos, los científi cos han estudiado su validez en un amplísimo rango de esca las: desde distancias inferiores al milímetro hasta millones de años-luz; y con masas muy distintas: desde pequeños objetos de microgramos hasta galaxias y cúmulos de galaxias. La teo ría de Newton es admirablemente exitosa, pero no totalmen te. Como veremos en el siguiente capítulo, en condiciones de gravedad muy intensa (por ejemplo, en una estrella binaria) la teoría falla. Incluso en el ámbito de los movimientos pla netarios (donde se apuntó sus primeros éxitos deslumbran tes) las medidas de precisión demuestran que la teoría es una aproximación muy buena, pero aproximación al fin y al cabo. 20
La teoría más completa (y hasta la fecha, sin fallos aparentes) es la teoría de la relatividad general, desarrollada por Einstein a comienzos del siglo XX. La ecuación de Newton es una aproximación simplificada de las ecuaciones de Einstein, que funciona muy bien en infinidad de casos. En esos casos (la inmensa mayoría) las predicciones de las dos teorías son in distinguibles. Pero en los casos en los que la aproximación no es buena, y las predicciones son por tanto diferentes, la naturaleza siempre ha “dado la razón” a la teoría de Einstein. En lenguaje moderno, la teoría de Galileo es una teoría efectiva de la teoría de Newton, válida cerca de la superficie terrestre. La teoría de Newton a su vez es una teoría efecti va de la teoría de Einstein, válida para campos gravitatorios no gigantescos. Y la teoría de Einstein, a pesar de su éxito y belleza, podría ser la teoría efectiva de una teoría aún más fundamental. Utilizando la noción de modelo científico discu tida más arriba, podemos decir que en muchas ocasiones los modelos de mayor éxito resultan ser teorías efectivas (apro ximaciones muy buenas) de modelos más fundamentales. Es justo mencionar que un aspecto básico de la teoría de Galileo, concretamente que todos los cuerpos caigan con idéntica aceleración, sigue manteniéndose en la teoría de Newton y en la de Einstein. Hasta donde se ha podido observar, se cumple siempre con asombrosa precisión. Al principio de este capítulo, vimos que las leyes de la naturaleza no se nos muestran de una sola vez en toda su profundidad, y que la tarea de la ciencia es ir encontrando niveles de explicación cada vez más profundos y satisfacto rios. El concepto de teoría efectiva nos permite entender por qué existen esos niveles. Si mantenemos nuestra experiencia en un rango limitado de escalas físicas, es probable que lo que descubramos sea una teoría efectiva: una buena aproxi mación de la teoría más general. Cuanto mayor sea nuestro alcance experimental, más posibilidades tenemos de salirnos fuera del régimen en que la aproximación es válida, y por tanto encontremos fenómenos que necesiten de una teoría más profunda. 21
El Modelo Estándar El llamado Modelo Estándar de las partículas elementales es el modelo científico que actualmente describe al nivel más bá sico todas las observaciones experimentales, del tipo que sean. Se encuentra por tanto en el nivel explicativo más profundo al que se ha podido llegar. Según nuestro entendimiento actual de la naturaleza, todos los fenómenos que observamos son consecuencias más o menos directas del Modelo Estándar. Por ejemplo, la química y la biología son consecuencias (nada directas) de él. El Modelo Estándar es nuestra frontera actual de conocimiento básico, y una de las teorías científicas de más éxito de todos los tiempos. En los próximos capítulos, hablaremos del Modelo Es tándar y describiremos su fascinante estructura. Y veremos que, a pesar de sus éxitos, hay razones poderosas para sos pechar que el Modelo Estándar es una teoría efectiva de otra más profunda, del mismo modo que la teoría de Newton es una teoría efectiva de la teoría de Einstein. También hay ra zones para pensar que esa teoría más profunda puede mani festarse a las energías a las que el LHC está estudiando cómo se comporta la naturaleza. Descubrir esa nueva física es el objetivo máximo, aunque no único, del LHC. Existe otra posibilidad: que estemos confundidos. Si el LHC demuestra que nuestras preconcepciones son incorrec tas, la situación puede ser aún más interesante. Recordemos la historia de los sucesivos modelos de átomo a principios del siglo XX. El fracaso experimental de los modelos más clá sicos de Thomson y Rutherford abrió el camino a nuevas y revolucionarias concepciones acerca de la naturaleza. Cien años después de aquella historia, el LHC puede situarnos en el punto de arranque de una nueva revolución conceptual.
22
CAPÍTULO 2
Los pilares de la física
En las primeras décadas del siglo XX se realizaron dos des cubrimientos asombrosos sobre el modo de comportarse de la naturaleza. Esos descubrimientos están sistematizados en dos teorías: la teoría de la relatividad y la mecánica cuántica. Toda la física básica que se ha realizado desde entonces, in cluido el Modelo Estándar, se ha sustentado sobre estas dos teorías fascinantes. La teoría de la relatividad y la mecánica cuántica son extraordinarias por muchas razones. Ambas nos muestran aspectos insospechados de la naturaleza, que pare cen contradecir el sentido común. Ambas han tenido un éxito sin precedentes en la cantidad y variedad de fenómenos que han permitido entender y predecir, a veces con precisión fan tástica. Sin embargo, se trata de dos teorías muy diferentes, tanto en la forma en que se gestaron como en su estructura interna. Por si fuera poco, no se llevan muy bien entre ellas…
Relatividad especial La teoría de la relatividad especial trata sobre la forma en que un mismo fenómeno es visto por distintos observadores. Se basa en dos postulados. El primero es el llamado principio de la relatividad, enunciado por Galileo en 1638 e incorporado 23
por Newton a sus leyes de la mecánica. Según este princi pio, las leyes de la física son las mismas para un observa dor en reposo y para otro moviéndose a velocidad constante. Supongamos que estamos en el interior de un tren de alta velocidad, que se mueve a velocidad constante y sin vibra ciones. Si no miramos por la ventana, no podremos saber si el tren está en movimiento o parado. Todo lo que ocurre en el interior se produce de forma idéntica en ambos casos. Si echamos agua en un vaso, veremos que el chorro de agua cae “verticalmente”, exactamente igual que si estuviéramos parados. En realidad, desde que el agua sale de la botella hasta que cae en el vaso, este último se desplaza varios metros hacia adelante, pero el chorro de agua también lo hace, yendo a caer en su interior. Este principio puede parecer de sentido común, tal vez porque estamos acostumbrados a experimen tarlo continuamente en la vida diaria. Aun así, tiene implica ciones profundas sobre la naturaleza del espacio. Imaginemos por un momento el interior del océano, donde algunos peces se mueven y otros están realmente quietos con respecto al agua. Uno podría pensar que el espacio es semejante al agua de ese océano, pero no es así. No puede decirse que ningún objeto está “realmente” en reposo en el espacio y que es otro el que se está moviendo con velocidad constante. Podríamos imaginar que es el primero el que se mueve y el segundo el que está en reposo y ningún experimento podría determinar cuál de las dos afirmaciones es la buena. Lo único realmente físico es que hay un movimiento relativo entre los dos obje tos. La galaxia de Andrómeda se acerca a la nuestra (la Vía Láctea) a unos 300 km/segundo. ¿O es la Vía Láctea la que se acerca a Andrómeda? Ambas afirmaciones son igualmente válidas. Lo único cierto es que las dos galaxias se acercan la una a la otra. El segundo postulado de la relatividad especial es mu cho menos obvio y fue enunciado por Einstein en 1905: la velocidad de la luz en el vacío es la misma para todos los observadores, independientemente de su velocidad o de la velocidad de la fuente luminosa. La velocidad de la luz es 24
siempre c = 300.000 km/segundo. Esto parece ir contra el sen tido común. Supongamos que vamos en un coche a 80 km/ hora y en sentido contrario se acerca un autobús que circula a 100 km/hora. Lo que realmente percibiremos es que el au tobús se nos acerca a 180 km/hora. Su velocidad de acerca miento se suma a la nuestra. Este modo intuitivo de compo ner velocidades, simplemente sumándolas, se conoce como “transformación de Galileo” en la jerga científica. Pues bien, las transformaciones de Galileo, por sensatas que parezcan, no funcionan para la luz. Si en vez de un autobús, lo que vemos es un rayo luz que viene en sentido contrario, desde nuestro coche en marcha seguiremos percibiendo que el rayo se acerca a la misma velocidad c (no a c más 80 km/hora). No es un problema de que la velocidad de la luz sea gigantesca y la del coche, muy pequeña en comparación con ella. Si nues tro coche se moviera a una velocidad de 290.000 km/segundo (o sea, muy cercana a c), seguiríamos viendo que el rayo de luz se nos acerca a velocidad c. ¿Qué indujo a Einstein a formular este principio? Desde 1887 se sabía, gracias a un ingenioso experimento llevado a cabo por Michelson y Morley, que la velocidad de la luz parece ser la misma en todas las direcciones. Este resultado fue una sorpresa. Dado que la Tierra tiene un movimiento de traslación, podría esperarse que cuando la Tierra cami na contra la luz, la vea venir más rápido que cuando “huye” de la luz. Este experimento sugiere fuertemente (visto con la perspectiva actual) que la velocidad de la luz no depende de la velocidad del observador. No obstante, parece que Einstein no se inspiró tanto en este experimento como en las leyes del electromagnetismo. En 1865, el físico más importante del siglo XIX, James C. Maxwell (basándose en el trabajo previo de Faraday y Ampère) formuló unas ecuaciones que, de forma compacta y elegante, describían todos los fenómenos electromagnéticos conocidos y permitían predecir otros nuevos. Las llamadas ecuaciones de Maxwell son uno de los hitos científicos más importantes de la historia. Utilizándolas, Maxwell predijo la 25
existencia de ondas electromagnéticas (lo que después ha sido aplicado a todos los sistemas de comunicación inalám brica). Maxwell conjeturó que la luz podría ser simplemen te una onda electromagnética, acertando de pleno. No solo eso: a partir de sus ecuaciones dedujo la velocidad de la luz, c = 300.000 km/segundo. Las ecuaciones de Maxwell tie nen una particularidad: predicen que la velocidad de la luz es siempre la misma. La mayoría de los físicos, incluido Maxwell, creyeron que esto se debía a que las ondas electromagnéticas se propagaban en un misterioso fluido, el éter. Las ecuaciones de Maxwell serían solo válidas para un observador en reposo respecto al éter. Pero, tal como Einstein propuso, no hay nin gún éter. Las ondas electromagnéticas se propagan en el va cío y las ecuaciones de Maxwell (y, por tanto, la constancia de la velocidad de la luz) son válidas para cualquier observador, se mueva a la velocidad que se mueva. Sin saberlo, Maxwell había formulado la primera teoría relativista de la historia. Einstein tuvo la audacia de conceder validez universal a las ecuaciones de Maxwell, al precio de trastocar ideas físicas que parecían inamovibles. Esta historia ilustra, de paso, que los científicos no tienen por qué inspirarse únicamente en la observación para espe cular y proponer teorías. Hay que decir que otros científicos, como Lorentz y Poincaré, estuvieron cerca de formular la re latividad especial, pero el trabajo de Einstein fue particular mente directo y elegante, identificando las ideas esenciales y extrayendo las consecuencias físicas de la teoría.
Consecuencias de la relatividad especial La relatividad especial tiene implicaciones profundas y sor prendentes sobre la naturaleza del espacio y el tiempo. Esas implicaciones han sido usadas repetidamente en relatos y películas de ciencia-ficción, muchas veces de forma errónea. Un ejemplo en el que se hace correctamente es la película El planeta de los simios (Franklin Shaffner, 1968), donde la 26
tripulación de una nave espacial viaja durante 18 meses a una velocidad próxima a la de la luz, pero, a su regreso, en la Tierra han transcurrido 2.000 años. Naturalmente, lo difícil es cons truir una nave que transporte viajeros a esas velocidades, pero si se pudiera construir, el tiempo en el interior transcurriría más lentamente, tal como describe la película. Este fenómeno es la llamada dilatación temporal, y es una consecuencia directa de los postulados de la relatividad especial. Imaginemos otra vez el tren de alta velocidad, que es contemplado por dos observadores, uno en el interior del tren y el otro desde el andén, tal como muestra la figura. Supongamos que en el techo del tren hay una lámpara, y fijé monos en un rayo de luz que baja verticalmente hasta llegar a un detector situado exactamente debajo de ella. Esta es la trayectoria AB de la figura, tal como la ve el observador en el interior del tren.
Sin embargo, el observador del andén ve que, mientras el rayo desciende, el detector del suelo se desplaza una pequeña distancia hacia adelante: desde B hasta C. Por tanto este ob servador ve que el rayo recorre un camino AC, más largo que AB. Pero como la velocidad de la luz ha de ser la misma para los dos observadores, concluimos que el tiempo que ha tar dado el viaje del rayo ha sido menor visto desde el interior del tren que desde fuera. Esta es la dilatación temporal. Cuanto mayor es la velocidad del tren, más importante se hace este efecto. En realidad hace falta llegar a velocidades enormes (su periores a 100.000 km por segundo) para que el efecto sea sustancial. No podemos construir trenes tan rápidos, pero sí podemos acelerar partículas hasta velocidades próximas a la de la luz. Por ejemplo, en el LHC se aceleran protones hasta 27
una velocidad de un 99,999999% la de la luz. Esto impli ca, según la relatividad especial, que el tiempo transcurrirá 7.100 veces más lento para los protones que para nosotros. Cuando para nosotros hayan pasado dos horas, para los pro tones habrá pasado solo un segundo. Pero ¿cómo podemos comprobar esto? No podemos preguntar a los protones cuán to tiempo “sienten” que ha pasado, pero… ¡sí podemos pre guntárselo a otras partículas! Existen partículas subatómicas que son inestables, es decir, se desintegran en otras al cabo de una pequeña fracción de segundo. Por ejemplo, el llamado muón, simbolizado por la letra griega μ, tiene una vida media de dos millonésimas de segundo. Pero si ponemos muones a velocidades cercanas a c, deberían tardar mucho más en desintegrarse desde nuestro punto de vista, ya que para ellos el tiempo transcurriría más lento. Un experimento así se rea lizó en 1977 en el CERN, precisamente el emplazamiento del LHC, utilizando un anillo de aceleración mucho más peque ño (14 m de diámetro), pero capaz de colocar los muones a una velocidad de un 99,9% la de la luz. Esto implicaba, según la teoría, que el tiempo trascurriría para los muones 30 veces más despacio. Y, efectivamente, la vida media de los muones creció en ese factor. Los resultados concordaron con las pre dicciones teóricas con una precisión del 0,1%. La dilatación temporal no es la única implicación sor prendente de la relatividad especial. El espacio también se de forma. Concretamente los objetos que vemos en movimiento se contraen (desde nuestro punto de vista). El observador del andén de nuestro ejemplo vería el tren de alta velocidad más “comprimido”. Nuevamente el fenómeno solo es importante a velocidades enormes. Todos estos efectos están resumidos en unas ecuaciones de transformación relativistas, que son una receta para relacionar lo que ve un observador con lo que ve otro. Estas transformaciones, llamadas transformaciones de Lorentz, reemplazan a las de Galileo en todos los casos (no solo cuando observamos rayos de luz). Como era de esperar, las transformaciones de Galileo (recordemos: sumar las velo cidades del coche y el autobús en nuestro ejemplo anterior) 28
son una aproximación excelente de las transformaciones de Lorentz cuando las velocidades no son extremas, es decir, son una buena teoría efectiva para nuestra experiencia cotidiana. No podemos entrar aquí en detalles sobre la forma matemá tica de las transformaciones de Lorentz. Pero es interesante mencionar que lo que para un observador es tiempo puro, para otro es una “mezcla de espacio y tiempo”, lo que indica que el espacio y el tiempo no deben considerarse conceptos independientes, sino que tienen naturaleza semejante. Es me jor pensar en un único “espacio-tiempo”, que además no es inerte, sino dinámico: puede estirarse y contraerse. Otra consecuencia inesperada de la relatividad especial es la equivalencia entre masa y energía. Nuevamente, no po demos entrar en detalles de cómo se deduce esto a partir de los postulados iniciales. Nos conformaremos con reproducir la ecuación de Einstein, sin duda la más famosa de la historia de la ciencia: E = mc2 Esta relación nos dice que la materia es energía extraor dinariamente concentrada. Para los objetos ordinarios, la ener gía contenida en su masa es enormemente mayor que la energía cinética (o sea la energía debida a la velocidad). Sin embargo, si aceleramos una partícula a velocidades próximas a las de la luz, su energía cinética puede llegar a ser mucho mayor que la contenida en la masa. Este es el caso de los protones acele rados en el LHC. Su energía cinética llega a ser 7.000 veces mayor que la energía de su masa. En las colisiones entre pro tones, mucha de esa energía puede a su vez convertirse en masa, es decir, en nuevas partículas, que se producen por de cenas en cada colisión protón-protón. Esto permite también la creación de partículas muy masivas, mucho más que los protones iniciales. Una de ellas es el famoso bosón de Higgs, cuyo descubrimiento era uno de los objetivos cruciales del LHC, y del que hablaremos más adelante. Por supuesto, ace lerar protones hasta esas fantásticas energías no es tarea fácil. 29
El cálculo de los campos eléctricos y magnéticos requeridos para conseguirlo se basa precisamente en las ecuaciones de la relatividad especial. Por ello, los aceleradores de partículas (no solo el LHC) son una prueba experimental permanente de la validez de esta teoría.
Relatividad general La teoría de la relatividad especial habría bastado para situar a Einstein entre los mayores científicos de todos los tiempos. Por cierto, Einstein formuló esa teoría con 26 años, siendo un desconocido empleado de la oficina de patentes de Berna. Al mismo tiempo, publicó otros trabajos importantísimos en otras áreas de la física (uno de ellos le valió el premio Nobel 15 años después). Pero las maravillas producidas por su men te aún no habían acabado. Su obra cumbre, la teoría de la relatividad general, llegó en 1915, tras años de intenso trabajo. Al contrario que la relatividad especial, hay un acuerdo pleno en la paternidad de la relatividad general, si bien muchas de sus consecuencias han sido extraídas por otros científicos a lo largo de los años. En realidad, aún no se han explorado todas las implicaciones de esta teoría. ¿En qué se diferencia la relatividad general de la espe cial? La especial trata sobre observadores en reposo o con velocidad constante. La general considera además observa dores acelerados (o sea, la relatividad especial es un caso par ticular de la general, y de ahí sus nombres respectivos). Pero la relatividad general es algo más que una ampliación de la especial a otros tipos de movimiento. Es también una teoría de la gravitación. La relatividad general se basa en un postulado llamado principio de equivalencia. Hay muchas formulaciones equi valentes de este principio. Una de ellas dice: “Es imposible distinguir mediante experimentos si estamos en un sistema acelerado o en un sistema bajo la acción de un campo gra vitatorio”. Todos hemos sentido, al arrancar bruscamente un 30
coche, que nos vamos hacia atrás. La aceleración que perci bimos hacia atrás es exactamente la opuesta a la que lleva el coche hacia adelante. Un efecto parecido se produce cuando arranca un ascensor hacia arriba: notamos que nos pegamos al suelo con más fuerza. Supongamos ahora que estamos en el interior de un ascensor sin ventanas, pero en un lugar del espacio donde no hay fuerzas gravitatorias (o son desprecia bles). Si el ascensor está quieto o se mueve con velocidad uniforme, flotaríamos ingrávidos dentro de él. Pero si acelera hacia arriba con la misma aceleración que la gravedad ordi naria, lo que sentiríamos es nuestro peso habitual hacia abajo. Todo transcurriría como si el ascensor estuviera parado en la superficie terrestre. Lo que nos dice el principio de equiva lencia es que ambas situaciones son realmente indistinguibles. No hay ningún proceso físico dentro del ascensor que se pro duzca de manera distinta en los dos casos. A pesar de su sencillez, el principio de equivalencia tie ne implicaciones muy importantes. Quizá la más notable es que el espacio-tiempo está curvado en las zonas con campo gravitatorio, es decir, cerca de los objetos con masa. Pero, an tes de nada, ¿qué significa que el espacio y el tiempo estén curvados? Pensemos en una superficie curva, por ejemplo, una esfera. Imaginemos ahora que somos seres de dos di mensiones (en vez de tres): una especie de células planas que nos moviéramos por la superficie de la esfera. ¿Tendríamos alguna forma de saber que vivimos en una superficie curva y no plana? La respuesta es afirmativa: las relaciones geomé tricas en una superficie con curvatura son distintas que en una plana. Haciendo medidas geométricas podríamos dedu cir que nuestro mundo no es plano. Notemos primero que en la superficie de una esfera lo más parecido a las líneas rectas son las circunferencias máximas. Por ejemplo, en la superficie de la Tierra, los meridianos y el ecuador son circunferencias máximas. Ahora pensemos en un triángulo. Sabemos que los ángulos de un triángulo plano suman 180º. Sin embargo, para un “triángulo” en la superficie de una esfera (construido con circunferencias máximas, ya que no tenemos rectas) esto no 31
tiene por qué cumplirse. En el ejemplo de la figura vemos un triángulo construido con dos meridianos y el ecuador, cuyos ángulos suman 270º. Así que dibujando triángulos en nuestra superficie y sumando sus ángulos, podríamos saber si vivi mos en un mundo plano o un mundo curvo.
90º
90º
90º
De forma semejante, nuestro espacio de tres dimensio nes puede estar curvado, y nosotros podríamos detectarlo con medidas geométricas. Es cierto que en el ejemplo ante rior la superficie esférica esta “inmersa” en un mundo tridi mensional, en el cual visualizamos la curvatura. Sin embargo, matemáticamente es posible formular espacios con curvatura que no están inmersos en un mundo de más dimensiones. Nuestro espacio de tres dimensiones puede estar curvado sin necesitar una cuarta dimensión espacial para realizar la curvatura. ¿Qué tipo de medidas geométricas podrían poner de manifiesto la curvatura de nuestro espacio? Sabemos, por ejemplo, que el volumen de un cubo de lado l es V = l 3 . Sin embargo, en un espacio curvo, el volumen del cubo es (lige ramente) distinto. ¿Por qué se curva el espacio en los campos gravitatorios (de hecho, el espacio-tiempo como un todo)? Intuitivamente podemos verlo de este modo. Por el principio de equivalencia sabemos que estar dentro de un campo gravitatorio es indis tinguible de estar en un sistema de referencia acelerado. Esa aceleración equivalente conlleva velocidades cambiantes con el tiempo y la posición. Por otro lado sabemos, por la relativi dad especial, que las velocidades implican dilataciones y con tracciones del espacio y el tiempo. Y son estas deformaciones variables las que originan la curvatura del espacio-tiempo. 32
Ahora bien, ¿cuánta curvatura producen los objetos con masa? Esto está determinado por la ecuación principal de la relatividad general:
1 Rμν – –– gμν R = Tμν 2 Esta ecuación no es tan famosa como E = mc2, pero se guramente es aún más bella y profunda. En el miembro de la izquierda vemos unos símbolos, gμν, Rμν, que representan la métrica y la curvatura del espacio-tiempo. Sin entrar en tec nicismos, estas cantidades indican cómo es el espacio-tiempo. No es un espacio inerte y plano: el espacio-tiempo se asemeja más a un trozo de goma, que puede estirarse y contraerse, curvarse y retorcerse. En el miembro de la derecha, Tμν, de nota el tensor energía-momento. Nuevamente sin tecnicis mos, esta cantidad representa la materia y la energía. Lo que nos dice esta ecuación es que la forma del espacio y el tiempo viene determinada por lo que hay en él (materia y energía). A su vez, la curvatura del espacio-tiempo es la responsable de los campos gravitatorios habituales. La gravedad no es otra cosa que geometría del espacio-tiempo. La cantidad de información que hay contenida en la ecuación anterior es extraordinaria. Por ejemplo, la ley de la gravedad de Newton está contenida en ella como teoría efecti va: es una buena aproximación cuando los campos gravitato rios no son grandes. Pero hay mucho más. Aplicada al sistema solar, esta ecuación implica que las órbitas de los planetas no son elipses estables, sino que esas elipses van a su vez giran do lentamente alrededor del Sol, fenómeno conocido como precesión de las órbitas. Esta predicción ha sido confirmada con gran precisión. También implica que los rayos de luz se curvan cerca de una masa grande, como la de una estrella. Este hecho también ha sido confirmado, y fue la primera pre dicción de la teoría verificada en la práctica, en 1919 (y con gran resonancia popular, cosa rara para una teoría científica). Los rayos de luz curvándose cerca de objetos masivos son una de las pruebas más directas de que el espacio-tiempo está 33
realmente curvado. Otra consecuencia de la ecuación es que el universo ha de pasar necesariamente por una fase de ex pansión, y que en épocas pasadas nació de una gran explo sión (Big Bang). Esta última implicación (a la que contribu yeron decisivamente el ruso Alexander Friedmann y otros físicos) se trata de uno de los logros intelectuales más impor tantes del siglo XX, y ha sido confirmada por muchas obser vaciones. La relatividad general es un ejemplo de cómo una teoría correcta puede desarrollarse a partir de la intuición, el ra zonamiento y la consistencia matemática, prácticamente sin basarse en la observación previa. En realidad, a principios del siglo XX solo había una observación en desacuerdo con la teoría de la gravedad de Newton: la órbita de Mercurio no era estable y presentaba una misteriosa precesión no explicable por la teoría. La discrepancia era tan solo de 43 segundos de arco por siglo, un desacuerdo extraordinariamente minúscu lo, pero que estaba ahí. Sin embargo, parece claro que esta observación no fue la motivación original de Einstein, aunque le fue muy útil para dar con la formulación correcta de la nueva teoría. El primer éxito de la relatividad general fue pre cisamente el cálculo de la precesión de la órbita de Mercurio, cálculo realizado por el propio Einstein y cuyo resultado re sultó ser… 43 segundos de arco por siglo. No podemos extendernos aquí sobre las muchas impli caciones de la relatividad general. Para el argumento general de este libro, lo más importante es recordar que describe con gran elegancia y precisión la interacción gravitatoria.
Mecánica cuántica El otro pilar de la física moderna es la mecánica cuántica. Esto es así hasta el punto de que en la comunidad cientí fica “física clásica” es sinónimo de “física no cuántica”. La teoría de la relatividad significó una revolución científica y una revolución conceptual en nuestra forma de interpretar 34
la naturaleza. Pues bien, la mecánica cuántica, que por bre vedad designaremos por MC, es una teoría aún más extraña y perturbadora que la relatividad. Sus implicaciones concep tuales pueden resultar inquietantes, incluso parecer absurdas. Pero se trata de una teoría soberbia, a la que aún no se ha encontrado ninguna contradicción, a pesar de las apariencias (y de los esfuerzos denodados por encontrarlas). Y se trata también de una teoría exitosa, posiblemente la más exitosa de la historia de la ciencia, pues ha sido verificada experimental mente con un grado de precisión abrumador en una enorme variedad de fenómenos. La MC fue desarrollada en el primer tercio del siglo XX por un grupo de físicos de excepción: Planck, Einstein (de nuevo), Bohr, De Broglie, Heisenberg, Born, Shrödinger, Dirac, etc. Por cierto, que algunos de estos físicos no trabaja ron en colaboración, sino más bien en competición. Si hubiera que destacar un nombre entre ellos, tal vez sería el de Werner Heisenberg, máximo responsable de la primera formulación completa de la teoría. Pero, indudablemente, la construcción de la MC fue una tarea colectiva. Al contrario que en la teoría de la relatividad, las observaciones experimentales jugaron un papel decisivo en la motivación y conformación de la MC, sobre todo en las primeras etapas. La teoría es tan extraña que es dudoso que sin información experimental se hubiera llegado a desarrollar jamás. La MC no tiene una estructura tan elegante como la teoría de la relatividad. Existen varias formulaciones equivalentes de la MC, aunque todas ellas re quieren la utilización de conceptos matemáticos avanzados, incluso para enunciar los postulados básicos. No obstante, vamos a dar aquí una idea de las nociones más importantes de la MC. Consideremos una partícula, por ejemplo, un electrón, que se encuentra en una posición bien concreta, digamos x. En la notación habitual de la MC, este estado se represen ta así: |x >
35
y se denomina autoestado de la posición. Ahora bien, según la MC, el estado del electrón también podría ser una superposición de autoestados, por ejemplo: |x1 > + |x2 > donde x1, x2 son dos posiciones distintas. ¿Qué significa esto? ¿Es que el electrón puede estar en las dos posiciones, x1, y x2, a la vez? En cierto modo sí, por extraño que pa rezca. ¿Qué sucede si ahora tomamos un detector y medi mos la posición del electrón? Pues que puede aparecer en cualquiera de las dos posiciones con una probabilidad del 50% para cada una. Este aspecto probabilístico es parte esencial de la MC. También se podría haber considerado una superposición con más cantidad de |x1 > que de |x2 > o viceversa. En ese caso, los porcentajes de cada autoestado determinan la probabilidad relativa de aparición en cada una de las posiciones. En el párrafo anterior hemos introducido dos concep tos cuánticos fundamentales: la superposición de estados y la probabilidad de la medida. La idea de que la naturaleza se comporta de forma intrínsecamente probabilística es extre madamente novedosa. En la vida ordinaria usamos muchas veces el concepto de probabilidad (a menudo de forma in consciente), pero siempre como un reflejo de nuestra igno rancia. Cuando tiramos una moneda al aire, pensamos que hay una probabilidad 1/2 de que salga cara y 1/2 de que salga cruz. Pero si pudiéramos medir el impulso que ejercemos sobre la moneda en el lanzamiento, se podría calcular el nú mero de vueltas que iba dar, y por tanto saber si iba a salir cara o cruz (se han construido máquinas que lanzan mo nedas con esta precisión). Otro ejemplo: es un juego típico con niños mostrarles los dos puños cerrados para que ellos adivinen en cuál se oculta un caramelo. Cuando ellos eligen una mano, saben intuitivamente que la probabilidad de que el caramelo esté ahí es 1/2, como en el caso de la moneda al aire. Esto refleja su ignorancia, no la situación real. 36
?
El caramelo no se “materializa” al azar en una de las dos manos cuando las abrimos, sino que estaba en ella desde el principio. Pensar lo contrario sería absurdo. Pero este absurdo es lo que sucede con nuestro electrón ante rior, según la MC. Inicialmente, el electrón no tiene una posición definida. No es que la tenga y nosotros la des conozcamos, es que no la tiene. Y es al medir su posición (el equivalente a abrir las manos) cuando efectivamente se manifiesta en una de ellas. Se ha tratado repetidamente de formular teorías alter nativas a la MC, en las que la probabilidad cuántica es un reflejo de nuestra ignorancia, al estilo del juego de los puños cerrados. En esas teorías, el electrón estaría realmente en una posición concreta desde el principio, solo que nosotros no sabríamos en cuál. Pero todos esos intentos han fracasado y la MC ha salido siempre triunfante, a pesar de ser tan “ab surda”. Según la MC toda la información acerca del electrón está contenida en su estado cuántico. Y ese estado puede ser una superposición de autoestados, como en nuestro ejemplo anterior. A muchos físicos, incluyendo algunos ilustres, les ha resultado sumamente desagradable el aspecto probabilísti co de la MC. El caso más famoso es el de Einstein. A pesar de haber contribuido al desarrollo de la teoría en sus pri meras etapas y ser consciente de que era una teoría exitosa en sus predicciones, Einstein no aceptaba que su aspecto probabilístico pudiera ser algo fundamental. Es famosa su frase “Dios no juega a los dados con el universo”. Einstein, en colaboración con Podolsky y Rossen, formuló en 1935 37
la crítica de más calado que se haya hecho a la MC, in tentando demostrar que era difícilmente conciliable con la relatividad especial. Posiblemente este fue su último gran trabajo científico. Y aunque el trabajo es muy ingenioso y pone de manifiesto aspectos intrigantes de la MC, lo cierto es que no hay tal incompatibilidad. Einstein, que había ga nado tantas batallas científicas, perdió su batalla con la MC. Aunque, como bien sabemos, las teorías no son sagradas, sino solo modelos, y no se puede descartar que algún día la naturaleza le dé póstumamente la razón a Einstein. Pero en este momento, todas las evidencias señalan en sentido contrario. Habitualmente, las partículas se encuentran en una su perposición de muchos autoestados de la posición, no solo de dos, como en el ejemplo anterior. Por ello tienen una cierta probabilidad de aparecer en muchas (o incluso todas) las posi ciones. Entonces a cada punto del espacio, x, hay que asignar le una probabilidad de presencia de la partícula. Esta especie de “nube de probabilidad” sustituye nuestra visión clásica del electrón como una bolita de billar, y es lo que se llama función de onda de la partícula. Se suele representar por la letra griega ψ (hay un valor de ψ para cada posición x)1. En el ejemplo de la figura, la función de onda de una partícula está centrada en una cierta posición, donde la probabilidad de presencia es máxima, pero la partícula también puede aparecer en otros lugares (en todos aquellos donde ψ sea distinta a cero). c
X
1. Matemáticamente, ψ es una función de x, que toma valores complejos, y la probabilidad de presencia de la partícula es proporcional al cuadrado de su módulo, |ψ (x)|2. Sin embargo, estos detalles técnicos no afectan a nuestro argumento.
38
Por supuesto, la función de onda puede tener otras for mas muy distintas. En consecuencia, la imagen del átomo con los electrones girando alrededor del núcleo, tal como la con cibió Rutherford, es engañosa. Es más correcto imaginarse a los electrones como “nubecillas” alrededor del núcleo. El estado de una partícula, o lo que es lo mismo, su fun ción de onda, no es estática, sino que va cambiando con el tiempo. Esa evolución está gobernada por una ecuación, lla mada ecuación de Schrödinger, parecida a las ecuaciones que describen la propagación de una onda en el agua. Por este motivo, a veces se dice que en la MC las partículas se pro pagan como ondas, y se manifiestan como partículas. Esto se ha hecho patente con muchos experimentos, por ejemplo viendo como un electrón, al propagarse, presenta fenómenos de interferencia típicos de las ondas. Imaginemos un dique rompeolas en el mar, que tuviera dos agujeros por los que pu dieran pasar las olas. Al otro lado del rompeolas se produciría un fenómeno de interferencia entre las ondas que surgen de los dos agujeros, como muestra esta imagen:
Un experimento semejante se puede llevar a cabo (y se ha llevado) con electrones. Haciéndoles atravesar una panta lla con dos agujeros (incluso de uno en uno), al otro lado de la pantalla la función de onda del electrón interfiere consigo mis ma de forma análoga a la imagen anterior, por lo que se crean “zonas oscuras” donde el electrón no puede ser detectado, alternando con “zonas luminosas” donde la probabilidad de detección es grande. Pensemos en esto de nuevo: ¡cada elec trón individual atraviesa los dos agujeros a la vez y luego los dos caminos interfieren como una onda! Históricamente esto se ha llamado la dualidad onda-corpúsculo, y es una predicción sobresaliente de la MC. Asombrosamente, esta dualidad es 39
cierta también para la propia luz. Sabemos que la luz se pro paga como una onda, pero al detectarse con instrumentos de gran sensibilidad parece estar hecha de partículas, los famo sos fotones. Por tanto, la luz y la materia no son tan distintos como parece, sino que tienen una naturaleza semejante. Un aspecto crucial de la MC es que cada cantidad física (posición, velocidad, energía, etc.) tiene sus propios autoesta dos. Pero habitualmente los autoestados de una cantidad no coinciden con los de otra. En particular, los autoestados de la posición no coinciden con los de la velocidad. Por tanto, una partícula con velocidad bien definida no puede tener una posición bien definida. Esto conduce al llamado principio de incertidumbre de Heisenberg: no es posible medir simultánea mente la posición y la velocidad de una partícula con preci sión infinita. Existen unos límites teóricos (que el principio expresa de forma matemática precisa) que no pueden ser me jorados. Nunca se ha encontrado una violación de esta regla. En los párrafos anteriores hemos introducido la mayor parte de los conceptos cuánticos básicos: superposición de estados, probabilidad de la medida, función de onda, ecua ción de Schrödinger. También hemos visto algunas de sus consecuencias, como la dualidad onda-corpúsculo o el prin cipio de incertidumbre. Todas estas ideas son profundamen te antiintuitivas. ¿Por qué es así la naturaleza? Realmente no lo sabemos, no existen en la MC unos principios tan bellos y simétricos como los de la teoría de la relatividad (aunque algunas formulaciones de la MC se basan en principios de notable elegancia). Se han escrito ríos de tinta criticando o “interpretando” los postulados de la MC. Pero, aunque ha habido aportaciones interesantes, en general la discusión ha sido poco iluminadora. Podemos decir que la física actual sigue enraizada fuertemente en la visión de la MC que tuvie ron sus padres fundadores, que por ahora sigue funcionando a la perfección. Y este ha sido hasta el momento el argumento decisivo a su favor. Para terminar esta panorámica de las bases de la MC, nos falta mencionar un último ingrediente. Hemos dicho 40
que cada cantidad física tiene sus propios autoestados. Por ejemplo, podemos considerar un autoestado de la energía, |E>. Pero ocurre que no todos los valores de E están permi tidos: solo aquellos que cumplen una condición matemática, llamada ecuación de autovalores. La forma de esta ecuación depende no solo de la cantidad física considerada (energía, posición, momento angular, etc.), sino también del sistema físico que se esté estudiando. Por ejemplo, para una partícula propagándose libremente, cualquier valor de E es solución de la ecuación de autovalores. Por tanto, una partícula libre puede tener cualquier energía. Pero para otros sistemas (por ejemplo, un electrón en un átomo), solo ciertos valores de E cumplen la condición de autovalores. En esos casos, una medida de la energía solo puede arrojar uno de esos valo res especiales. Esta situación suele describirse diciendo que la energía está cuantizada, o que el espectro de energías es discreto. Lo que hemos dicho para la energía vale para todas las cantidades físicas. Algunas, como el momento angular, aparecen casi siempre cuantizadas. Otras, como la posición, casi nunca. Pero siempre tienen que obedecer la ecuación de autovalores. Históricamente, los primeros atisbos de la MC provinieron precisamente de la evidencia de que la energía estaba cuantizada en determinados sistemas físicos. Este he cho sorprendente fue lo que dio el nombre a la teoría, aunque como vemos no siempre tiene por qué suceder.
Ciencia y matemáticas Como hemos visto, la estructura de la MC es un tanto ári da. De hecho, la formulación precisa requiere conceptos ma temáticos nada intuitivos, que hemos tratado de sortear. La MC es un buen ejemplo del éxito de las matemáticas para describir el comportamiento de la naturaleza, lo cual es en sí algo muy notable. La creencia general de los científicos es que esto no es casualidad, sino que obedece a razones objeti vas: es la propia naturaleza la que “insiste” en ser descrita en 41
términos matemáticos. Quizá la primera persona en expresar esto con claridad fue Galileo, cuando afirmó (¡en 1623!): La filosofía está escrita en ese grandísimo libro que continuamente está abierto ante nuestros ojos (a saber, el universo), pero no puede entenderse si antes no se procura entender su lenguaje y conocer los caracteres en que está escrito. Este libro está escrito en lenguaje matemático, y sus caracteres son triángulos, círculos […].
Por cierto, Galileo no solo fue pionero en la utilización del lenguaje matemático, sino también en el uso del método experimental, dos características básicas de la ciencia moder na. Por ello, además de por sus magníficos descubrimientos, tiene bien merecido el título de “padre de la ciencia moder na” que a menudo se le concede, aunque existen preceden tes extraordinarios en la antigua Grecia. Es tentador pensar que el éxito del lenguaje matemático en la empresa científica es un reflejo de la lógica interna de la naturaleza, ya que las matemáticas no son otra cosa que pura lógica. Pero, en cual quier caso, los físicos emplean las matemáticas porque han demostrado repetidamente su enorme potencia para descri bir y predecir fenómenos, además de ser un lenguaje objetivo y universal, en el que todos podemos ponernos de acuerdo.
Éxitos de la mecánica cuántica La MC quizá no brille por su belleza al nivel que lo hace la teoría de la relatividad, aunque a muchos físicos les (nos) apasione precisamente por su estructura tan extraña y casi surrealista. Pero la “hoja de servicios” de la MC para en tender el mundo es inigualable. No podemos aquí siquiera enumerar todos los grandes éxitos de la MC, pero vamos a mencionar algunos. La MC permitió entender la estructura del átomo y su estabilidad. Por ejemplo, permitió calcular los niveles de ener gía que puede tener un electrón dentro de un átomo (con 42
la asombrosa precisión de más de 10 cifras decimales). La radiación emitida por los átomos (o sea, por la materia) pro viene de la energía liberada cuando un electrón pasa de un nivel energético a otro más bajo. Como los niveles energéticos están cuantizados, también lo está la radiación emitida. Cada tipo de átomo presenta un espectro de emisión característico, compuesto por ciertas frecuencias aisladas (líneas de emi sión), como una especie de código de barras que lo identifica. Estos “códigos de barras” eran un gran misterio a principios del siglo XX, pero la MC resolvió el enigma. Los espectros de emisión han sido después un método extraordinario para investigar la materia sin necesidad siquiera de tocarla. Gracias a ellos, sabemos por ejemplo de qué están hechas las estrellas. Usando la MC se pudo entender la forma en que los átomos se enlazan unos a otros formando moléculas, y las propiedades de las mismas. Por tanto, toda la química es una consecuencia de la MC. Gracias a la MC entendemos también la estructura de los materiales sólidos y sus propiedades: den sidad, color, conductividad térmica y eléctrica, etc. Además, ha permitido explicar propiedades mucho menos ordinarias, como la superconductividad, o desarrollar tecnologías como el rayo láser y los materiales semiconductores. Estos últimos son la base de la electrónica y la tecnología digital actual, la cual sería impensable sin ellos. Por tanto, la MC no solo ha supuesto una revolución científica, sino también una revolución tecnoló gica, siendo un ejemplo señero de cómo el avance de la ciencia básica es previo a muchos desarrollos e inventos posteriores. Algunas propiedades del mundo que nos rodea, que nos resultan tan familiares que casi no nos preguntamos sobre su origen, se explican gracias a la MC en combinación con el electromagnetismo. Por ejemplo, ¿por qué hay materiales sólidos? ¿Por qué los materiales sólidos son impenetrables entre sí? Esto último no se explica porque no pueda haber dos ob jetos en el mismo sitio. Si la miráramos con un microscopio potentísimo, veríamos que la materia está prácticamente va cía por dentro, por lo que un material podría perfectamente 43
penetrar en otro. La impenetrabilidad procede de las interac ciones de los electrones de los dos materiales. Más preguntas: ¿por qué hay fricción al rozar unas superficies con otras? ¿Por qué hay sustancias pegajosas? ¿Por qué nos ponemos more nos cuando tomamos el sol? ¿Por qué un trozo de hierro o de carbón (o de cualquier cosa si no se quema antes) se pone rojo al calentarse? Todo esto se ha entendido gracias a la MC. Sería un error pensar que la MC se aplica solo a obje tos y sistemas microscópicos, mientras que para objetos de mayor tamaño la teoría correcta es la mecánica clásica. En realidad, la teoría correcta es siempre la cuántica, solo que para sistemas macroscópicos la teoría clásica es una buena aproximación. En el lenguaje que hemos empleado para otros casos, la física clásica es una teoría efectiva de la física cuán tica para sistemas no muy pequeños. Hay que decir de todas formas que la conexión entre física cuántica y clásica no es tan directa como entre la mecánica relativista y no relativista, y es de hecho un área de investigación actual.
Relatividad y mecánica cuántica frente a frente La teoría de la relatividad y la mecánica cuántica son dos teo rías tremendamente exitosas. Pero parece que a veces utili záramos una y a veces la otra. En realidad, deberíamos usar (o poder usar) las dos a la vez, ya que se supone que ambas son ciertas universalmente. A menudo, para casos prácticos es más fácil utilizar una buena teoría efectiva en vez de una, o las dos, teorías fundamentales. Pero esto no es excusa para que las dos teorías pudieran ser utilizadas simultáneamente si se deseara, o así debería ser. Desde el principio, se vio que no era sencillo compaginar relatividad y mecánica cuántica, pues surgían inconsistencias matemáticas por muchos sitios. Esta situación recuerda a la que tenían el electromagnetismo (ecuaciones de Maxwell) y la mecánica (leyes de Galileo y Newton) a finales del siglo XIX. Como vimos, de aquel conflicto y su resolución surgió una 44
nueva teoría, la relatividad especial. Como decía Einstein, “oculta en la dificultad se encuentra la oportunidad”. En este caso, la tarea de hacer compatibles la relatividad espe cial y la mecánica cuántica duró décadas, desde finales de los años veinte a los años cincuenta del siglo XX. La solu ción fue un nuevo tipo de teoría: la teoría cuántica de campos, que es a la vez una teoría cuántica y una teoría relativis ta (en el sentido de la relatividad especial). En la teoría cuántica de campos, los objetos fundamentales no son las partículas, sino los campos, por ejemplo el campo electro magnético. El concepto de partícula surge por sí solo al des cribir el campo cuánticamente (y de forma relativista). Las partículas son las excitaciones cuánticas del campo. Por tanto, ¡la teoría cuántica de campos explica por qué existen las partículas!, un logro conceptual de primer orden. También explica otros hechos fundamentales, por ejemplo por qué todos los electrones (o todos los protones, todos los neutrones, etc.) son idénticos entre sí, o por qué hay anti partículas. Recordemos que todo está hecho de partículas elementales, por lo que estos hallazgos son fundamentales para entender la naturaleza. La necesidad de una teoría así era especialmente apre miante para el electromagnetismo, ya que el electromagne tismo clásico es de por sí una teoría relativista y, por tanto, en su cuantización no se puede renunciar a este aspecto. La teoría cuántica de campos aplicada al electromagnetismo es conocida como la electrodinámica cuántica (QED por sus siglas en inglés). Esta es posiblemente la teoría que ha proporcionado predicciones de precisión más asombrosas en toda la historia. Por ejemplo, predice el momento mag nético del electrón con precisiones de 11 o 12 cifras deci males. También explica a las mil maravillas las interacciones entre electrones y positrones, o entre estos y los fotones. La elaboración de la electrodinámica cuántica no fue tarea fá cil. Se encontraron problemas de consistencia matemática, que finalmente fueron resueltos por Schwinger, Feynman y Tomonaga a finales de los años cuarenta. 45
La teoría cuántica de campos no ha dejado de desarro llarse desde su nacimiento, y en la actualidad es un campo vivo y floreciente de la física fundamental (y también de una gran complejidad matemática). Ha sido aplicada con éxito a todas las interacciones conocidas (con excepción de la gra vedad) y ha sido la herramienta fundamental para investigar el comportamiento de la materia al nivel más básico posible. El Modelo Estándar, como veremos, es también una teoría cuántica de campos. ¿Y qué pasa con la relatividad general? ¿Es compatible con la mecánica cuántica? Recordemos que estas dos teorías repre sentan la base de la física actual y, por tanto, una inconsistencia entre ellas es tremendamente incómoda… o tremendamente sugerente (a los científicos lo que les estimula no son los pro blemas cerrados, sino los abiertos). Recordemos también que la relatividad general es nuestra teoría de la gravitación. Por tanto, una incompatibilidad con la mecánica cuántica significa que no sabemos tratar la gravedad cuánticamente. Lo cierto es que compaginar ambas teorías ha demostrado ser un reto formi dable. La situación planteada recuerda nuevamente la incon sistencia entre electromagnetismo y mecánica clásica a finales del siglo XIX, o entre relatividad especial y mecánica cuántica en el siglo XX. Hasta ahora, el único intento de verdadero éxito para compatibilizar la mecánica cuántica y la relatividad general ha sido la teoría de supercuerdas, a la que nos referiremos más adelante, y que significa ir un paso más allá de la teoría cuántica de campos. Pero hasta ahora no hay ninguna evidencia expe rimental de esta novedosa teoría, aunque el solo hecho de que exista es casi un milagro y por eso ha recibido una atención preferente por parte de los físicos en las últimas décadas.
Lo que no explican la relatividad y la mecánica cuántica Olvidemos por un momento la incómoda inconsistencia entre relatividad general y mecánica cuántica. Tenemos dos teorías 46
que explican todo lo que hemos podido observar… ¿de ver dad lo explican todo? En realidad no. Ciertamente estas dos teorías nos dicen algo muy importante sobre la naturaleza y su “estilo” de comportarse. Hemos visto cómo las partículas elementales se ajustan a las leyes de la relatividad y la mecá nica cuántica, por ejemplo los muones que prolongaban su vida media en un acelerador, o los electrones que presentaban interferencias como una onda. Lo que no nos dicen estas teo rías es por qué hay electrones y muones. Esto se puede exten der al resto de partículas: protones, neutrones, piones, neutri nos, etc. Las teorías tampoco nos dicen por qué las partículas interaccionan como lo hacen. Por ejemplo, por qué existe el electromagnetismo (y, por tanto, la luz), o las fuerzas débi les y fuertes, que pronto discutiremos. Tampoco explican por qué las partículas tienen masa, y por qué tienen la masa que tienen. Es como si la relatividad y la mecánica cuántica fueran patrones generales de comportamiento, pero no dieran pistas sobre qué objetos son los que tienen que comportarse con arreglo a dichos patrones. Hemos hablado de la teoría cuántica de campos. Cuando se formula una teoría de este tipo, hay que especificar cuáles son las partículas (o campos) básicos y cuáles sus interac ciones. Una vez introducida esta información, las reglas de la teoría nos dan las predicciones a contrastar con el experi mento. Pero primero hay que especificar esos “datos de en trada”, para los que hay infinitas posibilidades. Así que, en cierto modo, no hay una sola teoría cuántica de campos, sino que hay infinitas. El Modelo Estándar es una de ellas, la teo ría que describe todos los fenómenos observables (salvo la gravitación de Einstein, que se resiste a ser cuantizada, como sabemos). En los siguientes capítulos vamos a recorrer la es tructura del Modelo Estándar, sus éxitos y las preguntas que deja sin respuesta, y especularemos sobre lo que puede haber más allá del Modelo Estándar.
47
CAPÍTULO 3
La frontera actual: el Modelo Estándar
El Modelo Estándar es el resultado del esfuerzo y la imagina ción de un buen número de grandes físicos y físicas desde los años cincuenta a los ochenta del siglo pasado. El camino recorrido en la construcción de esta teoría ha sido intrin cado. El panorama experimental que había que describir e interpretar ha sido con frecuencia extraordinariamente con fuso. Esto provocó la aparición de muchas aproximaciones distintas al problema, dando lugar a numerosos modelos que eran capaces de explicar determinados aspectos de las partículas elementales, pero no todos. A posteriori se ha po dido ver que muchos de esos modelos eran teorías efectivas del Modelo Estándar, válidos en ciertos regímenes de ener gía. De hecho, el panorama teórico también ha sido confuso a menudo. Muchos modelos interesantes tenían, sin embar go, “enfermedades” de consistencia matemática que no se sabían curar. Poco a poco la situación se fue aclarando: los esfuerzos, tanto teóricos como experimentales, fueron con vergiendo, descubriendo una teoría consistente, capaz de describir con éxito toda la fenomenología de las partículas. Podemos decir que hacia 1980 el Modelo Estándar ya había tomado una forma definida, la que vamos a describir en este capítulo y el siguiente. Desde entonces, el Modelo Estándar ha sido puesto a prueba en cantidad de aspectos diferentes, 48
siempre con éxito pleno. Todas las predicciones de la teoría que se han podido estudiar en un laboratorio han sido siem pre confirmadas al máximo grado de precisión disponible (a menudo, muy alto). Esquemáticamente, el Modelo Estándar tiene dos in gredientes: los “componentes de la materia”, es decir, las par tículas elementales de las que están hechas todas las cosas, y las “interacciones”, es decir, los distintos tipos de fuerzas básicas que ejercen unas partículas sobre otras. Veremos más adelante que, para describir con éxito ambos ingre dientes, el Modelo Estándar hace un uso profundo e inten sivo del concepto de simetría. Las simetrías de la naturaleza están en el corazón del Modelo Estándar, y son las que le dan elegancia y potencia predictiva.
El zoo de las partículas Como hemos visto en capítulos pasados, hacia 1930 se te nía un esquema muy exitoso para describir de qué estaban hechas las cosas. Todas estaban hechas de átomos, consti tuidos por un pequeño, pero pesado, núcleo de carga posi tiva, donde estaban los protones; y por una corteza grande y ligera, de carga negativa, constituida por electrones. La masa de un protón es unas 2.000 veces la de un electrón, algo llamativo pero no problemático. La descripción cuán tica del átomo era plenamente satisfactoria. Sin embargo, la situación se iba a complicar rápidamente. En 1932 se descubrieron los neutrones, otros habitantes del núcleo ató mico, con una masa ligeramente mayor que los protones, pero sin carga eléctrica. Los neutrones no son estables: se desintegran al cabo de unos 15 minutos2. En apariencia, 2. Por cierto, si los neutrones son todos idénticos, ¿cómo es que unos se desintegran antes y otros después? Esto es simplemente una manifestación de la naturaleza cuántica de las cosas. Según la mecánica cuántica, a menudo no es posible saber con exactitud lo que va a pasar, sino solo la probabilidad de que pase; en este caso, el instante en que se desintegrará un neutrón.
49
cada neutrón se desintegra en un protón y un electrón, pero en realidad produce también una tercera partícula, llamada neutrino, que interacciona tan débilmente que no era posible detectarlo con los medios de entonces. El neu trino, denotado habitualmente por la letra griega n, ha bía sido ya predicho en 1930 por el gran físico Wolfgang Pauli, observando las desintegraciones de núcleos radiac tivos (Pauli estaba en lo cierto, aunque hubo que esperar hasta 1956 para detectar por primera vez un neutrino). En 1937 se detectó una nueva partícula, el muón (μ), que ya hemos encontrado en el capítulo anterior. El muón resultó ser una partícula idéntica al electrón en todos los aspec tos, excepto que su masa es 200 veces mayor. En los años cuarenta se descubrieron los llamados piones (o mesones π) y kaones (o mesones K), partículas algo más pesadas que los muones. Y en los años cincuenta se produjo una autén tica “explosión” en el número de partículas encontradas. Aparecieron las partículas Λ, ∆, Σ, y muchas otras (en la actualidad se conocen unas 300). La situación empezaba a ser caótica. ¿Cómo podía haber tantas partículas “elemen tales”, con características tan diversas? Las partículas no solo tenían diferente masa, sino diferente carga eléctrica (aunque siempre múltiplos exactos de la carga del electrón), diferentes interacciones con otras partículas y diferente tiempo de vida. Mencionemos que solo el electrón, el pro tón y los neutrinos son partículas estables. El resto son efímeras y se desintegran al cabo de una pequeña fracción de segundo, salvo el neutrón, que es más longevo (15 mi nutos). La situación encontrada recuerda a la proliferación de elementos químicos en el siglo XIX, que finalmente pudo ser entendida de forma sistemática gracias a la tabla periódica de Mendeléiev (1869) y, sobre todo, gracias al descubrimiento de la estructura cuántica del átomo, como hemos recordado en el capítulo anterior. En nuestro caso, la proliferación de partículas elementales empezó a ser en tendida y sistematizada en los años sesenta del siglo XX. 50
Los bloques básicos de la materia En 1964 Murray Gell-Mann y George Zweig (por separa do) propusieron la idea de que la mayoría de las partículas observadas no eran elementales, sino compuestas de otras, a las que se llamó quarks. Como veremos, hay seis tipos de quarks, aunque en ese momento solo se sugirieron tres, a los que se llamó u, d, s (iniciales de up, down, strange, o sea “arri ba, abajo, extraño” en inglés, una notación no muy afortu nada). Probablemente los casos más llamativos de partículas compuestas son los del protón y el neutrón. El protón está compuesto por dos quarks de tipo u y uno de tipo d; el neu trón, justo al revés.
u
u
d
d
d
u
Protón
Neutrón
Contrariamente al resto de las partículas, los quarks tie nen carga eléctrica fraccionaria. En unidades de la carga del electrón, el quark u tiene carga positiva 2/3, y el quark d carga negativa -1/3. Al sumar las cargas de los tres quarks dentro del protón, vemos que, efectivamente, tiene una unidad de carga positiva. Análogamente, el neutrón no tiene carga. El hecho de que nunca se hubieran visto quarks libres (y siguen sin verse) hizo dudar de la realidad de los quarks. Sin embargo, en 1968 se empezaron a obtener pruebas de su existencia, pruebas que hoy en día son abrumadoras. Naturalmente, aquí surgen muchas preguntas: ¿qué mantiene unidos a los quarks en el interior de un protón? ¿Cómo es que nunca se han visto los quarks libres? ¿Por qué tienen cargas fraccionarias? A medida que avancemos, iremos encontrando respuesta a algunas de estas preguntas. 51
Al contrario que el protón y el neutrón, el electrón y el neutrino son, por lo que sabemos, partículas verdaderamente elementales; al menos tanto como puedan serlo los quarks. Dado que toda la materia ordinaria, incluidos nosotros mis mos, está hecha de átomos, resulta que todo está hecho con solo tres partículas elementales: los quarks u y d (que forman los protones y neutrones) y el electrón. Los planetas, las es trellas, el polvo y el gas que flota en el espacio exterior están hechos todos con esas tres piezas básicas, como si la materia del universo fuera un gigantesco juego de Lego con solo tres tipos de bloques, pero con los que se pueden hacer muchas construcciones distintas: los innumerables tipos de sustan cias, materiales y objetos que nos rodean. Si a esas tres par tículas añadimos el neutrino, que hemos mencionado en las desintegraciones de neutrones (y que realmente se encuentra en el universo de forma muy abundante), tenemos la primera familia de bloques básicos de la materia:
u νe e d
La razón de agrupar el neutrino con el electrón y los quarks u y d entre ellos quedará pronto clara. Hemos puesto un subíndice “e” al neutrino para indicar que este es el neutri no asociado con el electrón, ya que enseguida encontraremos otros tipos de neutrinos. Decimos que casi todo está hecho de estas partículas, pero existe una pequeñísima fracción de la materia del universo que no está hecha con ellas. Hemos hablado anteriormente del muón (μ), que es en todo idéntico al electrón, salvo que su masa es 200 veces mayor. Pues bien, el muón es una partícula elemental, en pie de igualdad con el electrón, aunque solo se encuentra en los rayos cósmicos (donde fue detectado por vez primera), o producido artifi cialmente en los laboratorios terrestres. Pero el muón no está solo: tiene una familia de partículas, al igual que el electrón tiene la suya. La familia del muón está compuesta por él mis mo (μ), su neutrino asociado (νμ) y otra pareja de quarks, c, 52
s. El quark s (extraño) ya lo hemos mencionado antes, fue sugerido por Gell-Mann en 1964. El quark c (charm, o sea “encanto”) fue descubierto en 1974, aunque ya había sido predicho teóricamente. Estos nuevos quarks se combinan en tre ellos, o con los dos primeros, para dar lugar a muchas partículas de nuestro zoo inicial, partículas inestables que no se encuentran en la materia ordinaria. Las cuatro partículas de la familia del muón son todas idénticas a las de la familia del electrón, excepto por tener mayor masa. Podría pensarse que la familia del muón no es tan básica como la del electrón, ya que solo una parte insignificante de la materia está hecha con ella. Pero no es así, la segunda familia de partículas es tan fundamental como la primera… Y aún hay una tercera fami lia, la del tau (t). El tau, descubierto en 1976, tiene también su neutrino asociado (νt ), y dos quarks, t, b (por top, bottom, o sea, “cima”, “base”). Nuevamente, todo es igual que para la primera familia, excepto que las masas son aún mayores. Se podría pensar que la secuencia de familias sigue de forma infinita, aunque de momento solo hayamos detectado las tres primeras. Sin embargo, hay pruebas convincentes de que no existe una cuarta familia. Si existiera, debería ser muy diferen te de las tres primeras, como veremos más adelante. Por tan to, tenemos un mapa completo de toda la materia observada. Consiste en estas 12 partículas, distribuidas en tres familias:
ne u e d
nµ c µ s
nt t t b
Pensemos un momento en la importancia de esta tabla. En ella está recogida, de forma completa, toda la materia co nocida. Es el equivalente a la tabla periódica de los elemen tos químicos, solo que más fundamental. De hecho, la tabla periódica es una consecuencia de esta tabla de partículas y sus interacciones. Llegar a completar esta tabla ha costado un siglo: desde el descubrimiento del electrón en 1897 hasta el 53
del quark top (t) en 1995. Podemos comparar esta tabla con el mapa del mundo y sus cinco continentes, que nos es tan familiar. El mapa del mundo también costó siglos y la audacia de muchos exploradores para llegarse a completar. Pensemos en un navegante de aquella época llegando a tierra descono cida. Puede que se tratara de una isla no muy grande, o de un continente nuevo. En el segundo caso, es posible que costase bastante tiempo llegar a comprender la importancia y alcance del descubrimiento. Algo parecido sucedió con la búsqueda de partículas elementales. Nadie comprendió en un primer momento la importancia del descubrimiento del muón (μ) en 1937, hasta que casi 40 años después se vio que era la prime ra pieza de la segunda familia de partículas (un “continente nuevo”). Naturalmente, la pregunta que surge es ¿por qué las partículas aparecen en tres familias idénticas, salvo por sus masas? La respuesta es sencilla: nadie lo sabe. La estructu ra de familias es un ingrediente básico del Modelo Estándar, algo de lo que se parte, no algo que el modelo puede explicar. Por supuesto, entender la existencia de las familias es un reto para la física actual, como lo fue entender los espectros de emisión del hidrógeno y otros elementos químicos a comien zos del siglo XX. En aquel caso, la estructura del átomo y la mecánica cuántica resolvieron el misterio. En nuestro caso, aunque se trabaja intensamente para entender el origen de las familias, y se han propuesto modelos ingeniosos para ello, lo cierto es que el misterio sigue sin resolverse. Es conveniente introducir algunos términos modernos para referirse a las partículas fundamentales. Al electrón, muón y tau, y sus correspondientes neutrinos, se les deno mina leptones, en contraposición a los quarks. Como veremos, la diferencia entre leptones y quarks es que los primeros no sienten la llamada interacción fuerte. Gracias a ella, los quarks tienen la capacidad de unirse para formar partículas com puestas. A esas partículas (y a los propios quarks) se les de nomina genéricamente hadrones. Recordemos que las siglas del LHC significan Gran Colisionador de Hadrones. Ahora vemos por qué: en el LHC colisionan protones, que son un 54
tipo de hadrones; y también núcleos atómicos de plomo, que, al estar hechos de protones y neutrones, se pueden considerar asimismo hadrones. A cada especie de partícula en la tabla de arriba se la denomina genéricamente sabor (por supuesto, no tiene nada que ver con el sabor ordinario). Hay por tanto sabores leptónicos y sabores hadrónicos. Hemos dicho que cada familia tiene partículas más pe sadas que la anterior. Es hora de ser un poco más concretos y decir cuáles son esas masas. La unidad que se utiliza para medir masas en física de partículas es el GeV. Por definición, un GeV es la energía potencial de un electrón sometido a un voltaje de 1.000 millones de voltios (recordemos que ener gía y masa son en realidad la misma cosa, como demostró Einstein). Pero es más conveniente pensar que un GeV es aproximadamente la masa de un protón. Hace falta un bi llón de billones de protones para hacer un gramo de materia. Expresadas en GeV, las masas de las partículas anteriores son aproximadamente las siguientes: e
0,0005
μ
0,106
t
1,78
ne
?
nμ
?
nt
?
u
0,002
c
1,25
t
173
d
0,004
s
0,095
b
4,2
Comparando un mismo tipo de partícula, en cada una de las tres familias, se puede observar claramente una jerar quía en las masas. Por ejemplo, el electrón es más ligero que el muón, y este más ligero que el tau; lo mismo para los quarks u, c, t; y para los quarks d, s, b. La pregunta obvia es ¿a qué se debe esta jerarquía de masas? Y nuevamente la respuesta es: nadie lo sabe. Al problema de por qué hay tres familias de partículas con esta jerarquía peculiar de masas se le de nomina actualmente el problema del sabor, y representa un área de investigación apasionante. En la tabla anterior hemos puesto una interrogación en las casillas de los neutrinos, aun que en realidad conocemos bastante sobre ellos. Desde 1998 sabemos que los neutrinos tienen masas extremadamente 55
pequeñas, pero distintas de cero (excepto quizá uno de ellos). Como mucho, la masa de los neutrinos podría ser una milmi llonésima de GeV, o sea 500.000 veces más ligera que el elec trón. Pero tampoco puede ser muchísimo más pequeña que eso: uno de los neutrinos ha de tener una masa de “al menos” 50 billonésimas de GeV, o sea terriblemente pequeña, pero no nula. Los neutrinos son objetos peculiares y fascinantes, sobre los que nos gustaría extendernos, pero no podemos por razones de espacio.
Espín Hemos dicho que las partículas tienen propiedades diver sas, como la masa y la carga eléctrica. Pero hay una propie dad, igual de fundamental, que no hemos mencionado aún: el espín. El espín de una partícula es su momento angular. Podemos pensar en el electrón como una bolita girando sobre sí misma, igual que hace la Tierra alrededor de su eje. Esta imagen es muy intuitiva, aunque no del todo correcta. Por lo que sabemos, los electrones, al igual que el resto de las partí culas elementales de nuestra tabla, son puntuales (no tienen volumen), por lo que no tiene sentido que giren sobre sí mis mos. Pero estas imágenes corresponden a una visión clásica de las partículas. Cuánticamente, no hay ningún problema para que una partícula puntual tenga un momento angular “intrínseco”, que es precisamente el espín. Entender esto su puso otro gran triunfo de la mecánica cuántica. Además, la mecánica cuántica predice que el espín está cuantizado, es decir, no puede valer cualquier cosa, sino que es siempre un múltiplo de una cantidad mínima. En un cierto tipo de unida des, esa cantidad mínima es 1/2. Así, puede haber partículas con espín 0, 1/2, 1, 3/2, 2, etc. Las partículas de espín entero (0, 1, 2, etc.) se denominan bosones, y las de espín semientero (1/2, 3/2, etc.) fermiones. En el zoo de cientos de partículas que se conocen hay ejemplos de los dos tipos. Pero, si nos restringimos a las 12 partículas verdaderamente elementales 56
de nuestra tabla, todas ellas tienen espín 1/2, y son por tanto fermiones. Por cierto, el protón y el neutrón tienen también espín 1/2, aunque no son partículas puntuales, ya que están compuestas de quarks. El diámetro de un protón es aproxi madamente una billonésima de milímetro. Comparado con la cabeza de un alfiler, un protón es tan pequeño como un mi crobio comparado con la Tierra. Su densidad es, sin embargo, gigantesca. Esa misma cabeza de alfiler, hecha de protones, pesaría un millón de toneladas.
Interacciones Hemos hablado repetidamente de la gran cantidad de sus tancias y materiales que nos rodean, que al final resultan ser combinaciones de unas pocas partículas elementales. Pero los materiales no solo están ahí, sino que interaccionan de for mas diversas. En la experiencia cotidiana podemos observar muchas de esas interacciones. Quizá el caso más obvio es la fuerza de la gravedad: la Tierra atrae a los objetos, haciéndo les caer. Pero hay muchas más interacciones que ocurren a nuestro alrededor. Cuando una bola de billar golpea a otra y la pone en movimiento se produce una interacción entre ellas, de lo contrario se atravesarían la una a la otra, como un rayo de luz atraviesa un cristal. A veces se llama a esto fuerza de contacto. Del mismo modo, un libro encima de una mesa la atravesaría y caería al suelo, de no ser por la fuerza de con tacto. También observamos fricciones de distinto grado entre objetos, no todas las superficies son igual de resbaladizas o ásperas. Algunas son incluso pegajosas. Cuando nos secamos con una toalla, de alguna forma el agua es atraída por el mate rial de la toalla, del mismo modo que el agua asciende por los tallos de las plantas. También observamos cómo un terrón de azúcar se disuelve en el agua, pero no una piedra. Además es tán todas las reacciones químicas, por ejemplo, las que tienen lugar en nuestro estómago e intestino, o cuando se quema una cerilla. Por otro lado, vemos la interacción eléctrica (por 57
ejemplo, cuando cae un rayo desde una nube a la Tierra) y magnética (un imán atrayendo objetos metálicos). Y las inte racciones que en el interior del Sol producen calor. Un éxito de la física moderna ha sido comprender que to das esas interacciones son manifestaciones de solo cuatro inte racciones básicas: la gravitatoria, la electromagnética, la fuerte y la débil. Las cuatro son esenciales para la vida. Sin atracción gravitatoria, no se formarían las estrellas ni los planetas: el Sol y la Tierra no existirían. Sin la electromagnética, no existirían los átomos, y por tanto ninguna sustancia; no habría más que partículas elementales propagándose por el espacio. Además no habría luz, que es una onda electromagnética. La mayoría de las interacciones cotidianas que hemos mencionado arriba son, en realidad, manifestaciones de la interacción electromag nética a nivel microscópico. La interacción fuerte es también esencial: sin ella, los protones y neutrones no estarían ligados en los núcleos atómicos. En consecuencia no habría núcleos ni átomos. De hecho, no habría siquiera protones y neutrones, ya que es la interacción fuerte la que mantiene ligados a los quarks dentro de ellos. Finalmente, sin fuerza débil no se producirían las reacciones nucleares que generan calor en el interior de una estrella: el Sol estaría apagado y la Tierra sería un mundo he lado y sin vida. Las 12 partículas elementales de la materia sienten estas cuatro interacciones fundamentales, pero no todas por igual. La interacción débil es sentida por todas las partículas. La fuerte, solo por los quarks. La electromagnética es sentida por todas las partículas que tienen carga eléctrica, es decir, todas excepto los neutrinos. Finalmente, la fuerza gravitatoria es sen tida por todas las partículas, aunque es extremadamente dé bil comparada con las otras fuerzas. Hoy sabemos que estas cuatro interacciones están mediadas por otras partículas, que hacen el papel de mensajeros de la interacción. Por ejemplo, los fotones son los mediadores de la interacción electromagnética. Cuando un electrón (de carga negativa) repele a otro electrón, podemos imaginarnos que esa repulsión surge del intercambio de fotones entre ellos. Esto podemos visualizarlo así: 58
e
e
g
e
e
La letra griega g (gamma) simboliza el fotón intercam biado. De un modo semejante, la interacción fuerte está mediada por los llamados gluones, y la interacción débil por los llamados bosones W y Z. Finalmente, todos los físicos creen que la interacción gravitatoria también tiene su par tícula mediadora, el gravitón (que es la única de estas partí culas que aún no se ha detectado)3. Así pues, podemos dar la tabla de las partículas mediadoras de las interacciones fundamentales: TIPO DE INTERACCIÓN
PARTÍCULA MEDIADORA
Electromagnética
g (fotón)
Fuerte
g (gluón)
Débil
bosones W, Z
Gravitatoria
G (gravitón)
Todas estas partículas son en realidad tan elementales como las 12 partículas elementales de la materia. Sin embar go, hay algunas diferencias. Las partículas de materia tienen masa, mientras que las mediadoras de las interacciones no la tienen, con excepción de los bosones W y Z. Otra diferencia es el espín: las partículas de materia tienen espín 1/2, mientras 3. En 2016 la colaboración LIGO anunció la primera detección directa de on das gravitacionales (por la que se concedió el premio Nobel en 2017). Así que puede decirse que los gravitones han sido detectados de forma colectiva, pero no como partículas individuales; y es improbable que pueda conseguirse en mucho tiempo debido a su debilísima interacción.
59
que las mediadoras tienen espín 1, excepto el gravitón, que ha de tener espín 2. Son por tanto bosones. Mencionemos tam bién que todas las partículas mediadoras tienen carga eléctri ca nula, excepto el bosón W y su antipartícula. La masa de los bosones W y Z es muy grande: 80 GeV y 91 GeV, respectiva mente. O sea, cada uno de ellos pesa casi como 100 protones, lo cual es muy notable. Entre las partículas elementales solo el quark top y el bosón de Higgs, del que más tarde hablaremos, tienen una masa mayor. Veremos que todas estas propiedades son consecuencia de simetrías fundamentales subyacentes, lo que supone uno de los grandes triunfos del Modelo Estándar. Es interesante hacerse una idea de la diferente intensidad de las cuatro interacciones básicas. Consideremos dos quarks u y d, de los que están dentro de un protón. Dado que los quarks sienten las cuatro interacciones, podemos comparar con qué intensidad sienten cada una de ellas. Por ejemplo, la fuerza gravitatoria entre ellos es extraordinariamente más pequeña que la electromagnética; concretamente, la atracción eléctrica es 1040 (o sea, un uno seguido de 40 ceros) veces ma yor que la gravitatoria. No es de extrañar que las fuerzas gra vitatorias sean despreciables a escala microscópica, aunque para objetos grandes como la Tierra, las fuerzas gravitatorias provenientes del gran número de átomos presentes se acumu lan y se hacen apreciables, como bien sabemos. Para nuestros dos quarks, la fuerza fuerte es aproximadamente 100 veces mayor que la electromagnética, aunque todo depende de la distancia a la que se encuentren. Respecto a la interacción dé bil, a distancias extraordinariamente pequeñas es comparable o incluso mayor que la electromagnética, pero decrece rápi damente con la distancia y enseguida se hace mucho menor. Curiosamente, con la interacción fuerte sucede lo contrario: a mayor distancia, mayor es su influencia. Todo esto tiene una explicación, como veremos. Para comprender mejor el origen y las propiedades de las interacciones básicas, hemos de dar un paso más y enten der el papel central que juegan las simetrías en la estructura del Modelo Estándar. 60
Simetrías La idea de simetría es muy intuitiva: todos sabemos recono cer un objeto simétrico, y normalmente resulta agradable a la vista. Por ejemplo, un cuerpo humano es aproximadamente simétrico, como también lo es una pirámide, un dado o una pelota; aunque cada uno de estos objetos es simétrico “a su manera”. Entonces ¿qué es exactamente una simetría? En ge neral, una simetría de un objeto es una transformación que lo deja idéntico a sí mismo. Consideremos estas tres figuras simétricas:
Si rotamos el triángulo un tercio de vuelta, o sea, 120º, alrededor de su centro, obtendremos exactamente la misma figura. En lenguaje matemático, este triángulo es invariante bajo rotaciones de 120º. El cuadrado, sin embargo, es inva riante bajo rotaciones de 90º, y el círculo es invariante bajo cualquier rotación. Por tanto, lo que diferencia a las sime trías de estos objetos es la operación de transformación que los deja invariantes. En matemáticas, la forma de clasificar simetrías es precisamente clasificar posibles operaciones de transformación. Podemos preguntarnos ahora: ¿la naturaleza presenta alguna simetría? Ciertamente, hay objetos naturales que son muy simétricos, por ejemplo, el Sol, un copo de nieve o el arco iris. Dentro del reino vegetal encontramos multitud de ejemplos: una hoja de un árbol, una piña, una margarita, etc. Y la mayor parte de los animales presenta algún tipo de simetría. Pero también hay abundancia de objetos no simétricos, como las piedras, las nubes, o la forma de los continentes. Entonces, ¿hay alguna simetría verdaderamente 61
fundamental en la naturaleza? En este punto pensemos que lo verdaderamente fundamental no son los objetos, sino las leyes de la física que los originan. Una margarita y una pie dra son ambas consecuencia de las mismas partículas ele mentales y sus interacciones. Es en las leyes básicas donde tenemos que buscar las simetrías más profundas de la natu raleza. Y lo maravilloso es que esas leyes presentan una gran riqueza de simetrías, lo que explica muchas cosas. Pero esas simetrías no son tan fáciles de ver como la de un cuadrado o un círculo. ¿Qué significa el que las ecuaciones que describen la naturaleza sean simétricas? Las ecuaciones representan re laciones entre cantidades físicas. Son algo abstracto, no un objeto con un aspecto determinado. Pero utilizando nues tra definición anterior de simetría, podemos decir que unas ecuaciones son simétricas si quedan invariantes cuando se les hace alguna transformación matemática. Por ejemplo, el “tiempo” es una magnitud física que aparece en las ecua ciones que describen la naturaleza (si no, ¿cómo iban dichas ecuaciones a describir la evolución temporal de las cosas?). Ahora bien, cuando medimos el tiempo, consideramos siem pre un instante a partir del cual contamos las horas, los días o los años; por ejemplo, el nacimiento de Cristo. Pero esto es algo convencional. Parece claro que si tomamos otro “ori gen de tiempos”, por ejemplo, el año 1000, las leyes físicas seguirán siendo las mismas, aunque el año 2019 pase a ser el 1019. Por tanto las leyes físicas han de ser invariantes (es decir, simétricas) frente a cambios del origen de tiempos. Esto es lo que se llama simetría bajo traslaciones temporales, que es realmente una simetría fundamental de la naturaleza. ¿Qué consecuencias tiene esta simetría? La primera es que las ecuaciones sean mucho más potentes para describir las cosas. No necesitamos especificar en qué momento de la his toria estamos para saber qué leyes físicas hemos de aplicar: las leyes son siempre las mismas. Pero hay una segunda con secuencia mucho más sutil. Se puede demostrar matemáti camente que, por cada simetría de las leyes físicas, existe una 62
cantidad física que se conserva4. En el caso de las traslaciones temporales, la cantidad conservada es la energía. Así pues, el bien conocido principio de conservación de la energía ¡es consecuencia de una simetría de la naturaleza! De un modo semejante, la conservación del momento es consecuencia de la simetría bajo traslaciones espaciales, es de cir, del hecho de que las leyes físicas no dependan del punto de referencia que se tome para medir distancias.Y la conservación del momento angular es consecuencia de la simetría bajo rota ciones, es decir, que si rotamos nuestro sistema de referencia para medir las posiciones de los objetos, las leyes físicas siguen siendo las mismas. Como vemos, la potencia de las simetrías es grande para predecir el comportamiento de la naturaleza. Volvamos otra vez a los objetos simétricos. Posiblemente el objeto más simétrico que es posible concebir sea una esfera. Una esfera es invariante bajo cualquier rotación que se haga en torno a su centro. Ahora bien, como acabamos de mencio nar, esa simetría bajo rotaciones la tienen también las leyes fundamentales de la naturaleza. Así pues, las ecuaciones bá sicas de la física son literalmente tan “redondas” y simétricas como una pelota. Pero en realidad lo son aún más, puesto que también son invariantes bajo traslaciones espaciales y tempo rales. Y aún tienen más simetrías. Recordemos que las leyes físicas se ven igual por un observador en reposo y por otro a velocidad constante. Y que, según la relatividad especial, las observaciones de ambos están relacionadas por las llamadas transformaciones de Lorentz. Así pues, las leyes de la física han de ser invariantes bajo las transformaciones de Lorentz. ¡Y lo son! Esta simetría tiene consecuencias importantísimas, como el hecho de que las partículas puedan ser caracterizadas por su masa y su espín. Por tanto, el propio concepto tan familiar de masa proviene de una simetría relativista de la naturaleza. Y aún hay más simetría… 4. Para ser exactos, la simetría ha de ser de tipo continuo. Por ejemplo, un círculo es invariante bajo una rotación cualquiera. Eso es una simetría continua. Sin embargo, un cuadrado solo es invariante bajo rotaciones de 90º, 180º y 270º. Eso es una simetría discreta.
63
Simetrías internas Sabemos que las leyes de la naturaleza tienen la forma de una teoría cuántica de campos (el Modelo Estándar es una teoría cuántica de campos). Esto da posibilidades de nuevas sime trías fundamentales, como vamos a ver. Recordemos que, en una teoría así, los objetos fundamentales son los campos; y de la cuantización de los campos surgen las partículas. ¿Qué es exactamente un campo? Es una magnitud física que puede tomar un valor distinto en cada punto del espacio y en cada instante. Por ejemplo, la temperatura de un país es un campo, ya que no se puede atribuir una única tempe ratura a todos los lugares: cada uno tiene su propia tem peratura, y de ahí que haya que hacer mapas meteorológicos. Estrictamente, la temperatura puede ser distinta en todos los puntos del espacio, y también por supuesto evolucionar en el tiempo. Siguiendo con nuestro ejemplo, los meteorólogos necesitan varios campos para poder hacer previsiones: tem peratura, presión, humedad, etc. Supongamos que las previ siones dependieran solo de una cierta combinación de todos estos factores, llamémosla X. Eso querría decir que si cam biáramos los valores de la temperatura, presión, humedad etc. por otros distintos, pero produciendo el mismo valor de X, las previsiones serían las mismas. En otras palabras, las leyes de la meteorología serían invariantes bajo esos cambios (esas transformaciones) de los campos. Y esto es precisamente la de finición de una simetría. A este tipo de simetrías se les llama simetrías internas de la teoría. A diferencia de las llamadas simetrías espacio-temporales (traslaciones, rotaciones, etc.), este tipo de simetrías no involucran transformaciones del sistema de referencia espacio-temporal. Son simplemente transfor maciones matemáticas que dejan invariantes las ecuaciones. Aunque la meteorología no funciona de una manera tan simple, las ecuaciones básicas de la física sí presentan sime trías internas. De hecho, tienen un grado extraordinario de simetría interna (mucho mayor que la de un objeto esférico). Y como es de esperar, esa simetría no solo le da elegancia a 64
la teoría, sino potencia predictiva. Como demostró la emi nente matemática y física alemana Emmy Noether en 1915, las simetrías internas de una teoría de campos llevan asocia das cantidades conservadas, igual que pasa con las simetrías espacio-temporales. Notemos aquí que, además de la energía, existen otras cantidades conservadas en la naturaleza, con cretamente la carga eléctrica (nunca se ha visto un proceso físico que cree o destruya carga eléctrica, por ejemplo, que dos electrones se aniquilen produciendo fotones). Pues bien, la conservación de la carga eléctrica es la consecuencia de una simetría interna en las ecuaciones del electromagnetismo. Nosotros llamaremos a esa simetría simplemente EM (acró nimo de electro-magnetismo) como forma de identificarla, no tenemos que preocuparnos de su significado matemático exacto5. Existen también otras cantidades conservadas con un origen semejante, que luego nos encontraremos.
¿Por qué hay fuerzas eléctricas? Simetrías locales Imaginemos que una teoría cuántica de campos tiene dos campos, A y B. Supongamos ahora que las ecuaciones que describen cómo evolucionan estos campos en el tiempo de penden solo de la combinación A + B. Esto quiere decir que si a A le sumamos una cantidad cualquiera (digamos q), y esa misma cantidad se la restamos a B, las ecuaciones seguirán idénticas a sí mismas, ya que solo dependen de la suma A + B, que permanece igual. Esta es por tanto una transformación de simetría interna, que podemos escribir en la forma: Ag A+q Bg B–q
Como tal simetría de nuestra teoría imaginaria, sabemos que llevará asociada una cantidad conservada. Pero ahora 5. Su nombre matemático es U(1), y es equivalente a la simetría de una circun ferencia.
65
pensemos: A y B son campos, o sea pueden tomar un valor distinto en cada lugar del espacio. ¿Y q? Si las ecuaciones de la teoría son de tal forma que solo son invariantes cuando q es una constante (o sea, toma el mismo valor en cada punto del espacio), se dice que la simetría interna es global. Pero tam bién puede ser que las ecuaciones sean invariantes aunque q tome valores distintos en cada punto y a cada instante. Una simetría de este tipo se llama simetría local (o gauge en la ter minología anglosajona al uso). Está claro que una simetría lo cal es mucho más grande que la versión global de la misma. Y es de esperar que la “localidad” de una simetría conlleve con secuencias físicas. Y así es. Una simetría local no solo implica la existencia de una cantidad que se conserva, sino también la existencia de una interacción. Un ejemplo de esto nos lo da nuevamente el electromagnetismo. Hemos dicho que la con servación de la carga eléctrica proviene de la simetría EM que tienen las ecuaciones del electromagnetismo. Pues bien, esa simetría no es solo global, sino también local, y por ello lleva asociada una interacción: ¡la propia interacción electromag nética! En otras palabras, si pudiéramos “suprimir por decre to” la interacción electromagnética (y con ella, los fotones), la teoría perdería simetría, ya que la simetría EM pasaría irre mediablemente de local a global. Este hecho resulta tremen damente sugerente: las interacciones básicas entre las partí culas podrían ser todas consecuencia de simetrías (locales) de la naturaleza, igual que sucede con el electromagnetismo. Y efectivamente, esto es así. Uno de los aspectos más bellos del Modelo Estándar es que todas las interacciones provienen de simetrías locales (luego veremos qué simetrías). En la jerga de los físicos, son lo que se llama interacciones gauge. Sin embargo, este hecho tardó tiempo en apreciarse. Un hito importante para ello fue el trabajo de Yang y Mills en 1954, en el que describieron de forma general cómo cual quier simetría local conlleva una interacción, y dieron la for ma precisa de la misma. Una consecuencia importante de ese trabajo es que las interacciones gauge han de estar mediadas necesariamente por partículas mensajeras de espín 1 (en la 66
mayoría de los casos). Esto explica a posteriori por qué los fo tones tienen espín 1, lo mismo que los gluones y los bosones W y Z. No puede ser de otra forma sin estropear la simetría de partida. Además, para la mayoría de las simetrías imagi nables, la interacción correspondiente es universal para todas las partículas que la sienten. Eso explica por ejemplo por qué todos los quarks sienten la interacción fuerte exactamente con la misma fuerza. Finalmente, la simetría obliga a que las partículas mediadoras no tengan masa. Esto funciona per fectamente para el electromagnetismo y la interacción fuerte: los fotones y los gluones no tienen masa, debido a la simetría local que los origina. Sin embargo, no funciona bien con la interacción débil. Recordemos que los bosones W y Z tienen masas en torno a 80-90 GeV. Está claro que algo extraño pasa con la interacción débil. La forma en que el Modelo Estándar resuelve esta paradoja es uno de sus logros más impresionan tes, y la explicaremos en el próximo capítulo. Ahora vamos a divertirnos un poco con la interacción fuerte.
La interacción fuerte Tradicionalmente se consideraba que la interacción fuer te era la que mantenía a los nucleones (es decir, protones y neutrones) unidos en el núcleo atómico. Pero esa interacción entre nucleones es a su vez una manifestación secundaria de la fuerza básica que mantiene a los quarks atrapados en cada nucleón, y es esta última la que merece el nombre de interac ción fuerte. La primera pista para entender esta interacción fue la idea de Greenberg, Han y Nambu, en 1965, de que, además de la carga eléctrica, los quarks poseen otro tipo de carga que se conserva, a la que se llamó color (por supuesto, no tiene nada que ver con el color ordinario, es solo una for ma de hablar). A diferencia de la carga eléctrica, que solo es de un tipo (aunque puede ser positiva o negativa), hay tres tipos de carga de color, que a veces se designan como carga roja, carga verde y carga azul. Dentro de un nucleón, los tres 67
quarks tienen colores distintos, por lo que el nucleón como un todo no tiene carga de color (es “blanco”). Como pode mos imaginar, gracias a Emmy Noether, una carga que se conserva sugiere una simetría subyacente que la origina. En este caso, la simetría es distinta de la EM electromagnética. Es una simetría más grande y compleja, a la que llamaremos COLOR. El siguiente paso fue suponer que esa simetría era una simetría local, lo que implica una interacción asociada, que ha de estar mediada por bosones sin masa de espín 1. En el caso de la simetría COLOR ha de haber ocho partículas de este tipo, a los que se llamó gluones (por la palabra ingle sa glue, o sea, pegamento). La teoría así construida se llamó cromodinámica cuántica (siglas QCD en inglés), que es por tanto una teoría semejante al electromagnetismo, pero basada en la simetría COLOR en vez de en la simetría EM. En con traste con el electromagnetismo, donde primero se construyó la teoría y luego se vio que tenía una simetría local, en este caso se partió de la simetría local y se dedujo cómo debían ser las partículas mensajeras y la interacción asociada. Poco a poco, la QCD ha demostrado ser, en efecto, la teoría de las interacciones fuertes, plenamente respaldada por los experi mentos, lo que la ha convertido en una pieza fundamental del Modelo Estándar. La QCD tiene una propiedad especial: a medida que acercamos quarks, su fuerza de atracción se hace menor. Pero si los separamos, la fuerza de atracción aumenta; algo muy sorprendente, ya que, por ejemplo, la atracción gravi tatoria o la electromagnética disminuyen con la distancia. Esta propiedad, bautizada como “libertad asintótica”, fue demostrada teóricamente por Gross, Wilzcek y Politzer en 1973, y posteriormente confirmada experimentalmente en mu chas ocasiones. La situación en la QCD es parecida a la de dos bolas enganchadas con un muelle. Cuando el muelle está relajado, las dos bolas están cercanas, y la fuerza entre ellas es pequeña. A medida que las separamos, el muelle se tensa y, por tanto, la “fuerza de atracción” entre las bolas crece.
68
Esto es precisamente lo que sucede dentro de una par tícula compuesta de quarks. La situación del dibujo es, por ejemplo, semejante a la de un pión, que es una partícula com puesta por dos quarks (más exactamente, un quark y un an tiquark). ¿Qué sucede si seguimos estirando? Llega un mo mento en que el muelle se rompe, con lo que ahora tenemos dos muelles. Nos podemos imaginar que en los extremos desnudos aparecen bolas nuevas (dos quarks), de forma que ahora tenemos dos partículas compuestas. En consecuencia, los quarks no pueden desgajarse de las partículas compues tas. No es posible producir quarks libres. Esta propiedad se llama confinamiento, y es la que hace que todas las partículas del zoo de partículas tengan “color blanco”. En realidad, no se ha podido demostrar “limpiamente” que el confinamiento es una consecuencia necesaria de la QCD. Este es un proble ma teórico pendiente, de primer orden. Pero todos los cálcu los y las observaciones experimentales indican que realmente es así. Ahora podemos imaginarnos el interior de un protón:
u
u
d
Aquí queremos indicar, con los tres tonos de gris, que cada quark está en un color distinto (rojo, verde y azul). Los muelles del dibujo representan los gluones que están sien do intercambiados por los quarks. Aunque no lo hemos 69
representado, los gluones también transportan color. Por tan to, el color de cada quark individual está cambiando continua mente, pero el protón siempre es blanco. Los gluones también interaccionan entre ellos de forma fuerte (puesto que poseen color). Por ello, el interior del protón es un mundo compli cado, como enseguida quedará patente. ¿Qué constancia te nemos de que los protones y neutrones son verdaderamente así? Después de todo, no hemos podido romperlos y “ver” los quarks y gluones de su interior. Las evidencias experimen tales más importantes (pero no únicas) se han conseguido bombardeando protones con electrones y otras partículas. Los electrones penetran de alguna forma en el protón y nos dan información de lo que hay en su interior. El electrón hace el papel de una aguja que pudiéramos introducir en el protón para “tocar” lo que hay dentro. Hoy en día, las pruebas de la existencia de los quarks y los gluones son abrumadoras. Como hemos mencionado arriba, las fuerzas entre nu cleones son una manifestación secundaria (a veces denomi nada residual) de la fuerza básica que mantiene a los quarks atrapados en cada nucleón. ¿Cómo funciona esto? Los nu cleones son partículas blancas, y por tanto no pueden inter cambiar gluones. Pero pueden intercambiar otra partícula blanca compuesta, concretamente piones (π). Los piones son partículas compuestas por un quark y un antiquark. Su masa es siete veces menor que la de un protón (son las partículas compuestas más ligeras). Así pues, dentro del núcleo los nu cleones intercambian fundamentalmente piones: N
N
p
N
N
70
El hecho de que la partícula que transmite la interacción, en este caso el pión, tenga masa, hace que la fuerza de atrac ción disminuya rápidamente con la distancia. Esto es algo in tuitivo: cuanta más masa tenga la partícula en cuestión, más improbable resulta crearla y propagarla a distancias grandes, con lo que la interacción se debilita. La consecuencia es que la atracción fuerte entre nucleones disminuye abruptamente con la distancia, aunque, paradójicamente, provenga de una interacción básica que crece con ella. La QCD ha cosechado grandes éxitos en la descripción de las interacciones fuertes, y no hay un solo dato que ponga en duda su validez. Sin embargo, es una teoría intrínseca mente difícil. La dificultad se deriva del hecho de ser una fuerza de gran intensidad, lo que impide hacer ciertas apro ximaciones que son válidas para las otras interacciones. Un ejemplo de esto es el problema del confinamiento, que no ha podido ser resuelto teóricamente de manera plenamente sa tisfactoria. No obstante, se han desarrollado técnicas para hacer cálculos en QCD utilizando la “fuerza bruta” de un superordenador. De este modo se pueden calcular, por ejem plo, las masas del protón y el neutrón. La mayor parte de la masa de un protón no proviene de las masas de los quarks que lo forman (mucho más pequeñas), sino de la energía concentrada debida a la interacción fuerte. Los gluones son de hecho los máximos contribuyentes a la masa del protón, si bien un tercio proviene de la energía cinética de los quarks dentro de él. Los resultados obtenidos son consistentes con los valores experimentales. En otras palabras, la interacción fuerte, descrita por la QCD, no solo explica por qué los quarks están pegados dentro de un protón, y por qué los pro tones están unidos a los neutrones en un núcleo. Explica también las propias masas del protón y el neutrón. En cierto modo, estos logros son comparables al descubrimiento de la estructura del átomo. No olvidemos que el núcleo atómico representa más de un 99,9% de la masa del átomo. Así que la QCD explica en esencia por qué la materia tiene la masa que tiene, incluidos nosotros mismos. 71
Existe sin embargo una pequeña parte de esa masa que no proviene de las interacciones fuertes. Los electrones tienen una pequeña masa, y también los propios quarks, e incluso los neutrinos. Es decir, las 12 partículas verdaderamente ele mentales tienen masa propia. Como sabemos, esa masa es mayor si consideramos las partículas de la segunda y tercera familias. Además, recordemos el problema de las masas de los bosones W y Z, que tampoco tienen nada que ver con las interacciones fuertes. Así que… ¿de dónde provienen esas misteriosas masas?
72
CAPÍTULO 4
La partícula maldita
En 1993, el premio Nobel de Física Leon Lederman escribió el libro titulado The God Particle, o sea, La partícula de Dios; pero, como él mismo dijo, La partícula maldita hubiera sido un título más adecuado, aunque desgraciadamente el sobre nombre “partícula de Dios” tuvo éxito entre algunos perio distas. Lederman se refería al hoy famoso bosón de Higgs, una partícula elemental que se resistía a ser descubierta (de ahí lo de “maldita”). En 2012, el LHC se apuntó su mayor éxito con el descu brimiento del bosón de Higgs, el avance más significativo en la física de partículas en muchas décadas. Pero ¿qué es esta misteriosa partícula y por qué es tan importante? El bosón de Higgs era la última pieza que faltaba por descubrir del Modelo Estándar: una pieza clave, la que hace que todo encaje, y la que tiene implicaciones físicas de mayor calado o, si se quiere, filosóficas. Pero vayamos paso a paso. En el capítulo anterior mencionamos que “algo raro pasa con la interacción débil”. Para comprender mejor las dificultades, es conveniente que, primero, ganemos perspectiva histórica sobre el problema.
73
La interacción débil El primer indicio de la existencia de la interacción débil pro vino de la observación de núcleos radiactivos y, posterior mente, de la desintegración del neutrón. En los años treinta del siglo XX se comprendió que estos fenómenos no podían ser consecuencia de la interacción electromagnética ni de la fuerte. Recordemos que un neutrón se desintegra dando un protón, un electrón y un neutrino (más exactamente un an tineutrino). Así pues, cambia su identidad, transformándose en un protón. Este fenómeno no puede ser explicado por la interacción electromagnética, la cual solo describe procesos entre partículas cargadas y fotones. Ni tampoco por la fuerte. En aquella época se entendía que la interacción fuerte era la que mantenía a los protones y neutrones unidos en el núcleo atómico, pero sin cambiar su identidad. Esto queda claro des de el punto de vista moderno: las interacciones fuertes están mediadas por los gluones, que cambian el color de los quarks, pero no su sabor. Concretamente, no pueden cambiar un quark d en un quark u, como es necesario para transmutar un neutrón en un protón. En 1933, el gran físico italiano Enrico Fermi formuló una teoría de la interacción débil. Fermi supuso una interac ción “de contacto” a cuatro partículas, por la que el neutrón se convertía directamente en un protón, un electrón y un an tineutrino. p n
e
n
En 1957 el modelo de Fermi había tomado su forma final, siendo capaz de explicar satisfactoriamente todos los fenómenos débiles conocidos. ¿Cuál era entonces el pro blema? El problema no era experimental, sino teórico. Si se 74
aceptaba que el modelo de Fermi era una teoría cuántica de campos con todas las consecuencias, se podían calcular cier tas correcciones cuánticas a sus predicciones básicas. Y esas correcciones resultaban ser infinitas. Una vez más, una incon sistencia matemática fue la clave para encontrar una teoría mejor. En analogía con el electromagnetismo y los fotones, se propuso que la interacción débil estaba transmitida por partículas mediadoras de espín 1, a las que se bautizó como bosones W. Había dos de estos hipotéticos bosones: el W+, de carga positiva, y su antipartícula, el W-, que no fueron des cubiertos hasta 20 años después. Los W pueden cambiar un quark u por un quark d, y también un electrón por un neutri no. La desintegración del neutrón está producida a través de un bosón W, de acuerdo con este diagrama: u d u
p u d d
n W–
e
n
Aquí hemos representado el neutrón como lo que real mente es: un manojo de dos quarks d y un quark u; y el protón, lo mismo, cambiando un d por un u. Hay que notar que este diagrama es semejante al de la teoría de Fermi, pero como si miráramos con un microscopio lo que hay dentro del vértice de contacto entre las cuatro partículas externas. Y lo que hay dentro es un bosón W- propagándose. Cuando las energías son pequeñas (lo que, por el principio de incertidumbre, corres ponde a distancias grandes), la interacción que “vemos desde lejos” es la de Fermi a cuatro partículas. La teoría de Fermi es, por tanto, una teoría efectiva, válida a baja energía. Pero la interacción subyacente es siempre la mediada por el bosón W. Sin embargo, sigue habiendo problemas. Para que este modelo describa el experimento, es necesario que el bosón 75
W tenga masa. Pero si la interacción proviene de una simetría local, como en el electromagnetismo, los bosones mediadores no pueden tener masa, tal como demostraron Yang y Mills. El problema es algo más que estético: la masa de los bosones W induce nuevamente los indeseables infinitos en los cálculos (y otros absurdos lógicos, como probabilidades mayores que uno). Estas dificultades trajeron a los físicos de cabeza duran te años. La solución vino de la mano de Glashow, Weinberg y Salam. Pero para entenderla, hemos de dar aún una vuelta de tuerca al concepto de simetría.
Simetrías rotas. Mecanismo de Higgs Hacia 1960, Yoichiro Nambu tuvo una idea que se ha revela do como una de las más fértiles de los últimos 60 años para comprender los mecanismos íntimos de la naturaleza y que le valió el premio Nobel de Física en 2008 (¡casi 50 años des pués!). En ocasiones, las simetrías de la naturaleza no son mani fiestas. Pensemos en una montaña perfectamente circular, es decir, simétrica bajo rotaciones. Si estamos en su cima obser varemos claramente esa simetría. Pero si nos deslizamos por la ladera hasta la base de la montaña, una vez abajo ya no será evidente. En la jerga de los físicos se dice que la simetría se ha roto espontáneamente (una noción que ya existía antes del tra bajo de Nambu). Notemos que la simetría sigue estando real mente ahí, pero oculta desde nuestro punto de vista. La idea crucial de Nambu fue considerar que algunas simetrías inter nas de la naturaleza podrían estar espontáneamente rotas. En consecuencia, no serían evidentes, estarían ocultas, pero aun así tendrían consecuencias trascendentales. Vamos a entender un poco más cómo sucede esto. Imaginemos una teoría cuán tica de campos, con dos campos, A y B. Supongamos ahora que la energía es máxima cuando tienen valor cero. Cuando A y B se alejan de cero, la energía disminuye, pero supondremos que luego vuelve a aumentar, tal como muestra la figura (el 76
eje vertical representa la energía asociada a los campos, tam bién llamada potencial).
0
A
B
0
Este tipo de figura se denomina habitualmente potencial de sombrero mexicano, y se parece a nuestra montaña del ejem plo anterior. De la figura se deduce que la teoría tiene una simetría interna: la energía no cambia cuando hacemos rota ciones en el plano definido por A y B. Notemos que, aunque se utilice la palabra “rotaciones”, la simetría no es espacial, como lo era para la montaña, ya que A y B no son posiciones, sino valores de los campos. Pero, por lo demás, la situación es semejante. Supongamos que inicialmente los dos campos tie nen valor cero en todo el espacio. Esto significa que los cam pos están en el centro del sombrero mexicano y, por tanto, el universo está con la máxima energía, como si hubiéramos subido una bola a lo alto de una montaña. Pero entonces, de forma natural, la bola se deslizará por la ladera hasta su punto más profundo. Esto es la ruptura espontánea de la simetría.
B 0
A 0
77
En otras palabras, los valores de los campos variarán hasta hacer mínima la energía. Cualquier punto situado en el “canal” circular alrededor del centro es igualmente válido. Ahora pensemos: la situación de mínima energía es, por de finición, el vacío. Así que en nuestro ejemplo el espacio vacío resulta estar lleno de los campos A y B, pues ambos toman un valor distinto de cero6. Nambu analizó las consecuencias de la ruptura espontá nea de una simetría interna. Recordemos que Emmy Noether había demostrado que cada simetría interna lleva aparejada una cantidad conservada. Pero resulta que si la simetría está rota espontáneamente, esto ya no ocurre. Sin embargo, apa rece un efecto inesperado: la existencia de una partícula sin masa. Esto se puede intuir un poco mirando la última figura. En una teoría cuántica de campos, las partículas están aso ciadas a las excitaciones de los campos. Si el valor del campo (representado por la bolita negra) está en el canal circular, no cuesta energía moverlo a lo largo del mismo, ya que el canal es totalmente horizontal. En otras palabras, las excitaciones del campo a lo largo de esa dirección no cuestan energía: co rresponden a partículas sin masa. A estas partículas sin masa se les llama bosones de Nambu-Goldstone (o de Goldstone a secas, aunque no sea del todo justo), y sirvieron para explicar algunas peculiaridades del zoo de las partículas, en las que ahora no podemos entrar. Notemos, sin embargo, que en la dirección perpendicular al canal (o sea, en la dirección radial) sí cuesta trabajo mover el campo (hay que trepar por la mon taña). Por tanto, existe una segunda excitación de los campos A y B que sí tiene masa. La teoría tiene por tanto un bosón de Goldstone sin masa, y otra partícula con masa. Mantengamos en mente esta última, porque va a jugar un papel estelar. ¿Qué sucede si la simetría que se rompe espontánea mente es una simetría local? Ahora estamos considerando a la vez varias de las peculiaridades que puede tener una 6. Técnicamente es necesario que los campos A y B estén asociados a partículas de espín cero. De otra forma el vacío tendría direcciones privilegiadas, cosa que no ocurre.
78
simetría, y tenemos que tener cuidado de no marearnos, por que nos acercamos al punto álgido de nuestro argumento. Repasemos: las simetrías locales originan interacciones trans mitidas por partículas mediadoras sin masa, como es el caso de los fotones; las simetrías rotas, por su parte, conllevan la aparición de bosones de Goldstone, también sin masa. Pues bien, cuando la simetría que se rompe es local se produce otro hecho inesperado, conocido como mecanismo de Higgs (propuesto por Brout y Englert, y a continuación por Peter Higgs y otros en 1964). El hecho consiste en que el bosón de Goldstone desaparece de la teoría, y a cambio el “fotón” ad quiere masa. Es como si el fotón se tragara materialmente al bosón de Goldstone y debido a ello engordara, o sea, adqui riera masa. Esta imagen puede parecer pueril, pero, de hecho, la descripción matemática del fenómeno se asemeja mucho a ella. Así que tenemos un mecanismo para dar masa a las par tículas mediadoras de las interacciones, que tal vez pudiera estar ocurriendo en la naturaleza para los bosones W. ¿Queda, en una situación así, algún rastro de los campos que tomaron valor en el vacío? Sí, recordemos que había una excitación de los campos A y B que tenía masa. Esa partícula con masa es el llamado bosón de Higgs, y hay que seguir recordándola porque volveremos sobre ella: es nuestra partícula maldita. Sin embargo, veamos primero cómo Glashow, Weinberg y Salam aplicaron estos principios para resolver el misterio de la interacción débil.
La interacción electrodébil La idea básica de Glashow, Weinberg y Salam fue que la in teracción débil correspondía a una simetría local rota espon táneamente. Esta ruptura inducía una masa para los boso nes W, de acuerdo con el mecanismo de Higgs y tal como requiere el experimento. Pero su idea fue aún más refinada. Idearon un esquema que unificaba la interacción débil y la electromagnética como aspectos distintos de la misma física 79
subyacente. Supusieron que a un nivel fundamental existía una simetría local grande, a la que llamaremos ED (acrónimo de electrodébil). Esta simetría es más grande que EM (la sime tría local del electromagnetismo), pero menos que COLOR (la simetría de la interacción fuerte), e implica cuatro tipos de “fotones” sin masa mientras no esté rota. Pero la idea es que ED se rompe espontáneamente, debido al valor en el vacío de un campo, al que llamaremos H. No obstante, un trozo de ED queda sin romper: precisamente la “pequeña” simetría EM, que da lugar al electromagnetismo. Esquemáticamente, podemos escribir7: ED
Rupt. Esp.
EM
Por ello, de los cuatro “fotones” iniciales, uno permanece sin masa: el fotón ordinario asociado a EM (electromagne tismo). Pero los otros tres adquieren masa a través del me canismo de Higgs. Estos son los dos bosones W y un bosón adicional, al que se llamó Z, semejante a los W, pero sin carga eléctrica. Así pues, según este esquema las interacciones débiles y las electromagnéticas son caras de una misma moneda. La moneda es la gran simetría inicial, ED, que habitualmente se llama simetría electrodébil. A un nivel fundamental, los fotones, los W y la Z no son objetos tan distintos. La simetría elec trodébil permite hasta cierto punto rotar unos en otros. Solo después de la ruptura espontánea el fotón aparece como algo muy distinto de la W y la Z. Por ello, es justo hablar de inte racciones electrodébiles, en vez de electromagnéticas y débiles por separado. Esto es un gran logro intelectual, comparable al de otras unificaciones históricas de interacciones que pa recían muy distintas. Quizá el primer hito en este terreno fue 7. ¿Qué significa que un trozo de la simetría queda sin romper? Imaginemos que estamos en el centro de una esfera, que por tanto vemos simétrica bajo cualquier rotación. Si ahora nos vamos a su “polo norte”, lo que veremos será una cúpula a nuestros pies, solo simétrica bajo rotaciones en torno al eje vertical. La simetría inicial se ha roto (ocultado), pero sobrevive esta simetría más pequeña.
80
la demostración de Isaac Newton, en el siglo XVII, de que la fuerza que hacía caer los objetos en la Tierra era la misma que hacía girar a los planetas alrededor del Sol, y la Luna alrede dor de la Tierra. En el siglo XIX tenemos la demostración de Maxwell de que la electricidad y el magnetismo son aspectos distintos de la misma interacción. La unificación electrodébil, cuya formulación fue completada en 1967, sería la siguiente de esta saga. Sin embargo, en un principio no se mostró un gran inte rés hacia estos trabajos por parte de la comunidad científica. La razón era que los físicos creían que, al contener bosones mediadores con masa (los W y Z), la teoría seguía dando los indeseables infinitos. Era por tanto una teoría estéticamente atractiva, pero inconsistente. Sin embargo, en 1971 un joven holandés, llamado Gerard ‘t Hooft, demostró que las teorías con simetría local espontáneamente rota no producían infi nitos, a pesar de tener bosones mediadores con masa (tra bajo por el que recibiría el premio Nobel junto a M. Veltman 28 años después). Así pues, la teoría de Glashow, Weinberg y Salam no solo era bella, sino útil. Y muy pronto se iba a demostrar que permitía hacer predicciones muy precisas, que hasta ahora han sido siempre confirmadas experimentalmen te con gran exactitud (toda la disponible). Una de las más notables es la propia existencia del bosón Z. La teoría no solo predice su existencia, sino también su masa, así como las de los W. Estas predicciones fueron espectacularmente comprobadas en 1983, cuando los bosones W y Z fueron descubiertos en el CERN, tal vez la hazaña científica más importante de su histo ria, hasta el descubrimiento del bosón de Higgs en 2012.
La partícula maldita Como hemos visto, la idea clave de la teoría electrodébil es que una gran simetría se rompe espontáneamente como con secuencia del valor en el vacío de un campo, al que hemos llamado H. Este es el llamado campo de Higgs. Si la teoría es 81
correcta, todo el universo está “lleno” de este campo, tanto el espacio vacío como el ocupado por la materia. Esta situación recuerda a la hipótesis del éter, antes de que Einstein formu lara su teoría de la relatividad especial. Los físicos pensaban que el éter era necesario para la propagación de las ondas electromagnéticas. En este caso, el campo de Higgs llenan do el universo es necesario para que la simetría electrodébil se rompa espontáneamente. (¡Por supuesto, esperamos que el Higgs no corra la misma suerte que el éter!). Para seguir avanzando, había que poner a prueba la hipótesis. Pero ¿cómo puede hacerse esto? Recordemos que cuando se rompe una simetría local, queda un rastro de todo el proceso: el bosón de Higgs con masa. Si la teoría electrodébil es correcta, debería existir una partícula de este tipo. Y esa era la última predic ción importante del Modelo Estándar sin verificar. Es conveniente hacer un pequeño repaso de las partícu las que están en juego aquí y los nombres que tienen, que a veces inducen a confusión. Por una parte tenemos el campo de Higgs, que adquiere un valor en el vacío y lo llena todo. Ese campo tiene dos tipos de excitaciones (es decir, partículas). Primero están los bosones de Goldstone, que no tienen masa y son “tragados” por las partículas mediadoras de la interac ción débil. Los bosones de Goldstone viven “en la tripa” de las W y Z. Por otro lado está la otra excitación del campo de Higgs, que tiene masa: el bosón de Higgs. Así que a veces se emplea la palabra “Higgs” para referirse al campo invisible que lo llena todo, y a veces para referirse a la partícula masiva, que es una excitación de dicho campo. Un objetivo crucial del LHC era producir y detectar el elusivo bosón de Higgs. Esto significaba un hito en la his toria de la física de partículas. Por lo que acabamos de ver, crear un bosón de Higgs es equivalente a “sacar al vacío de su sitio” (por un instante y un lugar pequeñísimos). De hecho, el bosón de Higgs tenía que presentar propiedades novedosas para una partícula elemental, como tener espín cero; además, debía tener carga eléctrica nula. Estas son, ni más ni menos, las propiedades del propio vacío. Lo que no 82
se sabía a priori es cuál debía ser su masa, pero por argu mentos teóricos se preveía que debía de estar entre 114 GeV (el límite experimental antes del LHC) y varios cientos de GeV. Finalmente, ha resultado ser de 125 GeV, en total acuerdo con estas previsiones. En el apéndice del final del libro comentamos detalles sobre el descubrimiento del bosón de Higgs.
El origen de la masa Hemos discutido la importancia del Higgs para nuestra com prensión de la interacción electrodébil y del propio vacío. Pero el Higgs es importante por otra razón. Si no existiera, no entenderíamos por qué las partículas (todas las partículas ele mentales) tienen masa. Hay que aclarar que las partículas de materia son en realidad campos que también se transforman con la simetría electrodébil ED. Esa es la razón por la que el electrón aparece siempre asociado a su neutrino: la simetría electrodébil (antes de romperse) permite intercambiar uno con otro. ¡En el fondo, un electrón y un neutrino son la misma partícula! Lo mismo sucede con el quark u y el quark d, y en cada una de las tres familias. Antes de la ruptura espontánea de ED, las partículas no tienen masa (la propia simetría elec trodébil lo prohíbe). Pero una vez que ED se rompe, todas las partículas adquieren masa gracias precisamente a su interac ción con el campo de Higgs que lo llena todo. Una analogía puede servirnos para aclarar esto. ¿Qué es la masa? Desde un punto de vista intuitivo, la masa es la resistencia que un objeto opone a que se le ponga en movimiento. Pensemos en una bola hecha de un material extraordinariamente ligero, de forma que a efectos prácticos su masa fuera cero. Efectivamente, no nos costaría ningún esfuerzo mover esa bola. Imaginemos ahora que el campo de Higgs es un líquido viscoso que llena el universo. Al estar la bola sumergida en ese líquido, ahora sí nos costará despla zarla. Es como si hubiera ganado una masa. Y ¿a qué se debe 83
esa viscosidad? Pues a la interacción del líquido (el campo de Higgs) con la bola en cuestión. Así es como el campo de Higgs da masa a las partículas ordinarias, o así es como se en tiende el origen de la masa en la física actual. Por tanto, todo el Modelo Estándar depende de que el Higgs esté realmente ahí, haciendo su papel esencial. Como veremos en el apéndi ce final, las características del bosón de Higgs observado en el LHC corroboran su función esencial para dotar de masa a todas las partículas elementales. Merece la pena recordar que la mayor parte de la masa de los objetos proviene de los protones y neutrones y se ex plica por las interacciones fuertes, no por el campo de Higgs. Pero aun así, sin la masa que da el campo de Higgs a las par tículas elementales no podríamos existir. Concretamente los electrones no tendrían masa y los átomos no serían estables. Por tanto no habría elementos químicos ni vida en el universo. Finalmente, mencionemos que la analogía del líquido viscoso sirve para ofrecer otra idea visual de lo que son los bosones de Higgs que se quieren descubrir en el LHC. Estos serían las ondas que se pueden formar en el propio líquido al agitarlo. Son por ello una excitación del propio vacío.
La izquierda y la derecha El Modelo Estándar tiene peculiaridades en las que no hemos entrado por falta de espacio. Pero al menos vamos a men cionar una de las más interesantes. Hemos visto que en los entresijos del Modelo Estándar están las simetrías, de las que se deduce casi todo lo demás. Y la riqueza en simetría de la teoría es mucho mayor de lo que se podría haber pensado ingenuamente (incluso hay parte de esa simetría que está oculta, como sabemos). Pero, paradójicamente, las interac ciones débiles violan una simetría que antiguamente se había creído perfecta: la “simetría CP”. En la jerga de los físicos, C (“conjugación de carga”) significa que las partículas y anti partículas se comportan de manera idéntica, excepto que sus 84
cargas son opuestas. P (“paridad”) significa que un proceso físico observado a través de un espejo podría ser igualmente un proceso real. La sorpresa fue que estas simetrías no son exactas8, ni tampoco la combinación de las mismas: la sime tría CP. Aunque los procesos donde esto ocurre (por ejemplo, las desintegraciones de los mesones K) son irrelevantes para la vida ordinaria, desde el punto de vista fundamental el he cho es importante. ¿Cuál es el origen de esta violación tan llamativa? Por razones de espacio, vamos a responder brevemente tan solo para el caso de la simetría P. Pensemos por un mo mento en un electrón que se propaga por el espacio, igual que una bala lanzada por un fusil. Sabemos que el electrón tiene espín 1/2, lo que de forma simplista podemos visualizar como que da vueltas sobre sí mismo. Pero, al igual que la bala de fusil, según avanza, el electrón puede dar vueltas ha cia la derecha o hacia la izquierda. Lo extraordinario es que las propiedades del electrón “zurdo” son muy distintas de las del “diestro”. Concretamente, el primero siente la interacción de los W, el segundo no9. Este hecho asombroso está total mente incorporado en la estructura del Modelo Estándar y ha sido verificado repetidamente en los laboratorios. Así que “izquierda” y “derecha” no son conceptos relativos y equiva lentes. Hay algo esencial que los diferencia.
8. No hay que confundir este fenómeno con el de las simetrías espontáneamente rotas formulado por Nambu: en este caso, las simetrías de partida no son per fectas. 9. Aprovechamos para matizar que solo el electrón zurdo es intercambiable con el neutrino a través de la simetría electrodébil antes de que esta se rompa. Lo mismo pasa para los quarks u y d.
85
CAPÍTULO 5
La ‘terra incognita’
El rótulo terra incognita era frecuente en los mapas antiguos para designar tierras situadas más allá de las zonas conoci das, pero las sucesivas exploraciones hicieron que la román tica inscripción desapareciera de los mapas durante el siglo XIX. Hoy en día, la verdadera terra incognita se halla en el mundo abstracto de las leyes naturales, y se sitúa más allá del Modelo Estándar. Pero, si el Modelo Estándar funciona tan bien, ¿por qué ir más allá?, o mejor dicho ¿por qué ir a más profundidad? Como hemos visto en capítulos anteriores, las motivaciones de los científicos para proponer nuevas teorías son muy variadas. Puede ser una observación experimental desconcertante, o un problema de consistencia matemática de la teoría en vigor, o pueden ser motivaciones estéticas. De hecho, los motivos para ir más allá del Modelo Estándar son diversos. Y son motivos muy poderosos, tanto que la mayor parte de los físicos teóricos ha estado trabajando en las tres últimas décadas en “física más allá de Modelo Estándar”.
¿Qué hay de malo con el Modelo Estándar? Empecemos por la consistencia teórica. Ya dijimos que las teorías cuánticas de campos no son compatibles con la 86
gravitación, y esto también es cierto para el Modelo Estándar. En la práctica, esto se manifiesta cuando se intenta tratar la gravitación como una teoría cuántica. Nuevamente aparecen los infinitos indeseables, que nos muestran que algo falla en el esquema. Uno puede tomar una actitud pragmática: en los sistemas donde habitualmente observamos efectos gravitato rios (superficie terrestre, sistema solar, etc.), la aproximación clásica es muy buena, así que ¿por qué preocuparse? Sin em bargo, es una cuestión de principio. Uno debería poder incluir las correcciones cuánticas si así lo deseara. Además, se pueden imaginar situaciones hipotéticas donde los efectos cuánticos son importantes, por ejemplo, en agujeros negros microscópi cos. Pensemos que con una actitud puramente pragmática no se habría pasado de la teoría de Fermi para las interacciones débiles. Como hemos visto repetidamente, la inconsistencia entre teorías ha demostrado ser una guía importante, que sería una pena desaprovechar. Otra actitud es pensar que si la gra vitación funciona a las mil maravillas como teoría clásica, ¿qué necesidad hay de cuantizarla? Pero esto tampoco funciona. Recordemos que, según la teoría de la relatividad general, la curvatura del espacio-tiempo está determinada por la materia y energía que contiene. Y esa materia se comporta de forma cuántica, respetando por ejemplo el principio de incertidum bre de Heisenberg. Por tanto también la curvatura, y por consi guiente, la gravitación, ha de comportarse de forma cuántica. Una cuestión distinta es a qué energía esperamos que se ma nifieste el carácter cuántico de la gravedad. Y esa energía es muy alta, debido precisamente a la debilidad de la interacción gravitatoria. Cuando consideramos una partícula individual, esa energía es la llamada escala (o masa) de Planck, MP , que es 100 billones de veces mayor que la energía que se puede con seguir en el LHC. Así que tal vez el LHC no arroje luz sobre este problema (o tal vez sí, como veremos luego). Pero, cier tamente, la inconsistencia con la gravitación demuestra que el Modelo Estándar no puede ser la última palabra. Vayamos ahora con los motivos fenomenológicos. Hemos dicho que toda la fenomenología de las partículas elementales 87
está perfectamente descrita por el Modelo Estándar. Sin em bargo, en el universo hay señales inequívocas de que hay algo más. El caso más claro es la llamada materia oscura. En las últimas décadas se han ido acumulando pruebas abrumado ras de que, junto a la materia y energía ordinarias (átomos y radiación), en el universo existe otra forma de materia, seis veces más abundante. Esa materia es invisible, pero notamos su presencia gracias a sus efectos gravitatorios en galaxias y cúmulos de galaxias, y también por la distorsión (igualmente de carácter gravitatorio) que produce en los rayos de luz. De esta materia oscura se sabe poco, pero lo más importante es que tiene que ser distinta a la ordinaria10. Así que, con bas tante seguridad, de una forma u otra, la tabla de partículas elementales ha de ser ampliada. Además de la materia oscura, tenemos evidencias con vincentes de algo aún más misterioso: la llamada energía oscura. Esta representa aproximadamente el 70% del conte nido total del universo, y es algo muy parecido (tal vez idéntico) a una energía del propio vacío, semejante al campo de Higgs. Notamos su presencia porque está causando que el universo acelere su expansión, algo que sabemos desde 1999. Comprender la energía oscura es un reto formidable para la física, que se sitúa más allá del Modelo Estándar. Usando de nuevo nuestra metáfora geográfica, en el uni verso la mayor parte de la terra (o sea, de su contenido) es incognita, ya que solo el 5% es materia ordinaria y el resto es materia oscura y energía oscura. Finalmente, en el uni verso observamos mucha materia, pero casi nada de anti materia. Esa asimetría solo se puede explicar si la teoría tiene cierto tipo de interacciones, capaces de producir un exceso de materia sobre antimateria en el universo primi tivo. El Modelo Estándar no posee esas interacciones, o las posee en grado demasiado escaso. Así que todas estas ob servaciones apuntan hacia física más allá del Modelo 10. De lo contrario, las exitosas predicciones de la teoría del Big Bang, por ejemplo, las abundancias de elementos ligeros en el universo, se estropearían.
88
Estándar, aunque no aclaran si esa nueva física estaría al al cance del LHC. Por último, hay motivaciones estéticas. Quizá puedan parecer secundarias en comparación con todo lo anterior, pero lo cierto es que la búsqueda de belleza en las leyes na turales ha sido decisiva en muchos avances científicos, como hemos visto en capítulos anteriores. Por supuesto, la belleza es un concepto subjetivo y mal definido, pero eso no impide que sea una motivación importante. Podemos decir que la parte bonita del Modelo Estándar es la relacionada con las interacciones, ya que estas se deducen de principios de sime tría con gran elegancia y poder predictivo. Pero también hay una parte fea. Casi todo lo feo tiene que ver, de una forma u otra, con el Higgs. Tenemos, por ejemplo, el mencionado problema del sabor: no sabemos por qué las 12 partículas elementales tienen las masas que tienen, ni por qué presentan una jerarquía entre las familias, ni por qué las masas de los neutrinos son tan pequeñas. Según la teoría, sus valores pro vienen de la distinta fuerza con que el Higgs se acopla a cada partícula, pero no sabemos a qué se deben esos acoplamien tos distintos. En consecuencia, las 12 masas han de ser inclui das como parámetros independientes en la teoría. El Modelo Estándar no puede explicar sus valores. Pero resulta extraño pensar que estas masas son como son “porque sí”. La in tuición dice que ha de haber una razón profunda para las mismas.Y, en esencia, eso es una motivación estética. Además de estas masas, el Modelo Estándar tiene otros 16 parámetros que hay que “meter a mano” (12 de ellos relacionados con el Higgs). Esto parece demasiado para una teoría fundamental. Podríamos decir que todos esos parámetros están pidiendo a gritos una explicación que el Modelo Estándar no puede darles. Entre ellos hay que destacar a los que determinan la forma del potencial de sombrero mexicano, que hace que el Higgs tome un valor en el vacío. ¿Por qué habría de tener esa forma tan curiosa? Y luego está la propia existencia del Higgs: ¿por qué ha de haber una partícula de espín cero y con las ca racterísticas adecuadas para romper la simetría electrodébil? 89
Parece evidente que, aunque la teoría sea consistente mate máticamente (excepto por la gravitación), “algo raro pasa con el Higgs”. Todas las motivaciones anteriores indican fuertemente que el Modelo Estándar es en realidad una teoría efecti va de otra más fundamental. Sin embargo, no indican tan claramente a qué energía podríamos encontrar esa nueva física, o bien apuntan a energías muy altas, como la escala de Planck. Así pues, ¿qué motivo tenemos para esperar des cubrir nueva física en el LHC (aparte del Higgs)? El prin cipal motivo es un problema (en parte teórico y en parte estético), que tiene el Modelo Estándar, y que aún no hemos mencionado.
El problema de la jerarquía A pesar del nombre, este problema no tiene que ver con la jerarquía de masas entre las familias. Es un problema que tiene el Higgs en sí mismo. Para que el Higgs tome un va lor apropiado en el vacío, ha de tener también una masa apropiada. Esa masa ha de ser de unos cientos de GeV11 (como dijimos, podría ser desde 114 GeV hasta 600 GeV, aproximadamente). El problema es que esa masa recibe co rrecciones cuánticas importantes. Esto está ilustrado en la siguiente figura: t H
H
t
11. Recordemos que un GeV es aproximadamente la masa de un protón.
90
Aquí una partícula de Higgs se propaga y, en un mo mento dado, crea un par quark-antiquark (en la figura es un quark top). Ese par se reconvierte luego en la partícula de Higgs, que sigue propagándose. Las partículas intermedias (en este caso el top y antitop) son llamadas partículas virtuales, y pueden alcanzar energías arbitrariamente altas, gracias al principio de incertidumbre. Usando las reglas de la teo ría cuántica de campos se puede calcular la probabilidad de que este proceso suceda, y cómo afecta a la propagación del Higgs, y por tanto a su masa. Y el resultado es una contribu ción gigantesca, tan grande como la energía más alta que pue dan tener las partículas virtuales. En principio, esta podría ser infinita, pero hay que tener en cuenta que el diagrama solo tiene sentido mientras la teoría (o sea, el Modelo Estándar) sea válida. Así que, como mucho, se puede llegar a energías del orden de la masa de Planck, MP , donde sabemos que la inconsistencia con la gravitación obligará a cambiar la teo ría. Pero aun así, la masa del Higgs recibe una contribución próxima a MP , o sea, 100 billones de veces mayor que su valor real. Este es el problema de la jerarquía (haciendo referencia a la enorme diferencia entre la masa del Higgs y la de Planck). Podría resolverse suponiendo que la masa inicial del Higgs es también gigantesca, pero de signo contrario a estas correccio nes cuánticas, y que se produce una cancelación casi exacta entre ambas. Pero, sin un motivo para justificar esa milagrosa cancelación (y el Modelo Estándar no lo da), esto sería una casualidad inimaginable, mayor que ganar tres veces seguidas el premio gordo de la lotería de Navidad, jugando al mis mo número. Si no aceptamos esta casualidad (y esa es una postura estética), entonces hay que suponer que a energías próximas a la propia masa del Higgs el diagrama anterior deja de ser válido o aparecen efectos nuevos que lo cancelan. Esto quiere decir que debemos esperar nueva física a energías (para una partícula François Englert individual) del orden de 1.000 GeV, o, lo que es lo mismo, un TeV. Y esta nueva física sí está al alcance del LHC. Podemos resumir la situación en esta “línea de energía”: 91
Modelo Estándar 200 GeV
Nueva física
LHC
1 TeV
Gravedad cuántica Mp
Aquí vemos que las partículas del Modelo Estándar tienen masas inferiores a 200 GeV. Un poco más arriba, en torno a 1 TeV, esperamos ver nueva física, relacionada con la solución al problema de la jerarquía (por ejemplo, nuevas partículas). La zona sombreada simboliza la energía al alcan ce del LHC, por lo que tenemos la esperanza razonable de descubrir esa nueva física. Finalmente, a escalas mucho más altas (de orden MP) esperamos que haya otra nueva física capaz de reconciliar la gravitación con la mecánica cuántica. Por supuesto, esta última física podría manifestarse a escalas más bajas, incluso al alcance del LHC, pero eso sería un pre mio inesperado. La línea de energía anterior nos sirve para comentar otro hecho importante. Aplicando la teoría de la relativi dad general, se puede investigar cómo era el universo en tiempos remotos. Así se descubrió que el origen del uni verso observable fue una gran explosión (Big Bang) hace unos 14.000 millones de años, y de la que tenemos pruebas convincentes. A medida que consideramos instantes más próximos al Big Bang, la materia estaba más concentrada y a mayor temperatura. Por ello, solo es posible remontarse a momentos muy cercanos al “instante cero” si conocemos cómo se comporta la materia a esas temperaturas, es de cir, a esas energías. Por tanto, a medida que sabemos más de la materia, más sabemos acerca del universo primitivo. Descubrir lo que hay en la anterior línea de energía hacia arriba nos permite viajar hacia atrás en el tiempo con ga rantías, tal vez hasta el mismo origen del tiempo. Esta es una razón por la que al LHC se le ha llamado también la “máquina del Big Bang”.
92
Supersimetría Comenzamos aquí un repaso (necesariamente breve) por los posibles habitantes de la terra incognita, o sea, los candidatos que se han considerado para nueva física más allá del Modelo Estándar. La motivación de la mayoría de los modelos es encontrar una solución al problema de la jerarquía. Y, entre ellos, destaca la supersimetría por su elegancia y por ser el escenario más estudiado. Las teorías supersimétricas se basan en la hipótesis de que, además de las simetrías del Modelo Estándar, la natu raleza tiene otra más (la llamada supersimetría) que relaciona partículas con distinto espín. Aunque es difícil de visualizar y formular matemáticamente, las consecuencias de la supersi metría son muy intuitivas. La más importante es que, por cada fermión de la teoría, aparece un bosón con las mismas caracte rísticas (excepto el espín), y viceversa. Así, por cada una de las 12 partículas elementales (de espín 1/2) aparece una partícula idéntica, pero con espín cero (una “partícula escalar”, en la jerga de los científicos). De este modo, la supersimetría pre dice un selectrón (la s inicial denota que se trata de una partí cula escalar), un sneutrino, squarks, etc. Algo análogo sucede para los bosones mediadores de las interacciones. Así tenemos los llamados fotinos, gluinos, etc., todos ellos con espín 1/2. Tenemos incluso un Higgsino. Esta proliferación del número de partículas básicas puede parecer excesiva, o incluso dispa ratada, pero en realidad lo único que se ha hecho es invocar una mayor simetría en la teoría; el resto es una consecuencia de esta única asunción. La situación recuerda a la predicción de las antipartículas que realizó Dirac en 1928 basándose en la mecánica cuántica y la relatividad especial. Las antipartículas tienen la misma masa y espín, pero cargas opuestas. Las par tículas supersimétricas difieren solo en el espín. ¿Qué solución aporta la supersimetría al problema de la jerarquía? Al haber nuevas partículas, aparecen nuevos dia gramas que contribuyen a la masa del Higgs. Son diagramas parecidos al anterior, pero donde las partículas virtuales no 93
son las ordinarias, sino sus compañeras supersimétricas.Y pue de demostrarse que estos nuevos diagramas cancelan los anti guos, resolviendo así el problema. Todo esto está muy bien, pero hay un contratiempo. La supersimetría predice que las masas de las partículas supersimétricas coinciden con las de las or dinarias (por ejemplo, el selectrón tendría la misma masa que el electrón). Pero, si esto fuera así, haría tiempo que se habrían detectado experimentalmente, y no hay rastro de ellas. La úni ca solución es que la supersimetría esté rota espontáneamente (recordemos del capítulo anterior que esto significa que la su persimetría sigue estando ahí, pero oculta, como le sucede a la simetría electrodébil). Entonces puede demostrarse que, de for ma totalmente natural, las partículas supersimétricas adquieren masas grandes, lo que explica que aún no se hayan descubierto. Sin embargo, aún queda un problema: una vez que la supersi metría se ha roto, los nuevos diagramas ya no cancelan exacta mente los diagramas peligrosos. Para que la solución al proble ma de la jerarquía no se estropee, hace falta que las masas de las partículas supersimétricas sean del orden del TeV, o menores, por lo que podrían estar al alcance del LHC, como habíamos anticipado. Así que, después de años de especulaciones, el LHC está poniendo a prueba la hipótesis supersimétrica. Podríamos seguir hablando muchas páginas acerca de la supersimetría, pero obviamente no tenemos espacio. Mencio nemos que las atractivas teorías de supercuerdas necesitan de la supersimetría para su consistencia, dando un apoyo teórico a este escenario. Además, algunas de las partículas supersi métricas son candidatos naturales para la materia oscura. Por tanto, si el LHC descubre la supersimetría, quizá descubra también la naturaleza de la materia oscura.
Dimensiones extras La existencia de dimensiones extras (además de las or dinarias largo, ancho y alto) fue conjeturada por Kaluza y Klein poco después de que Einstein formulara la relatividad 94
general. Su idea era que podría haber una cuarta dimensión espacial, pero de tamaño microscópico. ¿Qué significa esto? Imaginemos un tipo de animal que viviera en dos dimensio nes. Podemos imaginarnos un ser plano moviéndose en un plano infinito. Pero también podría estar moviéndose en la superficie de un cilindro. En este último caso, una de las dimensiones es infinita (la dirección en la que se alarga el cilindro), pero la perpendicular a ella tiene forma de circun ferencia, es cerrada y finita. Matemáticamente, a este tipo de dimensiones se las denomina compactas. Supongamos ahora que el cilindro se estrecha extraordinariamente, hasta que la circunferencia se hace microscópica. Estos seres tendrían ahora forma alargada y parecería (les parecería a ellos) que vivieran en un mundo de una sola dimensión. Lo más pare cido a esto sería un piojo que se desplazara por un cabello humano. Al piojo puede parecerle que el cabello tiene una sola dimensión (largo), pero la realidad es que el cabello se asemeja a un cilindro, con una dimensión transversal micros cópica y compacta:
De la misma forma, podría ser que, junto a las tres di mensiones espaciales “infinitas” que observamos, hubiera una o más dimensiones compactas microscópicas. Ahora bien, ¿tendría esa dimensión extra alguna influencia en nues tra vida? Lo cierto es que sí. No podríamos visualizarla, pero la existencia de una nueva dimensión supone una nueva si metría espacial. Las leyes de la física deberían ser invariantes bajo traslaciones en la dimensión extra. Y esa nueva simetría conlleva la existencia de una nueva cantidad que se conserva. 95
Y también está la interacción gravitatoria a lo largo de la di mensión extra, que se vería como una interacción misteriosa en nuestro mundo de tres dimensiones. Precisamente, Kaluza y Klein demostraron que la interacción electromagnética y la conservación de la carga eléctrica podrían ser simplemente la consecuencia de que el mundo tuviera una dimensión extra diminuta. Esta es una de las teorías más bellas y encantadoras que se han formulado para explicar el origen de las interaccio nes. Lo único que habría serían fuerzas gravitatorias, solo que el espacio tendría dimensiones extras imperceptibles. Pero desgraciadamente la teoría no funciona, al menos en su forma original. La razón es que en esas circunstancias los electrones “diestros” tendrían las mismas propiedades que los “zurdos”, y sabemos que no es así (aunque no se sabía en la época). Sin embargo, la existencia de dimensiones extras se ha hecho muy frecuente en los modelos de física más allá del Modelo Estándar. La razón más importante es que, por lo que sabe mos, la teoría de cuerdas requiere dimensiones extras para su formulación consistente. De hecho, hay construcciones de la teoría de cuerdas que recuperan en una forma modificada la teoría de Kaluza y Klein. Por otro lado, se ha propuesto que las dimensiones extras podrían resolver el problema de la jerarquía. Supongamos una situación ligeramente distinta a la anterior. Imagine mos ahora unos seres planos que se mueven en una mem brana infinita. Esos seres no notarían que “encima de ellos” hay una tercera dimensión en la que están inmersos, ya que no podrían desplazarse por ella, ni siquiera mirar en esa dirección. Análogamente, nuestro universo entero podría ser como una “membrana” plana de tres dimensiones en un mundo de cuatro dimensiones. En la horrible jerga de los físicos, estas membranas de más de dos dimensiones se llaman “branas”. La materia y la radiación ordinaria esta rían obligadas a propagarse por nuestra brana de tres di mensiones. Pero la gravedad, o sea, los gravitones, por ser un efecto universal, podrían acceder a la cuarta dimen sión, tal como indica la figura: 96
3D na Bra tón fo
gravitón
a teri
ma
El punto importante es que la gravedad efectiva en nuestra brana estaría debilitada, como si se le escapara fuerza por la dimensión extra. La fuerza gravitatoria real, en el mundo completo de cuatro dimensiones, sería mu cho mayor, comparable a las otras fuerzas básicas. Por otro lado, recordemos que la enormidad de la masa de Planck (que indica cuándo son importantes los efectos de grave dad cuántica) era consecuencia de la debilidad de la in teracción gravitatoria. Entonces, en este esquema el proble ma de la jerarquía se resuelve porque la propia escala de la gravedad cuántica desciende desde la masa de Planck hasta energías próximas al Modelo Estándar (recordemos nuestro dibujo anterior de la línea de energía). Si esto es así, el LHC podría poner de manifiesto esas dimensiones extras, e incluso los efectos de gravitación cuántica, lo que supondrían descubrimientos espectaculares. En la mayoría de los modelos de este tipo las dimen siones extras suelen ser muy pequeñas, pero en otros pue den ser grandes, e incluso infinitas. Y también puede haber otras branas 3D en posiciones distintas de una dimensión extra. Esas otras branas serían otros universos de tres di mensiones, que estarían muy cerca del nuestro (a menos de un milímetro), pero en la dirección de una inaccesible cuarta dimensión.
97
Teorías de cuerdas Aunque habían sido consideradas con anterioridad, las teo rías de cuerdas (o supercuerdas) pasaron al primer plano de la física teórica en los años ochenta, cuando se descubrió que podían describir la gravedad cuántica de forma consistente. Las teorías de cuerdas se basan en la asunción de que las partículas elementales no son puntuales, sino pequeños fi lamentos (“cuerdas”). Esta hipótesis sencilla conduce a una teoría extraordinariamente complicada desde el punto de vista matemático, y con implicaciones sorprendentemente poten tes. La teoría de cuerdas no solo puede acomodar la grave dad, sino que la predice. Y además predice la existencia de otras interacciones, e incluso el número de dimensiones del espacio-tiempo. No obstante, a pesar de los esfuerzos de estos años, lo cierto es que la teoría de cuerdas está aún lejos de ser totalmente explorada, y algunas de estas conclusiones debe rían considerarse provisionales. De ser cierta, la teoría de cuerdas predice una gran uni ficación de todas las interacciones y todas las partículas. Por ejemplo, un electrón, un quark y un fotón serían simplemente cuerdas idénticas en estados de vibración distintos. Por otro lado, aunque la teoría es esencialmente única, existen muchas soluciones a sus ecuaciones. Esto genera muchos escenarios físicos con propiedades distintas, llamados vacíos de la teoría. Actualmente no es posible saber cuál de ellos es el que elegi ría la naturaleza… si es que tiene que elegir alguno. La teoría permite incluso que exista un número colosal de universos, desconectados unos de otros, cada uno en un vacío diferente. Nuestro universo sería solo uno más, aunque lógicamente ha de estar entre los que reúnen las condiciones necesarias para que surja la vida, del mismo modo que solo podemos vivir en la Tierra y no en otro planeta del sistema solar. Se ha sugerido que una situación así podría ofrecer una explicación alter nativa a hechos difíciles de explicar en el Modelo Estándar, como el problema de la jerarquía o el de la energía oscura, del mismo modo que nuestra existencia explica que estemos 98
en un planeta con agua (en un planeta sin ella, no habríamos llegado a surgir). Este escenario se suele llamar multiverso, en oposición a un solo universo. Es improbable que la teoría de cuerdas pueda ser veri ficada en el LHC. No obstante, la teoría da un gran soporte teórico a otras especulaciones, como la supersimetría o las dimensiones extras, que surgen de forma natural en este con texto.
Otros modelos Se han propuesto muchos otros modelos más allá del Modelo Estándar, que nos hubiera gustado discutir con alguna ex tensión. Muchos de ellos buscan una solución al problema de la jerarquía; por ejemplo, los modelos de Tecnicolor, que se basan en la suposición de que el Higgs es en realidad una partícula compuesta. En otros modelos se proponen modifi caciones, más o menos motivadas, de las características del campo de Higgs, a menudo complicando el escenario inicial. Y desde luego, otra posibilidad es que la naturaleza “haya pensado” otra solución al problema de la jerarquía que no se le haya ocurrido a nadie. Entre los modelos de nueva física cuya motivación no es el problema de la jerarquía destacan las llamadas teorías de gran unificación. Estas se basan en una filosofía semejante a la que consiguió unificar con éxito las interacciones electromag néticas y débiles, pero incluyendo también las interacciones fuertes en el esquema. También hay que mencionar el modelo de see-saw, que es capaz de explicar con elegancia la peque ñez de las masas de los neutrinos a partir de nueva física muy simple a una escala muy grande, pero que ahora no podemos discutir.
99
CAPÍTULO 6
La máquina de la verdad
En los capítulos anteriores hemos realizado un viaje ha cia la frontera actual de la física y hemos especulado so bre lo que podría haber al otro lado de esa frontera. Recapitulemos: el Modelo Estándar describe con enorme éxito el comportamiento de la naturaleza. La última pieza que faltaba para su confirmación, el bosón de Higgs, ha sido exitosamente descubierta por el LHC (uno de sus objetivos esenciales). Por otro lado, el Modelo Estándar tiene deficiencias de tipos diversos, que nos hacen creer que hay física aún más fundamental, tal vez a la escala del TeV (aunque no es posible precisar mucho más) y al alcance del LHC. Descubrir esa nueva física es el segundo gran objetivo del LHC. En el LHC cada protón individual posee una energía ci nética de 7 TeV, es decir, 7.000 veces mayor que su masa (en realidad, aún no se ha llegado a esta energía prevista, pero se está muy cerca de ella). Por tanto, la energía que se con centra en el punto de una colisión protón-protón es de 14 TeV, en principio más que suficiente para acceder a la nueva física. Sin embargo, hay que recordar que el protón no es una partícula elemental, sino compuesta, por lo que esa energía se reparte entre las partículas que lo componen, y al final la energía aprovechable es menor. 100
La proeza tecnológica de llevar los protones hasta esas energías inimaginables es la tarea primaria del LHC, y tie ne lugar en el gran anillo escavado a 100 m de profun didad entre Francia y Suiza, cerca de Ginebra. La razón del emplazamiento es que allí está la sede del CERN, el mayor laboratorio mundial de física, y en el que participan una veintena de países, incluyendo España. Hay que decir que el CERN es un sitio fuera de lo común, una especie de ciudad donde trabajan miles de científicos, ingenieros, informáticos y técnicos de muchos países. Allí hay cientos de edificios, con instalaciones de experimentos, almacenes, talleres, centros de cálculo, salas de seminarios, oficinas y despachos. Y también comedores, hoteles y un interesante museo interactivo. En el edificio de la “división teórica” es tán apiñados los pequeños despachos de muchas decenas de físicos de primera línea, donde hay pizarras llenas de fórmulas y diagramas, y se escuchan discusiones de física a cualquier hora del día. Y un ambiente parecido existe en la cafetería. Desde hace más de 60 años, en el CERN se hace una ciencia abierta a todo el mundo, sin secretos ni oscuros intereses comerciales.
Aceleración En el CERN hay instalados varios aceleradores de partículas que, en su momento, estuvieron entre los mayores del mundo, y que ahora siguen siendo útiles para el proyecto del LHC. Acelerar protones hasta las energías deseadas ha de hacerse en varios pasos, por lo que los protones pasan por una su cesión de aceleradores cada vez más potentes hasta que son inyectados en el LHC para el “empujón” definitivo. Esto está ilustrado en este esquema simplificado, en el que también se observan los cuatro puntos (ATLAS, CMS, LHCb y ALICE) donde tendrán lugar las colisiones.
101
CMS LHC ALICE
Pb
p
LHCb SPS
ATLAS
PS
Tal como se indica, en el LHC se pueden inyectar pro tones (p) o núcleos de plomo (Pb) según el experimento que se vaya a realizar, aunque la mayor parte del tiempo se esta rá trabajando con protones. Los protones son inicialmente acelerados en un acelerador lineal, llamado Linac 2, de don de pasan a un pequeño anillo, llamado PS Booster, y de ahí al anillo PS, luego al SPS y finalmente al LHC. Todos ellos (menos el último) existían antes de la construcción del LHC, y de hecho tienen una historia ilustre. Por ejemplo, el SPS funcionó como colisionador protón-antiprotón en los años ochenta, y fue donde se descubrieron los bosones W y Z en 1983. Debido a la relatividad especial, que no permite a nin gún objeto superar la velocidad de la luz, cuando la energía cinética se hace mayor que la propia masa, un nuevo aumen to de energía apenas se nota en la velocidad. En el anillo PS la energía cinética de los protones es de 25 GeV (o sea, 25 veces su masa), y su velocidad es ya un 99,9% la de la luz. En el SPS, la energía cinética aumenta hasta 450 GeV, y la velocidad es un 99,9998% la de la luz. Finalmente, en el LHC la energía cinética es 7 TeV (7.000 GeV) y su velocidad es un 99,9999991% la de la luz. En los anillos previos al LHC, no solo se realizan las primeras fases de aceleración, sino que se van agrupando los protones en “paquetes” compactos, que luego se inyectan al LHC. En cada paquete viajan jun tos 100.000 millones de protones, y en un instante dado hay 3.000 de estos paquetes viajando en cada dirección dentro 102
del gran anillo. Cada paquete es semejante a un trozo de cor dón fino de 7 cm y medio de longitud. Cuando se acercan a los puntos de colisión se les hace estrecharse aún más, hasta hacerse más delgados que un cabello humano. Naturalmente no es sencillo hacer viajar a estos paquetes, casi a la velocidad de la luz, sin que se deshagan; pensemos, por ejemplo, que los protones están cargados positivamente, por lo que se repelen eléctricamente. Los protones dan más de 11.000 vueltas por segundo al anillo y están unas 10 horas orbitando, por lo que podrían realizar un viaje de ida y vuelta al planeta Neptuno. Las siglas del LHC significan Gran Colisionador de Ha drones. Sabemos el porqué de la H y la C, ya que su misión es colisionar protones (hadrones). La L (large, o sea, grande) indica, naturalmente, que su tamaño es gigantesco. Pero ¿por qué ha de ser gigantesco? Para mantener los protones en sus órbitas circulares hay que aplicar campos magnéticos enor mes, de otra forma “se saldrían por la tangente”. Cuanto ma yor sea la velocidad y más cerrada la curva que se les quiere imprimir, mayor es el campo magnético requerido. Por tanto, para una misma potencia de campo magnético, cuanto más abierta sea la circunferencia del anillo, mayor será la veloci dad (y por tanto, la energía) a la que podremos hacer circu lar los protones. Como ese es el objetivo, utilizar una gran circunferencia es sumamente ventajoso. El túnel donde está instalado el LHC estaba construido desde hacía 20 años, ya que también albergó el anterior gran proyecto del CERN, el colisionador electrón-positrón llamado LEP. El LEP fue un experimento exitoso para verificar con gran precisión todas las sutilezas del Modelo Estándar12, excepto la existencia del Higgs. Por cierto, un motivo importante para excavar un tú nel, en vez de trabajar a ras de suelo es el económico: hacerlo así resulta más barato que expropiar terrenos en la superficie. Aquí vemos una perspectiva pictórica del emplazamiento del 12. Una de las conclusiones más importantes del LEP fue que solo puede haber tres familias de partículas como las que conocemos, importante resultado al que hemos aludido en el capítulo 3 y que se ha visto rotundamente confirmado por el LHC a partir de las propiedades del bosón de Higgs.
103
LHC, con los pozos por donde se han bajado las piezas del anillo y los detectores:
Ginebra
Además del tubo de alto (altísimo) vacío, por donde cir culan los protones, los ingredientes principales del LHC son las cavidades y los electroimanes. Las cavidades son unas celdas donde un campo eléctrico con la frecuencia ade cuada y gran intensidad (5 millones de voltios por metro) transmite energía a los paquetes de protones. Hay que tener en cuenta que los protones están continuamente perdiendo energía, ya que al llevar una trayectoria circular, emiten ra diación (llamada radiación sincrotrón). Las cavidades son las que reponen la energía perdida. Los electroimanes son los encargados de dirigir los paquetes de protones a lo largo del anillo y de colimar (hacer fino) cada paquete, de forma que las colisiones sean eficaces. El LHC tiene unos 9.600 elec troimanes de diversos tipos (dipolos, cuadrupolos, sextupo los, etc.) instalados a lo largo del anillo. Los más grandes son los 1.232 dipolos magnéticos. Todos ellos están hechos de material superconductor (titanio-niobio), enfriado hasta la temperatura del helio superfluido (-271,3 ºC), es decir, 104
más frío que el espacio intergaláctico. La tecnología super conductora es absolutamente necesaria para que las bobi nas puedan soportar corrientes enormes. Trabajar en este régimen extremo obliga a un sistema de enfriamiento de una potencia sin precedentes.
Colisión Cuando dos paquetes de protones convergen en uno de los puntos preparados para ello, tan solo se producen unas 40 colisiones protón-protón (recordemos que cada paquete con tiene 100.000 millones de protones). Pero como hay 3.000 paquetes viajando en cada dirección, dando 11.000 vueltas por segundo, resulta que en cada uno de esos puntos se pro ducen del orden de mil millones de colisiones por segundo. ¿Qué sucede en cada una de ellas? Antes que nada, hay que recordar lo que es un protón. No es una partícula elemental, sino compuesta. Y, a pesar de su pequeñez, su interior es un mundo enormemente di námico y complejo. Sabemos que dentro de un protón hay dos quarks u y un quark d. Pero en realidad hay mucho más. Hay gluones, que están siendo intercambiados por los quarks constantemente. Y esos gluones del interior pueden producir pares quark-antiquark, que se recombinan de nue vo en un gluón. Esos quarks intermedios no tienen por qué ser de tipo u o d, pueden ser de cualquier sabor, por ejemplo, de tipo s. ¡Así que mirando dentro de un protón con suficien te energía, podemos encontrarnos quarks y antiquarks de cualquier tipo! Y la cosa no acaba ahí: esos pares de quarks pueden a su vez emitir gluones que interaccionan con otros quarks y otros gluones “que andan por ahí dentro”, etc. En el momento de la colisión, cada protón “ve” al otro como un manojo de todas estas partículas, que se reparten los 7 TeV de energía entre ellas. Por tanto, una colisión protón-protón es en realidad una colisión entre dos de los “habitantes” del 105
interior de los protones. Se podría pensar que en cada coli sión se producirán simultáneamente varios de estos choques partícula-partícula. Pero la probabilidad de que eso suceda es muy pequeña. Así que una colisión protón-protón será en realidad una colisión quark-quark, o gluón-gluón, o quarkgluón… Todo esto añade confusión al proceso. Primero, no sa bemos exactamente qué partículas chocarán (aunque en mu chos casos eso puede inferirse a posteriori, analizando los pro ductos de la colisión). Segundo, la energía útil en cada choque ya no es la total del protón, sino solo la transportada por la partícula que colisiona, que siempre es menor. Finalmente, aunque el choque se realiza solo entre dos de las partículas internas de los protones, esto es suficiente para romperlos. Los quarks y gluones que no intervienen directamente en la colisión tienen que buscar nuevos “compañeros” para “ha dronizarse”, es decir, formar nuevas partículas compuestas, sin color. En este juego de la hadronización intervienen tam bién los quarks y gluones resultantes de la colisión. Se trata de un proceso complejísimo y que da lugar a una gran canti dad de partículas finales. Esto está ilustrado en este ejemplo esquemático, donde la colisión protón-protón es en realidad una colisión quark-quark: p
π
π π
π
π K
p
K p
p
π
p n
π
π
K
K
106
π
π n
p
En este diagrama, las líneas delgadas y los muelles repre sentan quarks y gluones, las manchas grises son zonas donde se produce la hadronización, y las líneas gruesas son partícu las finales (hadrones compuestos). Además se producen fo tones y leptones (electrones, positrones, muones, neutrinos, etc.). En una colisión típica (de las que hay mil millones por segundo) se producen decenas de estas partículas. En algu nas de estas colisiones (muy pocas) suceden, o pueden suce der, hechos especialmente interesantes, como la producción del anhelado bosón de Higgs o tal vez partículas de nueva física (por ejemplo, partículas supersimétricas). El número de veces que esto ocurre depende de la probabilidad de que se produzca el suceso en cuestión, algo que hay que calcular usando las reglas de la teoría cuántica de campos. El siguiente diagrama muestra un suceso de producción de Higgs, en el que dos gluones procedentes de los protones emiten quarks top y antitop, que se fusionan dando un Higgs (H) y muchas más cosas. b q t g
t
W+
H
t g t
q b
W
–
b e– ne t
Notemos que el Higgs se desintegra rápidamente, por lo que no puede llegar a ninguno de los detectores. Lo que llegan son los productos de su desintegración (en este caso, un par bottom-antibottom, que a su vez dará lugar a hadrones compuestos). Por ello, hay que realizar un extraordinario tra bajo de análisis posterior para reconstruir, a partir de las par tículas finales, la “historia del suceso”, y ver si realmente se ha producido un Higgs o no (más sobre esto al final del libro). 107
Detección De lo dicho anteriormente, se deduce que para entender lo que pasa en una colisión hemos de saber todo lo que poda mos acerca de las partículas finales. Para ello, alrededor de los puntos de colisión hay instalados enormes detectores de partículas. En realidad, cada detector son muchos detec tores, colocados como capas de cebolla alrededor del punto en cuestión. Cada capa de esa cebolla está especializada en la detección de un tipo concreto de partículas. Simplificando, se puede decir que la primera capa de cebolla (la más cercana a la colisión) es una “cámara de deriva”, especializada en se guir el rastro a partículas cargadas. Para saber más sobre ellas, todo el detector está inmerso en un enorme campo magnéti co, que hace que las partículas con carga positiva tuerzan su trayectoria de forma opuesta a las de carga negativa. Además, según su velocidad y su masa se tuercen más o menos. Toda esta información es valiosísima para identificar las partículas y su energía. Las siguientes capas de cebolla son los llama dos calorímetros, dispositivos capaces de detener ciertos tipos de partículas y medir la energía que estas depositan en ellos. Están hechos de diferentes materiales, dependiendo del tipo de partícula que han de frenar. El primer calorímetro que encuentran las partículas, después de atravesar la cámara de deriva, es el calorímetro electromagnético, que absorbe elec trones, positrones y fotones. Después está el calorímetro ha drónico, especializado en detener hadrones (protones, neu trones, piones, etc.). Los calorímetros son la forma principal de detectar partículas neutras, como los fotones y los neu trones. En la capa de cebolla más externa se hallan los “de tectores de muones”. Los muones atraviesan sin dificultad todas las capas anteriores, por lo que necesitan detectores es peciales para ellos. Finalmente, los neutrinos no dejan rastro en ningún detector, hay que deducir su presencia analizando las partículas “visibles”. Esto también es cierto para muchas de las partículas de nueva física, que podrían escapar a todos los detectores. Hay que decir que los físicos experimentales 108
de partículas son grandes expertos en realizar estas tareas de reconstrucción. Aquí tenemos un esquema simplificado de dis tintas partículas, atravesando las distintas capas de un detec tor (desde el interior hacia afuera), y el rastro que dejan en ellas. Cámara de deriva
Calorimetro electromagnético
Calorímetro hadrónico
Detector de muones
Fotones Electrones y positrones Muones Piones, protones Neutrones
Como ya hemos dicho, en el anillo del LHC hay ins talados cuatro grandes detectores, o experimentos: ATLAS, CMS, LHCb y ALICE. El objetivo de los dos primeros es, por un lado, descubrir el bosón de Higgs (ya conseguido) e investigar sus propiedades (en curso), y por otro, descubrir la posible nueva física más allá del Modelo Estándar (aún por conseguir). Aunque el objetivo es el mismo, utilizan técnicas diferentes para los diversos detectores que los componen (las “capas de cebolla”). Esto hace que incluso su tamaño sea dis tinto (ATLAS es mucho mayor que CMS). Utilizar técnicas distintas es una forma de chequear que uno de los detectores no esté teniendo un mal funcionamiento y dando datos equi vocados (aparte de eso, la competencia entre dos equipos es siempre un acicate para buscar la excelencia…). Para cada una de estas dos colaboraciones trabajan unas 2.000 personas de todo el mundo, entre físicos, ingenieros, etc. Como decimos, el tamaño de estos detectores es enor me. Por ejemplo, ATLAS es un cilindro de 26 m de altura y 46 m de longitud, con el peso de la Torre Eiffel y repleto de tecnología ultrasofisticada. En su interior están instaladas las capas de detectores mencionadas, como capas de corteza en 109
un tronco de árbol. La siguiente figura muestra la huella que dejan en las distintas capas las partículas resultantes de una colisión en el centro del cilindro.
imagen cortesía del
CERN.
Pensemos que estos sucesos se producen a un ritmo de mil millones por segundo, y que la electrónica que los registra ha de ser capaz de seguir ese ritmo vertiginoso. Los otros dos experimentos, LHCb y ALICE, tienen mi siones más especializadas. El objetivo de LHCb es estudiar en profundidad los procesos que violan la simetría CP, de la que hablamos en el capítulo 4. Aparte de su importancia básica, la violación de CP juega un papel fundamental en los procesos capaces de crear más materia que antimateria en el universo primitivo. Finalmente, ALICE es el detector especializado en estudiar colisiones de núcleos pesados (plomo-plomo). En el LHC los núcleos de plomo son acelerados hasta la extraor dinaria energía de casi 600 TeV cada uno, si bien la energía por nucleón es menor que cuando se aceleran protones solos. El objetivo de las colisiones de estos núcleos es crear, por un instante, un plasma de quarks y gluones: un estado de la ma teria a una temperatura tan alta que los quarks y gluones se ven liberados de los nucleones donde habitan, y forman una especie de sopa, idéntica a la que llenaba el universo una mi llonésima de segundo después del Big Bang. La temperatura 110
alcanzada es 100.000 veces mayor que en el centro del Sol, la mayor de toda la galaxia.
Análisis De todo lo anterior se deduce fácilmente que la tarea de aná lisis posterior a la detección es clave para el éxito del LHC. En realidad, la tarea de análisis comienza “en tiempo real”, mientras se están produciendo las colisiones. Cada colisión produce una gran cantidad de datos. A un ritmo de mil millo nes de colisiones por segundo, almacenar toda esa informa ción resultante se torna simplemente imposible. Por ello, se registran solo los sucesos que pudieran tener signos de nueva física. Realizar esta tarea en tiempo real es de por sí todo un desafío técnico. En cada segundo ATLAS y CMS recogen, cada uno de ellos, una información útil de 1 gigabyte (GB) unas doscientas veces las obras completas de Shakespeare; una información que después hay que analizar. Repetimos, esto sucede a cada segundo. Al cabo de un año, la informa ción almacenada es de 50 millones de GB. Desde el comienzo se vio claro que el CERN solo no podría almacenar todos esos datos de forma eficiente, ni tener la capacidad de computación necesaria para analizarlos. Por ello, el CERN ha liderado la creación de una red, llamada WLCG (Worlwide LHC Computing Grid, o simplemente Grid), en la que colaboran instituciones de 33 países. La idea de la Grid es distribuir los datos y las tareas de computación por centros de todo el mundo, con acceso seguro, rápido y eficiente entre ellos. Esta estructura es también útil para mu chas otras actividades, no necesariamente relacionadas con la física, como luego comentaremos. El LHC, que fue inaugurado en 2010, seguirá funcionan do hasta 2037, con varias mejoras previstas en su andadura (especialmente, para aumentar aún más su estadística de co lisiones, pero quizás también su energía). Durante este largo periodo, estará suministrando datos básicos para la búsqueda, 111
y tal vez el descubrimiento, de nueva física. Naturalmente, el análisis de los datos no es solo una cuestión de capacidad de computación, sino también de conocimiento profundo de la física de partículas. Y es una tarea en la que participan desde físicos experimentales muy cercanos a las observaciones has ta muchos otros (teóricos y experimentales) repartidos por todo el mundo, trabajando en su interpretación, así como en las predicciones concretas de las teorías de nueva física.
112
CAPÍTULO 7
¿Para qué sirve el LHC?
En realidad, la respuesta básica a esta pregunta la hemos dado a lo largo de todos los capítulos anteriores. Resumiendo, po demos decir que el LHC ha servido y sirve para confirmar nuestras teorías más básicas sobre la naturaleza (el Modelo Estándar) y para buscar qué nuevas leyes y principios hay más allá de las mismas, lo que nos permitirá también cono cer qué pasó en instantes muy cercanos al Big Bang. Ningún otro experimento científico actual tiene la capacidad para al canzar estos objetivos. Indudablemente, el LHC se sitúa en la línea histórica de los experimentos que abrieron puertas a nuevos conocimientos básicos: desde los ensayos de Galileo con la caída de objetos o los experimentos de Faraday con el electromagnetismo al descubrimiento de la estructura del átomo por Rutherford o el más reciente de los quarks. Para los científicos, no hay ninguna duda de la utilidad del LHC para ampliar nuestro conocimiento. Esto zanjaría la cuestión, si el LHC estuviera costeado por los propios científicos. Pero el LHC está financiado con dinero público. Todo el mundo tiene el derecho a preguntar: ¿cuánto cuesta y para qué sirve el LHC?
113
La utilidad de la ciencia básica Es costumbre hacer una distinción entre ciencia básica (la mo tivada por la pura curiosidad, como el proyecto del LHC) y ciencia aplicada (la destinada a resolver o mejorar cuestiones prácticas). Evidentemente, es mucho más sencillo defen der el valor de la segunda que el de la primera. Los objeti vos de una investigación aplicada y sus posibles beneficios son fáciles de comprender y valorar por todos. Sin embar go, la ciencia básica también produce enormes beneficios prácticos, de los que enseguida hablaremos. El problema es que esos beneficios no son tan inmediatos ni previsi bles, aunque a veces tienen una importancia extraordina ria para la sociedad. Pero, antes que nada, hay que resaltar que la ciencia básica tiene un enorme valor cultural por sí misma. Conocer cómo fue el comienzo del universo, qué son las estrellas y las galaxias, el origen evolutivo de las especies, la estructura atómica de la materia o las interac ciones básicas de la naturaleza enriquece nuestras vidas, como pueda hacerlo el conocimiento de la historia o el arte. Y todo ello son logros de la ciencia básica. Vayamos ahora con los beneficios más prácticos.
Ciencia y tecnología Hemos hablado en el capítulo 1 de los impresionantes éxitos de la ciencia moderna en 400 años de historia. Los logros tecnológicos no se quedan atrás. No hay más que pensar en los medios de comunicación actuales, comparados con los del siglo XVII. Y lo mismo pasa si pensamos en los medios de transporte, los nuevos materiales, los ordenadores o los avan ces en medicina. Esto no es casualidad: la mayoría de los avances tecnológicos no habrían ocurrido si antes no hubiera tenido lugar el avance en ciencia básica que los hizo posibles. A veces se dice que, incluso sin el soporte de la ciencia bási ca, la investigación puramente aplicada o tecnológica habría 114
obtenido los mismos resultados, lo cual puede ser cierto en algún caso. Pero repasemos los impresionantes avances de los últi mos siglos: el descubrimiento de las ondas electromagnéticas y su uso para las comunicaciones no se desarrolló hasta que Maxwell formuló las leyes del electromagnetismo. El tran sistor, base de toda la electrónica actual, no fue desarrollado hasta que se comprendió el comportamiento cuántico de la materia (y sus inventores eran grandes expertos en mecánica cuántica de los sólidos). Lo mismo puede decirse del rayo láser y sus múltiples aplicaciones. Todos los aparatos eléctri cos, desde la luz eléctrica hasta los motores eléctricos y sus aplicaciones, no fueron inventados hasta después de los des cubrimientos básicos de Faraday y Maxwell sobre el electro magnetismo. Toda la química moderna y los materiales que se han desarrollado (plásticos, fibra de vidrio, etc.) se basan en el conocimiento íntimo de la estructura atómica y molecular de la materia. Los ordenadores no fueron desarrollados hasta que no se tuvieron unas bases firmes de lógica matemática abstracta, y electrónica (a su vez basada en física básica). Los rayos X y otros métodos modernos de diagnóstico y trata miento se basan en procesos descubiertos en investigaciones básicas, etc. De hecho, a medida que avanza la tecnología, más fundamentada está en la ciencia básica. El problema es que cuando se estaban realizando los avances en ciencia básica mencionados, muy pocos podían prever la utilidad que tendrían, ni siquiera los propios cien tíficos. Hay muchos ejemplos de esto, a menudo cómicos. Por ejemplo, Rutherford (descubridor del núcleo atómico) afirmó en los años treinta que: “Cualquiera que espere hallar una fuente de energía de la transformación de los átomos está diciendo tonterías”. Precisamente esa dificultad para prever las aplicaciones de la investigación básica demuestra que la investigación aplicada, por sí sola, nunca habría dado con las mismas (o lo habría hecho mucho más tarde). ¿Es posible imaginar, por ejemplo, que la investigación en nuevos tipos de motores hubiera llevado a la invención de los motores 115
eléctricos, sin un conocimiento previo de los fenómenos elec tromagnéticos y sus leyes? No puede decidirse a priori cuál será el avance básico que propiciará avances tecnológicos. A la ciencia básica hay que apoyarla globalmente. Al final, la historia demuestra que rinde beneficios gigantescos. Pero es difícil que una empresa privada decida invertir en ciencia básica, precisamente por la incertidumbre de qué beneficios le reportará (si es que le reporta alguno, no es fácil patentar una ley de la naturaleza). La ciencia básica necesita el apo yo de fondos públicos. Hay una anécdota famosa atribuida a Faraday, cuando el ministro de Finanzas W. Gladstone le interrogó en 1850 por el valor práctico de la electricidad. Faraday respondió: “Algún día usted podrá cobrar impues tos por ella”.
‘Spin-offs’ A menudo, un producto desarrollado para posibilitar la in vestigación básica luego resulta tener otros usos, lo que se suele denominar con la palabra inglesa spin-offs. Incluso una teoría tan aparentemente carente de utilidad práctica como la relatividad general ha producido un importante spin-off: el sistema de localización GPS funciona comparan do señales recibidas desde distintos satélites, equipados con pequeños relojes atómicos. Dichos relojes fueron original mente diseñados para comprobar que la velocidad a la que transcurre el tiempo depende de la altura, una sorprenden te predicción de la teoría. De hecho, sin la incorporación de las correcciones relativistas, el sistema GPS no funcio naría. Por su lado, la física de partículas (a veces también llamada física de altas energías) ha producido importantes y numerosos spin-offs. Pensemos que los experimentos de física de partículas normalmente necesitan, por su propia naturaleza, una tecnología extrema, a menudo más allá de lo disponible. Esto supone un gran “tirón” para nuevos de sarrollos. Por otro lado, los propios experimentos son un 116
banco de pruebas único, donde las nuevas tecnologías se testean unas a otras. Pensemos por ejemplo en los propios aceleradores de partículas, inventados en los años veinte para investigar sus propiedades. Hoy hay 17.000 aceleradores de partículas en el mundo, de los cuales 9.000 son para aplicaciones médi cas, y solo 120 para investigación básica. Un ejemplo más concreto de spin-off es la radioterapia de protones o iones de carbono para tratar tumores. Este método tiene grandes ventajas sobre el convencional de rayos X, ya que puede ac tuar sobre los tumores sin dañar tejido sano. Su promotor, en 1946, fue Robert Wilson, un físico de partículas experimental norteamericano, y los primeros tratamientos se hicieron en los años cincuenta, usando aceleradores de partículas. La fí sica nuclear, junto con las técnicas de detección de física de partículas, han originado métodos de diagnóstico no agresi vos, que hoy son estándar en los hospitales, por ejemplo, la imagen por resonancia magnética (MRI) y el positron-electron tomography (más conocido como PET). No es exagerado decir que estos avances médicos han salvado muchos miles de vidas. En un campo completamente distinto, los haces de partículas y cámaras de deriva se utilizan actualmente para hacer inspecciones rápidas de contenedores y camiones en puertos y aeropuertos. Por otro lado, la física de altas energías ha permitido el desarrollo de técnicas de criogenia (enfria miento extremo), alto vacío y superconductividad. Mirando las páginas del CERN13, se puede ver una lista impresionante de transferencias de tecnología desde el CERN a la industria en los últimos años (y, por tanto, muy vinculada al proyecto LHC). Mención aparte merecen las aportaciones en infor mática, como el software creado para simulaciones o el de sarrollo de la computación en paralelo. Aquí merece la pena hacer una pausa para hablar del spin-off más importante al que ha dado lugar la física de partículas.
13. Véase https://kt.cern/technologies y http://technologytransfer.web.cern.ch
117
¿Cuál fue la primera página web? En 1989 Tim Berners-Lee, un físico que trabajaba en el CERN, concibió un sistema para navegar por información a través de internet, de forma universal para todos los orde nadores, y usando un formato de hipertexto (es decir, el hoy familiar “pinchar” o “hacer clic” en un enlace). El sistema fue bautizado como World Wide Web. La motivación era ayudar a los físicos del CERN a compartir recursos entre diferen tes ordenadores. A finales de 1990, el sistema ya funcionaba y existía la primera página web de la historia14. El sistema fue puesto a disposición de los usuarios de internet, y pronto se convirtió en un fenómeno mundial. Hay que aclarar que “internet” ya existía desde 1969 como una infraestructura de redes informáticas. Pero fue “la web”, desarrollada en el CERN la que produjo el fenómeno social de los últimos 25 años (aunque popularmente se la identifica con la palabra “internet”). No hace falta recrearse en la importancia de la web en el mundo actual. Representa una verdadera revolu ción tecnológica y social a todos los niveles, y su influencia va en aumento. Lo que ha aportado la web a la economía mun dial es difícilmente cuantificable, pero es evidente que excede por un gran factor todo el dinero que se ha invertido en inves tigación en física de partículas en toda la historia, incluyendo el LHC. Y desde luego, los beneficios de la web no son solo económicos. Es extraordinaria, por ejemplo, su contribución al progreso de países emergentes o a la “democratización” del acceso a la información por parte de todos. Como se ha mencionado en el capítulo anterior, el pro yecto LHC ha impulsado la creación de una Grid para com partir capacidad de memoria y computación. La Grid ya está siendo usada para otros fines, por ejemplo, un banco europeo de mamografías. Es posible que en el futuro la Grid pueda representar otra revolución en la comunicación. Pero tampo co se pueden hacer promesas. Como hemos visto, es difícil 14. Véase http://info.cern.ch/hypertext/WWW/TheProject.html
118
hacer predicciones en este sentido. Lo que está claro es que la investigación en física de partículas es una magnífica fuente de innovación.
Retornos del LHC Un argumento tentador para los políticos ha sido a menudo: “La investigación básica está muy bien, pero, dado que sus beneficios son universales, dejemos que otros países inviertan en investigación básica, y nosotros lo haremos en innovación y desarrollo, que es lo que realmente nos reporta rendimien tos”. Es una versión moderna del unamuniano “¡que inventen ellos!”, ahora sería “¡que investiguen ellos!”. Pero lo cierto es que históricamente esa actitud no ha funcionado. Las socie dades más potentes tecnológicamente (primero Inglaterra, luego Alemania y después Estados Unidos) también han sido a la vez las más potentes en investigación básica. Una razón es posiblemente la educación. Un país con investigación bási ca fuerte tiene una fuente de jóvenes preparados para atacar problemas difíciles en otros ámbitos, con imaginación y rigor. Más de la mitad de los estudiantes que se doctoran en física de partículas vinculados al LHC se dedican luego a otras acti vidades profesionales, que van desde empresas de alta tecno logía hasta mercados financieros. De alguna forma, el caldo de cultivo de la investigación se transmite a toda la sociedad, impulsando la creatividad y la excelencia. Aquí nuevamente manejamos argumentos intangibles, pero el hecho es que paí ses emergentes como la India, Corea o China han mostrado un gran interés por participar, o incluso liderar, experimentos de física de partículas, como el LHC. Incluso Japón y China, que pudieron parecer en algún momento menos interesados en la investigación básica, son actualmente líderes mundiales en experimentos de física de neutrinos. Por otro lado, la física básica estimula la industria de alta tecnología, no solo por los spin-offs, sino también por que requiere empresas altamente especializadas que puedan 119
suministrar productos y servicios muy cualificados. De este modo, muchas empresas de tecnología punta han crecido gracias al impulso inicial que les ha dado el CERN. Existen estudios (llevados a cabo desde el lado empresarial) que cuan tifican este estímulo, y que indican que por cada euro pagado por el CERN a las empresas se genera un beneficio adicional (en ventas a otros clientes) tres veces mayor. Finalmente, podemos dar algunos números concretos y referirnos también al caso español. El coste total del LHC desde 1995 hasta su puesta en marcha en 2010 fue de 4.360 millones de euros, de los que casi la mitad se destinó a contra tos con empresas. España obtuvo el 6,5% de esos contratos, es decir, un retorno industrial de 126 millones de euros, estan do en quinto lugar (de 20) entre los países más beneficiados. Muchas empresas españolas han contribuido a la construc ción del LHC en diversas áreas, como ingeniería civil, inge niería mecánica, electrónica y control, imanes, vacío y crio genia, e ingeniería eléctrica. Toda esta información se puede consultar a través del Centro para el Desarrollo Tecnológico Industrial (CDTI). En conclusión, la contribución española al CERN ha tenido un retorno económico sobresaliente y, lo que es más importante, ha impulsado el crecimiento de em presas de alta tecnología, campo no suficientemente maduro en España, y donde un país desarrollado debe competir.
120
CAPÍTULO 8
¿El fin del mundo?
Poco antes de la inauguración del LHC corrió un rumor acerca de los peligros que acarreaba, que hasta podrían lle gar a destruir el planeta. Incluso se han invocado profecías de Nostradamus y de los códices mayas, que supuestamente prevén catástrofes relacionadas con el LHC. Sin ánimo de ridiculizar, lo cierto es que mucha gente se ha preocupado honestamente sobre los peligros de un experimento de tal en vergadura. La preocupación se basa en lo siguiente: ya que en el LHC se van a producir colisiones de partículas a una energía sin precedentes, esto podría producir fenómenos u objetos nuevos capaces de provocar una reacción en cadena de algún tipo que destruyera la Tierra. Los objetos que se han invocado son: agujeros negros, burbujas de un nuevo vacío, monopolos, cuerpos de materia extraña, etc. Lo primero que hay que decir es que las colisiones del LHC no suponen ningún peligro, y que no hay de qué pre ocuparse. Todos los objetos de la lista anterior tienen algo en común: las teorías en que se basan predicen también que no hay nada que temer. Y algo más: si las teorías estuvieran equivocadas, y realmente pudieran suceder catástrofes, haría mucho tiempo que la Tierra y otros objetos del universo ha brían desaparecido, como consecuencia del impacto de rayos cósmicos. Vamos primero a revisar este último argumento 121
general, y luego discutiremos con más profundidad el caso de los agujeros negros, seguramente el más “popular”.
Rayos cósmicos Aunque la energía de las colisiones protón-protón del LHC no se ha conseguido en ningún experimento anterior, los ra yos cósmicos la consiguen todos los días. Los rayos cósmicos son partículas de tipos diversos (incluyendo protones) que pro vienen del espacio exterior y tienen un espectro de energías bien conocido. Aunque la mayor parte de los rayos cósmicos tienen una energía mucho menor que la alcanzable en el LHC, algunos la igualan, o incluso la superan claramente. Concretamente, la superficie de la Tierra recibe 10.000 impactos por segundo tan fuertes o más que los del LHC… y no sucede nada. Es ver dad que en el LHC se producen mil millones de colisiones por segundo. Pero la Tierra lleva existiendo muchos más años que el LHC. Desde su nacimiento, la Tierra ha recibido impactos equivalentes a muchos miles de experimentos LHC completos; y ha sobrevivido. Pero eso no es todo. En el espacio exterior hay muchos otros objetos más grandes que la Tierra que también reciben impactos y ahí siguen, como es el caso del Sol. Y tene mos todas las estrellas de la galaxia, y todas las galaxias del uni verso… Resulta que cada segundo en el universo visible tienen lugar impactos equivalentes a 30 billones de experimentos LHC completos… y no hay ninguna señal de catástrofes, aparte de las explosiones de supernovas y otros fenómenos que se expli can perfectamente en términos de astrofísica convencional. Por tanto, incluso si nuestras teorías están equivocadas, el universo y la propia Tierra nos muestran que no hay nada que temer.
Agujeros negros Vamos a ilustrar los argumentos anteriores con el popular caso de los agujeros negros. Los agujeros negros son una 122
apasionante predicción de la teoría de la relatividad general. Según esta, a partir de una cierta concentración de masa, nada puede detener su colapso gravitacional, por lo que se forma un agujero negro. Cualquier objeto, incluso un rayo de luz, que se acerque a una región suficientemente cercana a un agujero negro (lo que técnicamente se llama traspasar su horizonte) será inexorablemente tragado por el mismo; no ha brá vuelta atrás. Actualmente hay evidencias observacionales de la existencia de agujeros negros con grandes masas: des de varias masas solares hasta millones de ellas (estos últimos situados en el centro de las galaxias). El miedo (infundado) es que en las colisiones del LHC se concentre tanta energía que se cree un agujero negro microscópico, el cual sin embargo empezaría a crecer a costa de la materia que le rodea, y termi naría por engullir el planeta. En primer lugar, desde el punto de vista teórico, es de todo punto improbable que esto suceda. Según la teoría de la relatividad, la energía necesaria para conseguirlo es 1.000 bi llones de veces mayor que la alcanzable en el LHC. Sin em bargo, se ha enfatizado que las modernas teorías con dimen siones extras (discutidas en el capítulo 5) pueden hacer que la gravedad se haga fuerte a energías al alcance del LHC, lo que permitiría la producción de agujeros negros microscópicos. Esto es cierto, y de hecho sería un descubrimiento formidable y excitante, pero no por su peligrosidad. Tal como demostró Hawking, basándose en principios muy generales de teoría cuántica de campos en espacios curvos, los agujeros negros no son en realidad totalmente negros, sino que radian ener gía. Para un agujero negro macroscópico (como los observa dos) la energía radiada es despreciable, pero un agujero negro microscópico se evaporaría en una pequeñísima fracción de segundo. El producto de su evaporación serían partículas con vencionales, observables por los detectores del LHC. Pero ¿y si la teoría de Hawking está equivocada? Las bases de su teoría son muy firmes, pero pongámonos en lo peor: que los aguje ros negros se puedan formar en el LHC (algo improbable) y que además sean estables (contra toda lógica científica). 123
En este caso, como se ha explicado anteriormente, los rayos cósmicos tendrían que haber producido muchos miles de agujeros negros a lo largo de la historia de la Tierra, pero no parece que haya sucedido nada. Se ha contraargumentado que esos agujeros negros tendrían velocidades próximas a las de la luz en la dirección del impacto del rayo cósmico (lo cual sería cierto). Por ello, atravesarían el planeta y se alejarían sin dejar apenas rastro, al contrario de los producidos en el LHC (mucho más lentos), que se quedarían en la Tierra, originan do tal vez una catástrofe. Pero este contraargumento solo es válido para los agujeros negros eléctricamente neutros. Los que poseyeran carga eléctrica (de hecho, la mayoría) no atra vesarían la Tierra, sino que serían capturados por ella rápida mente y tendrían que haber producido la catástrofe que no observamos por ningún sitio, así que el contraargumento no se sostiene. Pero siempre hay un ¿qué pasaría si…? En este caso, ¿qué pasaría si los agujeros negros que se forman fue ran siempre eléctricamente neutros? En ese caso (totalmente inverosímil), ¿podríamos correr peligro? Pues tampoco. Al impactar un rayo cósmico en una estrella enana blanca o una estrella de neutrones, el agujero negro producido —aunque fuera eléctricamente neutro— sería capturado por la misma, por tratarse de un medio mucho más denso que la Tierra. Y no hay señales de que se produzcan catástrofes en las enanas blancas o las estrellas de neutrones. Recordemos que en el es pacio tienen lugar muchas más colisiones energéticas que en el LHC, así que esto nos demuestra que estamos totalmente a salvo; de lo contrario, las enanas blancas estarían desapare ciendo ante nuestros ojos, y todas gozan de buena salud.
Peligros convencionales Como todos los aceleradores de partículas, el LHC gene ra radiación durante su funcionamiento, debido al giro de los protones (radiación sincrotrón) y a las propias colisio nes. Sin embargo, los sistemas de control y protección son 124
extremadamente seguros; para empezar, el propio hecho de que el LHC esté enterrado a gran profundidad. Los estudios demuestran que la radiactividad residual mientras el LHC esté en funcionamiento será insignificante (240 veces menor que la radiactividad natural en el área de Ginebra).
Un desastre verdadero El 10 de septiembre de 2008 se puso por primera vez en fun cionamiento el LHC (aunque la inauguración oficial fue el 21 de octubre). El primer haz de protones circuló con éxito por el gran anillo a una energía de prueba 0,45 TeV (lejos de la definitiva). Todo resultó mejor incluso de lo esperado, pues en un acelerador existen miles de elementos que han de funcionar conjuntamente a la perfección, y esto no es fácil conseguirlo a la primera. Sin embargo, el 19 de septiembre se produjo un grave incidente. Este fue provocado por un fallo en la conexión eléctrica entre dos de los electroimanes, lo que a su vez produjo un daño mecánico y una fuga de helio en el túnel. Todos los sistemas de seguridad funcionaron correcta mente y nadie sufrió riesgos personales. Pero el proyecto tuvo que ser temporalmente suspendido hasta identificar la causa del fallo y realizar los cambios necesarios para que no volvie ra a suceder. Esto llevó tiempo, hay que tener en cuenta que el solo hecho de elevar la temperatura del anillo para poder hacer reparaciones y luego volverlo a enfriar lleva semanas. Entre las modificaciones realizadas mejoró el sistema de pro tección y control de las conexiones eléctricas, por lo que un incidente similar es improbable (de hecho, no se ha vuelto a dar), y en caso de ocurrir, tendría un alcance mucho menor. No hay que olvidar que el LHC es una máquina de tecnología extrema, por lo que incidentes de esta clase son hasta cierto punto normales.
125
APÉNDICE
Nueve años de LHC
Este apéndice, escrito a comienzos de 2019 (nueve años des pués de la puesta en marcha del LHC) tiene por objeto expo ner cuáles han sido los resultados más importantes obtenidos por el LHC en este tiempo: ¿qué se ha descubierto?, ¿qué esperamos para el futuro? Sin embargo, merece la pena dedicar antes unas líneas a valorar cómo ha funcionado la máquina. Cuando se escribió la primera edición de este libro, en 2009, se preveía la puesta en marcha del LHC en septiembre de ese año, como así sucedió. Como medida de prevención para evitar un nuevo accidente, se comenzó con una energía de 7 TeV en las colisiones protónprotón, en vez de los 14 TeV programados, que posteriormente se elevó hasta 8 TeV y finalmente hasta 13 TeV, cercana al valor de diseño. Por otro lado, el número de colisiones de protones por segundo se ha incrementado hasta duplicar el ritmo pro yectado (y lo será mucho más en el futuro). Hay que decir que el rendimiento de la máquina durante estos nueve años ha sido sobresaliente, es decir, ha funciona do por encima de lo previsto en la mayoría de los aspectos técnicos. Esto se ha complementado con una labor de análisis de los datos realmente asombrosa, que ha permitido inves tigar una amplísima variedad de procesos, comparando las predicciones teóricas con la respuesta de la naturaleza. 127
Todo ello ha conducido a resultados de enorme valor, entre los que destaca el histórico descubrimiento del bosón de Higgs, que enseguida comentaremos. Los años 2019 y 2020 el LHC estará en parada técnica, reanudando sus funciones en 2021 a la energía de diseño (14 TeV). En el año 2025 el número de colisiones por segundo se multiplicará por 7, au mentando así la capacidad de descubrimiento de la máquina. Y existen planes (aún no aprobados) de aumentar posterior mente la energía de 14 TeV de forma sustancial. Esto significa que el LHC aún no ha explorado más que una pequeña parte de su potencial de descubrimiento.
¿Qué se ha descubierto? Sin lugar a dudas, el descubrimiento más importante reali zado por el LHC ha sido el del bosón de Higgs, la “partícula maldita” descrita en el capítulo 4. Recordemos que decíamos allí que “un objetivo crucial del LHC era producir y detectar el elusivo bosón de Higgs”. Pues bien, ese hito tuvo lugar el 4 de julio de 2012, fecha en la que se anunció oficialmen te el descubrimiento. Existe un consenso entre los físicos de partículas de que este hallazgo puede considerarse el más im portante de la física de partículas en muchas décadas. Para valorar su importancia, podemos remitirnos al mencionado capítulo 4: sin el bosón de Higgs, todo el edificio del Modelo Estándar se volvería inconsistente, y no entenderíamos el me canismo que da masa a las partículas elementales. Su descu brimiento cierra un capítulo exitoso de la historia de la física y abre uno nuevo, ya que, como explicamos en el capítulo 5, hay misterios extraordinariamente profundos a los que el Modelo Estándar no da respuesta. De hecho, como veremos enseguida, las características que ha resultado tener el bosón de Higgs plantean nuevas y fascinantes cuestiones. Antes de adentrarnos en los detalles del bosón de Higgs, conviene aclarar que, en estos nueve años, el LHC ha rea lizado otros descubrimientos sobresalientes. Por ejemplo, el 128
LHC ha producido e identificado por primera vez partículas compuestas por cuatro quarks. En el capítulo 3 vimos que el protón y el neutrón están compuestos por tres quarks, mien tras que el pión está compuesto por dos quarks (en realidad, un quark y un antiquark). De hecho, todas las partículas compuestas conocidas estaban hechas de tres o dos quarks; pero la cromodinámica cuántica (QCD), o sea, la parte del Modelo Estándar que describe las interacciones fuertes, pre dice la existencia de otros estados compuestos de cuatro y cinco quarks. Y el LHC los ha producido y detectado por pri mera vez. Otra tarea importantísima ha sido la comprobación del Modelo Estándar en un territorio de energías nunca explora do, y a nuevos niveles de precisión. La variedad de procesos observados en el LHC es verdaderamente fabulosa, y todos ellos se producen en la forma y con la frecuencia predicha por el Modelo Estándar. En realidad, este éxito tiene un sabor agridulce, ya que el segundo gran objetivo del LHC, o sea, detectar física más allá del Modelo Estándar, no ha podido ser materializado todavía. Más adelante volveremos sobre esta cuestión.
El bosón de Higgs El descubrimiento del bosón de Higgs ha sido probablemente la noticia de la física de partículas que ha tenido un impacto mayor, no solo entre la comunidad científica, sino también en los medios de comunicación y el público en general. Baste decir que fue noticia de primera plana en prácticamente to dos los periódicos del mundo, a pesar de tratarse de un tema francamente complejo y abstracto. Al año siguiente, François Englert y Peter Higgs fueron galardonados con el premio Nobel de física, 49 años después de haber descrito el me canismo de Higgs (que debería llamarse de Brout-EnglertHiggs) y predicho la existencia del famoso bosón. Es justo mencionar que Robert Brout no pudo ser premiado por haber 129
fallecido en mayo de 2011. Por solo unos meses, este cientí fico belga no pudo presenciar el descubrimiento del bosón de Higgs, es decir, no pudo disfrutar de que la naturaleza “le diera la razón” (un premio mucho mayor que el Nobel). Describamos cómo se llevó a cabo el descubrimiento. Existen varias formas en las que una colisión de proto nes puede dar lugar a un bosón de Higgs. La más frecuente ocurre a partir de la fusión de dos gluones, provenientes, res pectivamente, de cada protón. Esto está ilustrado en la parte izquierda del siguiente diagrama. g g
t
t
γ
H
γ
Notemos que el bosón de Higgs (H) no interactúa di rectamente con los gluones (g). La razón es que, como se explicó en el capítulo 4, la interacción con el Higgs produce masa; por lo que las partículas sin masa en reposo (fotones, gluones y gravitones) no interactúan directamente con él. Sin embargo, los gluones pueden producir una especie de bucle de quarks top-antitop, los cuales sí interactúan con el Higgs (de hecho, son las partículas que lo hacen con mayor fuerza, al ser las más masivas), tal como muestra el diagrama. Una vez producido, el bosón de Higgs se desintegra rá pidamente, tal como predice la teoría. Por esta razón, como dijimos en el capítulo 6, lo que llega a los detectores no es el propio bosón, sino los productos de su desintegración. A par tir de estos, hay que deducir que este realmente se produjo y reconstruir sus características. El bosón de Higgs puede desintegrarse de diversas ma neras. La más probable es en un par de quarks bottom-antibottom, como se ilustró en la figura de la página 107. Sin embargo, existen otros canales de desintegración, menos probables, pero mucho más “limpios”, es decir, mucho más fáciles de identificar en los detectores y con mucho menor 130
ruido de fondo. Uno de esos canales es la desintegración en dos fotones (gg), tal como muestra la parte derecha del dia grama anterior. Notemos que, nuevamente, la interacción del Higgs con los fotones no es directa, por las mismas razones que para los gluones; y tiene lugar a través de un bucle de quarks top-antitop. Así que, lo que se vio inicialmente en el LHC no fue directamente un bosón de Higgs, sino el par de fotones proveniente de su desintegración. Sin embargo, en una colisión protón-protón pueden darse otros procesos, mucho más ordinarios (o sea, sin que se cree un bosón de Higgs), que también den lugar a dos fotones; como los que suceden al fusionarse un quark y un antiquark, tal como ilus tra la siguiente figura: q
g
q
g
¿Cómo distinguir los pares de fotones que realmente provienen de la desintegración de un bosón de Higgs de estos otros que crean un ruido de fondo indeseable? La clave está en que la energía de los fotones provenien tes de un Higgs procede de la propia masa del bosón, que se convierte en energía luminosa. Para ser precisos, esto es exac to visto desde un sistema de referencia que “viajara” con el bosón de Higgs producido, y por tanto viera a este en reposo. En ese sistema de referencia, el centro de gravedad de la pa reja de fotones creada está también en reposo; y la energía de estos, llamada masa invariante de los fotones (mgg) ha de coinci dir siempre con la masa del bosón de Higgs que los engendró. Sin embargo, los pares de fotones producidos por las fusiones quark-antiquark pueden tener cualquier masa invariante (con una probabilidad que también está predicha por el Modelo Estándar). En consecuencia, si recolectamos muchas colisiones en las que se producen un par de fotones, y representamos 131
en una gráfica el número de ellas para cada valor posible de mgg, lo que esperamos es un pico de sucesos en torno al valor de mgg que coincida con la masa del bosón de Higgs. Esto es exactamente lo que vieron, de forma independiente, las cola boraciones ATLAS y CMS en el año 2012, en unas gráficas que forman ya parte de la historia de la física. La siguiente figura reproduce la gráfica original de CMS, donde se ve el pico de sucesos en torno a una masa invariante de 125 GeV. Notemos que la posición del pico en la gráfica nos ofrece el valor de la masa del bosón de Higgs, o sea los mencionados 125 GeV, unas 134 veces la masa del protón. El bosón de Higgs es por tanto la partícula elemental más pesada después del quark top.
Esta gráfica resume la situación en julio de 2012, pero desde entonces la evidencia de que lo que se estaba viendo en ATLAS y CMS era realmente el anhelado bosón de Higgs ha aumentado de forma extraordinaria. En primer lugar, se ha confirmado que el bosón observa do tiene todas las características predichas por la teoría: car ga eléctrica cero, espín cero y paridad intrínseca positiva (un concepto que no podemos discutir en este breve espacio). Estas son, en efecto, las propiedades del vacío (que no está cargado eléctricamente ni tiene una dirección privilegiada), lo que es lógico, ya que el vacío está “lleno” de campo de Higgs. De hecho, el bosón de Higgs es la única partícula elemental que las posee. 132
En segundo lugar, no es solo que se vea un pico de suce sos en torno a 125 GeV: es que ese pico es exactamente (den tro de los errores experimentales) del tamaño que predice el Modelo Estándar. Además, picos análogos se han visto con claridad en otros canales de desintegración completamen te distintos, y que requieren técnicas de análisis diferentes, como la desintegración en cuatro leptones cargados, en dos leptones cargados y dos neutrinos, en la pareja de leptones tau-antitau y en la pareja de quarks bottom-antibottom; y siem pre con abundancias que se ajustan perfectamente a lo predi cho por el Modelo Estándar. Esto nos lleva a un punto muy interesante. En el capítulo 4 dijimos que la masa de las diversas partículas procede de su distinta interacción con el campo de Higgs. Por ello, es peramos que la interacción de las partículas con el bosón de Higgs (que no es más que una excitación de dicho campo) sea exactamente proporcional a la masa de cada una de ellas; y eso es precisamente lo que se ha encontrado hasta ahora, como muestra la siguiente figura:
λ
En el eje horizontal se ha representado la masa de la partícula considerada (leptones m, t, quark b, bosones W y Z, quark t) y en el vertical la fuerza del acoplamiento (letra l). Como se ve, la proporcionalidad es perfecta dentro de los errores experimentales, y abarca varios órdenes de mag nitud. Esta gráfica demuestra, de forma contundente, que el bosón de Higgs está directamente implicado en el concepto 133
fundamental de “masa”, no es una partícula más. Aclaremos que las partículas que no aparecen en la gráfica, como el elec trón, es porque son muy ligeras, y por tanto su interacción con el Higgs ha de ser muy débil, lo que hace muy difícil observarla. Por cierto, estas interacciones del bosón de Higgs con las partículas ordinarias son de un tipo distinto de las inte racciones provenientes de simetrías locales (gravitatoria, elec tromagnética, fuerte y débil). Nadie sabe su origen y su sola existencia, prevista en el Modelo Estándar, supone un hallaz go extraordinario del LHC.
Fecha de caducidad del universo En los capítulos 4 y 5 explicamos que el valor del campo de Higgs en el vacío se debe a la forma peculiar del potencial asociado, es decir, la densidad de energía que almacena el campo de Higgs dependiendo de su valor. Ese potencial tie ne una forma tal que presenta un mínimo para un valor de H distinto de cero. Ahora que conocemos la masa del bosón de Higgs, podemos representar ese potencial de una forma más precisa, y extrapolarlo para valores del campo de Higgs arbitrariamente grandes. El resultado es el que representa es quemáticamente la siguiente figura. En ella vemos, junto al mínimo convencional (“nuestro vacío”), un segundo mínimo mucho más profundo y para un valor de H mucho mayor (la figura no está hecha a escala, es solo ilustrativa). Si tomamos seriamente esta imagen, ese segundo mí nimo sería el verdadero vacío de la teoría, mientras que el nuestro corresponde a un falso vacío. Esto suscita la cuestión: ¿vivimos en un vacío estable o inestable? Notemos que entre los dos mínimos se levanta una ba rrera energética enormemente alta que impide que el cam po de Higgs “ruede” hacia su verdadero mínimo energético. Entonces, ¿nuestro falso vacío es estable, después de todo? No, exactamente. 134
V(H)
H Nuestro vacío Otro vacío
Sabemos por experiencia que, en un campo de golf, una pelota dentro de un hoyo no rodará espontáneamente para caer en un hoyo más profundo situado a un kilómetro. Pero en realidad, según la física cuántica sí hay una probabilidad de que esto suceda, si bien esta es pequeñísima (y calculable usando las propias reglas de la física cuántica). De la misma forma, el campo de Higgs podría saltar en cualquier momen to a su vacío verdadero, lo que se llama una situación metastable. Esto supondría un cataclismo cósmico; por ejemplo, las masas de las partículas crecerían de forma extraordinaria, provocando el desmoronamiento de toda la materia ordinaria (átomos, moléculas, etc.). Sin embargo, los mismos cálculos cuánticos indican que esta catástrofe es extremadamente im probable. La probabilidad de que ocurra durante el tiempo de vida del lector/a (del orden de 100 años) es semejante a la proba bilidad de que si cada año de su vida compra un número de lotería de Navidad (siempre el mismo y solo uno), por puro azar ¡le toque el gordo todos los años! Para que haya una probabilidad importante de que esto ocurra (el cataclismo o la sucesión de gordos) hay que esperar del orden de 10500 años (un uno seguido de 500 ceros). Nadie sabe por qué la naturaleza habría decidido que nuestro universo fuera metastable, es un tema de investiga ción de enorme actualidad. De todas formas, puede que la anterior extrapolación del potencial para valores grandes del campo sea incorrecta. Recordemos que hay indicacio nes fortísimas de que debe haber física más allá del Modelo Estándar, y esa nueva física podría modificar la forma del 135
potencial de Higgs, para valores grandes del mismo, haciendo que nuestro universo fuera perfectamente estable (por cierto, esto es exactamente lo que pasa en el caso de la supersime tría). Mientras no descubramos esa nueva física, no podemos asegurar cuál es la situación auténtica.Y esto nos lleva a nues tro último punto.
¿Qué esperamos para el futuro? El descubrimiento del bosón de Higgs y sus propiedades es tan importante que justificaría por sí solo el proyecto LHC. Pero, por otro lado, el programa máximo de descubrimien tos del gran colisionador abarca otro objetivo trascendental: el descubrimiento de nueva física más allá del Modelo Estándar, incluyendo tal vez la materia oscura. Las abrumadoras razo nes para creer que existe esa nueva física fueron expuestas en el capítulo 5, así como las razones (no tan abrumadoras) para pensar que alguna de esta nueva física puede estar al alcance del LHC. Respecto a este último punto, recordemos que el llamado problema de la jerarquía (también denominado de la naturalidad) requería de nueva física a la escala del TeV, para evitar que el Higgs adquiriera contribuciones gigantescas a su masa. Y, pre cisamente, esa escala es del orden de las energías accesibles al LHC, por lo que la esperanza de descubrirla era grande. Existían diversas propuestas acerca de cuál podría ser la nueva física que curara el problema de la jerarquía: super simetría, dimensiones extras, modelos de Higgs compuesto, etc. Pero lo cierto es que ninguna de esas propuestas ha sido verificada en el LHC. Para ser más exactos, entre los miles de análisis de datos realizados por el LHC, no hay ninguno que muestre una desviación significativa de las predicciones del Modelo Estándar. A veces se dice (en medios periodísticos) que el LHC “ha fallado” en su tarea de encontrar nueva física, aunque desde luego esta afirmación es injusta. El LHC habría fallado si no hubiera podido explorar la existencia de nueva física en 136
la forma prevista. Pero en ese sentido, el LHC ha cumplido con creces. De hecho, se han podido poner a prueba (y des cartar) muchos modelos que parecían muy difíciles de tes tar en el LHC, gracias a nuevas e ingeniosas estrategias para analizar la ingente cantidad de datos. Lo que ha fallado es la optimista expectativa de que el LHC encontraría nueva física rápidamente, y que eso supondría una revolución aún mayor que el descubrimiento del bosón de Higgs. La nueva física no ha aparecido (aún), y esto ha producido un debate en el seno de la comunidad de física de partículas. El debate se puede resumir en las siguientes cuestiones: ¿nos está diciendo el LHC que el problema de la jerarquía, tal como lo habíamos concebido, estaba mal planteado? ¿O tal vez el problema tiene una solución que no implica la existen cia de nueva física a escalas del TeV? Por otro lado, ¿es quizá demasiado pronto para llegar a estas conclusiones? ¿Podría ser incluso (si tenemos mala suerte) que el LHC, a pesar de sus récords de energía, no tenga la potencia suficiente para acceder a esa nueva física, aunque esta esté “a la vuelta de la esquina”? Ahora mismo, dentro de la comunidad hay posturas para todos los gustos. Pienso, no obstante, que habría un consenso bastante general acerca de los siguientes puntos. Con el descubrimiento del bosón de Higgs y la determi nación de sus características, el programa máximo de descu brimientos del LHC está cumplido, al menos al 50%. Sin em bargo, queda la tarea de determinar todas las propiedades del bosón de Higgs (lo que se ha hecho solo de forma parcial). Esto es crucial en sí mismo y porque cualquier desviación podría dar una pista de nueva física. Los modelos más sencillos de física más allá del Modelo Estándar, que pretendían resolver el problema de la jerarquía (supersimetría, dimensiones extras, modelos compuestos, etc.) están siendo sometidos a presión por el LHC. Esto sig nifica que grandes regiones de su espacio de parámetros han sido ya excluidas por el LHC, aunque sobreviven regiones que aún no han sido exploradas. Algo parecido puede decirse de muchos modelos de materia oscura. 137
Este es el caso de la supersimetría (la teoría de nueva física más estudiada en los últimos tiempos). Por otro lado, la supersimetría (en su formulación más sencilla y natural) se apuntó un tanto al predecir que el bosón de Higgs debía tener una masa por debajo de 135 GeV (el valor real es 125 GeV). A pesar de que escenarios como la supersimetría no es tán descartados, la falta de resultados en el LHC que dis crepen de las predicciones del Modelo Estándar (y que, por tanto, fueran una señal de nueva física) ha motivado que una parte de la comunidad científica explore otras posibilidades. Una de ellas es “repensar” el problema de la jerarquía. Tal vez, a pesar de nuestro conocimiento de las teorías de campos, hay cosas que se nos escapan y que no interpreta mos bien, de la misma forma que a finales del siglo XIX, los físicos creían que el éter era necesario para explicar las ondas luminosas, y que sería descubierto (Einstein nos enseñó que no hacía falta ningún éter). Otra actitud es buscar nuevas soluciones al problema de la jerarquía que no requieran nueva física a la escala del TeV, lo que explicaría que no hubieran sido detectadas en el LHC (aunque tal vez podrían serlo en observaciones cosmológicas). En cualquier caso, no sabemos aún cuál es “la decisión de la naturaleza” sobre el problema de la jerarquía. Ahora mismo todas las posibilidades están abiertas. Por ello, lo más saludable es no dar nada por sentado y seguir investigando en todos los frentes, y por supuesto seguir explorando la exis tencia de nueva física en el LHC, que en cualquier momento podría darnos una buena noticia. Pero incluso si no nos la da, los resultados del LHC serán claves para redirigir la in vestigación de forma realista. Sin resultados experimentales, corroboren o no nuestras teorías, no se puede avanzar. Por estos motivos, existen proyectos, aún no aproba dos, de construir un acelerador de aún mayor potencia que el LHC. Sería un anillo de 100 km de perímetro situado en Ginebra (cerca del LHC) o tal vez en China, y en el que los protones chocarían con energías de 100 TeV (en compa ración con los 14 TeV del LHC). El objetivo, lógicamente, 138
es explorar regiones de energías inaccesibles para el LHC y donde podría encontrarse la nueva física; o profundizar en sus características si esta es descubierta antes por el LHC. Para finalizar, merece la pena recordar que las grandes preguntas acerca de la naturaleza siguen ahí, sin ser contesta das: ¿qué son la materia oscura y la energía oscura? ¿Por qué hay tres familias de partículas y por qué tienen las masas que tienen? ¿Cuál es la teoría que hace que la gravedad sea con sistente con la física cuántica? Estas son algunas de las cues tiones que inspiran a la comunidad científica, y a todas las personas curiosas, para persistir en la empresa de entender la naturaleza, hasta sus entresijos más íntimos y profundos; lo cual significa también entender quiénes somos realmente y qué lugar ocupamos en el universo. Creemos que mientras la humanidad mantenga esa curiosidad y fascinación por lo desconocido, seguirá explorando la terra incognita, como lo han hecho gentes inquietas de todas las épocas.
139
Bibliografía
Amaldi, U. (1999): “Spin-offs of High-Energy Physics to Society”, disponible en https://www.researchgate.net/publi cation/265869070_Spin-offs_of_High_Energy_Physics_ to_Society Bell, J. S. (1991): Lo decible y lo indecible en Mecánica Cuántica, Alianza, Madrid. Ellis, J. et al. (2008): “Review of the Safety of LHC Collisions”, en http://lsag.web.cern.ch/lsag/LSAG-Report.pdf Feynman, R. (2006): El placer de descubrir, Crítica, Barcelona. — (s. f.): Física II, Addison-Wesley, Boston. Gell-Mann, M. (1995): El quark y el jaguar, Tusquets, Bar celona. Giddings, S. B. y Mangano, M. L. (2008): “Astrophysical implications of hypothetical stable TeV-scale black holes”, disponible en https://arxiv.org/pdf/0806.3381.pdf Greene, B. (2001): El universo elegante, Crítica, Barcelona. Llewellyn Smith, C. H. (s. f.): “The Use of Basic Science”, disponible en https://www-zeuthen.desy.de/~jknapp/JK/Rea ding_files/basic_science.html Página de divulgación de Fermilab: disponible en http://www. fnal.gov/pub/inquiring/ Página de divulgación de SLAC: disponible en http://www2. slac.stanford.edu/vvc/theory/model.html 141
Página de divulgación del CERN: disponible en http://public. web.cern.ch/public/en/Science/Science-en.html Página de divulgación del CERN: disponible en http://public. web.cern.ch/public/en/About/Fundamental-en.html Página de divulgación del detector ATLAS: disponible en http:// atlasexperiment.org/what_is_atlas.html#4 Página de divulgación del LHC: disponible en http:// lhc-ma chine-outreach.web.cern. ch/lhc-machine-outreach/ Página interactiva sobre la física de partículas: disponible en http://particleadventure.org/spanish/index.html Páginas de divulgación del CERN, Fermilab y SLAC. Pais, A. (2005): Subtle is the Lord, Oxford University Press, Oxford. Penrose, R. (1991): La nueva mente del emperador, Mondadori, Madrid. Ramond, P. (2003): Journeys beyond the Standard Model, Westview Press, Colorado. Randall, L. (2005): Warped Passages, Harpercollins, Nueva York. Serrano, M. y Dorado, P. (2009): “Spanish Industrial In volvement in Accelerators”, disponible en https://www.fpa. csic.es/doc/GDE/Manuel%20Serrano%20-%20Spanish%20 Industrial%20Involvement%20in%20Accelerators.ppt Simulaciones animadas del funcionamiento de ATLAS: dispo nible en http://atlas experiment.org/multimedia/index_ani mation.html Smith, J. H. (2008): Introducción a la Relatividad Especial, Reverté, s. l. Weinberg, S. (2002): Plantar cara: la ciencia y sus adversarios culturales, Paidós, Buenos Aires. — (2003): El sueño de una Teoría Final, Crítica, Barcelona.
142
49. Las moléculas: cuando la luz te ayuda a vibrar. José Vicente García Ramos
50. Las células madre. Karel H. M. van Wely 51. Los metales en la Antigüedad. Ignacio Montero 52. El caballito de mar. Miquel Planas Oliver 53. La locura. Rafael Huertas 54. Las proteínas de los alimentos. Rosina López Fandiño 55. Los neutrinos. Sergio Pastor Carpi 56. Cómo funcionan nuestras gafas. Sergio Barbero Briones 57. El grafeno. Rosa Menéndez y Clara Blanco 58. Los agujeros negros. José Luis Fernández Barbón 59. Terapia génica. Blanca Laffon, Vanessa Valdiglesias y Eduardo Pásaro 60. Las hormonas. Ana Aranda 61. La mirada de Medusa. Francisco Pelayo 62. Robots. Elena García Armada 63. El Parkinson. Carmen Gil y Ana Martínez 64. Mecánica cuántica. Salvador Miret Artés 65. Los primeros homininos. Paleontología humana. Antonio Rosas 66. Las matemáticas de los cristales. Manuel de León y Ágata Timón 67. Del electrón al chip. Gloria Huertas, Luisa Huertas y José L. Huertas 68. La enfermedad celíaca. Yolanda Sanz, María del Carmen Cénit y Marta Olivares
69. La criptografía. Luis Hernández Encinas 70. La demencia. Jesús Ávila 71. Las enzimas. Francisco J. Plou 72. Las proteínas dúctiles. Inmaculada Yruela Guerrero 73. Las encuestas de opinión. Joan Font Fàbregas y Sara Pasadas del Amo 74. La alquimia. Joaquín Pérez Pariente 75. La epigenética. Carlos Romá Mateo 76. El chocolate. María Ángeles Martín Arribas 77. La evolución del género ‘Homo’. Antonio Rosas 78. Neuromatemáticas. El lenguaje eléctrico del cerebro. José María Almira y Moisés Aguilar-Domingo 79. La microbiota intestinal. Carmen Peláez y Teresa Requena 80. El olfato. Laura López-Mascaraque y José Ramón Alonso 81. Las algas que comemos. Elena Ibáñez y Miguel Herrero 82. Los riesgos de la nanotecnología. Marta Bermejo Bermejo y Pedro A. Serena Domingo 83. Los desiertos y la desertificación. J. M. Valderrama 84. Matemáticas y ajedrez. Razvan Iagar 85. Los alucinógenos. José Antonio López Sáez 86. Las malas hierbas. César Fernández-Quintanilla y José Luis González Andújar 87. Inteligencia artificial. Ramon López de Mántaras Badia y Pedro Meseguer González 88. Las matemáticas de la luz. Manuel de León y Ágata Timón 89. Cultivos transgénicos. José Pío Beltrán 90. El Antropoceno. Valentí Rull 91. La gravedad. Carlos Barceló Serón 92. Cómo se fabrica un medicamento. María del Carmen Fernández Alonso y Nuria E. Campillo Martín 93. Los falsos mitos de la alimentación. Miguel Herrero 94. El ruido. Pedro Cobo Parra y María Cuesta Ruiz 95. La locomoción. Adrià Casinos 96. Antimateria. Beatriz Gato Rivera 97. Las geometrías y otras revoluciones. Marina Logares 98. Enanas marrones. María Cruz Gálvez Ortiz 99. Las tierras raras. Ricardo Prego Reboredo
¿de qué sirve la ciencia si no hay entendimiento?
100_ElLHCylafronteradelafísica.indd 1
¿QUÉ SABEMOS DE?
El LHC y la frontera de la física
Diez años después de la primera edición de este libro, Alberto Casas actualiza y amplía este viaje fascinante por la ciencia básica y por la física fundamental. Realiza un sugerente recorrido por la historia de las ideas más importantes en las que se basa nuestra comprensión actual de la naturaleza y expone las preguntas aún sin respuesta, hasta llegar a la frontera actual de la física y lo que puede haber más allá de la misma. ¿Qué es y para qué sirve el LHC? ¿Entraña algún peligro para el planeta? “Con mano firme, y excelente prosa, el autor les conduce, a través de una exposición magistral, por los logros de la física moderna: la teoría de la relatividad, la mecánica cuántica, la física de partículas, la cosmología moderna. Con sus luces y sus sombras. Descubrirán los interrogantes que obsesionan y fascinan a miles de científicos en la búsqueda de las leyes que rigen el funcionamiento del universo, y por qué el LHC es un eslabón fundamental para encontrar respuestas a preguntas que ponen en cuestión nuestra propia existencia [… el libro] es una miniatura maestra”. Luis Álvarez-Gaumé, director de la División Teórica del CERN
¿QUÉ SABEMOS DE? EL LHC Y LA FRONTERA DE LA FÍSICA
y Ágata Timón
Alberto Casas
48. Rompiendo códigos. Vida y legado de Turing. Manuel de León
El LHC y la frontera de la física El camino a la teoría del todo Alberto Casas
edi A M P L ción ACTUA IADA Y LIZADA
¿ QUÉ SABEMOS DE?
1. El LHC y la frontera de la física. Alberto Casas 2. El Alzheimer. Ana Martínez 3. Las matemáticas del sistema solar. Manuel de León, Juan Carlos Marrero y David Martín de Diego
4. El jardín de las galaxias. Mariano Moles 5. Las plantas que comemos. Pere Puigdomènech 6. Cómo protegernos de los peligros de Internet. Gonzalo Álvarez Marañón
7. El calamar gigante. Ángel Guerra Sierra y Ángel F. González González 8. Las matemáticas y la física del caos. Manuel de León y Miguel Á. F. Sanjuán
9. Los neandertales. Antonio Rosas 10. Titán. Luisa M. Lara 11. La nanotecnología. Pedro A. Serena Domingo 12. Las migraciones de España a Iberoamérica desde la Independencia. Consuelo Naranjo Orovio 13. El lado oscuro del universo. Alberto Casas 14. Cómo se comunican las neuronas. Juan Lerma 15. Los números. Javier Cilleruelo y Antonio Córdoba 16. Agroecología y producción ecológica. Antonio Bello, Concepción Jordá y Julio César Tello
17. La presunta autoridad de los diccionarios. Javier López Facal 18. El dolor. Pilar Goya Laza y Mª Isabel Martín Fontelles 19. Los microbios que comemos. Alfonso V. Carrascosa 20. El vino. Mª Victoria Moreno-Arribas 21. Plasma: el cuarto estado de la materia. Teresa de los Arcos e Isabel Tanarro
22. Los hongos. M. Teresa Tellería 23. Los volcanes. Joan Martí Molist 24. El cáncer y los cromosomas. Karel H. M. van Wely 25. El síndrome de Down. Salvador Martínez Pérez 26. La química verde. José Manuel López Nieto 27. Princesas, abejas y matemáticas. David Martín de Diego 28. Los avances de la química. Bernardo Herradón García 29. Exoplanetas. Álvaro Giménez 30. La sordera. Isabel Varela Nieto y Luis Lassaletta Atienza 31. Cometas y asteroides. Pedro José Gutiérrez Buenestado 32. Incendios forestales. Juli G. Pausas 33. Paladear con el cerebro. Francisco Javier Cudeiro Mazaira 34. Meteoritos. Josep Maria Trigo Rodríguez 35. Parasitismo. Juan José Soler 36. El bosón de Higgs. Alberto Casas y Teresa Rodrigo 37. Exploración planetaria. Rafael Rodrigo 38. La geometría del universo. Manuel de León 39. La metamorfosis de los insectos. Xavier Bellés 40. La vida al límite. Carlos Pedrós-Alió 41. El significado de innovar. Elena Castro Martínez
Alberto Casas es doctor en Física Teórica y profesor de Investigación del CSIC en el Instituto de Física Teórica (CSIC-UAM). Sus áreas de investigación son la física de partículas elementales y la cosmología.
e Ignacio Fernández de Lucio
42. Los números trascendentes. Javier Fresán y Juanjo Rué 43. Extraterrestres. Javier Gómez-Elvira y Daniel Martín Mayorga 44. La vida en el universo. F. Javier Martín-Torres y Juan Francisco Buenestado
ISBN: 978-84-00-10464-1
100
45. La cultura escrita. José Manuel Prieto 46. Biomateriales. María Vallet Regí 47. La caza como recurso renovable y la conservación de la naturaleza. Jorge Cassinello Roldán
25/2/19 12:00