Los agujeros negros [1 ed.] 8400098889, 9788400098889

Motivo de fascinación para los aficionados a la ciencia-ficción y los astrofísicos, los agujeros negros se podrían descr

115 7 6MB

Spanish Pages 128 [130] Year 2014

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Índice
Prólogo
Newton al límite
Espacio-tiempo
Sin salida
Un zoo de agujeros negros
¿Dónde están?
Cuestiones de fundamentos
Cabellera cuántica
Epílogo
Bibliografía
Recommend Papers

Los agujeros negros [1 ed.]
 8400098889, 9788400098889

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

58_Losagujerosnegros:58_Losagujerosnegros 3/11/14 09:20 Página 1

y David Martín de Diego

4. 5. 6. 7. 8.

El jardín de las galaxias. Mariano Moles Las plantas que comemos. Pere Puigdomènech Cómo protegernos de los peligros de Internet. Gonzalo Álvarez Marañón El calamar gigante. Ángel Guerra Sierra y Ángel F. González González Las matemáticas y la física del caos. Manuel de León y Miguel Á. F.

9. 10. 11. 12.

Los neandertales. Antonio Rosas Titán. Luisa M. Lara La nanotecnología. Pedro A. Serena Domingo Las migraciones de España a Iberoamérica desde la Independencia.

Sanjuán

Consuelo Naranjo Orovio

13. 14. 15. 16.

El lado oscuro del universo. Alberto Casas Cómo se comunican las neuronas. Juan Lerma Los números. Javier Cilleruelo y Antonio Córdoba Agroecología y producción ecológica. Antonio Bello, Concepción Jordá y Julio César Tello

17. 18. 19. 20. 21.

La presunta autoridad de los diccionarios. Javier López Facal El dolor. Pilar Goya Laza y Mª Isabel Martín Fontelles Los microbios que comemos. Alfonso V. Carrascosa El vino. Mª Victoria Moreno-Arribas Plasma: el cuarto estado de la materia. Teresa de los Arcos e Isabel Tanarro

22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41.

Los hongos. M. Teresa Telleria Los volcanes. Joan Martí Molist El cáncer y los cromosomas. Karel H.M. van Wely El síndrome de Down. Salvador Martínez Pérez La química verde. José Manuel López Nieto Princesas, abejas y matemáticas. David Martín de Diego Los avances de la química. Bernardo Herradón García Exoplanetas. Álvaro Giménez La sordera. Isabel Varela Nieto y Luis Lassaletta Atienza Cometas y asteroides. Pedro José Gutiérrez Buenestado Incendios forestales. Juli G. Pausas Paladear con el cerebro. Francisco Javier Cudeiro Mazaira Meteoritos. Josep Maria Trigo Rodríguez Parasitismo. Juan José Soler El bosón de Higgs. Alberto Casas y Teresa Rodrigo Exploración planetaria. Rafael Rodrigo La geometría del universo. Manuel de León La metamorfosis de los insectos. Xavier Bellés La vida al límite. Carlos Pedrós-Alló El significado de innovar. Elena Castro Martínez e Ignacio Fernández

Los agujeros negros

Motivo de fascinación tanto para frikis aficionados a la ciencia-ficción como para los más sesudos astrofísicos, los agujeros negros se podrían describir como las cicatrices del espacio-tiempo que dejan las colosales explosiones supernova. Algunos son monstruosamente grandes y permanecen ocultos en el centro de las galaxias como testigos de una juventud violenta del universo, pero todos albergan la clave para resolver el rompecabezas maestro de la física fundamental: la formulación del espacio-tiempo cuántico. Este libro explica con rigor y sencillez los conceptos necesarios para comprender qué son los agujeros negros, qué papel desempeñan en la vida de las galaxias y por qué, hoy por hoy, representan las auténticas piedras filosofales de los fundamentos de la física.

¿QUÉ SABEMOS DE? LOS AGUJEROS NEGROS

1. El LHC y la frontera de la física. Alberto Casas 2. El Alzheimer. Ana Martínez 3. Las matemáticas del sistema solar. Manuel de León, Juan Carlos Marrero

¿QUÉ SABEMOS DE?

José Luis Fernández Barbón

¿QUÉ SABEMOS DE?

Los agujeros negros José Luis Fernández Barbón

José Luis Fernández Barbón es doctor en física teórica por la Universidad Autónoma de Madrid y trabaja como investigador científico del Instituto de Física Teórica CSIC/UAM. Ha trabajado como investigador en la Universidad de Princeton, la Universidad de Utrecht y la Universidad de Santiago de Compostela y ha sido investigador de plantilla de la división de física teórica del CERN.

de Lucio

42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57.

Los números trascendentes. Javier Fresán y Juanjo Rué Extraterrestres. Javier Gómez-Elvira y Daniel Martín Mayorga La vida en el universo. F. Javier Martín-Torres y Juan Francisco Buenestado La cultura escrita. José Manuel Prieto Biomateriales. María Vallet Regí La caza como recurso renovable y la conservación de la naturaleza. Jorge Cassinello Roldán Rompiendo códigos. Vida y legado de Turing. Manuel de León y Ágata Timón Las moléculas: cuando la luz te ayuda a vibrar. José Vicente García Ramos Las células madre. Karel H.M. van Wely Los metales en la Antigüedad. Ignacio Montero El caballito de mar. Miquel Planas Oliver La locura. Rafael Huertas Las proteínas de los alimentos. Rosina López Fandiño Los neutrinos. Sergio Pastor Carpi Cómo funcionan nuestras gafas. Sergio Barbero Briones El grafeno. Rosa Menéndez y Clara Blanco

ISBN: 978-84-00-09888-9

58 ¿de qué sirve la ciencia si no hay entendimiento?

58_Losagujerosnegros:58_Losagujerosnegros 3/11/14 09:20 Página 1

ISBN: 978-84-00-09888-9

Los agujeros negros

José Luis Fernández Barbón

Colección ¿Qué sabemos de? COMITÉ EDITORIAL

CONSEJO ASESOR

Pilar Tigeras Sánchez, Directora Pía Paraja García, Secretaria Carlos Duarte Quesada Beatriz Hernández Arcediano Rafael Martínez Cáceres Alfonso Navas Sánchez José Manuel Prieto Bernabé Miguel Ángel Puig-Samper Mulero Javier Senén García

Matilde Barón Ayala José Borrell Andrés Elena Castro Martínez Miguel Delibes de Castro José Elguero Bertolini Bernardo Herradón García Pilar Herrero Fernández Manuel de León Rodríguez Eulalia Pérez Sedeño Amparo Querol Simón

Catálogo general de publicaciones oficiales http://publicacionesoficiales.boe.es

Diseño gráfico de cubierta: Carlos Del Giudice Fotografía de cubierta: Agujero negro © iStock/ Thinkstock © José Luis Fernández Barbón, 2014 © CSIC, 2014 © Los Libros de la Catarata, 2014 Fuencarral, 70 28004 Madrid Tel. 91 532 05 04 Fax. 91 532 43 34 www.catarata.org isbn (csic):

978-84-00-09888-9 978-84-00-09889-6 isbn (catarata): 978-84-8319-960-2 nipo: 723-14-162-9 enipo: 723-14-161-3 depósito legal: M-30.563-2014 ibic: PDZ/PHVB eisbn (csic):

este libro ha sido editado para ser distribuido. la intención de los editores es que sea utilizado lo más ampliamente posible, que sean adquiridos originales para permitir la edición de otros nuevos y que, de reproducir partes, se haga constar el título y la autoría.

Índice

PRÓLOGO 5 CAPÍTULO 1. Newton al límite 11 CAPÍTULO 2. Espacio-tiempo 22 CAPÍTULO 3. Sin salida 44 CAPÍTULO 4. Un zoo de agujeros negros 57 CAPÍTULO 5. ¿Dónde están? 74 CAPÍTULO 6. Cuestiones de fundamentos 94 CAPÍTULO 7. Cabellera cuántica 103 EPÍLOGO 117 BIBLIOGRAFÍA 125

Prólogo

El físico norteamericano John Archibald Wheeler acuñó en 1967 el término “agujero negro” para referirse a una de las consecuencias más exóticas de las teorías de Einstein: una región del espacio que se comporta como una puerta giratoria de un solo sentido. Cualquier objeto que quepa por la puerta puede entrar en el interior del agujero negro, pero nada, ni siquiera la luz, puede salir. Prácticamente al mismo tiempo comenzaban su andadura por las pantallas de televisión el capitán James T. Kirk y su inseparable álter ego, el señor Spock, que conducían la nave estelar Enterprise en su exploración de la frontera del universo conocido. Lo interesante de esta coincidencia es que los guionistas de la serie Star Trek confrontan a los tripulantes de la Enterprise con lo que llaman una “estrella negra”, usando una terminología arcaica que estaba llamada a desaparecer en favor del mucho más sugestivo término acuñado por Wheeler. Sin duda, el físico les ganó por la mano a los guionistas de ciencia-ficción en su propio terreno. No en vano, los agujeros

5

negros retornan como estrellas invitadas a la serie en múltiples ocasiones, pero ya nunca se llamarán estrellas negras. Gracias a la ciencia-ficción, los agujeros negros forman parte de la cultura popular. Todos estamos familiarizados con esa imagen del abismo cósmico en el que las naves espaciales pueden encontrar su dramático final, acompañado de toda suerte de situaciones paradójicas en el comportamiento del espacio y el tiempo. En esto, los modernos agujeros negros no son tan diferentes de los torbellinos marinos que abundaban en las historias de navegación del siglo XIX y anteriores. Hasta el formidable Nautilus de Verne sucumbió al Maëlstrom frente a las costas de Noruega. En la ciencia-ficción posmoderna los agujeros negros o sus numerosas variantes de manipulación del espacio-tiempo son utilizados en auténticas “redes de metro” galácticas y de­­ sempeñan un papel menos protagonista, asumido tácitamente como parte del paisaje de accesorios tecnológicos de la trama. Como veremos, los agujeros negros que existen realmente ahí fuera, que propician los fenómenos más violentos del universo desde el Big Bang, se parecen más a los abismos marinos del siglo XIX que a los AVE galácticos, pero esto no resta un ápice de la eterna fascinación que ejercen sobre los físicos, que en las últimas décadas han descubierto en ellos auténticas piedras filosofales de los fundamentos de la física. Nuestro propósito en este libro es levantar algunos de los velos de misterio que envuelven a los agujeros negros y dejar a la vista, siquiera levemente, los problemas de fundamentos que los rodean. La historia de los agujeros negros en el ámbito de la ciencia es interesante en sí misma. A finales de los años sesenta, mientras Wheeler consuma el bautizo moderno, los agujeros negros no dejaban de ser unos objetos exóticos estudiados por un pequeño grupo de especialistas en la teoría de la

6

relatividad. El propio Einstein había mostrado una considerable indiferencia hacia la mera posibilidad de su existencia. Pero después la historia ha sido muy distinta. El descubrimiento de fenómenos astrofísicos de muy alta energía, como los quásares y los púlsares, ha colocado los objetos con campos gravitacionales extremos en el centro de atención de los astrónomos. Durante las décadas de 1960 y 1980, los agujeros negros pasaron del exotismo a la aceptación coti­­ diana en la mente de los astrofísicos de manera gradual. Fi­­ nal­­ mente, los progresos en instrumentación astronómica permitieron asomarse al mismo centro de las grandes gala­­ xias, como nuestra propia Vía Láctea, y proporcionar evi­­ dencia de la existencia de agujeros negros gigantes con masas equivalentes a miles de millones de soles. El papel de estos monstruos en la vida de las galaxias, desde su nacimiento hasta su madurez, es una de las áreas de trabajo más activas en la astrofísica contemporánea. En el terreno teórico, el trabajo de una nueva generación de físicos matemáticos, con los británicos Roger Penrose y Stephen Hawking a la cabeza, destapa un campo de riqueza insospechada que culminó en el gran descubrimiento de Hawking en 1975: el fenómeno de la evaporación cuántica de los agujeros negros. El propio Hawking se dio cuenta muy pronto de que este resultado encierra una paradoja que atenta contra los mismos fundamentos de la física, entendidos estos como los principios básicos de la relatividad y la mecánica cuántica. Durante las dos últimas décadas, la discusión de esta paradoja y su relación con la teoría de cuerdas ha dado lugar a una nueva idea que promete alterar la armonía de los principios básicos, sustituyéndolos por otra estructura que hasta ahora solo vislumbramos de forma parcial. Esta nueva hipótesis revolucionaria, asociada a los nombres de Gerard ’t

7

Hooft y Leonard Susskind, se conoce como el “principio holográfico” y marcará el final de nuestro recorrido. Hoy en día existen comunidades enteras de científicos dedicados al estudio de los agujeros negros, tanto en el ámbito de la astrofísica como en el de los fundamentos de la física. Se han vuelto, al fin, objetos de una familiaridad engañosa. Una especie de monstruos sutiles que esconden, detrás de su carácter extremo, la llave para descifrar los principios básicos de la física. A lo largo de estas páginas trazaremos una panorámica en diagonal de este vasto campo de investigación, enfatizando los conceptos fundamentales a costa de gran parte del detalle. En un intento de satisfacer a los lectores más avanzados, hemos incluido una sección final en la mayoría de los capítulos con comentarios de carácter más técnico. Estas secciones, tituladas “Lo que sabemos” y “Lo que ignoramos”, constan de un conjunto de “píldoras informativas” sobre la frontera de la investigación en temas concretos. Aunque el papel central de los agujeros negros en la astrofísica de alta energía requiere uno o varios libros por separado, aquí nos contentaremos con unos cuantos apuntes cualitativos sobre los problemas planteados en ese apasionante campo, dejando su desarrollo para una pluma más experta. Los agujeros negros proporcionan el ejemplo más puro de un sistema físico dominado por la interacción gravitatoria, la fuerza de la naturaleza que gobierna el mundo a grandes distancias, la primera estudiada por la ciencia pero también la más misteriosa. Todos los físicos coinciden en que la próxima revolución de la física fundamental tendrá como epicentro la comprensión profunda de la fuerza gravitatoria. Hoy por hoy, los agujeros negros son el mejor laboratorio teórico del que disponemos para contrastar nuestras ideas especulativas.

8

Pero toda gran epopeya tiene unos comienzos modestos. Con frecuencia podemos echar la vista atrás y rastrear en las viejas teorías de nuestros ancestros los gérmenes de las nuevas ideas. Hemos decidido empezar así nuestro relato, remontándonos a unos ilustrados particularmente imaginativos…

9

CAPÍTULO 1

Newton al límite

Antes de la inspirada declaración de Wheeler, los agujeros negros fueron conocidos durante buena parte del siglo XX como “estrellas congeladas”, un nombre ciertamente cho­­ cante cuya justificación quedará clara después. Pero los agujeros negros tuvieron su prehistoria mucho antes de la teoría de la relatividad. Entonces se conocían como “estrellas negras” y eran una mera curiosidad en los márgenes de la as­­tronomía seria.

Luz pesada Como ocurre a menudo, en el principio hubo un pionero accidental. El inglés John Michell, geólogo de profesión y conocido por haber iniciado el estudio científico de los terremotos, estaba dotado de una inquietud intelectual manifiesta. Como muestra podemos decir que el famoso experimento de la balanza de torsión que lleva el nombre de Cavendish, y que aparece en los libros de texto como una forma de medir la

11

constante de gravitación universal, fue en realidad ideado por su mentor, que no era otro que John Michell. En 1783 especuló sobre la posible existencia de estrellas cuyo campo gravitacional podría ser tan intenso como para frenar a la propia luz, hasta el punto de hacerla caer de vuelta, como si se tratara de una piedra ordinaria. Estrellas de esta clase se verían negras desde una gran distancia, pues la mayor parte de la luz emitida regresaría después de un “vuelo” limitado. Un poco más tarde, en 1796, y de forma presumiblemente independiente, el famoso físico-matemático de la ilustración francesa, Pierre Simon, marqués de Laplace, calculó las propiedades básicas de una hipotética estrella negra según la teoría de la gravitación de Newton. Tal vez el muy prestigioso Laplace acabara considerando a las estrellas negras como una mera especulación de aficionado porque, después de incluir los cálculos en un apéndice a su famoso libro sobre mecánica celeste, terminó por eliminarlo en las ediciones revisadas de su obra magna. La “especulación de aficionado” no es muy difícil de entender. Al igual que el campo gravitacional de la Tierra es capaz de hacer caer cualquier objeto que una persona puede lanzar en vertical, tal como una piedra, un balón de fútbol o una flecha, cabe preguntarse si lo mismo podría ocurrirle a la luz si la fuerza gravitacional fuera suficientemente intensa. Parecería que la respuesta es negativa, pues la luz de un láser proyectada hacia el cielo no da muestra alguna de frenarse a simple vista. La luz parece extraordinariamente liviana y, sin embargo, como cualquier otra cosa dotada de energía, cae de forma ligera por su propio peso. Una forma de interpretar esto en lenguaje moderno es recordar la fórmula más famosa de la física: E=mc2. Esta ecuación, deducida por Einstein en 1905, asigna una masa efectiva a cualquier cosa con energía, con un

12

factor de proporcionalidad dado por el cuadrado de la velocidad de la luz en el vacío, que tiene un valor aproximado de c = 300.000 km/s. A lo largo de este libro, la letra c en las ecuaciones siempre denotará el valor de la velocidad de la luz en el vacío. Esto, claro está, no lo sabía Michell, ni tampoco Laplace, pero asignar una pequeña masa a la luz era una suposición muy natural para un seguidor de Newton en el siglo XVIII, dado que el gran genio inglés había postulado que la luz consistía en una corriente de partículas, ligeras, sí, pero partículas al fin y al cabo, obligadas a satisfacer las leyes universales de la mecánica newtoniana. Si imaginamos una bala de cañón lanzada en vertical desde la superficie de la Tierra, podemos, en efecto, suponer que terminará por caer, ya que cada segundo que pasa su velocidad decrece unos 10 m/s. Por otra parte, esta deceleración es proporcional a la fuerza gravitacional, que a su vez es cada vez más pequeña cuanto más nos alejamos de la Tierra (de acuerdo con la ley de gravitación universal, la fuerza disminuye como el cuadrado de la distancia). Por tanto, si el proyectil ha alcanzado una cierta altura, a partir de ahí le cuesta menos seguir subiendo, porque el campo gravitacional es menos intenso. Esto sugiere que podría existir una velocidad mínima, por encima de la cual el proyectil ya nunca caería, y, en una situación ideal, seguiría por siempre perdiendo velocidad sin llegar a pararse nunca. Los cálculos en la teoría de Newton demuestran que esa velocidad mínima, en efecto, existe. Se denomina velocidad de escape y para la superficie de la Tierra es de unos 11 km/s. Un proyectil lanzado con esta velocidad nunca volvería a caer. Lo interesante es que la velocidad de escape es independiente de la masa de la bala, o en general de la masa del objeto que

13

lanzamos. Solo depende de la masa responsable del campo gravitacional (en nuestro ejemplo, la masa de la Tierra) y de la posición de salida (en nuestro ejemplo, el radio de la Tierra). Michell y Laplace sabían que la velocidad de escape, calculada según la teoría de Newton, es independiente de la masa del objeto que se “escapa”. Por esa razón podían aplicar este razonamiento a la propia luz, asumiendo que estaba formada por partículas, aunque ignoraran su masa y propiedades específicas. Por entonces ya se sabía que la velocidad de la luz no era infinita, un descubrimiento fundamental realizado un siglo antes por el astrónomo danés Ole Römer, al interpretar los efectos de retardo observados en los movimientos aparentes de los satélites de Júpiter. Michell y Laplace llegaron a la conclusión de que una estrella suficientemente masiva como para que su velocidad de escape superara los 300.000 km/s no dejaría escapar la luz a distancias arbitrariamente grandes, sino que esta se limitaría a caer de nuevo sobre la estrella, al ser incapaz de superar el campo gravitacional. Para tener una idea intuitiva de las características de estos objetos, podemos preguntarnos por la masa que debería tener el Sol para que se comportara como “negro” en el sentido de Michell. La respuesta es que debería tener una masa un millón de veces mayor. En el caso de la Tierra, la luz caería como una piedra si nuestro planeta tuviera una masa 1.000 millones de veces mayor de la que tiene en realidad. Otra forma equivalente de ver el carácter extremo de estos objetos es imaginar cuánto deberíamos comprimir el Sol o la Tierra para que, con la misma masa, su velocidad de escape en superficie alcanzara la velocidad de la luz. Para el Sol sería una esfera del tamaño de una gran ciudad, mientras que la Tierra debería ser comprimida hasta la escala de tamaño de ¡una canica!

14

Figura 1 Rayos de luz en las proximidades de una estrella negra, según Michell y Laplace.

Estas caricaturas del Sol o de la Tierra, convertidos en una estrella negra, sugieren que se trata de un fenómeno extremo; involucran densidades tan altas que cabría preguntarse si las leyes de la física las permiten. Sin embargo, el propio Michell se dio cuenta de que no eran necesarios fenómenos extremos para “fabricar” estrellas negras, al menos en principio. La razón es que la velocidad de escape de una estrella o planeta es proporcional a la raíz cuadrada del cociente entre la masa y el tamaño, pero la masa se puede ver como la den­ ­sidad multiplicada por el volumen. Acumulando masa a densi­ ­­­dad constante, puesto que el volumen crece como la tercera potencia del tamaño, resulta que la velocidad de escape crece como el tamaño. Siempre podemos aumentar la velocidad de escape en la superficie tan solo aumentando el tamaño y man­ ­teniendo la densidad fija. Michell estimó que una estrella con la misma densidad de nuestro Sol, pero 500 veces más grande, se comportaría como una estrella negra. Nosotros podemos hacer una estimación parecida utilizando un recurso de escala humana. Imaginemos que tenemos una nube de botellas llenas de agua flotando en el espacio, con una densidad de 10 botellas por

15

metro cúbico. Esta densidad es 100 veces menor que la densidad del agua, así que no se trata en ningún modo de una situación extrema desde el punto de vista físico. Imaginemos ahora que la nube de botellas es realmente gigantesca, con un tamaño equivalente a la órbita del planeta Urano. Esto supone un radio de unos 3.000 millones de kilómetros. Un sencillo cálculo muestra que, vista “desde fuera”, la nube se comportaría como una estrella negra, puesto que la velocidad de escape desde su superficie sería superior a la velocidad de la luz. La masa total de la nube de botellas es entonces unas 1.000 millones de masas solares, correspondiente a la masa de un agujero negro gigante como el que podemos encontrar en el centro de las grandes galaxias espirales. Este sencillo argumento muestra que los campos gravitacionales con velocidad de escape extrema no requieren necesariamente condiciones igual de extremas sobre la materia. Las leyes de la física se niegan, después de todo, a censurar la existencia de estos objetos extraordinarios. Es difícil tomarse en serio las especulaciones de Michell y Laplace sin una comprensión más detallada de la naturaleza de la luz. Sin ir más lejos, la imagen newtoniana de la luz como una “corriente de corpúsculos” quedó relegada de forma definitiva por el éxito de la teoría ondulatoria a lo largo de los siglos XVIII y XIX. La idea de que la luz se compone de partículas, que hoy llamamos “fotones”, fue resucitada por Einstein en 1905. Pero ya nada sería igual, porque la naturaleza de la luz es la piedra angular de las dos revoluciones fundamentales de la física moderna: la teoría de la relatividad y la teoría cuántica. Estrictamente hablando, el tratamiento de nuestros “especuladores ilustrados”, Michell y Laplace, es inconsistente. La mera consideración de movimientos con velocidades

16

cercanas a la de la luz involucra, de forma necesaria, la teoría de la relatividad. Sin embargo, el hecho es que la teoría newtoniana permite la existencia de campos gravitacionales extremos a partir de situaciones en apariencia tan inocentes como nuestra nube de botellas. En el resto de este capítulo vamos a honrar la memoria de Michell y Laplace, detallando un poco más las consecuencias prácticas de llevar a Newton al límite. Lo más interesante será que el resultado es reconocible en el mundo real.

¿Estrellas negras o motores gravitacionales? Si dejamos caer una pelota desde una altura de 5 m, llega al suelo a una velocidad de unos 10 m/s. En el lenguaje de los libros de física de bachillerato, podemos decir que la pelota ha ganado energía cinética a costa del potencial gravitacional. Si la pelota rebota de forma ideal, sin pérdidas de energía, volverá a subir al punto de partida habiendo arrancado del suelo a la misma velocidad de impacto de unos 10 m/s. Esto significa que la velocidad necesaria para subir hasta una cierta altura es igual a la velocidad de impacto cuando el mismo objeto cae desde esa misma altura. Si imaginamos que dejamos caer una bola de cristal en vez de una pelota, de nuevo llega al suelo a 10 m/s, pero se hace añicos y la mayor parte de los trozos no vuelven a la altura de partida. Si la energía cinética de la bola de cristal es igual a la energía necesaria para romper la cohesión del cristal, este se quebrará y los trozos se quedarán parados en el suelo. Si había energía de sobra para romper el cristal, el exceso se distribuye en la energía cinética de los trocitos que salen disparados en todas direcciones.

17

Hay otra diferencia interesante entre la pelota y la bola de cristal. Cuando esta última se rompe, el aire encerrado en el interior se libera. Las moléculas de aire son rápidas, hasta 50 veces más que la velocidad de impacto de la bola de cristal. Así que no tienen dificultad en subir mucho más alto que los 5 m de los que partían cuando estaban encerradas en la bola. Este ejemplo muestra que podemos usar la energía almacenada en el campo gravitacional para liberar una componente rápida de un sistema en caída, que entonces puede ser emitida con facilidad fuera de la zona de influencia del campo gravitacional original. Visto como un “motor”, hay que reconocer que se trata de un diseño primitivo…, pero cuando añadimos algunos ingredientes de la teoría de la relatividad y la teoría cuántica, resulta que la energía almacenada en un campo gravitacional extremo puede usarse como el motor más eficiente en la naturaleza. Del ejemplo de la pelota deducimos que un campo gravitacional cuya velocidad de escape es del orden de la velocidad de la luz es capaz de acelerar objetos en caída hasta velocidades de impacto próximas a la velocidad de la luz. Pero entonces, según la teoría de la relatividad, las partículas masivas con velocidades próximas a la luz en la zona profunda del campo gravitacional tienen energías cinéticas comparables a su energía en reposo, de orden mc2, donde m es la masa de las partículas. En esta situación, los físicos de partículas se refieren al “régimen relativista” de velocidades y energías. En cualquier caso, se trata de una gran cantidad de energía disponible para ser transferida a partículas ligeras. Si un átomo alcanza una velocidad relativista en caída, de forma que su energía cinética por protón o neutrón sea comparable a Mprotónc2, hay una gran cantidad de energía disponible para transferir a electrones, pero estos son unas 2.000

18

veces más ligeros que los protones y neutrones. Por tanto, si las colisiones energéticas entre átomos en la zona profunda logran liberar electrones, es fácil que estos acaben con velocidades mucho mayores que las de protones y neutrones. La liberación de partículas cargadas a alta energía produce también grandes cantidades de radiación, que a su vez puede generar pares electrón-positrón en transiciones cuánticas. Todas estas partículas ligeras (electrones, positrones y fotones) pueden ir muy rápido y salir del campo gravitacional con más facilidad. El resultado final es un “motor gravitacional” que transforma energía cinética, ganada por los átomos durante la caída, en radiación y chorros de partículas rápidas cargadas, principalmente electrones y positrones. Figura 2 Funcionamiento esquemático de un motor gravitacional. Radiación dura

Radiación blanda

V impacto ~ C

Al igual que otros motores, podemos caracterizar su rendimiento en términos de una “eficiencia”, que mide la cantidad de energía gravitacional transformada en radiación, y una “cilindrada”, que depende del tamaño de la región donde se genera la radiación. La eficiencia del motor aumenta con la

19

“profundidad” del pozo gravitacional, ya que así se puede de­­ sencadenar el régimen relativista, en el que la energía cinética puede ser arbitrariamente alta en el fondo. Por lo que respecta a la cilindrada, depende más bien de la “anchura” del pozo gravitacional, que determina el caudal total de energía que se puede procesar en radiación. Nuestra descripción del principio de funcionamiento es muy elemental, y se puede mejorar sin demasiado esfuerzo. Por ejemplo, no es muy realista imaginar que la materia cae en línea recta sobre el centro de fuerzas, sino que más bien hay que esperar que la caída sea gradual, en órbitas casi circulares, cada vez más pequeñas a medida que se radia energía. En estas circunstancias el material se va concentrando en un disco perpendicular al eje global de rotación de la nube, conocido como disco de acrecimiento. El rozamiento de las diferentes capas anulares del disco produce emisión de radiación en una zona amplia, con la más “dura” (energética) asociada a las capas más profundas. Además, esta geometría da lugar a un cierto bloqueo de la radiación que sale en la dirección del plano del disco, mientras que la radiación emitida de forma perpendicular al disco encuentra el camino más expedito. En cualquier caso, las velocidades orbitales a una distancia dada del centro de fuerzas son del mismo orden de magnitud que las velocidades de caída libre a esa altura y, por tanto, un pozo gravitacional relativista implica velocidades orbitales relativistas en la zona profunda. Estos sencillos argumentos sugieren que la teoría de Newton, aliada con aspectos básicos sobre la naturaleza cuántica y relativista de la materia, predice la existencia teórica de descomunales motores gravitacionales que funcionarían como “volcanes” en el universo profundo. Emitirían radiación de alta frecuencia en una amplia gama de frecuencias con una luminosidad muy superior a la suma de estrellas de la misma masa.

20

Pero ¿existen? El lector se podrá imaginar que no nos hemos sumergido en todos estos detalles para dar una respuesta negativa a esta pregunta. En efecto, los motores gravitacionales del tipo que hemos descrito abundan en el universo. Las fuentes compactas de rayos X en sistemas estelares binarios son ejemplos de motores de baja cilindrada. Gigantescos núcleos galácticos activos que propulsan los llamados quásars del espacio profundo son ejemplos del otro extremo: auténticos Ferraris cósmicos con cilindrada de camión. Tendremos ocasión de volver sobre estos monstruos en el capítulo 5, una vez que hayamos entendido qué es un agujero negro en realidad. Nuestra intención en este capítulo es más bien mostrar un ejemplo de buena especulación teórica en acción. Aunque hayamos mezclado sin pudor la teoría newtoniana de la gravitación con la teoría de la relatividad, todo ello condimentado con un poco de física cuántica de partículas, el resultado cualitativo es consistente, plausible, y se sigue de los principios básicos sin esfuerzo. Visto así, no resulta tan extraño que el resultado de nuestro ejercicio responda a la realidad. La experiencia con muchos casos parecidos a lo largo de la historia de la física sugiere que la clave del éxito es plantear preguntas físicamente bien definidas, que en sí no violenten las teorías que vamos a llevar al límite en el curso del argumento. En este caso, empezamos con algo tan inocente como una nube difusa de botellas que caen sobre sí mismas con suavidad. A partir de aquí, llevando la teoría de Newton al límite y cubriendo los vanos con principios generales de la física, hemos logrado predecir la existencia de los depredadores más voraces del universo. Volviendo sobre nuestros pioneros, estamos ante un ejemplo del arte de la “especulación ilustrada” en acción.

21

CAPÍTULO 2

Espacio-tiempo

Las estrellas de Michell y Laplace serían negras en la distancia, pero perfectamente visibles desde muy cerca. La luz caería de vuelta en el campo gravitacional, pero algunos rayos de luz especialmente energéticos subirían muy alto antes de darse la vuelta. En este aspecto particular se diferencian bastante de los auténticos agujeros negros. Estos atrapan la luz y cualquier clase de materia de una forma mucho más drástica, literalmente como una puerta giratoria de un solo sentido. Para entender esta propiedad es necesaria la visión moderna del espacio y el tiempo introducida por Einstein a principios del siglo XX.

Luz absolutamente especial Hay algo muy extraño en el comportamiento de la luz. Resulta que siempre se mueve a la misma velocidad con respecto al observador, independientemente del estado de movimiento relativo entre el emisor y el receptor. Esto es chocante, pues

22

estamos acostumbrados a la idea de que las velocidades son siempre relativas. Cuando adelantamos un coche en la autopista, lo vemos con una velocidad relativa pequeña, aunque sabemos que se mueve muy rápido con respecto a un observador parado en la cuneta. Es precisamente esta intuición tan básica (que las velocidades relativas se suman) la que es contradicha de manera radical por el comportamiento de la luz. Todos los experimentos nos indican que los aproximadamente 300.000 km que recorre la luz por segundo en el vacío representan en realidad una constante igual para todos los observadores, independientemente de que se acerquen o se alejen de la fuente a cualquier velocidad. Einstein aceptó la existencia de una velocidad absoluta como un nuevo principio fundamental de la física. Al hacerlo, se vio obligado a cambiar la relación newtoniana entre espacio y tiempo. Como una velocidad siempre se puede analizar como un espacio recorrido por unidad de tiempo, queda claro que el carácter absoluto de la velocidad de la luz tiene que acarrear una correspondiente relatividad del espacio y el tiempo, y esta relatividad tenderá a ser más pronunciada a medida que estudiamos movimientos con velocidades más cercanas a la de la luz. Es posible determinar la relatividad del tiempo y el espacio mediante argumentos sencillos. Imaginemos que tenemos el reloj más simple posible: un par de espejos situados a una distancia fija con una partícula de luz (un fotón) rebotando entre ellos. El paso del tiempo se mide por el número de veces que el fotón retorna a uno de los espejos después de ser reflejado en el otro. Ahora damos dos relojes idénticos a Alicia y a Bernardo, que están mirándose por la ventanilla de sus respectivas naves espaciales. Alicia

23

tiene su nave atracada en el puerto espacial, mientras que Bernardo pasa de largo a gran velocidad. Para simplificar los razonamientos imaginaremos que los relojes se colocan de forma que la trayectoria de los fotones sea vertical, es decir, perpendicular a la dirección de movimiento de la nave. Figura 3 La dilatación del tiempo. Nave de Bernardo en reposo

Nave de Bernardo en movimiento

Trayectoria del fotón de Bernardo, visto por Bernardo

Trayectoria del fotón de Bernardo, visto por Alicia

Es evidente que, visto por Alicia, el fotón del reloj de Bernardo tiene que seguir una trayectoria más larga para completar un ciclo de rebote entre los espejos. Alicia ve que el fotón de Bernardo tiene que “perseguir” los espejos, ya que estos están en movimiento, como indica la figura. Pero la velocidad del fotón es justo la misma, independientemente de que sea medida por Alicia o por Bernardo, pues hemos dicho que es una constante universal. Esto implica que, siempre según Alicia, el fotón de Bernardo tarda más tiempo en efectuar su recorrido de ida y vuelta, y este retardo será mayor cuanto más rápido circula la nave de Bernardo. Una unidad de tiempo de Bernardo (un rebote de su fotón) se corresponde con más de una unidad de tiempo de Alicia. Podemos, pues, escribir la ley de la relatividad del tiempo: “Los relojes en movimiento

24

atrasan con respecto a los relojes parados”. Expresado en una fórmula: Treloj parado > Treloj móvil Al interpretar esta ley fundamental es muy importante recordar que se refiere a las medidas de un observador determinado, en este caso Alicia. Es decir, Treloj móvil es el ritmo del reloj de Bernardo, medido por Alicia, mientras que Treloj parado es el ritmo del reloj de Alicia, medido por la propia Alicia. (Como ambos relojes son idénticos en su fabricación y funcionamiento, esto coincide con el ritmo del reloj de Bernardo, medido por Bernardo.) Si todas las leyes físicas son compatibles con el principio de velocidad absoluta de la luz, todos los procesos sufrirán el mismo estiramiento temporal. Es decir, todos los tipos de relojes posibles sufrirán el mismo retraso a bordo de la nave y Bernardo no notará que su reloj atrasa. Esta generalización es necesaria si no queremos que el movimiento sea detectable “sin mirar por la ventana”, es decir, de manera intrínseca. La hipótesis de que el movimiento uniforme no tiene efectos “internos” se conoce como el “principio de relatividad”. Fue descubierto por Galileo en el siglo XVII y desde entonces hasta hoy su validez jamás se ha puesto en entredicho en ningún experimento. En el ejemplo anterior, el principio de relatividad implica que Treloj parado denota a la vez el ritmo del reloj de Alicia, medido por Alicia, y el ritmo del reloj de Bernardo, medido por Bernardo. El retraso relativo entre relojes móviles y relojes parados también se conoce como la dilatación del tiempo. Se trata de un efecto muy pequeño a las velocidades de la vida cotidiana, pero muy significativo a velocidades próximas a la de la

25

luz. Un ejemplo muy llamativo lo proporcionan los muones atmosféricos, partículas subatómicas que se desintegran en unos dos microsegundos y se originan en los impactos de rayos cósmicos con las capas altas de la atmósfera. Los muones la atraviesan a casi la velocidad de la luz, pero su vida es tan corta que deberían desintegrarse antes de llegar al suelo. Sin embargo, detectamos muchos muones en la superficie de la Tierra. La razón no es otra que la dilatación relativista del tiempo. Como el muón circula a velocidades próximas a la de la luz, su reloj interno atrasa y su vida media se alarga mucho más allá de los dos microsegundos. El ejemplo de los muones atmosféricos nos permite ilustrar otro efecto relativista muy importante. Imaginemos que vamos montados sobre el muón cuando penetra en la atmósfera. En este sistema de referencia, la atmósfera, y toda la Tierra, se aproximan hacia nosotros a casi la velocidad de la luz. Pero ahora sí que el muón se desintegra en dos microsegundos, puesto que lo vemos en reposo. ¿Cómo es posible, entonces, que choquemos con la superficie de la Tierra antes de que se desintegre el muón? La razón es que la profundidad de la atmósfera es menor para nosotros: los objetos móviles se contraen en la dirección de movimiento por un factor inverso al de la dilatación del tiempo. Este efecto es conocido como la contracción de Fitzgerald-Lorentz. El propio funcionamiento del reloj de luz requiere que la velocidad relativa entre Alicia y Bernardo nunca exceda la velocidad de la luz, ya que, en caso contrario, Alicia nunca podría ver que el reloj de Bernardo completa ni un solo ciclo de rebote. En realidad, si la velocidad excediera la de la luz, daría la impresión de que Alicia observa el reloj de Bernardo invertir su marcha “hacia el pasado”. La mera posibilidad de viajar al pasado podría dar lugar a contradicciones con

26

la ley de la causalidad, argumento socorrido de las historias de ciencia-ficción en las que un héroe (o un villano) viaja en el tiempo y pone en peligro su propia existencia debido a alguna interferencia crucial, impidiendo, por ejemplo, que sus padres se conozcan. Estas situaciones llevan a contradicciones lógicas que deben ser evitadas en la estructura fundamental de las leyes físicas. En consecuencia, la velocidad de la luz debe actuar como un límite infranqueable. En efecto, cuando la teoría de la relatividad se desarrolla en detalle, su propia estructura matemática se protege a sí misma, ya que alcanzar la velocidad de la luz mediante aceleración requiere una cantidad infinita de energía.

Relatividad general Según el principio de relatividad, si el reloj de Bernardo atrasa con respecto al reloj de Alicia, también el reloj de Alicia tiene que atrasar con respecto al de Bernardo. Esta situación no es contradictoria, aunque lo parezca, ya que se refiere a observadores diferentes. Una manera de intentar forzar la contradicción consistiría en pedirle a Bernardo que diera media vuelta y atracara su nave en la estación espacial. Entonces ambos pueden juntarse en el mismo punto y comparar los relojes poniéndolos uno al lado del otro. ¿Qué pasaría entonces? Según Alicia, el reloj de Bernardo debería volver retrasado, ya que el mismo argumento de la sección anterior se aplica, aunque la velocidad de Bernardo sea variable. La situación de Bernardo es diferente. A diferencia de Alicia, él tiene que sufrir aceleraciones para frenar y arrancar de vuelta, y otra vez para frenar de nuevo al llegar a la estación espacial. Durante los periodos de aceleración se rompe la simetría entre Alicia

27

y Bernardo. Para evitar la contradicción tenemos que asumir que las aceleraciones tienen un efecto adicional sobre el reloj de Bernardo, atrasándolo con respecto al de Alicia de tal forma que se contrarresta, e incluso se supera, el efecto contrario producido por el movimiento relativo. El retraso causado por las aceleraciones solo se aplica al reloj de Bernardo, porque es el único que las “nota”. Resumiendo: “Las aceleraciones tienden a retrasar los relojes que las sufren”. Cuando el movimiento es uniforme no hay manera de decidir si es Bernardo el que “se mueve” o si por el contrario es Alicia quien lo hace. Tal es el contenido del principio de relatividad de Galileo. Sin embargo, cuando hay aceleraciones en juego, parece que sí podemos decidir quién se mueve y quién está parado de forma inequívoca: cuando Bernardo arranca los motores de su nave, él nota que todos los objetos en su interior tienden a acelerar en dirección a la popa, algo que no le ocurre a Alicia, quedando así rota la simetría entre ambos. De esta manera, podría parecer que Bernardo sabe que está acelerando aunque no mire por la ventanilla. Por la misma razón, tiene sentido suponer que la aceleración tiene un efecto específico sobre el reloj de Bernardo que no sufre el reloj de Alicia. Según estos argumentos, podría parecer que el principio de relatividad no se puede extender a aceleraciones. Sin embargo, el rescate en el último momento del principio de relatividad constituye la idea clave que el propio Einstein consideró la más brillante de su vida. La encontró en otro principio fundamental descubierto por el gran Galileo: el llamado principio de equivalencia entre la gravitación y la inercia. La leyenda asocia este descubrimiento a su famoso experimento de arrojar objetos desde lo alto de la torre inclinada de Pisa, algo que, con toda probabilidad, nunca ocurrió en un sentido literal.

28

Galileo descubrió que todos los objetos suficiente­­mente pequeños caen con la misma aceleración en un campo gravitacional, con independencia de sus propiedades particulares, incluida la masa. Esto significa que las diferentes partes de un sistema en caída libre no tienen aceleraciones relativas entre ellas, y por tanto se comportan igual que si estuvieran flotando en el espacio exterior, sin fuerza gravitacional alguna. La desaparición subjetiva de la sensación de peso cuando entramos en caída libre es bien familiar para cualquiera que se haya subido a una montaña rusa. De hecho, la caída libre que se consigue durante unos segundos en un avión que cae en picado es una forma de entrenamiento al que se someten los astronautas para que su cuerpo se acostumbre a la ingravidez. Einstein se dio cuenta de que este carácter ficticio de la gravitación implica que, igual que podemos anular un campo gravitacional entrando en caída libre, también podemos generar uno mediante una aceleración. Esto se expresa de manera muy gráfica en el ejemplo de la nave espacial acelerada: si Bernardo no mira por la ventanilla y los motores de su nave le confieren una aceleración de unos 10 m/s cada segundo, sería incapaz de determinar, mediante observaciones o cualesquiera experimentos en el interior de la nave, si está realmente en aceleración en el espacio exterior o está simplemente parado sobre la superficie de la Tierra, inmerso en su campo gravitacional. Así que podemos salvar el principio de relatividad (la imposibilidad de determinar el movimiento “desde dentro”) si incluimos la gravitación en el juego. El principio de equivalencia tiene implicaciones fundamentales para la estructura del espacio-tiempo. Por ejemplo, antes hemos argumentado que los relojes acelerados sufren un retraso asociado de manera específica a su aceleración. El principio de equivalencia implica entonces que lo mismo

29

debe ocurrirle a los relojes inmersos en un campo gravitacional. Aquellos en la zona de campo intenso retrasan con respecto a los relojes en la zona de campo menos intenso. Esto significa que los del ático envejecen ligeramente más deprisa que los del piso bajo. Este fenómeno se aplicaría a cualquier proceso con una frecuencia característica, como por ejemplo una onda electromagnética: la luz que tiene que “escalar” el campo gravitacional se ve más roja (con frecuencia menor), un fenómeno conocido a veces como el “corrimiento al rojo gravitacional”. Figura 4 En un disco giratorio, las reglas sobre la circunferencia sufren la contracción de Fitzgerald-Lorentz con respecto a las radiales. Los relojes periféricos atrasan con respecto al central. Un observador sobre el disco atribuye estos efectos a un campo gravitacional.

También la propia geometría del espacio debe sufrir cambios en presencia de un campo gravitacional. Existe un famoso ejemplo ilustrativo que debemos al propio Einstein: un grupo de geómetras intentan medir el número π en su “universo”, que consiste en un disco giratorio muy grande, cuyo borde ellos no alcanzan a ver, aunque sí son conscientes de que existe un punto especial, el centro del disco, que para ellos es el lugar donde no notan un campo de fuerzas radial centrífugo que existe en todos los demás puntos. Tampoco saben que son

30

observados por otros geómetras-aliens que están flotando fuera de su mundo-disco y que interpretan este campo radial como la “fuerza centrífuga” debida a la rotación. Su procedimiento consiste en colocar R reglas de medir de un metro cada una a lo largo del radio del disco, con origen en el centro del campo radial, y C reglas de medir cerrando una circunferencia con radio R, según se indica en la figura 4. Luego toman el cociente y obtienen su determinación experimental de π como el valor de C/2R. La operación es contemplada desde fuera por el otro grupo de geómetras, que flotan ingrávidos en el espacio vacío. Según estos, las reglas de medir colocadas sobre la circunferencia son más cortas que las colocadas sobre el diámetro, debido a la contracción de Fitzgerald-Lorentz. Así que el valor de π determinado por medidas en el disco giratorio es claramente mayor que 3,1415. Los geómetras sobre el disco no notan que las reglas se acortan al colocarlas sobre la circunferencia, porque todas las cosas de su mundo, incluidos ellos mismos, se acortan en la misma proporción. Simplemente, el valor de π en su mundo vale más de 3.1415 y tendrán que esperar a que sus matemáticos imaginen posibles mundos teóricos con valores diferentes de π para reparar en la importancia de este hecho. En ese caso, llegarán a la conclusión de que la geometría del espacio es una cuestión experimental, e incluso el “Einstein” de su mundo podrá llegar a la conclusión de que el valor particular de π que ellos observan está relacionado con el peculiar campo gravitacional centrífugo que siempre existió en su universo… Un lector avispado habrá podido inferir que los propios geómetras experimentales podrían deducir otros valores de π si midieran otras circunferencias pequeñas, centradas en puntos distintos del disco, pero esto no haría más que reforzar la idea de que el campo de fuerzas afecta a la geometría de su mundo.

31

Como se indica en la figura 4, el ejemplo del disco giratorio también se puede usar para ilustrar cómo afecta el campo gravitacional al ritmo de los relojes. Desde el punto de vista de los observadores externos, los relojes colocados sobre la periferia del disco atrasan con respecto al reloj colocado en el centro, que está en reposo. Desde el punto de vista de los observadores sobre el disco, los relojes periféricos parecen inmersos en un campo gravitacional, mientras que el reloj central permanece ingrávido. Concluirían así que los campos gravitacionales alteran el ritmo del tiempo. Estos razonamientos basados en la relatividad y el principio de equivalencia condujeron a Einstein a su gran síntesis: la idea de que la geometría del propio espacio-tiempo es dinámica, y que esa dinámica no es otra que la naturaleza real de la gravitación.

Curvatura Einstein construyó su teoría de la gravitación sobre la base del principio de equivalencia. En cada punto del espacio y en cada momento del tiempo podemos imaginar que nos precipitamos en caída libre. La hipótesis básica es que la gravitación carece de existencia local para un observador en caída libre, así que el espacio-tiempo que mediríamos en esas circunstancias sería igual al espacio-tiempo en ausencia de gravitación. Para ser más precisos, esto solo es estrictamente cierto en el límite en el que la fuerza gravitacional no varía de forma significativa a lo largo de la extensión del objeto en caída libre. En un campo gravitacional como el de la Tierra nuestros pies son atraídos con una fuerza ligeramente superior a nuestra cabeza. Eso significa que, aunque la fuerza gravitacional

32

desaparece en nuestro centro de masas al entrar en caída libre, la cancelación no es perfecta sobre los pies y sobre la cabeza. Experimentamos, de hecho, una pequeña fuerza llamada de marea que tiende a estirar nuestro cuerpo ligeramente. El nombre de estas fuerzas residuales se corresponde con el hecho de que son en efecto responsables de las mareas en nuestras costas. Si imaginamos el campo gravitacional en términos de líneas de fuerza, las fuerzas de marea que sobreviven en caída libre son mayores cuanto menos paralelas sean las líneas de fuerza. De manera clara, si un objeto es muy pequeño comparado con las escalas típicas del campo gravitacional, las líneas de fuerza que ocupan su extensión son casi paralelas y por tanto se puede decir que la gravitación “desaparece” localmente al entrar en caída libre. La intuición genial de Einstein consiste en recuperar el campo gravitacional al “pegar” las diferentes descripciones de caída libre alrededor de cada punto. Como los campos gravitacionales no son en general uniformes ni constantes, en este proceso de pegado el espacio-tiempo se puede deformar ligeramente de un punto a otro. La situación es análoga a la descripción de la geometría de un espacio curvo. La superficie de la Tierra nos parece plana en una primera aproximación, pero dos navegantes pueden descubrir su curvatura al viajar desde el ecuador hasta el polo norte siguiendo dos meridianos. Cada uno de ellos puede decir que va en “línea recta”, en el sentido de que es una trayectoria que minimiza la distancia recorrida. A la salida, sus respectivas trayectorias son paralelas, pero sabemos que al final se tienen que cruzar en el polo norte. La idea de que dos líneas inicialmente paralelas puedan encontrarse es una forma de definir la “curvatura” de la geometría sobre la superficie de una esfera.

33

La descripción de Einstein de la gravitación es análoga. Al pegar los trocitos de espacio-tiempo que son accesibles localmente para cada observador en caída libre se puede construir un espacio-tiempo curvado, igual que una esfera se puede aproximar por un poliedro de muchas caras planas. Cada cara plana del poliedro es análoga del espacio-tiempo medido localmente por un observador en caída libre. En el límite en el que las caras del poliedro son más y más pequeñas podemos recuperar cualquier superficie suavemente curvada. De manera análoga, la geometría curva del espacio-tiempo se obtiene pegando las descripciones locales de un continuo de observadores en caída libre. Las matemáticas necesarias para formalizar esta idea fueron desarrolladas en el siglo XIX por Bernard Riemann, en otro ejemplo de la fertilización cruzada de ideas fundamentales entre la física y las matemáticas. Figura 5 En cada caja en caída libre no se nota el campo gravitacional. Este aparece a través de las fuerzas de marea y al combinar las cajas en una descripción global.

34

Las matemáticas de Riemann son complicadas, pero el resultado final es bastante intuitivo: el espacio se puede “doblar” y se puede “deformar” como si fuera un medio elástico. El grado de deformación se puede caracterizar matemáticamente con el concepto de curvatura. Dicho de forma más cuantitativa, la curvatura en el espacio es inversamente proporcional al cuadrado del radio de curvatura. En el caso de la esfera, el radio de curvatura es el radio de la esfera. Cuanto mayor es el radio de curvatura, menor es la curvatura propiamente dicha, es decir, se ve más plana desde el punto de vista local, justo lo que nos ocurre a nosotros con la curvatura de la superficie terrestre. Imaginemos ahora que el tamaño de la esfera cambia con el tiempo, como si nuestro planeta se pudiera inflar o contraer como un globo. En este caso podemos definir la aceleración asociada a esta dilatación o contracción de la esfera, un concepto que se puede interpretar en términos de una “curvatura temporal”. En la teoría de Riemann, la curvatura del espacio-tiempo tiene 20 componentes independientes. Las más importantes se pueden interpretar como una suma de curvaturas espaciales y temporales, aunque existen muchos otros términos matemáticamente más intrincados que mezclan espacio y tiempo. De forma conceptual, podemos escribir una ecuación del tipo: Curvaturaespacio-tiempo = Curvaturaespacio + (aceleración del espacio)2

Una vez que Einstein pudo establecer la relación entre la geometría del espacio-tiempo y la gravitación, quedó claro que esta geometría tiene que ser dinámica, en el sentido de que ha de depender del contenido en materia del propio espacio-tiempo. Esto ya lo sabía Newton, pues la materia

35

produce campos gravitacionales proporcionales a su masa. En la teoría de Einstein, la famosa ecuación E=mc2 indica que cualquier energía sirve como fuente de un campo gravitacional. De esta forma llegamos a las famosas ecuaciones de la relatividad general, que determinan la curvatura del espacio-tiempo en función de la densidad de energía presente en ese espacio-tiempo: Curvaturaespacio-tiempo = G (densidad de energía).

Hay que decir, para los lectores expertos, que el miembro derecho de esta ecuación no solo depende de la densidad de energía, sino también de la densidad de impulso. La constante G que aparece en estas ecuaciones es la misma constante de gravitación universal que ya escribió Newton en el siglo XVII. Sin embargo, vemos que Einstein le da una interpretación nueva, como una especie de “coeficiente de elasticidad” del propio espacio-tiempo. Si la constante de Newton fuera cero, el espacio sería totalmente rígido, sin poder sufrir las dilataciones, contracciones o dobleces que llamamos colectivamente “curvatura del espacio-tiempo”. Pero si la constante de Newton no se anula, como es el caso, la teoría de Einstein predice que deberían existir ondas gravitacionales, perturbaciones en la curvatura análogas a las ondas sobre la superficie de un estanque. Estas ondas gravitacionales se propagarían a la velocidad de la luz y serían muy parecidas a las ondas electromagnéticas, aunque mucho más débiles y difíciles de detectar. En vez de limitarse a declarar que el principio de relatividad de Galileo no se aplica al movimiento de la luz, Einstein inventó en 1905 la mezcla entre el espacio y el tiempo, el llamado espacio-tiempo, precisamente para hacerlo

36

compatible con el principio de relatividad. Diez años más tarde Einstein volvió a realizar el mismo truco de magia. En vez de admitir que el principio de relatividad deja de funcionar para el caso de movimientos acelerados, utilizó la vieja observación de Galileo sobre la caída de los graves para salvar de nuevo el principio de relatividad. En esta ocasión el resultado es una nueva teoría de la gravitación. La verdadera genialidad de Einstein radica en ser el inventor de esta nueva forma de construir teorías, destilando el conflicto entre principios básicos de la física hasta que la solución a las contradicciones se revela como esencialmente única. El éxito de este modus operandi no solo requiere a un físico genial, sino también un momento histórico adecuado.

Gravitación y vacío La deformación particular del espacio-tiempo causada por la densidad de energía depende, en cierta medida, de los detalles estructurales de esta energía. Desde el punto de vista de sus efectos sobre el espacio-tiempo, existen al menos dos clases de energía. Tenemos, por una parte, la energía “ordinaria” contenida en las partículas elementales, ya sea la correspondiente a su movimiento o la que se encuentra concentrada en su masa, según la equivalencia de Einstein, E=mc2. Este tipo de energía ordinaria produce fuerzas gravitacionales universalmente atractivas y que decrecen con la distancia. Como veremos en el capítulo siguiente, en las regiones donde se concentra mucha masa el espacio-tiempo tiende a contraerse hasta el punto de que puede llegar a colapsar por completo. Por otra parte, si aceptamos que se puede asignar una energía al vacío, entendiendo como tal una región del espacio

37

con contenido energético mínimo (sin partículas elementales estables), entonces su efecto en el espacio-tiempo es muy diferente al de la energía localizada en partículas. La razón es que la energía del vacío, si existe, no se diluye al aumentar el volumen, sino que su densidad se mantiene constante: el interior de una caja vacía sigue estando igual de vacío si la caja es el doble de grande. Por tanto, si el espacio vacío puede contener energía, esta tiene que aumentar con el volumen, y esto sugiere, a su vez, que los efectos sobre la geometría del espacio-tiempo serán mayores a grandes distancias. El análisis detallado de los efectos en la teoría de Einstein muestra que, si la energía del vacío es negativa, entonces produce una curvatura del espacio que lo convierte en una especie de “caja” de paredes suaves. En un espacio de este tipo una piedra lanzada al infinito acabaría por pararse y darse la vuelta para volver al punto de partida como una especie de bumerán. Por el contrario, si la energía del vacío fuera positiva, actuaría como una fuente de antigravedad, apareciendo una fuerza repulsiva que aumenta con la distancia. Literalmente, el espacio se estira como la superficie de un globo que se hincha y la velocidad de estiramiento es cada vez mayor. La energía del vacío determina esta aceleración de la expansión del espacio. A veces la energía del vacío se llama también “constante cosmológica” y fue introducida en la física por primera vez en 1917, cuando el propio Einstein intentó aplicar su teoría de la gravitación al universo en su conjunto. Einstein se dio cuenta de que un universo lleno de materia en reposo acabaría colapsando bajo la atracción de su propia gravedad, a menos que otra fuerza repulsiva lo contrarrestara. Como no tenemos noticias de esta fuerza “antigravitatoria” en nuestra experiencia del sistema solar, tiene que tratarse de una fuerza repulsiva que solo se vuelve importante a grandes distancias. Einstein decidió

38

que la energía del vacío era la alternativa natural y así la introdujo en su primer artículo de cosmología en 1917. Más tarde, reconocería en este episodio “el mayor error de su vida”. Cuando el gran astrónomo norteamericano Edwin Hubble descubrió la expansión del universo en los años veinte, quedó claro que no hay necesidad de equilibrar la atracción gravitacional para evitar el colapso, ya que las galaxias están alejándose unas de otras a velocidades relativas proporcionales a la distancia mutua, y este colapso, si ha de producirse, ocurriría en un futuro remoto. En cualquier caso, la expansión del universo se puede interpretar en la teoría de Einstein como la expansión del propio espacio. La imagen es idéntica a un globo que se hincha en el que hemos marcado unos puntos con tinta. Los puntos no se mueven con respecto al globo, sino que la “cantidad de globo” entre dos marcas aumenta al hincharlo. Si anclamos observadores en las marcas, estos ven cómo se alejan mutuamente entre sí a velocidades proporcionales a su distancia, por más que ellos no gasten ninguna energía para moverse. Si se intercambian señales luminosas, la longitud de onda en recepción es mayor que la longitud de onda en emisión, porque la onda es “arrastrada” por el estiramiento paulatino del espacio. Este efecto se parece al cambio de agudo a grave en el sonido de un tren que pasa por nuestro lado a gran velocidad (el llamado efecto Doppler). En astronomía se llama corrimiento al rojo cosmológico y no debe confundirse con el corrimiento al rojo gravitacional introducido anteriormente. El corrimiento al rojo cosmológico se usa para determinar las distancias de las galaxias lejanas: cuanto más rojas se ven, más lejos están y más rápido van. La ecuación fundamental de Einstein determina la curvatura del espacio-tiempo en función de la densidad de energía. Si

39

domina una constante cosmológica positiva, entonces podemos tener una expansión acelerada. Si domina la energía ordinaria, entonces la expansión debe frenarse de manera gradual. El episodio de la constante cosmológica encierra una de las mayores ironías de la historia de la física. Einstein la introdujo para salvar el prejuicio de que el universo debería ser estático. Podría haber hecho la predicción más espectacular de la historia de la ciencia, nada menos que la expansión del universo, en una fecha tan temprana como 1917, pero no quiso dejarse llevar por el camino que le señalaba su propia teoría. Después de este episodio, los físicos mantuvieron durante 70 años el prejuicio contrario: que la energía del vacío tiene que ser cero…, hasta que de nuevo los astrónomos los enmendaron. Hace 20 años se detectó directamente la aceleración de la expansión del universo. Es decir, las galaxias en fuga no están siendo frenadas por su atracción gravitacional, sino que algo está ganando la partida a la ley de Newton y está actuando como una fuerza repulsiva. De nuevo, la constante cosmológica vuelve a escena. Si interpretamos la aceleración de la expansión como una energía del vacío, resulta que ¡corresponde al 70% del contenido energético total del universo! Puede que, después de todo, la constante cosmológica fuera uno de los mayores descubrimientos de Einstein…

Lo que sabemos • La estructura básica de la teoría de la relatividad no ha sufrido modificaciones desde que Einstein la formuló en 1905. Las leyes del movimiento relativista se han comprobado en partículas elementales con una precisión genérica

40











de una parte en 1010. En casos específicos la precisión llega hasta una parte en 1020. El espacio-tiempo dinámico como descripción relativista de la gravitación está basado en el principio de equivalencia, que se ha comprobado de forma experimental con una precisión de una parte en 1012. Las predicciones detalladas de la teoría general de la relatividad han sido comprobadas en el sistema solar con una precisión media de una parte en 103. Esto incluye los tests clásicos: el avance del perihelio de Mercurio y la curvatura de la trayectoria de la luz detectada en eclipses totales de Sol. Las leyes de la deformación del tiempo por efecto de la gravedad están comprobadas en una parte en 109, y son esenciales en el buen funcionamiento del sistema de posicionamiento global, el famoso GPS. En el régimen de campos fuertes, la teoría general de la relatividad se ha establecido con un error del 1% mediante el estudio del famoso púlsar binario PSR + 1916. El descubrimiento reciente de sistemas binarios en los que ambos componentes son púlsares permitirá mejorar notablemente la precisión de los tests experimentales. La teoría general de la relatividad es uno de los pilares básicos del Modelo Estándar cosmológico, que explica de ma­ ­nera satisfactoria todas las medidas de la radiación de fondo de microondas con una precisión del 1%.

Lo que ignoramos • Una predicción elemental de la relatividad general es la existencia de ondas gravitacionales, que aún no han sido detectadas de forma directa, si bien su existencia se deduce

41

indirectamente del comportamiento de los púlsares binarios. Una nueva generación de experimentos de interferencia óptica de precisión (la versión mejorada de LIGO) podría encontrarlas durante la próxima década, procedentes de fenómenos astrofísicos violentos como la colisión de agujeros negros. Un dispositivo mucho más ambicioso (LISA), que funcionaría mediante un triángulo de láseres en órbita solar, está proyectado para dentro de dos décadas. • Deberían existir detalles de origen gravitacional en la estructura de la radiación de fondo residual del Big Bang. Si así fuera, se podría usar esta evidencia para comprobar la teoría de la inflación cósmica, una fase hipotética de la expansión del universo en la que la energía del vacío sería muy grande. Esta teoría explicaría muchas propiedades estructurales del Modelo Estándar de la cosmología como la planitud y homogeneidad extremas del espacio en gran escala y el propio origen de las estructuras en el universo. Una nueva generación de telescopios de microondas, en tierra o a bordo de satélites, podrían dar con indicios de este tipo en los próximos años. • Las velocidades de rotación de las galaxias son anómalas. Se comportan como si la mayor parte de su masa fuera invisible, la famosa “materia oscura”. Esta hipótesis también está en sintonía con el comportamiento de los cúmulos de galaxias, las observaciones de lentes gravitacionales y las medidas de precisión de la radiación de fondo de microondas. Sin embargo, la materia oscura aún no ha sido observada directamente y existen corrientes de opinión minoritarias que proponen una solución basada en la modificación drástica de las teorías de Einstein. • La aceleración de la expansión cósmica se puede interpretar en la teoría actual asumiendo que el vacío tiene una

42

pequeña densidad positiva de energía. Sin embargo, esta hipótesis debe confirmarse de manera experimental, estudiando la variación en el tiempo del propio ritmo de aceleración. La existencia de una densidad de energía en el vacío plantea problemas de fundamentos, habida cuenta de que su valor numérico es… ¡10122 veces inferior a la estimación teórica basada en la mecánica cuántica relativista!

43

CAPÍTULO 3

Sin salida

Las estrellas negras de Michell y Laplace, aunque exóticas, parecían consecuencias ineludibles de las leyes de la física newtoniana. La situación se repite en la teoría de Einstein. Teóricamente, los agujeros negros son una consecuencia ineludible del principio de equivalencia combinado con la existencia de una velocidad límite.

Horizontes De vuelta con Alicia y Bernardo, ahora nos los imaginamos inmersos en un campo gravitacional uniforme y constante, en una región del espacio totalmente vacía y sin referencias visuales. Alicia está en caída libre en la dirección que llamaremos “abajo”, mientras que imaginamos a Bernardo “anclado” y, por tanto, acelerado relativamente con respecto a Alicia en la dirección que llamaremos “arriba”. En un análisis posible de la situación diríamos que Ber­­ nardo está en reposo en el campo gravitacional y que Alicia

44

está en caída acelerada por la acción de la fuerza de gravitación. La razón por la cual Bernardo se mantiene en reposo es que existe otra fuerza que tira de él y contrarresta exactamente la fuerza gravitacional. Esto puede ser debido a que se encuentra en un cohete con propulsión propia orientado contra la fuerza gravitacional o a que, como muestra la figura, Bernardo es en realidad… ¡una araña colgada de su tela! Según el punto de vista de Alicia, el campo gravitacional no existe. Ella se siente ingrávida y es Bernardo quien sufre la aceleración causada por una fuerza no gravitacional. Ambas descripciones son totalmente equivalentes, y muestran de forma vívida en qué sentido la existencia de una fuerza gravitacional puede ser una cuestión de opinión. Puesto que Bernardo acelera con respecto a Alicia, ella también lo ve alejarse hacia arriba, aproximándose rápidamente a la velocidad de la luz, sin llegar nunca a superarla. Si Alicia envía señales de radio a Bernardo cada, digamos, un segundo de su reloj, estas señales serán recibidas por Bernardo con un intervalo de separación cada vez mayor, dado que cada vez retrocede a mayor velocidad y los fotones de Alicia tardan más en alcanzarlo. Además, existe un momento a partir del cual ningún fotón emitido por Alicia podrá alcanzar a Bernardo, puesto que la velocidad de este se va aproximando tanto a la de la luz que el fotón de Alicia nunca podrá compensar la desventaja de partida en la salida. El lugar de donde parten los primeros fotones que nunca llegarán a ser detectados por Bernardo forma el llamado horizonte de sucesos. Más allá de este horizonte, todo lo que le acontece a Alicia está para siempre fuera del alcance de los instrumentos de Bernardo. Por supuesto, el horizonte no tiene ninguna significación especial para Alicia, que se siente

45

ingrávida, observando tranquila cómo Bernardo se aleja en su nave a toda velocidad. Figura 6 El principio de equivalencia. Aceleración

B

B A

A

Campo gravitacional Fuerza extrema

Aceleración El punto de vista de Bernardo

El punto de vista de Alicia

Desde el punto de vista de Bernardo, es Alicia quien se aleja hacia abajo aproximándose a la velocidad de la luz, impelida por la fuerza gravitacional. Las señales que le llegan de Alicia son cada vez más tenues y espaciadas, algo que él atribuye al hecho de que los fotones enviados por Alicia deben “escalar” el campo gravitacional para llegar hasta él y en ese proceso pierden energía. Bernardo ve el horizonte de sucesos como una superficie negra; nada que se encuentre localizado más allá emite energía o información alguna “a este lado” del horizonte. Es decir, solo puede ver la parte de la historia de Alicia anterior a su cruce del horizonte, y esta parte, que representa un tiempo finito para ella, es dilatada infinitamente para Bernardo, de forma que todos los ritmos temporales de Alicia le parecen cada vez más y más lentos, y su proceso de caída hacia el horizonte no termina nunca; esta se queda como “congelada” sobre la superficie límite.

46

Para que algo regrese desde el otro lado del horizonte haría falta que fuera más rápido que la luz (desde el punto de vista de Alicia). Por tanto, la región más allá del horizonte es interpretada como aquella cuya velocidad de escape excede la velocidad de la luz, y el propio horizonte coincide con los puntos en los que la velocidad de escape equivale, de forma exacta, a la velocidad de la luz. A diferencia del caso newtoniano, la región más allá del horizonte está totalmente aislada. En la teoría relativista nada puede salir de una región con velocidad de escape superior a la de la luz. Figura 7 El horizonte de sucesos es perpendicular a las líneas de fuerza.

Horizonte de sucesos

‘Tempus interruptus’ En el ejemplo anterior, Bernardo ve el horizonte como un plano infinito perpendicular a la dirección de la fuerza gravitacional. Si la fuerza gravitacional cambia de dirección de un punto a otro, como en el caso de un campo radial producido por una estrella, el horizonte visto por Bernardo cambiaría a su vez de orientación, manteniéndose localmente perpendicular a las líneas de fuerza.

47

Se deduce que el horizonte de sucesos de un campo gravitacional central, en el que todas las líneas de campo con­­ vergen en un punto, tendría forma esférica y su tamaño correspondería exactamente al punto en el cual la velocidad de escape es la velocidad de la luz. Así, hemos construido un auténtico agujero negro en el sentido de Wheeler. ¿Qué pasa cuando Alicia cruza el horizonte en caída libre? Aunque Bernardo nunca llegará a verlo, ella debería pasar sin enterarse gracias al principio de equivalencia. En realidad, la respuesta más detallada depende del tamaño del agujero negro. Si el horizonte está muy curvado, como corresponde a agujeros relativamente pequeños, las fuerzas de marea serán peligrosas para Alicia. Agujeros negros muy grandes, cuyo horizonte está poco curvado, tienen fuerzas de marea muy pequeñas. En cualquier caso, a medida que sigue cayendo hacia el interior, estas fuerzas de marea no dejan de crecer, haciéndose infinitamente intensas cuando llega al punto central: una singularidad. Una vez dentro del horizonte, la caída de Alicia no tiene marcha atrás, ya que ni siquiera la luz puede “escalar” el campo gravitacional. De la misma forma, al llegar al centro de fuerzas, Alicia no puede “pasarse de frenada” y salir hacia arriba en dirección a las antípodas, porque eso implicaría superar la velocidad de la luz en el tramo de subida. La conclusión es que la singularidad es como un muro infinitamente rígido, impenetrable, con fuerzas de marea infinitas. Cualquier objeto que se le aproxima está forzado a impactar a toda velocidad, solo para ser frenado al instante. En este punto, el lector se da cuenta de que la teoría de Einstein ha perdido el control. Las matemáticas gritan de dolor y el propio concepto de espacio-tiempo queda en entredicho.

48

La singularidad de un agujero negro se parece mucho a un muro temporal que recuerda a la singularidad inicial del Big Bang, excepto que aquí se trata de un final del tiempo, al menos para Alicia. Nadie sabe si esta interpretación es correcta o si, por el contrario, el tiempo continúa de alguna manera más allá de la singularidad. Las mismas preguntas se pueden formular en el caso del Big Bang con respecto a una hipotética fase anterior a este. Por eso, muchos físicos teóricos piensan que una misma clave desvelaría ambos secretos. Figura 8 Si las líneas de fuerza son radiales, el horizonte es esférico.

Más allá de las especulaciones de los teóricos, lo verdaderamente importante es que la teoría de Einstein localiza sus propios límites. Estos límites aparecen como resultado de la evolución ineludible a partir de condiciones iniciales simples y físicamente realizables en principio, como nuestra proverbial nube de botellas de agua en colapso gravitacional bajo su propio peso.

49

De las estrellas congeladas a los agujeros negros Hemos deducido la existencia de agujeros negros de forma un tanto indirecta y cualitativa. Esta forma de presentar las ideas tiene la ventaja de enfatizar su inevitabilidad, en el sentido de que aparecen determinadas por los propios principios de la estructura del espacio-tiempo. Como suele pasar, el camino histórico fue mucho más tortuoso. Aunque las estrellas negras de Michell y Laplace precedieron a la relatividad por más de 100 años, aquella fue una salida en falso. Los agujeros negros en su forma moderna entran en escena con el físico alemán Karl Schwarzschild en 1916. En uno de los primeros trabajos que aplicaban las ecuaciones de Einstein, que se habían publicado hacía poco tiempo, Schwarzschild encontró una solución exacta de estas ecuaciones para un campo gravitacional central, como el generado por una masa puntual. Este resultado es el análogo de encontrar todas las correcciones relativistas a la ley de Newton en una sola fórmula. La solución de Schwarzschild proporciona la geometría del espacio-tiempo vacío en torno a un planeta, una estrella o cualquier fuente de campo gravitacional, siempre que tenga simetría esférica. Una de las sorpresas de las fórmulas de Schwarzschild es que el radio del horizonte de sucesos, que marca la superficie desde la cual no es posible salir, tiene el mismo valor que en la fórmula newtoniana. Es tan simple que no hay excusas para no escribirla: 2GM Rhorizonte = –––––––– c2 El radio del horizonte es simplemente proporcional a la masa total que encierra en su interior. El coeficiente de proporcionalidad es muy pequeño, pues involucra el cuadrado de

50

la velocidad de la luz en el denominador y la constante de la gravitación universal en el numerador. En la escala humana, la luz es muy rápida y la fuerza de gravitación muy débil. Para hacernos una idea: un agujero negro con la masa de todo el planeta Tierra tendría apenas unos centímetros de radio, mientras que uno con la masa del Sol tendría unos 3 km de radio. Estudiando las trayectorias de hipotéticos observadores, como la intrépida Alicia y el esforzado Bernardo, podemos deducir la deformación del espacio y el tiempo inducido por la gravedad. Mientras Alicia atraviesa el horizonte en caída libre y experimenta la singularidad en un tiempo finito de su reloj, su caída hacia el horizonte parece ocupar una eternidad desde el punto de vista de Bernardo, que está parado a una altura fija en el campo gravitacional. Si además de Bernardo tenemos a Carlos también parado en una zona más intensa del campo gravitacional, encontramos que el reloj de Carlos marcha más lento que el de Bernardo… ¡unas vacaciones cerca de un agujero negro rejuvenecen! A medida que Carlos se coloca más y más cerca del horizonte, su reloj marcha más y más lento con respecto al de Bernardo, de forma que se pararía por completo si se encontrara justo sobre el horizonte de sucesos. Esta situación no es realista en absoluto, ya que la energía necesaria para mantener a Carlos parado sobre el horizonte es infinita (debería entonces moverse a la velocidad de la luz con respecto a Alicia). En cualquier caso, para cualquiera que esté parado fuera del agujero negro, el tiempo se congela sobre el horizonte, en el sentido de que todos los procesos se ven “a cámara lenta”, incluida la caída de cualquier cosa hacia el agujero negro. En esta frase, “ver” es un abuso del lenguaje. La luz que tiene que llegar de las inmediaciones del horizonte pierde mucha energía al escalar el campo gravitacional, de forma que resulta imposible detectarla (su

51

longitud de onda se vuelve arbitrariamente larga). Sin embargo, es cierto que si pudiéramos usar cámaras cada vez más sensibles para seguir viendo la caída, esta aparecería como infinitamente lenta a medida que se aproxima el horizonte. Es una situación que realiza la famosa paradoja de Zenón de Elea entre Aquiles y la tortuga. La infinita inercia temporal del horizonte explica por qué los agujeros negros se conocieron como “estrellas congeladas” durante la primera mitad del siglo XX. Resulta curioso que muchos físicos importantes, como el propio Einstein, consideraran durante mucho tiempo que la congelación del tiempo en el horizonte era una singularidad física del mismo tipo que la que ocurre en el interior del agujero negro. Suponían que las leyes de la física no permitirían comprimir la materia real por debajo del radio de Schwarzschild. Esto parecía razonable a la vista del ejemplo de la Tierra, ya que un agujero negro con masa terrestre tiene que tener una densidad 1010 veces mayor que la nuclear. Sin embargo, como ya el propio Michell sabía siglo y medio antes, la velocidad de escape puede superar a la luz en situaciones que no son nada extremas. Si la masa es suficientemente grande, la densidad del agujero negro puede ser arbitrariamente baja. Podemos considerar una nube de asteroides, separados entre sí por distancias de millones de kilómetros. Si esta nube es suficientemente grande, se ve como un agujero negro desde fuera, con un horizonte de sucesos con tiempo congelado y todos los efectos antes indicados. Este argumento intuitivo para agujeros negros de baja densidad fue establecido con todo detalle, usando las matemáticas de la teoría general de la relatividad, por John R. Oppenheimer y Hartland Snyder en 1939. En este trabajo se discutía el colapso gravitacional de una nube de polvo y se demostraba con todo lujo

52

de detalles que el colapso es inevitable para cualquier valor de la densidad, siempre que la masa total sea suficientemente grande. También quedaba claro que el horizonte no es una singularidad y está bien descrito por la solución de Schwarzschild. A pesar de que Oppenheimer y Snyder establecieron por completo la consistencia de los horizontes, hubo que esperar hasta los años sesenta para que la investigación sobre los agujeros negros se volviera una moda entre los físicos teóricos y los astrofísicos.

Dando la vuelta al calcetín Existe otro ejemplo diferente de horizonte que tiene una importancia potencialmente capital. Hemos dicho, en el capí­­ tulo anterior, que el universo parece estar en una fase de ex­­ pansión acelerada. Las galaxias más remotas se alejan de nosotros más rápido que las galaxias cercanas, pero, además, cualquiera de ellas se aleja hoy más rápido que ayer. De seguir así, esto significa que todas ellas acabarán por aproximarse a la velocidad de la luz. También significa que hay galaxias en el universo cuya luz nunca llegará hasta nosotros, aunque esperemos una eternidad, puesto que la fabricación constante de espacio entre medias impide que los fotones puedan completar el viaje. Todas estas consideraciones nos dicen que, en un espaciotiempo en expansión acelerada como el que parece corresponder a nuestro universo, debe existir un horizonte de sucesos cosmológico. Como las aceleraciones de las galaxias que nos rodean son radiales, el horizonte debe ser esférico, igual que el de un agujero negro, excepto que aquí la parte negra es lo que queda fuera, a diferencia de un agujero negro, cuya zona

53

invisible es el interior de la esfera. En este caso, la parte visible sería el interior de esta esfera de no retorno, en cuyo centro nos encontraríamos nosotros. La descripción matemática de este espacio-tiempo también se remonta a los primeros estudios de las ecuaciones de Einstein, cuando en 1917 el astrónomo holandés Willem de Sitter encontró la geometría correspondiente a una constante cosmológica. Para nuestro universo el tamaño de esta esfera sería de unas 20.000 veces la distancia que nos separa de la galaxia de Andrómeda. Figura 9 En un universo dominado por energía oscura positiva, el horizonte rodea a Bernardo por completo.

De la misma manera que Bernardo ve cómo Alicia se aproxima indefinidamente al horizonte sin cruzarlo nunca acabaremos por tener a todas las galaxias congeladas sobre el horizonte cosmológico, cada vez más tenues, hasta que sus fotones sean tan débiles que no los podamos detectar. Esto ocurrirá, por supuesto, bajo la hipótesis de que la expansión acelerada que observamos se mantenga eternamente. En ese caso la astronomía será poco interesante para nuestros descendientes. Para ellos, la Vía Láctea parecerá una isla solitaria en el centro

54

de un universo vacío. Resultaría irónico que una visión “ga­­ lactocéntrica” acabara por imponerse miles de millones de años después de que el geocentrismo griego hubiera sido relegado por la historia.

Lo que sabemos • Los horizontes, entendidos como fronteras de causalidad, son una consecuencia de las leyes básicas del espacio-tiempo. Aparecen de forma natural a partir de colapsos gravitacionales de materia ordinaria. • En el interior de los horizontes de tamaño finito, teoremas demostrados por Stephen Hawking y Roger Penrose entre los años sesenta y setenta demuestran que las singularidades son ineludibles bajo condiciones físicamente razonables, siempre y cuando la fuerza de gravedad se comporte como una interacción universalmente atractiva. • Existe un cierto paralelismo formal entre el interior de los agujeros negros y un universo en colapso hacia una singularidad final, una suerte de Big Crunch, definido como el proceso inverso al Big Bang.

Lo que ignoramos • La singularidad marca los límites de la descripción geométrica del espacio-tiempo. La mayor parte de los físicos opinan que solo la incorporación plena de la mecánica cuántica podrá determinar la naturaleza real de la singularidad. • La singularidad existe en el futuro del interior de un agujero negro, pero el horizonte asegura que esta es siempre

55

invisible desde el exterior. Existe una conjetura no demostrada, llamada de la censura cósmica, según la cual esta situación sería bastante general: todas las singularidades formadas a partir de condiciones iniciales “razonables” estarían protegidas por horizontes que las mantendrían causalmente desconectadas. El problema en demostrar esta conjetura siempre ha sido la caracterización de lo que se entiende por “condición inicial razonable”. • No sabemos si la aceleración del universo se debe, como así parece, a una constante cosmológica. Existe un esfuerzo importante en la comunidad de cosmólogos experimentales para determinar si en realidad la aceleración de la expansión cósmica es constante o no. Si la densidad de energía del vacío fuera a disminuir con el tiempo, entonces el horizonte de sucesos cosmológico podría no existir. En este caso nuestros descendientes podrían “ver” regiones cada vez más remotas del espacio.

56

CAPÍTULO 4

Un zoo de agujeros negros

Los agujeros negros pueden ser el resultado de procesos complicados, en ocasiones violentos. Sin embargo, los físicos teóricos están de suerte porque, cuando se relajan, todos los agujeros negros se parecen. En pocas palabras, son todos “calvos”.

Alopecia negra Sin duda, la singularidad interior es el aspecto más misterioso de un agujero negro. Sin embargo, como nada puede salir del horizonte de sucesos, nuestra ignorancia sobre la naturaleza de la singularidad no tiene repercusión directa sobre la interacción de los agujeros negros con su entorno. Para esto solo necesitamos conocer las propiedades del horizonte, que se deducen del estudio detallado de las ecuaciones de Einstein y resultan ser bastante universales. Visto desde fuera, el horizonte de un agujero de Schwarz­­ schild es una esfera negra. Si lo perturbamos arrojándole material, su forma se vuelve dinámica, pero acaba relajándose

57

relativamente rápido, quedando un nuevo horizonte esférico y mayor que el anterior. Esta tendencia a recuperar la forma esférica recuerda al comportamiento de una membrana con una “tensión superficial”, como una pompa de jabón. El tiempo típico de relajación es del orden del tiempo que tarda un fotón en cruzar la región del espacio ocupada por el agujero, es decir R/c, donde R es el radio del agujero negro y c es la velocidad de la luz. En realidad los horizontes no tienen entidad material intrínseca, puesto que hemos visto cómo Alicia los puede atravesar en caída libre, sin encontrar nada que los distinga localmente del espacio vacío. Esto es una consecuencia del principio de equivalencia, pero la descripción de Bernardo, que se mantiene a distancia fija del horizonte, tiene muchos aspectos que sugieren la metáfora del horizonte como una membrana con propiedades intrínsecas. Puede resultar sorprendente que un agujero negro se pueda relajar a una configuración estándar cuando hemos dicho que el proceso de colapso no termina nunca desde el punto de vista del exterior (el punto de vista de Bernardo). En realidad, toda la información sobre la historia previa se puede imaginar como si estuviera “apilada” en estratos infinitesimalmente finos sobre el horizonte. En la práctica, Bernardo no puede acceder a esa información porque le llega en forma de luz con energía exponencialmente baja. De manera coloquial, los físicos suelen decir que “los agujeros negros carecen de cabellera”. Metafóricamente, se entiende por “pelo” del agujero negro todos aquellos detalles de la estructura fina del horizonte que dependen de su historia previa. Como el pelo es prácticamente invisible a la larga, los horizontes de todos los agujeros negros quedan determinados solo por los tres parámetros que Bernardo puede medir desde la distancia: su masa, su carga eléctrica y su momento angular de rotación. Los

58

físicos se refieren a este resultado como el “teorema del horizonte calvo”, aunque tal vez sería más apropiado llamarlo “teorema del pelo aplastado”. Figura 10 Según Bernardo, la “cabellera” del horizonte son los detalles de todo el material que sigue en caída eterna, acumulándose en estratos más y más finos sobre el horizonte.

Los diferentes tipos de agujeros negros están relacionados con los valores de los parámetros que se pueden medir desde lejos. El más simple de todos ya lo hemos presentado en el capítulo anterior: se conoce como el agujero negro de Schwarzschild y solo se caracteriza por su masa. Su horizonte es esférico y la geometría exterior es completamente estática. Sobre los demás conviene detenerse un poco más.

Reissner-Nordstrom Si un agujero negro se traga una partícula cargada, como un electrón, el campo eléctrico correspondiente sigue siendo visible desde lejos aun cuando el propio electrón haya sido absorbido por el horizonte. Visto desde fuera, el horizonte absorbe la carga eléctrica y esta se distribuye de manera uniforme, de

59

manera que las líneas de fuerza eléctrica emergen radialmente, como si el horizonte fuera un conductor cargado. En este caso el teorema del horizonte calvo implica que toda la información acerca del punto concreto por donde entró el electrón (latitud y longitud) queda relegada a las capas profundas del horizonte, prácticamente imposibles de detectar pasado el tiempo de relajación. Si existen los monopolos magnéticos, como algunas teorías especulativas preconizan, los agujeros negros que se los traguen también podrán exhibir los correspondientes campos magnéticos monopolares. Sin embargo, un campo magnético ordinario de tipo dipolar no dejaría residuo en el horizonte: si tiramos un imán a un agujero negro, la homogeneización del horizonte implica que no queda carga magnética neta y que, por tanto, no puede haber polos magnéticos en un agujero negro. Veremos que esto es relevante para distinguir astronómicamente un agujero negro de otros objetos con campos gravitacionales muy grandes, como las estrellas de neutrones, que sí se comportan como imanes muy potentes. Los físicos no esperan encontrar agujeros negros con carga eléctrica en el mundo real. La razón es que cargar un agujero negro arrojándole electrones o protones no es fácil. A medida que la carga del horizonte va aumentando, la fuerza eléctrica repele cualquier carga del mismo signo y domina a la gravitación con mucha facilidad. Para hacerse una idea de los números involucrados, podemos comparar la repulsión eléctrica entre dos protones con su atracción gravitatoria: resulta que la repulsión es 1036 veces más fuerte que la atracción. En consecuencia, para que un agujero cargado se pueda formar por colapso hace falta que su masa exceda a su carga en un factor 1018, donde tanto la masa como la carga se miden en unidades del protón. Si esta

60

proporción entre masa y carga se satura, decimos que tenemos un agujero negro extremo. Incluso si alguien nos proporciona un agujero negro cargado ya conformado, la gran intensidad del campo eléctrico en la zona del horizonte implica que cualquier átomo neutro que se avecine será partido por las fuerzas eléctricas, de forma que un agujero negro con carga positiva atrae y se traga los electrones y repele los protones, y un agujero negro con carga negativa hace lo contrario. En ambos casos el agujero negro se va neutralizando de forma gradual hasta que pierde toda su carga. Incluso en el vacío, el campo eléctrico puede generar pares electrón-positrón mediante fluctuaciones cuánticas, que se comportan como se ha indicado antes para acabar neutralizando el agujero negro. La solución matemática de las ecuaciones de Einstein para agujeros con carga eléctrica fue deducida por el alemán Hans Reissner y el finlandés Gunar Nordstrom entre 1916 y 1919 como una generalización de la solución de Schwarzschild. Tiene propiedades peculiares que siempre han fascinado a los teóricos; por ejemplo, el horizonte desaparece en cuanto el agujero negro se sobrecarga por encima del límite extremo, dejando la singularidad “desnuda”. Incluso el caso extremo es especial, pues el horizonte se encuentra al final de un tubo de longitud infinita.

Kerr A diferencia de la carga eléctrica, la rotación de un agujero negro es una característica de gran importancia práctica, en especial en situaciones realistas desde el punto de vista astronómico, ya que los sistemas cuyo colapso gravitacional puede dar lugar

61

a agujeros negros, como estrellas o nubes frías de gas, tienen en general un movimiento de rotación propio. Cuando cualquier sistema material rota sobre sí mismo existe una cantidad conservada conocida técnicamente como el “momento angular”. Está determinado como el producto entre la masa, la frecuencia de giro y el cuadrado del radio de giro, promediado sobre todos los componentes del sistema. La conservación del momento angular explica el aumento de velocidad de giro de un patinador cuando recoge los brazos, pues así disminuye el radio de giro de una parte de su masa y, en consecuencia, se debe aumentar la frecuencia de giro para conservar el producto. En un planeta o estrella en rotación el ecuador sufre mayor fuerza centrífuga que una latitud intermedia, lo que da lugar al característico “achatamiento por los polos”. De manera análoga, el horizonte de un agujero negro que se ha generado por colapso de una estrella en rotación también muestra un ensanchamiento en su ecuador. La solución exacta de las ecuaciones de Einstein que corresponde a un agujero en rotación fue encontrada relativamente tarde, en 1963, por el matemático neozelandés Roy Kerr. Su estructura es mucho más rica que las de Schwarzschild o Reissner-Nordstrom, pues incluye interesantes modificaciones de las condiciones en la zona exterior próxima al horizonte, debido a un efecto relativista llamado arrastre inercial. La ley de gravitación de Einstein, a diferencia de la new­­ toniana, incluye efectos de tipo “magnético”. Igual que una esfera eléctricamente cargada genera un campo magnético al girar sobre sí misma, la teoría de Einstein predice que hay un componente análogo en la fuerza gravitacional ejercida por una masa en rotación. Esta componente de la fuerza gravitacional se llama “magnética” porque actúa sobre un objeto en órbita de la

62

misma manera que el campo magnético de un núcleo atómico actúa sobre un electrón en órbita. Por ejemplo, un objeto que cae directamente en dirección al centro de una masa en rotación, pero manteniéndose dentro del plano perpendicular al eje de rotación, sufre, de manera necesaria, una minúscula fuerza lateral que tiende a arrastrarlo a favor de la dirección de rotación del objeto central. El efecto se puede describir metafóricamente imaginando el espacio como un fluido viscoso, de forma que el objeto central transmite parte de su rotación al fluido, que a su vez arrastra cualesquiera objetos inmersos en su interior. El arrastre del fluido es más eficiente cuanto más cerca nos encontramos de la masa central en rotación. Es decir, en nuestra metáfora del fluido, la viscosidad aumenta con la profundidad. Figura 11 En un agujero de Kerr el arrastre inercial aumenta con la profundidad. En el interior de la ergosfera el arrastre se vuelve irresistible.

Arrastre imperceptible

¡Rotura! Arrastre moderado

Arrastre irresistible

Dirección de arrastre

63

En el caso de un agujero negro de Kerr, este efecto se amplifica hasta el punto de que la zona del espacio muy cercana al horizonte se comporta como si estuviera rígidamente anclada en él. En este caso, cualquier masa que se aventure en sus inmediaciones se ve arrastrada sin remedio a rotar con la misma frecuencia que el propio horizonte. La región en torno al horizonte en la que es imposible evitar el arrastre, por más que nuestro esforzado Bernardo arranque los motores de su nave a toda potencia, se llama ergosfera y alcanza hasta el llamado límite estacionario. Si Ber­­ nardo cae por debajo de este límite, todavía puede salir fuera de la ergosfera usando los motores de su nave, pero le resulta imposible estar parado en su interior: el arrastre inercial es irresistible allí dentro. Por el contrario, fuera de la ergosfera Bernardo puede usar sus motores para contrarrestar el arrastre e incluso vencerlo y girar en sentido contrario al agujero negro.

Magia negra El famoso físico-matemático británico Roger Penrose descubrió, en los años sesenta, que la ergosfera tiene propiedades energéticas sorprendentes. Introduciendo una cierta cantidad de energía desde fuera, es posible diseñar procedimientos que acaban con una extracción neta de energía del agujero negro. Esta energía proviene de la rotación del agujero negro y se puede entender de manera intuitiva con la metáfora del fluido viscoso. Para simplificar el argumento, podemos imaginar que la viscosidad es tan alta en la ergosfera que todo el espacio interior al límite estacionario está rígidamente anclado en el horizonte, como un tiovivo que gira solidariamente con su eje central. Si

64

tenemos un tiovivo girando y queremos subirnos a él, podemos intentarlo a favor de la rotación o en contra de esta. En el segundo caso es fácil que choquemos contra uno de los caballitos y salgamos despedidos en la dirección de la rotación del tiovivo. Si el giro del tiovivo es lo suficientemente rápido, este efecto nos puede proyectar en retroceso a una velocidad muy superior a la que llevábamos inicialmente. Extraemos así energía a costa de un ligero frenado del tiovivo. En un agujero negro en rotación es posible obtener un efecto parecido. No es que el espacio tenga “caballitos” anclados que te puedan empujar, pero el arrastre inercial tiene el efecto de permitir trayectorias de energía negativa en la ergosfera. Por tanto, se puede extraer energía “soltando lastre” de manera apropiada. Imaginemos que Bernardo y Alicia entran juntos en la ergosfera. Una vez dentro, apoyándose en Bernardo para catapultarse, Alicia se lanza hacia el horizonte “a contracorriente” con respecto al arrastre inercial. Dado que está dentro de la ergosfera, es imposible que evite ser arrastrada, pero, al impulsarse a contracorriente, sí que puede caer en una trayectoria de energía negativa. El movimiento de retroceso de Bernardo, a favor del arrastre inercial, amplifica entonces su ganancia de energía por encima de la energía inicial de la pareja. Cuando Alicia cae en el horizonte, le transfiere su energía negativa y su momento angular negativo, de forma que el agujero negro se frena ligeramente y pierde la energía extra que Bernardo ha sacado de la ergosfera. Este mecanismo inventado por Penrose se ha planteado como uno de los componentes de funcionamiento de los motores gravitacionales en núcleos galácticos activos. La posibilidad de extraer energía rotacional del agu­­ jero negro plantea una paradoja. La masa de un agujero de

65

Schwarzschild, que a su vez determina su energía por la ecuación de Einstein E=mc2, es más o menos equivalente a su tamaño. Como nada puede salir del horizonte, parece imposible que la energía contenida en un agujero negro pueda descender. Pero si podemos extraer energía de un agujero de Kerr, ¿no debería hacerse más pequeño? ¿Cómo es posible tal cosa si nada puede salir del horizonte? La resolución de esta paradoja es fascinante. Recor­­demos que la extracción de energía por el mecanismo de Penrose no involucra la eyección de energía positiva por parte del horizonte, sino la absorción de energía negativa. Así no hay necesidad física de que nada “salga” del horizonte. Cada vez que sacamos energía del agujero con este método lo frenamos ligeramente. Esto implica que la ergosfera es cada vez más pequeña hasta que, al final, acabamos con un agujero negro Schwarzschild sin ergosfera, en el cual ya no funciona el mecanismo de Penrose. De estas consideraciones se deduce que la energía total contenida en un agujero Kerr se puede descomponer en dos partes: una parte “rotacional” que se puede extraer mediante el mecanismo de Penrose, y una parte “irreducible”, que es la que queda cuando el agujero negro ha perdido todo su momento angular. La componente irreducible es proporcional al área del horizonte, que siempre crece en el proceso de Penrose. De hecho, Hawking demostró matemáticamente que el área de un agujero negro siempre crece en todo tipo de procesos en los que la gravitación se puede considerar una fuerza atractiva. Un ejemplo dramático del teorema del crecimiento de áreas ocurre cuando consideramos la fusión de dos agujeros negros, un proceso que, como veremos más adelante, podría ser relativamente corriente en el universo. Cuando dos agujeros

66

negros de masas M1 y M2 se fusionan, una parte de la energía es radiada en forma de ondas gravitacionales, de manera que la masa del agujero negro final es ligeramente inferior a la suma de las masas de los agujeros negros originales: Mfinal < M1 + M2

El teorema de Hawking establece una cota superior a la cantidad de energía que se puede escapar en forma de radiación gravitacional, pues sabemos que el área total de todos los horizontes tiene que crecer: Afinal > A1 + A2

Para agujeros de tipo Schwarzschild, encontramos que no más del 25% de toda la energía inicial puede ser radiada. Lo fascinante de estos resultados es que la componente “irreducible” de la energía, la que es proporcional al área del horizonte, se comporta como la entropía de un sistema termodinámico, y la ley de crecimiento de las áreas de los horizontes es idéntica al segundo principio de la termodinámica. Los físicos llaman termodinámico a un sistema con un número muy grande de componentes o “partes móviles” en interacción, entre las que se distribuye la energía de forma estadística. En estos sistemas la energía total se puede dividir en una parte “ordenada” y una parte “caótica”. En la componente ordenada todas las partes móviles participan de un movimiento coherente, como el fluir del agua de un río. La caótica se conoce vulgarmente como calor y corresponde a la energía contenida en los movimientos irregulares de las partes móviles en interacción mutua, a menudo en escalas de tiempo microscópicas. La entropía mide el grado de desorden de la componente caótica de la energía, y es

67

proporcional al número efectivo de “partes móviles” que contribuyen a esta componente caótica. Normalmente se denota con la letra S: S = entropía = número efectivo de partes móviles caóticas.

El segundo principio de la termodinámica sostiene que la en­­tropía siempre tiende a aumentar en un sistema cerrado. Puesto que el movimiento caótico de las componentes microscópicas de un sistema es la parte que no podemos seguir en detalle, la entropía también se interpreta como una medida de la información oculta en un sistema físico. En esta interpretación, debida a Ludwig Boltzmann, podemos entender el segundo principio de la termodinámica como la tendencia natural de cualquier sistema a desordenarse por la interacción incoherente de muchas componentes. Resulta fascinante, pues, que las leyes de la dinámica de los agujeros negros, que solo involucran la teoría de Einstein en su derivación, acaben teniendo la misma forma que las leyes de la termodinámica. Todo sucede como si el horizonte tuviera una gran cantidad de partes móviles que contribuyen a la componente irreducible de la energía total de forma democrática. Hemos visto que el horizonte parece una membrana con tensión superficial cuando lo perturbamos mecánicamente. También se comporta como un conductor de electricidad y se le puede asignar una noción de viscosidad. Ahora vemos que incluso parece tener entropía, como si estuviera compuesto de partes móviles en movimiento caótico. Todo ocurre como si la cabellera del agujero negro, toda esa estructura fina histórica apilada sobre el horizonte, se comportara como un conjunto de grados de libertad desordenados. Esta idea tomó un gran protagonismo a partir de 1972, cuando

68

el físico judío de origen mexicano Jakob Bekenstein propuso un argumento explícito, de carácter cuántico, para asociar una entropía al horizonte de un agujero negro. Si así fuera, aunque el horizonte no sea un “objeto material”, se le parece bastante, al menos en el sistema de referencia de Bernardo. Pero en este caso el horizonte debería estar “caliente”, lo cual parece completamente absurdo a la luz del principio de equivalencia. Nuestra intrépida Alicia en caída libre atraviesa el horizonte sin notar nada diferente a una región de vacío con algunas fuerzas de marea, que se pueden hacer arbitrariamente suaves si el agujero negro es arbitrariamente grande. Esta objeción era la principal motivación de Hawking cuando se puso a trabajar intensamente en 1974, con el objetivo de demostrar que Bekenstein estaba equivocado. Excepto que… ¡Hawking encontró que Bekenstein tenía razón! Incluso fue capaz de calcular la temperatura de un agujero negro, pero esa es otra historia que tendremos ocasión de contar en un capítulo posterior. Por ahora basta decir que la temperatura cuántica del horizonte deducida por Hawking es bajísima en el caso de agujeros negros de interés astronómico y, por tanto, irrelevante en la práctica.

Rarezas Habiendo comenzado el libro con una anécdota de la serie Star Trek, no podemos dejar pasar la ocasión de comentar algunos ejemplos exóticos que podrían servir como justificación científica de algunos de los guiones más atrevidos de la ciencia-ficción y que, de hecho, se usan como fuente de inspiración en ese ámbito. Si nos olvidamos de los agujeros negros como resultado de un proceso de colapso a partir de materia ordinaria, nos podemos

69

preguntar por las soluciones matemáticas más generales de las ecuaciones de Einstein que corresponden a un agujero negro “visto desde fuera”. Resulta que existen muchas soluciones con estructuras muy interesantes cuando nos metemos en el horizonte. En otras palabras, si Alicia se arroja dentro, se podría llevar alguna que otra sorpresa. Einstein y su colaborador, Nathan Rosen, ya descubrieron en los años treinta que existe una solución de las ecuaciones por la que un par de agujeros negros están unidos por su interior, como si este fuera una habitación con dos puertas. Cada agujero negro puede vivir en un universo independiente o en lugares distantes del mismo universo, de forma que el interior compartido es un puente espacio-temporal, a veces llamado agujero de gusano. El puente de Einstein-Rosen no se puede usar para viajar de un universo a otro porque no hay manera de salir por la otra puerta una vez que has accedido al interior. El túnel colapsa sobre el viajero de forma ineludible. Sin embargo, las cosas son más interesantes si el agujero negro está cargado. En un Reissner-Nordstrom resulta que la singularidad no está en el futuro de Alicia de forma ineludible, sino que se encuentra en un lugar concreto del in­­terior (el centro del agujero negro) y Alicia puede, en principio, maniobrar su nave para evitarla. Más aún, el interior contiene un agujero de gusano por el que se puede salir a un universo paralelo. El problema es que se trata de una solución inestable. Cualquier perturbación, cualquier fotón que entre, la propia Alicia en su intento de completar su viaje, produce una alteración del espacio-tiempo interior suficiente para hacer colapsar el túnel, de forma que la situación acaba siendo parecida a la del agujero de gusano de Einstein-Rosen. El interior de los agujeros de tipo Kerr es parecido. De nuevo, existen soluciones matemáticas con túneles a otros

70

universos paralelos, pero son todos inestables. Incluso existe una región en el interior de un Kerr que podría funcionar como una máquina del tiempo. El problema es que también se muestra muy sensible a cualquier perturbación. En cierto sentido, todas estas soluciones solo existen si están exactamente vacías de materia en su interior. Por eso ningún agujero negro formado “normalmente” por procesos de colapso gravitacional puede tener estas estructuras. Si queremos usar estos artilugios para viajar en el tiempo, ¡no tendremos más remedio que fabricarlos nosotros mismos! Existen muchas dudas sobre la posibilidad de lograrlo, siquiera en principio. Todos los puentes espacio-temporales que se han propuesto suelen requerir la concentración de grandes cantidades de energía negativa, de un tipo que no hemos visto en la naturaleza. Incluso aunque tales fuentes de energía negativa pudieran concebirse, todas estas soluciones tienden a ser inestables, con lo que, después de todo, tendrían poca utilidad práctica.

Lo que sabemos • Una serie de teoremas demostrados entre finales de los años sesenta y principios de los setenta por Hawking, Israel, Carter y Robinson prueban que el horizonte de un agujero negro siempre posee una topología esférica y su geometría solo depende de la masa, la carga electromagnética y el momento angular de rotación. La solución más general de las ecuaciones de Einstein con estas propiedades se conoce como la métrica de Kerr-Newman. • Los agujeros negros de Kerr tienen una velocidad angular máxima. Se trata de un límite extremal parecido a la carga

71

máxima de un Reissner-Nordstrom y tiene una interpretación parecida: si la rotación de una nube de materia en colapso es demasiado grande, la fuerza centrífuga impide la formación del agujero negro. • El tiempo de relajación de perturbaciones del horizonte es rápido, del orden de R/c, donde R es el tamaño del horizonte y c la velocidad de la luz, excepto en el caso de agujeros casi extremos (por carga eléctrica o rotación), cuya relajación es mucho más lenta. Esta escala de tiempo caracteriza la desaparición de la “cabellera” del agujero negro, es decir, los detalles de su proceso de formación. • Hawking demostró en 1971 que el área de un horizonte no puede decrecer en ningún proceso gobernado por la teoría general de la relatividad, bajo la hipótesis de que la energía es suficientemente positiva como para que la gravitación se comporte como una fuerza atractiva. • El estudio de los procesos energéticos en la ergosfera, el teorema de crecimiento de áreas y el análisis de la relajación de perturbaciones acabó por resumirse en las cuatro leyes de la mecánica de los agujeros negros, formuladas en 1972 por Bardeen, Carter y Hawking y que son análogas a las cuatro leyes de la termodinámica: Ley 0: La intensidad de la fuerza gravitacional es idéntica en todos los puntos de un horizonte. Ley 1: La energía transferida a un agujero negro tiene una componente electromagnética, una componente rotacional y una componente irreducible asociada al incremento de área del horizonte. Ley 2: El área de un agujero negro siempre crece. Ley 3: El tiempo de relajación es inversamente proporcional a la intensidad de la fuerza gravitacional en el horizonte (con una definición técnica que no podemos detallar aquí).

72

Lo que ignoramos • Existe una conjetura debida a Hawking, llamada de protección cronológica, según la cual no se podrían formar curvas cerradas temporales a partir de condiciones iniciales “razonables”. Siguiendo hacia el futuro una curva cerrada temporal, podemos, en principio, volver al punto de partida en el pasado, por lo que podría interpretarse en cierto sentido como un viaje en el tiempo. Esta conjetura está sugerida por el carácter artificial de todos los ejemplos conocidos de espacio-tiempo con curvas temporales cerradas, además de su tendencia a la inestabilidad. El mayor problema en la demostración de esta conjetura es, al igual que ocurre con la “censura cósmica”, la elucidación matemática del concepto de “condición inicial razonable”.

73

CAPÍTULO 5

¿Dónde están?

Si los agujeros negros son consecuencias ineludibles de leyes de la física bien establecidas, ¿por qué no nos encontramos con ellos constantemente? En otras palabras, si basta una nube suficientemente grande de material para que el colapso sea inevitable, ¿por qué no son tan abundantes en el espacio como las propias estrellas?

Fabricar un agujero negro El mundo está lleno de estructuras estables de diferentes tamaños: partículas elementales, núcleos atómicos, átomos, moléculas, personas, planetas, estrellas, galaxias… Esta asombrosa disparidad de tamaños tiene su origen último en las diferentes intensidades de las cuatro fuerzas fundamentales de la naturaleza: las llamadas interacciones nucleares fuertes y débiles, la interacción electromagnética y la gravitación. Por encima de la escala atómica de distancias solo las fuerzas electromagnéticas y gravitacionales son relevantes. Pero estas difieren en su

74

intensidad intrínseca en ¡36 órdenes de magnitud! Esta enormidad queda demostrada cada vez que tomamos un lápiz de la mesa y lo levantamos sin esfuerzo. Las fuerzas electromagnéticas ejercidas sobre los átomos en contacto entre nuestros dedos y el lápiz son capaces de vencer el tirón gravitacional de todo el planeta. Resulta así que la diferencia de tamaño entre la Tierra y un átomo no es casual. Precisamente el cociente entre los tamaños de ambos es un factor del orden de 1018, que es la raíz cuadrada del cociente entre la intensidad de la fuerza electromagnética y la gravitacional. La velocidad de escape de la Tierra es menos de la diezmi­­ lésima parte de la velocidad de la luz, pero si la fuerza de la gravitación fuera 1.000 millones de veces más intensa, nuestro planeta mediría centímetros y sería un agujero negro. De hecho, si la gravitación fuera igual de fuerte que el electromagnetismo, hasta los núcleos de los átomos serían diminutos agujeros negros. Sin embargo, como el propio Michell sabía, una nube de material diluido con densidad constante forma un agujero negro si es suficientemente grande. Por volver a nuestro ejemplo favorito: una nube con el tamaño del sistema solar y una densidad de unas pocas botellas de agua por metro cúbico superaría la velocidad de escape relativista en su superficie y, por tanto, se vería como un agujero negro desde fuera. Esta densidad es modesta a escala humana, pero es muchísimo mayor que la densidad media de materia en el universo, así que una nube de material con estas características tiene que ser el resultado del colapso de una nube que era originalmente mucho mayor. Pero no es tan fácil… Supongamos que la nube inicial es 1.000 veces más grande que el tamaño del agujero negro, con lo que nuestras botellas han recorrido una distancia radial de ese

75

orden en su camino hacia el colapso. Se deduce que las velocidades iniciales de todas las botellas de la capa exterior de la nube original tenían que estar alineadas hacia el centro con una precisión de una parte en mil o ser tan pequeñas como para considerar que la nube inicial estaba formada por partículas en reposo. En el universo primitivo no había nubes de botellas con velocidades prefijadas, sino nubes de gas con velocidades al azar, de forma que una parte pequeña de la nube tiene una componente de rotación en torno al centro que tiende a mostrar una dirección aleatoria. Como la “cantidad de rotación” debe conservarse (otra vez la conservación del momento angular), el colapso resulta en una nube más densa en rotación más rápida, igual que le pasa al patinador al recoger los brazos. A medida que la nube se hace más pequeña, la velocidad media de rotación aumenta hasta que la fuerza gravitacional sobre una parte de la nube queda equilibrada por la correspondiente fuerza centrífuga, como en cualquier órbita planetaria. El resultado es una configuración de equilibrio que los físicos denominan virial, en la que cada componente de la nube sigue una órbita en el campo gravitacional creado por el conjunto de todas ellas. Cada órbita es caótica, pero en promedio tienen un radio característico. Por tanto, para formar agujeros negros por colapso de material diluido es conveniente frenar las componentes de movimiento azaroso, de forma que el colapso esté dirigido “hacia el centro” de forma más ordenada. En otras palabras, hace falta que el material se enfríe lo suficiente. Las nubes de gas pueden enfriarse eficientemente por emisión de radiación electromagnética si están ionizadas. Incluso se pueden enfriar nubes moleculares si las moléculas irradian parte de su energía de movimiento, que se puede transferir mediante colisiones. De hecho, si el proceso de enfriado es muy eficiente, el gas tiende

76

a fragmentarse y colapsar en nubes más pequeñas, cuya masa no es suficiente para formar un agujero negro, sino más bien una estrella ordinaria. Una vez encendido el motor nuclear de la estrella, los vientos de radiación estelar limpian los alrededores y producen ondas de choque que generan otras estrellas más allá. Por tanto, vemos que un enfriado demasiado eficiente acaba con una nube de estrellas, mientras que un enfriado ineficiente acaba con una nube de gas en equilibrio que no puede colapsar más si no logra librarse de componentes de rotación al azar. Lo que acabamos de contar es la narrativa usual a la que se enfrentan los astrofísicos que estudian el origen de las galaxias a partir del gas casi uniforme que quedó tras el Big Bang. Se cree que la mayor parte de la masa de las galaxias, casi toda en forma de la inerte materia oscura, está en equilibrio virial en grandes nubes llamadas halos, mientras que la pequeña componente de materia ordinaria puede radiar y enfriarse lo suficiente como para colapsar en estrellas y, tal vez, en un agujero negro central. En todo caso, la ruta más eficiente hacia la formación de agujeros negros en la naturaleza pasaría por esperar al destino final de las estrellas. Estas están sostenidas por la presión interna que se genera en las reacciones de fusión nuclear. Cuando el combustible nuclear se agota, el material de la estrella cae hacia el centro de forma coherente, formando un colapso “ordenado” capaz de formar eficientemente un agujero negro, salvo que exista una configuración de equilibrio debido a fuerzas no gravitacionales. La configuración de equilibrio más compacta que nos podemos imaginar tiene a todos los núcleos apilados “codo con codo”, formando una pelota de densidad nuclear. Si los electrones de los átomos son comprimidos hasta que entran en los núcleos, reaccionan con los protones para dar lugar a neutrones (y neutrinos que escapan con rapidez). El resultado

77

es una pelota nuclear hecha principalmente de neutrones empaquetados. Estas bolas extremadamente densas se llaman estrellas de neutrones, y existen realmente ahí fuera. Miden una veintena de kilómetros y tienen una masa del orden de la masa del Sol. Algunas giran sobre sí mismas a decenas de revoluciones por segundo y arrastran campos electromagnéticos fortísimos que emiten pulsos de radiación y aceleran partículas cargadas como protones, electrones y positrones a energías relativistas, proyectándolas sobre un haz que barre el cielo a medida que la estrella gira sobre sí misma. Actúan así como “faros interestelares” que los astrónomos denominan púlsares. La velocidad de escape desde la superficie de una estrella de neutrones es aproximadamente un tercio de la velocidad de la luz. Así que, sin llegar a formar agujeros negros, pueden actuar como motores gravitacionales relativistas y propulsar chorros de radiación de alta energía. Las estrellas de neutrones de masa solar se quedan cerca de formar agujeros negros. Podríamos formar uno apilando seis o siete de estas estrellas como si fueran pelotas en un saco. Teniendo en cuenta que la gigantesca fuerza gravitacional tiende a comprimirlas más, cálculos detallados que se realizaron en los años treinta muestran que en realidad basta alcanzar una masa de unas tres veces la del Sol para obtener un agujero negro. Los astrofísicos creen que las estrellas de neutrones se forman en episodios violentos de muerte estelar, cuando las estrellas gigantes acaban todos sus ciclos de quemado nuclear y se desploman sobre sí mismas violentamente. En este proceso se forman ondas de choque gigantescas que producen la eyección explosiva de las capas externas: las famosas supernovas, cuya luminosidad puede ser, durante un corto periodo, superior a la de una galaxia entera. En el final catastrófico, el

78

núcleo central puede comprimirse lo suficiente como para que los electrones penetren en los núcleos, reaccionando con los protones para dar lugar a los neutrones empaquetados que caracterizan a las estrellas de neutrones. Si la estrella original era suficientemente grande, el núcleo central comprimido puede, a su vez, ser suficientemente masivo como para que se supere el límite de estabilidad antes indicado y se forme un agujero negro. No todas las estrellas terminan su vida con tanta violencia. La mayoría, con masas del orden de la del Sol o poco mayores, acaban soltando las capas externas más gradualmente y el núcleo interior sobrevive muchísimo tiempo como una enana blanca. Las enanas blancas tienen un tamaño parecido al planeta Tierra, con una estructura que se parece a un metal extraordinariamente denso, pues está soportada por la presión cuántica de los electrones. En realidad, su funcionamiento se parece mucho al de las estrellas de neutrones, excepto que el papel de estos lo cumplen los electrones. También tienen un límite de estabilidad en torno a una vez y media la masa del Sol. Como los electrones son 2.000 veces más ligeros que los neutrones, resulta que las enanas blancas son, en igualdad de masa, unas 2.000 veces más grandes que las estrellas de neutrones. Pero si el límite de estabilidad se supera, entonces pueden colapsar para formar una estrella de neutrones o un agujero negro. En general, cualquier estrella fósil como una enana blanca o una estrella de neutrones puede colapsar en un agujero negro si acaba superando su límite de estabilidad debido a una absorción lenta de material o a eventos catastróficos, como colisiones estelares. Con independencia de su origen, ya sea por colapso directo de una nube de gas frío o por medio de un proceso más

79

elaborado como fósil estelar, un agujero negro seguirá creciendo mientras pueda absorber material en sus proximidades. Si el flujo de “comida” es suficiente, se puede encender un motor gravitacional, y entonces se hace visible para los astrónomos.

Parásitos X Los sistemas estelares binarios con fuerte emisión de rayos X, conocidos desde los años sesenta, pronto se consideraron los candidatos naturales a agujeros negros astronómicos. La estructura es siempre la misma: un sistema binario de estrellas en órbita mutua, formado por una estrella viva y una estrella muerta que emite grandes cantidades de radiación dura, típicamente en forma de rayos X. Las fuerzas de marea gravitacional arrancan material superficial de la estrella viva, que cae sobre el profundo pozo gravitatorio de la estrella muerta, alimentando un motor gravitacional. Otra posibilidad es que la estrella viva emita mucho “viento solar” o que, incluso, sufra inestabilidades de vejez que la lleven a expulsar sus capas externas de manera gradual. Esto genera una amplia región circundante rica en material de desecho, donde la estrella muerta puede extender sus redes gravitacionales y nutrirse con facilidad. El funcionamiento del motor propiamente dicho es muy complicado en sus detalles, pero existe una componente de la emisión que se puede entender en términos de un modelo intuitivo. El combustible acaba concentrado en un disco en órbita decreciente hacia el núcleo del motor, que se denomina disco de acrecimiento. Debido a las fuerzas de marea (recordemos que nuestros pies son atraídos por la Tierra con una fuerza ligeramente superior que nuestra cabeza), dos

80

secciones anulares y contiguas del disco orbitan a velocidades ligeramente diferentes, con la interior efectuando su giro un poco más rápido. Como estos anillos están realmente en contacto mutuo, se produce un rozamiento entre ellos que calienta el material, que a su vez emite radiación con un perfil térmico. El conjunto de la radiación recibida es el resultante de superponer la emisión de cada una de las diferentes capas a distintas profundidades. Cuanto más abrupto sea el campo gravitacional, más altas son las temperaturas que se alcanzan y más “dura” es la radiación emitida. En el caso de las capas más próximas al núcleo motor se pueden alcanzar las frecuencias de rayos X. En la zona profunda del motor se dan efectos mucho más complicados que solo se comprenden de forma parcial. Se pueden producir ondas de choque que separan momentáneamente cargas positivas y negativas, generándose campos eléctricos gigantescos que aceleran partículas cargadas. Si hay campos magnéticos, generados por el plasma o por una estrella de neutrones, aparecen modos característicos de radiación (de tipo sincrotrón). También es posible aumentar la energía de los fotones de rayos X a rayos gamma mediante “empujones” por colisiones con electrones y positrones en la zona profunda (esto se conoce como el efecto Compton inverso). Por último, mediante mecanismos que utilizan todos estos ingredientes, y posiblemente otros menos conocidos, se pueden generar corrientes de transporte suficientemente coherentes como para expulsar un chorro de plasma por los polos. A veces los chorros son visibles directamente en radiotelescopios, donde se comprueba que se mantienen coherentes a lo largo de distancias astronómicas. Estudiando su evolución en el tiempo se puede detectar si sus componentes se mueven a velocidades próximas a la de

81

la luz, calibrando así las energías típicas de las partículas en la zona de eyección del chorro. Del estudio de todos estos detalles, con modelos matemáticos como contraste, los astrofísicos pueden inferir la cilindrada y la eficiencia del motor. Dicho de otra forma, pueden deducir la energía típica de las partículas en la parte profunda y el tamaño del pozo gravitacional que propulsa el motor. Así se puede decidir si el motor está basado en una enana blanca, una estrella de neutrones o un agujero negro. En el primer caso se trata de un objeto con eficiencia menor (la velocidad de escape está en un percentil de la de la luz) y relativamente grande (de tamaño planetario). En el caso de los motores más compactos resulta más difícil distinguir entre una estrella de neutrones o un agujero negro, ya que su eficiencia y tamaño son parecidos. El criterio crucial suele ser la masa total del motor: si supera las cinco masas solares se considera por encima del límite de estabilidad de las estrellas de neutrones y se cataloga como un agujero negro. En ocasiones también se pueden usar criterios cualitativos, como la ausencia de un campo magnético propio en el caso de un agujero negro (recordemos que están “calvos”), mientras que la mayoría de las estrellas de neutrones sí tendrían intensos campos magnéticos. Se han catalogado centenares de sistemas binarios de este tipo esparcidos por nuestra galaxia, principalmente en los brazos espirales, que se ajustan al modelo de un motor gravitacional parásito de una estrella compañera. Entre ellos, alrededor de una veintena tienen masas suficientemente grandes como para considerarlos agujeros negros. Uno de los más intensos emisores de rayos X del cielo sigue siendo el candidato más claro, con una masa estimada de unas 15 masas solares: el famoso sistema binario Cygnus X-1, conocido desde 1964.

82

Monstruos del mundo antiguo Los agujeros negros que se pueden interpretar como estrellas muertas tienen masas comparables a las propias estrellas que los precedieron. Su abundancia está determinada por la población de estrellas muy masivas en una galaxia dada, y la posibilidad de detectarlos en la nuestra depende de que, circunstancialmente, formen parte de sistemas binarios que proporcionen “combustible” para encenderlas como motores gravitacionales. Pero entre los motores gravitacionales que funcionan ahí fuera los hay tan gigantescos que tienen que corresponder a agujeros negros con millones o incluso miles de millones de ma­­ sas solares. Estos gigantes se encuentran en los núcleos de las llamadas galaxias activas, que tienen una fuerte emisión localizada en el mismo centro de la galaxia. Algunos de estos objetos, los llamados quásares, están en los confines del universo visible, y por tanto son heraldos de épocas remotas, cuando el universo tenía la décima parte de su edad actual. Si es así, se trataba de épocas muy violentas, en las que las galaxias jóvenes probablemente lucían como gigantescos volcanes en erupción. Durante el último cuarto de siglo, los astrofísicos han ido perfilando un paradigma según el cual la metáfora del volcán se ajustaría a los hechos más de lo que pudiera pensarse. Igual que una isla volcánica está ligada a su volcán de forma ineludible, tanto en su origen como en su destino, los agujeros negros gigantes podrían actuar como reguladores que determinan muchas de las propiedades globales de las galaxias en su proceso de maduración. Cuando en los años sesenta se descubrieron los quásares (cuyo nombre se origina como un acrónimo de Quasi Stellar Radio Sources), estos generaron una gran controversia. Su espectro aparecía desplazado al rojo en tal medida que, si se

83

interpretaba como un corrimiento al rojo de origen cosmológico, deberían estar a distancias miles de veces superiores a las otras galaxias conocidas en la época. Por otra parte, no parecían galaxias, sino fuentes muy localizadas, como estrellas, lo cual generó un encendido debate sobre su origen. En un lado estaban los que pensaban que se trataba de objetos brillantes en nuestra propia galaxia, y su corrimiento al rojo sería debido a razones específicas. En el otro lado se encontraban los que pensaban que se trataba de objetos genuinamente extragalácticos, en los confines del universo. A medida que el número de quásares detectado fue aumentando durante la siguiente década, quedó claro que se trataba de la segunda opción. El problema era entonces explicar cómo podían ser tan brillantes. En algunos casos eran incluso variables, lo que sugería que se trataba de objetos auténticamente pequeños a escala galáctica. De su brillantez y su distancia estimada se puede deducir su luminosidad absoluta, que resulta ser del orden de una galaxia típica, aunque hay casos con luminosidades hasta 100 veces mayores. Todo ello empaquetado en una región mucho más pequeña que una galaxia ordinaria. El único mecanismo conocido capaz de producir semejante potencia es un motor gravitacional de gran cilindrada propulsado por un agujero negro gigante cuya masa oscilaría entre 108 y 109 masas solares y un tamaño del orden de las órbitas planetarias en nuestro sistema solar. De forma paralela, se conocían muchos ejemplos de galaxias más próximas con fuentes de radio muy poderosas en sus centros, algunas mostraban chorros visibles en radiote­­ lescopios, con longitudes del orden de cientos de miles de años luz; tan grandes como la galaxia entera. Paulatinamente se fue consolidando un modelo unificado de todos estos objetos extragalácticos con emisión localizada de radiación: todos ellos

84

serían motores gravitacionales propulsados por agujeros negros gigantes cuya masa oscilaría entre 106 masas solares para los más modestos y 109 masas solares para los más potentes. Gran parte de las diferencias entre ellos podrían deberse a la orientación del motor con respecto a la línea de visión desde nuestro planeta. Figura 12 La apariencia astronómica de un núcleo galáctico activo depende de la orientación del chorro con respecto a la línea de visión. Vista Seyfert

Vista quásar

Vista blazar

Los motores que vemos “de canto” tendrían la parte dura de la radiación del disco de acrecimiento bloqueada por capas externas ricas en polvo, mientras que los chorros serían visibles en toda su extensión (corresponderían a una clase de radiogalaxias conocidas históricamente como tipo Seyfert). Los que tienen los chorros orientados directamente hacia nosotros tienen una emisión dominada por el chorro, con un espectro más duro y fuerte variabilidad (los llamados blazars). Por último, aquellos que vemos en un ángulo intermedio presentarían multitud de estructuras en su espectro de emisión, en las que son visibles tanto la radiación del disco de acrecimiento como las

85

componentes asociadas a los efectos profundos cerca de la raíz de los chorros (estos serían la mayoría de los quásares y parte de las Seyfert). Este modelo unificado de los núcleos galácticos activos ha pasado numerosos tests de consistencia y algunos de caracter cuantitativo. Por ejemplo, la propia estructura de capas del motor se puede inferir estudiando la variabilidad temporal de algunas de estas fuentes. Es posible entonces correlacionar las diferentes componentes de la radiación y su retraso temporal relativo para determinar en qué parte del motor se originan (radiación térmica del disco de acrecimiento, radiación no térmica originada en la zona profunda y reflejada parcialmente por el disco, etc.). Esto permite estimar el tamaño de todas las estructuras y, por tanto, la masa del agujero negro, resultando un número consistente con las determinaciones basadas en la potencia global necesaria. Uno de los tests más espectaculares involucra nubes moleculares con espectros de emisión muy característicos (los llamados máseres astrofísicos), que estarían localizados en puntos concretos del disco de acrecimiento. Dado que su emisión se puede identificar con precisión, sirven de “marcadores” que nos permiten dibujar su propia órbita en torno al agujero negro central. De nuevo se puede usar esta información para estimar la masa del agujero negro y de nuevo se obtiene un valor consistente. Otro resultado especialmente nítido concierne a la medida detallada de una línea de emisión del hierro en rayos X. La estructura de frecuencias presenta una distorsión característica que se corresponde exactamente con lo que esperaríamos para un disco de acrecimiento en órbitas relativamente próximas al horizonte, donde los efectos relativistas ya son significativos. En particular, no solo se puede identificar el efecto Doppler debido a la velocidad de rotación del gas; también se puede identificar

86

el corrimiento al rojo debido a la distorsión gravitacional del tiempo y que depende de la distancia al horizonte. Esto permite obtener otra estimación de la masa del agujero negro, de nuevo consistente con las otras determinaciones. A medida que los datos combinados de radiotelescopios y satélites (incluido el famoso telescopio espacial Hubble) han ido refinando los modelos, se ha consolidado la opinión de que la mayoría de las grandes galaxias pueden haber pasado por una etapa temprana en la que su núcleo estaba activo, lo que implicaría la existencia de agujeros negros gigantes en la mayoría de las galaxias, ¡incluida la nuestra! Por otra parte, crece la evidencia de que los motores gravitacionales pueden tener importancia directa en la regulación de características morfológicas globales de las galaxias. Si un gran agujero negro pasa por una etapa de “engorde”, tragando estrellas jóvenes y gas de la parte central de la galaxia, puede afectar de forma significativa a la formación de estrellas en toda la zona central de la galaxia. Si la potencia de emisión del agujero negro es muy grande, acaba por “limpiar” sus alrededores debido al barrido producido por su propia emisión. Esto da lugar a un mecanismo de regulación, ya que el ritmo de alimentación del agujero debe bajar cuando queda menos material en sus inmediaciones. Muchos astrofísicos creen que estos mecanismos de tipo “termostato” controlan el tamaño final que alcanza la parte de la galaxia con forma esferoidal. Esto puede ser la galaxia entera para el caso de las llamadas elípticas o la parte central, exceptuando los brazos, en las galaxias de tipo espiral como la Vía Láctea o Andrómeda. Al final, se puede esperar que las galaxias maduras terminen con una zona central relativamente limpia de material, con un agujero negro gigantesco aletargado, igual que una isla volcánica con un volcán que solo se despierta ocasionalmente,

87

en erupciones puntuales. En el caso de las galaxias viejas, esto ocurriría cuando una estrella o una nube de gas diluido de la zona central se aventurara demasiado cerca del monstruo dormido…

Monstruos en letargo Si esto fuera cierto, las galaxias próximas como Andrómeda o nuestra propia Vía Láctea deberían albergar estos gigantes en su centro. Como están en un ciclo de baja actividad, hace falta mirar con detalle para descubrir el dragón dormido. Por ejemplo, a través de sus efectos gravitacionales sobre las estrellas cercanas. Durante los últimos 20 años, los avances en instrumentación astronómica han permitido estudiar los centros de las galaxias próximas con suficiente precisión como para medir las velocidades típicas de las estrellas en la zona central. El resultado de estas investigaciones parece claro: las estrellas próximas al centro de las grandes galaxias se mueven mucho más rápido de lo que corresponde a un campo gravitacional generado solo por ellas mismas. Tiene que haber algo en el centro de las galaxias con una masa gigantesca para poder explicar las velocidades orbitales. Los resultados más espectaculares se han obtenido para nuestra propia galaxia. En la zona central, a 27.000 años luz de aquí, hay una fuente de emisión conocida como Sagittarius A* (SGRA*), en torno a la cual se han podido identificar órbitas de estrellas en una región de unos pocos años luz. La paciente observación de estas estrellas durante dos décadas ha permitido dibujar sus órbitas en detalle. Estas órbitas son rápidas, casi relativistas en el punto de mayor acercamiento, y el análisis de los datos nos dice que hay un objeto compacto en una región del

88

tamaño del sistema solar… con una masa de unos cuantos… ¡millones! de veces la del Sol. Hoy por hoy, la fuente de radio SGRA* representa la evidencia más directa de la existencia de agujeros negros gigantes. Aunque está muy lejos del nivel de actividad que debió ostentar en épocas remotas, su relativa proximidad ha permitido estudios de alta resolución en diversas longitudes de onda. Se han identificado múltiples estructuras en el entorno de pocos años luz del objeto, desde estrellas a fuentes compactas de rayos X o nubes de gas de diversos tipos. La detección de “picos” en la emisión en periodos cortos de tiempo ha permitido bajar la cota de su tamaño hasta los minutos-luz, menos de la distancia entre la Tierra y el Sol. Las estimaciones de la masa de otros agujeros negros asociados a grandes galaxias de nuestro entorno local arrojan cifras en la banda de 106 a 109 masas solares, justo el orden de magnitud requerido para propulsar fases de núcleo activo. Esto sugiere que casi todas las grandes galaxias tuvieron un núcleo encendido en el pasado. Comparando el número total de agujeros negros con la cantidad total de quásares, se ha estimado que el periodo activo de una galaxia típica puede extenderse durante unos 200 millones de años, es decir, un 2% de su edad total.

¿Monstruos a la deriva? Así pues, existe una amplia evidencia de que nuestra vieja isla estelar, la tranquila Vía Láctea, alberga un monstruo negro a solo 27.000 años luz de nosotros. De hecho, en el club de los monstruos es relativamente modesto. Estimaciones de dinámica estelar en la zona central de Andrómeda revelan que su agujero negro central podría ser unas 100 veces mayor que el nuestro.

89

Teniendo en cuenta que las dos galaxias están en rumbo de colisión, ¡parece claro quién llevará la voz cantante en el “baile cósmico” que tendrá lugar en unos 4.000 millones de años! Los astrónomos sospechan que los episodios de fusión deberían ser bastante corrientes en la dinámica de largo plazo de las galaxias. Incluso podrían desempeñar un papel en el encendido de los quásares en épocas remotas. En una colisión galáctica los agujeros negros centrales entrarían en órbita mutua e irían perdiendo “altura” a base de transferir energía al resto de las estrellas. Cuando están muy cerca, radian ondas gravitacionales con intensidad creciente hasta que finalmente se fusionan. La siguiente generación de detectores de ondas gravitacionales podría tal vez identificar directamente estos eventos catastróficos. Cuando las colisiones involucran agujeros negros de masas muy diferentes, como es el caso particular de Andrómeda y la Vía Láctea, el pulso final de ondas gravitacionales puede ir preferentemente dirigido a una dirección en particular. Esto produce un movimiento de retroceso del agujero negro fusionado. Se ha estimado que la velocidad de retroceso del gran agujero resultante puede superar en ocasiones la velocidad de escape de la galaxia. ¡Pueden existir monstruos a la deriva, surcando el espacio intergaláctico a toda velocidad!

Lo que sabemos • La masa límite de las enanas blancas fue establecida hacia 1930 por S. Chandrasekhar, en 1,5 masas solares aproximadamente. Las estrellas de neutrones tienen un límite de Chandrasekhar parecido, en ocasiones conocido como límite de Tolman-Oppenheimer-Volkoff, entre 1,5 y 3 masas

90









solares, dependiendo de las incertidumbres acerca del comportamiento de la materia nuclear a altas densidades. Hay una veintena de candidatos a agujero negro de masa estelar en nuestra galaxia, detectados en fuentes binarias de rayos X, aunque el número total de agujeros negros estelares se estima en unos 100 millones solo en la Vía Láctea. El rendimiento máximo de un motor gravitacional que funciona con un disco de acrecimiento es del 6% para un Schwarzschild y aumenta con la rotación del agujero hasta un máximo de un 29% para un Kerr extremo. Este índice da el porcentaje de la energía en reposo de la materia que puede transformarse en radiación en la caída gradual del disco de acrecimiento. Cualquiera de estos rendimientos es muy superior al proporcionado por la fusión nuclear, que solo alcanza el 0,8%. Los quásares se interpretan hoy día como galaxias jóvenes en las que un agujero negro gigante actúa como motor gravitacional de gran cilindrada, una hipótesis formulada por primera vez en los años sesenta por el ruso Yakov Zel’dovich, e independientemente por el norteamericano Edwin Salpeter. Se cree que todas las grandes galaxias tienen un agujero negro gigante en el centro con una masa de entre 106 y 109 masas solares, remanentes de esta época “adolescente” en el desarrollo de la mayor parte de las galaxias. Ya en 1971, Martin Rees y Donald Lynden-Bell avanzaron que la Vía Láctea podría albergar un monstruo negro aletargado. Desde su descubrimiento en 1974 por Bruce Balick y Robert Brown, multitud de pruebas indirectas muestran que la fuente de radiación SGRA*, localizada en el centro de la Vía Láctea, albergaría un agujero negro gigante de unos cuatro millones de masas solares.

91

• La consideración de un agujero negro supermasivo en el centro de nuestra galaxia había sugerido la posibilidad de que existieran estrellas en trayectorias balísticas, escapando del centro de la galaxia a velocidades superiores a la velocidad de escape galáctica. Este tipo de fenómenos sería natural como consecuencia de la redistribución caótica de energía entre las estrellas próximas al agujero negro. Ocasionalmente, una de ellas podría acabar con energía suficiente para escapar, a costa de otras que quedarían más ligadas. Ejemplos de este tipo de estrellas “disparadas” se han descubierto a lo largo de los últimos 10 años.

Lo que ignoramos • El funcionamiento detallado de un motor gravitacional propulsado por un agujero negro sigue albergando incógnitas. En particular, los modelos vigentes siguen siendo insatisfactorios en la descripción del chorro de emisión polar. Subsiste el debate sobre la contribución de la propia energía de rotación del agujero negro. Como hemos visto en el capítulo anterior, el mecanismo de Penrose puede proporcionar un principio de extracción de esta energía. Otro método más desarrollado a nivel de modelos utiliza las propiedades electromagnéticas del horizonte para extraer energía de rotación como un generador homopolar en un campo magnético. Este mecanismo, llamado de Blanford-Janek en referencia a sus inventores, podría de­­ sempeñar un papel importante en los motores de los quásares. • La detección directa del agujero negro central de nuestra galaxia requeriría el seguimiento en tiempo real de un episodio de alimentación, en el que el agujero tragaría una nube de gas o una estrella a la vista de nuestros instrumentos. En ese caso,

92

sería posible detectar los efectos específicos del horizonte de sucesos. Esto incluye efectos extremos de lentes gravitacionales e incluso efectos de arrastre inercial debidos a la rotación del agujero negro. La nueva generación de interferómetros, como el complejo ALMA en el desierto de Atacama, debería proporcionarnos la resolución necesaria para empezar a “ver” el horizonte de sucesos. • Existe una gran diferencia de tamaño entre los agujeros negros de masa estelar y los agujeros negros gigantes, con masas superiores a un millón de masas solares. Recientemente han aparecido candidatos a agujeros negros de masa intermedia, entre cientos y miles de masas solares, asociados a regiones de alta densidad de estrellas en formación o a cúmulos de estrellas viejas. En el momento de escribir estas líneas, todos estos indicios deben acumular más evidencia para consolidarse. • El interferómetro láser LIGO podría detectar ondas gravitacionales procedentes de colisiones entre estrellas de neutrones y/o agujeros negros estelares. Un interferómetro láser entre satélites en órbita solar podría detectar ondas gravitacionales de colisiones remotas debidas a colisiones de agujeros negros supermasivos. Un proyecto de este tipo llamado LISA podría ver la luz a lo largo de la tercera década de este siglo.

93

CAPÍTULO 6

Cuestiones de fundamentos

Si se pueden formar agujeros negros comprimiendo la materia hasta densidades extremas, ¿deberíamos interpretar las partículas elementales como pequeños agujeros negros? El mero hecho de que nos planteemos esta pregunta revela los límites de la física fundamental.

¿Pueden ser pequeños? Los agujeros negros son sistemas en los que la gravitación domina a todas las demás fuerzas de la naturaleza, pero la debilidad intrínseca de la fuerza gravitacional implica que son necesarias grandes masas para que esta gane la partida. Por esta razón esperamos encontrar ahí fuera agujeros negros de masa estelar o superior, con tamaños de kilómetros o mayores, porque esto se corresponde con densidades de orden nuclear o menor. Agujeros negros mucho más pequeños que un kilómetro tendrían una densidad mucho mayor que la nuclear y su “fabricación” en la naturaleza requeriría fuerzas de

94

compresión superiores a las interacciones nucleares fuertes, las más poderosas de las cuatro que hemos identificado hasta ahora. Si existen, tales microagujeros negros serían, con toda probabilidad, reliquias exóticas, heredadas de las condiciones extremas, y en gran medida desconocidas, que debieron darse durante los primeros instantes después del Big Bang. Algunos físicos han jugado con la idea de que este tipo de agujeros negros, llamados primordiales, pudieran existir e incluso contribuir de manera significativa a la misteriosa materia oscura que falta para explicar el comportamiento a gran escala de las galaxias. Dicho esto, ¿no son las propias partículas elementales reliquias del Big Bang? Aunque sabemos que los protones y los neutrones son sistemas compuestos con un tamaño de unos 10-13 cm y una densidad de orden nuclear, no se ha detectado estructura alguna en los ladrillos básicos de la materia: los leptones y los quarks. Los datos de los aceleradores de partículas indican que, si estas partículas tienen partes móviles, su escala tiene que ser inferior a los 10-19 cm, y probablemente mucho menor. Por tanto, las partículas elementales con masa, como electrones y quarks, se pueden considerar los objetos más densos que hay y es natural preguntarse si pueden ser microagujeros negros. Consideremos, por ejemplo, un electrón. Como tiene carga eléctrica, correspondería a un agujero negro de tipo Reissner-Nordstrom, cuyas condiciones de estabilidad hemos discutido anteriormente. En particular, encontramos que la masa debe superar en una proporción 1018 a la carga, ambas medidas en unidades del protón. Sin embargo, el electrón es unas 2.000 veces más ligero que el protón y tiene la misma cantidad absoluta de carga eléctrica. Visto como un agujero

95

negro cargado, el electrón tendría la singularidad “desnuda”, sin horizonte protector, con lo que no podemos realmente interpretarlo como un agujero negro. Este argumento se aplica a cualquiera de las partículas elementales cargadas que conocemos. Ninguna partícula con carga comparable a la del electrón puede comportarse como un agujero negro de Reissner-Nordstrom a menos que tenga una masa 1018 veces mayor que la del protón. Este primer test es negativo, pero existe un problema más profundo con cualquier argumento de este tipo. Después de todo, las partículas elementales no se parecen demasiado a la imagen pictórica que les atribuimos casi sin querer, como pequeñas bolitas duras, diminutas e indivisibles.

Partículas cuánticas El siglo XX comenzó con las revoluciones de la relatividad y la física cuántica, los pilares de un edificio conceptual que ha sido refinado y extendido durante 100 años. Los cimientos asentados entonces siguen intactos, reforzados si cabe por la coherencia de las estructuras construidas sobre ellos. Estos cimientos son el espacio-tiempo de Einstein, por un lado, y las partículas cuánticas, por otro. Hemos argumentado en los capítulos anteriores que espacio y tiempo se mezclan en una entidad cualitativamente nueva, el espaciotiempo, como consecuencia de la existencia de una velocidad máxima en la naturaleza. También hemos visto que este espacio-tiempo sufre deformaciones en respuesta a la cantidad y tipo de energía que contiene. Estas deformaciones, que hemos caracterizado como una “curvatura” del espacio-tiempo, son equivalentes a los efectos de la fuerza gravitacional.

96

El segundo pilar fundamental de la física, las partículas cuánticas, tiene que ver con la forma en que se organiza la energía contenida en el espacio-tiempo. Resulta que toda energía más o menos localizada en una región del espacio se puede analizar como una superposición de paquetes básicos, que llamamos partículas cuánticas. Estos componentes no están intrínsecamente localizados. Por ejemplo, su propagación en ausencia de interacciones se parece a la de una onda. Sin embargo, cuando las detectamos en un experimento cualquiera se manifiestan como una entidad discreta… clic, clic, clic… es la respuesta del detector, de forma que sus interacciones sí están localizadas en el espacio y en el tiempo. La característica más extraña de las partículas cuánticas es que los clics del detector no siguen una pauta determinista, sino que en general son aleatorios. Esta situación se puede describir diciendo que las partículas cuánticas fluctúan. De hecho, este afán fluctuante es su verdadera raison d’etre, su propiedad más fundamental. Fluctúan en posición, velocidad, momento angular, energía… Fluctúan hasta en su número y en su propia identidad. Las leyes de la física cuántica especifican la cantidad y estructura de las fluctuaciones en diferentes circunstancias. Por ejemplo, cuanto más pequeña es la región del espacio en la que fluctúan las partículas, más energéticas son estas fluctuaciones (un caso particular del famoso principio de in­­ certidumbre de Werner Heisenberg). Como la fórmula de Eins­­tein, E=mc2, asocia una energía a la masa de las partículas, el principio de Heisenberg implica que podemos asociar un tamaño cuántico mínimo a cualquier partícula, que está definido como la región en la que las fluctuaciones de la partícula son significativas. Más en detalle, el tamaño cuántico es inversamente proporcional a la masa:

97

h Lc = –––––––– mc En esta fórmula, c es la velocidad de la luz y h es la famosa “constante de Planck” que aparece en todas las fórmulas cuánticas. La conclusión es que los efectos cuánticos “difuminan” las partículas de masa m sobre una región de tamaño Lc, y el campo gravitacional medio también se diluye sobre una región de tamaño Lc. Por tanto, la cuestión de si una partícula elemental se puede considerar un pequeño agujero negro depende de la comparación entre su tamaño cuántico y su tamaño gravitacional efectivo, Lg, que en el capítulo 3 habíamos identificado como el “radio de Schwarzschild”: 2Gm Lg = –––––––– c2 Vemos que el tamaño gravitacional crece con la masa de la partícula, mientras que el tamaño cuántico decrece con la misma, de forma que siempre se puede considerar una masa suficientemente grande como para que Lg sea mayor que Lc. Una partícula así de masiva se comportaría como un agujero negro. La masa del agujero negro más pequeño corresponde al caso en que Lc y Lg son aproximadamente iguales y se conoce como la masa de Planck. Su valor es de una cienmilésima de gramo, 19 órdenes de magnitud mayor que la masa del protón: MP = 1019 mprotón

En la escala humana no parece gran cosa, aproximadamente como el huevo de una pulga, pero en la escala de las partículas elementales conocidas es enorme. La más gorda que hemos descubierto en los aceleradores, el quark top,

98

“solo” pesa como 173 protones, mientras que el recién descubierto bosón de Higgs pesa como 125 protones. El resto de los quarks y los leptones son mucho más ligeros, pues la mayoría pesan bastante menos que el protón. También es interesante preguntarse por el tamaño del agujero negro mínimo. Dado que conocemos su masa, podemos determinar su tamaño con la fórmula habitual para el radio del horizonte, que resulta en unos 10-33 cm. Dado que este es el ta­­ maño efectivo mínimo que se puede asignar a una partícula, se ha propuesto que esta distancia, llamada longitud de Planck, LP, es la distancia mínima físicamente posible.

Límites Los argumentos generales que acabamos de describir solo utilizan principios fundamentales de la física. Sugieren que las partículas elementales y los agujeros negros son dos descripciones complementarias; una válida para masas inferiores a la de Planck y la otra válida para masas superiores a esta. Por otra parte, esto también significa que un agujero negro con un radio de Schwarzschild más pequeño que la longitud de Planck debe ser interpretado como una partícula cuántica ordinaria, que carece de estructura interna pero fluctúa sobre una región mayor que la longitud de Planck. Más allá de estas consideraciones de tipo general, la elucidación de la transición entre las partículas cuánticas y los agujeros negros es el objeto de la rama de la física teórica llamada gravitación cuántica. Se trata de un campo de especulación puramente teórica, ya que la transición entre partículas elementales y agujeros negros sucede en distancias de 10-33 cm, y nuestros aceleradores de partículas más potentes, como

99

el Large Hadron Colider (LHC) del CERN (Ginebra), solo alcanzan a resolver distancias del orden de 10-17 cm, que se corresponde con el tamaño cuántico del bosón de Higgs. Desde hace 30 años los teóricos trabajan en una hipótesis según la cual las partículas elementales son pequeñas cuerdas cuánticas que vibran en configuraciones simples a distancias un poco mayores que LP. Cuando estas pequeñas cuerdas fluctuantes adquieren una energía de orden MP c2, la configuración típica de la cuerda es una especie de “ovillo” muy complicado que se comporta como un objeto compuesto de muchas partes independientes. En general, cuando un sistema cuántico tiene muchas partes independientes, las fluctuaciones de estas tienden a cancelarse mutuamente, y el comportamiento promedio del sistema es aproximadamente clásico. De esta forma se explicaría la formación de los agujeros negros con masa de Planck, como el resultado del colapso gravitacional “clásico” de una cuerda cuántica muy complicada. Aunque no existe ninguna evidencia experimental de la existencia de las cuerdas cuánticas, la teoría de cuerdas persiste como la única candidata a teoría de gravitación cuántica que ha pasado el test de consistencia matemática.

Lo que sabemos • La teoría cuántica de partículas relativistas, también conocida como teoría cuántica de campos, es la estructura fundamental de la física. Sus principios fundamentales son el espacio-tiempo de Einstein, la localidad de las interacciones y la conservación de la información cuántica. En el caso de las interacciones entre fotones y electrones, la teoría está en concordancia con el experimento con un error

100

inferior a 10 cifras decimales. Resulta sorprendente que la teoría más básica sea también la más exitosa desde el punto de vista experimental. • La validez de la teoría cuántica de campos ha sido comprobada hasta distancias del orden de 10-17 cm, una diezmi­­ lésima del tamaño del protón, en experimentos directos en aceleradores de partículas, como el LHC del CERN. Indirectamente, existe evidencia de su validez a distancias mucho más pequeñas. En teoría, podría extenderse hasta la vecindad de los 10-33 cm que marca la frontera de Planck, donde inevitablemente debería reemplazarse por una teoría más profunda del tipo de la teoría de cuerdas. • Muchas propiedades básicas del mundo dependen exclusivamente de los principios subyacentes a la teoría cuántica de campos. Las más importantes son la existencia de antimateria y el tipo de partículas que pueden tener masa nula, que a su vez determinan el tipo de fuerzas que pueden actuar a grandes distancias. Esto incluye la gravedad, pues el principio de equivalencia puede deducirse de los principios de la teoría cuántica de campos. Es decir, la relatividad y la mecánica cuántica implican la idea de Einstein de describir la gravitación como la curvatura del espacio-tiempo.

Lo que ignoramos • La teoría de cuerdas debe parte de su interés al hecho de que no solo proporciona un modelo de gravitación cuántica, sino que incorpora automáticamente todas las demás fuerzas de la naturaleza en un esquema unificado. El precio que hay que pagar por este marco tan amplio es la necesidad de contemplar un espacio-tiempo de 10 u 11 dimensiones. Las

101

dimensiones adicionales a las cuatro conocidas se pueden organizar en multitud de geometrías diferentes, todas ellas de tamaño inferior a nuestra resolución experimental. La variedad de posibilidades complica mucho la tarea de determinar sus consecuencias a lo largo de las cuatro dimensiones conocidas. • Las dimensiones adicionales del espacio pueden tener consecuencias inesperadas. El valor de 10-33 cm que hemos asignado a la longitud de Planck asume implícitamente que vivimos en un espacio tridimensional, como se deduce de nuestra experiencia ordinaria. Si el espacio tuviera más dimensiones de tamaño intermedio, que aún no hemos podido detectar experimentalmente, la gravedad aumentaría su intensidad más rápido a cortas distancias. Esto produciría una masa de Planck más baja y una longitud de Planck más grande. Se han propuesto modelos en los que las dimensiones adicionales son compatibles con una longitud de Planck en el límite de nuestra capacidad experimental, de unos 10-17 cm. En estos escenarios, tanto los agujeros negros como las cuerdas podrían incluso aparecer en el acelerador de hadrones LHC del CERN o en otros más potentes que se podrían construir en un futuro próximo. No hay razones de peso para esperar que esto suceda, pero es ciertamente una posibilidad excitante. • A pesar del intenso trabajo en el desarrollo de la teoría de cuerdas, esta sigue siendo una mera hipótesis sobre la física en la frontera de Planck. La imposibilidad de acceder experimentalmente a distancias tan pequeñas significa que esta situación podría prolongarse por mucho tiempo. En este momento las esperanzas de contrastar la teoría de cuerdas a nivel cuantitativo se cifran en la posibilidad de estudiar en detalle reliquias cosmológicas de los primeros instantes del Big Bang, en los que pudieron darse energías por partícula de orden Planck, EP = MP c2.

102

CAPÍTULO 7

Cabellera cuántica

La física cuántica satisface el principio totalitario, un eslogan acuñado por el físico estadounidense Murray Gell-Mann: “Todo lo que no está prohibido es obligatorio”. Es una forma de decir que las fluctuaciones cuánticas exploran todas las posibilidades, menos aquellas que están prohibidas por alguna ley exacta de conservación. Hawking descubrió en 1975 que los agujeros negros también se subyugan ante esta máxima: no son totalmente negros, después de todo.

Fluctuaciones negras Aunque a veces se habla del “mundo cuántico” y el “mundo clásico” como si fueran entidades fundamentalmente diferentes, en realidad no existe el mundo clásico como tal. Todo en la naturaleza se rige por las leyes cuánticas, y el llamado mundo clásico emerge como una aproximación en un cierto límite. Normalmente, este límite involucra sistemas compuestos de muchas partículas cuánticas, en regímenes en los que tienen

103

altos niveles de excitación. El comportamiento clásico también aparece para partículas elementales cuando tienen una energía suficientemente alta y además interaccionan con un sistema ambiente de muchas partículas. Lo que intuitivamente consideramos una “partícula” que se comporta como prescriben las leyes de Newton aparece al acumular muchas partículas cuánticas de un tipo particular, llamadas fermiones. Por otra parte, lo que clásicamente consideramos como ondas de campos de fuerzas, tales como las familiares ondas electromagnéticas, aparecen al acumular muchas partículas cuánticas de otro tipo, llamadas bosones. Las fluctuaciones cuánticas son más importantes de lo que se cree para el funcionamiento del mundo, incluso en aspectos que nos resultan familiares. Por ejemplo, la corriente eléctrica que circula por un metal consiste en electrones que saltan de un átomo a otro mediante fluctuaciones cuánticas. Aspectos estructurales básicos del mundo como el tamaño de un átomo están en el fondo determinados por las fluctuaciones cuánticas. Las fluctuaciones pueden ser más o menos raras. Si bien existe una probabilidad significativa de que una molécula de agua en la superficie de mi piel se evapore mediante una fluctuación cuántica, también existe una cierta probabilidad de que de repente mi cuerpo se parta en dos espontáneamente. Esta probabilidad tiene que ser muy pequeña…, ¡o al menos eso esperamos! Para hacernos una idea de lo increíblemente minúscula que es, podemos imaginar que le damos una probabilidad del 10% a que un solo átomo de nuestro cuerpo rompa espontáneamente el enlace químico con sus vecinos. Esto es bastante optimista, pero en realidad da igual, porque el factor más importante es el número de átomos que se tienen que coordinar para romper sus enlaces simultáneamente: unos 1026. Así que la probabilidad es mucho menor que 0,1 elevado a la potencia 1026. Si decidiéramos escribir

104

este número en forma decimal, no sería algo de la forma 0,000…01 con 26 ceros seguidos después de la coma, sino que ¡habría 1026 ceros seguidos! La pequeñez de este número es inimaginable, revelando nítidamente la extrema rareza de los efectos cuánticos muy radicales en el mundo macroscópico. En el capítulo anterior hemos propuesto que las partículas cuánticas se transformarían en agujeros negros si su masa superase la frontera de Planck. Cuando la masa de un agujero negro es mucho mayor que MP, empieza a comportarse como un objeto clásico, pero eso no significa que las fluctuaciones cuánticas desaparezcan. Simplemente son imperceptibles en la escala de tamaño del agujero negro, o bien, en caso de ser grandes, son extremadamente raras. Figura 13 Las fluctuaciones más probables involucran la fragmentación en “agujeritos negros” que se interpretan como partículas elementales. Este proceso se conoce como la evaporación del agujero negro.

Una fluctuación extremadamente improbable

Una fluctuación más probable

Como ejemplo, podemos considerar una fluctuación cuántica en la que un agujero negro gigante se divide en dos agujeros iguales, también gigantes. Este proceso está prohibido

105

por las leyes de la teoría general de la relatividad, pero es compatible con las leyes fundamentales de conservación, ya sea de la energía, de la carga o del momento angular. Así que podemos suponer que será posible como fluctuación cuántica extremadamente rara. Es natural imaginar que existirán otras fluctuaciones más probables en las que el agujero negro se divida en uno grande y uno pequeño, porque este proceso parece involucrar una parte pequeña del horizonte, igual que la fluctuación de una sola molécula de mi piel es mucho más probable que la fluctuación simultánea de 1026 átomos. Siguiendo esta lógica, cuanto más pequeño sea el agujero menor, más probable será el proceso de fragmentación cuántica. Si los fragmentos pequeños son más ligeros que la masa de Planck, se describen mejor como partículas cuánticas ordinarias. Es decir, un agujero negro debería “evaporarse” mediante la emisión de partículas cuánticas, en un proceso que sería esencialmente el mismo que la fragmentación, aunque mucho más probable.

Radiación de Hawking En 1975 Hawking fue capaz de realizar un cálculo bien controlado de la probabilidad de estas fluctuaciones. Podemos explicar su resultado de forma intuitiva volviendo sobre la noción del tamaño cuántico que hemos introducido en el capítulo anterior. En el momento de la fragmentación la partícula debería fluctuar en las proximidades del horizonte. Puesto que el tamaño cuántico de las partículas determina su “amplitud” de fluctuación, concluimos que este debería ser menor o igual que el tamaño del agujero negro.

106

Por otra parte, debemos recordar que los agujeros negros carecen de cabellera, en el sentido de que sus horizontes son homogéneos, sin ningún tipo de estructura localizada sobre la superficie. En estas condiciones, no podemos esperar que los microagujeros fragmentados fluctúen en torno a un punto concreto del horizonte, como correspondería a un tamaño cuántico menor que el agujero negro. De estas consideraciones concluimos que el tamaño cuántico de las partículas emitidas es del mismo orden de magnitud que el radio del agujero. Ahora bien, sabemos que la energía de una partícula sin masa y tamaño cuántico R vale aproximadamente E ~ h c / R. Como el radio de Schwarzschild de un agujero negro con masa M está dado por R = 2 G M / c2, podemos deducir que la energía típica de las partículas emitidas es del orden de h c3 / G M. Se trata de una energía muy pequeña para un agujero negro de masa macroscópica, pero coincide con la energía de Planck para un agujero negro de tamaño Planck. Los cálculos detallados de Hawking mostraron que estas partículas son emitidas con un espectro térmico, de forma que la energía típica que acabamos de estimar es, en realidad, la temperatura de la radiación emitida: h c3 TH = –––––––– 8π G M

En esta fórmula hemos restaurado los factores numéricos para mostrar que Hawking, efectivamente, ¡trabajó duro para realizar el cálculo! Vemos explícitamente que la llamada temperatura de Hawking es proporcional a la constante de Planck. Se trata de un efecto genuinamente cuántico que desaparece cuando

107

despreciamos las fluctuaciones cuánticas, algo que corresponde matemáticamente con el límite h = 0. El ritmo de emisión es aproximadamente de una partícula con energía TH cada intervalo de tiempo de orden R/c. Esto significa que el tiempo necesario para evaporar un agujero negro es proporcional a la tercera potencia de su masa. Un agujero negro con la masa del Sol tardaría unos 1066 años en evaporarse, una eternidad… Incluso en unidades de la edad del universo, que es del orden de 1010 años desde el Big Bang, estos agujeros negros viven 1056 veces la edad del universo. El agujero negro del centro de la Vía Láctea es 1018 veces más longevo que un agujero negro de masa estelar. Si nos fijamos en los grandes gigantes en el centro de los quásares más potentes, estos durarían… ¡10100 años! Se puede decir que los agujeros negros no son estrictamente eternos, pero casi. Más exactamente, ninguno de los agujeros negros astrofísicos que hay ahí fuera se está evaporando ahora mismo. Todos estos agujeros tienen una temperatura de Hawking muy inferior a los 2,7 grados Kelvin, la temperatura actual del fondo cósmico de radiación que sobrevive desde el Big Bang. Al estar más fríos que el vacío intergaláctico, los agujeros negros astrofísicos siguen hoy día tragando más energía de la que emiten, independientemente de la cantidad de materia en forma de gas, polvo o materia oscura que lleven en su dieta. Aunque la radiación de Hawking sea irrelevante para los agujeros negros astronómicos, podría ser importante para hipotéticos agujeros negros pequeños, presumiblemente de origen primordial. Por ejemplo, agujeros negros con el tamaño de un protón tendrían la masa de una montaña prototípica y su vida media coincidiría con la edad de universo. Si proceden del Big Bang, deberían estar desintegrándose ahora.

108

En cualquier caso, el verdadero interés del resultado de Hawking es de naturaleza conceptual. Calculando el número total de partículas emitidas por el agujero negro durante todo el proceso de evaporación, podemos estimar el número efectivo de “partes móviles cuánticas” que tiene. Como cada partícula emitida tiene una energía de orden TH, un agujero negro de masa M emite unas M c2 / TH partículas. Un sencillo cálculo muestra que este número es del orden de la entropía del agujero negro, ¡tal como había preconizado Bekenstein unos años antes! Hawking demostró que los horizontes de los agujeros negros están realmente calientes y se les puede asignar una medida de información oculta (entropía) correspondiente a un grado de libertad microscópico por cada unidad de área del horizonte de orden Planck. Esto significa que la “cabellera oculta” del agujero negro es de origen cuántico y el trabajo de Hawking y Bekenstein ha permitido escribir la que muchos consideran la fórmula más enigmática de la física: c3 Áreahorizonte SBH = –––––––––––– 4 Gh

En esta fórmula para la entropía de un agujero negro de tipo Schwarzschild hemos restaurado los factores numéricos exactos según fueron calculados por Hawking.

Paradoja y crisis El descubrimiento de Hawking tiene una consecuencia profundamente paradójica. Volvamos a escenificar nuestro ya habitual drama de pareja: mientras Alicia se arroja al interior del agujero negro y acaba en la singularidad en lo que ella considera

109

un tiempo bien corto, Bernardo contempla su caída a medida que se aproxima lentamente hacia el horizonte. Según Alicia, su historia acaba en la singularidad de forma violenta, pero el horizonte no involucra ningún fenómeno especial para ella, que sigue viendo lo que ocurre fuera, incluido Bernardo, hasta el último momento en que es atrapada por la singularidad. En la descripción clásica de Bernardo, Alicia nunca llega a cruzar, sino que acaba formando parte de la cabellera oculta en los estratos profundos que se superponen en el horizonte. Sin embargo, cuando Bernardo tiene en cuenta los efectos cuánticos, descubre que el horizonte se degrada, desintegrándose lentamente en partículas de radiación. Este proceso de desintegración incluye también a Alicia. Así que Bernardo podría decir, con razón, que ella no se quedó indefinidamente congelada en los estratos profundos del horizonte, sino que fue “cocinada” a fuego lento y emitida de vuelta en un tiempo largo pero ciertamente no infinito. Está claro que Alicia y Bernardo no están de acuerdo en lo que le ocurre a la propia Alicia. ¿Hemos alcanzado una contradicción? Hawking presentó esta paradoja como un conflicto entre dos leyes básicas de la física. Si Alicia cruza el horizonte sin descomponerse es porque el principio de equivalencia la protege. Si Bernardo está seguro de que Alicia fue procesada térmicamente en el horizonte y sus “fragmentos” emitidos como parte de la radiación de evaporación, es porque así debe ser si se conserva la información. La radiación tiene que contener la información de los detalles de Alicia, como su color de ojos o la marca de su teléfono móvil, aunque en forma muy mezclada y difícil de descodificar, de la misma manera que los átomos de los restos de una hoguera de libros contienen en principio la información necesaria para reconstruirlos, por más que en la práctica tal cosa sea imposible.

110

Figura 14 Según Alicia, ella cruza el horizonte y cae en la singularidad, mientras Bernardo se queda fuera. Singularidad

Horizonte

Bernardo futuro

Alicia futura

tiempo

Alicia y Bernardo pasados

Figura 15 Según Bernardo, Alicia, degradándose, se queda congelada en el horizonte y acaba siendo emitida en una radiación de partículas elementales.

Horizonte

“Alicia” futura

Bernardo futuro

tiempo

Alicia

Alicia y Bernardo pasados

El principio de equivalencia, o, más en general, la localidad, es un principio básico de la estructura del espaciotiempo. La conservación de la información es el principio básico de la mecánica cuántica, el que gobierna la amplitud de las fluctuaciones. Así pues, tenemos entre manos un conflicto entre los dos pilares básicos de la física. En su derivación detallada de la temperatura de la radiación, Hawking utilizó de forma muy explícita el principio de equivalencia. Tal vez por esta razón siempre consideró la localidad del espacio-tiempo como el eslabón más sólido del argumento. Declaró así que la física cuántica debería ser modificada para hacerla compatible con el comportamiento de los agujeros negros. En su visión, la evaporación de un agujero negro extrae toda la energía que lo había formado, toda su carga eléctrica y todo su momento angular, pero nada de la información contenida en la cabellera o estructura fina del horizonte. El debate científico que se generó se parece en muchos aspectos al viejo debate entre Einstein y Bohr sobre la interpretación de la mecánica cuántica, excepto que resulta difícil establecer un “ganador” por la dificultad de realizar explícitamente los cálculos necesarios, o por la imposibilidad de realizar experimentos cruciales. Hasta el día de hoy podemos identificar físicos ilustres que se alinean en trincheras opuestas de este conflicto. Por un lado están los que apoyan sin fisuras el argumento original de Hawking: la información se pierde en la singularidad y la evaporación es un proceso local en el horizonte, que no es capaz de extraer esta información. Existen dos variantes de este partido: unos creen que la mecánica cuántica simplemente falla y otros imaginan que la información es transportada a otro universo, que se bifurca a través de la

112

singularidad. También existe un partido radical que sacrifica por completo el principio de equivalencia: la información se debe preservar y el punto de vista de Bernardo es el único válido; Alicia es quemada en el horizonte y ella misma lo experimentará como una “pared de fuego” o un muro de algún tipo. Para estos, la teoría de Einstein falla estrepitosamente en el horizonte, aunque este tenga el radio de la órbita de Neptuno y hayamos formado el agujero negro con una nube diluida de botellas de agua… Las dos posturas radicales que cargan toda la contradicción sobre uno solo de los pilares de la física siempre han generado desconfianza, si bien la ausencia de experimentos ha mantenido este debate en el caballeroso terreno de las ideas puras. Existe, sin embargo, una “tercera vía”, inventada hace 25 años por el holandés Gerard ’t Hooft y el norteamericano Leonard Susskind, según la cual todo el mundo tiene algo de razón. Se imaginará el lector que esta es la postura más popular hoy en día, ofreciendo un conveniente solaz psicológico… Según ’t Hooft y Susskind, la contradicción entre las descripciones de Alicia y Bernardo es análoga a la vieja contradicción entre ondas y corpúsculos en la física cuántica primitiva. Al igual que el carácter ondulatorio o corpuscular de un cuanto elemental depende del tipo de medida que realicemos, las dos versiones aparentemente contradictorias de la historia de Alicia dependen de si es medida por la propia Alicia o por Bernardo, que se queda fuera. Las dos medidas serían mutuamente incompatibles, en el sentido del principio de incertidumbre de Heisenberg: podemos elegir una medida o la otra, pero no ambas simultáneamente. Esto se plantea por el hecho de que Alicia no puede volver a salir para decirle a Bernardo en persona que ha pasado el

113

horizonte sin problemas. Por otra parte, si Bernardo quiere estar seguro de que Alicia se ha quemado en el horizonte, tendrá que esperar bastante tiempo, porque la radiación de Hawking sale muy lentamente. Cuando haya recogido suficiente información para estar seguro de que Alicia está cocinada, podría intentar saltar al interior del agujero negro para decírselo a ella en persona. Pero un cálculo sencillo muestra que esto es imposible porque, debido al tiempo que ha tenido que esperar fuera, Bernardo nunca llega a tiempo de ver a Alicia viva. Cuando él penetra en el interior del agujero negro, hace ya un rato que Alicia ha desaparecido en la singularidad. En otras palabras, ni Alicia ni Bernardo pueden realizar la contradicción potencial entre sus historias excluyentes, puesto que, una vez que las han vivido, no pueden encontrarse para contárselas. Esta salida intermedia de la paradoja se conoce como la complementariedad de horizontes. Aunque reconcilia las dos visiones de Alicia y Bernardo de una forma que respeta las descripciones de la localidad y la conservación de la información como “dos caras de una misma moneda”, está claro que supone una imbricación profunda entre la mecánica cuántica y la estructura del espacio-tiempo, a un nivel mucho más sutil y misterioso que el manifestado, por ejemplo, en la teoría de cuerdas. Por esta razón, muchos consideran que la paradoja de la información de Hawking es la llave para desentrañar la hipotética teoría de la gravitación cuántica. En el epílogo del libro veremos cómo diferentes ideas importadas de la física cuántica de partículas (la teoría de cuerdas, la relatividad general y la complementariedad de horizontes) pueden estar cristalizando en una síntesis que modifica profundamente la propia esencia del espaciotiempo.

114

Lo que sabemos • El cálculo original de Hawking ha sido repetido mediante el uso de diferentes métodos con el mismo resultado. La expresión de TH se considera, pues, la primera fórmula detallada de la gravitación cuántica, ya que reúne las tres constantes fundamentales de la naturaleza: c, h y G, que controlan, respectivamente, la relatividad, la física cuántica y la gravitación. • El resultado de Hawking combinado con el teorema de ausencia de cabellera implica que la evaporación de agujeros negros viola las cargas conservadas que no están asociadas a una fuerza. Es decir, se viola por ejemplo el número bariónico (número de quarks menos número de antiquarks) aunque se conserva la carga eléctrica. Si asumimos que pueden existir microagujeros negros con masa MP en fluctuaciones cuánticas, la desintegración de estos también violaría cargas de tipo bariónico. Esta es una de las razones por las que los físicos sospechan que los protones no son para siempre. • Los agujeros negros extremales, en los que la carga es la máxima compatible con su estabilidad, tienen temperatura cero. Esto los convierte en laboratorios teóricos muy interesantes, ya que muchos de ellos siguen teniendo entropía aunque estén “fríos”. Aplicando la teoría de cuerdas, Andrew Strominger y Cumrum Vafa lograron, en 1997, calcular la entropía de un tipo particular de agujero negro extremo con una simetría adicional que se denomina supersimetría. El resultado está exactamente de acuerdo con la fórmula de Bekenstein-Hawking. La extensión de este tipo de cálculos a agujeros negros más corrientes, como el propio agujero de Schwarzschild, sigue siendo un problema abierto.

115

Lo que ignoramos • Las correcciones al resultado de Hawking nunca se han calculado de una forma eficiente. Por tanto, no ha sido posible demostrar o refutar la conservación de la información cuántica usando una extensión de los métodos originales de Hawking. • Una hipotética detección de agujeros negros en aceleradores de partículas (asumiendo la existencia de dimensiones extragrandes) permitiría efectuar un test experimental directo del mecanismo de Hawking y sus correcciones. • Existe una relación formal entre la fórmula de Hawking para la radiación de un agujero negro y la manera en que se generan fluctuaciones de la geometría en modelos de inflación cósmica. Estas fluctuaciones acabarían convertidas en las galaxias que vemos en el cosmos. Por tanto, la corroboración de la explicación inflacionaria de la estructura en gran escala del universo se podría considerar evidencia indirecta a favor de la fórmula de Hawking.

116

Epílogo

Llegamos al final de este breve libro, que comenzaba con las especulaciones de un par de personajes adelantados a su tiempo. Uno de ellos, el marqués de Laplace, se considera un símbolo de la visión mecanicista del mundo: la idealización de que un conocimiento completo del estado del universo ahora bastaría para determinar todas las propiedades futuras y pasadas. Tal era la fe de los ilustrados en su visión teórica del mundo. Los conceptos de espacio-tiempo y de quantum mostraron los límites de la idealización laplaciana. No solo resultó que la noción de “ahora” es una cuestión de opinión; el principio de incertidumbre mostró que el conocimiento detallado que pedía Laplace es imposible. Sin duda, él se quedaría horrorizado si supiera que los físicos del siglo XXI solo pueden predecir probabilidades. Este es el precio que se paga por alcanzar una comprensión más profunda, en la que aspectos previamente independientes se revelan como diferentes perspectivas de una misma entidad básica. Una vez reajustada la filosofía, podemos presumir de la teoría física mejor

117

comprobada de la historia: el momento magnético anómalo del electrón está calculado por la teoría de partículas relativistas con un acuerdo experimental de nueve cifras significativas, pero sigue siendo imposible por principio predecir el momento exacto en que un neutrón flotando en el vacío decide desintegrarse. Hemos querido terminar el libro con algunas de las especulaciones de nuestro tiempo. Una nueva vuelta de tuerca que deja vislumbrar la profunda relación entre espacio-tiempo y los cuantos. Doscientos años más tarde, los agujeros negros atisbados por Michell y Laplace son parte del mundo real y podrían indicarnos el camino de la siguiente revolución.

Hologramas El destino de la información escondida en un agujero negro ha sido presentado por Hawking como un conflicto de principios parecido a los que provocaron la revolución de comienzos del siglo XX. Como entonces, un experimento mental está diseñado para exhibir una contradicción. En este caso, la localidad del espacio-tiempo implica que la historia de Alicia contada por ella misma termina en la singularidad del agujero negro. Por otra parte, la conservación de la información a la vista de Bernardo implica que Alicia nunca pasa del horizonte y acaba como parte de los productos de evaporación. La idea de ’t Hooft y Susskind, que ambas historias son “complementarias” en el sentido de la dualidad cuántica entre partículas y ondas, tiene dos consecuencias importantes. En la mecánica cuántica de un electrón podemos pasar de la descripción tipo onda (en la que la velocidad caracteriza

118

el estado) a la descripción tipo partícula (en la que la posición caracteriza el estado) mediante una transformación matemática bien definida. En el caso del agujero negro, también debería existir una transformación matemáticamente precisa entre la descripción de Bernardo y la descripción de Alicia, de forma que en una la localidad es manifiesta y en otra la conservación de la información también lo es. Ambas descripciones serían matemáticamente equivalentes, y por tanto no serían independientes entre sí. En cierto modo, la demostración de Hawking de la existencia de radiación utiliza una versión aproximada de esta transformación, pero en este caso las matemáticas que se han usado no son lo suficientemente precisas como para identificar el flujo de información en la visión de Bernardo, sino solo el flujo de energía. El problema de mejorar el tratamiento matemático de Hawking para capturar el flujo de información es uno de los retos centrales de la física teórica actual. La segunda consecuencia de esta idea es que, si realmente el viaje interior de Alicia es equivalente a su procesamiento y evaporación en el horizonte, entonces el propio espaciotiempo interior debería ser matemáticamente equivalente al horizonte equipado con una versión cuántica de la “cabellera”. La relación entre ambos recuerda al funcionamiento de un holograma. En un holograma tenemos una película con información codificada digitalmente en una estructura de píxeles, que, al ser iluminados por un láser, proyectan una imagen que simula una estructura tridimensional. La información está físicamente almacenada en dos dimensiones: los píxeles. La imagen tridimensional tiene el mismo contenido en información que los píxeles de la película, pero se necesita el láser para conseguir la descodificación. De forma análoga, la historia

119

interior de Alicia sería una imagen holográfica de cierto estado cuántico del horizonte pixelado. ¿Cuántos píxeles hacen falta? Tantos como bits de información sean necesarios para caracterizar la estructura fina de un horizonte. Según Bekenstein, esto es igual a la entropía del agujero negro, correspondiente a un bit por unidad de área planckiana. Esto es, cada píxel tendría un área de 10-66 cm2 y alojaría un solo grado de libertad cuántico. La idea de que una región tridimensional del espacio pueda ser equivalentemente descrita mediante grados de libertad en su borde exterior es ciertamente revolucionaria, puesto que constituye un ataque directo al principio de localidad. Pero… ¿cómo puede ser posible? Intuitivamente, la información contenida en la configuración de partículas elementales se organiza en el “interior” del espacio. En este caso, el número de “componentes” tiene que aumentar de manera proporcional al volumen, no como la superficie. Pero un momento de reflexión revela que este argumento puede resultar engañoso. Después de todo, la mayoría de los estados con muchas partículas en el volumen tienen una masa tan grande que harían colapsar la región en un agujero negro. Considerando todos los estados que se pueden des­­ cribir como partículas confinadas en una caja, los de mayor entropía corresponden a un gas con alta temperatura. Si la caja tiene un tamaño L, y por tanto un volumen L3, la en­­ tropía del gas caliente es de orden Sgas ~ (LT/hc)3 cuando la temperatura vale T. Por otra parte, la energía correspondiente a esta temperatura es aproximadamente E ~ T(LT/hc)3. Cuando esta energía alcanza una magnitud aproximada de orden Lc4/G, la caja entera está a punto de colapsar en un agujero negro y en ese momento la entropía del gas vale Sgas ~ (SBH)3/4, donde SBH es la entropía de Bekenstein-Hawking.

120

Esta entropía crítica del gas es mucho más pequeña que la de un agujero negro de la misma masa, lo cual implica que el agujero negro se forma antes de que la entropía de volumen empiece a dominar sobre la entropía de superficie. De este argumento se deduce que la ilusión de empaquetar información en regiones cada vez más pequeñas del espacio se vuelve imposible incluso antes de llegar a la longitud de Planck, ya que cada refinamiento en el empaquetamiento cuesta energía, y esta energía acaba por colapsar toda la región en un agujero negro. Una vez que hemos formado el agujero negro, su información oculta solo depende del área del horizonte y, por tanto, el número de píxeles necesarios nunca excede uno por unidad de área planckiana de la superficie de la caja.

Energía oscura y holografía El argumento de la sección anterior ha sido elevado a la categoría de principio holográfico y encierra la promesa de terminar con el espacio-tiempo como concepto básico de la física. Este pasaría a ser una noción emergente, válida en situaciones donde la densidad de energía esté suficientemente diluida. Pese al atractivo de estos argumentos heurísticos, el progreso en física siempre requiere, tarde o temprano, la formulación matemática de las ideas. Este paso es necesario para afilar los propios conceptos teóricos y resulta imprescindible para efectuar tests experimentales sobre la teoría. En el caso de la holografía, el primer paso en esta dirección fue dado por el joven físico argentino Juan Maldacena, quien propuso, en 1997, el primer modelo matemático preciso del principio holográfico. Maldacena consideró el caso en el que la energía está dominada por energía oscura negativa.

121

Recordemos que Einstein introdujo una constante cosmológica positiva en 1917 como una manera de dar un carácter repulsivo a la gravitación a grandes distancias. Esta idea fue abandonada durante 80 años, hasta que los experimentos la colocaron de nuevo en el centro de la escena. Sin embargo, nunca se consideró una constante cosmológica negativa como una descripción realista de nuestro universo. Aun así, se trata de una de las soluciones más sencillas de las ecuaciones de Einstein. Tiene la propiedad de que, en vez de antigravedad, la energía del vacío negativa produce una curvatura que convierte el espacio en una caja de “paredes suaves”. El espacio es infinito, pero, al lanzar cosas con energía finita, estas se acaban frenando y dándose la vuelta hasta el punto de partida, igual que si rebotaran en el interior de una caja. El punto de retorno depende de la energía con la que efectuamos el lanzamiento, y por eso hablamos de una caja de paredes suaves. Aun así, se trata de una caja en todos los demás sentidos. En su interior podemos introducir partículas elementales, cuerdas cuánticas o agujeros negros. Lo que propuso Maldacena es que todas estas configuraciones en la caja se pueden describir matemáticamente como configuraciones de una teoría de píxeles en el borde de la caja. Lo llamativo es que esta no es otra que la teoría que gobierna la interacción de los quarks, en un límite matemático en el que el número de interacciones independientes entre los quarks es muy grande, tanto como el número de píxeles del borde. La propuesta de Maldacena ha revolucionado la física teórica de la última década, y las consecuencias a largo plazo son todavía difíciles de vislumbrar. Uno de los aspectos más sorprendentes de la solución es su carácter relativamente conservador. Resulta que la descripción matemáticamente

122

exacta de una teoría con partículas, cuerdas y agujeros negros es una teoría que vive en la frontera del espacio, cuyos elementos dinámicos vuelven a ser partículas cuánticas ordinarias sin gravitación. Esto significa que las cuerdas no son tan fundamentales como se supuso originalmente, sino que en el fondo “están hechas” de partículas ordinarias. La novedad es que el propio espacio en el que vibran estas cuerdas también aparece como un objeto compuesto de las excitaciones de las partículas en el borde. Por tanto, el carácter revolucionario no está en la necesidad de inventar nuevas estructuras, sino en interpretar el propio espacio como emergente. Figura 16 En el holograma de energía oscura negativa, partículas cercanas al borde se codifican como una nube pequeña de píxeles. Partículas lejos del borde se codifican como una nube grande de píxeles. Píxeles en la superficie

Partículas en el volumen

2

1

HOLOGRAFÍA 1 2

Por ahora estas ideas no están suficientemente maduras como para pasar el test experimental. Sin embargo, la distancia no es tan grande como podría parecer. Recientes experimentos en Brookhaven y en el LHC del CERN han revelado que un fluido de quarks a muy alta temperatura se comporta como un líquido perfecto con una viscosidad mucho más

123

baja que la esperada. Se ha comprobado que una descripción del plasma de quarks en términos de la caja de Maldacena da un resultado bastante razonable para el valor de la viscosidad. En este caso, las ideas de Maldacena entrarían como una descripción matemáticamente útil del plasma de quarks. La posibilidad de extender estas descripciones a otros sistemas sobre los que se tiene mayor control experimental, como los sistemas de materia condensada con interacciones fuertes, es objeto de estudio intenso en estos momentos. El modelo de Maldacena funciona con constante cosmo­­ lógica negativa. Habida cuenta de que la constante cos­­moló­­ gica que ha sido efectivamente medida es positiva, queda claro que el mundo real no se parece a la caja de Maldacena, pero se plantea la cuestión de si existe una transformación matemática análoga que sí se aplique al caso de constante cosmológica positiva. Como vimos en el capítulo 3 de este libro, un espacio con energía oscura positiva tiene un horizonte cosmológico en el que todo observador se ve encerrado. Si este horizonte admitiera una descripción holográfica, el número de píxeles en este caso vendría determinado por el área del horizonte en unidades de Planck. Para nuestro universo, con un horizonte de unos 1028 cm, resultan unos 10120 píxeles. ¿Vivimos en un holograma con este número de componentes? ¿Qué significa que el número de grados de libertad del universo sea finito? ¿Cuál es el modelo matemático que representa la física en términos del holograma? Hoy por hoy, estas preguntas no tienen respuesta. Tam­­ poco sabemos a ciencia cierta si son las preguntas correctas. Pero es un buen momento para terminar este libro, esperando que no tengan que pasar dos siglos para que estas especulaciones sean sometidas al juicio de la historia.

124

Bibliografía

Greene, B. (2010): El tejido del cosmos: espacio, tiempo y la textura de la realidad, Crítica, colección Drakontos, Barcelona. [Un panorama general sobre los fundamentos de la física, con especial atención a los límites de la noción de espacio-tiempo.] Hawking, S. (2011): El universo en una cáscara de nuez, Crítica, colección Drakontos bolsillo, Barcelona. [Una explicación de las especulaciones más recientes en la teoría de la gravedad cuántica, con énfasis en el papel de los agujeros negros.] Susskind, L. (2009): La guerra de los agujeros negros: una controversia científica sobre las leyes últimas de la naturaleza, Crítica, colección Drakontos, Barcelona. [Una magnífica exposición pedagógica de la paradoja de la información de Hawking y el principio holográfico, con una divertida narración de su devenir histórico.] Thorne, K. S. (1995): Agujeros negros y tiempo curvo: el escandaloso legado de Einstein, Crítica, Barcelona. [Un tratamiento detallado de la física de los agujeros negros, con atención especial a sus aplicaciones en la astrofísica y una cuidada narración histórica.]

125

58_Losagujerosnegros:58_Losagujerosnegros 3/11/14 09:20 Página 1

y David Martín de Diego

4. 5. 6. 7. 8.

El jardín de las galaxias. Mariano Moles Las plantas que comemos. Pere Puigdomènech Cómo protegernos de los peligros de Internet. Gonzalo Álvarez Marañón El calamar gigante. Ángel Guerra Sierra y Ángel F. González González Las matemáticas y la física del caos. Manuel de León y Miguel Á. F.

9. 10. 11. 12.

Los neandertales. Antonio Rosas Titán. Luisa M. Lara La nanotecnología. Pedro A. Serena Domingo Las migraciones de España a Iberoamérica desde la Independencia.

Sanjuán

Consuelo Naranjo Orovio

13. 14. 15. 16.

El lado oscuro del universo. Alberto Casas Cómo se comunican las neuronas. Juan Lerma Los números. Javier Cilleruelo y Antonio Córdoba Agroecología y producción ecológica. Antonio Bello, Concepción Jordá y Julio César Tello

17. 18. 19. 20. 21.

La presunta autoridad de los diccionarios. Javier López Facal El dolor. Pilar Goya Laza y Mª Isabel Martín Fontelles Los microbios que comemos. Alfonso V. Carrascosa El vino. Mª Victoria Moreno-Arribas Plasma: el cuarto estado de la materia. Teresa de los Arcos e Isabel Tanarro

22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41.

Los hongos. M. Teresa Telleria Los volcanes. Joan Martí Molist El cáncer y los cromosomas. Karel H.M. van Wely El síndrome de Down. Salvador Martínez Pérez La química verde. José Manuel López Nieto Princesas, abejas y matemáticas. David Martín de Diego Los avances de la química. Bernardo Herradón García Exoplanetas. Álvaro Giménez La sordera. Isabel Varela Nieto y Luis Lassaletta Atienza Cometas y asteroides. Pedro José Gutiérrez Buenestado Incendios forestales. Juli G. Pausas Paladear con el cerebro. Francisco Javier Cudeiro Mazaira Meteoritos. Josep Maria Trigo Rodríguez Parasitismo. Juan José Soler El bosón de Higgs. Alberto Casas y Teresa Rodrigo Exploración planetaria. Rafael Rodrigo La geometría del universo. Manuel de León La metamorfosis de los insectos. Xavier Bellés La vida al límite. Carlos Pedrós-Alló El significado de innovar. Elena Castro Martínez e Ignacio Fernández

Los agujeros negros

Motivo de fascinación tanto para frikis aficionados a la ciencia-ficción como para los más sesudos astrofísicos, los agujeros negros se podrían describir como las cicatrices del espacio-tiempo que dejan las colosales explosiones supernova. Algunos son monstruosamente grandes y permanecen ocultos en el centro de las galaxias como testigos de una juventud violenta del universo, pero todos albergan la clave para resolver el rompecabezas maestro de la física fundamental: la formulación del espacio-tiempo cuántico. Este libro explica con rigor y sencillez los conceptos necesarios para comprender qué son los agujeros negros, qué papel desempeñan en la vida de las galaxias y por qué, hoy por hoy, representan las auténticas piedras filosofales de los fundamentos de la física.

¿QUÉ SABEMOS DE? LOS AGUJEROS NEGROS

1. El LHC y la frontera de la física. Alberto Casas 2. El Alzheimer. Ana Martínez 3. Las matemáticas del sistema solar. Manuel de León, Juan Carlos Marrero

¿QUÉ SABEMOS DE?

José Luis Fernández Barbón

¿QUÉ SABEMOS DE?

Los agujeros negros José Luis Fernández Barbón

José Luis Fernández Barbón es doctor en física teórica por la Universidad Autónoma de Madrid y trabaja como investigador científico del Instituto de Física Teórica CSIC/UAM. Ha trabajado como investigador en la Universidad de Princeton, la Universidad de Utrecht y la Universidad de Santiago de Compostela y ha sido investigador de plantilla de la división de física teórica del CERN.

de Lucio

42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57.

Los números trascendentes. Javier Fresán y Juanjo Rué Extraterrestres. Javier Gómez-Elvira y Daniel Martín Mayorga La vida en el universo. F. Javier Martín-Torres y Juan Francisco Buenestado La cultura escrita. José Manuel Prieto Biomateriales. María Vallet Regí La caza como recurso renovable y la conservación de la naturaleza. Jorge Cassinello Roldán Rompiendo códigos. Vida y legado de Turing. Manuel de León y Ágata Timón Las moléculas: cuando la luz te ayuda a vibrar. José Vicente García Ramos Las células madre. Karel H.M. van Wely Los metales en la Antigüedad. Ignacio Montero El caballito de mar. Miquel Planas Oliver La locura. Rafael Huertas Las proteínas de los alimentos. Rosina López Fandiño Los neutrinos. Sergio Pastor Carpi Cómo funcionan nuestras gafas. Sergio Barbero Briones El grafeno. Rosa Menéndez y Clara Blanco

ISBN: 978-84-00-09888-9

58 ¿de qué sirve la ciencia si no hay entendimiento?