Full Física para Todos - Landau Kitaigorodski ( Vol1 ,Vol2 , Vol3, Vol4 ) [2da ed.] 9785992222227

Full Física para Todos - Landau Kitaigorodski ( Vol1 ,Vol2 , Vol3, Vol4 ) Volumenes completos 4 en 1 Editorial MIR - M

126 6 18MB

Spanish Pages 908 Year 1977

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Libro 1, CUERPOS FISICOS. FISICA PARA TODOS L.D. LANDAU. A.I. KITAIGORODSKI. EDITORIAL MIR MOSCU

Libro 2, MOLECULAS. FISICA PARA TODOS L.D. LANDAU. A.I. KITAIGORODSKI. EDITORIAL MIR MOSCU

Libro 3, ELECTRONES. FISICA PARA TODOS L.D. LANDAU. A.I. KITAIGORODSKI. EDITORIAL MIR MOSCU

Libro 4, FOTONES Y NUCLEOS. FISICA PARA TODOS L.D. LANDAU. A.I. KITAIGORODSKI. EDITORIAL MIR MOSCU
Recommend Papers

Full Física para Todos - Landau Kitaigorodski ( Vol1 ,Vol2 , Vol3, Vol4 ) [2da ed.]
 9785992222227

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Física para Todos I– Cuerpos Físicos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

1

L. D. Landau y A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Prólogo a la cuarta edición rusa Tras muchos años me decidí a volver a la «Física para todos», libro no terminado que había escrito junto con Dau, así llamaban lo llamaban los amigos al académico L. D. Landau, admirable científico y hombre de gran atractivo. Este libro es sumamente «conjunto», Y durante un largo período me resultó difícil ponerse a escribir su continuación. Muchos lectores me lo reprocharon. Y he aquí que ahora someto al juicio de los lectores la nueva edición de la «Física para todos» dividida en cuatro libros pequeños. Los he intitulado como sigue: «Cuerpos físicos», «Moléculas», «Electrones», «Fotones y núcleos». La división se ha hecho, por decirlo así, conforme a la profundidad de penetración en la estructura de la materia. Los mencionados cuatro libros abarcan todas las leyes fundamentales de la física. Tal vez tiene sentido continuar la «Física para todos» dedicando los fascículos posteriores al fundamento de las distintas ramas de las ciencias naturales y de la técnica. Los dos primeros libros no son sino el libro anterior hasta cierto punto revisado y en algunas partes sustancialmente aumentado. Los dos últimos libros los he escrito yo. Comprendo perfectamente que un lector atento percibirá la diferencia existente entre ellos. Sin embargo, se han observarlo los principios generales de exposición del material que adoptamos con Dau. Se trata del carácter deductivo de la exposición, ateniéndose a la lógica del objeto de estudio y no a la historia de su desarrollo. Estimarnos útil conversar con el lector empleando el lenguaje sencillo, cotidiano sin que nos infundiese miedo recurrir al humor. Cabe advertir también que no tuvimos lástima del lector. En lo concerniente a la diferencia entre los nuevos libros y el viejo, esta consiste en lo siguiente. Cuando se escribía el libro anterior los autores lo consideraban como el «primer» libro de física suponiendo incluso que le podía hacer competencia al manual escolar. Sin embargo, las opiniones de los lectores y la experiencia de los maestros de física demostraron que no es así. El auditorio de este libro lo formaron los maestros, los ingenieros y los escolares que querían elegir la física como su profesión. Resultó que nadie consideró la «Física para Todos» como libro de texto.

Gentileza de Manuel Mayo

2

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Se aprecia corno un libro de divulgación científica que amplia los conocimientos escolares y, con frecuencia, centra la atención en los problemas que debido a una u otra razón no figuran en los programas. A resultas de ello y suponiendo que el lector del libro está más o menos iniciado un la física, y, como es lógico, me sentí más libre en la elección de los temas. Por cuanto la conversación sobre la física comienza hablando de los fenómenos que no exigen conocer la estructura de la materia es natural dar al primer libro el nombre de «Cuerpos físicos». Desde luego, se hubiera podido intitular estas páginas —tal como está admitido generalmente— con la palabra «mecánica», es decir, ciencia sobre el movimiento. Pero, no olvide que la teoría del calor que se expone en el segundo libro también es la ciencia sobre el movimiento..., sólo que se trata del movimiento de los cuerpos invisibles para el ojo: de las moléculas y los átomos. En consecuencia, el nombre escogido se me representa más acertado. El primer libro está dedicado principalmente, al estudio de las leyes del movimiento y de la gravitación universal las cuales, para siempre, serán el fundamento de la física y, por consiguiente, también de las ciencias naturales. Septiembre de 1977 A. I. Kitaigorodski

Gentileza de Manuel Mayo

3

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 1 Conceptos fundamentales Contenido: 1. Sobre el centímetro y el segundo 2. Peso y masa 3. El sistema SI y sus patrones 4. Ley de conservación de la masa 5. Acción y reacción 6. Cómo sumar las velocidades 7. La fuerza como vector 8. Plano inclinado 1. Sobre el centímetro y el segundo Todos tenemos la necesidad de medir longitudes, contar el tiempo y pesar diversos cuerpos. Por eso, todos sabemos bien qué es el centímetro, el segundo y el gramo. Pero, para la física, estas medidas tienen una importancia extraordinaria, puesto que son necesarias para la apreciación de la mayoría de los fenómenos físicos. Los hombres procuran medir con la mayor precisión posible las distancias, los intervalos de tiempo y el peso, llamados en la física conceptos fundamentales. Los instrumentos modernos de la física ofrecen la posibilidad de determinar la diferencia de las longitudes de dos varillas de un metro, incluso cuando esta diferencia sea menor de una mil millonésima parte de metro. Se pueden distinguir intervalos de tiempo que se diferencian en una millonésima parte de segundo. Una buena balanza puede pesar con gran precisión un grano de amapola. No hace más que unos cuantos cientos de años atrás, empezó a desarrollarse la técnica de las mediciones, y no hace mucho, relativamente, que se ha convenido sobre qué segmento de longitud y qué intervalo del tiempo se deben tomar como unidades.

Gentileza de Manuel Mayo

4

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Por qué el centímetro y el segundo se han elegido tal como los conocemos? Pues está claro que no tiene importancia alguna que el centímetro o el segundo sean más largos o más cortos. Lo único que se pide, es que la unidad de medida sea cómoda. Estaría bien, si ésta estuviese a mano. Lo más sencillo sería tomar por unidad de medida la misma mano. Precisamente así lo hirieron en los tiempos antiguos; esto lo testimonian los mismos nombres de las unidades, por ejemplo, «codo», que es la distancia desde el codo hasta los extremos de los dedos de la mano estirada; pulgada, que es el grosor del dedo pulgar en su base. También se utilizaba el pie como medida; de aquí la denominación de longitud «pie», que es la longitud de la planta del pie. Aunque estas unidades son de gran comodidad, puesto que siempre las tenemos consigo, sus inconveniencias son evidentes: mucho se diferencian unas personas de otras, para que la mano o el pie puedan servir de unidades de medida y no dé lugar a discusiones. Con el desarrollo del comercio surgió la necesidad de llegar a un acuerdo sobre las unidades de medidas. Los patrones de longitud y de peso se establecieron, primero, para un mercado, después, para una ciudad, más tarde, para todo un país y por fin, para todo el mundo. El patrón es una medida que sirve de modelo, como la regla, la pesa, etc. El Estado guarda con mucho cuidado los patrones y otras reglas y pesas que tienen que ser construidas exactamente de acuerdo con el patrón. En la Rusia zarista, las medidas principales de peso y de longitud —llamadas «funt» y «arshín»— fueron fabricadas en el año 1747. En el siglo XIX aumentaron las necesidades de precisión de las medidas y estos patrones resultaron ser imperfectos. D. Mendeleiev dirigió en los años 1893-1898 los trabajos, muy complicados y de gran responsabilidad, de la elaboración de patrones exactos. El gran químico consideraba de suma importancia el establecimiento de medidas exactas. Por iniciativa de él, a fines del siglo XIX se fundó la Cámara principal de medidas y pesas, en donde se guardaban los patrones y se elaboraban sus copias. Unas distancias se expresan en unidades mayores, otras, en menores. En efecto, a nadie se le ocurrirá expresar la distancia de Moscú a Leningrado en centímetros y el peso de un tren del ferrocarril en gramos. Por eso, los hombres acordaron establecer una determinada relación entre las medidas grandes y pequeñas. Como

Gentileza de Manuel Mayo

5

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

todos saben, en el sistema de unidades que utilizamos, las unidades grandes se diferencian de las pequeñas en 10, 100. 1000. etc., veces. Tal conveniencia resulta muy cómoda y facilita los cálculos. Sin embargo, este sistema tan cómodo no está establecido en todos los países. En Inglaterra y en los EE.UU., hasta ahora utilizan muy poco el metro, el centímetro y el kilómetro, y también el gramo y el kilogramo1 a pesar de que es indudable la comodidad del sistema métrico. En el siglo XVII surgió la idea de elegir un patrón que existiese en la naturaleza y que no variase con los años y con los siglos. En el año 1664, Cristián Huygens propuso tomar por unidad de longitud la de un péndulo que efectuara una oscilación en un segundo. Después de cien años, aproximadamente en el año 1771, se propuso tomar por patrón la longitud del espacio recorrido por un cuerpo en su caída libre durante un segundo. Sin embargo, las dos variantes resultaron ser incómodas y no fueron aprobadas. Para que surgieran las medidas modernas hizo falta una revolución: el kilogramo y el metro aparecieron durante la Gran Revolución Francesa. En el año 1700, la Asamblea Constituyente creó una comisión especial para elaborar medidas únicas; en ella tomaban parte los mejores físicos y matemáticos. De todas las

variantes

propuestas

para

unidad

de

longitud,

la

comisión

eligió

una

diezmillonésima parte del cuadrante del meridiano terrestre y dio a esta unidad el nombre de «metro». En el año 1799 fue fabricado el patrón del metro y entregado al depósito del archivo de la República. Sin embargo, muy pronto quedó claro que la idea, abstractamente justa, sobre la conveniencia de la elección de las unidades ejemplares, escogiéndolas de la naturaleza, no se puede realizar por completo. Unas mediciones más exactas, realizadas en el siglo XIX, demostraron que el patrón del metro es 0.08 milímetros más corto que la cuarenta millonésima parte del meridiano terrestre. Quedó claro que con el desarrollo de la técnica de las mediciones se irán haciendo nuevas correcciones. Conservando la definición de metro como una parte del meridiano 1 En Inglaterra se admiten oficialmente las siguientes medidas de longitud: una milla marina (igual a 1852 m, una milla simple (1609 m); el pie (30.5 cm); el pie equivale a 12 pulgadas; la pulgada a 2,54 cm; la yarda a 0,91 m Esta es una medida de «sastre» está convenido medir en yardas la cantidad de tela que se necesita para un traje. En los países anglo-sajones, el peso se mide en libras (equivalente a 454 g). Las partes pequeñas de la libra son: la onza (1/16 de libra) y el grano (1/7000 de libra); estas medidas las utilizan los boticarios al pesar les medicamentos. Hace poco (en el año 1965) el parlamento inglés decidió pasar al sistema métrico decimal. (N. del T.)

Gentileza de Manuel Mayo

6

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

terrestre habría que preparar nuevos patrones y calcular de nuevo todas las longitudes, siempre que hiciésemos nuevas mediciones del meridiano. Por eso, después de los debates en los congresos internacionales, en los años 1870, 1872 y 1875, se decidió no tomar por unidad de longitud la cuarenta millonésima parte del meridiano, sino el patrón de metro fabricado en el año 1799, que se conserva ahora en la oficina Internacional de pesas y medidas de París. Aquí no acaba la historia del metro. Actualmente, la definición de esta magnitud fundamental se basa en nuevas ideas físicas. La medida de longitud se reproduce otra vez de la naturaleza, pero de una manera más sutil. Con el metro, aparecieron sus divisiones: una milésima, llamada milímetro, una millonésima, llamada micrón, y la que más frecuentemente se usa, una centésima, el centímetro. Digamos ahora unas cuantas palabras sobre el segundo. Esta es una medida más vieja que el centímetro. Al establecer la unidad de medida del tiempo no hubo ninguna discrepancia. Esto es comprensible: la alternación del día y la noche, la rotación eterna del Sol, señalan un método natural de elección de la unidad de tiempo. Para todos es bien conocida la expresión: «determinar el tiempo por el Sol». Si el Sol está alto en el cielo, quiere decir que es mediodía y, midiendo la longitud de la sombra que proyecta un jalón, resulta fácil determinar el instante en que el Sol se encuentra en el punto más alto. De este mismo modo, al día siguiente se puede señalar el mismo instante. El intervalo transcurrido de tiempo forma un día. Y luego, no queda más que dividir el día en horas, minutos y segundos. Las unidades grandes de medición, el año y el día, las proporciona la misma naturaleza. Pero la hora, el minuto y el segundo, son inventadas por el hombre. La división actual del día proviene desde tiempos muy remotos. En Babilonia no estaba difundido el sistema decimal, sino el sexagesimal. Sesenta se divide por 12; da aquí que en Babilonia dividieran el día en doce partes iguales. En el Egipto antiguo se introdujo la división del día en 24 horas. Más tarde aparecieron los minutos y los segundos. El hecho de que la hora tenga 60 minutos y el minuto 60 segundos, también se debe al sistema sexagesimal de Babilonia. En los tiempos antiguos y en la Edad Media, el tiempo se medía con relojes de sol, de agua (por el tiempo que tardaba en caer el agua de recipientes grandes) y con otros ingeniosos dispositivos de poca exactitud.

Gentileza de Manuel Mayo

7

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Sirviéndose de los relojes modernos es fácil comprobar que, en diferentes épocas del año, los días no son exactamente iguales. Por consiguiente, se ha convenido tomar por unidad de medida del tiempo, el día solar medio durante un año. Una veinticuatroava parte de este día medio se llama hora. Sin embargo, cuando se estableció la unidad de tiempo, la hora, el minuto y el segundo, dividiendo el día en partes iguales, se supuso que la rotación de la Tierra era uniforme. Sin embargo, las mareas lunares-solares de los océanos retrasan la rotación de la Tierra aunque no sea más que en una pequeñísima parte. Por lo tanto, nuestra unidad de tiempo, el día, incesantemente se alarga. Este retraso de la rotación de la Tierra es tan ínfimo, que fue posible registrarlo directamente tan sólo hace poco tiempo, cuando se inventaron los relojes atómicos, los cuales pueden medir con gran exactitud los intervalos de tiempo de hasta millonésimas partes de segundo. La variación del día alcanzada 1-2 milésimas de segundo durante 100 años. Pero, a ser posible, el patrón tiene que carecer, incluso, de un error tan insignificante. Más adelante contaremos como ahora se ha aceptado producirlo. 2. Peso y masa Se llama peso, la fuerza con que un cuerpo es atraído por la Tierra. Esta fuerza se puede medir con balanzas de resorte.

Figura 1.1a Cuanto más pesa el cuerpo, tanto más se expande el resorte en que está suspendido. El resorte se puede graduar mediante una pesa, tomada por unidad, marcando la expansión del resorte a consecuencia de la acción de las pesas de uno, Gentileza de Manuel Mayo

8

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

dos, tres, etc., kilogramos. Si colocamos después un cuerpo en esta balanza, por la expansión del resorte podremos hallar la fuerza de su atracción por la Tierra, expresada en kilogramos (fig. 1.1a). Para medir los pesos, no sólo se utilizan los resortes de expansión, sino también los de compresión (fig. 1.1b). Empleando resortes de diferentes tipos se pueden preparar balanzas para la medición de pesos muy grandes y muy pequeños; se basa en este principio, no sólo la balanza de tendero, de poca exactitud, sino también la construcción de muchos instrumentos exactos que se emplean en las mediciones físicas. Un resorte graduado, no sólo sirve para medir la fuerza de la atracción terrestre, o sea, el peso, sino también para la medición de otras fuerzas. Este instrumento se llama dinamómetro, que quiere decir medidor de fuerzas. Muchos habrán visto cómo se emplea el dinamómetro para medir la fuerza muscular del hombre. También se puede medir la fuerza de arrastre de un motor con un resorte de alargamiento (fig. 1.2).

Fig. 1.2. Una propiedad muy importante de un cuerpo es su peso. Sin embargo, el peso no depende solamente del mismo cuerpo. A éste le atrae la Tierra. ¿Y si estuviésemos en la Luna? Claro que su peso sería otro; como muestran los cálculos, éste sería, aproximadamente, 6 veces menor. Hasta en la misma Tierra es diferente el peso en diversas latitudes. Por ejemplo, un cuerpo pesa en el polo un 0,5% más que en el ecuador. A pesar de su variabilidad, el peso posea una propiedad particular admirable: como comprueban los experimentos, la razón de los pesos de dos cuerpos, en condiciones Gentileza de Manuel Mayo

9

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

cualesquiera, permanece constante. Si dos cuerpos diversos alargan igual el resorte, en el polo, esta igualdad se conservará con la misma exactitud en el ecuador. Al medir el peso, comparándolo con el peso patrón, se halla una nueva propiedad del cuerpo, llamada masa. El sentido físico de este nuevo concepto, de la masa, está estrechamente ligado a la igualdad que acabamos de señalar al comparar los pesos. A diferencia del peso, la masa es una propiedad intrínseca del cuerpo, que no depende de nada más que del mismo cuerpo.

Figura 1.3 La comparación de los pesos, o sea, la medición de las masas, es más cómodo realizarla mediante una simple balanza de palanca (fig. 1.3). Se dice que las masas de dos cuerpos son iguales, si al colocarlos en diversos platillos de una balanza de palanca, éstos quedan rigurosamente equilibrados. Si un cuerpo se ha pesado en una balanza de resorte en el ecuador y, después, el cuerpo y las pesas se han trasladado al polo, resultará que la alteración de sus pesos es igual. El resultado de pesar en el polo es equivalente: los pesos se mantienen en equilibrio. Podemos ir a la Luna a comprobar esta afirmación. Como tampoco varía allí la razón de los pesos de los cuerpos, el cuerpo colocado en una balanza de palanca queda equilibrado con las mismas pesas. En donde quiera que se encuentre el cuerpo, su masa es la misma.

Gentileza de Manuel Mayo

10

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Las unidades de masa y de peso están ligadas con la elección de la pesa patrón. Del mismo modo que en la historia del metro y del segundo, los hombres procuraron hallar un patrón de masa natural. La misma comisión preparó una pesa de una aleación determinada que se mantuvo en equilibrio, en una balanza de palanca, con un decímetro cúbico de agua, a cuatro grados centígrados2. Este patrón tomó el nombre de kilogramo. Sin embargo, más tarde, quedó claro que no es tan fácil «tomar» un decímetro cúbico de agua. En primer lugar, el decímetro, como parte del metro, se alteraría junto con cada precisión que se hiciese del metro patrón. En segundo lugar, ¿qué agua tiene que ser? ¿Químicamente pura? ¿Dos veces destilada? ¿Sin partículas de aire? Y, ¿qué hacer con las mezclas de «agua pesada»? El colmo de todas las desgracias

es

que

la

exactitud

en

las

mediciones

de

los

volúmenes

es

considerablemente menor que la exactitud en el peso. Hubo que desistir otra vez de la unidad natural y tomar por medida de masa la de una pesa preparada especialmente. Esta pesa también se conserva en París junto con el patrón del metro. Para la medida de masas también se emplean las milésimas y millonésimas partes del kilogramo: el gramo y el miligramo. La Décima y Onceava Asamblea General (año 1960) de pesas y medidas elaboraron un nuevo sistema internacional de unidades (SI), que más tarde fue aprobado por la mayoría de los países. En el nuevo sistema la denominación kilogramo (kg) se conserva para la masa. Toda fuerza, incluyendo, naturalmente, el peso, se mide en el sistema nuevo en newtones. Más adelante veremos por qué se llama así esta unidad y cuál es su definición. Sin duda, el nuevo sistema no hallará aplicación inmediatamente en todos los sitios y, por eso, es conveniente recordar, mientras tanto, que el kilogramo masa (kg) y el kilogramo fuerza (kgf) son unidades diferentes y que las operaciones aritméticas entre ellas se deben efectuar igual que con números de diferente denominación. Escribir 5 kg + 2 kgf es tan absurdo como sumar metros y segundos.

2

La elección de esta temperatura no es casual. Al calentar el agua, su volumen se altera de un modo singular, diferente a la mayoría de los cuerpos. Generalmente, los cuerpos se dilatan al calentarlos; el agua se contrae al elevar la temperatura de 0 a 4° C y empieza a dilatarse sólo después de pasar de los 4° C. de este modo, 4° C es la temperatura a la que el agua termina su contracción y comienza su dilatación. Gentileza de Manuel Mayo

11

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

3. El sistema SI y sus patrones Si el presente libro es su primer libro de física, entonces, por favor, deje para más tarde la lectura de este párrafo. Hemos comenzado de una manera tradicional, desde lo más simple. En efecto, ¿puede haber algo más sencillo que las mediciones de las distancias, de los intervalos de tiempo y de la masa? ¿Sencillo? Sí, en la época anterior fue sencillo, pero hoy en día no lo es. En la actualidad, la técnica de medición de la longitud, del tiempo y de la masa requiere conocimientos de toda la física, y los fenómenos sobre los cuales hablaremos a continuación se analizarán más o menos detalladamente sólo en el libro 4. El sistema SI (Sistema Internacional) fue adoptado en el año 1960. Lenta, muy lentamente,

pero

con

paso

inexorable

este

sistema

va

conquistando

el

reconocimiento. Mientras tanto, por ahora, en los años ochenta del siglo veinte, a pesar de todo siguen utilizándose muy frecuentemente las viejas y «comprobadas» unidades. Si usted pregunta a un chófer cuál es la potencia del motor de su automóvil, le contestará como antes: 100 caballos de vapor, en lugar de decir: 74 kilovatios. Al parecer, deberán relevarse un par de generaciones y desaparecer de la venta libros, cuyos autores no querían reconocer el sistema SI para que —y solamente entonces—dicho sistema sustituya decididamente todos los demás sistemas. El sistema SI se basa en siete unidades: 

el metro



el kilogramo



el segundo



el mol



el amperio



el kelvin y la



candela.

Ahora quiero hablar sobre las primeras cuatro unidades, teniendo como finalidad no comunicar al lector los pormenores de las mediciones de las correspondientes magnitudes físicas, sino señalar la significativa tendencia general. Esta consiste en renunciar a los patrones materiales, introduciendo en su lugar las constantes de la

Gentileza de Manuel Mayo

12

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

naturaleza cuyos valores no deben depender de los dispositivos experimentales y las cuales (por lo menos desde el punto de vista de la física moderna) no deben variar con el tiempo. Comencemos con la definición del metro. En el espectro del criptón (isótopo 86) se da una intensa línea espectral. Valiéndose de los métodos que se exponen más tarde, cada línea espectral se caracteriza por niveles de energía inicial y final; se trata de la transición del nivel 5d5 al nivel 2p10. El metro es igual a la longitud en el vacío, de 1 650 763,73 ondas de la radiación correspondiente a la transición entre los niveles 2p10 y 5d5, del átomo del criptón-86. Esta longitud de la onda luminosa puede medirse con una precisión no mayor que ±4 x 10-9. Esta es la razón de que no tiene sentido añadir al número de nueve guarismos insertado anteriormente una cifra significativa más. Vemos que la definición dada no nos liga, en modo alguno, con un patrón material. Tampoco existe fundamento para esperar que la longitud de onda de la radiación característica luminosa experimente variaciones con los siglos. De este modo, el objetivo resulta alcanzado. Todo lo expuesto suena muy bien, dirá el lector. Más, ¿cómo, valiéndose de semejante patrón no material, calibrar una regla material común y corriente? La física sabe hacerlo recurriendo a la técnica de mediciones interferenciales de la cual se habla en el libro 4. Hay todos los motivos para suponer que en el tiempo más próximo la definición del metro experimentará un cambio. El asunto radica en que con ayuda de un láser (por ejemplo, el láser de helio y neón estabilizado con vapor de yodo) se puede conseguir que la longitud de onda se mida con una precisión de 10-11… 10-12. No se descarta que resulte racional elegir como patrón no material otra línea espectral. De una forma completamente análoga se define el segundo. En esto caso la elección recae en la transición entre dos niveles de energía próximos del átomo de cesio. La magnitud inversa a la frecuencia de esta transición da el tiempo invertido para la realización de una oscilación. Un segundo se toma igual a 9 192 631 770 períodos de estas oscilaciones. Por cuanto las oscilaciones se encuentran en la región de microondas, resulta que, empleando el método de división de la frecuencia es posible calibrar cualquier reloj por medio de dispositivos radiotécnicos. Dicho

Gentileza de Manuel Mayo

13

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

procedimiento de medición da el error de un segundo en el transcurso de 300 000 años. Los metrólogos se plantean el siguiente objetivo: hacer que una misma transición de energía se pueda utilizar tanto para definir la unidad de longitud (expresada por el número de longitudes de onda), como asimismo para definir la unidad de tiempo (expresada por el número de períodos de oscilación). En 1973 se demostró que esta tarea puede resolverse. Las mediciones exactas se realizaron con la ayuda de un láser de helio y neón estabilizado con metano. La longitud de onda fue igual a 3,39 nm, y la frecuencia, 88 x 1012 s-1. Las mediciones se efectuaron con tanta precisión que, al multiplicar estos dos números, para la velocidad de la luz en el vacío se obtuvo el valor de 299 792 458 m/s, con una precisión de 4 milmillonésimas partes. Sobre el fondo de estos brillantes logros y las perspectivas todavía más prometedoras la exactitud con que se mide la masa dista mucho de satisfacernos. Lamentablemente, el kilogramo material sigue manteniéndose variable. Es cierto que la balanza se perfecciona, mas, no obstante, sólo en raras ocasiones se consigue la exactitud de la medición igual a una millonésima. El sistema de mediciones de las magnitudes físicas, además de la elección de las unidades de medida, incluye indicaciones detalladas referentes al método de medición. Por mucho que los metrólogos (así se denominan los especialistas en el campo de medición de todas las magnitudes) lo lamenten, hay que avenirse al hecho de que en numerosos casos las mediciones directas son imposibles. En efecto, no se puede determinar con una regla la distancia desde la Tierra hasta la Luna, o bien, medir con el reloj el tiempo que necesita un electrón para llegar de la central eléctrica al filamento de la bombilla en su habitación. De la misma forma, es imposible medir las masas de un átomo, un protón o un electrón colocándolos en el platillo de la balanza y equilibrándolos con una pesa. Sin embargo, a pesar de todo, podemos determinar con una precisión muy satisfactoria a qué es igual la masa del átomo o de otra partícula cualquiera expresada en gramos.

Gentileza de Manuel Mayo

14

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Expliquemos en algunas palabras cómo se mide la masa del átomo. En primer lugar es necesario obtener un cristal perfecto y lo suficientemente grande del elemento correspondiente. Se sobreentiende que se debe tratar de una sustancia purísima que no contenga impurezas y se constituya de átomos de una sola variedad isotópica. Cuesta mucho trabajo obtener semejante muestra. Bueno, ¡la hemos obtenido! Ahora se requiere medir —con una precisión límite— la masa (pida la mejor balanza) y el volumen de dicha muestra, para que (véase el siguiente párrafo) se conozca la densidad de la sustancia. Procedamos a la segunda serie de mediciones que se lleva a cabo por el método de análisis roentgenoestructural (la esencia de este método se expondrá en el libro 4). Medimos el volumen de la célula elemental del cristal que corresponde a un átomo. Al multiplicar este volumen por la densidad de la sustancia obtenemos el valor de la masa del átomo en gramos. La exactitud de estas mediciones no supera 10-5. La exactitud de las mediciones relativas (cuantas veces un átomo es más pesado que el otro) es sustancialmente superior. Se pueden proponer métodos para medir las masas de cualesquiera ladrillitos de la materia. En el libro 4 contaremos cómo se determinan las masas de los electrones y de las partículas nucleares. Después de que hemos aprendido a expresar la masa de la micropartícula en gramos, podemos decir, como es lógico, cuántos átomos contiene tal o cual pedazo de la sustancia o cuántas partículas inciden sobre una u otra superficie por unidad de tiempo. Seguramente, el lector se acuerda de una de las sorprendentes deducciones de la teoría de la relatividad: la masa del cuerpo depende de la velocidad de su movimiento. La masa del cuerpo que emprende un viaje cósmico varía. Sin embargo, el número de partículas de las cuales este cuerpo está estructurado permanece invariable. Existe cierto apego psicológico (que yo no entiendo del todo) a las palabras «cantidad de sustancia». Antes de haber aparecido la teoría de la relatividad entre los términos «masa» y «cantidad de sustancias» se ponía el signo de igualdad. Más tarde, para dos o tres decenios, el término «cantidad de sustancias» fue expulsado

Gentileza de Manuel Mayo

15

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de las tablas del escenario científico. En 1971, solemnemente, este término fue devuelto. Se nos ofreció entender por cantidad de sustancia la cantidad de partículas (átomos, electrones, protones, mesones...). Por si esto fuese poco, la XIV Conferencia General de Pesas y Medidas introdujo en el sistema SI una nueva unidad, la de cantidad de sustancia, aunque, sin proponer para ésta una nueva denominación. La unidad se llama mol. Esta unidad hace mucho subsistía en la ciencia, pero se consideraba como derivada. Mol era la abreviatura del nombre molécula-gramo. Y el nombre de molécula-gramo lo llevaba la masa de sustancia igual a la masa relativa de una molécula determinada por métodos químicos. Y resulta que hoy se nos han propuesto «divorciar» el mol y la química, dándole una definición arbitraria e independiente. Se puede llamar mol 100 partículas. 100 millones de éstas o 1040 de partículas, indistintamente. Sin embargo, para observar la sucesión histórica, los metrólogos han propuesto denominar mol el número de átomos del isótopo de carbono-12 en 12 gramos de este elemento. No quiero ocultar al lector que la introducción de esta nueva unidad se me figura una formalidad innecesaria. Densidad Cuando dicen: es pesado como el plomo o es ligero como una pluma, ¿qué es lo que se tiene en cuenta? Claro que una pizca de plomo es ligera y, a su vez, una montaña de plumas posee una masa apreciable. Quienes hacen comparaciones semejantes no tienen en cuenta la masa, sino la densidad de una substancia, de la que se compone el cuerpo. Se llama densidad de un cuerpo, la masa de una unidad de volumen. Naturalmente, la densidad del plomo es la misma en una pizca que en un bloque inmenso. Generalmente, al indicar la densidad, señalamos los gramos (g) que pesa un centímetro cúbico (cm3) del cuerpo: después del número ponemos la notación g/cm3. Para determinar la densidad hay que dividir el número de gramos por el número de centímetros cúbicos; la raya del quebrado en la notación nos lo recuerda.

Gentileza de Manuel Mayo

16

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Entre los materiales más pesados se hallan algunos metales, como el osmio, cuya densidad os igual a 22,5 g/cm3, el iridio (22,4), el platino (21,5), el volframio y el oro (19,3). La densidad del hierro es 7,88, la del cobre, 8,93. Los metales más ligeros son: el magnesio (1,74), el berilio (1,83) y el aluminio (2,70). Entre las substancias orgánicas se pueden encontrar cuerpos todavía más ligeros: diversas variedades de maderas y de masas plásticas pueden tener densidades hasta de 0,4. Hay que advertir que se trata de cuerpos continuos. No hay duda que, si el cuerpo tiene poros, es más ligero. En la técnica se emplean a menudo cuerpos porosos como el corcho, el cristal espuma, etc. La densidad del cristal espuma puede ser menor de 0,5, a pesar de que la substancia sólida de que está hecho tiene una densidad mayor que la unidad. El cristal espuma, igual que todos los cuerpos cuyas densidades son menores que la unidad, flota perfectamente en el agua. El líquido más ligero es el hidrógeno líquido; éste se puede obtener sólo a temperaturas muy bajas. La masa de un centímetro cúbico de hidrógeno líquido es 0,07 g. Las densidades de los líquidos orgánicos, como el alcohol, la gasolina, el keroseno se diferencian muy poco de la del agua. El mercurio es muy pesado, su densidad es 13,6 g/cm3 Y, ¿cómo caracterizar la densidad de los gases? Ya se sabe que los gases ocupan el volumen que se desee. Si una misma masa de gas se expulsa de un balón de gas a recipientes de diverso volumen, éstos se llenan uniformemente. ¿Cómo se puede hablar entonces de densidad? La densidad de los gases se define en condiciones llamadas normales: la temperatura tiene que ser 0 °C y la presión de una atmósfera. La densidad del aire en condiciones normales es igual a 0,00129 g/cm3; la del cloro, a 0,00322 g/cm3. Así como el hidrógeno líquido, también bate el récord el hidrógeno gaseoso: la densidad de este ligerísimo gas es igual a 0,00009 g/cm3. El gas que le sigue por ligereza es el helio; éste es dos veces más pesado que el hidrógeno. El gas carbónico es 1,5 veces más pesado que el aire. En Italia, cerca de Nápoles, se encuentra la célebre «cueva de perros»; de su parte inferior constantemente se despide gas carbónico, que se extiende por debajo y sale

Gentileza de Manuel Mayo

17

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

lentamente de ella. El hombre puede entrar en esta cueva sin dificultades, pero tal paseo acaba mal para el perro. A esto se debe el nombre de la cueva.

Mijail Lomonósov (1711-1765), célebre sabio ruso, iniciador de la ciencia en Rusia, gran enciclopedista. En la ciencia de la física, Lomonósov luchó resueltamente contra las ideas difundidas en el siglo XVIII, sobre los “líquidos" eléctricos y calóricos, defendiendo la teoría cinética-molecular de la materia. Por primera vez, demostró experimentalmente la ley de conservación de la masa de las substancias que participan en las transformaciones químicas. Lomonósov realizó amplias investigaciones en la rama de la electricidad atmosférica y en la meteorología. Construyó una serie de admirables instrumentos de óptica, descubrió la atmósfera de Venus. Lomonósov creó los fundamentos de la lengua rusa científica: consiguió, con un acierto extraordinario, traducir del latín los términos físicos y químicos principales.

Gentileza de Manuel Mayo

18

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La densidad de los gases es muy sensible a las condiciones exteriores: presión y temperatura. La densidad de los gases carece de sentido si no se indican las condiciones exteriores. La densidad de los cuerpos líquidos y sólidos también depende de la temperatura y de la presión, pero no en tal escala. 4. Ley de conservación de la masa Si se disuelve azúcar en agua, la masa de la disolución será exactamente igual a la suma de las masas del azúcar y del agua. Este y una infinidad de experimentos semejantes, muestran que la masa de un cuerpo es una propiedad inmutable del mismo. En cualquier división del cuerpo, y en las disoluciones, la masa queda la misma. Esto mismo tiene lugar también, cualquiera que sea la transformación química. Supongamos, que hemos quemado carbón. Pesando escrupulosamente, podemos determinar que la masa de carbón y de oxigeno del aire que se gastó en la combustión es exactamente igual a la masa de los productos de la misma. La ley de conservación de la masa se comprobó por última vez a fines del siglo XIX, cuando ya estaba muy desarrollada la técnica de pesos exactos. Resultó que, cualquiera que sea la combinación química, la masa no se altera ni siquiera en una cien mil millonésima parte de su magnitud. Ya los hombres antiguos suponían que la masa era invariable. El primer experimento efectivo para la comprobación de esta ley se llevó a cabo en el año 1756. Lo hizo Mijaíl Lomonósov, quien señaló la importancia científica de la ley indicada, demostrando en sus experimentos (calentamiento de metales) la conservación de la masa. La masa es la característica más importante de un cuerpo. La mayoría de las propiedades del cuerpo se halla, como suele decirse, en manos del hombre. Templando el hierro blando, que previamente se puede doblar con las manos, se convierte en duro y frágil. Mediante el ultrasonido, se puede hacer transparente una solución turbia. Las propiedades mecánicas, eléctricas, térmicas, pueden alterarse a causa de efectos exteriores. Sin embargo, si no se agrega materia al cuerpo y no se

Gentileza de Manuel Mayo

19

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

separa de él ninguna partícula, es imposible3 alterar su masa, sean las que fueren las acciones exteriores que se efectúen. 5. Acción y reacción Ordinariamente, no nos damos cuenta de que cualquier acción de una fuerza va acompañada de una reacción. Si se pone una maleta en una cama de muelles, ésta se encorva. Para todos resulta claro que el peso de la maleta actúa sobre la cama. Sin embargo, a veces, se olvidan que por parte de la cama también actúa una fuerza sobre la maleta. En efecto, la maleta situada en la cama no cae; esto significa que sobre ella, por parte de la cama, actúa una fuerza igual al peso de la maleta y dirigida hacia arriba. Las fuerzas que llevan la dirección contraria a la fuerza de gravedad se llaman, frecuentemente, reacciones del apoyo. La palabra «reacción» significa «acción contraría». La acción de una mesa sobre un libro colocado en ella, la acción de la cama sobre la maleta, son reacciones del apoyo. Como vimos anteriormente, el peso de un cuerpo se determina mediante una balanza de resorte. La presión de un cuerpo sobre un resorte colocado debajo de él, o la fuerza con que se expande el resorte en el que está suspendido un cuerpo, son iguales al peso de éste. Es evidente, sin embargo, que la compresión o expansión del resorte muestra en igual grado la magnitud de la reacción del apoyo. Así, pues, midiendo con un resorte la magnitud de alguna fuerza, no sólo se mide la magnitud de una, sino de dos fuerzas que llevan direcciones opuestas. Las balanzas de resorte miden la presión del cuerpo sobre los platillos y la reacción del apoyo, o sea, la acción de los platillos de la balanza sobre el cuerpo. Apoyando un resorte en la pared y estirándolo con la mano, se puede medir la fuerza con que la mano tira del resorte y, a la vez, la fuerza con que el resorte tira de la mano. Por lo tanto, las fuerzas poseen una propiedad admirable: siempre se encuentran a pares, siendo, además, iguales y de direcciones contrarias. Generalmente, estas dos fuerzas se llaman acción y reacción. En la naturaleza no existen fuerzas «solitarias»; realmente sólo existe la acción mutua entro los cuerpos; además, las fuerzas de acción y de reacción son 3

Sobre ciertas restricciones de esta afirmación, el lector se enterará más adelante.

Gentileza de Manuel Mayo

20

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

constantemente iguales, se relacionan entre sí como un objeto a su imagen en el espejo. No hay que confundir las fuerzas que se equilibran con las de acción y reacción. Cuando se habla de fuerzas que están en equilibrio, se supone que están aplicadas a un mismo cuerpo; así, el peso de un libro situado sobre la mesa (la acción de la Tierra sobre el libro), se equilibra con la reacción de la mesa (la acción de la mesa sobre el libro). En contraposición con las fuerzas que aparecen en el equilibrio de dos acciones mutuas, las fuerzas de acción y reacción caracterizan una acción mutua, por ejemplo, la mesa con el libro. La acción es, «la mesa—el libro»; la reacción es, «el libro—la mesa». Claro que estas fuerzas están aplicadas a cuerpos distintos. Vamos a explicar la confusión tradicional: «un caballo tira de un carro, pero también el carro tira del caballo. ¿Por qué, sin embargo, se mueven?». Ante todo, hay que recordar, que el caballo no arrastraría al carro, si el camino estuviese resbaladizo. Esto significa que para la explicación del movimiento, no hay que tener en cuenta sólo una sino dos acciones mutuas: no sólo «el carro—el caballo», sino también «el caballo—el camino». El movimiento comienza cuando la fuerza de acción mutua del caballo sobre el camino (la fuerza con la que el caballo empuja al camino) se hace mayor que la fuerza de acción mutua, «el caballo—el carro» (la fuerza con la que el carro tira del caballo). En cuanto a las fuerzas «el carro tira del caballo» y «el caballo tira del carro», éstas caracterizan una misma acción mutua y, por consiguiente, serán iguales, lo mismo en reposo que en cualquier instante del movimiento. 6. Cómo sumar las velocidades Si yo he estado esperando media hora y una hora más, en total habré perdido hora y media. Si me han dado un rublo y después otros dos más, en total habré recibido tres rublos. Si yo he comprado 200 g de uva y después otros 400 g más, tendrá 600 g de uva. Sobre el tiempo, la masa y otras magnitudes semejantes, se dice que se suman aritméticamente. Sin embargo, no todas las magnitudes se pueden sumar y restar tan sencillamente. Si yo digo que desde Moscú hasta Kolomna hay 100 km, y desde Kolomna hasta

Gentileza de Manuel Mayo

21

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Kashira hay 40 km, de aquí no se deduce que Kashira está a la distancia de 140 km de Moscú. Las distancias no se suman aritméticamente. ¿Cómo se pueden sumar de otra manera las magnitudes? En nuestro ejemplo, la regla necesaria se halla fácilmente. Señalemos tres puntos en un papel, que indicarán las posiciones relativas de los tres puntos que nos interesan (fig. 1.4).

Figura 1.4 Sobre estos tres puntos se puede construir un triángulo. Conociendo dos de sus lados, se puede hallar el tercero. Sin embargo, para eso, hay que conocer el ángulo formado por los dos segmentos dados. La distancia desconocida se halla del modo siguiente: marcamos el primer segmento y, desde su extremo, colocamos el segundo en la dirección dada. Unimos ahora el origen del primer segmento con el extremo del segundo. El camino buscado está representado por el segmento que cierra el triángulo. La suma, efectuada del modo indicado, se llama geométrica y las magnitudes que se suman se llaman vectores. Para distinguir el origen del extremo del segmento, en este último se coloca una flecha. Tal segmento, llamado vector, indica longitud y dirección. Gentileza de Manuel Mayo

22

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Para sumar más vectores también se emplea esta regla. Pasando del primer punto al segundo, del segundo al tercero, etc., etc., trazaremos el camino que se puede representar mediante una línea quebrada. Pero se puede llegar directamente al mismo punto desde el punto inicial. Esto segmento, que cierra el polígono, se llama suma vectorial. Naturalmente, el triángulo vectorial indica cómo se puede restar un vector de otro. Para esto, los vectores se trazan desde un mismo punto. El vector trazado desde el extremo del segundo hasta el extremo del primero será la diferencia de los vectores. Además de la regla del triángulo se puede utilizar la regla del paralelogramo que es equivalente (fig. 1.4). Para emplear esta regla hay que construir un paralelogramo sobre los vectores que se suman y trazar una diagonal desde la intersección de éstos. En la figura se ve que la diagonal del paralelogramo cierra el triángulo. Por consiguiente, las dos reglas tienen la misma utilidad. Los vectores no sólo se utilizan para describir un desplazamiento. Las magnitudes vectoriales aparecen frecuentemente en la física. Veamos, por ejemplo, la velocidad del movimiento. La velocidad es el espacio recorrido en una unidad de tiempo. Como el espacio es un vector, la velocidad es también un vector de la misma dirección. Si el movimiento es en línea curva, la dirección de la traslación se altera todo el tiempo. ¿Cómo contestar a la pregunta sobre la dirección de la velocidad? Un segmento pequeño de la curva lleva la dirección de la tangente. Por eso, el trayecto y la velocidad del cuerpo tienen, en cada instante, la dirección de la tangente a la línea del movimiento. En muchos casos, se suman y restan las velocidades de acuerdo con la regla de los vectores. Cuando el cuerpo participa simultáneamente en dos movimientos, surge la necesidad de la suma de vectores. Tales casos se presentan con frecuencia: un hombre anda por el tren y, además, se mueve junto con él; una gota de agua que va deslizándose por el cristal de la ventana de un vagón se mueve hacia abajo gracias a su peso y viaja junto con el tren; el globo terrestre se mueve alrededor del Sol y junto con el Sol participa en un movimiento con respecto a otras estrellas. En todos estos casos y en casos semejantes, las velocidades se suman según la regla de la suma de vectores.

Gentileza de Manuel Mayo

23

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Supongamos que dos movimientos se efectúan a lo largo de una línea: si ambos movimientos tienen una misma dirección, la suma vectorial se convierte en una suma ordinaria, y en una resta, si los movimientos son contrarios. ¿Y, si los movimientos forman un ángulo entre sí? Entonces recurrirnos a la suma geométrica.

Figura 1.5 y 1.6 Si al atravesar un río de corriente rápida sujetamos el timón transversalmente a la corriente, ésta nos llevará hacia abajo. La lancha participa en dos movimientos: en uno que es transversal al río y en otro que es a lo largo de él. La velocidad resultante de la lancha está representada en la fig. 1.5. Un ejemplo más. ¿Qué aspecto tiene el movimiento del agua de la lluvia visto desde la ventana del tren? Seguramente, Uds. han observado la lluvia desde las ventanas de un vagón, incluso en un día sin viento, cae con una inclinación, como si la desviase el viento que sopla de frente del tren (fig. 1.6). Si el viento está tranquilo, la gota de la lluvia cae verticalmente. Pero durante el tiempo de caída a lo largo de la ventana el tren hace un trayecto considerable, se escapa de la línea vertical de caída, por eso, parece que la lluvia cae con inclinación. Si la velocidad del tren es v1 y la velocidad de calda de la gota es vg, entonces la velocidad de caída de la gota con relación al pasajero del tren se obtiene restando vectorialmente v1 y vg4. El triangulo de las velocidades está representado en la fig.

4 Aquí, y a continuación se señalarán en negrilla las letras que indican los vectores, o sea, las magnitudes para las que no sólo sean esenciales sus valores, sino que también sus direcciones.

Gentileza de Manuel Mayo

24

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

1.6. La dirección del vector oblicuo señala la dirección de la lluvia; ahora queda claro por qué vemos la lluvia inclinada. La longitud de la huella oblicua representa la magnitud de esta velocidad en la escala elegida. Tanto más rápido vaya el tren y cuanto más despacio caiga la gota, tanto más oblicua nos parecerá la lluvia.

7. La fuerza como vector La fuerza, igual que la velocidad, es una magnitud vectorial. Ella siempre actúa en una dirección determinada. Por consiguiente, las fuerzas también tienen que sumarse de acuerdo con las mismas reglas que acabamos de exponer. Frecuentemente observamos en la vida ejemplos que ilustran la suma vectorial no las fuerzas.

Figura 1.7 En la fig. 1.7 se muestra un cable del que está suspendido un bulto. Un hombre, tirando de una cuerda, mueve el bulto hacia un lado. El cable que sujeta el bulto se estira a causa de la acción de dos fuerzas: de la fuerza de gravedad del bulto y de la fuerza del hombre. Por la regla de la suma vectorial de las fuerzas se puede determinar la dirección del cable y la fuerza de tensión. Si el bulto está en reposo, la suma de las fuerzas que actúan sobre él es igual a cero. En el caso general, se puede decir que la tensión del cable es igual a la suma de la fuerza de gravedad del bulto y de la fuerza de arrastre que lleva la dirección de la cuerda. Esta suma coincide con la diagonal del Gentileza de Manuel Mayo

25

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

paralelogramo y lleva la dirección del cable (en caso contrario, no podría sumarse con la tensión de éste). La longitud de este vector representa la tensión del cable. Esta fuerza puede sustituir las dos fuerzas que actúan sobre el bulto. Por eso, la suma vectorial de las fuerzas se llama resultante.

Figura 1.8 Frecuentemente, surge el problema inverso al de la suma de fuerzas. Una bombilla está colgada de dos cables. Para determinar la fuerza de tensión de los cables hay que descomponer el peso de la bombilla en estas dos direcciones. Tracemos desde el extremo del vector resultante (fig. 1.8) líneas paralelas a los cables hasta la intersección con ellos. El paralelogramo de las fuerzas ya está construido. Midiendo las longitudes de los lados del paralelogramo, hallamos las magnitudes de las tensiones de los cables (en la misma escala en que está representado el peso). Esta construcción se llama descomposición de fuerzas. Todo número se puede representar en forma de una suma de dos o más números de una infinidad de modos; esto mismo se puede hacer con un vector de fuerza: cualquier fuerza se puede descomponer en dos fuerzas (que serán los lados del paralelogramo), eligiendo una de ellas como se quiera. También está claro que sobre cada vector se puedo construir cualquier polígono.

Gentileza de Manuel Mayo

26

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Frecuentemente, se necesita descomponer la fuerza en perpendiculares entre sí, una a lo largo de la dirección que nos interesa y otra, perpendicular a esta dirección.

Estas

se

llaman

fuerzas

componentes,

longitudinal

y

normal

(perpendicular). La componente de una fuerza en alguna dirección, construida mediante la descomposición de la fuerza, sobre los lados del rectángulo, se llama también proyección de la fuerza sobre esta dirección.

Figura 1.9 Es claro que, en la fig. 1.9, F2 = F2longi + F2normal donde Flongi y Fnormal son las proyecciones de la fuerza sobre la dirección elegida y sobre la normal a ella. Por medio de la trigonometría, establecemos sin dificultad que Flongi = F cos α donde α as el ángulo formado por la fuerza vector y la dirección en que ella se proyecta. Un ejemplo muy curioso de descomposición de fuerzas es el movimiento de un barco de vela. ¿De qué modo consigue ir con las velas en contra del viento? Si han

Gentileza de Manuel Mayo

27

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

tenido la ocasión de observar el movimiento de un yate en estas condiciones, habrán notado que es en zigzag. Los marineros llaman tal movimiento bordeo. Claro que es imposible ir con las velas en contra del viento. Pero, ¿cómo se puede ir en contra del viento, aunque sea formando un ángulo? La posibilidad de bordear en contra del viento se basa en dos circunstancias. En primer lugar, el viento siempre empuja la vela formando un ángulo recto con su plano. Véase la fig. 1.10a: la fuerza del viento se ha descompuesto en dos componentes: una de ellas obliga al aire a deslizarse a lo largo de la vela, la otra, la componente normal, efectúa una presión sobre la vela. En segundo lugar, el yate no se mueve hacia donde le empuja la fuerza del viento, sino hacia donde mira la proa. La explicación está en que el movimiento transversal del yate con respecto a la línea de la quilla encuentra una resistencia muy fuerte del agua.

Figura 1.10

Gentileza de Manuel Mayo

28

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Por consiguiente, para que el yate se mueva con la proa hacia adelante, es necesario que la fuerza de presión sobre la vela tenga una componente a lo largo de la línea de la quilla que mire hacia adelante. Ahora tiene que quedar clara la fig. 1.10, en la que está representado un yate que va en contra el viento. La vela se coloca de modo que su plano divida por la mitad el ángulo formado por la dirección del movimiento del yate y la dirección del viento. Para hallar la fuerza que hace avanzar al yate, habrá que descomponer segunda vez la fuerza del viento. Primero, a lo largo y perpendicularmente a la vela (sólo tiene importancia

la

componente

normal),

después,

hay

que

descomponer

esta

componente normal a lo largo y transversalmente a la línea de la quilla. La componente longitudinal, es la que hace avanzar al yate formando un ángulo con el viento. 8. Plano inclinado Todos sabemos que es más difícil vencer una cuesta empinada que una pendiente de pequeño declive. Es más fácil hacer rodar un cuerpo por un plano inclinado hasta cierta altura que levantarle verticalmente.

Figura 11

Gentileza de Manuel Mayo

29

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Por qué esto es así y en cuánto es más fácil? La ley de la suma de fuerzas nos ayuda a dilucidar estas cuestiones. En la fig. 1.11 está representada una carretilla con ruedas, que se mantiene quieta en un plano inclinado gracias a la tensión de una cuerda. Además de la tracción, sobre la carretilla actúan dos fuerzas más: el peso y la fuerza de reacción del apoyo,

que

siempre

actúa

en

dirección

de

la

normal

a

la

superficie,

independientemente de que la superficie de apoyo sea horizontal o inclinada. Como ya se dijo, si un cuerpo presiona sobre un apoyo, el apoyo reacciona sobre la presión, o como suele decirse, crea una fuerza de reacción. Nos interesa saber cuánto más fácil es levantar la carretilla por el plano inclinado que verticalmente. Descompongamos la fuerza de gravedad de modo, que una vaya a lo largo y la otra sea perpendicular a la superficie por la que se mueve el cuerpo. Para que el cuerpo quede en reposo en el plano inclinado, la fuerza de tensión de la cuerda tiene que equilibrarse solamente con la componente longitudinal. La segunda componente se equilibra con la reacción del apoyo. La fuerza que nos interesa de la tensión T de la cuerda, se puede hallar por construcción geométrica o mediante la trigonometría. La construcción geométrica consiste en trazar una perpendicular al plano desde el extremo del vector peso P. En la figura se pueden hallar dos triángulos semejantes. La razón de la longitud l del plano inclinado a la altura h es igual a la razón de los lados correspondientes del triángulo de las fuerzas. Así pues, T/P=h/l Es natural que cuanto menos inclinación tenga el plano (h/l no es grande), tanto más fácil será llevar el cuerpo hacia arriba. Y ahora, por trigonometría: como el ángulo entre la componente transversal del peso y el vector del peso es igual al ángulo α del plano inclinado (estos ángulos tienen lados perpendiculares entre sí), se tiene

Gentileza de Manuel Mayo

30

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

T / P = sen α T = P sen α Resumiendo, es sen α veces más fácil hacer rodar la carretilla por un plano de inclinación a que levantarla verticalmente. Conviene recordar los valores de las funciones trigonométricas para los ángulos de 30°, 45° y 60°. Conociendo estos valores para el seno (sen 30° = ½, sen 45°= √2/2 y sen 60° = √3/2) podremos hacernos una idea sobre lo que se gana en trabajo en el movimiento por un plano inclinado. Por las fórmulas se ve que, cuando el ángulo de inclinación del plano es de 30°, nuestros esfuerzos equivalen a la mitad del peso: T = P/2. Si el ángulo es de 45° o de 60°, habrá que tirar de la cuerda con fuerzas, aproximadamente, iguales a 0,7 y 0,9 del peso de la carretilla. Como se ve, los planos de gran inclinación proporcionan pocas facilidades.

Gentileza de Manuel Mayo

31

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 2 Las leyes del movimiento Contenido: 1.

Diversos puntos de vista sobre el movimiento

2.

Ley de inercia

3.

El movimiento es relativo

4.

El punto de vista de un observador estelar

5.

La aceleración y la fuerza

6.

Movimiento rectilíneo con aceleración constante

7.

La trayectoria de una bala

8.

Movimiento circular

9.

Vida sin peso

10.

Movimiento desde el punto de vista irracional

11.

Fuerzas centrífugas

12.

La fuerza de Coriolis

1. Diversos puntos de vista sobre el movimiento Una maleta está situada sobre la cama de un vagón, mas, a la vez, aquella se mueve con el tren. Una casa está situada en la Tierra, pero, a la vez, se mueve con ella. Sobre un mismo cuerpo se puede decir: se mueve en línea recta, está en reposo, está girando. Todas estas opiniones son ciertas, pero desde diferentes puntos de vista. No sólo el cuadro del movimiento, sino que hasta las propiedades del movimiento pueden ser completamente diferentes si se las examina desde diversos puntos de vista. Recuerden lo que ocurre con los objetos en un barco que sufre un balanceo. ¡Hasta qué punto son desobedientes! Cae el cenicero que estaba sobre la mesa y rueda precipitadamente bajo la cama. El agua de la jarra salpica y la bombilla se balancea como si fuese un péndulo. Unos objetos se ponen en movimiento y otros se detienen sin causas aparentes. Un observador situado en este barco podría decir

Gentileza de Manuel Mayo

32

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

que la ley del movimiento consiste en que, un objeto que no está sujeto, en cualquier instante puedo desplazarse en cualquier dirección y con velocidad diversa. Esto ejemplo muestra que entre los diversos puntos de vista que existen sobre el movimiento, hay algunos que son evidentemente incómodos. ¿Qué punto de vista es el más «racional»? Si, de repente, sin más ni más, se inclinase la lámpara de la mesa, o si pegase un salto el pisapapeles, se podría creer que fue un milagro lo sucedido. Si se repitiesen estos milagros, empezaríamos a buscar con ahínco le causa que altera el estado de reposo de estos cuerpos. Es natural, por lo tanto, suponer racional el punto de vista sobre el movimiento, según el cual, sin actuación de fuerzas no se mueven los cuerpos que están en reposo. Tal punto de vista parece muy natural: si un cuerpo está en reposo, la suma de las fuerzas que actúan sobre él es igual a cero. Si se ha movido de su sitio, la causa se debe a la acción de las fuerzas. El punto de vista supone que hay un observador. Sin embargo, a nosotros no nos interesa el observador, sino el lugar donde éste se encuentra. Por eso, en vez de decir «punto de vista sobre el movimiento», se dirá: «sistema de referencia, con respecto al cual se estudia el movimiento», o abreviadamente, «sistema de referencia». Para nosotros, habitantes de la Tierra, ésta representa un sistema de referencia importante. Sin embargo, frecuentemente, pueden servir de sistemas de referencia los cuerpos que se mueven en la Tierra, como un barco o un tren. Volvamos ahora al «punto de vista» sobre el movimiento que llamábamos racional. Esto sistema de referencia tiene un nombre: se llama inercial. Más adelante se verá el origen de este término. Por consiguiente, las propiedades del sistema inercial de referencia son: los cuerpos que están en reposo, con respecto a este sistema, no sufren ninguna acción de fuerzas. Por lo tanto, en este sistema no empieza ningún movimiento sin participación de fuerzas; la sencillez y comodidad de este sistema resulta evidente. Claro que merece la pena tomarlo como base.

Gentileza de Manuel Mayo

33

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Es de suma importancia el hecho de que el sistema de referencia ligado con la Tierra no difiere mucho del sistema inercial. Por eso, podemos comenzar el estudio de las leyes fundamentales del movimiento considerándolo desde el punto de vista de la Tierra. Sin embargo, hay que recordar que, hablando con rigurosidad, todo lo que se diga en el párrafo siguiente se relaciona a un sistema inercial de referencia. 2. Ley de inercia Es indudable que el sistema inercial de referencia es cómodo y tiene ventajas inapreciables. Pero, ¿es único este sistema, o puede ser que existan muchos sistemas inerciales? Los griegos antiguos mantenían el primer punto de vista. En sus obras hallamos muchas ideas inocentes sobre las causas del movimiento. En las obras de Aristóteles encontrarnos un resumen de estas ideas. Según opina este filósofo, la situación natural de un cuerpo es el estado de reposo; por supuesto con relación a la Tierra. Cualquier desplazamiento del cuerpo con relación a la Tierra debe tener una causa: la fuerza. Si no hay causas para el movimiento, el cuerpo tiene que detenerse y pasar a su situación natural. Y tal situación es el estado de reposo con relación a la Tierra. Desde este punto de vista, la Tierra es el único sistema inercial. Al gran sabio italiano Galileo Galilei (1564-1642) debemos el descubrimiento de la verdad; él rebatió esta idea errónea que estaba muy cerca de la psicología ingenua. Reflexionemos sobre la explicación del movimiento dada por Aristóteles y busquemos en los fenómenos conocidos la afirmación o refutación de la idea sobre el reposo natural de los cuerpos situados en la Tierra. Figurémonos que estamos en un avión que ha salido del aeropuerto por la madrugada. El sol todavía no ha calentado el aire, no hay «baches» tan desagradables para los pasajeros. El avión vuela suavemente, casi ni lo sentimos. Si no se mira por la ventanilla, no se da uno cuenta de que está volando. Sobre un asiento libre está situado un libro; sobre una mesa, fija en el piso del avión, está inmóvil una manzana. Dentro del avión todos los objetos están quietos. ¿Será, pues, verdad, que tiene la razón Aristóteles? Claro que no, ya que según Aristóteles, la posición natural de un cuerpo es el reposo respecto a la Tierra.

Gentileza de Manuel Mayo

34

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Por qué, entonces, no se han agrupado todos los objetos en la pared de atrás del avión, tendiendo a retrasarse de su movimiento, «queriendo» pasar a su posición de reposo «verdadero»? ¿Qué es lo que obliga a la manzana situada sobre la mesa, que casi no se toca con la superficie de ella, a moverse con la gran velocidad de cientos de kilómetros por hora? ¿Cuál es la verdadera solución del problema de averiguación de la causa del movimiento? Veamos primero por qué se paran los cuerpos en movimiento. Por ejemplo, ¿por qué se para una bola que rueda por la tierra? Para dar una respuesta correcta hay que pensar en qué casos se para ligeramente y en qué casos lentamente. Para esto no hacen falta experimentos especiales. Por la experiencia de la vida se sabe perfectamente que, cuanto más lisa sea la superficie por la que se mueve la bola, tanto más lejos rodará ésta. De estos y otros experimentos semejantes se crea la idea natural sobre la fuerza de rozamiento como obstáculo al movimiento, como la causa del freno del objeto que rueda o resbala por la Tierra. El rozamiento se puede disminuir de muchas maneras. Cuanto más nos ocupemos de eliminar todas las resistencias al movimiento (con un buen engrasamiento, empleando cojinetes perfectos, moviéndose por un camino liso), tanto mayor será el espacio recorrido libremente por el cuerpo en movimiento, sin actuación de fuerzas. Surge la pregunta: ¿qué ocurriría si no hubiese resistencia, si estuviesen ausentes las fuerzas de rozamiento? Es evidente que, en este caso, el movimiento se prolongaría indefinidamente con una velocidad constante y a lo largo de una misma línea recta. Hemos enunciado la ley de inercia, aproximadamente igual que lo hizo por vez primera Galileo. La inercia es la indicación abreviada de esta facultad del cuerpo de moverse uniformemente en línea recta, sin ninguna causa, a pesar de Aristóteles. La inercia es una propiedad intrínseca de todas las partículas del Universo. ¿De qué modo se puede comprobar la justeza de esta ley admirable? Hay que tener presente que no se pueden crear condiciones para que no actúe sobre el cuerpo ninguna fuerza. Esto es cierto, pero, sin embargo, se puede observar lo recíproco. En cualquier caso, cuando el cuerpo cambia la velocidad o la dirección del

Gentileza de Manuel Mayo

35

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

movimiento, siempre se puede hallar la causa, es decir, la fuerza a que se debe esta alteración. Un cuerpo, cayendo a la Tierra, adquiere velocidad; la causa es la fuerza de atracción de la Tierra.

Galileo Galilei (1564-1642), gran físico y astrónomo italiano que por vez primera empleó el método experimental de investigación en la ciencia. Galileo introdujo el concepto de inercia; estableció la relatividad del movimiento; estudió las leyes de la caída de los cuerpos y del movimiento de éstos por un plano inclinado; las leyes del movimiento, al lanzar un objeto formando cierto ángulo con el horizonte; aplicó el péndulo para la medida del tiempo. Fue el primero en la historia de la humanidad, en dirigir al cielo el telescopio, descubriendo todo un conjunto de nuevas estrellas; demostró que la Vía Láctea se compone de un gran número de estrellas; descubrió los satélites de Júpiter, las manchas solares, la rotación del Sol; estudio la estructura de la superficie lunar. Galileo era partidario activo del sistema heliocéntrico de Copérnico, prohibido en aquellos tiempos por la iglesia católica. Las persecuciones por parte de la inquisición amargaron los últimos años de la vida de este célebre sabio.

Gentileza de Manuel Mayo

36

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Una piedra da vueltas en una cuerda describiendo una circunferencia; la causa que desvía la piedra del movimiento rectilíneo es la tensión de la cuerda. Si se rompe la cuerda, la piedra vuela en la misma dirección que se movía en el instante del rompimiento de la cuerda. Un automóvil que va con el motor parado retarda su movimiento; la causa es la resistencia del aire, el rozamiento de los neumáticos con el camino y las deficiencias de los cojinetes. La ley de la inercia es el fundamento sobre el cual se basa la ciencia del movimiento de los cuerpos. 3. El movimiento es relativo La ley de la inercia nos lleva a la conclusión de la pluralidad de los sistemas inerciales. No uno, sino un conjunto de sistemas de referencia excluyen los movimientos «sin causa». Si se ha hallado uno de estos sistemas, inmediatamente se hallará otro que participa en un movimiento de traslación (sin rotación), uniforme y rectilíneo con respecto al primero. Además, ninguno de los sistemas inerciales es preferente a los demás, en nada se diferencia de los otros. En el conjunto de los sistemas inerciales no se puede hallar uno que sea el mejor. Las leyes del movimiento de los cuerpos son iguales en todos los sistemas inerciales: los cuerpos se ponen en movimiento a causa de la acción de fuerzas, se frenan debido a fuerzas, y, si están libres de la acción de las fuerzas, se mantienen en reposo o en movimiento uniforme y rectilíneo. La imposibilidad de poder elegir un sistema inercial con preferencia ante los demás mediante algún experimento, representa la esencia del principio de relatividad de Galileo, que es una de las principales leyes de la física. Aún más, aunque sean completamente equivalentes los puntos de vista de los observadores que estudian los fenómenos en dos sistemas inerciales, sus opiniones sobre un mismo suceso son diferentes. Por ejemplo, si uno de los observadores afirma que la silla, en la que él está sentado en un tren en movimiento, está constantemente en un lugar del espacio, el otro observador, que se encuentra fuera del tren, afirmará que es la silla la que se desplaza de un lugar a otro. O, por

Gentileza de Manuel Mayo

37

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

ejemplo, si uno de los observadores, al disparar con un fusil, afirma que la bala lleva la velocidad de 500 m/s, otro observador, estando en un sistema que se mueve en la misma dirección con la velocidad de 200 m/s, afirmará que la bala lleva una velocidad mucho menor: igual a 300 m/s. ¿Quién de los dos tiene razón? Los dos. Es que el principio de relatividad del movimiento no permite dar preferencia a alguno de los sistemas inerciales. Resulta, pues, que sobre el lugar en el espacio y sobre la velocidad del movimiento no se pueden hacer deducciones generales, indiscutiblemente justas, o como suele decirse, absolutas. Los conceptos de lugar en el espacio y de velocidad del movimiento son relativos. Refiriéndose a tales conceptos relativos, es necesario indicar de qué sistema inercial se trata. Por lo tanto, la ausencia de un punto de vista unívocamente «justo» sobre el movimiento, nos lleva al reconocimiento de la relatividad del espacio. El espacio se podría llamar absoluto, solamente en el caso de que se pudiese hallar en él un cuerpo que estuviese en reposo desde el punto de vista de todos los observadores. Pero, precisamente esto es imposible. Lo relatividad del espacio significa que a éste no se lo puede imaginar como algo en el que están incrustados los cuerpos. La relatividad del espacio no fue reconocida inmediatamente por la ciencia. Incluso un sabio tan genial como lo fue Newton, suponía que el espacio era absoluto, aunque comprendía que no se podía demostrar esto de ningún modo. Este falso punto de vista estaba muy difundido entre una gran parte de los físicos hasta fines del siglo XIX. Seguramente las causas de esto eran de carácter psicológico: estamos muy acostumbrados a ver inmutables, alrededor de sí, «los mismos lugares del espacio». Veamos ahora qué deducciones absolutas se pueden proponer sobre el carácter del movimiento. Si los cuerpos se mueven con las velocidades v1 y v2, con respecto a un sistema de referencia, la diferencia (naturalmente, vectorial) será igual para cualquier observador inercial, puesto que, al variar el sistema de referencia, las dos velocidades, v1 y v2, se alteran en igual magnitud.

Gentileza de Manuel Mayo

38

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Así pues, la diferencia vectorial de las velocidades de dos cuerpos es absoluta. Siendo esto así, es absoluto también el vector del incremento de la velocidad de un mismo cuerpo durante un intervalo dado de tiempo, o sea su magnitud es igual para todos los observadores inerciales. La rotación de un cuerpo, igual que la variación de la velocidad, es de carácter absoluto. La dirección de la rotación y el número de revoluciones por minuto son iguales desde el punto de vista de todos los sistemas inerciales. 4. El punto de vista de un observador estelar Hemos decidido estudiar el movimiento desde el punto de vista de los sistemas inerciales. ¿No tendremos, entonces, que negarnos de los servicios de un observador terrestre? Como demostró Copérnico, la Tierra gira alrededor de su eje y alrededor del Sol. Es probable que le sea difícil al lector percibir el carácter revolucionario del descubrimiento de Copérnico y creer que, por defender sus ideas científicas, Giordano Bruno fue a parar a la hoguera y Galileo fue humillado y desterrado. ¿En qué consiste la hazaña del ingenio de Copérnico? ¿Por qué se puede poner en un mismo plano el descubrimiento de la rotación de la Tierra junto con las ideas de justicia humana, por las que los hombres avanzados estaban dispuestos a dar su vida? Galileo, en su «Diálogo sobro dos sistemas importantes del mundo, el de Ptolomeo y el de Copérnico» —por cuya obra fue perseguido por la iglesia— dio el nombre de Simplicio, que quiere decir simplón, al enemigo del sistema de Copérnico. En efecto, desde el punto de vista de la apreciación espontánea y simple del mundo —no con gran acierto, llamado «sentido común» —el sistema de Copérnico parece absurdo. ¿Cómo que la Tierra da vueltas? ¡Si yo la veo y está inmóvil! Sin embargo, el Sol y las estrellas, verdaderamente, se mueven. La reacción de los teólogos ante el descubrimiento de Copérnico lo muestra la siguiente conclusión de su consejo (año 1616): «La doctrina de que el Sol está situado en el centro del mundo y no se mueve es falsa y absurda, formalmente herética y adversa a las Sagradas Escrituras, y la doctrina de que la Tierra no está situada en el centro del mundo y además se mueve, experimentando una rotación diaria, es falsa y absurda,

Gentileza de Manuel Mayo

39

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

desde el punto de vista filosófico y, por lo menos, errónea, desde el punto de vista de la teología». Esta conclusión, en la que la incomprensión de las leyes de la naturaleza y la fe en los dogmas de la religión se enlazaban con el falso «sentido común», es el mejor testimonio de la fuerza del espíritu y del talento de Copérnico y de sus discípulos, que tan resueltamente rompieron con «las verdades» del siglo XVII. Pero, volvamos a la cuestión planteada más arriba. Si la velocidad del movimiento del observador varía si el observador participa en un movimiento giratorio, éste tiene que ser excluido del grupo de los observadores «verdaderos». Precisamente en esas condiciones se halla el observador situado en la Tierra. Sin embargo, si mientras se estudia el movimiento, la variación de la velocidad de la rotación del observador es pequeña, se puede suponer condicionalmente que tal observador es «verdadero». ¿Puede referirse esto a un observador situado en la Tierra? Durante un segundo la Tierra gira en 1/240 de un grado, sea, aproximadamente, en 0,00007 radianes. Esto no es mucho. Por eso, la Tierra, respecto a muchos fenómenos, representa un sistema inercial perfecto. Sin embargo, para fenómenos de gran duración, no hay que olvidarse de la rotación de la Tierra. En cierto tiempo, bajo la cúpula de la catedral de Isaac de Leningrado, estaba colgado un péndulo colosal. Poniéndolo en movimiento oscilatorio se podía observar, después de un tiempo breve, que su plano de oscilación giraba lentamente. Después de unas horas el plano de oscilación giraba en un ángulo considerable, este experimento con el péndulo lo realizó por primera vez el sabio francés Foucault y desde entonces lleva su nombre.

Gentileza de Manuel Mayo

40

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 2.1 El experimento de Foucault es una visible prueba de la rotación de la Tierra (fig. 2.1). Así, pues, si el movimiento que se examina es de mucha duración, estaremos obligados a renunciar de los servicios del observador terrestre para recurrir a un sistema de referencia relacionado con el Sol y las estrellas. Tal sistema fue utilizado por Copérnico, que suponía que el Sol y las estrellas que nos rodean estaban inmóviles. Sin embargo, en realidad, el sistema de Copérnico no es completamente inercial. El Universo se compone de numerosas conglomeraciones de estrellas, esas islas del Universo llamadas galaxias. En la galaxia a la que pertenece nuestro sistema solar, hay aproximadamente cien mil millones de estrellas. El Sol gira alrededor del centro de esta galaxia con un período de 180 millones de años y con la velocidad de 250 km/s. ¿Cuál es el error cometido al suponer que el observador solar es inercial? Para comparar los méritos de los observadores terrestre y solar, calculemos el ángulo da rotación del sistema solar de referencia durante un segundo. Si para dar una vuelta completa se tarda 180 x 106 años (6 x 1015 s), el sistema solar de Gentileza de Manuel Mayo

41

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

referencia girará en un segundo 6 x 10-14 de grado o sea, un ángulo de 10-15 radián. Se puede decir que el observador solar es 100 mil millones de veces «mejor» que el terrestre. Queriendo aproximarse más a un sistema inercial, los astrónomos toman como base un sistema de referencia relacionado con varias galaxias. Tal sistema de referencia es el más inercial de todos los posibles. Es imposible hallar un sistema mejor. A los astrónomos se les puede llamar observadores estelares en dos sentidos: ellos examinan las estrellas y describen los movimientos de los astros celestes desde el punto de vista de las estrellas. 5. La aceleración y la fuerza Para caracterizar la inconstancia de la velocidad, la física utiliza el concepto de aceleración. Se llama aceleración la variación de la velocidad por unidad de tiempo. En lugar de decir «la velocidad de cuerpo ha variado en la magnitud “a” durante 1 segundo», se dirá, abreviadamente: «la aceleración del cuerpo es igual a “a”». Si se indica con v1 la velocidad del movimiento rectilíneo en el primer intervalo de tiempo, y con v2 la velocidad en el siguiente intervalo, la regla del cálculo de la aceleración a se expresa por la fórmula a = (v2 – v1)/t donde t es el tiempo durante el cual aumenta la velocidad. La velocidad se mide en cm/s (o m/s, etc.), el tiempo, en segundos. Por lo tanto, la aceleración se mide en cm/s durante un segundo El número de centímetros por segundo se divide por los segundos. De este modo, la unidad de aceleración será cm/s2 (o m/s2, etc.). Es evidente que la aceleración puede variar durante el movimiento. Sin embargo, no vamos a complicar nuestra exposición a causa de esta circunstancia, que no es de principio. Simplemente se supondrá que durante el movimiento, la velocidad aumenta de manera uniforme. Tal movimiento se llama uniformemente acelerado. ¿Qué representa la aceleración en un movimiento curvilíneo?

Gentileza de Manuel Mayo

42

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La velocidad es un vector, la variación (la diferencia) de la velocidad es un vector, por consiguiente, la aceleración también es un vector. Para hallar el vector de la aceleración hay que dividir por el tiempo la diferencia vectorial de las velocidades. Ya se explicó anteriormente cómo se puede construir el vector de la variación de la velocidad.

Figura 2.2 La carretera da una vuelta. Marquemos dos posiciones próximas de un coche y representemos sus velocidades mediante vectores (fig. 2.2). Restando los vectores se obtiene una magnitud, generalmente, diferente de cero; dividiéndola por el tiempo transcurrido se halla la magnitud de la aceleración. Hay aceleración, incluso cuando la magnitud de la velocidad no varía en la vuelta. El movimiento curvilíneo siempre es acelerado. Solamente no es acelerado el movimiento rectilíneo uniforme. Refiriéndonos a la velocidad del movimiento de un cuerpo, manteníamos un punto de vista sobre el movimiento. La velocidad de un cuerpo es relativa. Puedo ser considerable, desde el punto de vista de un sistema inercial y, pequeña, desde el punto de vista de otro sistema inercial. ¿Hay que hacer tales referencias cuando se habla de la aceleración? Claro que no. En contraposición a la velocidad, la

Gentileza de Manuel Mayo

43

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

aceleración es absoluta. La aceleración es la misma desde el punto de vista de todos los sistemas inerciales que se puedan imaginar. En efecto, la aceleración depende de la diferencia de las velocidades del cuerpo durante el primero y segundo intervalos de tiempo y, como ya sabemos, esta diferencia es igual desde todos los puntos de vista, o sea, es absoluta. Un cuerpo que está libre de la acción de fuerzas, sólo puede moverse sin aceleración. Por el contrario, la acción de una fuerza sobre un cuerpo da lugar a la aceleración y además, ésta es tanto mayor, cuanto mayor sea la fuerza. Cuanto más rápidamente deseemos poner en movimiento una carretilla con una carga, tanto mayor esfuerzo tendremos que hacer. Por regla general, sobre un cuerpo en movimiento actúan dos fuerzas: la aceleradora, que es la fuerza de arrastre, y la que frena, que es la fuerza de rozamiento o de resistencia del aire. La diferencia de estas dos fuerzas, llamada resultante, puede estar dirigida en la misma dirección o en dirección contraria al movimiento. En el primer caso, el cuerpo acelera el movimiento, en el segundo, lo retarda. Si estas dos fuerzas, que actúan recíprocamente, son iguales entre sí (están en equilibrio), el cuerpo se mantiene en movimiento uniforme, como si sobre él no actuase ninguna fuerza. ¿Qué relación hay entre la fuerza y la aceleración originada por ella? Resulta que la respuesta es muy simple. La aceleración es proporcional a la fuerza: a ~ F. (El signo ~) significa «es proporcional».) Pero, queda por resolver una cuestión más: ¿Cómo influyen las propiedades del cuerpo en su capacidad de acelerar el movimiento bajo la acción de una u otra fuerza? Ya se sabe que una misma fuerza, actuando sobre diferentes cuerpos, produce diferentes aceleraciones. La respuesta a la cuestión planteada la da la admirable circunstancia de que todos los cuerpos caen a la Tierra con igual aceleración. Esta aceleración se indica con la letra g. En las cercanías de Moscú, la aceleración es g = 981 cm/s2. A primera vista, la observación directa no confirma la igualdad de la aceleración para todos los cuerpos. Es que, al caer los cuerpos en las condiciones normales,

Gentileza de Manuel Mayo

44

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

actúa sobre ellos, además de la fuerza de gravedad, una fuerza que «obstaculiza», ésta es la resistencia del aire. La diferencia en el carácter de la caída de los cuerpos ligeros y pesados desconcertaba a los filósofos de la antigüedad. Un trozo de hierro cae rápidamente pero una pluma planea en el aire. Una hoja de papel abierta desciende lentamente a la Tierra, no obstante, esta misma hoja, hecha una bola, cae con mayor rapidez. Los griegos de la antigüedad comprendían ya que el aire deformaba el movimiento «verdadero» de los cuerpos, a causa de la acción de la Tierra. Sin embargo, Demócrito creía que, incluso quitando el aire, los cuerpos pesados siempre caerían con mayor rapidez que los ligeros, En realidad, la resistencia del aire puede dar lugar a lo contrario; por ejemplo, una lámina de aluminio (desarrollada ampliamente) cae con más lentitud que una bola enrollada de un trozo de papel. A propósito, ahora se fabrica un alambre metálico tan fino (de unos cuantos micrones) que planea en el aire como una pluma. Aristóteles creía que todos los cuerpos tenían que caer del mismo modo en el vacío. Sin embargo, de este silogismo hacía la conclusión paradójica siguiente: «La caída de diversos cuerpos con igual velocidad es tan absurda, que queda clara la imposibilidad de la existencia del vacío». A ningún sabio de la antigüedad y de la edad media se lo ocurrió hacer un experimento para comprobar si los cuerpos caían a la Tierra con aceleraciones iguales o diferentes. Solamente Galileo, con sus maravillosos experimentos (estudiaba el movimiento de las bolas en un plano inclinado y la caída de los cuerpos arrojados desde lo alto de la torre inclinada de Pisa), comprobó que todos los cuerpos, independientemente de su masa, en un mismo lugar del globo terrestre, caen con igual aceleración. Estos experimentos se puedan hacer actualmente con gran facilidad empleando un tubo largo del que se ha extraído el aire. Una pluma y una piedra caen en este tubo con la misma aceleración: los cuerpos solamente sufren la acción de una fuerza, del peso; la resistencia del aire se ha reducido a cero. No existiendo la resistencia del aire, la caída de cualquier cuerpo representa un movimiento uniformemente acelerado.

Gentileza de Manuel Mayo

45

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Volvamos a estudiar la cuestión planteada anteriormente. ¿Cómo depende de sus propiedades la capacidad de un cuerpo de acelerar su movimiento a causa de la acción de una fuerza dada? La ley de Galileo señala que todos los cuerpos, independientemente de sus masas, caen con la misma aceleración; o sea, una masa de m kg, impulsada por una fuerza de F kgf, se mueve con la aceleración g. Supongamos ahora que no se trata de la caída de los cuerpos, y que una masa de m kg sufre la acción de una fuerza de 1 kgf. Como la aceleración es proporcional a la fuerza, aquélla será m veces menor que F. Llegamos a la conclusión que, estando dada la fuerza (en el caso considerado es de 1 kgf), la aceleración a de un cuerpo es inversamente proporcional a la masa. Resumiendo, se puede escribir; a ~ F/m o sea, siendo constante la masa, la aceleración es proporcional a la fuerza y, siendo constante la fuerza, la aceleración es inversamente proporcional a la masa. La ley que relaciona la aceleración con la masa de un cuerpo y con la fuerza que actúa sobre él, fue descubierta por el gran sabio inglés Isaac Newton (1643-1727) y lleva su nombre5. La aceleración es proporcional a la fuerza de acción e inversamente proporcional a la masa del cuerpo y no depende de otras propiedades del cuerpo. De la ley de Newton se deduce que la masa es, precisamente, la medida de "la inercia" del cuerpo. Con fuerzas iguales, es difícil acelerar un cuerpo de mayor masa. Vemos, pues, que el concepto de masa que conocíamos como una magnitud "sencilla" y que se determinaba pesando en una balanza de palanca, toma un nuevo sentido profundo: la masa caracteriza las propiedades dinámicas del cuerpo. La ley de Newton se puede escribir así kF = ma

5 Newton mismo indica que el movimiento está sujeto a tres leyes. La ley a que nos referimos aquí, Newton la llama, segunda. Como primera, él tomaba la ley de inercia, como tercera, la ley de acción y de reacción

Gentileza de Manuel Mayo

46

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

donde k es un coeficiente constante. Este coeficiente depende de las unidades elegidas. En vez de utilizar la unidad de fuerza (kgf) que teníamos, procederemos de otro modo. Elegiremos esta unidad, como frecuentemente suelen hacer lo físicos, de modo que el coeficiente de proporcionalidad en la ley de Newton sea igual a la unidad. Entonces, la ley de Newton toma la forma siguiente: F = ma. Como ya se dijo, en la física se ha convenido medir la masa en gramos, el espacio en centímetros y el tiempo en segundos. El sistema de unidades basado en estas tres magnitudes principales se llama sistema CGS. Elijamos

ahora

la

unidad

de

fuerza,

empleando

el

principio

enunciado

anteriormente. Es evidente que la fuerza es igual a la unidad, en el caso en que ella comunique a 1 g de masa una aceleración igual a 1 cm/s2. Tal fuerza lleva, en este sistema, el nombre de dina. Según la ley de Newton, F = ma, la fuerza se expresa en dinas si m gramos se multiplica por a m/s2. Por eso, suele escribirse: 1 dina = 1 [g x cm/s2] Generalmente, el peso del cuerpo se indica con la letra P. La fuerza P comunica al cuerpo la aceleración g. y, resulta evidente, que en dinas, P = mg. Pero ya teníamos la unidad de fuerza, el kilogramo (kgf). Inmediatamente se halla la relación entre las unidades antigua y nueva, mediante la última fórmula: 1 kilogramo fuerza = 981 000 dinas

Gentileza de Manuel Mayo

47

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La dina es una fuerza muy pequeñita. Aproximadamente, es igual a un miligramo de peso. Ya se mencionó el sistema de unidades (SI), propuesto recientemente. La denominación de newton para la nueva unidad de fuerza es merecida por completo. Con tal elección de la unidad la ley de Newton se escribe de un modo más simple; esta unidad se define así: 1 newton = 1[kg x m/s2] o sea, 1 newton es la fuerza que comunica a una masa de 1 kg una aceleración de 1 m/s2. Es fácil ligar esta nueva unidad con la dina y el kilogramo: 1 newton = 100 000 dinas = 0,102 kgf. 6. Movimiento rectilíneo con aceleración constante Según la ley de Newton, tal movimiento se produce cuando sobre el cuerpo actúa, en su conjunto, una fuerza constante que acelera o frena el cuerpo. Tales condiciones, aunque no justamente iguales, se crean con bastante frecuencia; un coche que va con el motor parado, frena gracias a la acción de la fuerza de rozamiento, que es casi constante; un cuerpo pesado cae desde una altura a consecuencia de la acción de la fuerza de gravedad, que es constante. Conociendo la magnitud de la fuerza resultante y la masa del cuerpo, hallamos la magnitud de la aceleración mediante la fórmula, a = F/m Como a = (v – v0)/t

Gentileza de Manuel Mayo

48

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

donde t es el tiempo del movimiento; v, la velocidad final y v0 la velocidad inicial, podemos, mediante esta fórmula, responder a una serie de preguntas del carácter siguiente, por ejemplo: ¿cuánto tiempo tarda el tren en pararse, si se conoce la fuerza de frenado, la masa del tren y la velocidad inicial? ¿Qué velocidad alcanzará el automóvil, si se conoce la fuerza del motor, la fuma de resistencia, la masa del coche y el tiempo de la carrera? Con frecuencia, suele ser interesante conocer la longitud del trayecto recorrido por un cuerpo en un movimiento uniformemente acelerado. Si el movimiento es uniforme, el espacio recorrido se halla multiplicando la velocidad por el tiempo del movimiento. Si el movimiento es uniformemente acelerado, el cálculo de la magnitud del espacio recorrido se efectúa como si el cuerpo se moviese uniformemente durante el mismo tiempo t con una velocidad igual a la semisuma de las velocidades final e inicial:

Así, pues, el espacio recorrido por el cuerpo en un movimiento uniformemente acelerado (o retardado), es igual al producto de la semisuma de las velocidades final e inicial por el tiempo del movimiento. Este mismo espacio se recorrería durante el mismo tiempo en un movimiento uniforme con la velocidad (v0 + v)/2 En este sentido, se puede decir que (v0 + v)/2 es la velocidad media del movimiento uniformemente acelerado. Sería conveniente hallar una fórmula que mostrase la dependencia del espacio recorrido de la aceleración. Sustituyendo en la última fórmula, el valor de v por v = v0 +at hallamos:

Gentileza de Manuel Mayo

49

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

O, si el movimiento se efectúa sin velocidad inicial, S = at2 Si el cuerpo recorre 5 m en un segundo, en dos segundos recorrerá (4 x 5) m, en tres segundos (9 x 5) m, etc. El espacio recorrido crece proporcionalmente al cuadrado del tiempo. Un cuerpo pesado cae desde una altura de acuerdo con esta ley. La aceleración en la caída libre es igual a g y la fórmula toma la forma siguiente: S = gt2/2 Si t se da en segundos y g, en centímetros por el cuadrado de segundo. Si el cuerpo pudiese caer sin obstáculos durante 100 segundos, recorrería, desde el comienzo de la caída, un espacio grandísimo, alrededor de 50 km. Además, en los primeros 10 segundos recorre solamente 1/2 km. He aquí lo que significa el movimiento acelerado. Pero, ¿qué velocidad desarrollará el cuerpo al caer de una altura dada? Para contestar a esta pregunta necesitamos saber la fórmula que relaciona el espacio recorrido con la aceleración y la velocidad. Sustituyendo en la fórmula

el valor del tiempo del movimiento t = (v – v0)/a obtenemos:

Gentileza de Manuel Mayo

50

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

o. si es que la velocidad inicial es igual a cero,

o Diez metros, es la altura de una casa no muy grande de dos o tres pisos. ¿Por qué es peligroso saltar a la Tierra desde el tejado de una tal casa? Un cálculo sencillo muestra que la velocidad de la caída libre alcanza v =√ (2 x 9,8 x 10) = 14 m/s ≈ 50km/h6 que es la velocidad de un automóvil en la ciudad. La resistencia del aire no disminuye mucho esta velocidad. Las fórmulas deducidas anteriormente se emplean en diversos cálculos. Veamos, con su ayuda, cómo se efectúa el movimiento en la Luna. En la novela de Wells «Los primeros hombres en la Luna», se describen las sorpresas que experimentan los viajeros en sus paseos fantásticos. La aceleración de la gravedad en la Luna es, aproximadamente, 6 veces menor que la terrestre. Si en la Tierra, un cuerpo que cae, recorre durante el primer segundo 5 m, en la Luna, «navegará» hacia abajo solamente 80 cm (la aceleración es aproximadamente igual a 1,6 m/s2). Las fórmulas escritas dan la posibilidad de calcular rápidamente los «milagros» lunares. Un salto desde la altura h dura el tiempo t = √ (2g/h)

6

≈ significa “aproximadamente igual a”

Gentileza de Manuel Mayo

51

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Como la aceleración lunar es 6 veces menos que la terrestre, para este salto, en la Luna se necesitará √6 ≈ 2,45 veces más de tiempo. ¡En tantas veces disminuirá la velocidad final del salto! (v = √ (2gh)) En la Luna se puede saltar con seguridad desde el tejado de una casa de tres pisos. La altura del salto aumenta 6 veces, si se ha hecho con la misma velocidad inicial (la fórmula es h = v2/2g). Un niño puede sallar a una altura superior a la del récord terrestre. 7. La trayectoria de una bala Desde los tiempos remotos el hombre está resolviendo el problema de lanzar un cuerpo cuanto más lejos posible.

Figura 2.3 La piedra lanzada con la mano o con una honda, la flecha disparada por un arco, la bala de un fusil, el proyectil de artillería, el cohete balístico, he aquí una lista breve de los éxitos obtenidos sobre esta cuestión. El cuerpo lanzado recorre una línea curva llamada parábola. Es fácil construir esta línea si se considera el movimiento del cuerpo lanzado como una suma de dos

Gentileza de Manuel Mayo

52

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

movimientos, horizontal y vertical, que son simultáneos e independientes. La aceleración de la fuerza de gravedad es vertical, por eso la bala que vuela se mueve por inercia con velocidad constante en dirección horizontal y, simultáneamente, cae verticalmente a la Tierra con aceleración constante ¿Cómo sumar estos dos movimientos? Comencemos por un caso simple, cuando la velocidad inicial es horizontal (por ejemplo, se trata de un disparo de un fusil, el cañón del cual es horizontal). Tomemos una hoja de papel milimétrico y tracemos una línea horizontal y otra vertical (fig. 2.3). Como los dos movimientos son independientes, después de t segundos el cuerpo, se desplazará en el segmento v0t hacia la derecha y en el segmento gt2/2hacia abajo. Marquemos en la horizontal el segmento v0t y desde su extremo, en la vertical, el segmento gt2/2. El extremo del segmento vertical indicará el punto donde se encontrará el cuerpo después de t segundos. Esta construcción hay que realizarla para unos cuantos puntos, o sea, para unos cuantos instantes de tiempo. Por estos puntos pasará una línea continua, la parábola que describe la trayectoria del cuerpo. Cuanto más frecuentemente estén marcados los puntos, tanto mayor será la precisión con que se construirá la trayectoria del vuelo de la bala. En la fig. 2.4 está trazada la trayectoria para el caso cuando la velocidad inicial v0 forma cierto ángulo. Ante todo, se debe descomponer el vector v0 en las componentes vertical y horizontal. En la línea horizontal se marca vhorizt que es el desplazamiento horizontal de la bala durante t segundos. Pero, simultáneamente, la bala hace un movimiento hacia arriba. En t segundos se eleva a la altura h = vvertt – gt2/2 Sustituyendo aquí t por los instantes de tiempo que nos interesen, se hallan los desplazamientos verticales y se marcan en el eje vertical. Al principio, la magnitud h aumentará (elevación), después, disminuirá.

Gentileza de Manuel Mayo

53

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Ahora, no queda más que señalar los puntos de la trayectoria en el diagrama como lo hicimos en el ejemplo anterior y trazar por ellos una curva continua.

Figura 2.4 Manteniendo horizontalmente el cañón del fusil, la bala se entierra rápidamente; si la posición del cañón es vertical, la bala vuelve a caer al mismo sitio donde fue hecho el disparo. Por lo tanto, para disparar cuanto más lejos posible, es necesario colocar el cañón del fusil de manera que forme con el horizonte un ángulo determinado. Pero, ¿qué ángulo? Empleemos de nuevo el mismo procedimiento; descompongamos el vector de la velocidad inicial en dos componentes: sea v1 la velocidad en la vertical y v2, en la horizontal. El tiempo, desde el momento del disparo hasta el momento en que la bala alcance el punto superior de la trayectoria, es igual a v1/g. Tengamos en cuenta que la bala tarda el mismo tiempo en caer, o sea, que el tiempo del vuelo de la bala hasta que cae a la tierra es 2v1/g. Como en la horizontal el movimiento es uniforme, el alcance del vuelo es S = 2v1v2/g

Gentileza de Manuel Mayo

54

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

(se ha despreciado la altura del cañón del fusil sobre el nivel del mar). Hemos obtenido una fórmula que muestra que el alcance del vuelo es proporcional al producto de las componentes de la velocidad. ¿En qué dirección hay que disparar para

que

esto

producto

sea

máximo?

Esta

pregunta

se

puede

expresar

geométricamente. Las velocidades v1 y v2 forman un rectángulo de velocidades; su diagonal es la velocidad total v. El producto v1v2 es igual al área de este rectángulo. La pregunta se reduce a lo siguiente: siendo conocida la longitud de la diagonal, ¿qué lados hay que tomar para que el área del rectángulo sea máxima? En la geometría se demuestra que a esta condición la satisface el cuadrado. Por lo tanto, el alcance de la bala será máximo cuando v1 = v2, o sea, cuando el rectángulo de las velocidades sea un cuadrado. La diagonal del cuadrado de las velocidades forma un ángulo de 45° con la horizontal; bajo este ángulo hay que colocar el fusil para que la bala vaya lo más lejos posible. Si v es la velocidad total de la bala, en el caso del cuadrado, se tiene: v1 = v2 = v/√2. En este caso, la fórmula para el alcance del vuelo tiene esta forma: S = v2/g o sea, el alcance es dos veces mayor que al disparar para arriba con la misma velocidad inicial. La altura alcanzada al disparar bajo un ángulo de 45°, es igual a h = v12/2g = v22/2g o sea, es cuatro veces menor que el alcance del vuelo. Hay que reconocer que las fórmulas con que operamos proporcionan resultados exactos solamente en un caso muy lejano de la realidad: cuando falta el aire. En muchos casos, la resistencia del aire juega un papel decisivo y cambia por completo todo el cuadro 8. Movimiento circular

Gentileza de Manuel Mayo

55

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El movimiento circular de un punto siempre es acelerado, aunque sólo sea por el hecho de que en cada instante la velocidad cambia su dirección. Sin embargo, la magnitud de la velocidad puede mantenerse constante. Precisamente, vamos a examinar ahora un caso semejante.

Figura 2.5 Dibujemos los vectores de las velocidades para intervalos sucesivos de tiempo, colocando en un punto los orígenes de los vectores (tenemos derecho a esto). Si el vector de la velocidad gira un ángulo pequeño, la variación de la velocidad se representará por la base de un triángulo isósceles. Construyamos la variación de la velocidad durante el tiempo en que el cuerpo hace una vuelta completa (fig. 2.5). La suma de las variaciones de la velocidad durante este tiempo será igual a la suma de los lados del polígono representado. Al construir cada triángulo, se supone simplemente que el vector de la velocidad varía bruscamente; pero, en la realidad, la dirección del vector de la velocidad varía continuamente. Está absolutamente claro que cuanto menor se tome el ángulo del triángulo, tanto menor será el error. Cuanto menores sean los lados del polígono, tanto más se aproximará éste a una circunferencia de radio v. Por eso, el valor exacto de la suma de los valores

Gentileza de Manuel Mayo

56

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

absolutos de las variaciones de la velocidad durante una vuelta del punto, será igual a la longitud de la circunferencia, o sea, igual a 2πv. La magnitud de la aceleración se hallará dividiendo ésta por a tiempo T de una vuelta completa. a = 2πv/T Pero, el tiempo de una vuelta completa en el movimiento sobre una circunferencia de radio R, puede escribirse en la forma T = 2πR/v Sustituyendo esta expresión en la fórmula anterior, para la aceleración, se obtiene: a = v2/R Siendo constante el radio de la rotación, la aceleración es proporcional al cuadrado de la velocidad. Siendo dada la velocidad, la aceleración es inversamente proporcional al radio. Este mismo razonamiento nos muestra cómo está dirigida en cada instante la aceleración del movimiento circular. Cuanto menor sea el ángulo de los vértices de los triángulos isósceles que empleamos para la demostración, tanto más se aproximará a 90° el ángulo entre el incremento de la velocidad y la velocidad misma. Por lo tanto, la dirección de la aceleración en el movimiento uniforme circular es perpendicular a la velocidad. Y, ¿qué direcciones tienen la velocidad y la aceleración con relación a la trayectoria? Como la velocidad es tangente al trayecto, la aceleración tiene la dirección del radio y, además, va hacia el centro de la circunferencia. Todo esto se ve bien en la figura 2.6. Hagamos la prueba de dar vueltas a una piedra con una cuerda. Con gran claridad sentiremos la necesidad de hacer un esfuerzo muscular. ¿Para qué hace falta la fuerza, si el movimiento del cuerpo es uniforme? En realidad no resulta así. El cuerpo se mueve con una velocidad de magnitud invariable, pero la variación

Gentileza de Manuel Mayo

57

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

continua de la dirección de la velocidad hace que este movimiento sea acelerado. La fuerza se necesita para desviar el cuerpo de su camino inercial rectilíneo, para crear la aceleración v2/R que acabamos de calcular.

Figura 2.6 Según la ley de Newton, la fuerza señala la dirección de la aceleración. Por consiguiente, el cuerpo que gira sobre una circunferencia con una velocidad constante tiene que sufrir la acción de una fuerza que va por el radio en dirección del centro de rotación. La fuerza que actúa sobre la piedra por parte de la cuerda es la que garantiza la aceleración v2/R. Por consiguiente, esta fuerza es mv2/R. La cuerda tira de la piedra y la piedra tira de la cuerda. En estas dos fuerzas reconocemos «el objeto y su imagen» en el espejo, o sea, las fuerzas de acción y reacción. Frecuentemente, la fuerza con la que la piedra actúa sobre la cuerda la llaman centrífuga. No hay duda que la fuerza centrífuga es igual a mv2/R y que lleva la dirección del radio, desde el centro de la rotación. La fuerza centrífuga está aplicada al cuerpo que reacciona a la tendencia que tiene el mismo a moverse por inercia en línea recta. Todo lo expuesto se refiere también al caso en que la fuerza de gravedad juega el papel de «la cuerda». La Luna gira alrededor de la Tierra. ¿Qué es lo que sujeta a nuestro satélite? ¿Por qué no se marcha, siguiendo la ley de la inercia, a un viaje interplanetario? La Tierra sujeta a la Luna con «una cuerda invisible», con la fuerza de gravedad. Esta fuerza es igual a mv2/R, donde v es la velocidad del movimiento

Gentileza de Manuel Mayo

58

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

en la órbita lunar, y R, la distancia hasta la Luna. En este caso, la fuerza centrífuga está aplicada a la Tierra, pero, gracias a la gran masa de la Tierra, ella influye muy poco en el carácter del movimiento de nuestro planeta. Supongamos que se quiere poner un satélite artificial de la Tierra en una órbita circular a la distancia de 300 km de la superficie terrestre. ¿Qué velocidad tiene que tener ese satélite? A la distancia de 300 km, la fuerza de gravedad es un poco menor que en la superficie de la Tierra y es igual a 8,9 m/s2. La aceleración del satélite que se mueve sobre una circunferencia es igual a v2/R, donde R es la distancia hasta el centro de rotación (o sea, hasta el centro de la Tierra), que, aproximadamente, es igual a 6000 km = 6,6 x 106 m. Por otra parte, esta aceleración es igual a la aceleración g de la fuerza de gravedad. Por consiguiente, g = v2/R, de donde hallamos la velocidad del movimiento del satélite en la órbita: v = √(gR) = √(8,9 x 6,6 x 108) = 7700 m/s = 7,7 km/s La velocidad mínima que se necesita para que un cuerpo lanzado horizontalmente se convierta en satélite de la Tierra, se llama velocidad cósmica primera. En el ejemplo expuesto se ve que esta velocidad es aproximadamente igual a 8 km/s. 9. Vida sin peso En el capitulo anterior hallamos «un punto de vista racional» sobre el movimiento. La verdad es que, puntos de vista «racionales», que llamamos sistemas inerciales, existen infinidad de ellos. Armados ahora de los conocimientos de las leyes del movimiento, nos puede interesar el aspecto de éste desde un punto de vista «irracional». El interés en saber cómo viven los habitantes de sistemas no inerciales no es, en general, vano, aunque sólo sea por el hecho de que nosotros mismos somos habitantes de tal sistema. Figurémonos que, tomando con nosotros unos instrumentos de medición, nos embarcarnos en una nave interplanetaria y nos marchamos de viaje por el mundo de las estrellas.

Gentileza de Manuel Mayo

59

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El tiempo corre ligero. El Sol ya se parece a una estrellita. El motor está parado, la nave está lejos de los cuerpos que gravitan. Veamos qué es lo que ocurre en nuestro laboratorio en vuelo. ¿Por qué está suspendido en el aire y no se cae al suelo el termómetro que se ha soltado de su sostén? ¡En qué posición tan rara, desviado de la «vertical», está suspenso el péndulo que cuelga de la pared! Inmediatamente hallamos la explicación: tengamos en cuenta que la nave no está en la Tierra, sino en el espacio interplanetario. Los objetos han perdido el peso. Después de contemplar con admiración este panorama extraordinario decidimos cambiar la dirección. Apretando un botón se pone en marcha el motor—cohete (a reacción) y, de repente... todos los objetos que nos rodean parecen revivir. Todos los cuerpos que no estaban bien sujetos se ponen en movimiento. El termómetro se cae, el péndulo comienza a oscilar y, lentamente, se pone vertical. Veamos los instrumentos que indican hacia qué lado comenzó nuestra nave el movimiento acelerado. Claro que hacia arriba. Los instrumentos muestran que hemos elegido un movimiento con una aceleración muy pequeña con relación a las posibilidades de la nave de 9,8 m/s2. Nuestras impresiones son habituales, nos sentimos igual que en la Tierra. Pero, ¿por qué esto es así? Igual que antes, la nave se encuentra lejísimo de las masas gravitantes; no hay fuerzas de atracción; sin embargo, los objetos han obtenido peso. Dejemos caer de la mano una bolita y midamos la aceleración con que cae al suelo de la nave. Resulta que esta aceleración es igual a 9,8 m/s2. Este mismo número acabamos de leer en los instrumentos que miden la aceleración del cohete. La nave se mueve hacia arriba con la misma aceleración con que caen al suelo los cuerpos en nuestro laboratorio. Pero, ¿qué quiere decir en nuestra nave el vuelo hacia «arriba» o hacia «abajo»? ¡Qué sencillo era todo citando vivíamos en la Tierra! Allí el cielo estaba arriba, la Tierra, abajo. ¿Y aquí? Nuestro arriba tiene un síntoma indiscutible: es la dirección de la aceleración del cohete. No es difícil entender el sentido de nuestros experimentos: sobre la bolita soltada de la mano no actúa ninguna fuerza. La bolita se mueve por inercia. Es el cohete el que se mueve con aceleración respecto a la bolita y respecto a nosotros, que

Gentileza de Manuel Mayo

60

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

estamos dentro del cohete, y nos parece que es la bolita la que «cae» hacia un lado, en dirección opuesta a la aceleración del cohete. Claro que la aceleración de esta «caída» tiene una magnitud igual ala de la aceleración verdadera del cohete. También es evidente que todos los cuerpos en el cohete tienen que «caer» con una misma aceleración. De todo lo expuesto se puede hacer una conclusión interesante. En un cohete que se mueve con aceleración, todos los cuerpos comienzan a «pesar». Además, la dirección de «la fuerza de gravedad» es opuesta a la dirección de la aceleración del cohete y la aceleración de la «caída» libre es igual a la aceleración de la misma nave. Y lo más maravilloso es que, prácticamente, no podemos distinguir el movimiento acelerado del sistema de la fuerza de gravedad correspondiente7. Estando dentro de la nave cósmica con las ventanas cerradas no podríamos saber si está quieta en la Tierra o si se mueve con una aceleración de 9,8 m/s2 La igualdad de la «fuerza de atracción» y «la fuerza de gravedad» se llama en física principio de equivalencia. Como ahora veremos en una multitud de ejemplos, este principio da la posibilidad de resolver rápidamente muchos problemas, agregando a las fuerzas reales una fuerza aparente de gravedad que existe en los sistemas que se mueven con aceleración. El ascensor puede servir de primer ejemplo. Tomemos una balanza de resorte con las pesas y vayamos hacia arriba en el ascensor. Veamos cómo se comporta el fiel de la balanza en la que se ha colocado una pesa de un kilogramo (fig. 2.7). La ascensión ha comenzado; vemos que las indicaciones de los pesos crecen, como si la pesa pesase más de un kilogramo. Este hecho se explica con facilidad con el principio de equivalencia. Durante el movimiento del ascensor hacia arriba con la aceleración a aparece una fuerza complementaria de gravedad dirigida hacia abajo. Como la aceleración de esta fuerza es igual a “a”, el peso complementario es igual a ma.

7 Sólo prácticamente. En principio, hay diferencia. En la Tierra las fuerzas de gravedad van dirigidas por los radios hacia el centro de la Tierra. Esto significa que las direcciones de la aceleración en dos puntos diversos, forman entre sí un ángulo. En el cohete que se mueve con aceleración, las direcciones de la gravedad son rigurosamente paralelas en todos los puntos. En la Tierra, la aceleración también varía con la altura; esto efecto no existe en el cohete que se mueve con aceleración.

Gentileza de Manuel Mayo

61

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 2.7 Por consiguiente, la balanza indicará el peso mg + ma. La aceleración se ha terminado y el ascensor se mueve uniformemente: el resorte vuelve a su posición inicial y muestra 1 kg. Nos aproximamos al piso superior, el movimiento del ascensor se retarda. ¿Qué ocurrirá ahora con el resorte de la balanza? Claro que ahora la pesa tiene un peso menor de un kilogramo. Cuando el movimiento del ascensor es retardado, el vector de la aceleración va dirigido hacia abajo. Por lo tanto, lo fuerza aparente de gravedad complementaria está dirigida hacia arriba, en dirección contraria a la atracción terrestre Ahora a es negativa y la balanza indica una magnitud menor que mg. Después de pararse el ascensor, el resorte vuelve a su posición inicial. Comencemos el descenso. El movimiento del ascensor se acelera; el vector de la aceleración está dirigido hacia abajo y, por lo tanto, la fuerza de gravedad complementaria está dirigida hacia arriba. La pesa tiene ahora un peso menor de un kilogramo. Cuando el movimiento sea uniforme, se perderá el peso complementario y ante el fin de nuestro viaje en el ascensor, cuando el movimiento hacia abajo sea retardado, la pesa tendrá que pesar más de un kilogramo.

Gentileza de Manuel Mayo

62

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Las sensaciones desagradables que se notan cuando son rápidas las aceleraciones y los retardamientos del movimiento del ascensor, están ligadas con la variación examinada del peso Si el ascensor baja con aceleración, los cuerpos que están en él se hacen más ligeros. Cuanto mayor sea esta aceleración, tanto más peso se perderá. ¿Qué ocurrirá en la caída libre del sistema? La respuesta es clara: en este caso, los objetos dejan de presionar sobre el soporte, dejan de pesar; la fuerza de atracción de la Tierra se equilibra con la fuerza de gravedad complementaria que existe en tal sistema que cae libremente. Estando en tal «ascensor», se puede colocar tranquilamente sobre los hombros una tonelada de peso. Al comienzo de este párrafo describíamos la vida «sin peso» en una nave interplanetaria que había salido fuera de los límites de la esfera de gravedad. Cuando el movimiento era uniforme y rectilíneo, en esta nave no había peso; pero lo mismo ocurre también en la caída libre del sistema. Esto significa que no hay necesidad de salir fuera de los límites de la esfera de gravedad: no hay peso en ninguna de las naves interplanetarias que se mueve sin motor. La caída libre nos conduce a la pérdida del peso en sistemas semejantes. El principio de equivalencia nos lleva a la conclusión sobre la casi (véase la nota anterior) equivalencia total del sistema de referencia que se mueve uniformemente en línea recta, lejos de la acción de las fuerzas de atracción, y el sistema de referencia que cae libremente gracias a la acción de la gravedad. En el primer sistema no hay peso, en el segundo, «el peso hacia abajo» se equilibra con «el peso hacia arriba». No hallamos ninguna diferencia entre los sistemas. En un satélite artificial de la Tierra, la vida «sin peso» comienza desde el instante en que la nave se establece en la órbita y empieza su movimiento sin actuación del cohete. El primer viajero interplanetario fue una perra llamada Layka, un poco después, el hombre se acostumbró a la vida «sin peso» en la cabina de una nave cósmica. El primero que ha ido por este camino es el piloto cosmonauta soviético Yuri Gagarin. No se puede decir que sea ordinaria la vida en la cabina de la nave. Hizo falta mucho ingenio e inventiva para hacer que fuesen dóciles las cosas que con tanta facilidad se acomodan a la fuerza de gravedad. ¿Se puede, por ejemplo, vaciar agua

Gentileza de Manuel Mayo

63

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de una botella a un vaso? Hay que tener en cuenta que el agua cae «hacia abajo» gracias a la acción de la gravedad. ¿Se puede preparar la comida, si no se puede calentar el agua en la cocina? (El agua templada no se disolverá con la fría). ¿Cómo escribir con el lápiz sobre el papel si un pequeño golpe del lapicero sobre la mesa es suficiente para echar a un lado al escribiente? Ni la cerilla, ni la vela, ni el mechero de gas arderán, porque los gases de la combustión no se elevarán (ya que no hay «arriba») y no darán acceso al oxígeno. Hubo incluso que pensar el modo de garantizar el curso normal de las evacuaciones naturales que se efectúan en el organismo del hombre, ya que estos procesos están «acostumbrados» a la fuerza de la atracción terrestre. 10. Movimiento desde el punto de vista irracional Ocupémonos ahora de las observaciones físicas en un autobús o en un tranvía que se mueven con aceleración. Una particularidad de este ejemplo, que le distingue del anterior,

consiste

en

lo

siguiente:

en

el

ejemplo

del

ascensor,

el

peso

complementario y la atracción de la Tierra estaban dirigidos a lo largo de una línea. En

un

tranvía

que

va

frenando

o

que

va

tomando

velocidad,

la

fuerza

complementaria de gravedad forma un ángulo recto con la fuerza de atracción terrestre. Esto provoca unas sensaciones en los pasajeros que, a pesar de la costumbre, son originales. Si el tranvía toma velocidad, aparece una fuerza complementaria que tiene la dirección inversa a la del movimiento. Sumemos esta fuerza con la fuerza de atracción. En resumen, sobre el hombre situado en el vagón actúa otra fuerza que forma un ángulo obtuso con la dirección del movimiento. Estando en el vagón como de ordinario, de cara al movimiento, sentiremos que nuestro «arriba» se ha desplazado. Para no caernos, hacemos lo posible por ocupar la posición «vertical», tal como se muestra en la Fig. 2.8 a. Nuestra «vertical» está oblicua; forma un ángulo agudo con la dirección del movimiento. Un hombre que está de pie, sin sujetarse en nada, inevitablemente se cae hacia atrás. Por fin, el movimiento del tranvía se hace uniforme y ya podemos estar tranquilos. Sin embargo, se aproxima una nueva parada. El conductor frena y… nuestra «vertical» se inclina. Esta, como se ve en la fig. 2.8b, forma un ángulo obtuso con

Gentileza de Manuel Mayo

64

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

el movimiento. El pasajero, para no caerse, se inclina hacia atrás. Sin embargo, no se queda mucho tiempo en esta posición.

Figura 2.8 El vagón se para, la retardación desaparece y la «vertical» toma su posición inicial. Otra vez hay que cambiar la posición del cuerpo. Comprueben sus sensaciones. ¿Verdad que parece que les han empujado por la espalda en el momento de frenar? (la vertical está detrás de la espalda). Usted se ha puesto «derecho», pero ahora se ha parado el vagón, y como la vertical está por delante, sentirá un golpe en el pecho. Durante el movimiento del tranvía sobre una curva ocurren fenómenos parecidos. Ya sabemos que el movimiento sobre una circunferencia es acelerado, incluso cuando la magnitud de la velocidad es constante. La aceleración v2/R será tanto mayor, cuanto menor sea el radio R de la curvatura. La aceleración de este movimiento va por el radio, en dirección del centro. Pero esto es equivalente a la aparición

de

una

gravedad

complementaria

dirigida

desde

el

centro.

Por

consiguiente, durante la curva, sobre el pasajero actúa una fuerza complementaria mv2/R que le empuja hacia el lado exterior de la curvatura. La fuerza radial mv2/R,

Gentileza de Manuel Mayo

65

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

se llama centrífuga. Con esta fuerza nos encontramos anteriormente que fue examinada desde otro punto de vista. La actuación de la fuerza centrífuga en un tranvía o en un autobús, sólo puede dar lugar a pequeñas molestias. En esto caso, la fuerza mv2/R es pequeña. Sin embargo, si el movimiento sobre la curva es ligero, las fuerzas centrífugas pueden alcanzar grandes magnitudes y pueden hacerse peligrosas para la vida. Los pilotos suelen verse con grandes valores de mv2/R, cuando el avión efectúa un «rizo». Cuando el avión describe una circunferencia, sobre el piloto actúa la fuerza centrífuga que le aprisiona sobre el asiento. Cuanto menor sea la circunferencia del rizo, tanto mayor será la fuerza complementaria que aprisiona al piloto. Si esta gravedad es muy grande, el hombre se puede «destrozar» ya que los tejidos del organismo en vida poseen una resistencia limitada y no pueden aguantar cualquier pesantez. ¿En cuánto puede «aumentar el peso» de un hombre sin peligro notable para la vida? Eso depende de la duración de la carga. Si ésta es de una parte de segundo, el hombre es capaz de aguantar cargas que sean ocho y diez veces mayores que su peso, o sea, sobrecargas de 7 a 9 g. El piloto, durante diez segundos, puede aguantar sobrecargas de 3 a 5 g. A los cosmonautas los interesa saber, qué sobrecargas es capaz de aguantar un hombre durante decenas de minutos, o incluso durante horas. Es probable que, en estos casos, la sobrecarga tenga que ser muchísimo menor. Calculemos el radio del rizo que puede describir el avión a diversas velocidades, sin peligro para el piloto. Efectuemos cálculos para la aceleración igual v2/R = 4g y R= v2/4g. Siendo la velocidad de 360 km/h = 100 m/s, el radio del rizo es de 250 m; si la velocidad es 4 veces mayor, o sea, si es de 1440 km/h (estas velocidades ya han sido superadas por los aviones modernos de propulsión a chorro), el radio del rizo tiene que ser aumentado 16 veces. El radio menor del rizo resulta igual a 4 km. No dejemos de prestar atención a una forma de transporte más sencilla, a la bicicleta. Todos han visto cómo se inclina el ciclista en la vuelta. Propongamos al ciclista describir una circunferencia de radio R con la velocidad v, o sea, moverse con una aceleración de v2/R, dirigida hacia el centro. Entonces, sobre el ciclista,

Gentileza de Manuel Mayo

66

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

además de la fuerza de gravedad, va a actuar una fuerza complementaria, la centrífuga, que lleva la dirección horizontal y que va dirigida hacia el centro de la circunferencia.

Figura 2.9 En la fig. 2.9 están representadas estas fuerzas y su suma. Claro que el ciclista tiene que estar «verticalmente», si no se caería. Pero... su vertical no coincide con la terrestre. En la figura se ve que los vectores mv2/R y mg son los catetos de un triángulo rectángulo. La razón del cateto opuesto al ángulo α, al adyacente, se llama en trigonometría tangente del ángulo a. Aquí, tg α = v2/Rg la masa se reduce según el principio de equivalencia. Por lo tanto, el ángulo de inclinación del ciclista no depende de su masa (un ciclista gordo y uno delgado tienen que inclinarse igual). La fórmula y el triángulo representado en la figura muestran la dependencia entre la inclinación y la velocidad del movimiento (crece con el aumento de ésta) y el radio de la circunferencia (crece con su disminución). Hemos aclarado que la vertical del ciclista no coincide con la vertical terrestre. ¿Qué es lo que va a sentir él? habrá que dar vuelta a la fig. 2.9. El camino se parece ahora al declive de un monte (fig. 2.10a), y queda claro para nosotros que al no haber una fuerza suficiente de rozamiento entre los neumáticos y la cubierta del Gentileza de Manuel Mayo

67

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

camino (el asfalto está mojado), el ciclista se puede resbalar y la vuelta muy cerrada puede terminarse con la caída en la cuneta.

Figura 2.10 Para que no ocurra esto, en las vueltas muy cerradas (o, como suele decirse, en los virajes) las carreteras se hacen con una inclinación, o sea, horizontal para el ciclista, tal como se representa en la fig. 2.10b. De este modo se puede rebajar mucho, e incluso anular, la tendencia a resbalar. Precisamente así se construyen las vueltas de las pistas de ciclismo y las autopistas. 11. Fuerzas centrífugas Ocupémonos ahora de los sistemas en rotación. El movimiento de este sistema se determina por el número de vueltas que efectúa por un segundo al girar alrededor del eje. Claro que hay que saber también la dirección del eje de rotación. Para comprender mejor las particularidades de la vida en dichos sistemas, consideremos «la rueda de la risa», atracción bien conocida. Su construcción es muy sencilla. Un disco plano de unos cuantos metros de diámetro gira con rapidez. Quien lo desea, se sube sobre él y prueba mantenerse. Muy pronto se dan cuenta

Gentileza de Manuel Mayo

68

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

del secreto del éxito, incluso aquellos que no saben la física: hay que colocarse en el centro del disco, puesto que cuanto más lejos del centro se esté, tanto más difícil será mantenerse. Tal disco representa un sistema no inercial con unas propiedades singulares, cada objeto sujeto al disco se mueve sobre una circunferencia de radio R a una velocidad v, o sea, con la aceleración v2/R. Como ya sabemos, desde el punto de vista de un observador no inercial, esto significa la presencia de una fuerza complementaria de gravedad mv2/R, dirigida por el radio desde el centro. En cualquier punto de esta «rueda del diablo» va a actuar esta fuerza radial de gravedad, en cualquier punto va a crear ésta una aceleración radial igual a v2/R. La magnitud de esta aceleración será igual para los puntos situados en una circunferencia. Y, ¿en diferentes circunferencias? No debemos apresurarnos en afirmar, que según la fórmula v2/R, la aceleración es tanto mayor, cuanto menor sea la distancia al centro. Esto no es cierto, pues la velocidad de los puntos de la rueda más lejanos del centro es mayor. En efecto, si se indica con la letra n el número de vueltas que efectúa la rueda por segundo, el espacio recorrido durante un segundo por un punto de la rueda, situado a la distancia R del centro, o sea, la velocidad de este punto, se puede expresar así: 2πRn. La velocidad de un punto es directamente proporcional a su distancia del centro. La fórmula de la aceleración se puede escribir ahora así: a = 4π2n2R Y, como el número de vueltas efectuadas por segundo es igual para todos los puntos de la rueda, llegamos a la siguiente conclusión: la aceleración de la fuerza «radial de gravedad» que actúa en una rueda en rotación, crece proporcionalmente a la distancia del punto del centro de la rueda. En este interesante sistema no inercial, la fuerza de gravedad es diferente en circunferencias diversas. Por consiguiente, son diferentes las direcciones de las «verticales» de los cuerpos situados a diversas distancias del centro. Claro está, que

Gentileza de Manuel Mayo

69

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

la atracción de la Tierra es la misma para todos los puntos de la rueda. Pero, el vector que caracteriza la gravedad radial complementaria, se hace más largo a medida que se aleja del centro. Por lo tanto, las diagonales de los rectángulos se desvían más y más de la vertical terrestre.

Figura 2.11 Figurándose las sensaciones consecutivas de un hombre que se desprende de «la rueda de la risa», se puede decir que, desde su punto de vista, el disco «se inclina» más y más a medida que se aleja del centro hasta que se hace imposible mantenerse en él. Para mantenerse en la rueda, conviene intentar de poner su centro de gravedad en la vertical la cual resultará más inclinada al eje de giro cuanto más alejadas de éste se encuentren las figuras de hombre mostradas en la fig. 2.11. Sin embargo, ¿se podría discurrir para este sistema inercial una construcción parecida a la carretera inclinada? Claro que se podría, pero habría que sustituir el disco por una superficie, en cada uno de los puntos de la cual la fuerza total de gravedad fuese perpendicular a ella. La forma de tal superficie se puede calcular. Esta superficie se llama paraboloide. Esta denominación no es casual: cada una de las secciones del paraboloide representa una parábola, que es la curva que describen los cuerpos al caer. El paraboloide se forma al hacer girar una parábola alrededor de su eje. Es fácil crear esta superficie haciendo girar rápidamente un vaso con agua. La superficie del líquido en rotación representa un paraboloide. Las partículas de agua Gentileza de Manuel Mayo

70

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

acabarán de desplazarse precisamente cuando la fuerza que empuja a cada partícula hacia la superficie sea perpendicular a ésta. A cada velocidad de rotación corresponde su paraboloide (fig. 2.12).

Figura 2.12 Preparando un paraboloide sólido, se pueden mostrar sus propiedades con toda evidencia. Una bolita pequeña, colocada en cualquier punto de un paraboloide, que gira con una velocidad determinada, se mantiene en reposo. Esto significa que la fuerza que actúa sobro ella es perpendicular a la superficie. Mejor dicho, la superficie del paraboloide en rotación posee unas propiedades semejantes a una superficie horizontal. Se puede andar por esta superficie como por la tierra, sintiéndose, además, firme por completo. Sin embargo, la dirección de la vertical varía al andar. Los efectos centrífugos se emplean a menudo en la técnica. Por ejemplo, la construcción de una centrífuga se basa en la aplicación de estos efectos. La centrífuga consta de un tambor que gira rápidamente alrededor de su eje. ¿Qué ocurriría si sobre este tambor, lleno de agua hasta los bordes, se lanzasen diversos objetos? Echemos en el agua una bolita metálica: ésta irá al fondo, pero no por nuestra vertical, sino que, alejándose todo el tiempo del eje de rotación, se parará al lado de la pared. Echemos ahora en el tambor una bolita de corcho: ésta, por el contrario, se pondrá inmediatamente en movimiento, en dirección del eje de rotación y se situará en éste. Gentileza de Manuel Mayo

71

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Si el tambor de este modelo de centrífuga es de gran diámetro, se puede observar que la aceleración aumenta rápidamente a medida que se aleja del centro. Los fenómenos que ocurren son comprensibles. Dentro de la centrifuga, existe una gravedad radial complementaria. Si la centrífuga gira con bastante rapidez, su «abajo» estará en la pared del tambor. La bolita metálica «se sumerge» en el agua, mientras que la de corcho «flota». Cuanto más lejos esté del eje de rotación, tanto más «pesado» se hará el cuerpo que «cae» al agua. En las centrífugas suficientemente perfectas, la velocidad de rotación alcanza hasta 60 000 vueltas por minuto, o sea, 103 vueltas por segundo. A la distancia de 10 cm del

eje

de

rotación,

la

aceleración

de

la

fuerza

de

gravedad

radial

es,

aproximadamente, igual a 40 x 106 x 0,1 = 4 x 106 m/s2 o sea, es 400 000 veces mayor que la aceleración terrestre. Claro que, para tales máquinas, se puede despreciar la gravedad terrestre; verdaderamente, tenemos derecho de suponer que el «abajo» de la centrífuga está en las paredes del tambor. De lo expuesto, queda claro cuáles son los campos de aplicación de las centrífugas. Si, en una mezcla, quisiéramos separar las partículas pesadas de las ligeras, sería conveniente utilizar la centrífuga. Todos conocen la expresión: «el líquido turbio se ha aclarado». Si el agua sucia se mantiene quieta durante mucho tiempo, la suciedad (que, generalmente, suele ser más pesada que el agua) se depositará en el fondo. Sin embargo, este proceso de sedimentación puede durar meses enteros, pero, con ayuda de una buena centrífuga, se puede limpiar el agua inmediatamente. Las centrífugas que giran con velocidades de decenas de miles de vueltas por minuto son capaces de separar la suciedad más fina, no sólo del agua, sino también de los líquidos viscosos. Las centrífugas se emplean en la industria química para separar los cristales de la disolución en que crecieron para la deshidratación de las sales, para limpiar los barnices; en la industria de productos alimenticios, para separar la melaza del azúcar molida.

Gentileza de Manuel Mayo

72

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Se llaman separadores las centrífugas que se emplean para la separación de sólidos o líquidos mezclados con grandes cantidades de líquido. Su principal aplicación es la elaboración de la leche. Los separadores de leche giran con una velocidad de 2 a 6 mil vueltas por minuto; el diámetro del tambor llega a ser hasta de 5 m.

Figura 2.13 En la metalurgia se emplea en gran escala la fundición centrifugada. Ya a velocidades de 300 a 500 vueltas por minuto, el metal líquido, que entra en la centrífuga en rotación, se une a las paredes exteriores de la centrífuga con una fuerza considerable. Así se funden los tubos metálicos que, además, resultan más compactos, más homogéneos, sin oquedades y sin grietas. He aquí otro empleo de la fuerza centrífuga. En la fig. 2.13 está representado un mecanismo simple que sirve para regular el número de vueltas de las piezas en revolución de una máquina. Este mecanismo se llama regulador centrífugo. Al aumentar la velocidad de rotación, crece la fuerza centrífuga, las bolitas del regulador se van alejando del eje. Las varillas unidas con las bolitas se desvían y, cuando llegan a tomar una desviación determinada, calculada por el ingeniero, pueden desconectar algunos contactos eléctricos; en la máquina de vapor, por ejemplo, pueden abrir las válvulas que sueltan el vapor sobrante. Con esto, disminuye la velocidad de rotación y las varillas vuelven a su posición normal. Gentileza de Manuel Mayo

73

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Es interesante el experimento siguiente. Coloquemos un disco de cartón en el eje de un motor eléctrico. Una vez puesto en marcha el motor, acerquemos un trozo de madera al disco rotatorio. Un taco de madera, de un espesor considerable, se puede serrar por la mitad tan fácilmente como con una sierra de acero. La prueba de serrar la madera con un cartón, actuando como con una sierra de mano, puede producir asombro. ¿Por qué corta la madera el cartón en rotación? Sobre las partículas del cartón, situadas sobre una circunferencia, actúa una fuerza centrífuga grandísima. Las fuerzas laterales que podrían deformar el plano del cartón son insignificantes con relación a la fuerza centrífuga. El disco de cartón, conservando inalterable su plano, obtiene la posibilidad de introducirse en la madera. La fuerza centrífuga que se crea gracias a la rotación de la Tierra, conduce, como ya se dijo anteriormente, a la diferencia en el peso de los cuerpos en latitudes diversas. Un cuerpo pesa menos en el ecuador que en el polo por dos causas. Los cuerpos situados en la superficie de la Tierra están a diversas distancias del eje terrestre en dependencia de la latitud del lugar. Claro está que esta distancia crece al pasar del polo al ecuador. Además, en el polo, el cuerpo está en el eje de rotación, y la aceleración centrífuga a = 4π2n2R, es igual a cero (la distancia hasta el eje de rotación es R = 0). En el ecuador, por el contrario, esta aceleración es máxima. La fuerza centrífuga disminuye la fuerza de atracción. Por eso, en el ecuador, la presión de un cuerpo sobre un soporte (el peso del cuerpo) es mínima. Si la Tierra tuviese la forma exacta de una esfera, la pesa de un kilogramo, al ser trasladada del polo al ecuador, perdería en su peso 3,5 gramos. Este número se halla fácilmente sustituyendo en la fórmula a = 4π2n2R n = 1 vuelta por día, R = 6300 km y m = 1000 g. No hay que olvidarse de reducir las unidades de medidas a segundos y centímetros.

Gentileza de Manuel Mayo

74

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Sin embargo, en la realidad, la pesa de un kilogramo pierde en peso 5,3 gramos, en vez de 3.5 gramos. Esto es debido a que la Tierra representa una esfera achatada, que en geometría se llama elipsoide. La distancia desde el polo hasta el centro de la Tierra es menor que el radio terrestre que va dirigido hacia el ecuador, aproximadamente, en 1/300 del radio. La causa de este aplastamiento de la esfera terrestre es la misma fuerza centrifuga, pues ésta actúa sobre todas las partículas de la Tierra. En tiempos muy remotos, la fuerza centrífuga «formó», nuestro planeta, le dio la forma achatada. 12. La fuerza de Coriolis La particularidad del mundo de los sistemas rotatorios no acaba con la existencia de las fuerzas de gravedad radiales. Estudiemos otro efecto interesante, cuya teoría se expuso en el año 1835 por el francés Coriolis. Hagámonos la pregunta siguiente: ¿qué aspecto tiene el movimiento rectilíneo desde el punto de vista de un laboratorio en rotación? Un plano de tal laboratorio está representado en la fig. 2.14. La trayectoria rectilínea de un cuerpo está marcada con una raya que pasa por el centro. Examinemos el caso, cuando el trayecto del cuerpo pasa por el centro de rotación de nuestro laboratorio. El disco, sobre el que está situado el laboratorio, gira uniformemente; en la figura están representadas cinco posiciones del laboratorio respecto a la trayectoria rectilínea. Este es el aspecto de la posición relativa del laboratorio y de la trayectoria después de uno, dos, tres, etc., segundos. Como vemos, si se mira desde arriba, el laboratorio gira en dirección contraria a las agujas de un reloj. En la línea del trayecto se han marcado flechas, correspondientes a los segmentos que recorre el cuerpo por uno, dos, tres y etc. segundos. En cada segundo, el cuerpo recorre un trayecto igual, puesto que se trata de un movimiento uniforme y rectilíneo (desde el punto de vista de un observador inmóvil). Figúrense que el cuerpo móvil es una bola recién pintada y que rueda sobre un disco. ¿Qué huellas se marcarán en el disco? Nuestra construcción da la respuesta a

Gentileza de Manuel Mayo

75

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

esta pregunta. Los puntos que marcan los extremos de las flechas, se han trasladado de los cinco dibujos a una figura.

Figura 2.14 No queda más que unir estos puntos con una línea suave. El resultado de la construcción no nos sorprende, pues, desde el punto de vista de un observador en rotación, el movimiento uniformo y rectilíneo parece curvilíneo. Se observa la regla siguiente: durante todo el recorrido: el cuerpo en movimiento se desvía hacia la derecha de su trayecto. Supongamos que el disco gira en dirección de las agujas de un reloj, y propongamos al lector repetir la construcción. Esta mostrará que, en este caso, desde el punto de vista de un observador en rotación, el cuerpo móvil se desvía hacia la izquierda de su trayecto. Ya sabernos que en los sistemas giratorios aparece una fuerza centrífuga. Sin embargo, no puede ser su actuación la causa de la torsión del trayecto, puesto que su dirección es a lo largo del radio. Por consiguiente, en los sistemas de revolución, además de la fuerza centrífuga, aparece también una fuerza complementaria. Esta se llama fuerza de Coriolis. ¿Por qué no nos encontrábamos en los ejemplos anteriores con la fuerza de Coriolis y nos arreglábamos perfectamente con la centrífuga sola? La razón consiste en que, hasta ahora, analizábamos el movimiento desde el punto de vista del observador rotatorio, pues, la fuerza de Coriolis sólo aparece en este caso. Sobre los cuerpos que se encuentran en un sistema de revolución, actúa solamente la fuerza centrífuga. Si la mesa de un laboratorio en rotación está clavada al suelo sobre ella Gentileza de Manuel Mayo

76

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

sólo actúa la fuerza centrífuga. Mientras que sobre la pelotita que ha caído de la mesa y que rueda por el suelo del laboratorio en rotación, además de la fuerza centrífuga, actúa también la fuerza de Coriolis. ¿De qué magnitudes depende el valor de la fuerza de Coriolis? Esto se puede calcular, pero los cálculos son demasiado complicados para exponerlos aquí. Por eso, describiremos solamente el resultado de los cálculos. A diferencia de la fuerza centrífuga, cuyo valor depende de la distancia hasta el eje de rotación, la fuerza de Coriolis no depende de la posición del cuerpo. Su magnitud se determina por la velocidad del movimiento del cuerpo, y, además, no sólo por la magnitud de la velocidad, sino también por su dirección con relación al eje de rotación. Si el cuerpo se mueve a lo largo del eje de rotación, la fuerza de Coriolis es igual a cero. Cuanto mayor sea el ángulo formado por el vector de la velocidad y el eje de rotación, tanto mayor será la fuerza de Coriolis; ésta alcanza el valor máximo cuando el movimiento del cuerpo forma un ángulo recto con el eje. Como ya sabemos, siempre se puede descomponer el vector de la velocidad en dos componentes y estudiar por separado los dos movimientos en que participa simultáneamente el cuerpo. Si se descompone la velocidad del cuerpo en las componentes vll y vL., la primera de las cuales es paralela al eje de rotación, y la segunda, perpendicular a él, el primer movimiento no estará animado por la acción de la fuerza de Coriolis. El valor de la fuerza de Coriolis Fc se determina por la componente vL de la velocidad. Los cálculos proporcionen la fórmula: Fc = 4πnvLm. Aquí, m es la masa del cuerpo y n es el número de vueltas que efectúa el sistema giratorio durante una unidad de tiempo. Como se ve en la fórmula, la fuerza de Coriolis será tanto mayor, cuanto más ligera sea la rotación del sistema y cuanto más rápido sea el movimiento del cuerpo. Los cálculos determinan también la dirección de la fuerza de Coriolis. Esta fuerza siempre es perpendicular al eje de rotación y a la dirección del movimiento. Además, como ya se advirtió anteriormente, la fuerza está orientada hacia la

Gentileza de Manuel Mayo

77

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

derecha del movimiento en el sistema que gira en sentido contrario de las agujas de un reloj. Muchos fenómenos que ocurren en la Tierra tienen su explicación en la acción de la fuerza de Coriolis. La Tierra es una esfera y no un disco; por eso, las manifestaciones de las fuerzas de Coriolis son más complicadas. Estas fuerzas se revelan en el movimiento a lo largo de la superficie terrestre, así como en la caída de los cuerpos a la Tierra. ¿Es exactamente vertical la caída de un cuerpo? No del todo. Solamente en el polo es exactamente vertical la caída de un cuerpo. La dirección del movimiento coincide, en este caso, con el eje de rotación de la Tierra, por eso no aparece la fuerza de Coriolis. Otra cosa es en el ecuador; aquí la dirección del movimiento forma un ángulo recto con el eje terrestre. Mirando desde el polo norte, vemos la rotación de la Tierra en dirección contraria a la de las agujas de un reloj. Por lo tanto, un cuerpo que cae libremente tiene que desviarse hacia la derecha del movimiento, o sea, hacia el este. La magnitud de la desviación oriental es máxima en el ecuador y, al aproximarse hacia los polos, va disminuyendo hasta cero. Calculemos la magnitud de la desviación en el ecuador. Como el movimiento del cuerpo que cae libremente es uniformemente acelerado, la fuerza de Coriolis crece a medida que se acerca a la Tierra. Por eso, nos limitaremos a hacer un cálculo aproximado. Si, por ejemplo, el cuerpo cae de una altura de 80 m, la caída se prolongará cerca de 4 s (según la fórmula l = √(2h/g)) . La velocidad media de la caída será igual a 20 m/s. En la fórmula de la aceleración de Coriolis, 4πnv, ponemos este valor de la velocidad. Después, reducimos a las revoluciones por segundo rps el valor de n = 1 vuelta en 24 horas. Como 24 horas equivale a 24.3600 segundos, se tiene que n es igual a 1/86.400, reducimos a las revoluciones rps y, por consiguiente, la aceleración creada por la fuerza de Coriolis es igual a π/1080 m/s2. El camino recorrido con esta aceleración durante 4 s es igual (1/2) x (π/1080) x 42 = 2,3 cm.

Gentileza de Manuel Mayo

78

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Esta es la magnitud de la desviación oriental en nuestro ejemplo. Si se tiene en cuenta que la caída no es uniforme, el cálculo exacto proporciona otro resultado: una cifra próxima, pero otra. Si en la caída libre, la desviación del cuerpo es máxima en el ecuador y es igual a cero en los polos, para el caso del movimiento sobre un plano horizontal, se observa un cuadro inverso en la desviación del cuerpo, debido a la acción de la fuerza de Coriolis. Una pista horizontal en el polo norte o en el polo sur, no se diferencia nada del disco en rotación que consideramos al comenzar el estudio de la fuerza de Coriolis. Un cuerpo que se mueve por tal pista, se desviará hacia la derecha del movimiento en el polo norte, y hacia la izquierda en el polo sur, a causa de la fuerza de Coriolis. El lector puede calcular sin dificultad, valiéndose de la misma fórmula de la aceleración de Coriolis, que una bala que se ha disparado de un fusil con una velocidad inicial de 500 m/s, se desvía en el plano horizontal, durante un segundo (o sea, en el trayecto de 500 m), en un segmento de: 3,5 cm. Pero ¿por qué la desviación en el plano horizontal, en el ecuador, tiene que ser igual a cero? Claro que, sin demostraciones rigurosas se comprende que así tiene que ser. El cuerpo se desvía en el polo norte hacia la derecha del movimiento, en el polo sur, hacia la izquierda; por consiguiente, en el medio entre los polos, es decir, en el ecuador, la desviación será igual a cero. Recordemos el experimento con el péndulo de Foucault. Oscilando en el polo, el péndulo conserva el plano de sus ondulaciones. La Tierra, girando, se escapa del péndulo. Tal es lo explicación de un observador estelar sobre el experimento de Foucault. Pero, el observador que gira junto con el globo terrestre explicará este experimento atribuyéndolo a la fuerza de Coriolis. En efecto, la fuerza de Coriolis es perpendicular al eje terrestre y a la dirección del movimiento del péndulo; mejor dicho, la fuerza es perpendicular al plano de oscilación del péndulo y hace girar continuamente este plano. Se puede hacer de manera que el extremo del péndulo trace la trayectoria del movimiento. La trayectoria representa una «rosa», indicada en la fig. 2.15.

Gentileza de Manuel Mayo

79

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 2.15 En esto dibujo, durante medio período de oscilación del péndulo, la «Tierra» gira un cuarto de vuelta. El péndulo de Foucault gira con mucha más lentitud. En el polo, el plano de oscilación del péndulo girará 1/4 de grado durante un minuto. En el polo norte, el plano gira hacia la derecha del movimiento, en el sur, hacia la izquierda. En las latitudes de Europa central, el efecto de Coriolis es un poco menor que en el ecuador. En el ejemplo que acabamos de examinar, una bala se desvía, no en 3,5 cm.

sino

en

2,5

cm.

El

péndulo

de

Foucault,

durante

un

minuto,

gira,

aproximadamente 1/6 de grado. ¿Tienen que tener en cuenta los artilleros la fuerza de Coriolis? El cañón Berta, con el que los alemanes disparaban a París durante la primera guerra mundial, estaba situado a 110 km del objetivo. La desviación de Coriolis alcanzaba hasta 1600 m. Esta ya no es una magnitud pequeña. Si un proyectil se lanza a gran distancia sin tener en cuenta la fuerza de Coriolis, éste se desviará considerablemente de su curso. Este efecto es grande, no porque la fuerza sea grande, (para un proyectil de 10 t, que lleva la velocidad de 1000 km/s, la fuerza de Coriolis es de cerca de 25 kgf), sino porque la fuerza actúa constantemente durante largo tiempo.

Gentileza de Manuel Mayo

80

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figuras 2.16 y 2.17 Claro que la influencia del viento sobre un proyectil no guiado, puede ser no menos considerable. La corrección del rumbo hecha por el piloto se debe a la acción del viento, al efecto de Coriolis y a los defectos del avión. ¿Qué especialistas tienen que tener en cuenta el efecto de Coriolis, además de los aviadores y de los artilleros? Entre ellos forman parte los ferroviarios, aunque esto parezca extraño. En la vía férrea, a causa de la acción de la fuerza de Coriolis, un raíl se gasta por la parte interior bastante más que otro. Para nosotros está claro cuál de los dos: el raíl derecho (respecto al movimiento), en el hemisferio norte: el raíl izquierdo, en el hemisferio sur. Los ferroviarios de los países ecuatoriales no tienen preocupación alguna de esto. El derrubio de la orilla derecha de los ríos en el hemisferio norte se explica del mismo modo que el desgaste de los raíles. En gran parte, la desviación del cauce se debe a la acción de la fuerza de Coriolis. Resulta que los ríos del hemisferio norte rehúyen los obstáculos por la parte derecha. Es sabido que las corrientes de aire se dirigen a la zona de baja presión. Pero. ¿por qué tal viento se llama ciclón? La raíz de esta palabra indica un movimiento circular (cíclico). Precisamente, así es: en la zona de baja presión se crea un movimiento circular de las masas de aire (fig. 2.16). La causa estriba en la acción de la fuerza de Coriolis. En el hemisferio norte, todas las corrientes de aire que tienden a las zonas de baja presión se desvían hacia la derecha de su movimiento. Véase la fig. 2.17; en ella se ve que esto conduce a la desviación hacia el oeste de los vientos (alisios) que soplan en los dos hemisferios, de los trópicos hacia el ecuador.

Gentileza de Manuel Mayo

81

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Por qué una fuerza tan pequeña juega un papel tan grande en el movimiento de las masas de aire? La explicación está en que las fuerzas de rozamiento son insignificantes. El aire se mueve con facilidad, y una fuerza, aunque sea pequeña, actuando constantemente, conduce a serios efectos.

Gentileza de Manuel Mayo

82

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 3 Leyes de conservación Contenido: 1.

Retroceso

2.

Ley de conservación del impulso

3.

Movimiento de propulsión a chorro

4.

Movimiento propulsado por la fuerza de gravedad

5.

Ley de conservación de la energía

6.

Trabajo

7.

¿En qué unidades se miden el trabajo y la energía?

8.

Potencia y rendimiento de las máquinas

9.

Disminución de la energía

10.

Perpetuum mobile

11.

Choques

1. Retroceso Incluso quien no estuvo en la guerra sabe que, al disparar, el cañón bruscamente desplaza hacia atrás. Al disparar con un fusil, éste retrocede sobre el hombro. Pero, sin recurrir a las armas de fuego, también se puede observar el efecto del retroceso. Echen agua en una probeta, ciérrenla con un corcho y cuélguenla sobre dos hilos en posición horizontal (fig. 3.1). Acerquen ahora un mechero al cristal: el agua comenzará a hervir y dentro de unos dos minutos el corcho volará con estrépito hacia un lado, la probeta se desplazará en dirección contraria. La fuerza que expulsó el corcho de la probeta, es la presión del vapor. La fuerza que desplazó la probeta, también es la presión del vapor. Ambos movimientos se crearon gracias a la acción de una misma fuerza. Lo mismo ocurre con el disparo, sólo que aquí actúa no el vapor, sino los gases de la pólvora.

Gentileza de Manuel Mayo

83

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El fenómeno del retroceso necesariamente se deduce de la regla de igualdad de la acción y reacción. Si el vapor actúa sobre el corcho, el corcho actúa sobre el vapor en dirección contraria y el vapor transmite esta reacción a la probeta.

Figura 3.1 Pero, puede ser que nos venga a la cabeza una objeción: ¿es que puede una misma fuerza conducir a tan diversas consecuencias? El fusil sólo desplaza un poco hacia atrás, mientras que la bala vuela lejos. Sin embargo, creemos que al lector no se le ocurrirá

hacer

tal

objeción.

Claro

que

fuerzas

iguales

pueden

conducir

a

consecuencias diversa: pues, la aceleración que obtiene el cuerpo (esto es consecuencia de la acción de la fuerza) es inversamente proporcional a la masa de este cuerpo. La aceleración de uno de estos cuerpos (el proyectil, la bala, el corcho) la tenemos que escribir de la ferina a1 = F/m1; la aceleración del cuerpo que experimenta el retroceso (el cañón, el fusil, la probeta) será a2 = F/m2. Como la fuerza es una misma, llegamos a la siguiente conclusión: las aceleraciones obtenidas durante la acción mutua de dos cuerpos que toman parte en el «disparo», son inversamente proporcionales a sus masas: a1 / a2 = m2/m1 Esto significa que la aceleración que obtiene el cañón al retroceder, es tantas veces menor que la aceleración del proyectil, cuantas veces pesa más el cañón que el proyectil.

Gentileza de Manuel Mayo

84

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La aceleración de la bala, y también del fusil, durante el retroceso, continúa mientras la bala se mueve por el cañón del fusil. Indiquemos este tiempo con la letra t. Dentro de este intervalo de tiempo, el movimiento acelerado se transforma en uniforme. Para mayor facilidad supondremos que la aceleración no se varía. Entonces, la velocidad con que sale la bala del cañón del fusil es: v1 = a1t, y la velocidad de retroceso, v2 = a2t. Como el tiempo de la acción de aceleración es el mismo, se tiene: v1 / v2 = a1/a2 por consiguiente, v1 / v2 = m2/m1 Las velocidades con que se separan los cuerpos después de su acción mutua, son inversamente proporcionales a sus masas. Si recordamos el carácter vectorial de la velocidad, podemos escribir la última relación así: m1v1 = —m2v2; el signo menos señala que las velocidades v1 y v2 tienen direcciones opuestas. Finalmente, escribamos de nuevo la igualdad; traslademos a un miembro de la igualdad los productos de las masas por las velocidades: m1v1 + m2v2 = 0 2. Ley de conservación del impulso El producto de la masa de un cuerpo por su velocidad se llama impulso (otra denominación es, cantidad de movimiento). Como la velocidad es un vector, el impulso es una cantidad vectorial. Sin duda, la dirección del impulso coincide con la dirección de la velocidad del cuerpo. Mediante esto nuevo concepto, la ley de Newton F = ma, se puede expresar de otro modo. Como

Gentileza de Manuel Mayo

85

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

a = (v2 – v1)/t se tiene, F = (mv2 —mv1)/t O sea, Ft = mv2 —mv1 El producto de la fuerza por el tiempo de su acción es igual a la variación del impulso del cuerpo. Volvamos al fenómeno de retroceso. El resultado de la consideración del retroceso del cañón, se puede ahora formular más abreviadamente: la suma de los impulsos del cañón y del proyectil después del disparo, se mantiene igual a cero. Es evidente que igual a cero era también antes del disparo, cuando el cañón y el proyectil estaban en estado de reposo. Las velocidades que toman parte en la ecuación m1v1 + m2v2 = 0 son las velocidades inmediatas después del disparo. Durante el movimiento ulterior del proyectil y del cañón, comienzan a actuar sobre éstos la fuerza de gravedad, la resistencia del aire, y sobre el cañón, además, la fuerza de rozamiento sobre la tierra. Si el disparo se produjese en el vacío, con un cañón suspenso en el espacio, entonces, el movimiento con las velocidades v1 y v2 se prolongaría tanto cuanto se desease. El cañón se movería hacía un lado y el proyectil hacia el lado opuesto. Actualmente, en la artillería se utilizan, en gran escala, cañones situados en plataformas, que disparan en marcha. ¿Cómo hay que cambiar la ecuación deducida, para que se pueda emplear para el disparo de uno de estos cañones? Podemos escribir: m1u1 + m2u2 = 0,

Gentileza de Manuel Mayo

86

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

en donde u1 y u2 son las velocidades del proyectil y del cañón con respecto a la plataforma en movimiento. Si la velocidad de la plataforma es V, las velocidades del cañón y del proyectil, con respecto al observador en reposo, serán: v1 = u1 + V, y v2 = u2 + V Sustituyendo los valores u1 y u2 en la última ecuación, obtenemos: (m1 + m2) V = m1v1 + m2v2 En el segundo miembro de esta igualdad figura la suma de los impulsos del proyectil y del cañón después del disparo. ¿Y, en el primer miembro? El cañón y el proyectil, que tienen una masa total de m1 + m2, se movían antes de disparar con una velocidad igual a V. Por consiguiente, en el primer miembro de la igualdad figura el impulso total del proyectil y del cañón, pero, antes del disparo. Hemos demostrado una ley muy importante de la naturaleza, llamada ley de conservación del impulso. Hemos demostrado esta ley para dos cuerpos, pero es fácil demostrar que este resultado subsiste también para un número cualquiera de cuerpos. ¿Cuál es el contenido de esta ley? Según ésta, la suma de los impulsos de unos cuantos cuerpos que se encuentran en acción mutua, no se altera como resultado de esta acción. Está claro, que la ley de conservación del impulso será válida solamente cuando sobre el grupo de cuerpos considerados no actúan fuerzas exteriores. En física, tal grupo de cuerpos se llama cerrado. Durante el disparo, el fusil y la bala se comportan como un grupo cerrado de dos cuerpos, a pesar de que sufren la acción de la fuerza de atracción terrestre. El peso de la bala es pequeño con respecto a la fuerza de los gases de la pólvora, y el efecto de repercusión ocurrirá según las mismas leyes, independientemente de donde se efectúe el disparo, en la Tierra o en un cohete que vuele por el espacio interplanetario. La ley de conservación del impulso permite resolver con facilidad diversos problemas relacionados con el choque de los cuerpos. Probemos golpear con una

Gentileza de Manuel Mayo

87

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

bolita de barro a otra; éstas se pegan y continúan el movimiento juntas. Si se dispara con un fusil sobre una bola de madera, ésta echa a rodar junto con la bala que se quedó introducida en ella Una vagoneta quieta se pone en movimiento si un hombre salta corriendo sobre ella. Desde el punto de vista de la física, todos los ejemplos expuestos son muy parecidos. La regla que liga las velocidades de los cuerpos en los choques de este tipo, se obtiene inmediatamente de la ley de conservación del impulso.

Figura 3.2 Los impulsos de los cuerpos antes del encuentro eran m1v1 y m2v2; después del choque los cuerpos se unieron y su masa total se hizo igual a m1 + m2 Designando con V la velocidad de los cuerpos unidos, se tiene m1v1 + m2v2 = (m1 + m2) V de donde V = (m1v1 + m2v2) / (m1 + m2) Recordemos el carácter vectorial de la ley de conservación del impulso. Los impulsos mv que figuran en el numerador de la fórmula, se deben sumar como vectores.

Gentileza de Manuel Mayo

88

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El choque «conjunto» al encontrarse los cuerpos que se mueven formando un ángulo entre sí, se muestra en la fig. 3.2. Para hallar la magnitud de la velocidad, hay que dividir la longitud de la diagonal del paralelogramo construido sobre los vectores de los impulsos de los cuerpos que chocan, por la suma de sus masas. 3. Movimiento de propulsión a chorro El hombre se mueve empujándose de en tierra; la lancha navega porque los remeros se empujan del agua con los remos; la motonave también se empuja del agua, pero no con los remos, sino con la hélice. También se empuja de la tierra el tren que va por los raíles y el automóvil; recuerden lo difícil que lo es arrancar a un automóvil sobre el hielo. Así pues, parece como si el empuje sobre el apoyo fuese la condición necesaria para el movimiento; hasta el avión se mueve empujándose del aire con la hélice. Sin embargo, ¿es esto así? ¿Es que no existe algún artificio para poder moverse sin empujarse de nada? Si andamos en patines podemos convencernos nosotros mismos que tal movimiento es posible. Cojamos un palo pesado y parémonos sobre el hielo. Tiremos el palo hacia adelante: ¿qué ocurrirá? Pues, que patinaremos hacia atrás, a pesar de que no pensábamos empujarse del hielo con el pie. El efecto de retroceso que acabamos de estudiar nos proporciona una llave para la realización del movimiento sin apoyo, del movimiento sin empuje. El retroceso ofrece la posibilidad de acelerar el movimiento en el vacío, en donde no hay absolutamente nada del que puede empujarse. El retroceso producido por un chorro de vapor expulsado de un recipiente (reacción del churro), se utilizaba ya en la antigüedad para confeccionar juguetes curiosos. En la fig. 3.3 está representada una turbina de vapor antigua, inventada en el segundo siglo, antes de nuestra era. La caldera esférica se apoyaba en un eje vertical. El vapor, saliendo de la caldera por los tubos acodados, empujaba a estos tubos en dirección contraria y la esfera giraba. En nuestros tiempos, la utilización del movimiento de reacción no se limita ya a crear juguetes o a recopilar observaciones interesantes, ha ido ya mucho más lejos A veces, llaman el siglo veinte, siglo de la energía atómica, pero, no con menos razón, se le puede llamar siglo del movimiento de propulsión a chorro (o de

Gentileza de Manuel Mayo

89

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

reacción), puesto que es difícil sobreestimar los grandes alcances a que conducirá el empleo de potentes motores a reacción. Esto, no sólo es una revolución en la construcción de aviones, es el comienzo de la vinculación del hombre con el Universo.

Figura 3.3 El principio del movimiento de propulsión a chorro (o de reacción) ha permitido crear aviones que se mueven con velocidades de unos cuantos miles de kilómetros por hora, proyectiles a reacción que se levantan a la altura de cientos de kilómetros sobre la Tierra, satélites artificiales de la Tierra y cohetes cósmicos que efectúan viajes interplanetarios. El motor a reacción es una máquina de la que, con gran fuerza, se despiden los gases que se originan al quemarse el combustible. El cohete se mueve en dirección contraria a la del flujo del gas. ¿A qué es igual el empuje del chorro que lleva el cohete al espacio? Sabemos que la fuerza es igual a la variación del impulso en una unidad de tiempo. Según la ley de conservación, el impulso del cohete varía en la magnitud del impulso mv del gas despedido.

Gentileza de Manuel Mayo

90

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Esta ley de la naturaleza da la posibilidad de calcular, por ejemplo, la relación entre el empuje a reacción y el gasto necesario de combustible. Además, hay que determinar la magnitud de la velocidad de salida de los productos de combustión. Si, por ejemplo, cada segundo se despiden 10 toneladas de gas a la velocidad de 2000 m/s, el empuje a reacción será igual, aproximadamente, a 2 x 1012 dinas, o sea, en cifras redondas, a 2000 toneladas. Determinemos la variación de la velocidad en un cohete que se mueve por el espacio interplanetario. El impulso de la masa de gas ∆M, despedida con la velocidad u. es igual a u x ∆M. Con esto, el impulso del cohete de masa M crece en la magnitud M x ∆V. Según la ley de conservación, estas dos magnitudes son iguales entre sí: u x ∆M – M x ∆V o sea, ∆V = u (∆M/M) Sin embargo, si quisiéramos calcular la velocidad del cohete al despedir masas comparables con la masa del cohete, la fórmula deducida resultaría errónea. Es que, en ella, se supone que la masa del cohete es constante. No obstante, se mantiene inalterable el siguiente resultado importante: siendo iguales las variaciones relativas de la masa, la velocidad aumenta en una misma magnitud. El lector que conoce el cálculo integral, obtiene inmediatamente una fórmula exacta de siguiente forma: V = u ln (Mini/M) = 2,4 u lg (Mini/M) Aplicando la regla de cálculo podemos determinar que, al disminuir la masa del cohete en dos veces, la velocidad alcanza 0,7u. Para que la velocidad del cohete llegue a 3u, hay que quemar una masa de substancia igual a m = (19/20) M.

Gentileza de Manuel Mayo

91

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Esto significa que, si queremos que la velocidad llegue a 3u, o sea, a 6 a 8 km/s, tenernos que conservar solamente 1/20 parte de la masa del cohete. Para alcanzar la velocidad de 7u, la masa del cohete, durante el aceleramiento, tiene que disminuir en 1000 veces. Estos cálculos muestran que no hay que apresurarse en aumentar la masa de combustible que se pueda llevar en el cohete. Cuanto más combustible se lleve, tanto más habrá que quemar. Con la velocidad dada de expulsión de los gases, es muy difícil conseguir un aumento de la velocidad del cohete. Lo principal, para conseguir velocidades grandes de los cohetes, es el aumento de la velocidad de expulsión de los gases. En lo que a esto se refiere, en los cohetes tiene que jugar un papel decisivo el empleo de los motores que trabajan con un combustible nuevo, llamado nuclear. Empleando cohetes de etapas múltiples se obtienen ventajas en la velocidad, sin tener necesidad de aumentar la velocidad de despedida de los gases y consumiendo la misma masa de combustible. En el cohete de una etapa, la masa de combustible disminuye y los depósitos vacíos continúan en movimiento con el cohete. Para el aceleramiento de la masa de los depósitos inútiles de combustible se necesita una energía complementaria. Una vez consumido el combustible, es conveniente desprenderse de los depósitos. En los cohetes múltiples modernos, no sólo se abandonan los depósitos y las tuberías, sino también los motores de los cohetes usados. Naturalmente que mejor sería despedir continuamente la masa innecesaria del cohete. Por ahora, no existe tal construcción. El peso inicial de un cohete de tres etapas, de una «altitud» igual a la de un cohete de una etapa, se puede hacer 6 veces menor. En este sentido el cohete «continuo» es más ventajoso en un 15%. 4. Movimiento propulsado por la fuerza de gravedad Hagamos rodar una carretilla no muy grande por dos planos inclinados bien pulidos. Tomando una tabla mucho más corta que la otra, las colocamos sobre un mismo apoyo. Entonces, uno de los planos inclinados estará más empinado, el otro tendrá un pequeño declive. Las partes superiores de ambas tablas, que son los puntos de partida de la carretilla, estarán a la misma altura. ¿Qué les parece Vds., por qué

Gentileza de Manuel Mayo

92

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

plano obtendrá la carretilla mayor velocidad al rodar? Muchos creerán que por el plano más inclinado. El experimento mostrará que éstos se equivocan, pues la carretilla alcanzará una velocidad igual. Mientras el cuerpo se mueve por el plano inclinado, sobre él actúa una fuerza constante, precisamente, la componente de la fuerza de gravedad que está dirigida a lo largo del movimiento (fig. 3.4.). La velocidad v que alcanza un cuerpo en el trayecto S, al moverse con la aceleración a, es, como sabemos, igual a v = √(2aS). ¿De dónde se ve que esta magnitud no depende del ángulo de inclinación del plano?

Figura 3.4 En la fig. 3.4 se ven dos triángulos. Uno de ellos representa un plano inclinado. El cateto pequeño de este triángulo, designado con la letra h, es la altura desde la que comienza el movimiento; la hipotenusa S, es el camino recorrido por el cuerpo en el movimiento acelerado. El triángulo pequeño de las fuerzas, con el cateto ma y con la hipotenusa mg, es semejante al mayor, puesto que son rectángulos y sus ángulos son iguales, como ángulos cuyos lados son perpendiculares entre sí. Por Gentileza de Manuel Mayo

93

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

consiguiente, la razón de los catetos tiene que ser igual a la razón de las hipotenusas, o sea, h/ma = S/mg o sea aS = gh Hemos demostrado que el producto aS y, por lo tanto, la velocidad final del cuerpo que ha rodado por el plano inclinado, no depende del ángulo de inclinación, sino que depende solamente de la altura de la que comenzó el movimiento hacia abajo. La velocidad v = √(2gh) es la misma para todos los planos inclinados, con la única condición de que el movimiento comience desde una misma altura h. Esta velocidad resulta sor igual a la velocidad de la calda libre desde la altura h. Midamos la velocidad del cuerpo en dos lugares del plano inclinado, en las alturas h1 y h2. Indiquemos con v1 la velocidad del cuerpo en el instante en que pasa por el primer punto y, con v2, la velocidad en el instante en que pasa por el segundo punto. Si h es la altura desde la que comienza el movimiento, el cuadrado de la velocidad del cuerpo en el primer punto es v12 = 2g (h – h1) y, en el segundo punto, v22 = 2g (h – h1) Restando la primera de la segunda, hallamos cómo están relacionadas las velocidades del cuerpo al comienzo y al fin de cualquier trozo del plano inclinado con las alturas de estos puntos: v22 – v12 = 2g(h1 – h2) La diferencia de cuadrados de las velocidades depende solamente de la diferencia de las alturas. Obsérvase que la igualdad obtenida vale lo mismo para los movimientos hacia arriba que para los movimientos hacia abajo. Si la primera altura es menor que la segunda (ascenso), la segunda velocidad es menor que la primera. Esta .fórmula puede ser escrita de siguiente manera:

Gentileza de Manuel Mayo

94

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

v12/2 + gh1 = v22/2 lo que muestra que la suma de la mitad del cuadrado de la velocidad y de la altura multiplicada por g, es igual para cualquier punto del plano inclinado. Se puede decir, que la cantidad v2/2 + gh se conserva durante el movimiento. Lo más admirable es que la ley hallada se verifica para un movimiento sin rozamiento por cualquier montículo y, en general, por cualquier camino compuesto de ascensos y descensos, que se alternan con diversos declives. Esto es debido a que, cualquier camino se puede dividir en segmentos rectos. Cuanto menores se tomen los segmentos, tanto más cerca se aproximará la línea quebrada a la curva. Cada segmento de éstos se puede considerar como una parte de un plano inclinado y se le puede aplicar la regla obtenida. Por lo tanto, la suma v2/2 + gh es igual en cualquier punto de la trayectoria y, por consiguiente, la variación del cuadrado de la velocidad rin depende de la forma y de la longitud del camino por el que se mueve el cuerpo, y se determina solamente por la diferencia de las alturas del punto inicial y del punto final del movimiento. Al lector le puede parecer que nuestra conclusión no coincide con la experiencia cotidiana: en un camino largo y de poco declive, el cuerpo no aumenta su velocidad y, al fin y al cabo, se para. Esto es cierto, pero, es que en nuestros razonamientos no contábamos con la fuerza de rozamiento. La igualdad escrita anteriormente tiene valor para un movimiento en el campo de gravedad de la Tierra, propulsado sólo por la fuerza de gravedad. Si las fuerzas de rozamiento son pequeñas, la ley deducida se cumplirá bastante bien. Los trineos con patines metálicos se deslizan por los montes resbaladizos de hielo con muy poco rozamiento. Se pueden hacer caminos largos de hielo, que comiencen con un descenso muy empinado, en los que se alcanza una velocidad muy grande y que, después, extravagantemente serpenteen hacia arriba y hacia abajo. Si no hubiese roce en absoluto, en tales montes se efectuaría el fin del viaje (cuando el trineo se para por sí mismo) a una altura igual a la inicial. Pero, como no se puede evitar el rozamiento, el punto del comienzo del movimiento del trineo estará más alto que el lugar donde se para.

Gentileza de Manuel Mayo

95

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La ley, según la cual, en el movimiento propulsado por la fuerza de gravedad, la velocidad final no depende de la forma del camino, se puede emplear para la resolución de diversos problemas interesantes. Muchas veces muestran en el circo como un número emocionante, «el rizo» vertical. Un ciclista o una carretilla con un acróbata se establecen en un andamio alto. Después de realizar una descensión acelerada viene una ascensión. Ya tenemos al acróbata con la cabeza hacia abajo, otro descenso más y ya está descrito el rizo. Veamos el problema que tiene que resolver el ingeniero del circo. ¿A qué altura hay que hacer el andamio, del que .se comienza el descenso, para que no se caiga el acróbata desde el punto superior del rizo? La condición es conocida: la fuerza centrífuga que aprisiona al acróbata hacia el andamio tiene que equilibrar a la fuerza de gravedad, que está dirigida en dirección contraria.

Figura 3.5 Por lo tanto, mg ≤ mv2/r, donde r es el radio del rizo y v es la velocidad del movimiento en el punto superior del rizo. Para alcanzar esta velocidad, hay que comenzar el movimiento desde un lugar que esté más alto que el punto superior del rizo en cierta magnitud h. La velocidad inicial del acróbata es igual a cero, por eso, en el punto superior del rizo, v2 = 2gh. Pero, por otra parte, v2 ≥ gr. Por consiguiente, entre la altura h y el radio r del rizo subsiste la relación h ≥ r/2. El andamio tiene que estar levantado sobre el punto superior del rizo en una cantidad no menor que la mitad de su radio. Claro que, teniendo en cuenta la fuerza inevitable de rozamiento, habrá que tomar cierta reserva de altura. Gentileza de Manuel Mayo

96

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

He aquí otro problema. Consideremos una cúpula, bien pulimentada, para que el rozamiento sea mínimo. Coloquemos sobre el vértice un objeto no muy grande y, dándole un pequeño golpe, hagámosle resbalar sobre la cúpula. Pronto o tarde, el objeto que resbala se desprenderá de la cúpula y comenzará a caer. Fácilmente podemos calcular cuándo se desprenderá el objeto de la superficie de la cúpula; en el instante del desprendimiento, la fuerza centrifuga tiene que ser igual a la componente del peso sobre la dirección del radio en esto instante, el cuerpo acabará de presionar sobre la cúpula: éste es, precisamente, el instante del desprendimiento). En la fig. 3.5 se observan dos triángulos semejantes; está representado el instante del desprendimiento. En el triángulo de las fuerzas, hallamos la razón del cateto a la hipotenusa y la igualamos a la razón correspondiente de los lados del otro triángulo:

Aquí, r es el radio de la cúpula esférica, y h, la diferencia de alturas al comienzo y al fin del deslizamiento. Apliquemos ahora la ley de la independencia de la velocidad final de la forma del camino. Como se supone que la velocidad inicial del cuerpo es igual a cero se tiene: v2 = 2gh. Sustituyendo este valor en la proporción escrita anteriormente y efectuando transformaciones aritméticas, hallamos: h =r/3. Por lo tanto, el cuerpo se desprenderá de la cúpula a una altura situada de 1/3 de radio más abajo del vértice de la cúpula. 5. Ley de conservación de la energía mecánica En los ejemplos que acabamos de examinar, nos hemos convencido de que es conveniente conocer la cantidad que no varía (que conserva) su valor numérico durante el movimiento. Por ahora, conocemos tal cantidad sólo para un cuerpo. ¿Y si en el campo de gravedad se mueven unos cuantos cuerpos ligados entre sí? Claro que no se debe creer que para cada uno de ellos se mantiene constante la expresión v2/2 + gh,

Gentileza de Manuel Mayo

97

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

puesto que cada uno de los cuerpos no sólo está propulsado por la fuerza de gravedad, sino también por los cuerpos contiguos. ¿Puedo ser que se conserve la suma de tales expresiones, tomada para todo el grupo de cuerpos a examinar? Ahora demostraremos que no es válida esta suposición. Existe una cantidad que se conserva durante el movimiento de varios cuerpos, pero no es igual a la suma

sino que es igual a la suma de expresiones semejantes, multiplicadas por las masas de los cuerpos correspondientes; o sea, que se conserva la suma

Para demostrar esta importante ley de la mecánica, veamos el ejemplo siguiente. De una polea están suspendidas dos cargas, una masa grande M y una masa pequeña m. La carga grande tira de la pequeña y este grupo de dos cuerpos se mueve con velocidad creciente. La fuerza motriz es la diferencia en peso de estos cuerpos, Mg - mg. Como en el movimiento acelerado participa la masa de ambos cuerpos, la ley de Newton se escribirá, para esto caso, así: (M — m)g = (M + m)a Examinemos dos instantes del movimiento y demostremos que la suma de las expresiones v2/2+ gh, multiplicadas por las masas correspondientes, se mantiene, verdaderamente, constante. Así pues, se necesita demostrar la igualdad:

Gentileza de Manuel Mayo

98

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Se han señalado con letras mayúsculas las cantidades físicas que caracterizan la carga grande. Los subíndices 1 y 2 se refieren aquí las magnitudes a los dos instantes considerados del movimiento. Como las cargas están ligadas mediante la cuerda, se tiene v1 = V1 y v2 = V2, Aprovechando estas simplificaciones y trasladando al segundo miembro todos los términos

que

contienen

alturas

y,

al

primer

miembro,

los

que

contienen

velocidades, obtenemos:

Claro está que las diferencias de alturas de las cargas son iguales (pero con signo contrario, puesto que una carga se eleva y otra desciende). Por lo tanto,

donde S es el camino recorrido. En páginas anteriores se vio que la diferencia de cuadrados de las velocidades v22 – v12, al comienzo y al fin del segmento S del trayecto recorrido con la aceleración a, es igual a v22 – v12 = 2aS Sustituyendo esta expresión en la última igualdad, hallamos:

Gentileza de Manuel Mayo

99

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

(m + M) a = (m – M) g. Pero ésta es la fórmula de Newton, escrita anteriormente para nuestro ejemplo. De este modo, queda demostrado lo que se pedía: para dos cuerpos, la suma de expresiones v2/2 + gh, multiplicadas por las masas correspondientes8, se mantiene constante durante el movimiento, o como suele decirse, se conserva, es decir,

Para el caso de un cuerpo, esta relación se convierte en la demostrada anteriormente: v2/2 + gh = const. La mitad del producto de la masa por el cuadrado de la velocidad se llama energía cinética K: K = mv2/2 El producto del peso del cuerpo por la altura se llama energía potencial U de gravitación del cuerpo respecto a la Tierra: U = mgh Hemos demostrado, que durante el movimiento de un sistema de dos cuerpos (lo mismo se puede demostrar para un sistema que se compone de muchos cuerpos), la suma de las energías cinética y potencial de los cuerpos se mantiene constante.

8

Claro que con la misma razón se puede multiplicar la expresión v2/2 + gh por 2m o por m/2 y, en general, por cualquier coeficiente. Se ha convenido obrar de la manera más sencilla, o sea, multiplicar simplemente por m. Gentileza de Manuel Mayo

100

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En otras palabras, un aumento de la energía cinética de un grupo de cuerpos se puede efectuar solamente a causa de una disminución de la energía potencial de este sistema, y recíprocamente. La ley demostrada se llama ley de conservación de la energía mecánica. La ley de conservación de la energía mecánica es una ley muy importante de la naturaleza. Todavía no hemos apreciado por completo su valor. Más adelante, cuando estudiemos el movimiento de las moléculas, se verá su universalidad, su aplicación a todos los fenómenos de la naturaleza. 6. Trabajo Como resultado de empujar o de tirar de un cuerpo, sin encontrar ningún obstáculo, se obtiene la aceleración del mismo. El incremento producido de energía cinética se llama trabajo A de la fuerza:

Según la ley de Newton, la aceleración y, por consiguiente, el aumento de la energía cinética, se determina mediante la suma vectorial de todas las fuerzas aplicadas al cuerpo. Por lo tanto, en el caso de muchas fuerzas la fórmula anterior representa el trabajo de la fuerza resultante. Expresemos el trabajo A mediante la magnitud de la fuerza. Para mayor sencillez, nos limitaremos al caso cuando el movimiento es posible sólo en una dirección, es decir cuando empujamos o arrastramos una carretilla de masa m situada sobre raíles (fig. 3.6).

Gentileza de Manuel Mayo

101

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 3.6 Según la fórmula general del movimiento uniformemente acelerado, se tiene: v22 – v12 = 2aS

Por eso, el trabajo de todas las fuerzas en el camino S, es:

El producto ma es igual a la componente de la fuerza total que lleva la dirección del movimiento. Por lo tanto, A = flong S El trabajo de la fuerza se mide por el producto del camino recorrido por la componente de la fuerza que va a lo largo de la dirección del camino. La fórmula del trabajo es justa para fuerzas de cualquier procedencia y para movimientos de cualesquiera trayectorias. Señalemos que el trabajo puede ser igual a cero, a pesar de que sobre el cuerpo actúen fuerzas.

Gentileza de Manuel Mayo

102

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Por ejemplo, el trabajo de la fuerza de Coriolis es igual a cero. Es que esta fuerza es perpendicular

a

la

dirección

del

movimiento.

Como

no

tiene

componente

longitudinal, el trabajo es igual a cero. No se necesita efectuar un trabajo para cualquier curvatura de la trayectoria que no vaya acompañada de una alteración de la velocidad, pues la energía cinética no varía. ¿Puede ser negativo el trabajo? Claro que sí, pues, si la fuerza forma un ángulo obtuso con la dirección del movimiento, ésta no ayuda, sino que obstaculiza el movimiento. La componente longitudinal de la fuerza sobre la dirección será negativa. En este caso, se dirá que la fuerza efectúa un trabajo negativo. La fuerza de rozamiento siempre retarda el movimiento, o sea, efectúa un trabajo negativo. Por el incremento de la energía cinética se puede juzgar sobre el trabajo de la fuerza resultante. El trabajo de cada una de las fuerzas se tiene que calcular como el producto A = flong S En el caso del movimiento uniforme de un automóvil por la carretera, no hay aumento de energía cinética y, por consiguiente, el trabajo de la fuerza resultante es igual a cero. Pero, sin duda, el trabajo del motor no es igual a cero, pues es igual al producto del empuje por el camino recorrido, y se compensa por completo con el trabajo negativo de las fuerzas de resistencia y de rozamiento. Valiéndose del concepto de «trabajo», se pueden describir más abreviadamente y con mayor claridad las propiedades tan interesantes de la fuerza de gravedad que acabamos de conocer. Si un cuerpo, propulsado por la fuerza de gravedad, se traslada de un sitio a otro, la energía cinética se cambia. Esta variación de la energía cinética es igual al trabajo A. Pero, por la ley de la conservación de la energía, ya sabemos que el aumento de la energía cinética se efectúa a cuenta de la disminución de la energía potencial. De esta manera, el trabajo de la fuerza de gravedad es igual a la disminución de la energía potencial:

Gentileza de Manuel Mayo

103

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

A = U1 –U2 Es evidente, que la disminución (o el aumento) de la energía potencial y. por consiguiente, el aumento (o la disminución) de la energía cinética, son los mismos, independientemente del camino por el que se mueva el cuerpo. Esto significa que el trabajo de la fuerza de gravedad no depende de la forma del camino. Si el cuerpo se ha trasladado del primer punto al segundo aumentando la energía cinética, éste se trasladará del segundo punto al primero disminuyendo la energía cinética en una misma cantidad, exactamente. Y, además, es indiferente si la forma del camino «de ida» coincide con la forma del camino «de regreso». Por lo tanto, los trabajos «de ida» y «de regreso», son iguales. Pero si el cuerpo hace un recorrido grande y si el fin del camino coincide con el comienzo, el trabajo será igual a cero. Figúrense que por un canal, de la forma más extravagante que se quiera, resbala sin rozamiento un cuerpo. Pongámoslo en camino desde el punto más alto. El cuerpo se deslizará hacia abajo tomando velocidad. A cuenta de la energía cinética obtenida, el cuerpo vencerá el ascenso y, por fin, volverá a la estación de partida. ¿Con qué velocidad? Es natural que con la misma que tenía al partir de la estación. La energía potencial volverá a tomar su valor anterior. Siendo esto así, la energía cinética no puede disminuir ni aumentar. Por eso, el trabajo es igual a cero. El trabajo en un camino en forma de anillo (los físicos suelen decir, en un camino cerrado) no es igual a cero para todas las fuerzas. No hay necesidad de demostrar que el trabajo de las fuerzas de rozamiento siempre será tanto mayor, cuanto más largo sea el camino. 7. ¿En qué unidades se miden el trabajo y la energía? Como el trabajo es igual a la variación de la energía, el trabajo y la energía (claro que tanto la potencial como la cinética) se miden en las mismas unidades. El trabajo es igual al producto de la fuerza por el camino. El trabajo de la fuerza de una dina en el camino de un centímetro se llama ergio: 1 ergio = 1 dina x cm

Gentileza de Manuel Mayo

104

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Este trabajo es muy pequeño. Tal trabajo lo puede realizar un mosquito venciendo la fuerza de gravedad al volar del dedo pulgar de la mano al dedo índice. El julio (joule) es una unidad más grande de trabajo y energía. Este es 10 millones de veces mayor que el ergio: 1 julio = 10 millones de ergios = 10.000.000 ergios Con bastante frecuencia se emplea la unidad de trabajo de 1 kilográmetro (1 kgm es igual al trabajo realizado por una fuerza de 1 kgf en el camino de 1 m). Este trabajo realiza, aproximadamente, una pesa de un kilogramo al caer de la mesa al suelo. Como ya se sabe, la fuerza de 1 kgf es igual a 981 000 dinas, 1 m es igual a 100 cm. Por lo tanto, 1 kgm de trabajo es igual a 98 100 000 ergios, o sea, a 9,81 julios: Por el contrario, 1 julio es igual a 0,102 kgm. El nuevo sistema de unidades (SI), del que ya se habló y del que todavía seguiremos hablando, utiliza el julio como unidad de trabajo y de energía, y determina a éste como el trabajo de la fuerza de 1 newton en el camino de 1 metro. Viendo la simplicidad con que se determina en este caso la fuerza, es fácil darse cuenta en qué consisten las ventajas del nuevo sistema de unidades. 8. Potencia y rendimiento de las máquinas Para formar la idea sobre la capacidad de una máquina de realizar el trabajo, así como sobre el consumo de energía se utiliza el concepto de potencia. La potencia es el trabajo realizado por unidad de tiempo. Existe gran cantidad de diferentes unidades de potencia. Al sistema C.G.S. le corresponde la unidad de potencia ergio por segundo (ergio/s). Pero 1 ergio/s es una potencia infinitamente pequeña, por cuya razón dicha unidad no es conveniente para la práctica. Incomparablemente más está difundida otra unidad de potencia que se obtiene dividiendo el julio por segundo. Esta unidad se denomina vatio (W): 1 W = 1 J/s = 107 ergios/s.

Gentileza de Manuel Mayo

105

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Cuando incluso esta unidad resulta ser pequeña se la multiplica por mil con lo que aparece el kilovatio (kW). La época anterior nos dejó en herencia la unidad de potencia llamada caballo de vapor. En otros tiempos, en los albores del desarrollo de la técnica esta denominación encerraba un profundo sentido. Una máquina cuya potencia es de 10 caballos de vapor sustituye diez caballos; así razonaba el comprador incluso en el caso de que no tenía noción sobre las unidades de potencia. Por supuesto, hay caballos y caballos. El autor de la primera unidad de potencia suponía, a todas luces, que un caballo «medio» es capaz de realizar en un segundo 75 kgf x m de trabajo. Precisamente tal unidad está adoptada: 1 CV = 75 kgf x m/s. Los caballos de tiro pesado son capaces de realizar mayor trabajo, especialmente en el momento de arranque. Sin embargo, la potencia de un caballo medio es más bien próxima a la mitad de caballo de vapor. Al convertir los caballos de vapor a kilovatios, obtenemos: 1 CV = 0,735 kW9. En la vida cotidiana y en la técnica tenemos que ver con los motores de las más variadas potencias. La potencia del motor de un tocadiscos es de 10 W, la del automóvil «Volga» es de 100 CV, o sea, de 73 kW y la de los motores del avión de línea IL-18 es igual a 10 000 CV. Una pequeña central eléctrica de un koljoz tiene la potencia de 100 kW. Y la Central Hidroeléctrica de Krasnoyarsk que, en este sentido, estableció un récord es de 5000000 kW de potencia. Las unidades de potencia que hemos conocido nos sugieren otra unidad de energía de común conocimiento en todos los lugares donde se tienen instaladas los contadores de energía eléctrica: se trata, precisamente, del kilovatio-hora (kWh). 1 kWh es el trabajo realizado por la potencia de 1 kilovatio durante 1 hora. Es fácil convertir esta nueva unidad en otras ya conocidas: 1 kWh = 3,6 x 106 J = 367 000 kgf x m.

9

Se emplea también el caballo de vapor inglés llamado horse power (HP) que equivale a 0,745 kW (N. del T.)

Gentileza de Manuel Mayo

106

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El lector puede preguntar: ¿acaso resultó necesaria una unidad de energía más? ¡Por si antes las teníamos pocas! Sin embargo, hay que tener presente que el concepto de energía penetra los distintos campos de la física, y los físicos, pensando en la conveniencia para una rama concreta, introducían cada vez nuevas unidades de energía. Una cosa análoga tenía lugar en lo que concernía a otras magnitudes físicas. Todo ello, al fin y al cabo, lleva a la conclusión de que es necesario introducir el sistema de unidades SI único para todos los apartados de la física (véase al inicio de este libro). Sin embargo, transcurrirá un buen lapso antes de que las unidades «viejas» cedan su puesto al elegido afortunado y ésta es la razón de que, por ahora, el kilovatio-hora no es todavía la última unidad de energía con la cual debemos trabar conocimiento en el curso del estudio de la física. Empleando diferentes máquinas se puede obligar a las fuentes de energía a realizar distintos

trabajos:

elevar

cargas,

poner

en

funcionamiento

las

máquinas-

herramientas y transportar cargas y personas. Se puede calcular la cantidad de energía aportada a la máquina y el valor del trabajo obtenido de ésta. En todos los casos la cifra a la salida resultará menor que a la entrada, porque una parte de energía se pierde en la máquina. La parte de energía utilizada en la máquina totalmente para los fines que necesitamos se denomina rendimiento de la máquina. Los valores del rendimiento se suelen expresar en tantos por ciento. Si el rendimiento es igual a 90%, esto significa que la máquina pierde tan sólo un 10% de energía. El rendimiento igual a 10% señala que la máquina aprovecha únicamente un 10% de la energía suministrada a ésta. Si la máquina transforma en trabajo la energía mecánica, su rendimiento, de principio, puede llevarse a valores muy grandes. En este caso el aumento del rendimiento se logra luchando contra la inevitable fricción. Mejorar el engrase, introducir cojinetes más perfectos, disminuir la resistencia por parte del medio en que transcurre el movimiento. Éstas son las medidas para hacer aproximarse el rendimiento a la unidad (o sea, al 100%). Habitualmente, en el proceso de transformación de la energía mecánica en trabajo en calidad de etapa intermedia (como en las centrales hidroeléctricas) se utiliza la transmisión eléctrica.

Gentileza de Manuel Mayo

107

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Se sobreentiende que este procedimiento también está relacionado con pérdidas complementarias. Sin embargo, no son grandes, de modo que las pérdidas durante la transformación de la energía mecánica en trabajo, en el caso de hacer uso de la transmisión eléctrica, pueden reducirse a un pequeño porcentaje. 9. Disminución de la energía Probablemente, el lector se habrá dado cuenta de que en las ilustraciones de la ley de conservación de la energía mecánica, repetíamos constantemente: «no habiendo rozamiento,

si

no

hubiese

rozamiento...».

Sin

embargo,

el

rozamiento

inevitablemente acompaña a cualquier movimiento. ¿Qué valor tiene una ley que no tiene en cuenta una circunstancia práctica tan importante? La respuesta a esta pregunta la aplazamos; veamos ahora a qué conduce el rozamiento. Las fuerzas de rozamiento tienen dirección contraria al movimiento y, por lo tanto, efectúan un trabajo negativo. Esto da lugar a una pérdida forzosa de energía mecánica. ¿Conducirá esta pérdida inevitable de energía mecánica a la interrupción del movimiento? Es fácil convencerse de que el rozamiento no puede detener cualquier movimiento. Figuremos un sistema cerrado, compuesto de unos cuantos cuerpos en acción mutua. Como ya sabemos, respecto a tal sistema cerrado se verifica la ley de conservación del impulso. Un sistema cerrado no puede variar su impulso, por eso, su movimiento es rectilíneo y uniforme. El rozamiento dentro de tal sistema puede detener el movimiento relativo de las partes del sistema, pero, no influye en la velocidad y en la dirección de todo el sistema, entero. Existe también una ley de la naturaleza, llamada ley de conservación del momento de rotación (que veremos más adelante), que no permite al rozamiento acabar con la rotación uniforme de todo el sistema cerrado. Por lo tanto, en un sistema cerrado de cuerpos, la existencia de rozamiento conduce al cese de todos los movimientos y no representa un obstáculo solamente para el movimiento uniforme rectilíneo y para el movimiento uniforme de revolución de todo este sistema en su conjunto.

Gentileza de Manuel Mayo

108

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Y, la causa de que el globo terrestre altere un poco la velocidad de su rotación, no estriba en el rozamiento mutuo de los cuerpos terrestres, sino en que la Tierra no es un sistema aislado. En lo que se refiere a los movimientos de los cuerpos en la Tierra, todos ellos están sometidos al rozamiento y pierden su energía mecánica. Por eso, el movimiento siempre cesa, si no se mantiene desde fuera. Esta es una ley de la naturaleza. ¿Y si se consiguiese engañar a la naturaleza? Entonces... entonces, se podría realizar el perpetuum mobile, que significa «movimiento perpetuo». 10. Perpetuum mobile Bertold, el héroe de la obra de Pushkin, «Escenas de los tiempos caballerescos», soñaba con la realización del perpetuum mobile. «¿Qué es el perpetuum mobile?», le preguntaban en una conversación. «Es el movimiento perpetuo, contestaba Bertold. Si yo hallase el movimiento perpetuo, no vería confín a la creación del hombre. Hacer oro, es un problema seductor, el descubrimiento puede ser curioso, lucrativo, pero, hallar la solución del perpetuum mobile...» El perpetuum mobile ó móvil perpetuo es una máquina que trabaja, no sólo a pesar de la ley de la disminución de la energía mecánica, sino infringiendo la ley de la conservación de la energía mecánica, que, como ya sabernos, se verifica solamente en condiciones ideales, inexistentes, libres de rozamiento. El móvil perpetuo, una vez construido, tendría que comenzar a trabajar «por sí solo», por ejemplo, girar una rueda o levantar pesos de abajo a arriba. El trabajo tendría que realizarse eterna y continuamente, y el motor no tendría que necesitar ni combustible, ni la mano del hombre, ni la energía del salto del agua, es decir, nada tomado del exterior. El primer documento fidedigno conocido hasta ahora sobre la «realización» de la idea del móvil perpetuo pertenece al siglo XIII. Es curioso que, después de seis siglos, en el año 1910, en una de las instituciones científicas de Moscú, fue sometido a «examen» un «proyecto» exactamente igual.

Gentileza de Manuel Mayo

109

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 3.7 El proyecto de este móvil perpetuo está representado en la fig. 3.7. Al girar la rueda, las pesas sobrecaen y, según la idea del inventor, mantienen el movimiento, puesto que las pesas caídas presionan con más fuerza, ya que actúan a mayor distancia del eje. Construyendo tal «máquina» que, por cierto, no es tan complicada, el inventor llega a convencerse de que después de dar una o dos vueltas por inercia, la rueda se para. Pero esto no le desanima. ¡Se ha cometido un error!; las barras hay que hacerlas más largas, hay que cambiar la forma de los dientes. Y el trabajo inútil, al que muchos de los inventores primitivos dedicaron su vida, continúa, claro que con el mismo éxito.

Figura 3.8

Gentileza de Manuel Mayo

110

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En general, no se propusieron muchas variantes de móviles perpetuos: diversas ruedas automotores, que de principio no se diferenciaban mucho de la descrita, motores hidráulicos como el que se muestra en la fig. 3.8, inventado en el año 1634; motores que utilizan los sifones o los vasos capilares (fig. 3.9); la pérdida de peso en el agua (fig. 3.10); la atracción de los cuerpos férreos por los imanes. No siempre se puede acertar a cuenta de qué pensaba el inventor realizar el movimiento perpetuo. Ya antes de haberse establecido la ley de la conservación de la energía, la afirmación de la imposibilidad del perpetuum mobile la encontrarnos en la disposición oficial hecha por la Academia francesa en el año 1775, cuando ésta decidió no someter más, a examen y a prueba, ningún proyecto de móvil perpetuo.

Figuras 3.9 y 3.10 Muchos mecánicos de los siglos XVII y XVIII se basaban ya en sus demostraciones en el axioma de la imposibilidad del perpetuum mobile, a pesar de que el concepto

Gentileza de Manuel Mayo

111

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de energía y la ley de conservación de le energía aparecieron en la ciencia mucho más tarde. Actualmente, está claro que los inventores que procuran crear el móvil perpetuo, no sólo entran en contradicción con el experimento, sino que también cometen un error de lógica elemental. En efecto, la imposibilidad del perpetuum mobile, es una consecuencia de las leyes de la mecánica, de las que ellos mismos parten citando argumentaban su «invento». Es posible que, a pesar de su esterilidad, la búsqueda del móvil perpetuo haya jugado algún papel útil, puesto que, al fin y al cabo, condujo al descubrimiento de la ley de conservación de la energía. 11. Choques Cualquiera que sea el choque de dos cuerpos, siempre se conserva el impulso. En cuanto a la energía, ésta, como acabamos de ver, forzosamente disminuye, a causa de diversas clases de rozamientos. Sin embargo, si los cuerpos que chocan son de un material elástico, por ejemplo, de marfil o de acero, la pérdida de energía es insignificante. Tales choques, en los que las sumas de las energías cinéticas antes y después del choque son iguales, se llaman perfectamente elásticos. Incluso cuando chocan los materiales más elásticos, se efectúa una pequeña pérdida de energía cinética; por ejemplo, en el caso de las bolas de marfil de un billar, ésta alcanza de 3 a 4%. La conservación de la energía cinética en el choque elástico da la posibilidad de resolver una serie de problemas. Examinemos, por ejemplo, el choque frontal de bolas de distinta masa. La ecuación del impulso tiene la forma (suponemos que la bola N° 2 estaba en reposo antes del choque) m1v1 = m1u1 + m2u2 y la de la energía es

Gentileza de Manuel Mayo

112

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

m1v12/2 = m1u12/2 + m1u12/2 donde v1 es la velocidad de la primera bola antes del choque, y u1 y u2, las velocidades de las bolas después del choque. Como el movimiento se efectúa a lo largo de una línea recta (que pasa por los centros de las bolas; precisamente, esto significa que el choque es frontal), se han suprimido las flechas vectoriales sobre las letras. De la primera ecuación, se tiene: . u2 = (m1/m2)(v1 – u1) Sustituyendo esta expresión para u, en la ecuación de la energía, obtenemos:

Una de las soluciones de esta ecuación es u1 = v1 = 0. Pero, este resultado no nos interesa, puesto que la igualdad u1 = v1, y u2 = 0 significa que las bolas no chocan. Por eso, buscamos otra solución de la ecuación. Simplificando por m1(v1 - u1), obtenemos:

es decir, m2v1 + m2u1 = m1v1 – m1u1 o sea (m1 – m2)v1 = (m1 + m2)u1

Gentileza de Manuel Mayo

113

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

que da el siguiente valor para la velocidad de la primera bola después del choque:

En el choque frontal contra la bola inmóvil, la bola chocante rebota de vuelta (u1 es negativo), si su masa es menor. Si m1 es mayor que m2, ambas bolas continúan el movimiento en dirección del choque. Al jugar al billar, en el caso de un choque frontal exacto, frecuentemente se observa el cuadro siguiente: la bola chocante se para bruscamente, mientras que la bola chocada se dirige a la tronera. Esto se explica por la ecuación que acabamos de hallar. Las masas de las bolas son iguales, y la ecuación da u1 = 0, y, por consiguiente, u2 = v1. La bola chocante se para, mientras que la segunda bola comienza el movimiento con la velocidad de la chocante. Parece como si las bolas intercambiaran sus velocidades.

Figura 3.11 Veamos otro ejemplo de choque de cuerpos que también está sometido a la ley del choque elástico: el choque oblicuo de cuerpos de igual masa (fig. 3.11). Antes del choque, el segundo cuerpo estaba en reposo; por eso, las leyes de conservación del impulso y de la energía tienen la forma:

Gentileza de Manuel Mayo

114

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

mv1 = mu1 + mu2 mv12/2 = mu12/2 + mu12/2 Simplificando por la masa, obtenemos: v1 = u1 + u2 v12/2 = u12/2 + u12/2 El vector v1 es la suma vectorial de u1 y u2. Pero esto significa que las longitudes de los vectores velocidades forman un triángulo. ¿Qué triángulo es éste? Recordemos el teorema de Pitágoras. Nuestra segunda ecuación lo expresa. Esto significa, que el triángulo de las velocidades tiene que ser rectángulo con la hipotenusa v1 y con los catetos u1 y u2. Por consiguiente, u1 y u2 forman entre sí un ángulo recto. Este interesante resultado muestra que cualquiera que sea al choque elástico oblicuo, los cuerpos de igual masa rebotan formando un ángulo recto.

Gentileza de Manuel Mayo

115

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 4 Oscilaciones Contenido: 1.

Equilibrio

2.

Oscilaciones simples

3.

Desarrollo de las oscilaciones

4.

Fuerza y la energía potencial en las oscilaciones

5.

Oscilaciones de resortes

6.

Oscilaciones más complicadas

7.

Resonancia

1. Equilibrio En algunos casos es muy difícil mantener el equilibrio: hagan la prueba de pasar por una cuerda tirante. Al mismo tiempo, nadie premiará con aplausos al que esté sentado en una mecedora. Pero, en realidad, éste también mantiene su equilibrio. ¿Qué diferencia hay entre estos dos ejemplos? ¿En qué caso el equilibrio se establece «por sí solo»? Parece evidente la condición de equilibrio. Para que el cuerpo no se mueva de su sitio, las fuerzas que actúan sobre él tienen que estar en equilibrio; mejor dicho, la suma de estas fuerzas tiene que ser igual a cero. En realidad, esta condición es necesaria para el equilibrio del cuerpo; pero ¿será ésta suficiente? En la fig. 4.1 está representado el perfil de una montaña, que fácilmente se puede construir con cartón. El comportamiento de la bolita es distinto, según el sitio en que la coloquemos en la montaña. En cualquier punto de la pendiente de la montaña, sobre la bolita actúa una fuerza que la obliga a rodar hacia abajo. Esta fuerza propulsora es la de gravedad, o mejor dicho, su proyección sobre la dirección de la tangente a la línea del perfil de la montaña, trazada en el punto que nos interesa. Por esto, se comprende, que cuanto más suave sea la pendiente, tanto menor será la fuerza que actúa sobre la bolita. Ante todo, nos interesan aquellos puntos, en los que la fuerza de gravedad se equilibra por completo con la reacción del apoyo y, por consiguiente, la fuerza

Gentileza de Manuel Mayo

116

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

resultante que actúa sobre la bolita es igual a cero. Esta condición se verifica en los vértices de la montaña y en los puntos inferiores, en las depresiones. Las tangentes en estos puntos son horizontales, y las fuerzas resultantes que actúan sobre la bolita son iguales a cero.

Figura 4.1 Sin embargo, no se puede colocar la bolita sobre los vértices, a pasar de que la fuerza resultante sea igual a cero; y si esto se consigue, inmediatamente se revela que lo causa del éxito es el rozamiento. Un pequeño golpe o un suave soplido, superarán la fuerza de rozamiento y la bolita se moverá del sitio y echará a rodar hacia abajo. Para una bolita lisa, colocada sobre una montaña resbaladiza, las únicas posiciones de equilibrio son los puntos inferiores de las depresiones. Si con un golpe o con una corriente de aire se expulsase a la bolita de esto lugar, ésta volvería por sí sola a esto sitio. No hay duda que en una depresión, en un hoyo, en una hondura, el cuerpo está en equilibrio. Al desviarse de esta posición, el cuerpo es propulsado por una fuerza que le hace retornar. En las cumbres de la montaña, el cuadro es otro; si el cuerpo se ha apartado de esta posición, sobre él actúa la fuerza eque le aleja» y no la que le retorna. Por lo tanto, la igualdad a cero de la fuerza resultante es la condición necesaria, pero no suficiente, para el equilibrio estable.

Gentileza de Manuel Mayo

117

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El equilibrio de la bolita en la montaña se puede examinar también desde otro punto de vista. Los lugares de depresión corresponden a los mínimos de la energía potencial, y las cumbres, a los máximos. La ley de conservación de la energía impide la alteración de las posiciones, en las cuales la energía potencial es mínima. Tal alteración convertiría en negativa la energía cinética, lo cual es imposible. Otra cosa ocurre en los puntos vértices. La salida de estos puntos está ligada con la disminución de la energía potencial y, por lo tanto, con el aumento de la energía cinética y no con su disminución. Así pues, en la posición de equilibrio, la energía potencial tiene que tener valor mínimo, en comparación con sus valores en los puntos vecinos. Cuanto más hondo sea el hoyo, tanto más estabilidad habrá. Como ya conocemos la ley de conservación de la energía, inmediatamente podemos decir en qué condiciones saldrá rodando el cuerpo del hoyo. Para eso, hay que comunicar al cuerpo una energía cinética que sen suficiente para levantarlo hasta al borde del hoyo. Cuanto más profundo sea el hoyo, tanto más energía cinética se necesitará para infringir el equilibrio estable. 2. Oscilaciones simples Si se empuja una bolita situada en un hoyo, ésta comenzará a moverse por el montículo, perdiendo poco a poco su energía cinética. Cuando se pierda toda por completo, habrá una parada instantánea y comenzará el movimiento hacia abajo. Ahora, la energía potencial pasará a energía cinética. La bolita tomará velocidad, superará por inercia la posición de equilibrio y comenzará de nuevo el ascenso, pero, por el lado opuesto. Si el rozamiento es insignificante, este movimiento «de arriba, abajo» puede continuar mucho tiempo y, en el caso ideal, no habiendo rozamiento, es de eterna duración. Por lo tanto, el movimiento alrededor de la posición de equilibrio estable, siempre es de carácter oscilante. Para el estudio de las oscilaciones, quizás sea más útil el péndulo que la bolita que pasa rodando por el hoyo. Aunque sólo sea porque en el péndulo es más fácil reducir al mínimo el rozamiento.

Gentileza de Manuel Mayo

118

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Cuando, al desviarse el péndulo, el cuerpo del mismo ocupa la posición superior, su velocidad y su energía cinética son iguales a cero. En este instante, la energía potencial es máxima. Cuando el cuerpo va hacia abajo, la energía potencial disminuye y se transforma en cinética. Por consiguiente, la velocidad del movimiento crece. Cuando el cuerpo pasa por la posición inferior, su energía potencial es mínima y, respectivamente, su energía cinética y su velocidad son máximas. Durante el movimiento ulterior, el cuerpo de nuevo asciende. Ahora, la velocidad disminuye y la energía potencial aumenta. Menospreciando las pérdidas en el rozamiento, el cuerpo se desvía hacia la derecha, a una distancia equivalente a su desviación inicial hacia la izquierda. La energía potencial se ha transformado en cinética y después se ha creado, en la misma cantidad, una «nueva» energía potencial. Hemos descrito la primera mitad de una oscilación. La segunda mitad se efectúa del mismo modo, pero el cuerpo se mueve hacia el lado opuesto. El movimiento de oscilación es un movimiento de repetición o, como suele decirse, periódico. Volviendo al punto inicial, el cuerpo repite cada vez su movimiento (si no se tienen en cuenta las alteraciones que son debidas al rozamiento), tanto en lo que respecta al camino, como en lo que respecta a la velocidad y a la aceleración. El tiempo invertido en una oscilación, o sea, el que se necesita para volver al punto inicial, es el mismo para la primera, segunda y todas las oscilaciones ulteriores. Este tiempo, que representa una de las características más importantes de la oscilación, se llama período y se señala con la letra T. Después del tiempo T, el movimiento se repite, es decir, que después del tiempo T siempre hallaremos al cuerpo oscilando en el mismo lugar del espacio, moviéndose hacia el mismo lado. Después de medio período, el desplazamiento del cuerpo, así como la dirección del movimiento, cambia de signo. Como el período T es el tiempo de una oscilación, el número n de oscilaciones en una unidad de tiempo es igual a 1/T. ¿De qué depende el período de oscilación de un cuerpo que se mueve en las proximidades de la posición de equilibrio estable? Y, en particular, ¿de qué depende el período de oscilación del péndulo? El primero que planteó y resolvió este problema fue Galileo. Ahora deduciremos la fórmula de Galileo.

Gentileza de Manuel Mayo

119

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.2 Mas, con métodos elementales, resulta difícil aplicar las leyes de la mecánica al movimiento que no es uniformemente acelerado. Por eso, para vencer esta dificultad, vamos a hacer que el cuerpo del péndulo no oscile en el plano vertical, sino que describa una circunferencia, manteniéndose todo el tiempo en una misma altura. No es difícil crear este movimiento: no hay más que dar un golpe inicial al péndulo, separado de lo posición de equilibrio, en dirección, exactamente perpendicular al radio de la inclinación, y elegir la fuerza de este golpe. En la fig. 4.2 está representado este «péndulo circular». El cuerpo de masa m se mueve sobre una circunferencia. Por consiguiente, además de la fuerza de gravedad mg, sobre éste actúa la fuerza centrífuga mv2/r, que se puede representar en la forma 4π2n2rm. Aquí, n es el número de vueltas por segundo. Por eso, la expresión de la fuerza centrífuga se puede escribir también así: m x 4π2r/T2 La resultante de estas dos fuerzas estira al hilo del péndulo.

Gentileza de Manuel Mayo

120

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la figura están rayados dos triángulos semejantes: el de las fuerzas y el de las distancias. Las razones de los catetos correspondientes son iguales, por lo tanto,

¿De qué causas depende, entonces, el período de oscilación del péndulo? Si efectuamos experimentos en un mismo lugar del globo terrestre (g no varía), el período de oscilación dependerá sólo de la diferencia de alturas del punto de suspensión y del punto en que se encuentra el cuerpo. La masa del cuerpo, como siempre ocurre en el campo de gravedad, no influye en el período de oscilación. Resulta interesante la siguiente circunstancia. Estamos estudiando el movimiento en las proximidades de la posición de equilibrio estable. Para pequeñas oscilaciones, la diferencia h de alturas se puede sustituir por la longitud l del péndulo. Es fácil comprobar esto. Si la longitud del péndulo es 1 m, y el radio de desviación es 1 cm, se tiene: h =√(10000 – 1) = 99,995 cm. La diferencia entre h y l alcanza 1% sólo para elongaciones de 14 cm. Por lo tanto, el período de las oscilaciones libres del péndulo, para elongaciones no muy grandes de la posición de equilibrio, es igual a

Gentileza de Manuel Mayo

121

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

es decir, depende solamente de la longitud del péndulo y del valor de la aceleración de la fuerza de gravedad en el lugar donde se realiza el experimento, y no depende de la magnitud de la elongación del péndulo de la posición de equilibrio. La fórmula

Se ha sido deducida para el péndulo circular; y, ¿cuál será la fórmula para el péndulo ordinario «plano»? Resulta que la fórmula conserva su forma. No vamos a hacer una demostración rigurosa, pero si observaremos, que la sombra del cuerpo del péndulo circular sobre la pared oscila casi igual que un péndulo plano: la sombra realiza una oscilación, precisamente, durante el mismo tiempo en que la bolita describe una circunferencia. La aplicación de las oscilaciones pequeñas alrededor de la posición de equilibrio, da la posibilidad de realizar la medida del tiempo con gran exactitud. Según la leyenda, Galileo estableció la independencia del período de oscilación del péndulo, de la amplitud y de la masa, observando durante la misa en la catedral el balanceo de dos grandísimas arañas. Así pues, el período de oscilación del péndulo es proporcional a la raíz cuadrada de su longitud. De este modo, el período de oscilación de un péndulo de un metro, es dos veces mayor que el período de oscilación de un péndulo de 25 cm de longitud. Luego, de la fórmula para el período de oscilación del péndulo, se deduce que un mismo péndulo oscila con distinta ligereza en diversas latitudes terrestres. A medida que nos acercamos al ecuador, la aceleración de la fuerza de gravedad disminuye y el periodo de oscilación aumenta. El período de oscilación se puede medir con gran exactitud. Por eso, los experimentos con péndulos dan la posibilidad de medir la aceleración de la fuerza de gravedad con mucha precisión. 3. Desarrollo de las oscilaciones

Gentileza de Manuel Mayo

122

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Unamos la mina de un lápiz suave a la parte inferior del grave de un péndulo y colguemos el péndulo encima de una hoja de papel, de modo que la mina del lápiz esté en contacto con el papel (fig. 4.3).

Figura 4.3 Inclinemos, ahora, ligeramente el péndulo. Al balancear, la mina del lápiz marcará sobre el papel un segmento pequeño de una recta. En el medio del balanceo, cuando el péndulo pasa por la posición de equilibrio, la línea marcada por la mina será más gruesa, ya que en esta posición la mina presiona más sobre el papel. Si trasladarnos la hoja de papel en dirección perpendicular al plano de oscilación, se dibujará una curva, representada en la fig. 4.3. Es fácil comprender que las ondulaciones obtenidas se sitúan muy densamente, si se tira del papel con lentitud, y más aisladamente, si la hoja de papel se mueve con una velocidad considerable. Para que la curva resulte perfecta, como en la figura, es necesario que el movimiento de la hoja de papel sea estrictamente uniforme. Do esto modo, resulta, como si hubiéramos «desarrollado» las oscilaciones. El desarrollo se necesita para señalar, dónde estaba y hacia adónde se movía el grave del péndulo en tal o cual instante. Figúrense que el papel se mueve con una velocidad de 1 cm/s desde el instante en que el péndulo se encontraba en una posición extrema, por ejemplo, a la izquierda del punto medio. En nuestra figura, esta posición inicial corresponde al punto marcado con la cifra 1. Después de 1/4 de período, el péndulo pasará por el punto medio. En este tiempo, el papel avanzará en un número de centímetros, igual a (1/4)T, hasta el punto 2 de la figura. Ahora, el Gentileza de Manuel Mayo

123

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

péndulo se moverá hacia la derecha; a la vez, irá corriéndose el papel. Cuando el péndulo ocupe la posición extrema derecha, el papel habrá avanzado en un número de centímetros igual a (1/2)T, hasta el punto 3 de la figura. De nuevo irá ol péndulo hacia el punto medio y después de (¾)T llegará a la posición de equilibrio, al punto 4 de la figura. El punto 5 da fin a una oscilación completa y, después, el proceso se repetirá cada T segundos o, en el dibujo, cada T centímetros. Por consiguiente, la línea vertical de la gráfica es la escala de las elongaciones del punto de la posición de equilibrio; la línea media horizontal es la escala del tiempo. En esta gráfica se hallan fácilmente dos magnitudes que caracterizan por completo la oscilación. El período se determina como la distancia entre dos puntos equivalentes, por ejemplo, entre dos vértices próximos. También se mide inmediatamente la elongación máxima del punto de la posición de equilibrio. Esta elongación se llama amplitud de la oscilación. Además, el desarrollo de la oscilación nos da la posibilidad de contestar a la pregunta que anteriormente se hizo: ¿dónde está el punto oscilante, en tal o cual instante? Por ejemplo, ¿dónde estará el punto oscilante después de 11 s, si el período de oscilación es igual a 3 s y el movimiento comenzó en la posición extrema de la izquierda? Cada 3 s, la oscilación comienza desde el mismo punto. Esto significa que cada 9 s, el cuerpo también estará en la posición extrema de la izquierda. Por lo tanto no hay necesidad de la gráfica, en la que la curva esté extendida en unos cuantos períodos: es suficiente un dibujo en el que esté representada la curva correspondiente a una oscilación. La situación del punto oscilante cada 11 s, siendo el período de 3 s, será igual que cada 2 s. Marcando 2 cm en el dibujo (pues, habíamos acordado que la velocidad con la que tirábamos del papel era igual a 1 cm/s, o mejor dicho, que la unidad en el dibujo, que es igual a 1 cm, equivale a 1 s), vemos que después de 11 s, el punto está en el camino que va de la posición extrema derecha a la posición de equilibrio. La magnitud de la elongación en este instante se halla por el dibujo. Para hallar la magnitud de la elongación del punto que efectúa oscilaciones pequeñas alrededor de la posición de equilibrio, no es necesario recurrir a la gráfica. La teoría enseña que, en este caso, la curva de la dependencia de la elongación del

Gentileza de Manuel Mayo

124

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

tiempo, representa una sinusoide. Si la elongación del punto la señalamos con y, la amplitud con a, el período de oscilación con T, entonces, el valor de la elongación durante el tiempo t, después del comienzo de la oscilación, se halla por la fórmula: y = a sen 2π t/T La oscilación que se efectúa según esta ley se llama armónica. El argumento del seno es igual al producto de 2π por t/T. La magnitud 2πt/T; se llama fase. Teniendo a mano unas tablas trigonométricas y conociendo el período y la amplitud, es fácil calcular la magnitud de la elongación del punto y, según sea el valor de la fase, se puede averiguar hacia qué lado se mueve el mismo. No es difícil deducir la fórmula del movimiento oscilatorio, examinando el movimiento de la sombra arrojada sobre la pared por un grave que se mueve sobre una circunferencia (fig. 4.4).

Figura 4.4 La elongación de la sombra la vamos a marcar desde la posición media. En las posiciones extremas, la elongación y es igual al radio a de la circunferencia. Esta es la amplitud de oscilación de la sombra. Si el cuerpo, desde la posición media, ha recorrido sobre la circunferencia un ángulo φ, su sombra se habrá alejado del punto medio ori la magnitud a sen φ

Gentileza de Manuel Mayo

125

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Supongamos que el período del movimiento del cuerpo (que naturalmente, es también el período de oscilación de la sombra) es igual a T; esto significa que durante el tiempo T, el cuerpo recorre 2π radianes. Se puede escribir la proporción φ/t = 2π/T en donde t es el tiempo de rotación en el ángulo φ. Por consiguiente, φ = 2πT/t y, por lo tanto, y = a sen 2πT/t. Esto es lo que queríamos demostrar. La velocidad del punto oscilante también varía según la ley del seno. A esta conclusión nos lleva el mismo razonamiento sobro el movimiento de la sombra del cuerpo que describe una circunferencia. La velocidad de este cuerpo es un vector de longitud constante v0. El vector de la velocidad gira junto con el cuerpo. Figurémonos el vector de la velocidad como una flecha material que es capaz de dar sombra. En las posiciones extremas del cuerpo, el vector se sitúa a lo largo del rayo de luz y no da sombra. Cuando el grave, desde la posición extrema, recorre por la circunferencia un ángulo Θ, el vector de la velocidad gira en el mismo ángulo y su proyección se hace igual a v0 sen Θ. Pero, por las mismas razones anteriores Θ/t =2π/T y, por lo tanto, el valor de la velocidad instantánea del cuerpo oscilante es:

Tengamos en cuenta que, en la fórmula para la determinación de la magnitud de la elongación, el cálculo del tiempo se efectúa desde la posición media, mientras que en la fórmula de la velocidad, se hace desde la posición extrema. La elongación del

Gentileza de Manuel Mayo

126

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

péndulo es igual a cero para la posición media del cuerpo, mientras que la velocidad de oscilación es igual a cero para la posición extrema. Entre la amplitud de la velocidad de oscilación v0 (a veces dicen, valor de amplitud de la velocidad) y la amplitud de la elongación existe una relación simple: el cuerpo describe una circunferencia de longitud 2πa durante, un tiempo igual al período T de oscilación. Por lo tanto

4. La fuerza y la energía potencial en las oscilaciones En cualquier oscilación en torno de la posición de equilibrio, sobre el cuerpo obra una fuerza (llamada fuerza recuperadora) que «intenta» volver el cuerpo a la posición de equilibrio. Cuando el punto se aleja de la posición de equilibrio, la fuerza retarda el movimiento; cuando el punto se acerca a esta posición, la fuerza acelera el movimiento. Examinemos esta fuerza en el ejemplo del péndulo (fig. 4.5). Sobre el cuerpo del péndulo actúa la fuerza de gravedad y la tensión del hilo.

Gentileza de Manuel Mayo

127

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.5 Descompongamos la fuerza de gravedad en dos fuerzas: una a lo largo del hilo y otra, perpendicular a ésta, a lo largo de la tangente a la trayectoria. Para el movimiento, sólo es esencial la componente tangente de la fuerza de gravedad. En este caso, ésta es la fuerza que promueve el retorno. En cuanto a la fuerza que va a lo largo del hilo, ésta se equilibra con la reacción del clavo del que está suspendido el péndulo, y se toma en consideración solamente, cuando nos interese saber si aguantaría o no el peso del cuerpo oscilante. Designemos con x la magnitud de la elongación del grave. El desplazamiento se efectúa según el arco, pero hemos convenido estudiar las oscilaciones en las proximidades de la posición de equilibrio. Por eso, no hacemos distinción entre la magnitud de elongación según el arco y la desviación del cuerpo de la vertical. Examinemos dos triángulos semejantes. La razón de los catetos correspondientes es igual a la razón de las hipotenusas, es decir, F/x = mg/l

Gentileza de Manuel Mayo

128

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

o F = mg x /l

Isaac Newton (1643-1727), genial físico y matemático inglés, uno de los más célebres sabios en la historia de la humanidad. Newton formuló los principales conceptos y leyes de la mecánica, descubrió la ley de la gravitación universal, creando por lo tanto el cuadro físico del mundo que se mantuvo intacto basta comienzos del siglo XX. Creó la teoría del movimiento de los cuerpos celestes; explicó las principales particularidades del movimiento de la Luna; dio explicación a las mareas. En la óptica, a Newton se deben los admirables descubrimientos que facilitaron el desarrollo impetuoso de esta rama de la física. Estableció un auténtico método matemático de investigación de la naturaleza; a él le pertenece el honor de la creación del cálculo diferencial e integral. Esto influenció enormemente en todo el desarrollo ulterior de la física, facilitando la aplicación de los métodos matemáticos en ella. La magnitud mg/l no varía durante la oscilación. Esta magnitud constante la señalaremos con la letra k, entonces, la fuerza recuperadora será igual a F = kx. Luego, llegamos a la importante conclusión siguiente: la magnitud de la fuerza

Gentileza de Manuel Mayo

129

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

recuperadora es directamente proporcional a la magnitud de la elongación del punto oscilante de la posición de equilibrio. La fuerza recuperadora es máxima en las posiciones extremas del cuerpo oscilante. Cuando el cuerpo pasa por el punto medio, la fuerza se convierte en cero y cambia su signo, o mejor dicho, cambia su dirección. Mientras el cuerpo está desplazado hacia la derecha, la fuerza está dirigida hacia la izquierda, y viceversa. El péndulo es el ejemplo más simple de oscilación de un cuerpo. Sin embargo, estamos interesados en que las fórmulas y leyes que hallamos se puedan aplicar a cualesquiera oscilaciones. El periodo de oscilación del péndulo se expresó mediante su longitud. Tal fórmula es válida sólo para el péndulo. Pero podemos expresar el periodo de las oscilaciones libres mediante la constante k de la fuerza recuperadora. Como k = mg/l, se tiene que l/g = m/k y por consiguiente,

Esta fórmula es válida para todos los casos de oscilación, ya que cualquier oscilación libre se efectúa bajo la acción de una fuerza recuperadora. Expresemos ahora la energía potencial del péndulo mediante la elongación de la posición de equilibrio x. Cuando el grave pasa por el punto inferior, se puede considerar que la energía potencial es igual a cero, y la medida de la altura se debe efectuar desde este punto. Designando con la letra h la diferencia de alturas del punto de suspensión y de la posición del grave desviado, la expresión de la energía potencial toma la forma: U = mg (l - h), o bien, aplicando la fórmula de la diferencia de cuadrados,

Gentileza de Manuel Mayo

130

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Pero, como se ve en el dibujo, l2 - h2 = x2; l y h se diferencian muy poco y, por eso, en vez de l + h, se puede poner 2l. Entonces, U = (mg/2l)x2 o U= kx2/2 La energía potencial del cuerpo oscilante es proporcional al cuadrado de la elongación del cuerpo de la posición de equilibrio. Comprobemos la validez de la fórmula deducida. La pérdida de la energía potencial tiene que ser igual al trabajo de la fuerza recuperadora. Veamos dos posiciones del cuerpo, x2 y x1. La diferencia de las energías potenciales será

Aquí, la diferencia de cuadrados se puede escribir como el producto de la suma por la diferencia. Por consiguiente,

Pero, x2 — x1 es el espacio recorrido por el cuerpo; kx1, y kx2 son los valores de la fuerza recuperadora al comienzo y al final del movimiento y (kx1 + kx2)/2 es igual a la fuerza media. Nuestra fórmula nos ha conducido a un resultado justo: la pérdida de la energía potencial es igual al trabajo realizado. 5. Oscilaciones de resortes Es fácil hacer oscilar a una bolita suspendiéndola de un resorte. Sujetemos un extremo del resorte y estiremos de la bolita (fig. 4.6). Mientras tiramos de la bolita con la mano, el resorte se mantiene estirado. Si soltamos la mano, el resorte se Gentileza de Manuel Mayo

131

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

encoge y la bolita comienza su movimiento hacia la posición de equilibrio. Lo mismo que el péndulo, el resorte no vuelve inmediatamente al estado de reposo. En virtud de la inercia, pasará por la posición de equilibrio y empezará a encogerse.

Figura 4.6 El movimiento de la bolita se retardará y en un instante determinado se parará, para comenzar al mismo tiempo el movimiento hacia el lado opuesto. se crea una oscilación con los mismos rasgos típicos que conocimos al estudiar el péndulo. Si no hubiese rozamiento, las oscilaciones no tendrían fin. Habiendo rozamiento, las oscilaciones se amortiguan y, además, tanto más rápidamente, cuanto mayor sea el rozamiento. Frecuentemente, los papeles del resorte y del péndulo son análogos. Tanto uno como otro sirven para mantener constante el período en los relojes. La exactitud de los relojes de muelle contemporáneos queda garantizada por el movimiento oscilatorio de una pequeña rueda (el volante). Las oscilaciones son debidas a un muelle que se enrolla y se desenrolla decenas de miles de veces al día. En el caso de la bolita en el hilo, la componente tangencial de la fuerza de gravedad desempeñaba el papel de fuerza recuperadora. En el caso de la bolita en el resorte, la fuerza recuperadora es la fuerza elástica del resorte encogido o estirado. Por lo tanto,

la

magnitud

de

la

fuerza

elástica

es

directamente

proporcional

al

alargamiento: Gentileza de Manuel Mayo

132

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

F=kx. En este caso, el coeficiente k tiene otro significado. Ahora es la rigidez del resorte. Resorte rígido es aquel que es difícil estirar o encoger. Precisamente este significado tiene el coeficiente k. De la fórmula, queda claro, que k es igual a la fuerza que se necesita para alargar o encoger el resorte en una unidad de longitud. Conociendo la rigidez del resorte y la masa de la carga suspendida en él, hallamos el período de las oscilaciones libres mediante la fórmula

Por ejemplo, el período de las oscilaciones de un resorte de una rigidez de 105 dinas/cm (es un resorte bastante rígido; una carga de cien gramos lo alarga en 1 cm), del que pende una carga de 10 g de masa, es T = 6,28 x 10-2 s. En un segundo se efectúan 16 oscilaciones. Cuanto más débil sea el resorte tanto más lentamente se efectuarán las oscilaciones. El aumento de la masa de la carga influye en el mismo sentido. Apliquemos la ley de conservación de la energía a la bolita en el resorte. Sabemos que, para el péndulo, la suma de la energía cinética y potencial K + U no varía: K + U se conserva. Ya conocemos los valores de K y de U para el péndulo. La ley de conservación de la energía nos enseña que,

se conserva. Pero esto mismo es cierto también para la bolita en el resorte. La conclusión que forzosamente tenemos que hacer es sumamente interesante. Gentileza de Manuel Mayo

133

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Además de la energía potencial que conocimos anteriormente, existe también una energía potencial de otro género. La primera, se llama energía potencial de gravitación. Si el resorte estuviese colocado horizontalmente, la energía potencial de gravitación no variaría durante las oscilaciones. La nueva energía potencial con que nos hemos encontrado, se llama energía potencial elástica. En nuestro caso, ésta es igual a kx2/2, es decir, depende de la rigidez del resorte y es directamente proporcional al cuadrado de la magnitud de compresión o alargamiento. La energía total que se conserva inalterable se puedo escribir en la forma: E = ka2/2, o bien, E = mv02/2 Las magnitudes a y v0 que figuran en las últimas fórmulas, representan los valores máximos del desplazamiento y de la velocidad durante las oscilaciones; éstas son las amplitudes del desplazamiento y de la velocidad. El origen de estas fórmulas es completamente claro. En la posición extrema, cuando x = a, la energía cinética de la oscilación es igual a cero y la energía total es igual al valor de la energía potencial. En la posición media, el desplazamiento del punto de la posición de equilibrio y, por consiguiente, la energía potencial, son iguales a cero; en este instante, la velocidad es máxima, v = v0, y la energía total es igual a la cinética. La ciencia de las oscilaciones es una sección muy amplia de la física. Con bastante frecuencia nos encontramos con péndulos y resortes. Pero, por supuesto, con esto no acaba la lista de los cuerpos en los que se deben estudiar las oscilaciones. Vibran los cimientos en los que están colocadas las máquinas, pueden vibrar los puentes, partes de los edificios, vigas, cables de alta tensión. El sonido en una oscilación del aire. Hemos expuesto unos ejemplos de oscilaciones mecánicas. Sin embargo, el concepto de oscilación, no sólo se puede referir a los desplazamientos mecánicos de los cuerpos o de las partículas de la posición de equilibrio. En muchos fenómenos eléctricos, también nos encontramos con oscilaciones y, además, estas oscilaciones se efectúan según unas leyes muy parecidas a las que estudiamos anteriormente. La ciencia de las oscilaciones penetra en todas las ramas de la física. 6. Oscilaciones más complicadas

Gentileza de Manuel Mayo

134

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Todo lo que se dijo hasta ahora se refería a las oscilaciones en las proximidades de la posición de equilibrio, que tienen lugar a causa de la acción de la fuerza recuperadora, cuya magnitud es directamente proporcional a la elongación del punto de la posición de equilibrio. Tales oscilaciones se efectúan según la ley del seno. Estas se llaman armónicas. El período de las oscilaciones armónicas no depende de la amplitud. Más complicadas son las oscilaciones de gran elongación. Estas oscilaciones ya no tienen lugar según la ley del seno y su desarrollo proporciona curvas más complicadas, diferentes para diversos sistemas de oscilación. El período deja de ser una propiedad característica de la oscilación y comienza a depender de la amplitud. El

rozamiento

altera

substancialmente

cualesquiera

oscilaciones.

Habiendo

rozamiento, las oscilaciones se amortiguan lentamente. Cuanto mayor sea el rozamiento tanto más rápido será el amortiguamiento. Hagan la prueba de hacer oscilar un péndulo sumergido en el agua. Es casi inútil conseguir que este péndulo efectúe más de una o dos oscilaciones. Si sumergimos el péndulo en un medio más viscoso, puede ocurrir que no baya oscilación alguna. El péndulo desviado volverá, simplemente, a la posición de equilibrio.

Figura 4.7

Gentileza de Manuel Mayo

135

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fig. 4.7 se muestra la gráfica típica de las oscilaciones amortiguadas. En la vertical se ha marcado la elongación de la posición de equilibrio y, en, la horizontal, el tiempo. La amplitud (elongación máxima) de la oscilación amortiguada disminuye en cada oscilación. 7. Resonancia A un niño le han sentado en un columpio. El niño no llega con los pies al suelo. Claro que para columpiarle, se puedo levantar más alto el columpio y, después, soltarlo. Pero esto es bastante pesado y, además, no hay necesidad de ello: es suficiente empujar suavemente el columpio al compás de las oscilaciones para que después de poco tiempo el balanceo sea muy intenso. Para hacer balancear un cuerpo hay que obrar al compás de las oscilaciones. Mejor dicho, hay que hacer de tal manera, que los empujes se produzcan con el mismo período que las oscilaciones libres del cuerpo. En casos semejantes se dice que hay resonancia. El fenómeno de la resonancia está muy difundido en la naturaleza y en la técnica y merece especial atención. Para observar un fenómeno de resonancia muy original y entretenido, se tiende un hilo horizontal y se suspenden de él tres péndulos (fig. 4.8): dos cortos, de igual longitud, y uno más largo. Desviando ahora uno de los péndulos cortos y soltándolo, después de unos segundos se observa cómo empieza lentamente a oscilar también el otro péndulo de igual longitud. Unos segundos más, y el segundo péndulo corto se balancea de tal modo, que ya no se puede saber cuál de los dos comenzó primero el movimiento. ¿A qué es debido esto? Los péndulos de igual longitud tienen iguales períodos de oscilación libro. El primer péndulo origina oscilaciones del segundo. Las oscilaciones se transmiten de uno a otro mediante el hilo que les une. Sí, pero en el hilo está suspendido otro péndulo de diferente longitud. Y, ¿qué ocurrirá con él? Con éste no ocurrirá nada. El período de este péndulo es otro y el péndulo pequeño no conseguirá hacerle oscilar. El tercer péndulo presencia un fenómeno interesante de «transmisión» de energía de uno de los péndulos al otro sin tomar parte él mismo.

Gentileza de Manuel Mayo

136

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

A menudo, cada uno de nosotros nos encontramos con el fenómeno de resonancia mecánica. Aunque es probable que no nos hayamos dado cuenta, sin embargo, a veces, le resonancia suele ser muy enojosa.

Figura 4.8 El tranvía ha pasado cerca de nuestras ventanas, y en el aparador suena la vajilla. ¿Qué ha ocurrido? Las vibraciones del terreno se han transmitido al edificio y, junto con él al suelo de nuestra habitación, llegando a vibrar el aparador y con él la vajilla. ¡Tan lejos, y a través de cuántos objetos se han difundido las oscilaciones! Esto ocurrió gracias a la resonancia. Las oscilaciones exteriores se pusieron en resonancia con las oscilaciones libres de los cuerpos. Casi cada rechinamiento que oímos en la habitación, en la fábrica, en el automóvil, se produce a causa de la resonancia. El fenómeno de la resonancia, como otros muchos fenómenos, puede ser útil y perjudicial. Las partes móviles de una máquina situada sobre los cimientos están en marcha rítmica con un período determinado. Supóngase que este período coincide con el período propio de los cimientos. ¿Qué resultará? Pues que éstos empezarán a vibrar con rapidez, lo que puede conducir a un fin lamentable.

Gentileza de Manuel Mayo

137

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Es conocido el caso siguiente: por un puente de Petersburgo iba marcando el paso una compañía de soldados. El puente se derrumbó. Se empezaron a hacer investigaciones sobre la causa; parecía que no había razones para preocuparse por la suerte del puente y de la gente. ¡Cuántas veces se reunía en el puente una multitud de gente y pasaban lentamente pesados furgones que sobrepasaban unas cuantas veces el peso de dicha compañía La combadura del puente debida a la acción de la gravedad es insignificante. Sin embargo, se puede conseguir una combadura incomparablemente mayor haciendo vibrar el puente. La amplitud de la resonancia de las oscilaciones puede ser mil veces mayor que la magnitud de la elongación bajo la acción de la misma carga inmóvil. Precisamente esto demostró la investigación: el período propio de las vibraciones del puente coincidió con el período de los pasos ordinarios de la marcha. Por esto, cuando una unidad militar pasa por un puente, se da la orden de romper filas. Si no hay concordancia en el movimiento de la gente, el fenómeno de resonancia no aparecerá y el puente no vibrará. De todos modos, los ingenieros recuerdan bien este caso lamentable. Y, ahora, al proyectar puentes, procuran hacerlo de modo que el período de las vibraciones libres del puente sea muy distinto del período del paso militar de parada. Los constructores de los cimientos de las máquinas obran del mismo modo: procuran hacer los cimientos de modo que su período de vibración se diferencie lo más posible del de vibración de las partes móviles de la máquina.

Gentileza de Manuel Mayo

138

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 5 Movimiento de sólidos Contenido: 1.

Momento de la fuerza

2.

La palanca

3.

Pérdida en el camino

4.

Otras máquinas simples

5.

Cómo sumar fuerzas paralelas que actúan sobre un sólido

6.

Centro de inercia

7.

Momento de impulso

8.

Ley de conservación del momento de impulso

9.

Momento de impulso como vector

10.

Peonza

11.

Árbol flexible

1. Momento de la fuerza Hagamos la prueba de hacer girar con la mano un volante pesado. Tiremos de uno de los radios. Si lo cogemos con la mano muy cerca del eje, nos será muy pesado. Traslademos la mano hacia la llanta y nos será más fácil. ¿Qué es lo que ha cambiado? La fuerza en ambos casos es la misma. Lo que ha cambiado es el punto de aplicación de la fuerza. En todo lo que hemos visto anteriormente no se ha planteado la cuestión sobre el lugar del punto de aplicación de la fuerza, puesto que en los problemas considerados no jugaban ningún papel, ni la forma, ni las dimensiones del cuerpo. En realidad, sustituíamos mentalmente el cuerpo por un punto. El ejemplo de la rotación del volante muestra que, cuando se trata de la rotación o del giro de un cuerpo, el problema sobro el punto de aplicación de la fuerza está muy lejos de ser vano. Para comprender el papel del punto de aplicación de la fuerza, calculemos el trabajo que hay que realizar para hacer girar el cuerpo en un ángulo determinado. Claro

Gentileza de Manuel Mayo

139

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

que, en este cálculo, se supone que las partículas de un sólido están rígidamente unidas entre sí (dejamos a un lado, por ahora, la capacidad del cuerpo de torcerse, de comprimirse, y, en general, de cambiar su forma). Por lo tanto, la fuerza aplicada a un punto del cuerpo, comunica una energía cinética a todas sus partes. Al calcular este trabajo, se ve con claridad el papel que desempeña el punto de aplicación de la fuerza.

Figuras 5.1 y 5.2 En la fig. 5.1, se muestra un cuerpo fijo sobre un eje. Al girar el cuerpo un ángulo pequeño y, el punto de aplicación de la fuerza se ha trasladado por el arco, es decir, ha recorrido el espacio S. Proyectando la fuerza sobre la dirección del movimiento, o sea, sobre la tangente a la circunferencia, por la que se mueve el punto de aplicación, escribimos la expresión conocida del trabajo A: A =Flong S Pero, el arco S, se puede representar así:

Gentileza de Manuel Mayo

140

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

S=rφ en donde r es la distancia del eje de rotación hasta el punto de aplicación de la fuerza. Así, A =Flong r φ

Girando el cuerpo de diversos modos en un mismo ángulo, podemos realizar diferente trabajo en función de donde esté aplicada la fuerza. Si se ha dado el ángulo, el trabajo se determina por el producto Flong r. Tal producto se llama momento de la fuerza: M = Flong r A la fórmula del momento de la fuerza se le puede dar otra forma. Sea O el eje de rotación y B el punto de aplicación de la fuerza (fig. 5.2). Con la letra d se designa la longitud de la perpendicular bajada desde el punto O a la dirección de la fuerza. Los dos triángulos construidos en el dibujo, son semejantes. Por eso, F / Flong = r/d o Flong r = F d La magnitud d se llama brazo de la fuerza. La nueva fórmula M = Fd se lee así: el momento de una fuerza es igual al producto de la fuerza por su brazo. Si el punto de aplicación de la fuerza se desplaza a lo largo de la dirección de la fuerza, el brazo d, y junto con éste, el momento de la fuerza M, no se altera. Por tanto, es indiferente en qué sitio de la línea de la fuerza esté el punto de aplicación.

Gentileza de Manuel Mayo

141

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Mediante este nuevo concepto se escribe más abreviadamente la fórmula del trabajo: A = M φ, o sea, el trabajo es igual al producto del momento de la fuerza por el ángulo de giro. Supongamos que sobre el cuerpo actúan dos fuerzas cuyos momentos son M1 y M2. Al girar el cuerpo un ángulo φ, se realizará el trabajo M1φ + M2φ = (M1 + M2) φ. Esta fórmula muestra que dos fuerzas, que tienen los momentos M1 y M2, hacen girar el cuerpo tal como lo haría una sola fuerza que tuviese un momento M igual a la suma M1 + M2. Los momentos de las fuerzas pueden ayudarse o estorbarse unos a otros. Si los momentos M1 y M2 tienden a girar el cuerpo hacia un mismo lado, tendremos que considerar que son cantidades de un mismo signo algebraico. Por el contrario, los momentos de las fuerzas que hacen girar el cuerpo hacia diversos lados, tienen signos diferentes. Como ya sabemos, el trabajo de todas las fuerzas que actúan sobre el cuerpo, se invierte en la variación de la energía cinética. La desaceleración o la aceleración de la rotación del cuerpo se debe a la alteración de su energía cinética. Esto puede ocurrir solamente en el caso, cuando el momento total de las fuerzas no es igual a cero. ¿Y si el momento total es igual a cero? La respuesta es clara: como no hay variación de energía cinética, el cuerpo, o gira uniformemente por inercia o está en reposo. Así pues, el equilibrio de un cuerpo que es capaz de girar, presupone un equilibrio de los momentos de las fuerzas que sobre él actúan. Si obran dos fuerzas, el equilibrio presupone la igualdad M1 + M2 = 0 Mientras nos interesaban los problemas en los que el cuerpo se podía considerar como un punto, las condiciones de equilibrio eran simples: para que un cuerpo esté en reposo o en movimiento uniforme, decía la ley de Newton para estos problemas,

Gentileza de Manuel Mayo

142

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

hace falta que la fuerza resultante sea igual a cero; las fuerzas que actúan hacia arriba, tienen que equilibrarse con las fuerzas que obran hacia abajo; las fuerzas que actúan hacia la derecha, tienen que compensarse con las que obran hacia la izquierda. Esta ley también tiene valor para nuestro caso. Si el volante está en reposo, las fuerzas que sobro él actúan se equilibran con la reacción del eje sobre el que está colocado. Pero, estas condiciones necesarias, resultan ser insuficientes. Además del equilibrio de las fuerzas, se requiere también el equilibrio de sus momentos. El equilibrio de los momentos es la segunda condición necesaria para el reposo o la rotación uniforme del sólido. Los momentos de las fuerzas, si es que hay muchos, se dividen sin dificultad en dos grupos: unos tienden girar el cuerpo hacia la derecha, otros, hacia la izquierda. Estos momentos son los que tienen que compensarse. 2. La palanca ¿Puede levantar un hombre un peso de 100 toneladas? ¿Se puede aplastar un trozo de hierro con la mano? ¿Puede oponerse un niño contra un hombre forzudo? Si, se puede. Propongamos a un hombre muy fuerte hacer girar un volante hacia la izquierda, cogiendo el radio con la mano cerca del mismo eje. En este caso, el momento de la fuerza no es muy grande: la fuerza es grande, pero el brazo es pequeño. Si un niño tira de la rueda en sentido contrario, cogiendo el radio en la llanta, el momento de la fuerza puede resultar muy grande: la fuerza es pequeña, sin embargo, el brazo es grande. La condición de equilibrio es: M1 = M2 o F1d1 =F1d2 Aplicando la ley de los momentos, se le puede dar al hombre una fuerza fantástica. El ejemplo más brillante es la acción de la palanca.

Gentileza de Manuel Mayo

143

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Desea Ud. levantar una piedra enorme con una barra? Resulta que Ud. puede resolver este problema, a pasar que el peso de la piedra sea de unas cuantas toneladas. La barra colocada sobre un apoyo representa el cuerpo sólido de nuestro problema. El punto de apoyo es el centro de rotación. Sobre el cuerpo actúan dos momentos de fuerzas: uno que obstaculiza, originado por el peso de la piedra, y otro que empuja, originado por la mano. Si el índice 1 se refiere a la fuerza de los músculos y el índice 2, al peso de la piedra, la posibilidad de levantar la piedra se expresará abreviadamente así: M1 tiene que ser mayor que M2. Se puede mantener la piedra levantada, si M1 = M2, o sea, F1d1 = F2d2 el brazo pequeño, desde el apoyo hasta la piedra, es 15 veces menor que el brazo grande, desde el apoyo hasta la mano, el hombre puede mantener levantada una piedra de 1 tonelada de peso actuando con todo su peso sobre el extremo largo de la palanca. La barra colocada sobre el apoyo es el ejemplo más simple y difundido de palanca. La ganancia en fuerza con la ayuda de una barra, suele ser, ordinariamente, de 10 a 20 veces. La longitud de la barra es alrededor de 1,5 m, y, generalmente, es difícil establecer el punto de apoyo más cerca de 10 cm del extremo. Por eso, un brazo será mayor que otro de 15 a 20 veces y, por consiguiente, igual será la ganancia en fuerza. El chófer con un gato levanta con facilidad el camión con una carga de unas cuantas toneladas. El gato es una palanca del mismo tipo que la barra colocada sobre un apoyo. Los puntos de aplicación de las fuerzas (la mano, el peso del camión) están a ambos lados del punto de apoyo de la palanca del gato. Aquí, la ganancia en fuerza es aproximadamente en 40 a 50 veces, lo que da la posibilidad de levantar fácilmente un peso enorme. Las tijeras, el cascanueces, los alicates, las tenazas, y otras muchas herramientas, son ejemplos de palancas. En la fig. 5.3 pueden hallar Ud. fácilmente el centro de rotación del cuerpo sólido (punto de apoyo) y los puntos de aplicación de las dos fuerzas, la que actúa y la que estorba.

Gentileza de Manuel Mayo

144

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 5.3 Cuando cortamos hojalata con las tijeras, procuramos abrirlas cuanto más se pueda. ¿Qué se consigue con esto? Se consigue introducir el metal lo más cerca posible del centro de rotación. El brazo del momento de la fuerza que se supera se hace menor y, por consiguiente, es mayor la ganancia en fuerza. Moviendo los aros de las tijeras o los brazos de los alicates, una persona mayor actúa, generalmente, con una fuerza de 40 a 50 kgf. Un brazo puede superar a otro unas 20 veces. Resulta que somos capaces de morder el metal con una fuerza de una tonelada. Y esto, con ayuda de herramientas que no son complicadas.

Figura 5.4

Gentileza de Manuel Mayo

145

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Una variedad de palanca es el torno. En muchas aldeas extraen el agua del pozo con ayuda del torno (fig. 5.4). 3. Pérdida en el camino Las herramientas hacen más fuerte al hombre; sin embargo, de esto no se puede hacer la conclusión de que las herramientas dan la posibilidad de realizar poco trabajo y conseguir mucho. La ley de conservación de la energía demuestra, que la ganancia en el trabajo, o sea, la creación de trabajo «de la nada», es una cosa imposible. El trabajo obtenido no puede ser mayor que el gastado. Al contrario, la desconocida pérdida de energía en el roce conduce a que el trabajo que se obtiene con las herramientas sea siempre menor que el trabajo gastado. En el caso ideal, estos trabajos pueden ser iguales. En realidad, es perder el tiempo en vano dedicarse a explicar esta verdad patente; pues, la regla de los momentos fue deducida de la condición de igualdad de los trabajos de la fuerza que actúa y de la que se supera. Si los puntos de aplicación de las fuerzas han recorrido los caminos S1 y S2, la condición de igualdad de los trabajos se escribirá así: F1long S1 = F2long S2 Para vencer una fuerza F2, en el camino S2, mediante un instrumento de palanca, se necesita una fuerza F1 mucho menor que F2. Pero, el desplazamiento S1 de la mano tiene que ser tantas veces mayor que S2, cuantas veces es menor la fuerza muscular F1 que F2. Frecuentemente, se expresa esta ley con la breve frase: lo que se gana en fuerza es igual a lo que se pierde en el camino. La ley de la palanca fue descubierta por el gran sabio de la antigüedad Arquímedes. Entusiasmado por la fuerza de la demostración, este admirable sabio de la antigüedad escribía al rey Herón de Siracusa: «Si hubiese otra Tierra, yo pasaría a ella y movería nuestra Tierra». Es posible que una palanca muy larga, cuyo punto

Gentileza de Manuel Mayo

146

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de apoyo estuviese muy cerca del globo terrestre, diera la posibilidad de resolver este problema. Nosotros no vamos a acongojarnos con Arquímedes sobre la falta del punto de apoyo que, como él pensaba, es lo único que se necesita para desplazar el globo terrestre. Dediquémonos a fantasías: tomemos una palanca grandísima, coloquémosla sobre un apoyo, y sobre el extremo corto «colguemos una pequeña bolita» que pese... 6 x 1024 kgf. Esta cifra módica muestra el peso del globo terrestre, «comprimido en una pequeña bolita». Apliquemos ahora una fuerza muscular al extremo largo de la palanca. Si consideramos que la fuerza de la mano de Arquímedes es de 60 kgf, para desplazar en 1 cm a la «nuez terrestre», la mano de Arquímedes tendría que recorrer un camino que es 1023/60 veces mayor. ¡1023 cm son 1018 km, que son tres mil millones de veces más que el diámetro de la órbita terrestre! Este ejemplo anecdótico muestra con claridad las medidas de «la pérdida en el camino» en el trabajo con la palanca. Cualquiera de los ejemplos examinados anteriormente se puede emplear como ilustración, no sólo de la ganancia en la fuerza, sino de la pérdida en el camino. La mano del chófer, al trabajar con el gato, recorre un camino que será tantas veces mayor que la magnitud del alzamiento del camión, cuantas veces la fuerza muscular sea menor que el peso del mismo. Acercando los aros de las tijeras para cortar una hoja de lata, efectuamos un trabajo en el camino, que es tantas veces mayor que la profundidad del corte, cuantas veces la fuerza muscular es menor que la resistencia de la hoja de lata. Una piedra levantada con la barra alcanza una altura que es tantas veces menor que la altura en que desciende la mano, cuantas veces la fuerza de los músculos es menor que el peso de la piedra. Esta regla aclara el principio de acción del tornillo. Figurémonos que se ajusta un tornillo, cuyo paso de rosca es de 1 mm, con una llave inglesa de 30 cm, de longitud. En una vuelta, el tornillo avanza a lo largo del eje 1 mm, y nuestra mano, durante el mismo tiempo, recorrió el camino de 2 m.

Gentileza de Manuel Mayo

147

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Arquímedes (alrededor de los años 287-212 antes de nuestra era) fue gran matemático, físico e ingeniero de la antigüedad. Arquímedes calculó el volumen y la superficie de la esfera y de sus partes, del cilindro y de los cuerpos formados por la rotación de la elipse, hipérbola y parábola. Calculó por primera vez, con bastante exactitud la razón de la longitud de la circunferencia a su diámetro, demostrando que esta razón está comprendida entro los límites 3 10/71 < π < 3 1/7. En la mecánica, estableció las leyes de la palanca, las condiciones de flotación de los cuerpos ("principio de Arquímedes"), las leyes de la suma de las fuerzas paralelas. Arquímedes inventó una máquina para elevar el agua ("la rosca de "Arquímedes"), que incluso actualmente se emplea para transportar cargas movedizas y viscosas; un sistema de palancas y bloques para levantar grandes pesos y máquinas militares arrojadizas, que actuaron con éxito durante el cerco de su ciudad natal, Siracusa, por los romanos. La ganancia en fuerza es en 2 mil veces, bien sujetemos las piezas con seguridad, bien traslademos grandes pesos con un pequeño esfuerzo de la mano. 4. Otras máquinas simples

Gentileza de Manuel Mayo

148

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La pérdida en el camino, como pago de la ganancia en la fuerza, es una ley general, no sólo para los instrumentos de palanca, sino también para otros dispositivos y mecanismos empleados por el hombro.

Figura 5.5 Para levantar cargas se emplean mucho los polipastos. Así se llama un sistema de unas cuantas poleas móviles, unidas con una o varias poleas fijas. En la fig. 5.5, la carga está suspendida de seis cuerdas. Claro que el peso se distribuye y la tensión de la cuerda es seis veces menor que el peso. Para levantar una carga de una tonelada se necesita aplicar una fuerza de 1000/61 = 167 kgf. Sin embargo, no es difícil comprender, que para levantar la carga a 1 m hacen falta 6 m de cuerda. Para levantar la carga a 1 m hacen falta 1000 kgm de trabajo. Esto trabajo tenemos que realizarlo «en cualquier forma»: una fuerza de 1000/6 kgf tiene que actuar en el camino de 6 m; una fuerza de 10 kgf, en el camino de 100 m; una fuerza de 1 kgf, en el camino de 1 km.

Gentileza de Manuel Mayo

149

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El plano inclinado mencionado en páginas anteriores, también representa un dispositivo que permite ganar en la fuerza, perdiendo en el camino. El choque es un método particular de multiplicación de la fuerza. Un martillazo, un hachazo, un espolonazo y el simple puñetazo pueden crear una fuerza enorme. El secreto del golpe fuerte no es complicado. Clavando un clavo con un martillo sobre una pared muy dura, hay que levantar mucho el brazo. La gran amplitud, o sea, el gran espacio en el que actúa la fuerza, crea una energía cinética considerable del martillo. Esta energía rinde en un camino pequeño. Si la amplitud es de 1/2 m, y el clavo se introdujo en la pared 1/2 cm, la fuerza se multiplicó en 100 veces. Pero, si la pared es más dura y el clavo se ha introducido en la pared 1/2 mm, siendo la misma la amplitud del brazo, el golpe será 10 veces más fuerte que en el primer caso. En una pared dura, el clavo no se introducirá muy profundamente y el mismo trabajo se realizará en un camino menor. Resulta, pues, que el martillo trabaja como un autómata: golpea más fuerte allí donde es más difícil. Si al martillo se le comunica una fuerza de un kilogramo, éste golpeará el clavo con una fuerza de 100 kgf. Y, partiendo leña con un hacha pesada, partimos la madera con una fuerza de unas cuantas toneladas. Los martillos pilones de los herreros caen desde una pequeña altura, alrededor de un metro. Aplastando la forjadura en 1 a 2 mm, el martillo pilón de una tonelada de peso se desploma sobre ella con una fuerza inmensa de miles de toneladas. 5. Cómo sumar fuerzas paralelas que actúan sobre un sólido Cuando en las páginas anteriores resolvíamos problemas de mecánica en los que sustituíamos el cuerpo por un punto, el problema de la suma de las fuerzas se resolvía fácilmente. La regla del paralelogramo proporcionaba la respuesta, y, si las fuerzas eran paralelas, sumábamos sus magnitudes como números. Ahora, el asunto es más complicado, pues la acción de la fuerza sobre el cuerpo no sólo se caracteriza por su magnitud y su dirección sino también por su punto de aplicación, o por la línea de acción de la fuerza que, como explicábamos anteriormente, es lo mismo. Sumar fuerzas, significa sustituirlas por una. Esto no siempre se puede hacer.

Gentileza de Manuel Mayo

150

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La sustitución de fuerzas paralelas por una resultante es un problema que siempre tiene solución (menos en un caso particular, que se mencionará al final de este apartado.) Examinemos la suma de fuerzas paralelas. Claro, la suma de fuerzas de 3 kgf y 5 kgf es igual a 8 kgf, si las fuerzas tienen un mismo sentido. El problema consiste en hallar el punto de aplicación (la línea de acción) de la resultante.

Figura 5.6 En la fig. 5.6 están representadas dos fuerzas que obran sobre un cuerpo. La fuerza resultante F sustituyó las fuerzas F1 y F2, pero esto no sólo quiere decir que F = F1 + F2; la acción de la fuerza F será equivalente a la acción de F1 y F2, en el caso en que el momento de la fuerza F sea también igual a la suma de los momentos de F1 y de F2. Busquemos la línea de acción de la fuerza resultante F. Claro que ésta es paralela a las fuerzas F1 y F2, pero, ¿a qué distancia pasa esta línea de las fuerzas F1 y F2? En el dibujo, como punto de aplicación de la fuerza F, se ha representado un punto que está situado en el segmento que une los puntos de aplicación de las fuerzas F1 y F2. Sin duda, el momento de la fuerza F con respecto al punto elegido, es igual a cero. Pero entonces la suma de los momentos de F1 y F2, con respecto a este punto, Gentileza de Manuel Mayo

151

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

también tiene que ser igual a cero; o sea, los momentos de las fuerzas F1 y F2, que son diferentes de signo, tienen que ser iguales en magnitud. Designando con las letras d1 y d2 los brazos de las fuerzas F1 y F2 podemos escribir esta condición así: F1d1 = F2d2, o sea, F1 / F2 = d2 / d1

De la semejanza de los triángulos rayados se deduce que d2 / d1 = l2 / l1 o sea que el punto de aplicación de la fuerza resultante divide la distancia entre las fuerzas que se suman en partes l1 y l2, inversamente proporcionales a las fuerzas. Designemos con la letra l la distancia entre los puntos de aplicación de las fuerzas F1 y F2. Es evidente que l = l1 + l2 Resolviendo el sistema de dos ecuaciones con dos incógnitas:

obtenemos:

Aplicando estas fórmulas, podemos hallar el punto de aplicación de la fuerza resultante, no sólo en el caso en que las fuerzas tienen un mismo sentido, sino también cuando tienen sentido contrario (o, como suele decirse, cuando son Gentileza de Manuel Mayo

152

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

antiparalelas). Si las fuerzas tienen direcciones opuestas, serán de signo contrario y la resultante será igual a la diferencia de las fuerzas F1 — F2, y no su suma. Suponiendo que es negativa la menor de las dos fuerzas, F2, vemos por las fórmulas que l1 resulta negativa. Esto significa que el punto de aplicación de la fuerza F1 no está como antes, a la izquierda, sino a la derecha del punto de aplicación de la resultante (fig. 5.7), y, además igual que antes, F1 / F2 = l2 / l1

En este caso, F no sólo traslada el cuerpo, sino también lo da vuelta. No conviene preocuparse por el hecho de que el punto de aplicación de F se encuentra fuera del cuerpo: siempre son reales solamente las fuerzas F1 y F2.

Figura 5.7 Cuando las fuerzas son iguales y diametralmente opuestas, se obtiene un resultado interesante. En este caso, F1 + F2 = 0. Las fórmulas muestran que l1 y l2, se hacen infinitamente grandes. ¿Qué significado físico tiene esta afirmación? Como de tiene sentido relacionar la resultante al infinito, llegamos a la conclusión de que las fuerzas iguales y diametralmente opuestas no se pueden sustituir por una sola fuerza. Tal combinación de fuerzas se llama par de fuerzas. La acción de un par de fuerzas no se puede reducir a la acción de una sola fuerza. Dos fuerzas cualesquiera, paralelas o diametralmente opuestas, pero de diferentes Gentileza de Manuel Mayo

153

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

magnitudes, siempre se pueden equilibrar con una (en el segundo caso conviene recurrir a un dispositivo no complicado; fijar al cuerpo con vástago, véase l en la fig. 5.7). Equilibrar un par de fuerzas es imposible. Naturalmente, no sería cierto decir que las fuerzas que forman un par se anulan entre sí. El par de fuerzas ejecuta una acción muy esencial, hace girar un cuerpo; la particularidad de la acción del par de fuerzas consiste en que este no ocasiona movimiento de traslación. En algunos casos puede darse el problema, no de la suma de fuerzas paralelas sino de la descomposición de una fuerza dada en dos paralelas.

Figura 5.8 En la fig. 5.8 están representados dos hombres que conjuntamente llevan sobre un palo una maleta pesada. El peso de la maleta se divide entre los dos. Si la carga presiona sobre el medio del palo, ambos experimentan un paso igual. Si las distancias desde el punto de aplicación de la carga hasta los hombros son d1 y d2, la fuerza F se descompondrá en dos fuerzas F1 y F2, según la regla: F1 / F2 = d2 / d1 El más fuerte tiene que agarrar el palo más cerca de la carga. 6. Centro de gravedad

Gentileza de Manuel Mayo

154

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Todas las partículas de un cuerpo tienen peso. Por eso, sobre el cuerpo sólido actúan una infinidad de fuerzas de gravedad. Además, todas las fuerzas son paralelas. Ya que esto es así, éstas se pueden sumar de acuerdo con las reglas que acabamos de considerar y sustituirlas por una fuerza. El punto de aplicación de la fuerza resultante se llama centro de gravedad. Es como si todo el peso del cuerpo estuviera concentrado en un punto. Suspendamos el cuerpo de uno de sus puntos. ¿Cómo se sitúa? Está claro que, como podemos mentalmente sustituir el cuerpo por un peso concentrado en el centro de gravedad, en condiciones de equilibrio este peso se situará en la vertical que pasa por el punto de apoyo. Mejor dicho, en condiciones de equilibrio el centro de gravedad estará situado en la vertical que pasa por el punto de apoyo y ocupará la posición más inferior. También se puede colocar el centro de gravedad por encima del punto de apoyo, en la vertical que pasa por el eje. Esto se consigue hacer con gran trabajo y sólo gracias a la existencia de rozamiento. El equilibrio es inestable. Ya se dijo que para la condición de equilibrio estable, la energía potencial tiene que ser mínima. Esto ocurre en el caso en que el centro de gravedad está situado por debajo del punto de apoyo. Cualquier desviación eleva el centro de gravedad y, por consiguiente, aumenta la energía potencial. Por el contrario, cuando el centro de gravedad está situado por encima del punto de apoyo, cualquier acción que retire el cuerpo de esta posición conduce a la disminución de la energía potencial. Esta posición es inestable. Recortemos una figura de cartón. Para hallar su centro de gravedad, la colgamos dos veces, fijando el hilo de suspensión, primero en uno y luego en otro punto del cuerpo. Fijemos la figura en un eje que pase por el centro de gravedad. Giremos la figura en una posición, en la segunda, en la tercera... Se observa una indiferencia total del cuerpo respecto a nuestras operaciones. En cualquier posición se registra un caso especial de equilibrio. A este le llaman indiferente. La causa es clara, en cualquier posición de la figura, el punto material que la sustituye está situado en un mismo sitio.

Gentileza de Manuel Mayo

155

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En una serie de casos, el centro de gravedad se puede hallar sin hacer experimentos y sin cálculos. Está claro, por ejemplo, que, en virtud de su simetría, los centros de gravedad de la esfera, del círculo, del cuadrado y del rectángulo, están situados en sus centros respectivos. Si dividimos mentalmente un cuerpo simétrico en partículas, a cada una de éstas corresponderá otra simétrica situada al otro lado del centro. Y para cada par de tales partículas, el centro de la figura será el centro de gravedad. En el triángulo, el centro de gravedad está situado en la intersección de las medianas. En efecto, dividamos el triángulo en fajas estrechas, paralelas a uno de los lados. La mediana dividirá por la mitad a cada una de estas fajas. Pero el centro de gravedad de una faja está, sin duda, en el medio de ella, o sea, en la mediana. Los centros de gravedad de todas las fajas se sitúan en la mediana y, cuando sumemos las fuerzas de sus pesos, llegaremos a la conclusión de que el centro de gravedad del triángulo estará situado en algún lugar de la mediana. Estos razonamientos se pueden aplicar a cualquier mediana. Por consiguiente, el centro de gravedad tiene que estar situado en la intersección de ellas. Pero, ¿puede ser que no estemos seguros de que las tres medianas se corten en un punto? Esto se demuestra en la geometría; nuestro razonamiento también demuestra este interesante teorema. En efecto, un cuerpo no puede tener varios centros de gravedad y, siendo único el centro de gravedad, como éste está situado en la mediana, sea cual fuera el ángulo desde el que la tracemos, resulta que las tres medianas se cortan en un punto. El planteamiento de un problema físico nos ha ayudado a demostrar un teorema geométrico. Es más difícil hallar el centro de gravedad de un cono homogéneo. Por razones de simetría, queda solamente claro que el centro de gravedad está situado en la línea axial. Los cálculos muestran que éste está situado de la base a 1/4 de la altura. El centro de gravedad no siempre está dentro del cuerpo. Por ejemplo, el centro de gravedad de un anillo está en su centro, o sea, fuera del anillo. ¿Se puede poner un alfiler en equilibrio, en posición vertical, sobre un soporte de cristal?

Gentileza de Manuel Mayo

156

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fig. 5.9 se muestra cómo se hace esto. Hay que sujetar bien al alfiler una armadura de alambre no muy grande, en forma de una balanza doble con cuatro pesos pequeños. Como los pesos están suspendidos más abajo del apoyo y el peso del alfiler es pequeño, el centro de gravedad estará situado por debajo del punto de apoyo. La posición es estable.

Figura 5.9 Hasta ahora tratábamos de cuerpos que tenían un punto de apoyo. ¿Qué ocurriría si el cuerpo se apoyase sobro una superficie entera? Está claro que, en este caso, la disposición del centro de gravedad por encima del apoyo no significa que el equilibrio sea inestable. ¿Cómo podrían estar, de otro modo, los vasos sobro la mesa? Para el equilibrio es necesario que la línea de acción de la fuerza de gravedad, trazada desde el centro de gravedad, pase por la superficie de apoyo. Por el contrario, si la línea de acción de la fuerza pasa por fuera de la superficie de apoyo, el cuerpo se cae. El grado de amabilidad puede ser muy diverso, según la altura en que esté situado el centro de gravedad sobre el apoyo. Solamente una persona muy torpe llega a volcar un vaso de té, sin embargo, una jarra de flores con una base pequeña, se puede volcar tocándola un poco descuidadamente. ¿A qué es debido esto? Vean la fig. 5.10. A los centros de gravedad se aplican las fuerzas horizontales iguales. La jarra expuesta a la derecha caerá, ya que la fuerza resultante no pasa por la superficie de apoyo.

Gentileza de Manuel Mayo

157

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Ya se advirtió que para la estabilidad de un cuerpo, la fuerza que se le aplica tiene que pasar por la superficie de apoyo.

Figura 5.10 Pero la superficie de apoyo, que se necesita para el equilibrio, no siempre corresponde a la superficie da apoyo real. En la fig. 5.11 está representado un cuerpo cuyo plano de apoyo tiene la forma de media luna. Es fácil comprender que, completando la media luna basta un semicírculo entero, la estabilidad del cuerpo no se altera. Por lo tanto, la superficie de apoyo determinada por la condición de equilibrio puede ser realmente mayor.

Figuras 5.11 y 5.12

Gentileza de Manuel Mayo

158

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Para hallar la superficie de apoyo del trípode representado en la fig. 5.12, hay que unir sus extremos mediante rectas. ¿Por qué es tan difícil andar por una cuerda? Porque la superficie de apoyo disminuye demasiado. No es fácil andar por una cuerda, pues, no en vano se recompensa con aplausos el arte de un funámbulo. Sin embargo, a veces, el público yerra y aclama algunos trucos ingeniosos que facilitan el problema, como si fuera la culminación del arte. El artista toma una barra muy encorvada con dos baldes de agua en sus extremos; los baldes quedan a la altura de la cuerda. Con una cara muy seria, la orquesta deja de tocar, el artista empieza a caminar por la cuerda. ¡Qué complicado es el truco! —piensa el espectador ignorante. En realidad, el artista ha facilitado su tarea rebajando el centro de gravedad. 6. Centro de inercia Es lógico preguntar: ¿Dónde está situado el centro de gravedad de un grupo de cuerpos? Si en una balsa hay mucha gente, el equilibrio de ésta depende de la posición del centro de gravedad común (junto con la balsa). El significado de este concepto es el mismo. El centro de gravedad es el punto de aplicación de la suma de las fuerzas de gravedad de todos los cuerpos del grupo considerado. Ya sabemos el resultado del cálculo para dos cuerpos. Si dos cuerpos, que tienen los pesos F1 y F2, están a la distancia x, el centro de gravedad estará situado a la distancia x1 del primero y a la distancia x2 del segundo, además, x1 + x2 = x

y

P1/P2 = x2/x1

Como el peso se puede representar como el producto mg, el centro de gravedad de un par de cuerpos satisface a la condición: m1 x1 = m2 x2, o sea, está situado en el punto que divide la distancia entre las masas en segmentos inversamente proporcionales a las masas.

Gentileza de Manuel Mayo

159

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Recordemos ahora los disparos del cañón situado en una plataforma. Los impulsos del cañón y del proyectil son iguales y tienen dirección contraria, se verifican las igualdades: m1 v1 = m2 v2

o

v2/v1 = m1/m2

la razón de velocidades conserva este valor todo el tiempo de acción mutua. Durante el movimiento creado por el retroceso, el cañón y el proyectil se desplazan hacia diversos lados con respecto a la posición inicial, a las distancias x1 y x2. Las distancias x1 y x2, que son los espacios recorridos por ambos cuerpos, van creciendo, pero, manteniéndose constante la razón de velocidades; las distancias x1 y x2 también estarán en la misma razón x2/x1 = m1/m2 x1 m1 = m2 x2 Aquí, x1 y x2, son las distancias del cañón y del proyectil desde los puntos iniciales en que ellos se encontraban. Comparando esta fórmula con la que determina la posición del centro de gravedad, vemos que son absolutamente idénticas. De aquí se deduce directamente, que el centro de gravedad del proyectil y del cañón permanece en el punto inicial todo el tiempo después del disparo. En otras palabras, hemos obtenido un resultado muy interesante: el centro de gravedad del cañón y del proyectil continúa en reposo después del disparo. Esta conclusión siempre es cierta; si al principio, el centro de gravedad de los cuerpos estaba en reposo, su acción mutua, sea cual fuera el carácter de ella, no puede alterar la posición del centro de gravedad. Precisamente por esto, no se puede levantar uno a sí mismo por los pelos, o alcanzar la Luna por el método del escritor francés Cyrano de Bergerac, que para este fin propuso (claro que en broma) coger con las manos un trozo de hierro y echar a lo alto un imán para que atrajese a aquél.

Gentileza de Manuel Mayo

160

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El centro de gravedad en reposo, desde el punto de vista de otro sistema inercial, se mueve uniformemente. Por consiguiente, el centro de gravedad, o está en reposo, o bien mueve uniforme y rectilíneamente. Lo dicho sobre el centro de gravedad de dos cuerpos es justo también para un grupo de muchos cuerpos. Claro que cuando se aplica la ley de la cantidad de movimiento, siempre se supone que se trata de un grupo aislado de cuerpos. Por lo tanto, para cada grupo de cuerpos que están en acción mutua, existe un punto que está en reposo o se mueve uniformemente; este punto es su centro de gravedad. Queriendo subrayar la propiedad nueva de esto punto, a éste le dan otra denominación más, llamándole centro de inercia. En efecto, sobre la gravedad del sistema solar (y, por consiguiente, sobre el centro de gravedad) sólo se puede hablar condicionalmente. Como quiera que se muevan los cuerpos que forman un sistema cerrado, el centro de inercia (de gravedad) estará en reposo o, en otro sistema de referencia, se moverá por inercia. 7. Momento de impulso Ahora estudiaremos otro concepto mecánico, cuyo conocimiento da la posibilidad de enunciar otra nueva o importante ley del movimiento. Este concepto se llama momento de impulso, o momento de la cantidad de movimiento. Ya las denominaciones dan a entender que se trata de una magnitud parecida al momento de una fuerza. El momento de impulso, igual que el momento de fuerza, demanda la indicación de un punto con respecto al cual se determina el momento. Para determinar el momento de impulso con respecto a algún punto, hay que trazar el vector de impulso y bajar a éste una perpendicular desde el punto. El producto del impulso mv por el brazo d es el momento de impulso, que lo designemos con la letra N: N=mvd

Gentileza de Manuel Mayo

161

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Si el cuerpo se mueve libremente, su velocidad no varía; también se mantiene inalterable el brazo con respecto a cualquier punto, pues el movimiento se efectúa en línea recta. Por consiguiente, en este movimiento también se mantiene inalterable el momento de impulso. Igual que para el momento de la fuerza, para el momento de impulso se puede escribir también otra fórmula.

Figura 5.13 Unamos mediante un radio el lugar en que está situado el cuerpo con el punto, con respecto al cual se busca el momento (fig. 5.13). Hallemos también la proyección de la velocidad sobre la dirección perpendicular al radio. De la semejanza de los triángulos construidos en el dibujo, se deduce: v/vL = r/d Por lo tanto, v d = vL r y la fórmula para el momento de impulso se puede escribir también en la forma siguiente: N = m vL y. Como acabamos de decir, en el movimiento libre se mantiene inalterable el momento de impulso. Pero. ¿y si sobre el cuerpo actúa una fuerza? Los cálculos

Gentileza de Manuel Mayo

162

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

muestran que la variación del momento de impulso en un segundo es igual al momento de la fuerza. La ley obtenida se aplica sin dificultad también para un sistema de cuerpos. Si se suman las variaciones de los momentos de impulso de todos los cuerpos que forman el sistema, esta suma resultará igual e la suma de los momentos de las fuerzas que actúan sobre el cuerpo. Por lo tanto, para un grupo de cuerpos se verifica la regla siguiente: la variación total del momento de impulse en una unidad de tiempo es igual a la suma de los momentos de todas las fuerzas. 8. Ley de conservación del momento de impulso Si se unen dos piedras con una cuerda y se lanza una de ellas con fuerza, la segunda irá detrás de la primera con la cuerda estirada. Una piedra alcanzará a la otra y la traslación hacia adelante irá acompañada de una rotación. Olvidémonos del campo de gravitación; supongamos que el lanzamiento se ha efectuado en el espacio cósmico. Las fuerzas que actúan sobre las piedras son iguales entre sí y están dirigidas a lo largo de la cuerda, una al encuentro de la otra (pues, éstas son las fuerzas de acción y reacción). Pero, entonces, los brazos de ambas fuerzas, con respecto a cualquier punto, serán iguales. Brazos iguales y fuerzas iguales, pero en direcciones contrarias, proporcionan momentos iguales de las fuerzas y de signo contrario. El momento total de las fuerzas será igual a cero. De aquí se deduce, que la variación del momento de impulso es igual a cero, es decir, que el momento de impulso de tal sistema se mantiene constante. La cuerda que unía las piedras nos servía para mayor claridad. La ley de conservación del momento de impulso es válida para cualquier par de cuerpos que están en acción mutua, independientemente de la naturaleza de esta acción. Y, no sólo para un par. Si se estudia un sistema cerrado de cuerpos, las fuerzas que actúan entre ellos siempre se pueden dividir en cantidades iguales de fuerzas de acción y reacción, cuyos momentos se anulan por pares. La ley de conservación del momento total de impulso es universal, se verifica para cualquier sistema cerrado de cuerpos. Si un cuerpo gira alrededor de un eje, su momento de impulso es igual a

Gentileza de Manuel Mayo

163

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

N=mvr en donde m es la masa, v, la velocidad y r, la distancia al eje. Expresando la velocidad mediante el número de vueltas n en un segundo, se tiene: v = 2πnr

y

N = 2πmnr2

es decir, el momento de impulso es proporcional al cuadrado de la distancia hasta el eje. Siéntese en un banco cuyo asiento es giratorio. Tome en las manos unas pesas pesadas, abra ampliamente los brazos y pida a alguien que le haga girar lentamente.

Encoja

ahora,

rápidamente,

los

brazos

sobre

el

pecho

e

inesperadamente comenzará a girar con mayor rapidez. Abra los brazos y el movimiento se retardará; acerque las manos al pecho y el movimiento se acelerará. Mientras el banco, por el roce, no pare de girar, tendrá Ud. tiempo de variar unas cuantas veces la velocidad de su rotación. ¿Por qué ocurre esto? Cuando se aproximan las pesas al eje, siendo constante la cantidad de vueltas, el momento de impulso disminuye. Para «compensar» esta disminución, se aumenta la velocidad de rotación. Los acróbatas aprovechan con éxito la ley de conservación del momento de impulso. ¿Cómo efectúan el salto, o sea, las vueltas en el aire? Primero, reciben un empujón de la tarima de muelle o de las manos de un compañero. Durante el empuje, el cuerpo se inclina hacia adelante y el peso, junto con la fuerza del empuje, crea un momento instantáneo de la fuerza. La fuerza del empuje desarrolla un movimiento hacia adelante y el momento de la fuerza engendra la rotación. Sin embargo, esta rotación es lenta, no causa impresión al público. El acróbata encoge las rodillas. «Recogiendo su cuerpo» lo más cerca posible del eje de rotación, el acróbata aumenta considerablemente la velocidad de rotación, y rápidamente, da la voltereta. Tal es la mecánica del «salto».

Gentileza de Manuel Mayo

164

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Los movimientos de una bailarina que realiza vueltas rápidas, una tras otras, se basan en este mismo principio. Por lo general, el compañero de la bailarina, es el que origina el momento inicial de impulso. En este instante, el cuerpo de la bailarina está inclinado luego, empieza a girar lentamente, después, el movimiento es ligero y gracioso y la bailarina se pone derecha. Ahora, todos los puntos del cuerpo están cerca del eje de rotación y la conservación del momento de impulso conduce a un aumento repentino de la velocidad. 9. Momento de impulso como vector Hasta ahora hemos hablado de la magnitud de momento de impulso. Pero el momento de impulso posee las propiedades de un vector.

Figura 5.14 Examinemos el movimiento de un punto con relación a algún «centro». En la fig. 5.14 están representadas dos posiciones cercanas del punto. El movimiento que nos interesa se caracteriza por la magnitud del momento de impulso y el plano en que se efectúa. El plano del movimiento está rayado en el dibujo: es la superficie recorrida por el radio, trazado desde el «centro» hasta el punto móvil. Se pueden unir los conocimientos sobre la dirección del plano del movimiento y sobre el momento de impulso. Para esto sirve el vector del momento de impulso que tiene la dirección de la normal al plano del movimiento y es igual, en magnitud, al valor absoluto de dicho momento. Sin embargo, esto todavía no es todo: hay que

Gentileza de Manuel Mayo

165

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

tener en cuenta la dirección del movimiento en el plano, pues el cuerpo puede girar alrededor del centro, tanto en dirección de las agujas del reloj, como en dirección contraria. Se ha convenido representar el vector del momento de impulso de tal modo que, mirando de frente al vector, se vea la rotación en dirección contraria a las agujas del reloj. Se puede explicar de otro modo: la dirección del vector del momento de impulso está relacionada con la dirección de la rotación, igual que la dirección del sacacorchos está relacionada con la dirección del movimiento de su mango. Por consiguiente, si conocemos el vector del momento de impulso, podemos juzgar sobre la magnitud del momento, sobre la posición del plano del movimiento en el espacio y sobre la dirección de la rotación respecto al «centro». Si el movimiento se efectúa en un mismo plano, pero el brazo y la velocidad varían, el vector del momento de impulso conserva su dirección en el espacio, pero varía su longitud. Y, en caso de un movimiento arbitrario, el vector de impulso varía, tanto en magnitud, como en dirección. Se puede sospechar que la unión en un concepto de la dirección del plano del movimiento y de la magnitud del momento de impulso, sirve sólo para economizar palabras. En realidad, sin embargo, cuando tenemos que vernos con un sistema de cuerpos que no se mueven en un plano, obtenemos la ley de conservación del momento solamente cuando sumamos los momentos de impulso como vectores. Este hecho muestra que la atribución de un carácter vectorial al momento de impulso tiene un contenido profundo. El momento de impulso siempre se determina respecto a un «centro» cualquiera, apropiadamente elegido. Es natural que, por lo general, su magnitud dependa de la elección de este punto. Sin embargo, se puede demostrar que, si el sistema examinado de cuerpos está en reposo como un todo (su impulso total es igual a cero), el vector del momento de impulso no depende de la elección del «centro». Este momento de impulso se puede llamar momento interior de impulso del sistema de cuerpos. La ley de conservación del vector del momento de impulso es la tercera y última ley de conservación en la mecánica. A pesar de todo, cuando hablamos de tres leyes de conservación, no somos muy exactos. Pues, el impulso y el momento de impulso

Gentileza de Manuel Mayo

166

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

son magnitudes vectoriales, y la ley de conservación de una magnitud vectorial significa que se mantiene invariable, no sólo el valor numérico de la magnitud, sino también su dirección, o de otra manera, se mantienen invariables las tres componentes del vector en tres direcciones del espacio, perpendiculares entre sí. La energía es una magnitud escalar, el impulso es una magnitud vectorial, el momento de impulso también es una magnitud vectorial. Por eso, sería más exacto decir que en la mecánica existen siete leyes de conservación. 10. Peonzas Hagan la prueba de colocar un plato, por su parte inferior, sobre un bastón fino y mantenerlo en equilibrio. No os saldrá nada. Sin embargo, este truco es el preferido de los malabaristas chinos. Estos consignen realizarlo actuando con muchos bastones a la vez. El malabarista no intenta mantener los finos palos en posición vertical. Parece un milagro que los platos no se caigan y estén casi colgando en el aire, apoyándose ligeramente sobre los extremos de los palos, horizontalmente inclinados. Si se tiene la posibilidad de observar de cerca cómo trabajan los malabaristas, debemos fijarnos en un detalle importante: él da vueltas a los platos de tal modo que éstos giren con rapidez en su plano. Manipulando con las mazas, con los aros, con los sombreros, en todos los casos, el artista les hace girar. Solamente en estas condiciones los objetos vuelven a sus manos en la misma posición que se les había dado al comienzo. ¿En qué consiste la causa de esta estabilidad de la rotación? Esta está ligada a la ley de conservación del momento. Pues, al cambiar la dirección del eje de rotación, varía también la dirección del vector del momento de rotación. Del mismo modo que se necesita una fuerza para cambiar la dirección de la velocidad, se necesita un momento de fuerza para cambiar la dirección de la rotación y, además, tanto mayor cuanto más rápido gire el cuerpo. La tendencia de un cuerpo, que gira rápidamente, a mantener constante la dirección del eje de rotación, se puede observar en muchos casos semejantes a los citados. Así, pues, una peonza en rotación no se cae, incluso en el caso de que su eje esté inclinado.

Gentileza de Manuel Mayo

167

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Hagamos la prueba de volcar una peonza en rotación: resulta que no es tan fácil hacerlo. La estabilidad del cuerpo en rotación se emplea en la artillería. Probablemente hayan oído que en el tubo del cañón se hace un rayado de hélice. El proyectil disparado gira alrededor de su eje y, gracias a esto, no da «volteretas» en el aire. El cañón rayado proporciona una puntería incomparablemente mejor y es de mayor alcance que el no rayado. El piloto y el navegante marítimo tienen que saber siempre donde está la verdadera vertical terrestre en el instante dado, con respecto a la posición del avión o de la nave marítima. El empleo de la plomada no sirve para esto, puesto que en el movimiento acelerado aquélla se desvía. Por eso, se emplea una peonza de una construcción especial que gira con mucha rapidez, llamado girohorizonte. Si su eje de rotación se establece en la vertical terrestre, éste se mantiene en esta posición, a pesar de que el avión cambie su posición en el espacio. Pero, ¿en qué está situada la peonza? Si está sobre un soporte que gira junto con el avión, ¿cómo puede mantener su dirección el eje de rotación?

Figura 5.15 Sirve de soporte un dispositivo de la llamada suspensión de Cardan (fig. 5.15). En este dispositivo, siendo mínimo el rozamiento en los apoyos, la peonza se porta como si estuviese suspendida en el aire.

Gentileza de Manuel Mayo

168

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Con ayuda de peonzas en rotación se puede mantener automáticamente una dirección dada de un torpedo o de un avión. Esto se hace con ayuda de unos mecanismos que «vigilan» la inclinación de la dirección del eje del torpedo de la dirección del eje de la peonza. La construcción de un aparato tan importante como la brújula giroscópica está basada en la aplicación de la peonza en rotación. Se puede demostrar, que con la acción de la fuerza de Coriolis y de las fuerzas de rozamiento, el eje de la peonza, al fin y al cabo, se coloca paralelo al eje terrestre y, por consiguiente, indica al norte. Las brújulas giroscópicas se emplean con amplitud en la flota marítima. Su parte principal consiste en un motor con un pesado volante que hace hasta 25 000 vueltas/minuto. A pesar de una serie de dificultades para eliminar diversos obstáculos, debidos, en particular, al balanceo del barco, las brújulas giroscópicas tienen ciertas ventajas sobre las brújulas magnéticas. El defecto de estas últimas es el error cometido en las indicaciones a causa de la influencia du los objetos de hierro y de las instalaciones eléctricas del barco. 11. Árbol flexible Los árboles de las modernas turbinas de vapor son piezas importantes de estas máquinas grandiosas. La fabricación de tales árboles, que alcanzan 10 m de longitud y 0,5 de espesor, es un problema complicado de la tecnología. Un árbol de una turbina potente puede llevar una carga de cerca de 200 t y girar con una velocidad de 3000 vueltas/minuto. A primera vista, se puede creer que este árbol tiene que ser exclusivamente duro y resistente. Sin embargo, esto no es así. Al hacer decenas de miles de vueltas por minuto, un árbol, rígidamente fijo y no propenso a torcerse, inevitablemente se rompe, sea cual fuera su resistencia. No es difícil comprender por qué no sirven los árboles rígidos. Por mucha que sea la exactitud con la que trabajen los constructores de máquinas, éstos no pueden evitar aunque sea una pequeña asimetría de la rueda de la turbina. Al girar esta rueda, se crean fuerzas centrífugas colosales; recordemos que sus valores son proporcionales al cuadrado de la velocidad de rotación. Si éstas no están exactamente equilibradas,

Gentileza de Manuel Mayo

169

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

el árbol comienza a «golpear» a los cojinetes (pues, las fuerzas centrífugas no equilibradas «giran» junto con la máquina), los rompe y destruye toda la turbina. Esto fenómeno creaba en su tiempo unas dificultades insuperables en el aumento de la velocidad de rotación de la turbina. La salida de la situación se encontró a finales del siglo pasado y a comienzos de éste. En la técnica de la construcción de turbinas se introdujeron los árboles flexibles. Para comprender en qué consiste la idea de esto invento admirable, tenemos que calcular la acción total de las fuerzas centrífugas. ¿Cómo sumar estas fuerzas? Resulta, que la resultante de todas las fuerzas centrífugas está aplicada al centro de gravedad del árbol y tiene una magnitud tal, que parece que toda la masa de la rueda de la turbina estuviese concentrada en el centro de gravedad. Designemos con a la distancia del centro de gravedad de la rueda de la turbina al eje, que es diferente de cero, en virtud de una pequeña asimetría de la rueda. Al girar, sobre el árbol actúan las fuerzas centrífugas y éste se tuerce. Designemos con l el desplazamiento del árbol. Calculemos esta magnitud. La fórmula para la fuerza centrífuga es conocida, esta fuerza es proporcional a la distancia del centro de gravedad hasta el eje, que ahora es a + l, y es igual a 4π2n2M (a + l), donde n es el número de vueltas por minuto y M es la masa de las piezas que giran. La fuerza centrifuga se equilibra con la fuerza elástica, que es proporcional a la magnitud del desplazamiento del árbol e igual k/l, donde el coeficiente k depende de la rigidez del árbol. Así, pues, kl = 4π2n2M(a + l) donde

o

Gentileza de Manuel Mayo

170

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Según esta fórmula, un árbol flexible tiene capacidad para hacer multitud de vueltas. Para valores muy grandes (incluso, infinitamente grandes) de n, la flexión l del árbol no crece indefinidamente. El valor de k/4π2n2M que figura en la última fórmula, se convierte en cero, y la flexión l del árbol se hace igual a la magnitud de asimetría con signo contrario. Este resultado del cálculo significa que, para muchas vueltas, la rueda asimétrica en vez de destruir el árbol, lo encorva de tal manera que se elimina la influencia de la asimetría. El árbol flexible centra las piezas que están en revolución y con su flexión traslada el centro de gravedad al eje de rotación, de modo que reduce a cero la acción de la fuerza centrífuga. La flexibilidad del árbol, no sólo no es un defecto sino que, por el contrario, es la condición necesaria para el equilibrio. Pues, para el equilibrio, el árbol tiene que encorvarse en la magnitud a y no romperse. El lector atento puede observar un error en los razonamientos expuestos. Si un árbol que se «centra» a grandes vueltas se traslada de la posición hallada de equilibrio, y se consideran solamente las fuerzas centrífuga y elástica, es fácil de observar que este equilibrio es inestable. Resulta, sin embargo, que las fuerzas de Coriolis salvan la situación y hacen que este equilibrio sea completamente estable. La turbina comienza a girar lentamente. Al principio, cuando n es muy pequeño, el quebrado k/4π2n2M tiene un valor grande. Mientras este quebrado, al ir aumentando el número de vueltas, sea mayor que la unidad, la magnitud de flexión del árbol tendrá el mismo signo que la magnitud del desplazamiento inicial del centro de gravedad del volante. Por lo tanto, en esos instantes iniciales del movimiento, el árbol flexionado no centra la rueda; por el contrario, con su flexión aumenta el desplazamiento general del centro de gravedad y, por consiguiente, la fuerza centrífuga. A medida que aumenta el número de vueltas n (pero con la condición de que k/4π2n2M > 1), el desplazamiento crece y, por fin, llega el momento crítico. Para k/4π2n2M = 1, el denominador de la fórmula del desplazamiento l se anula y, Gentileza de Manuel Mayo

171

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

por consiguiente, la flexión del árbol se hace, formalmente, infinitamente grande. A tal velocidad de rotación, el árbol se rompe. Al poner en marcha una turbina, este instante hay que pasarlo rápidamente, hay que sobrepasar el número crítico de vueltas y establecer un movimiento considerablemente más rápido de la turbina para que comience el fenómeno de autocentración que describíamos anteriormente. Pero, ¿qué instante crítico es éste? La condición se puede escribir de la forma siguiente: 4π2M/k = 1/n2 o, sustituyendo el número de vueltas por el período de rotación mediante la relación n 0 1/T y extrayendo la raíz, en tal forma:

¿Qué magnitud es la que hemos obtenido en el segundo miembro de la igualdad? La fórmula parece muy conocida. Volviendo a páginas atrás, vemos que en el segundo miembro figura el período propio de oscilación de la rueda en el árbol. Precisamente

es período con que oscilaría la rueda de una turbina de masa M en un árbol de rigidez k, si apartáramos la rueda a un lado para que oscilase por su cuenta. Así pues, el instante peligroso es cuando coincide el período de rotación de la rueda de la turbina con el periodo de de oscilación propia del sistema turbina—árbol. El fenómeno de la resonancia tiene la culpa de que exista el número crítico de vueltas.

Gentileza de Manuel Mayo

172

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 6 Gravitación Contenido: 1. ¿En qué se sostiene la Tierra 2. La ley de gravitación es universal 3. El peso de la Tierra 4. Mediciones de g al servicio de prospección 5. Gravedad bajo tierra 6. Energía gravitatoria 7. Cómo se mueven los planetas 8. Viajes interplanetarios 9. Si no hubiese Luna… 1. ¿En qué se sostiene la Tierra? En tiempos remotos, a esta pregunta daban una respuesta simple: en tres ballenas. Naturalmente, no quedaba claro en qué se sostenían las ballenas. Sin embargo, a nuestros inocentes tatarabuelos esto no les desconcertaba. Los conceptos fidedignos sobre el carácter del movimiento de la Tierra, sobre la forma de la Tierra, sobre muchas de las leyes del movimiento de los planetas alrededor del Sol, aparecieron mucho antes de que se diese la respuesta a la pregunta sobre las causas del movimiento de los planetas. Y, en efecto, ¿en qué se «sostienen» la Tierra y los planetas? ¿Por qué éstos se mueven alrededor del Sol por unas trayectorias determinadas y no se escapan de ellas? Durante largo tiempo no había respuesta a estas preguntas, y la iglesia, que luchaba contra el sistema de Copérnico del mundo, se aprovechaba de esto para negar el hecho del movimiento de la Tierra. El descubrimiento de la verdad lo debemos al gran sabio inglés Isaac Newton. Una anécdota histórica dice que, estando sentado en el jardín debajo de un manzano observando cómo caían a la tierra las manzanas, una tras otra, a causa

Gentileza de Manuel Mayo

173

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

del viento, a Newton le vino la idea de la existencia de las fuerzas de gravitación entre todos los cuerpos del universo. Como resultado del descubrimiento de Newton, quedó claro que todo el consunto de fenómenos, que podríamos decir que son de carácter diverso, como por ejemplo, la caída de cuerpos libres a la tierra, los movimientos visibles de la Luna y del Sol, las mareas oceánicas, etc., representan la manifestación de una misma ley de la naturaleza: de la ley de gravitación universal. Según esta ley, entre todos los cuerpos del Universo, ya sean granos de arena, guisantes, piedras o planetas, actúan fuerzas de atracción mutua. A primera vista, parece que la ley no es cierta, pues, nunca nos hemos dado cuenta de que los objetos que nos rodean se atrajesen entre sí. La Tierra atrae hacia sí cualquier cuerpo, de esto nadie tiene duda. Pero, ¿puede ser que esto sea una propiedad particular de la Tierra? No, esto no es así. La atracción de dos objetos cualesquiera es pequeña y no salta a la vista. Sin embargo, se puede revelar con experimentos especiales. Pero, esto lo trataremos más adelante. La existencia de la gravitación universal, y sólo ésta, explica el equilibrio del sistema solar, el movimiento de los planetas y de otros cuerpos celestes. La Luna se mantiene en la órbita por las fuerzas de la gravitación terrestre; la Tierra se mantiene en su trayectoria por las fuerzas de gravitación del Sol. El movimiento circular de los cuerpos celestes se efectúa del mismo modo que el movimiento circular de la piedra atada a la cuerda. Las fuerzas de gravitación universal son «cuerdas» invisibles que obligan a los cuerpos celestes a moverse por unas trayectorias determinadas. La afirmación de la existencia de las fuerzas de gravitación universal de por sí significaba poco. Newton halló la ley de gravitación y mostró de qué dependen estas fuerzas. 2. La ley de gravitación es universal La primera pregunta que se hacía Newton era: ¿en qué se diferencia la aceleración de la Luna de la aceleración de la manzana? Mejor dicho, ¿qué diferencia hay entre, la aceleración g que crea el globo terrestre en su superficie, o sea, a la distancia r

Gentileza de Manuel Mayo

174

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

del centro, y la aceleración creada por la Tierra a la distancia R, en que está la Luna de la Tierra? Para calcular esta aceleración, hay que saber la velocidad del movimiento de la Luna y su distancia a la Tierra. Newton conocía estas dos magnitudes. La aceleración de la Luna resultó ser igual a 0,27 cm/s2, aproximadamente. Esto es unas 3600 veces menos que el valor de g, 980 m/s2. Por lo tanto, la aceleración creada por la Tierra disminuye a medida que nos alejarnos del centro de ella. Pero, ¿con qué rapidez? La distancia es de sesenta radios terrestres. Pero, 3600 es el cuadrado de 60. Aumentando esta distancia en 60 veces, disminuimos la aceleración en 602 veces. Newton llegó a la conclusión de que la aceleración y, por consiguiente, la fuerza de gravitación, varía en proporción inversa al cuadrado de la distancia. Además, ya sabemos que la fuerza que actúa sobre un cuerpo en un campo gravitatorio es proporcional a su masa. Por eso, el primer cuerpo atrae el segundo con una fuerza que es proporcional a la masa del segundo cuerpo: el segundo cuerpo atrae el primero con una fuerza que es proporcional a la masa del primero. Se trata de fuerzas idénticamente iguales, de las fuerzas de acción y reacción. Por lo tanto, la fuerza de gravitación mutua, tiene que ser proporcional tanto a la masa del primero como a la masa del segundo y, por lo tanto, al producto de las masas. En resumen

Esta es la ley de gravitación universal. Newton suponía que esta ley era cierta para cualquier par de cuerpos. Ahora, esta audaz hipótesis expuesta por él está ya demostrada. De tal manera, la fuerza de atracción de dos cuerpos es directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia entre ellos. Y, ¿qué es la letra γ que se introdujo en la fórmula? Esta es el coeficiente de proporcionalidad. Pero ¿no se puede suponer que es igual a la unidad, del mismo

Gentileza de Manuel Mayo

175

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

modo que hemos hecho con frecuencia? No, no se puede, pues hemos convenido en medir la distancia en centímetros, la masa en gramos y la fuerza en dinas. El valor de γ es igual a la fuerza de atracción entre dos masas de 1 g que están a la distancia de 1 cm. Si se quiere calcular una fuerza que sea igual a algo, por ejemplo, a la fuerza de una dina, el coeficiente γ tiene que ser medido. No hay duda que para hallar γ no es obligatorio medir la fuerza de atracción de sus pesos de unos cuantos gramos. Estamos interesados en realizar las mediciones con cuerpos muy macizos, pues, entonces, le fuerza será mayor. Determinando las masas de dos cuerpos, conociendo la distancia entro ellos y midiendo la fuerza de atracción, el valor de γ se halla mediante un simple cálculo. Tales experimentos so hicieron muchas veces. Estos demostraron que el valor de γ siempre es el mismo, independientemente del material de los cuerpos que se atraen y de las propiedades del medio en que se encuentren. Este valor se llama constante de gravitación y es igual a γ = 6,67 x 10-8 cm3 (g s)2. El esquema de uno de los experimentos para medir el valor de γ se muestra en la fig. 6.1.

Figura 6.1 En los extremos de una balanza se han suspendido dos bolitas de igual masa. Una de ellas está situada sobre una losa de plomo, la otra, por debajo de la losa. El plomo (para los experimentos se tomaron 100 t de plomo), con su atracción aumenta el peso de la bolita de la derecha y disminuye el de la izquierda. La bolita Gentileza de Manuel Mayo

176

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de la derecha se hace más pesada que la de la izquierda. El valor de γ se calcula por la magnitud de la inclinación de la balanza. Al valor tan pequeño de γ se debe la dificultad que hay para observar las fuerzas de gravitación entre dos objetos. Dos cargas colosales, de 1000 kilogramos, se atraen entre sí con una fuerza insignificante, que es solamente igual a 6,7 dinas, o sea, a 0,007 g, estando estos objetos uno de otro a la distancia de 1 m. Pero, ¡qué enormes son las fuerzas de atracción entre los cuerpos celestes! La fuerza con que se atraen la Luna y la Tierra es

y con la que se atraen la Tierra y al Sol es

3. El peso de la Tierra Antes de comenzar a aplicar la ley de gravitación universal, analicemos un detalle importante. Acabamos de calcular la fuerza de atracción de dos cargas, situadas una de otra a la distancia de 1 m. ¿Y, si estos cuerpos estuviesen a la distancia de 1 cm? ¿Qué es lo que habría que poner en la fórmula, la distancia entre las superficies de estos cuerpos o la distancia entre los centros de gravedad, o alguna tercera cosa? La ley de gravitación universal,

Gentileza de Manuel Mayo

177

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Se puede aplicar rigurosamente cuando no hay vacilaciones semejantes. La distancia entre los cuerpos tiene que ser mucho mayor que las dimensiones de ellos; tenemos que tener el derecho de considerar los cuerpos como puntos. ¿Cómo se aplica la ley a dos cuerpos próximos? De principio, es muy simple: hay que dividir mentalmente el cuerpo en trozos pequeñitos; hay que calcular para cada par la fuerza F y, después, hay que sumar (vectorialmente) todas las fuerzas. En principio, esto es fácil, pero en la práctica es bastante complicado. Sin embargo, la naturaleza nos ha ayudado. Los cálculos muestran que si las partículas de los cuerpos están en acción mutua con una fuerza que es proporcional a 1/r2, los cuerpos de forma esférica poseen la propiedad de atraerse como puntos situados en los centros de las esferas. Para dos esferas próximas, la fórmula

es justa igualmente que para dos esferas lejanas, si r es la distancia entre los centros de las esferas. Esta regla ya la hemos aplicado antes, calculando la aceleración en la superficie de la Tierra. Tenemos ahora el derecho de aplicar la fórmula de la gravitación para calcular la fuerza de atracción de los cuerpos por la Tierra. Por r se debe de entender la distancia del centro de la Tierra hasta el cuerpo. Sea M la masa y R el radio de la Tierra. Entonces, en la superficie terrestre la fuerza de atracción de un cuerpo de masa m es:

Pero, esto no es más que el peso del cuerpo, que siempre lo expresamos como mg. Por lo tanto, para la aceleración de la fuerza de gravedad, se tiene,

Gentileza de Manuel Mayo

178

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Ahora ya podemos decir cómo se pesó la Tierra. La masa de la Tierra se puede calcular con esta fórmula, pues, g, γ y R son magnitudes conocidas. Del mismo modo se puede pesar el Sol. Pero, ¿es que se puede llamar tal cálculo pesar? Claro que se puede; en la física, las mediciones indirectas juegan un papel tan grande como las directas. Resolvamos ahora un problema curioso. En los planes de creación de una televisión mundial, juega un papel importante la creación de un satélite «suspendido», es decir, de un satélite que estuviese todo el tiempo sobre un mismo punto de lo superficie terrestre. ¿Sufrirá el satélite un rozamiento esencial? Eso depende de lo lejos de la Tierra que tenga que efectuar sus rotaciones. El satélite «suspendido» tiene que girar con un período T, igual a 24 horas. Si r es la distancia del satélite hasta el centro de la Tierra, su velocidad v = 2πr/T y su aceleración v2/r = 4π2r/T2. Por otra parte, esta aceleración originada por la atracción terrestre es igual a γM/r2 = gR2/r2 Igualando los valores de las aceleraciones, tenernos:

es decir

Poniendo en cifras redondas los valores, g = 10 m/s2, R = 6 x 106 m y T = 9 x 109 s, obtenemos: r3 = 7 x 1032 m3 o sea, que r ൎ 4 x 107 m = 40 000 km. A esta altura

Gentileza de Manuel Mayo

179

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

no hay rozamiento atmosférico y el satélite «suspendido», no retardaría su «carrera inmóvil». 4. Mediciones de g al servicio de prospección No se trata de un reconocimiento militar. En este caso, el conocimiento de la aceleración de la fuerza de gravedad no haría falta para nada. Se trata de la prospección geológica cuyo objeto es descubrir yacimientos de minerales útiles bajo la tierra, sin cavar hoyos, sin abrir minas. Existen unos cuantos métodos de determinación muy exacta de la aceleración de la fuerza de

gravedad. Se puede hallar g simplemente,

pesando una carga

determinada en una balanza de resorte. Las balanzas geológicas tienen que ser extremadamente sensibles, el resorte registra una alteración debido a una carga menor de una millonésima de gramo. Las balanzas de torsión de cuarzo ofrecen un resultado excelente. En principio, su construcción no es complicada. A un hilo horizontal de cuarzo en tensión se ha soldado una palanca, con cuyo peso el hilo se tuerce ligeramente (fig. 6.2).

Figura 6.2 Para estos mismos fines se emplea también el péndulo. No hace mucho todavía que los únicos métodos que existían para medir g eran los del péndulo. Solamente en los últimos años, éstos fueron sustituidos por otros de balanza, más cómodos y más exactos. De todos modos, midiendo el período de oscilación del péndulo, se puede hallar con bastante exactitud el valor de g valiéndose de la fórmula Gentileza de Manuel Mayo

180

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Midiendo el valor de g con un aparato en diferentes lugares, se puede jugar sobre las variaciones relativas de fuerza de gravedad con una exactitud hasta de millonésimas partes. Al medir el valor de g en algún lugar de la superficie terrestre, el observador hace la conclusión: aquí el valor es anormal, es menor que lo debido en un tanto, o es mayor que lo debido en cierta cantidad. Poro, ¿cuál es la norma para la magnitud de g? El valor de la aceleración de la fuerza de gravedad tiene dos variaciones auténticas en la superficie terrestre, que ya hace mucho que se han observado y que son bien conocidas por los investigadores. Ante todo, g disminuye regularmente al trasladarse del polo al ecuador, de esto ya se habló anteriormente. Recordemos, solamente, que esta variación es debida a dos causas: en primer lugar, la Tierra no es una esfera, y un cuerpo, estando en el polo, se hallará más cerca del centro de la Tierra; en segundo lugar, a medida que nos acercamos al ecuador, la fuerza de gravedad se va debilitando más y más por la fuerza centrífuga. La otra variación auténtica de g es su disminución con la altura. Según la fórmula

en la que R indica el radio de la Tierra y h la altura sobre el nivel del mar, el valor de g será tanto menor, cuanto más nos alejemos del centro de la Tierra. Por lo tanto, en una misma latitud y a una misma altura sobre el nivel del mar, la aceleración de la fuerza de gravedad tiene que ser la misma.

Gentileza de Manuel Mayo

181

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Las mediciones exactas muestran que muy a menudo se encuentran desviaciones de esta norma: anomalías de gravitación. La causa de la anomalía consiste en la distribución heterogénea de la masa en las proximidades del lugar de medición. Como ya se explicó, la fuerza gravitatoria de un cuerpo grande se puede representar, mentalmente, como la suma de fuerzas que actúan por parte de sus partículas. La atracción del péndulo por la Tierra es el resultado de la acción de todas las partículas de ésta. Pero, está, claro, que las partículas cercanas toman una participación mayor en la fuerza total, pues la atracción es inversamente proporcional al cuadrado de la distancia. Si cerca del lugar de medición están concentradas masas pesadas, g será mayor de la norma, en caso contrario, g será menor. Si, por ejemplo, se mide g en una montaña o en un avión que vuela sobre el mar a la altura de la montaña, en el primer caso resultará un número mayor. Por ejemplo, el valor de g en el monte Etna, en Italia, es 0,292 cm/s2 mayor que la norma. También es mayor que la norma el valor de g en las islas solitarias del océano. Naturalmente, en ambos casos, el aumento de g se explica por la concentración de masas complementarias en el lugar de medición. No sólo la magnitud de g, sino también la dirección de la fuerza de gravedad se puedo desviar de la norma. Si se suspende un peso de un hilo, éste, estando estirado, indicará la vertical de este lugar. La vertical «normal» se determina según las estrellas, ya que para todo punto geográfico está calculado en qué lugar del cielo se apoya la vertical de la figura «ideal» de la Tierra en el momento dado del día y del año. Figúrense que se realizan experimentos con la plomada al pie de una montaña grande. El grave de la plomada es atraído por la Tierra hacia su centro y, por la montaña, hacia un lado. En estas condiciones, la plomada tiene que desviarse de la dirección de la vertical normal (fig. 6.3). Como la masa de la Tierra es mucho mayor que la masa de la montaña, estas desviaciones no son mayores de unos cuantos segundos angulares. La vertical «normal» se determina por las estrellas, puesto que para cualquier punto geográfico está calculado en qué lugar del cielo en cada instante dado del día y del año se «apoya» la vertical de la figura «ideal» de la Tierra.

Gentileza de Manuel Mayo

182

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La desviación de la plomada conduce a veces a resultados extraños. Por ejemplo, en Florencia, la influencia de los Apeninos no contribuye a la atracción, sino a la repulsión de la plomada. La explicación sólo puede ser una: en los montes hay vacíos inmensos.

Figura 6.3 Las mediciones de la aceleración de la fuerza de gravedad en continentes y océanos enteros, dan un excelente resultado. Los continentes son mucho más pesados que los océanos, por eso, se podría creer que los valores de g sobre los continentes tendrían que ser mayores que sobre los océanos. En realidad, los valores de g, medidos a lo largo de una latitud sobre los océanos y sobre los continentes, por término medie, son iguales. Otra vez más, la explicación es única: los continentes reposan sobre roas más ligeras y los océanos sobre rocas más firmes. En efecto, allí donde las exploraciones inmediatas son posibles, los geólogos comprueban que los océanos descansan sobre rocas pesadas de basalto y los continentes sobre granito ligero. Puro, inmediatamente, surge la pregunta: ¿por qué las rocas pesadas y ligeras compensan tan exactamente la diferencia de pesos de los continentes y océanos? Esta compensación no puedo ser casual, la causa tiene su raíz en el origen de la constitución de la corteza de la Tierra.

Gentileza de Manuel Mayo

183

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Los geólogos suponen que las capas superiores de la corteza terrestre están como nadando sobre una masa plástica extendida (o sea, fácilmente deformable, como la arcilla húmeda). En las profundidades de cerca de 100 km, la presión tiene qua ser en todos los sitios igual, del mismo modo que es igual la presión en el fondo de un recipiente de agua sobre el que flotan trozos de madera de diferente peso. Por eso, una columna de substancia de 1 m2, desde la superficie hasta la profundidad de 100 km, tiene que pesar igual bajo el océano que bajo el continente. Esta nivelación de la presión (llamada isostasia) da lugar a que los valores de la aceleración de la fuerza de gravedad g, a lo largo de un paralelo, sobre el océano y sobre el continente, no se diferencian esencialmente. Las anomalías locales de la fuerza de gravedad nos sirven igual que le servía al pequeño Muk del cuento de Hauff el palo encantado con el que pegaba en el suelo allí donde había oro o plata. Los minerales pesados hay que buscarlos en los lugares donde g es mayor. Por el contrario, los yacimientos de sales ligeras se descubren en los lugares donde la magnitud de g es menor. El valor de g se puede medir con una precisión de una cienmilésima de cm/s2 Los métodos de prospección basados en el empleo de péndulos y pesos superexactos se llaman gravitatorios. Estos tienen una gran importancia práctica, particularmente para el descubrimiento del petróleo. Es que, con los métodos gravitatorios de prospección, es fácil descubrir las aglomeraciones de sal bajo la tierra y, frecuentemente ocurre, que allí donde hay sal, hay también petróleo. Además, éste está a mayor profundidad, mientras que la sal está más cerca de la superficie terrestre. Con el método gravitatorio de prospección fue descubierto el petróleo en el Kazajstán y en otros lugares. 5. Gravedad bajo tierra Queda por aclarar una cuestión interesante. ¿Cómo varía la fuerza de gravedad al profundizarse bajo tierra? El peso de un objeto es el resultado de la tensión de unos hilos invisibles tendidos a él desde cada trozo de substancia de la Tierra. El peso es una suma de fuerzas, el resultado de la suma de fuerzas elementales que actúan sobre el objeto por parte

Gentileza de Manuel Mayo

184

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de las partículas de la Tierra. Todas estas fuerzas, aunque sus direcciones formen diversos ángulos, tiran del cuerpo hacia «abajo», hacia el centro de la Tierra. Y, ¿cuál es la gravedad de un objeto situado en un laboratorio bajo tierra? Sobre él actúan las fuerzas de atracción de las capas interiores y exteriores de la Tierra. Examinemos las fuerzas de gravitación que actúan sobre un punto situado dentro del globo terrestre por parte de la capa exterior. Si se divide esta capa en otras finas, se corta en una de ellas un cuadradito de lado a1, y desde el perímetro del cuadradito se trazan líneas por el punto O en el cual nos interesa la gravedad, en el lugar opuesto de la capa resultará un cuadradito de otras dimensiones, de lado a2 (fig. 6.4).

Figura 6.4 Por la ley de gravitación, las fuerzas de atracción que actúan en el punto O por parte de los dos cuadraditos, tienen direcciones contrarias y son proporcionales de acuerdo con m1/r12 y m2/r22. Pero, las masas m1 y m2 de los cuadraditos son proporcionales a sus áreas. Por eso, las fuerzas de gravitación son proporcionales a las expresiones, a12/r12 y a22/r22 De la demostración hecha por el lector se deduce, a1/r1 = a2/r2 lo que significa que se equilibran las fuerzas de atracción que actúan sobre el punto O por parte de los dos cuadraditos.

Gentileza de Manuel Mayo

185

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Dividiendo la capa fina en pares semejantes de cuadraditos «opuestos», hemos establecido un resultado admirable: la capa fina homogénea esférica no actúa sobre ningún punto situado dentro de ella. Pero esto, es cierto para todas las capas finas en que hemos dividido la zona esférica situada sobre el punto subterráneo que nos interesa. Por lo tanto, la capa terrestre situada sobre el cuerpo, es como si no existiese. La acción sobre el cuerpo de sus partes separadas se equilibran y la fuerza total de atracción por parte de la capa exterior es igual a cero. Claro, en estos razonamientos se suponía que la densidad de la Tierra era constante dentro de cada capa. El resultado de nuestros razonamientos nos da la posibilidad de obtener la fórmula para la fuerza de gravedad que actúa a la profundidad H bajo tierra. El punto, situado a la profundidad H, experimenta una atracción sólo por parle de las capas interiores de la Tierra. La fórmula

para la aceleración de la fuerza de gravedad, g es válida para este caso, ahora que H y r no representan la masa y el radio de toda la Tierra, sino sólo de su parte interior con respecto a este punto. Si la Tierra tuviese una misma densidad en todas las capas, la fórmula para g tomaría la forma:

donde ρ es la densidad y R, el radio de la Tierra. Esto significa, que g cambiaría directamente proporcional a (R –H); cuanto mayor sea la profundidad H, tanto menor será g.

Gentileza de Manuel Mayo

186

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En realidad, el comportamiento de g cerca de la superficie terrestre (que se puede observar hasta las profundidades de 5 km bajo el nivel del mar), no obedece a esta regla. Los experimentos muestran que en estas capas, g, por el contrario, aumenta con la profundidad. La divergencia entre el experimento y la fórmula se explica porque no se había tenido en cuenta la diferencia de densidad a diversas profundidades. La densidad media de la Tierra se halla fácilmente dividiendo la masa por el volumen del globo terrestre. Esto nos proporciona el número 5,52 g/cm3. A su vez, la densidad de las rocas superficiales es mucho menor, ésta es igual a 2,75 g/cm3. La densidad de las capas terrestres aumenta con la profundidad. En las capas de la superficie de la Tierra, este efecto es superior a la disminución ideal que se deduce de la fórmula y la magnitud de g aumenta. 6. Energía gravitatoria Ya nos hemos encontrado, en un ejemplo simple, con la energía gravitatoria. Un cuerpo, levantado sobre la tierra a la altura h, posee una energía potencial mgh. Sin embargo, esta fórmula se puede aplicar solamente cuando la altura h es mucho menor que el radio de la Tierra. La energía de la gravitación es una cantidad importante. Es interesante obtener una fórmula para la energía que sirviese para los cuerpos levantados sobre la Tierra a cualquier altura y, en general, para dos masas que se atraen de acuerdo con la ley universal:

Supongamos que por la acción de la atracción mutua, los cuerpos se hayan acercado un poquito. Entre ellos había una distancia r1 y ahora es de r2. En este caso, se realiza un trabajo A = F (r1 - r2). El valor de la fuerza hay que tomarlo en un punto medie. De este modo

Gentileza de Manuel Mayo

187

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Si r1 y r2 se diferencian poco entre sí, se puede sustituir r2medio por el producto r1 r2. Obtenemos:

Este trabajo se realiza a cuenta de la energía gravitatoria: A = U1 - U2 donde U1 es el valor inicial de la energía potencial de gravitación y U2 el valor final de la misma. Comparando estas dos fórmulas, para la energía potencial hallamos la expresión

Esta se parece a la fórmula para la fuerza de gravitación, pero en el denominador figura r a la primera potencia. Según esta fórmula, para valores muy grandes de r, la energía potencial U = 0. Esto es comprensible, puesto que a tales distancias ya no se siente la atracción. Pero al acercarse los cuerpos, la energía potencial tiene que disminuir, pues a cuenta de ella tiene que realizarse trabajo. Pero, ¿hacia dónde tiene que disminuir desde cero? En dirección negativa. Por eso, en la fórmula figura el signo menos. Pues, —5 es menor que cero y —10 es menor que —5.

Gentileza de Manuel Mayo

188

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Si solamente se trata del movimiento cerca de la superficie terrestre, la expresión general para la fuerza de gravitación se podría sustituir por el producto mg. Entonces, con gran precisión, U1 - U2 -= mgh. Pero, en la superficie de la Tierra, el cuerpo tiene una energía potencial -γ(Mm)/R donde R es el radio de la Tierra. Por lo tanto, a la altura h sobre la superficie terrestre,

Cuando, por primera vez, se dedujo la fórmula para la energía potencial U = mgh, se había convenido medir la altura y la energía desde la superficie terrestre. Al aplicar la fórmula U = mgh, se desprecia el término constante -γ(Mm)/R. Se supone condicionalmente que es igual a cero. Como sólo nos interesan las diferencias de energías (pues ordinariamente se mide el trabajo, que es la diferencia de energías), la presencia de un término constante -γ(Mm)/R en la fórmula de la energía potencial, no juega ningún papel. La energía gravitatoria determina la rigidez de las cadenas «que ligan» el cuerpo con la Tierra. ¿Cómo romper estas cadenas? ¿Cómo conseguir que un cuerpo, lanzado desde la Tierra, no vuelva a ella? Claro que, para esto, hay que comunicar al cuerpo una velocidad inicial muy grande. Pero, ¿qué es lo mínimo que se pide? A medida que se aleja de la Tierra, la energía potencial de un cuerpo lanzado desde la Tierra (un proyectil, un cohete), va aumentando (el valor absoluto de U disminuye); la energía cinética va disminuyendo. Si la energía cinética se convierte en cero antes de tiempo, antes de que rompamos las cadenas de gravitación del globo terrestre, el proyectil despedido cae de vuelta a la Tierra. Es necesario que el cuerpo conserve su energía cinética mientras su energía potencial no se haga, prácticamente, igual a cero. Antes del lanzamiento, el proyectil

Gentileza de Manuel Mayo

189

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

tenía la energía potencia' -γ(Mm)/R (M y R son la masa y el radio de la Tierra). Por eso, hay que comunicarle al proyectil una velocidad tal, que se haga positiva la energía total del proyectil despedido. Un cuerpo, con una energía total negativa (el valor absoluto de la energía potencial es mayor que el valor de la cinética) no puede salir de los límites de la esfera de gravitación. Por consiguiente, llegamos a una condición sencilla. Para separar de la Tierra un cuerpo de masa m, hay que vencer una energía potencial de gravitación igual a U = -γMm/R La velocidad del proyectil tiene que alcanzar el valor llamado segunda velocidad cósmica v2 que es fácil hallar de la igualdad de las energías potencial y cinética:

es decir,

O bien,

puesto que

El valor de v2 calculado por esta fórmula, alcanza 11 km/s, claro, prescindiendo de la resistencia de la atmósfera. Esta velocidad es√2 = 1,41 veces mayor que la

Gentileza de Manuel Mayo

190

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

primera velocidad cósmica v1 = √(gR) de un satélite artificial que gira cerca de la superficie terrestre. O sea, que v2 = √2 v1. La masa de la Luna es 81 veces menor que la masa de la Tierra; su radio es cuatro veces menor que el terrestre. Por eso, la energía gravitatoria en la Luna es veinte veces menor que en la Tierra, y para desprenderse de la Luna es suficiente una velocidad de 2,5 km/s. La energía cinética mv22/2 se gasta en romper las cadenas gravitatorias del planeta que sirve de estación de partida. Si quisiéramos que el cohete se moviese con una velocidad v, venciendo la gravedad, tendríamos que comunicarle una velocidad complementaria mv2/2. En este caso, para mandar de viaje al cohete habría que comunicarle una energía mv02/2 = mv22/2 + mv2/2 De tal manera, las tres velocidades de que se trata están ligadas con la simple relación: v02 = v22 + v2 ¿Qué velocidad mínima se necesita para que un proyectil, enviado a las estrellas lejanas, supere la gravitación de la Tierra y del Sol? Esta velocidad la señalaremos con v3 puesto que se llama tercera velocidad cósmica. Determinemos, ante todo, el valor de la velocidad que se necesita para vencer solamente la atracción del Sol. Como acabarnos de ver, la velocidad necesaria para que un proyectil disparado salga fuera de la esfera de atracción terrestre es √2 veces mayor que la velocidad necesaria

para

poner

un

satélite

en

una

órbita

terrestre.

Estos

mismos

razonamientos se refieren también al Sol, es decir, la velocidad necesaria para salir fuera de la esfera de atracción solar es √2 veces mayor que la velocidad del satélite del Sol (o sea, de la Tierra). Como la velocidad del movimiento de la Tierra alrededor del Sol es, aproximadamente, de 30 km/s, la velocidad necesaria para

Gentileza de Manuel Mayo

191

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

salir de la esfera de atracción del Sol es de 42 km/s. Esto es muchísimo; sin embargo, para mandar un proyectil a las estrellas lejanas, hay que aprovechar, naturalmente, el movimiento del globo terrestre y lanzar el cuerpo en dirección del movimiento de la Tierra. Entonces, tenemos que comunicarle solamente una velocidad de 42 — 30 — 12 km/s. Ahora podemos calcular definitivamente la tercera velocidad cósmica. Esta es la velocidad con la que hay que lanzar el cohete para que, saliendo de la esfera de atracción terrestre, alcance una velocidad de 12 km/s. Aplicando la fórmula que acabamos de mencionar, obtenemos: v32 = 112 + 122 de donde, v3 = 10 km/s. Resumiendo, con una velocidad de 11 km/s, el cuerpo abandona la Tierra, pero no se marcha «muy lejos»; la Tierra le deja escapar, pero el Sol no le deja en libertad. El cohete se convierte en un satélite del Sol. Resulta que la velocidad necesaria para viajar por el espacio estelar es, solamente, vez y media mayor que la que se necesita para viajar por el sistema solar dentro de la órbita terrestre. Claro que, como ya se advirtió, un aumento sensible de la velocidad inicial del proyectil va acompañado de muchas dificultades técnicas 20. Cómo se mueven los planetas A

la

pregunta

de

cómo

se

mueven

los

planetas,

se

puede

contestar

abreviadamente: de acuerdo con la ley gravitatoria. Las únicas fuerzas aplicadas a los planetas son las gravitatorias. Como la masa de los planetas es mucho menor que la del Sol, las fuerzas de interacción de los planetas no desempeñan un gran papel. El movimiento de cada uno de los planetas está casi totalmente dictado por la fuerza de atracción del Sol, como si los demás planetas no existiesen. Las leyes del movimiento de los planetas alrededor del Sol se deducen de la ley de gravitación universal. Históricamente, esto no ocurrió así. Las leyes del movimiento de los planetas fueron descubiertas por el célebre astrónomo alemán Juan Kepler

Gentileza de Manuel Mayo

192

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

antes de Newton, sin emplear la ley de gravitación, basándose en el estudio de las observaciones astronómicas realizadas durante casi veinte años. Las trayectorias, o como suelen decir los astrónomos, las órbitas, que describen los planetas alrededor del Sol, son muy parecidas a una circunferencia. ¿Cómo está relacionado el período de rotación de un planeta con el radio de su órbita? La fuerza de gravitación, que actúa sobre el planeta por parte del Sol, es igual a

donde M es la masa del Sol, m es la masa del planeta y r la distancia entre ellos. Pero según la ley principal de la mecánica, F/m es la aceleración y, además, la centrípeta: F/m = v2/r La velocidad del planeta se puede expresar como la longitud de la circunferencia 2πr, dividida por el período de rotación T. Poniendo v = 2πr / T y el valor de la fuerza F en la fórmula de la aceleración, obtenemos:

es decir,

Gentileza de Manuel Mayo

193

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El coeficiente de proporcionalidad ante r3 es una cantidad que depende sólo de la masa del Sol, y es igual para cualquier planeta. Por consiguiente, para dos planetas, se verifica la relación T12/T22 = r13/r23 La razón de los cuadrados de los tiempos de rotación de los planetas es igual a la razón de los cubos de los radios de sus órbitas. Kepler dedujo esta interesante ley del experimento. La ley de gravitación universal explicaba esta observación de Kepler. El movimiento circular de un cuerpo celeste alrededor de otro, es solamente una de las posibilidades. Las trayectorias de un cuerpo que gira alrededor de otro a causa de las fuerzas gravitatorias pueden ser muy diversas. Sin embargo, como muestra el cálculo y como había sido observado por Kepler sin ningún cálculo, todas éstas pertenecen a una clase de curvas llamadas elipses. Si atamos un hilo a dos alfileres, hincados en un papel de dibujo, y se estira del hilo con la punta de un lapicero, moviéndolo de modo que el hilo se mantenga en tensión, en el papel se marcará una curva: ésta es la elipse (fig. 6.5).

Figura 6.5 Los lugares donde se hallan los alfileres son los focos de la elipse.

Gentileza de Manuel Mayo

194

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Las elipses pueden tener diversas formas. Si tomamos un hilo mucho más largo que la distancia entre los alfileres, resultará una elipse muy parecida a un círculo. Por el contrario, si la longitud del hilo es solamente un poco mayor que la distancia entre los alfileres entonces se obtiene una elipse alargada, parecida a un palito. Los planetas describen elipses, en uno de cuyos focos está el Sol. ¿Qué elipses describen los planetas? Resulta que éstas son muy parecidas a circunferencias. La trayectoria más distinta de la circunferencia es la del planeta más próximo al Sol: la de Mercurio. Pero, en este caso, el diámetro más largo de la elipse es solamente el 2% mayor que el más corto. Otra cosa ocurre con los satélites artificiales. Vean la fig. 6.6. La órbita de Marte no se distingue de la circunferencia.

Figura 6.6 Sin embargo, como el Sol está en uno de los focos de la elipse y no en su centro, la variación de la distancia del planeta al Sol es más notable. Tracemos una línea por los dos focos de la elipse. Esta línea se cortará con la elipse en dos lugares. El punto más próximo al Sol se llama perihelio, el más alejado del Sol, afelio. Mercurio está en el perihelio 1,5 veces más próximo del Sol que el afelio.

Gentileza de Manuel Mayo

195

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Los planetas principales describen elipses alrededor del Sol muy parecidas a circunferencias. Sin embargo, existen cuerpos celestes que se mueven alrededor del Sol por elipses muy alargadas. Entre estos se encuentran los cometas. Sus órbitas, refiriéndose a su alargamiento, no se pueden comparar con las de los planetas. se puede decir que los cuerpos celestes que se muevan por elipses pertenecen a la familia del Sol. Sin embargo, a veces, en nuestro sistema penetran forasteros casuales. Se han observado cometas que describen unas curvas alrededor del Sol, que juzgando por su forma, se puede hacer la conclusión de que ellos jamás volverán, pues no pertenecen a la familia del sistema solar. Las curvas «abiertas» que describen los cometas se llaman hipérbolas. Sobre todo, se mueven con mucha rapidez los cometas que pasan cerca del Sol. Esto es comprensible: la energía total del cometa es constante y, al acercarse al Sol, aquél tiene la energía potencial mínima. Esto quiere decir que, en este caso, la energía cinética del movimiento es máxima. Claro que esto tiene lugar para todos los planetas y para la Tierra inclusive. Pero este efecto no es muy grade, ya que la diferencia de las energías potenciales en el afelio y en el perihelio es pequeña.

Figura 6.7 De la ley de conservación del momento del impulso se deduce una ley interesante del movimiento de los planetas. En la fig. 6.7 están representadas dos posiciones de un planeta. Desde el Sol, o sea, desde el foco de la elipse, se han trazado dos radios hasta las posiciones del Gentileza de Manuel Mayo

196

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

planeta, y el sector formado, se ha rayado. Hay que determinar la magnitud del área que describe el radio en una unidad de tiempo. Si el ángulo es pequeño, el sector descrito por el radio en un segundo se puede sustituir por un triángulo. La base del triángulo es igual a la velocidad v (el espacio recorrido en un segundo) y la altura igual al brazo d de la velocidad. Por eso, el área del triángulo es igual a vd/2. De la ley de conservación del momento se deduce que la magnitud mvd permanece constante durante el movimiento. Pero, si mvd es constante, tampoco varía el área vd/2 del triángulo. Podemos dibujar sectores para cualquier momento; éstos resultarán de igual área. La velocidad del planeta varía, pero, lo que se puede llamar velocidad sectorial, se mantiene constante. No todas las estrellas tienen un cerco planetario. En el cielo hay bastantes estrellas dobles. Dos cuerpos celestes inmensos giran uno alrededor de otro. La gran masa del Sol le convierte en el centro de la familia. En las estrellas dobles, los dos cuerpos celestes tienen masas parecidas. En este caso, no se puede suponer que una de las dos estrellas está en reposo.

Figura 6.8 ¿Cómo ocurre entonces el movimiento? Ya sabemos que cada sistema cerrado tiene un punto en reposo (o que se mueve uniformemente); éste es el centro de inercia. Las dos estrellas se mueven alrededor de este punto. Estas describen elipses

Gentileza de Manuel Mayo

197

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

semejantes, como se deduce de la condición m1/m2 = r2/r1 escrita anteriormente. La elipse de una estrella es tantas veces mayor que la elipse de la otra, cuantas veces la masa de la segunda es mayor que la masa de la primera (fig. 6.8). Si las masas son iguales, éstas describirán trayectorias iguales alrededor del centro de inercia. Los planetas del sistema solar se encuentran en condiciones ideales, pues no sufren rozamiento alguno. Los pequeños cuerpos celestes artificiales creados por el hombre, los satélites, no están

en

tal

situación

ideal,

ya

que

las

fuerzas

de

rozamiento,

aunque

insignificantes al principio, son, de todos los modos, sensibles e intervienen resueltamente en el movimiento. La energía total del planeta se mantiene inalterable. Con cada vuelta, disminuye un poquito la energía total del satélite. A primera vista, parece que el rozamiento tiene que retardar el movimiento del satélite. En realidad ocurre lo contrario. Recordemos, ante todo, que la velocidad del satélite es igual a √(gR), o a √(γM/R) donde R es la distancia hasta el centro de la Tierra y M, su masa. La energía total del satélite es igual a:

Poniendo el valor de la velocidad del satélite, para la energía cinética, hallamos la expresión γMm/R. Vemos, pues, que el valor absoluto de la energía cinética es dos veces menor que la potencial, y la energía total es igual a

Habiendo rozamiento, la energía total disminuye (puesto que es negativa), es decir, crece en valor absoluto; la distancia R comienza a disminuir: el satélite desciende. ¿Qué ocurre, en este caso, con el sumando de la energía? La energía potencial decrece (crece, en valor absoluto); la energía cinética aumenta.

Gentileza de Manuel Mayo

198

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

De todos modos, el balance total es negativo, puesto que la energía potencial decrece dos veces más rápidamente que crece la energía cinética. El rozamiento conduce al aumento de la velocidad del movimiento del satélite y no a su disminución. Ahora se comprende por qué el cohete conductor adelanta al pequeño satélite. El cohete vacío grande tiene mayor rozamiento. 8. Viajes interplanetarios Para el día de hoy ya hemos sido testigos de varios viajes a la Luna. Cohetes automáticos y cohetes tripulados ya han estado en la Luna y han regresado de ésta. Los cohetes sin tripulación ya han visitado Marte y Venus. No está lejos la cita con otros planetas, su exploración y el regreso a la Tierra de hombres o de aparatos automáticos. Ya tenemos aclaradas las principales reglas de los viajes interplanetarios, a saber, el principio de funcionamiento del cohete y el cálculo de las velocidades cósmicas indispensables para crear un satélite de un cuerpo celeste o abandonar «para siempre» el planeta. A título de ejemplo de un viaje interplanetario analicemos el vuelo a la Luna. Para ir a parar a la Luna es necesario orientar el cohete hacia un punto de la órbita lunar. La Luna debe llegar a este punto simultáneamente con el cohete. El cohete puede enviarse según la vertical terrestre, como asimismo formando un ángulo cualquiera. Se sobreentiende que no está contraindicado tampoco el vuelo horizontal. Para que el proyectil alcance la Luna es preciso comunicarle la segunda velocidad cósmica, o sea, la velocidad de liberación. Las diferentes trayectorias del vuelo requieren distintas cantidades de combustible, ya que se diferencian por las pérdidas para el aceleramiento. El tiempo del vuelo depende enormemente de la velocidad inicial. Si ésta es mínima, el tiempo del vuelo será próximo a cinco días. Si la velocidad aumenta 0,5 km/s, dicho tiempo se reducirá a un día. A. primera vista puede parecer que para el «alunizaje» es suficiente llegar a la zona de atracción de la Luna con la velocidad final nula. Se figura que una vez en alcanzado esto el aparato, simplemente, «caerá» a nuestro satélite. El error de este

Gentileza de Manuel Mayo

199

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

razonamiento radica su lo siguiente. Cuando el cohete tenga la velocidad igual a cero con respecto a la Tierra en lo que se refiere a la Luna su velocidad será igual a la de ésta, pero dirigida en el sentido contrario.

Figura 6.9 En la fig. 6.9 se representa la trayectoria del cohete lanzado del punto A. También está trazada la trayectoria de la Luna; se puede figurar que según ésta se mueve la «esfera de acción» de la Luna (dentro de esta esfera, prácticamente, sobre el cohete actúa tan sólo la atracción de la Luna). Cuando el cohete ha entrado en la esfera de acción de la Luna, en el punto B, la propia Luna se encuentra en el punto C y tiene la velocidad vL, igual a 1,02 km/s. Si la velocidad del cohete en el punto B hubiera sido igual a cero con respecto a la Tierra, entonces, en relación con la Luna, la velocidad habría sido igual a -vL. En estas condiciones hubiéramos errado el tiro. Al observar el cohete desde la Luna podemos estar seguros de que éste llegará bajo un ángulo recto respecto a la superficie lunar si su velocidad es igual a v. ¿Cómo debe proceder, entonces, el matemático que calcula la óptima trayectoria y la velocidad del cohete? Evidentemente, debe conseguir que el cohete llegue al punto B no con velocidad nula, sino con velocidad V, también señalada en la fig. 6.9. Y ésta no es difícil de calcular valiéndose del paralelogramo de velocidades representado en el mismo dibujo.

Gentileza de Manuel Mayo

200

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

No obstante, poseemos cierta libertad. No es obligatorio que el vector de velocidad v se apunte al centro de la Luna. Además, la propia atracción de la Luna incrementa los errores tolerables. Los cálculos demuestran que todas estas admisiones son sumamente pequeñas y la precisión en los valores de la velocidad inicial debe ser del orden de varios metros por segundo. El ángulo bajo el cual parte el cohete debe establecerse con la exactitud de hasta una décima de grado y el tiempo de partida no debe desviarse del de cálculo más que en varios segundos. Bueno, tenemos que el cohete entra en la esfera de acción de la Luna con una velocidad diferente de cero. El cálculo demuestra que esta velocidad debe ser igual a 0,8 km/s. La atracción de la Luna la hará aumentar y el encuentro con la superficie tendrá lugar a la velocidad de 2,5 km/s. Se sobreentiende que de eso ¡ni hablar!, pues el vehículo resultará destruido con tal encuentro. No hay ninguna otra salida, salvo amortiguar la velocidad mediante el sistema de retrocohete. Para realizar el llamado toque suave será necesario consumir una cantidad bastante grande de combustible. La fórmula insertada en el acápite 3 del capítulo 3, testimonia que el cohete tendrá que «adelgazar» 2,7 veces. Si querernos regresar, el cohete, después de su alunizaje no debe quedarse sin combustible. La Luna es un cuerpo celeste «pequeño». Su radio es igual a 1737 km y la masa es de 7,35 x 1022 kg. No es difícil calcular que la primera velocidad cósmica, o sea, la velocidad orbital necesaria para crear un satélite artificial de la Luna es igual a 1680 m/s, mientras que la velocidad de liberación alcanza 2375 m/s. De este modo, para abandonar la Luna es preciso comunicar al proyectil una velocidad de cerca de 2,5 km/s. Con esta velocidad inicial mínima regresaremos a la Tierra dentro de 5 días, teniendo nuestra velocidad al final del viaje el valor ya conocido de cerca de 11 km/s La entrada en la atmósfera de la Tierra debe ser de pendiente suave ya que se necesita evitar sobrecargas si a bordo de la nave cósmica se hallan personas. Sin embargo, incluso en el caso de que se trate sobre el aterrizaje de un vehículo automático, igualmente hace falta dar varias vueltas alrededor de la Tierra, reduciendo cada vez el diámetro de la elipse con el fin de no sobrecalentar la envoltura del cohete.

Gentileza de Manuel Mayo

201

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Una expedición tripulada a la Luna cuesta sumas colosales. Si se toma en consideración que a la Tierra debe regresar el módulo con personas e instrumentos de no menos de 5 toneladas de masa, resultará que la masa inicial del complejo coheteril alcanza 4500 toneladas. Los especialistas estiman que durante los próximos veinte años, hasta que se elaboren nuevos sistemas de motores con alta velocidad de salida de gases, no se efectuarán nuevos vuelos con hombres a la Luna, sin hablar ya de otros planetas. Desde luego, es difícil estar seguros de la certeza de semejantes pronósticos. 9. Si no hubiese Luna... Aquí no vamos a discutir las tristes consecuencias que traería la falta de la Luna para los poetas y enamorados. El título del párrafo debe entenderse de un modo más prosaico: ¿cómo influye la presencia de la Luna en la mecánica terrestre? Cuando, anteriormente, hablábamos de las fuerzas que actúan sobre un libro situado en la mesa, decíamos con seguridad, que éstas eran la atracción de la Tierra y la fuerza de reacción. Estrictamente hablando, el libro situado sobre la mesa es atraído por la Luna, por el Sol y hasta por las estrellas. La Luna es nuestro vecino más próximo. Olvidémonos del Sol y de las estrellas, y veamos en cuánto se altera el peso del cuerpo en la Tierra por la acción de la Luna. La Tierra y la Luna están en movimiento relativo. Con respecto a la Luna, la Tierra, como un todo (o sea, todos los puntos de la Tierra) se mueve con una aceleración γm/r2, donde m es la masa de la Luna y r la distancia del centro de la Luna al centro de la Tierra. Examinemos ahora un cuerpo situado en la superficie de la Tierra. A nosotros nos interesa, en cuánto se altera su peso a causa de la acción de la Luna. El peso terrestre se determina por la aceleración con respecto a la Tierra. Por lo tanto, en otras palabras, nos interesa saber en cuánto se altera, por la acción de la Luna, la aceleración de un cuerpo situado en la superficie terrestre con respecto a la Tierra. La aceleración de la Tierra con respecto a la Luna es γm/r2; la aceleración de un cuerpo situado en la superficie de la Tierra, con respecto a la Luna es y γm/r12 donde r1 es la distancia del cuerpo a la Luna (fig. 6.10).

Gentileza de Manuel Mayo

202

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figuras 6.10 y 6.11 Nos hace falta una aceleración complementaria del cuerpo con respecto a la Tierra: ésta será igual a la diferencia geométrica de las aceleraciones correspondientes. La magnitud γm/r2 es constante para la Tierra, mientras que para diversos puntos de la superficie terrestre, la magnitud γm/r12 es diferente. Por lo tanto, la diferencia geométrica que nos interesa es diferente para diversos lugares del globo terrestre. ¿Cuál es la gravedad terrestre en el lugar de la superficie de la Tierra más próximo a la Luna, en el más lejano de ella y en el medio? Para hallar la aceleración del cuerpo con respecto al centro de la Tierra, debida a la acción de la Luna, o sea, la corrección a la g terrestre, hay que restar la magnitud constante γm/r2 de la magnitud γm/r12 en los sitios indicados del globo terrestre (las flechas claras en la fig. 6.11). Además, hay que recordar, que la aceleración γm/r2 de la Tierra respecto a la Luna, está dirigida paralelamente a la línea del centro Tierra — Luna. Restar un vector es equivalente a sumar el vector opuesto. En el dibujo, los vectores -γm/r2 están marcados con flechas en negrilla. Gentileza de Manuel Mayo

203

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Sumando los vectores señalados en el dibujo, hallamos lo que nos interesa: la variación de la aceleración de la caída libre sobre la superficie de la Tierra, debida a la influencia de la Luna. En el sitio más próximo a la Luna, la aceleración complementaria resultante es igual a:

y está dirigida hacia la Luna. El peso terrestre disminuye; el cuerpo se hace más ligero en el punto A que en ausencia de la Luna. Teniendo en cuenta que R es mucho menor que r, la fórmula escrita se puede simplificar. Reduciendo a un común denominador, obtenemos:

Despreciando, entre los paréntesis, la magnitud relativamente pequeña R, que se resta de unas magnitudes mucho más grandes, r y 2r, obtenemos: 2γmR/r3 Trasladémonos a los antípodas. En el punto B, la aceleración por parte de la Luna no es mayor, sino menor que la aceleración general terrestre. Pero ahora, estamos situados en la parte del globo terrestre más lejana a la Luna. La disminución de la atracción de la Luna en esta parte del globo terrestre, conduce a los mismos resultados a que conducía el aumento de la atracción en el punto A, a saber: a la disminución de la aceleración de la fuerza de gravedad. ¿Verdad que el resultado es sorprendente? Pues, aquí también, como resultado de la acción de la Luna, el cuerpo se hace más ligero. La diferencia

Gentileza de Manuel Mayo

204

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

resulta ser, en su valor absoluto, igual que en el punto A. Otra cosa ocurre en la línea media. Aquí, las aceleraciones forman ángulos entre sí y la resta de la aceleración general de la Tierra, por la Luna, -γm/r2, y de la aceleración, por la Luna, de un cuerpo situado en la Tierra, γm/r12, hay que efectuarla geométricamente (fig. 6.12).

Figura 6.12 Si situarnos el cuerpo en la Tierra de modo que r1 y r sean de igual magnitud, nos separaremos un poquito de la línea media. La diferencia vectorial de las aceleraciones representa la base del triángulo isósceles. De la semejanza de los triángulos representados en la fig. 6.12 se ve, que la aceleración buscada es tantas veces menor que γm/r2, cuantas veces R es menor que r. Por consiguiente, el complemento de g que se busca, en la línea media de la superficie terrestre, es igual a γmR/r3; su valor numérico es dos veces menor que el debilitamiento de la fuerza de gravedad en los puntos extremos. En lo que se refiere a la dirección de esta aceleración complementaria, ésta, como se ve del dibujo, también en este caso

Gentileza de Manuel Mayo

205

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

coincide prácticamente con la vertical en el punto dado de la superficie terrestre. Su dirección es hacia abajo, es decir, conduce a un aumento de peso. Así pues, la influencia de la Luna en la mecánica terrestre consiste en la alteración del peso de los cuerpos situados en la superficie terrestre. Además, el peso disminuye en el punto más próximo y en el más alejado de la Luna y aumenta en la línea media; la alteración del peso en el último caso, es dos veces menor que en el anterior. Naturalmente, que las razones expuestas son válidas para cualquier planeta, para el Sol, para las estrellas. Un cálculo sencillo muestra que ni los planetas, ni las estrellas, no proporcionan una ínfima parte de la aceleración lunar. Es muy fácil comparar la acción de cualquier cuerpo celeste con la de la Luna: hay que dividir las aceleraciones complementarias de este cuerpo por «el complemento lunar»:

Solamente para el Sol esta razón no es mucho menor de la unidad. Este está mucho más alejado de nosotros que la Luna, pero la masa de la Luna es decenas de millones de veces menor que la del Sol. Poniendo los valores numéricos hallarnos, que la gravedad terrestre por la influencia del. Sol varía 2,17 veces menos que por la influencia de la Luna. Veamos ahora en cuánto variaría el peso de los cuerpos terrestres si la Luna abandonase la órbita de la Tierra. Sustituyendo los valores numéricos en la expresión 2γmR/r3 hallamos, que la aceleración lunar es del orden de 0,0001 cm/s2, o sea, representa una diezmillonésima parto de g. Parece como si esto no fuese nada. ¿Valía la pena de prestar tanta atención a un problema tan complicado de mecánica, siendo el efecto tan ínfimo? No debemos de apresurarnos en hacer conclusiones semejantes. Este efecto «insignificante» es la causa de las potentes olas de las mareas. Trasladando inmensas masas de agua, se

Gentileza de Manuel Mayo

206

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

crea diariamente una energía cinética de 1015 J. Esta es equivalente a la energía que llevan todos los ríos del globo terrestre. En efecto, el porcentaje de la variación de la magnitud que hemos calculado es pequeñísimo. Un cuerpo que se hiciese más ligero en una magnitud tan «insignificante», se alejaría del centro de la Tierra. Pero, como el radio de la Tierra es de 6.370.000 metros, una desviación insignificante se mediría en decenas de centímetros. Figúrense que la Luna hubiese parado su movimiento con respecto a la Tierra y que brillase sobre el océano. Los cálculos ilustran que en este sitio, el nivel del agua se elevaría en 54 cm. La misma elevación de agua resultaría en los antípodas. En la línea media entre estos puntos extremos, el nivel del agua en el océano disminuiría en 27 cm. Gracias a la rotación de la Tierra alrededor de su eje, los «lugares» de subidas y descensos del océano se desplazan continuamente. Estas son las mareas. Durante seis horas, aproximadamente, se produce una subida del nivel del agua; el agua avanza hacia la costa: es el flujo. Después comienza el reflujo, que también dura unas seis horas. En cada día lunar se efectúan dos flujos y dos reflujos. El cuadro del fenómeno de las mareas se complica mucho debido al rozamiento de las partículas del agua, a la forma del fondo del mar y al contorno del litoral. Por ejemplo, en el mar Caspio son imposibles las mareas, por la simple razón de que toda la superficie del mar está simultáneamente en las mismas condiciones. Tampoco existen mareas en los mares interiores, unidos con el océano por estrechos y largos corredores, como el mar Negro y el mar Báltico. Particularmente grandes suelen ser las mareas en las bahías estrechas, donde la ola de pleamar que viene del océano se levanta a mucha altura. Por ejemplo, en la bahía Guizhiguinskaya, en el mar Ojotsk, la altura de la pleamar alcanza unos cuantos metros. Si las costas del océano son bastante planas (como, por ejemplo, en Francia), la subida del agua durante la pleamar puede cambiar en muchos kilómetros la frontera de la tierra y el mar. Los fenómenos de las mareas dificultan la rotación de la Tierra, pues, el movimiento de las olas de las mareas está ligado al rozamiento. Para superar este rozamiento —

Gentileza de Manuel Mayo

207

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

llamado de marea—, se tiene que realizar un trabajo. Por esto, disminuye la energía de rotación, y con ella, la velocidad de rotación de la Tierra alrededor de su eje. Esto fenómeno da lugar al alargamiento del día, de que se habló en las páginas iniciales. El rozamiento de marea nos ayuda a comprender por qué la Luna presenta siempre una misma cara a la Tierra. Probablemente, en cierto tiempo, la Luna era fluida. La rotación de este globo fluido alrededor de la Tierra iba acompañada de un grandísimo frotamiento de marea que, poco a poco, retardaba el movimiento de la Luna. Por fin, la Luna acabó de girar con respecto a su eje, las mareas se terminaron y la Luna escondió de nuestra vista la mitad de su superficie.

Gentileza de Manuel Mayo

208

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 7 Presión Contenido: 1.

Prensa hidráulica

2.

Presión hidrostática,

3.

Presión de la atmósfera

4.

Cómo se conoció la presión atmosférica

5.

Presión atmosférica y el tiempo

6.

Variación de la presión con la altura

7.

Ley de Arquímedes

8.

Presión de millones de atmósferas

9.

Unidades y dimensiones de las magnitudes físicas en el SI y sus relaciones con las unidades CGS

1. Prensa hidráulica La prensa hidráulica es una máquina antigua que ha conservado su significado hasta nuestros días.

Figura 7.1 Vean la fig. 7.1 donde está representada la prensa hidráulica. En un recipiente cerrado con agua pueden moverse dos émbolos. Si se empuja con la mano uno de

Gentileza de Manuel Mayo

209

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

ellos, la presión se transmite al otro y éste se levanta. El agua, empujada por el primer émbolo dentro del recipiente, obliga a levantar la misma cantidad de agua sobre la marca inicial del segundo émbolo. Si las superficies de los émbolos son S1 y S2, y los desplazamientos, l1, y l2, entonces, por la igualdad de volúmenes, se tiene: S1 l1 = S2 l2 o bien, l1 /l2 = S2 /S1 Tenemos que conocer la condición de equilibrio de los émbolos. Esta condición la hallaremos sin dificultad, partiendo de que el trabajo de las fuerzas en equilibrio tiene que ser igual a cero. Siendo esto así, al desplazar los émbolos, los trabajos de las fuerzas que obran sobre ellos tienen que ser iguales (pero de signo contrario). Por consiguiente, F1 l1 = F2 l2, o bien, F2/F1 = l1/l2 Comparando con la igualdad anterior, vemos que F2/F1 = S2/S1 Esta sencilla ecuación manifiesta la posibilidad de una multiplicación muy grande de la fuerza. El émbolo que transmite la presión puede tener cientos o miles de veces menor superficie. En esta misma cantidad de veces se diferenciará de la fuerza muscular, la fuerza que actúa sobre el émbolo grande. Con ayuda de la prensa hidráulica se pueden forjar y estampar los metales, prensar uvas, levantar pesos, etc.

Gentileza de Manuel Mayo

210

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Claro que la ganancia en fuerza irá acompañada de pérdida en el camino. Para comprimir con la prensa un cuerpo en 1 cm, habrá que hacer un recomido con la mano tantas veces mayor, cuantas veces se diferencian las fuerzas F1 y F2 La razón de la fuerza a la superficie F/S, se llame en física, presión. En vez de decir: la fuerza de 1 kgf actúa sobre la superficie de 1 cm2, diremos abreviadamente: la presión (ésta se designa con la letra p), p = 1 kgf/cm2. En vez de la razón F2/F1 = S2/S1 podemos escribir ahora: F2/S2 = F1/S1 o sea p1 = p2 Así, pues, la presión sobre los dos émbolos es la misma. Nuestro razonamiento no depende de la posición de los émbolos, ya sean sus superficies horizontales, verticales u oblicuas. Y, en general, el asunto no está en los émbolos. Podemos figurarnos que se han elegido dos partes cualesquiera de una superficie que contiene líquido, y afirmar, que la presión sobre esta superficie es la misma en todos los sitios. De este modo, resulta que la presión dentro del líquido es igual en todos sus puntos y en todas las direcciones. O, en otras palabras, sobre una superficie de una media determinada actúa una fuerza igual, donde quiera y como quiera que esté situada la superficie. Esta regla lleva el nombre de principio de Pascal. 2. Presión hidrostática El principio de Pascal es justo para los líquidos y los gases. Sin embargo, éste no toma en consideración una circunstancia muy importante, la existencia del peso. En las condiciones terrestres no se puede olvidar esto. El agua también pesa. Es comprensible por esto, que dos superficies situadas a diversa profundidad bajo el agua,

experimentan

presiones

distintas.

¿A

qué

es

igual

esta

diferencia?

Figurémonos que se ha elegido dentro del líquido un cilindro recto con las bases horizontales. El agua situada dentro de él. presiona sobre el agua que la rodea. La fuerza total de esta presión es igual al peso mg del líquido en el cilindro (fig. 7.2). Esta fuerza total se descompone en dos fuerzas que actúan sobre las bases del cilindro y sobre se superficie lateral. Pero las fuerzas que actúan sobre las paredes

Gentileza de Manuel Mayo

211

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

opuestas de la superficie lateral son iguales en valor absoluto y de dirección contraria.

Figura 7.2 Por eso, la suma de todas las fuerzas que actúan sobre la superficie lateral es igual a cero. Por lo tanto, el peso mg será igual a la diferencia de las fuerzas F2 – F1. Si la altura del cilindro es igual a h, el área de la base igual a S y la densidad del líquido igual a ρ, entonces, en lugar de mg se puede escribir ρgh. La diferencia de las fuerzas es igual a esta magnitud. Para obtener la diferencia de presiones, hay que dividir el peso por el área S. La diferencia de presiones resulta sur igual a ρgh, Según el principio de Pascal, la presión sobre superficies de diversa orientación, pero situadas a una misma profundidad, es la misma. Esto significa, que la diferencia de presiones en dos puntos del líquido, situados uno sobre otro a la altura h, es igual al peso de una columna de líquido de sección igual a la unidad y la altura h: p2 – p1 = ρgh La presión del agua debida u su gravedad, se llama hidrostática. Frecuentemente, en las condiciones terrestres, sobre la superficie libre del líquido presiona el aire. La presión del aire se llama atmosférica. La presión en la

Gentileza de Manuel Mayo

212

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

profundidad de un líquido, se compone de la presión atmosférica y de la hidrostática. Para calcular la fuerza de la presión del agua, sólo hay que saber la medida de la superficie sobre la que presiona y la altura de la columna de líquido sobre ella. Todo lo demás, en virtud del principio de Pascal, no juega ningún papel.

Figura 7.3 Esto puede parecer muy raro. ¿Es posible que sean iguales las fuerzas que actúan sobre fondos iguales (fig. 7.3) de los dos recipientes representados? Hay que tener presente que en el de la izquierda hay mucho más agua. A pesar de esto, las fuerzas que actúan sobre los fondos son, en ambos casos, iguales a ρghS. Esto es más que el peso del agua en el recipiente de la derecha y menos que el peso del agua del recipiente de la izquierda. En el recipiente de la izquierda, las paredes aguantan el peso del agua «que sobra», y en el de la derecha, por el contrario, agregan al peso del agua la fuerza de reacción. A veces, a esta interesante circunstancia la denominan paradoja hidrostática. Si dos recipientes de diferente forma, pero con un mismo nivel de agua, se unen con un tubo, el agua no pasa de un recipiente a otro. Este paso podría ocurrir, en el caso en que las presiones en los recipientes fuesen diferentes. Pero esto no es así; en los vasos comunicantes, el líquido siempre estará a un mismo nivel, independientemente de sus formas. Por el contrario, si son diferentes los niveles de agua en los vasos comunicantes, el agua comienza a desplazarse y los niveles se igualan. Gentileza de Manuel Mayo

213

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La presión del agua es mucho mayor que la del aire. A la profundidad de 10 m el agua presiona sobre 1 cm2 con una fuerza de 1 kgf, por encima de la presión atmosférica. A la profundidad de 1 km, con una fuerza de 110 kgf, sobre 1 cm2. En algunos lugares, el océano tiene una profundidad de más de 10 km. Las fuerzas de presión del agua en estas profundidades son enormes. Un trozo de madera sumergido a la profundidad de 5 km, se comprime de tal modo, a causa de esta presión colosal, que después de tal «bautizo», se hunde en una barrica de agua como un ladrillo. Esta enorme presión crea muchas dificultades a quienes estudian la vida del mar. Los descensos a grandes profundidades se efectúan en globos de acero, llamados batisferas con los que se aguantan presiones de más de 1 tonelada sobre 1 cm2. Los submarinos pueden sumergirse solamente a una profundidad de 100 a 200 m. 3. Presión de la atmósfera Nosotros vivimos en el fondo de un océano de aire, llamado atmósfera. Cualquier cuerpo, cualquier granito de arena, todo objeto situado en la Tierra está sometido a la presión del aire. La presión atmosférica no es tan pequeña. Sobre cada centímetro cuadrado de la superficie de un cuerpo actúa una fuerza de cerca de 1 kgf. La causa de la presión atmosférica es evidente. El aire, así como el agua, tiene peso y, por consiguiente, efectúa una presión igual (así como para el agua) al peso de la columna de aire situada sobre el cuerpo. Cuanto a más altura subamos en un monte, tanto menos aire habrá sobre nosotros y, por lo tanto, tanto menor será la presión atmosférica. Para la vida y para la ciencia es necesario saber medir la presión. Para esto sirven unos aparatos especiales llamados barómetros. No es difícil construir un barómetro. En un tubo cerrado por un extremo, se echa mercurio. Tapando el extremo abierto con el dedo, se invierte el tubo y se introduce por el extremo abierto en una vasija con mercurio. Claro, el mercurio del tubo descenderá, pero éste no se vacía. No hay duda de que no hay aire en el espacio situado por encima del mercurio. El mercurio se mantiene en el tubo gracias a la presión del aire exterior (fig. 7.4).

Gentileza de Manuel Mayo

214

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 7.4 El mercurio siempre se eleva a la misma altura, a 76 cm, aproximadamente, sean cuales fueren las dimensiones de la vasija con mercurio y el diámetro del tubo. Si se toma un tubo menor de 76 cm, éste se llenará de mercurio y no veremos el vacío. La columna de mercurio de 76 cm de altura presiona sobre la base con la misma fuerza que la atmósfera. Dicha columna de mercurio de 76 cm de altura sobre una superficie de 1 cm2 pesa cerca de un kilogramo, o más exactamente. 1,033 kgf. Este número es el volumen de mercurio de 1 x 76 cm3, multiplicado por su densidad y por la aceleración de la caída libre. Como se ve, la presión media o normal atmosférica que siente cada hombre de la tierra es próxima a la presión que surge sobre un plano de 1 cm2 bajo la acción de una pesa de 1 kg. Para medir las presiones se usan diferentes unidades. A veces se indica, simplemente, la altura de la columna de mercurio en milímetros. Por ejemplo, se suele decir: hoy la presión es mayor que la normal, es igual a 761 mm Hg (o sea, de mercurio). La presión de 760 mm Hg, se llama atmósfera física. La presión de 1 kgfkm2, se llama atmósfera técnica. Los físicos frecuentemente utilizan también la unidad de presión llamada baria. 1 baria = 105 dinas/cm2. Como 1 gf = 981 dinas, resulta que 1 baria es, Gentileza de Manuel Mayo

215

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

aproximadamente, igual a una atmósfera. Más exactamente, la presión normal atmosférica es, aproximadamente, igual a 1013 milibarias. Actualmente el SI utiliza la unidad de presión, pascal (Pa), equivalente a la acción de una fuerza de 1. newton sobre una superficie de 1 m2. Esta presión es muy pequeña ya que 1 Pa = 1 N/m2 = = 10 dyn/cm2 = 10-5 b Calculando la medida de la superficie terrestre por la fórmula 4πR2, hallamos que el peso de toda la atmósfera se expresa por un número grandísimo, 5 x 1018 kgf. Al tubo del barómetro se lo puede dar cualquier forma; lo principal es que uno de los extremos esté cerrado de tal modo, que sobre la superficie del mercurio dentro del tubo no haya aire. Sobre el otro nivel del mercurio actúa la presión de la atmósfera. Con el barómetro de mercurio se puede medir la presión atmosférica con mucha exactitud. Claro que no es obligatorio tomar mercurio, se puede emplear cualquier otro líquido. Pero el mercurio es el líquido más pesado y la altura de la columna de mercurio, siendo normal la presión, es la mínima. El barómetro de mercurio no es un aparato muy cómodo. No es conveniente dejar abierta la superficie del mercurio (los vapores de mercurio son venenosos), además, el aparato no es portátil. Los barómetros metálicos (o sea, vacíos) carecen de estos defectos. Todos habrán visto tal barómetro. Representa una pequeña caja metálica redonda con una graduación y una aguja indicadora. En la escala van marcadas las magnitudes de la presión, generalmente en centímetros de la columna de mercurio. De la caja metálica se ha extraído el aire. La tapa de la caja está sujeta por un resorte muy fuerte, ya que, en caso contrario, está aplastada por la presión atmosférica. Al cambiar la presión, la tapa, bien se contrae, bien se estira. Esta va unida con una aguja, de modo que, al contraerse, la aguja va hacia la derecha. Este barómetro se gradúa comparándolo con las indicaciones del de mercurio. También se basa en la presión atmosférica un aparato muy sencillo, llamado sifón.

Gentileza de Manuel Mayo

216

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El chófer de un automóvil quiere ayudar a su compañero, a quien se lo ha acabado la gasolina. ¿Cómo trasvasar la gasolina del depósito de su automóvil? ¿No habrá que inclinarlo como una tetera? Un tubo de goma nos saca del apuro. Uno de sus extremos se introduce en el depósito y por el otro extremo se extrae el aire con la boca. Después, rápidamente se tapa con el dedo el extremo abierto y se establece a una altura menor que la del depósito. Ahora se puede quitar el dedo, la gasolina se irá vertiendo sola de la manga improvisada (fig. 7.5).

Figura 7.5 El tubo doblado de goma es un sifón. La causa del movimiento del líquido es la misma que en el caso de un tubo recto inclinado. En ambos casos, el líquido, al fin y al cabo, corre hacia abajo. Para la acción del sifón es necesaria la presión atmosférica: ésta «empuja» el líquido y evita que se rompa la columna de líquido en el tubo. Si no hubiese presión atmosférica, la columna se rompería en el punto de la curvatura y el líquido se vertería en ambos recipientes. El sifón comienza su trabajo cuando el líquido de la rama derecha (la que «vierte») desciende más abajo del nivel del líquido que se trasvasa, en el que se ha colocado el extremo izquierdo del tubo. En caso contrario, el líquido fluirá de vuelta. 4. Cómo se conoció la presión atmosférica

Gentileza de Manuel Mayo

217

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Ya las civilizaciones antiguas conocían las bombas aspirantes. Sirviéndose de ellas, levantaban el agua a alturas considerables. El agua, asombrosamente obediente, era conducida por el émbolo de tal bomba. Los filósofos de la antigüedad, pensando sobre las causas de esto, llegaban a la conclusión ingeniosa de que el agua va detrás del émbolo, porque la naturaleza tiene miedo al vacío, y que, por eso, entre el émbolo y el agua no queda espacio libre. Cuentan que un artesano construyó una bomba aspirante para los jardines del duque de Toscana en Florencia y que el émbolo tenía que levantar el agua a una altura de más de 10 m. Pero, por mucho que se esforzaban en absorber con esta bomba el agua, no resultó nada. Hasta los 10 m, el agua iba tras el émbolo, después el émbolo se separaba del agua y se formaba el mismo vacío que la naturaleza temía. Cuando se dirigieron a Galileo a explicar las causas del fracaso, éste respondió que la naturaleza, verdaderamente, no tolera el vacío, pero hasta cierto límite. Probablemente, Torricelli, discípulo de Galileo, utilizó este caso como motivo para efectuar en el año 1643 su célebre experimento con el tubo lleno de mercurio. Este experimento ya lo hemos descrito, consiste en la construcción del barómetro de mercurio. Tomando un tubo de más de 76 cm, Torricelli formó el vacío sobre el mercurio (a veces, en su honor, lo llaman el vacío de Torricelli) y de este modo demostró la existencia de la presión atmosférica. Con este experimento, Torricelli resolvió las dudas del artesano del duque de Toscana. En efecto, es claro que el agua irá, obedientemente, detrás del émbolo de la bomba aspirante a lo largo de unos cuantos metros. Este movimiento continuará hasta que la columna de agua de 1 cm2 de sección alcance el peso de 1 kgf. Esta columna de agua tendrá una altura de 10 m. Por esto, es por lo que la naturaleza tiene miedo al vacío..., pero no más que hasta 10 m. En el año 1654, después de 11 años del descubrimiento de Torricelli, el burgomaestre de Magdeburgo, Otto von Guericke10, mostró palpablemente la acción

10

Otto von Herik, en el original (PB)

Gentileza de Manuel Mayo

218

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de la presión atmosférica. El autor se hizo célebre, no tanto por la esencia física del experimento, como por la teatralidad con que lo expuso. Dos hemisferios de cobre fueron unidos por un aro intermedio. Del globo formado se extrajo el aire mediante una válvula instalada en uno de los hemisferios, después de lo cual, resultaba imposible separar los hemisferios. Se ha conservado la descripción detallada del experimento de Guericke. Ahora se puede calcular la presión de la atmósfera sobre los hemisferios; siendo el diámetro del globo de 37 cm, la fuerza era igual a cuatro toneladas, aproximadamente. Para separar los hemisferios, Guericke ordenó arrear dos troncos de ocho caballos cada uno. Tras el atelaje iban las cuerdas, atadas a los aros que estaban sujetos en los hemisferios. Resultó que los caballos no tuvieron fuerza para separar los hemisferios. La fuerza de ocho caballos (precisamente de ocho y no de dieciséis, ya que los otros ocho fueron arreados para mayor efecto, pues podían haber sido sustituidos por un gancho clavado en la pared, manteniendo la misma fuerza que actuaba sobre el hemisferio) fue insuficiente para romper les hemisferios de Magdeburgo. Si entre dos cuerpos contiguos hay un vacío, éstos no se pueden separar, debido a la presión atmosférica. 5. Presión atmosférica y el tiempo La oscilación de la presión debida al tiempo, tiene un carácter muy irregular. Antes se creía que el tiempo se determinaba sólo por la presión. Por eso, hasta hoy día, en los barómetros ponen las indicaciones: claro, seco, lluvia, tempestad. Se encuentra incluso la indicación: «terremoto». El cambio de presión, verdaderamente, juega un gran papel en el cambio del tiempo. Pero este papel no es decisivo. La presión media o normal sobre el nivel del mar, es igual a 1013 milibarias. Las oscilaciones de la presión son relativamente pequeñas. Raramente desciende la presión de 935 a 940 milibarias y se eleva hasta 1055 a 1060. La presión más baja se observó el 18 de agosto de 1927, en el mar de la China, que fue de 885 milibarias. La más alta, de cerca de 1080 milibarias. se observó el 23 de enero de 1900 en Siberia, en la estación de Barnaul (todas las cifras se han tomado con respecto al nivel del mar).

Gentileza de Manuel Mayo

219

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fig. 7.6 está representado un mapa que usan los meteorólogos para analizar los cambios del tiempo. Las líneas trazadas en el mapa se llaman isobaras. En cada una de estas líneas la presión es la misma (su magnitud está indicada con un número). Observemos los lugares de menor y de mayor presión, las «cumbres» y «depresiones» de la presión.

Figura 7.6 La dirección y la fuerza del viento están ligadas con la presión atmosférica. La presión no es la misma en diferentes lugares de la superficie terrestre y la presión más alta «empuja» el aire hacia los lugares de menor presión. Se podría

Gentileza de Manuel Mayo

220

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

pensar que el viento tenía que soplar en dirección perpendicular a las isobaras, o sea, hacia allí donde la presión disminuye con mayor rapidez. Sin embargo, el mapa de los vientos muestra otra cosa. En los asuntos de la presión del aire se inmiscuye la fuerza de Coriolis, que introduce una corrección bastante considerable. Como sabemos, sobre cualquier cuerpo que se mueve en el hemisferio norte actúa la fuerza de Coriolis, dirigida hacia la derecha del movimiento. Esto también se refiere a las partículas del aire. Expulsada de los lugares de mayor presión hacia los lugares

donde

la

presión

es

menor,

la

partícula

tendría

que

moverse

transversalmente a las isobaras, pero la fuerza de Coriolis la desvía hacia la derecha, y la dirección del viento forma con la isobara un ángulo, aproximadamente de 45°. Es asombroso el gran efecto de esta fuerza tan pequeña. La explicación está en que los obstáculos a la acción de la fuerza de Coriolis, el frotamiento de las capas del aire, son insignificantes. Es todavía más interesante la influencia de la fuerza de Coriolis en la dirección de los vientos en las «cumbres» y en los «hoyos» de la presión. El aire, debido a la acción de la fuerza de Coriolis, al separarse de las «cumbres» de presión, no fluye en todas las direcciones por los radios, sino que se mueve en espiral. Estas corrientes de aire en espiral giran hacia un mismo lado y crean un torbellino circular en las regiones de alta presión, trasladando las masas de aire en sentido de las agujas de un reloj. La fig. 2.16 muestra claramente cómo el movimiento radial se convierte en espiral a causa de la acción de una fuerza de desviación constante. Lo mismo ocurre con las regiones de baja presión. Si no hubiese la fuerza de Coriolis, el aire fluiría hacia esta región, uniformemente por todos los radios. Sin embargo, por el camino, las masas de aire se desvían hacia la derecha. En este caso, como se ve claro en el dibujo, se forma un torbellino circular que mueve el aire en sentido contrario al de las agujas de un reloj. Los vientos en las regiones de baja presión se llaman ciclones; los vientos en las regiones de alta presión, anticiclones. No hay que creer que todo ciclón significa un huracán o una tempestad. El paso de los ciclones y de los anticiclones por la ciudad donde vivimos, es un fenómeno ordinario, claro que ligado en gran parte, con la alteración del tiempo. En muchos

Gentileza de Manuel Mayo

221

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

casos, la aproximación de un ciclón significa la llegada del mal tiempo, y la aproximación de un anticiclón, la llegada del buen tiempo. Desde luego, no vamos a convertirnos en pronosticadores del tiempo. 6. Variación de la presión con la altura Con la variación de la altura cambia la presión. Por primera vez este hecho lo aclaró el francés Perier por encargo de Pascal en 1648. La montaña Puy de Dome cerca de La cual vivió Perier tenía la altura de 975 m. Las mediciones demostraron que el mercurio en el tubo de Torricelli cae a 8 mm al subirse a la montaña. El hecho que la presión del aire cae a medida que aumenta la altura es completamente natural. Es que allí, arriba, sobre el instrumento ya presiona una menor columna de aire. Si alguna vez usted voló en avión, entonces, debe saber que en la pared frontal de la cabina está montado un instrumento que con una precisión de hasta decenas de metros indica la altura a la que ascendió el vehículo. Dicho instrumento se denomina altímetro. No es sino un barómetro ordinario, pero graduado para los valores de las alturas sobre el nivel de) mar. La presión disminuye con el incremento de la altura; hallemos la fórmula de esta relación. Separemos una pequeña capa de aire de 1 cm2 de área situada entre las alturas h1 y h2. En una capa no muy grande es poco notoria la variación de la densidad en función de la altura. Por esta razón el peso del volumen separado (es un cilindro de altura h2 - h1 y el área de 1 cm2) de aire sea mg = ρ (h2 - h1) g Precisamente este peso aporta la caída de la presión al elevarse desde la altura h1 hasta la altura h2. Es decir (p2 - p1) / ρ = g (h2 - h1)

Gentileza de Manuel Mayo

222

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Pero de acuerdo con la ley de Boyle-Mariotte que el lector conoce (y si no la conoce, tomará conocimiento de ésta en el libro 2), la densidad de un gas es proporcional a la presión. Por lo tanto (p2 - p1) / p ~ g (h2 - h1) A la izquierda tenemos la porción en que creció la presión al descender desde h2 hasta h1. En consecuencia, a los iguales descensos h2 - h1 corresponderá el incremento de presión en un mismo tanto por ciento. Las mediciones y el cálculo, en plena concordancia, demuestran que al elevarse sobre el nivel del mar, por cada kilómetro, la presión caerá en 0,1 parte. Lo mismo se refiere también al descenso a pozos profundos bajo el nivel del mar: cuando se baje a un kilómetro la presión crecerá en 0,1 de su valor. Se trata de una variación en 0,1 respecto al valor en la altura precedente. Este hecho significa que al subir un kilometro la presión disminuirá constituyendo 0,9 de la misma al nivel del mar; seguidamente, al ascender un kilometro más, ésta se hace igual a 0,9 de las nueve décimas respecto al nivel del mar; a la altura de 3 kilómetros la presión será igual a 0,9 de 0,9 de 0,9, es decir, (0,9)3 con respecto a la presión al nivel del mar. No es difícil continuar más adelante este razonamiento. Designando la presión al nivel del mar por p0, podemos escribir la presión a la altura h (expresada en kilómetros) de la siguiente forma: p = p0 (0.87)h = p0 x 10-0.08h Entre paréntesis está escrito el número más exacto, ya que 0,9 es un valor redondeado. La fórmula supone que la temperatura es la misma en todas las alturas. No obstante, en la realidad, la temperatura de la atmósfera varía con la altura y, además, de acuerdo con una ley bastante compleja. A pesar de todo, la fórmula aporta resultados no malos y puede valerse de ésta en las alturas hasta un centenar de kilómetros. Mediante esta fórmula no es difícil determinar que a la altura de Elbruz, cerca de 5,6 km, la presión disminuirá aproximadamente el doble y a la altura de 22 km

Gentileza de Manuel Mayo

223

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

(altura récord de ascensión de un estratóstato con hombres) la presión caerá hasta 50 mm de Hg. Cuando decimos que la presión de 760 mm de Hg es normal, no se debe olvidar de añadir: «al nivel del mar». A la altura de 5,6 km la presión normal será la de 380 mm de Hg y no la de 760 mm de Hg. Paralelamente a la presión y según la misma ley, con el aumento de la altura disminuye la densidad del aire. A la altura de 160 km la cantidad de aire será ya muy reducida. En efecto, (0,87)160 = 10-10 Junto a la superficie de la Tierra la densidad del aire es igual a 1000 gcm3, aproximadamente; en consecuencia, a la altura de 160 km, de acuerdo con nuestra fórmula, a 1 m3 debe corresponder 10-7 g de aire. Pero, como evidencian las mediciones efectuadas mediante los cohetes, la densidad del aire a esta altura es, realmente, unas diez veces mayor. Una reducción aún mayor con respecto a la realidad nuestra fórmula proporciona para las alturas de varias centenas de kilómetros. La culpa de que la fórmula se torna inadecuada para las grandes alturas la tiene la variación de la temperatura en función de la altitud, así como un fenómeno especial: la disgregación de las moléculas del aire por acción de la radiación solar. Aquí no nos detendremos en este fenómeno. 7. Ley de Arquímedes Colguemos una pesa de una romana. El resorte se estirará e indicará su peso. Sin quitar la pesa, sumerjamos la romana en el agua. ¿Han cambiado las indicaciones de la romana? Sí, parece como si el peso del cuerpo hubiese disminuido. Si se hace el experimento con una pesa de hierro de un kilogramo, la «disminución» del peso será, aproximadamente, de 140 gf. ¿Qué es lo que ha ocurrido? Pues, es claro, que no se pudo variar ni la masa del cuerpo, ni la atracción de la Tierra. La causa de la pérdida de peso puede ser

Gentileza de Manuel Mayo

224

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

solamente una: sobre el cuerpo sumergido en el agua actúa hacia arriba una fuerza de 140 gf. ¿De dónde aparece esta fuerza de empuje, descubierta por el célebre sabio de la antigüedad, Arquímedes? Antes de examinar un cuerpo sólido en el agua, veamos «el agua en el agua». Figurémonos que se ha elegido un volumen de agua. Este volumen tiene peso, pero no cae al fondo. ¿Por qué? La respuesta es clara: a esto se opone la presión hidrostática del agua que lo rodea. Esto significa que la resultante de esta presión en el volumen considerado es igual al peso del agua y está dirigida verticalmente hacia arriba. Está claro que si ahora, este mismo volumen se ocupa con un cuerpo sólido, la presión hidrostática se mantiene igual. Así pues, sobre un cuerpo, sumergido en un líquido, como resultado de la presión hidrostática, actúa una fuerza que va dirigida verticalmente hacia arriba y cuya magnitud es igual al agua que desaloja el cuerpo. Este es el principio de Arquímedes. Cuentan que Arquímedes estaba tomando un baño, pensando el modo de averiguar si había mezcla de plata en una corona de oro, o no. Al tomar el baño, la persona siente palpablemente la fuerza de empuje. La ley fue descubierta inesperadamente por Arquímedes, ésta se presentó de la forma más simple. Con el grito de «Eureka» (que quiere decir «hallé»), Arquímedes salió del baño y fue corriendo a la habitación por la preciosa corona, para determinar inmediatamente la pérdida de su peso en el agua. La pérdida de peso de un cuerpo en el agua, expresada en gramos, es igual al peso del agua desalojada por él. Sabiendo el peso del agua, inmediatamente se halla su volumen, que es igual al volumen de la corona. Conociendo el peso de la corona, se puede hallar, rápidamente, la densidad del material del que está hecha y, sabiendo la densidad del oro y de la plata, se puede hallar el porcentaje de la mezcla. Es natural que el principio de Arquímedes sea justo para cualquier líquido. Si en un líquido de densidad ρ se ha sumergido un cuerpo de volumen V, el peso del líquido desalojado, que precisamente es la fuerza de empuje, será igual a ρVg. La acción de muchos aparatos simples que controlan las propiedades de los productos líquidos, está basada en el principio de Arquímedes. Si se mezcla alcohol o leche con agua, su densidad se altera, y por esta densidad se puede juzgar sobre

Gentileza de Manuel Mayo

225

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

su composición. Esta medición se efectúa simple y rápidamente con el areómetro (fig. 7.7). Al introducirlo en el líquido, el areómetro se sumerge a mayor o menor profundidad, en dependencia de la densidad.

Figura 7.7 El areómetro se mantiene en equilibrio cuando la fuerza de Arquímedes se hace igual a su peso. En el areómetro hay marcadas unas divisiones, y la densidad del líquido se indica por la graduación que corresponde al nivel del líquido. Los areómetros se emplean para controlar el alcohol, para controlar la leche: el pesa-leches. La densidad media del cuerpo del hombre es un poco mayor que la unidad. Quien no sabe nadar, se hunde en agua dulce. La densidad del agua salada es mayor que la unidad. En la mayoría de los mares, la salinidad del agua es insignificante y la densidad del agua, aunque es mayor que la unidad, sin embargo, es menor que la densidad media del cuerpo humano. La densidad del agua en el golfo de KaraBogas-Gol, en el mar Caspio, es igual a 1,18. Esto es más que la densidad media del cuerpo humano. En este golfo es imposible hundirse. Se puede tumbar uno en el agua y leer un libro. El hielo flota en el agua. La preposición «en», no es aquí oportuna. La densidad del hielo es, aproximadamente, el 10% menor que la del agua; por eso, del principio de Arquímedes, se deduce, que el trozo de hielo está sumergido en el agua,

Gentileza de Manuel Mayo

226

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

aproximadamente, en 0,9 de su volumen. Precisamente por esto es muy peligroso el encuentro de los barcos de mar con los icebergs. Una balanza de palanca puede estar en equilibrio en el aire, mas esto no significa que ella se mantiene también en equilibrio en el vacío. El principio de Arquímedes se refiere el aire del mismo modo que al agua. En el aire, sobre el cuerpo actúa una fuerza de empuje, que es equivalente al peso de un volumen de aire igual al volumen del cuerpo. El cuerpo «pesa» menos en el aire que en el vacío. Cuanto mayor sea el volumen, tanto mayor será la pérdida de peso. Una tonelada de madera pierde más peso que una tonelada de plomo. A la pregunta, en broma, de cuál es más ligero, se da la siguiente respuesta: una tonelada de plomo es más pesada que una tonelada de madera, si se pesan en el aire. Mientras se trata de cuerpos pequeños, la pérdida de peso en. el. aire no es grande. Sin

embargo,

pesando

un

trozo

de

las

dimensiones

de

una

habitación,

«perderíamos» unas cuantas decenas de kilogramos. En las mediciones exactas de peso se tiene que contar la corrección en la pérdida de peso en el aire. La fuerza de Arquímedes en el aire ofrece la posibilidad de construir globos, aeróstatos y dirigibles de diversas formas. Para esto hay que disponer de un gas que sea más ligero que el aire. Si se llena de hidrógeno un globo de 1 m3 de volumen, cuyo peso es de, 0,09 kgf, la fuerza ascensional que es la diferencia de la fuerza de Arquímedes y del peso del gas, será igual a: 1,29 kgf - 0,09 kgf = 1,20 kgf; (la densidad del aire es 1,29 kg/m3). Por lo tanto, a este globo se le puede colocar cerca de un kilogramo de carga, y esto no representa una molestia para volar por encima de las nubes. Está claro que con volúmenes no muy grandes, de unos cuantos cientos de metros cúbicos, los globos de hidrógeno son capaces de levantar al aire una carga considerable.

Gentileza de Manuel Mayo

227

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Un defecto serio de los aeróstatos de hidrógeno es que el hidrógeno es inflamable. Este forma con el aire una mezcla explosiva. En la historia de la creación de aeróstatos se han señalado casos trágicos. Por esto, cuando se descubrió el helio, empezaron a llenar los globos con él. El helio es dos veces más pesado que el hidrógeno y el empuje ascendente de un globo lleno de este gas es menor. Sin embargo, ¿es esencial esta diferencia? La fuerza ascensional de un globo de 1 m3, lleno de helio, es igual a la diferencia: 1,29 kgf - 0,18 kgf = 1,11 kgf. La fuerza ascensional ha disminuido solamente en un 8%. Por otra parte, las cualidades del helio son evidentes.

Figura 7.8 El aeróstato fue el primer aparato con el que los hombres se elevaron de la tierra. Hasta ahora se emplean los aeróstatos con una góndola cerrada herméticamente,

Gentileza de Manuel Mayo

228

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

para las investigaciones de las capas superiores de la atmósfera. Estos se llaman estratóstatos. Los estratóstatos se levantan hasta una altura de más de 20 km. Actualmente, tienen mucho empleo los globos provistos de diversos aparatos para mediciones, los cuales informan por radio sobre los resultados obtenidos (fig. 7.8). Estas radiosondas llevan consigo una radioemisora con pilas, que con señales convencionales da informaciones sobre la humedad, temperatura y presión de la atmósfera en diferentes alturas. Se puede mandar a navegar muy lejos un aeróstato sin guía y determinar con bastante exactitud el sitio de aterrizaje. Para esto, hace falta que el aeróstato se eleve a mucha altura, de unos 20 ó 30 km. En estas alturas las corrientes de aire son muy estables, y, previamente, se puede calcular la ruta del aeróstato con bastante exactitud. Si es necesario, se puede cambiar automáticamente la fuerza ascensional del aeróstato, soltando el gas o arrojando el lastre. Antes, para volar por el aire, se empleaban unos aeróstatos en los que iba instalado un motor con una hélice. A estos aeróstatos, llamados dirigibles, les daban una forma

aerodinámica.

comparándolos,

Los

incluso

dirigibles no

con

los

pudieron

aviones

de

30

competir años

con

atrás,

los

aviones;

resultan

muy

voluminosos, incómodos de dirigir. Se mueven lentamente y tienen «un techo muy bajo» 8. Presión de millones de atmósferas Diariamente nos encontramos con grandes presiones sobre superficies pequeñas. Veamos, por ejemplo, cuál es la presión que se ejerce sobre el extremo de una aguja. Supongamos que el extremo de la aguja o del clavo tiene una medida lineal de 0,1 mm. Esto significa que el área de la punta es igual a 0,0001 cm2. Pero, si se actúa sobre este clavito con una fuerza no muy grande, de 10 kgf, el extremo del clavo ejercerá una presión de 100 000 atmósferas. No tiene nada de extraordinario que los objetos puntiagudos se introduzcan tan fácilmente en los cuerpos sólidos. De este ejemplo se deduce que la creación de grandes presiones sobre pequeñas superficies es una cosa muy ordinaria. Otra cosa es, si se trata de crear presiones altas sobre superficies grandes.

Gentileza de Manuel Mayo

229

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Las presiones altas se crean en los laboratorios con ayuda de prensas potentes, como la hidráulica (fig. 7.9). El esfuerzo de la prensa se transmite por un émbolo de poca superficie, éste se introduce en un depósito, dentro del cual se desea crear alta presión.

Figura 7.9 De este modo, sin gran trabajo, se pueden crear presiones de unos cuantos miles de atmósferas. Para obtener presiones superaltas, el experimento se tiene que complicar, ya que el material del depósito no aguanta tales presiones. Aquí, la naturaleza viene a nuestro encuentro. Resulta que, a presiones de cerca de 20.000 atmósferas, los metales se endurecen considerablemente. Por eso, el aparato para la obtención de presiones superaltas lo sumergen en un líquido que está bajo una presión de alrededor de 30.000 atmósferas. En este caso, en el depósito interior, se consigue crear (otra vez con el émbolo) una presión de unos cuantos cientos de miles de atmósferas. La presión más alta, de 400.000 atmósferas, fue obtenida por el físico americano Bridgmen. No es vano al interés de la obtención de presiones

Gentileza de Manuel Mayo

230

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Unidades y dimensiones de las magnitudes físicas en el SI y sus relaciones con las unidades CGS

Gentileza de Manuel Mayo

231

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

232

L. D. Landau y A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

233

L. D. Landau y A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

234

L. D. Landau y A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

235

L. D. Landau y A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

236

L. D. Landau y A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos I– Cuerpos Físicos

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

FIN

Gentileza de Manuel Mayo

237

Preparado por Patricio Barros

Física para Todos II– Moléculas

Gentileza de Manuel Mayo

www.librosmaravillosos.com

1

L. D. Landau y A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Prólogo a lo cuarta edición rusa Este libro lleva el título de «Moléculas», lo integran, sin someterse a cambio alguno, muchos capítulos de la segunda parte de la anterior publicación de la «Física para todos» perteneciente a la pluma de L. D. Landau y A. I. Kitaigorodski. En su mayor parte el libro está dedicado a los diversos aspectos de la teoría acerca de la estructura de la materia. Sin embargo, por ahora, el átomo se presenta aquí tal como lo percibía Demócrito, o sea, como una partícula indivisible. Se sobreentiende que en el libro se abordan también los problemas relacionados con el movimiento de las moléculas. Ello se debe al hecho de que forman la base de la concepción moderna de los fenómenos térmicos. Y, por supuesto, tampoco se dejan al soslayo los problemas concernientes a las transiciones de fase. En los años transcurridos desde la publicación de las ediciones anteriores de la «Física para todos» se ampilaron enormemente nuestros conocimientos sobre la estructura de las moléculas, así como sobre su interacción mutua. Se tendieron muchos puentes entre los problemas de le estructura molecular de la materia y sus propiedades. Esta circunstancia me impulsó a incluir en este libro nuevo, material bastante considerable por su volumen. Mi opinión es que ya hace mucho ha llegado el momento de introducir en los libros de texto comúnmente adoptados datos generales acerca de las moléculas más complejas que las de oxígeno, nitrógeno y de dióxido de carbono. Hasta la fecha, en la mayoría

de los cursos de física los autores no consideran necesario dirigir la

conversación a las combinaciones más complicadas de átomos. ¡Mientras tanto, las macromoléculas han ocupado una posición firmo en nuestra vida cotidiana en forma de diversos materiales sintéticos! Se ha creado la biología molecular que explica los fenómenos de la vida en el lenguaje de las moléculas de las proteínas y de los ácidos nucleicos. De la misma manera, injustamente, se suele hacer caso omiso de las cuestiones referentes a las reacciones químicas. Entre tanto, no se debe olvidar que se trata del proceso físico de colisión de las moléculas acompañada con su reestructuración.

Gentileza de Manuel Mayo

2

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Cuánto más fácil es explicar al oyente o al lector la esencia de las reacciones nucleares, si conoce el comportamiento completamente análogo de las moléculas. Al reelaborar el libro resultó racional trasladar algunos apartados de la anterior «Física para todos» en los fascículos posteriores. En particular, consideramos posible limitarnos a dedicar tan sólo unas pocas palabras al sonido en el capítulo sobre la mecánica molecular. Del mismo modo nos pareció conveniente postergar la conversación acerca del movimiento ondulatorio hasta el examen de los fenómenos electromagnéticos. En su conjunto, los cuatro fascículos de la nueva edición de la «Física para todos» («Cuerpos físicos». «Moléculas», «Electrones», «Fotones y núcleos») abarcarán la exposición de les fundamentos de física. A. I. Kitaigorodski Abril de 1978

Gentileza de Manuel Mayo

3

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 1 Los ladrillos del universo Contenido: •

Elementos



Átomos y moléculas



¿Qué es el calor?



La energía se conserva siempre



Caloría



Un poco de historia

Elementos ¿De qué se compone el mundo que nos rodea? Las primeras respuestas a esta pregunta que han llegado hasta nosotros, nacieron en la Grecia Antigua más de 25 siglos atrás. A primera vista, las respuestas de Tales de Mileto, que afirmaba que todo se componía de agua; de Anaxímedes, que decía que el mundo se había constituido del aire; o de Heráclito, según el cual, todo se componía de fuego, parecen demasiado extrañas y tendríamos que gastar mucho papel en explicar al lector cuál era la lógica de los sabios de la antigüedad. Lo absurdo de semejantes explicaciones obligó a los posteriores griegos «amantes de la sabiduría» (así se traduce la palabra «filósofo»), a aumentar el número de bases primarias, o como decían en el mundo antiguo, de elementos. Empédocles afirmaba que había cuatro elementos: la tierra, el aire, el agua y el fuego. Aristóteles hizo correcciones terminantes (que dominaron mucho tiempo) en esta doctrina. Según él, todos los cuerpos se componían de una misma substancia, pero ésta podía poseer diversas propiedades. Estos elementos-propiedades no substanciales eran cuatro: el frío, el calor, la humedad y la esterilidad. Uniéndose dos a dos y siendo atribuidos a la substancia, los elementos-propiedades de Aristóteles formaban los elementos de Empédocles. Así, la substancia seca y fría

Gentileza de Manuel Mayo

4

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

proporcionaba la tierra; la seca y caliente, el fuego; la húmeda y fría, el agua y, por fin, la húmeda y caliente, el aire. En vista de que era difícil contestar a una serie de preguntas, los filósofos de la antigüedad añadieron a los cuatro elementos-propiedades la «divina quinta esencia». Esto es algo así como un Dios-cocinero que cuece conjuntamente los elementos-propiedades de diversa especie. Naturalmente que, alegando a Dios, era fácil dar explicación a cualquier duda. Durante mucho tiempo, casi hasta el siglo XVIII, había pocos que se atrevían a dudar y hacer preguntas. La doctrina de Aristóteles fue reconocida por la iglesia y dudar de su justeza era herejía. Sin embargo, surgían vacilaciones. Estas las creó la alquimia. En tiempos remotos, en cuyas profundidades podemos penetrar leyendo los manuscritos antiguos, el hombre sabía que todos los cuerpos que nos rodean eran capaces de convertirse en otros. La combustión, la calcinación, la fundición de los metales, todos estos fenómenos eran bien conocidos. Parecía que esto no contradecía la doctrina de Aristóteles. Con cualquier transformación cambiaba, como si dijéramos, «la dosis» de los elementos. Si todo el mundo

se

componía

solamente

de

cuatro

elementos,

las

posibilidades

de

transformación de los cuerpos tenían que ser muy grandes. Solamente había que hallar el secreto para lograr, que de cualquier cuerpo se pudiese obtener otro cualquiera. ¡Qué atrayente era el problema de hacer oro, o de hallar la singular y extraordinaria «piedra filosofal», a cuyo poseedor proporcionaría riqueza, poder y juventud eterna! La ciencia sobre la preparación del oro, de la piedra filosofal, la transformación de cualquier cuerpo en otro, los árabes antiguos la llamaron alquimia. El trabajo de los hombres que se dedicaron a la resolución de este problema duró siglos. Los alquimistas no aprendieron a hacer oro, no hallaron la piedra filosofal, pero, sin embargo, acumularon muchos valiosos datos sobre la transformación de los cuerpos. Estos datos sirvieron, al fin y al cabo, de pena de muerte para los alquimistas. En el siglo XVII, para muchos quedó claro, que el número de las substancias principales, de los elementos, era incomparablemente mayor, que cuatro. El mercurio, el plomo, el azufre, el oro, el antimonio, resultaron ser

Gentileza de Manuel Mayo

5

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

substancias que no se descomponían, ya no se podía decir que estas substancias se componían de elementos. Hubo que, por el contrario, tomarlos como elementos del mundo. En 1668, en Inglaterra vio la luz el libro de R. Boyle «El químico escéptico o las dudas y paradojas con respecto a los elementos de los alquimistas». Aquí encontramos una definición completamente nueva del elemento. Esto ya no es el elemento misterioso, inaccesible, de los alquimistas. Ahora, el elemento es una substancia, parte integrante del cuerpo. Esto corresponde a la definición moderna del concepto de elemento. La lista de los elementos de Boyle no era muy grande. A la lista verdadera agregó Boyle también el fuego. Las ideas sobre los elementos-propiedades se mantuvieron también después de él. Incluso en la lista del célebre sabio francés Lavoisier (17431704), que se le considera fundador de la química, junto con los elementos reales, figuran elementos sin peso: el fluido calórico y la substancia luminosa. En la primera mitad del siglo XVIII se conocían 15 elementos y a fin de siglo se número aumentó hasta 35. Claro que, entre ellos, sólo había 23 reales, los demás eran elementos que no existían o que resultaron ser compuestos, como la sosa y la potasa cáusticas. Para la mitad del siglo XIX, en los tratados de química ya se describían más de 50 substancias que no se descomponían. La ley periódica del célebre químico ruso Mendeléev abrió nuevos horizontes para la investigación consciente de los elementos no descubiertos. Aquí es prematuro hablar de esta ley. Digamos solamente que Mendeléev, con su ley, determinó el modo de buscar tos elementos todavía desconocidos. A comienzos del siglo XX ya habían sido descubiertos casi todos los elementos que se encuentran en la naturaleza. Átomos y moléculas Cerca de 2000 años atrás, en la Roma de la antigüedad, se escribió un poema original. Su autor era el poeta romano Lucrecio Car. El poema se llamaba «Sobre la naturaleza de las cosas».

Gentileza de Manuel Mayo

6

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En su obra poética, Lucrecio explicaba con versos muy sonoros las ideas sobre el mundo del filósofo griego de la antigüedad, Demócrito. ¿Qué ideas eran éstas? Era la doctrina sobre las partículas pequeñitas, invisibles, de las que se componía el mundo. Observando diversos fenómenos, Demócrito procuraba dar su explicación. He aquí, por ejemplo, el agua. Al calentarla mucho, ésta se convierte en un vapor invisible y se disipa. ¿Cómo se puede explicar esto? Claro que esta propiedad del agua está ligada con su constitución interna. O bien, por ejemplo, ¿por qué percibimos a distancia los aromas de las flores? Pensando sobre preguntas semejantes, Demócrito llegó a convencerse de que a nosotros sólo nos parece que los cuerpos son continuos, pero que en realidad, éstos se componen de partículas pequeñísimas. Las partículas de diversos cuerpos tienen distinta forma, pero éstas son tan pequeñas, que es imposible verlas. Por eso es por lo que cualquier cuerpo nos parece continuo. A estas diminutas partículas, que son ya indivisibles, de las cuales se compone el agua y todos los demás cuerpos, Demócrito las llamó «átomos». Las ideas admirables de los sabios griegos de la antigüedad, nacidas 24 siglos atrás, fueron más tarde olvidadas durante mucho tiempo. Más de mil años reinó, sin rivalidad en el mundo de la sabiduría, la falsa doctrina de Aristóteles. Afirmando que todas las substancias podían mutuamente convertirse en otras, Aristóteles negaba categóricamente la existencia de los átomos. Cualquier cuerpo se puede dividir indefinidamente, enseñaba Aristóteles. En el año 1647, el sabio francés Pierre Gassendi publicó un libro en el que resueltamente negaba la doctrina de Aristóteles y afirmaba que todas las substancias del mundo se componían de partículas indivisibles, de átomos. Los átomos se diferenciaban entre sí por se forma, magnitud y peso. Apoyando la doctrina de los atomistas antiguos, Gassendi la desarrolló más. Explicaba cómo podían aparecer y cómo se creaban en el mundo millones de cuerpos de la naturaleza. Para esto, decía él, no es necesaria una gran cantidad de átomos diversos. El átomo es lo mismo que el material de construcción de las casas. Con tres especies diversas de materiales, con ladrillos, tablas y vigas, se puede construir un gran número de casas diferentes. Del mismo modo, la naturaleza, con

Gentileza de Manuel Mayo

7

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

unas cuantas decenas de átomos diferentes podía crear miles de cuerpos de diversas especies. Además, en cada cuerpo, los átomos se unen en pequeños grupos; a estos grupos, Gassendi los llamaba «moléculas», o sea, «masas pequeñas» (de la palabra latina «moles», que quiere decir masa). Las moléculas de diversos cuerpos se distinguen unas de otras por el número y la especie («la calidad») de los átomos que la integran. Es fácil comprender que con unas cuantas decenas de átomos distintos se forman una gran cantidad de diversas combinaciones, dando, como resultado, las moléculas. Es por esto, por lo que es tan grande la variedad de cuerpos que nos rodean. En muchas cosas, el punto de vista de Gassendi era erróneo. Así, éste suponía que existían átomos especiales para el calor, el frío, el gusto y el olor. Como todos los sabios de entonces, él no pudo librarse por completo de la influencia de Aristóteles y reconocía sus elementos irreales. En las obras del célebre enciclopedista M. Lomonósov —fundador de la ciencia en Rusia—, se encuentran las siguientes ideas, que mucho más tarde se comprobaron en los experimentos. Lomonósov escribía que la molécula podía ser homogénea y heterogénea. En el primer raso, en la molécula se agrupaban átomos homogéneos. En el segundo, la molécula se componía de átomos que eran distintos unos de otros. Si un cuerpo estaba formado por moléculas homogéneas, había que suponer que era simple. Por el contrario, si el cuerpo estaba formado por moléculas constituidas de diferentes átomos. Lomonósov lo llamaba mixto. Ahora ya sabemos bien que es, precisamente, ésta la composición de los diferentes cuerpos de la naturaleza. En efecto, tomemos, por ejemplo, el gas de oxígeno; cada molécula de éste contiene dos átomos iguales de oxígeno. Esta es una molécula de una substancia simple. Si los átomos que forman las moléculas son distintos, resulta una unión «mixta», una unión química compuesta. Las moléculas de ésta se componen de los átomos de aquellos elementos químicos que forman parte de esta composición. Se puede decir también de otro modo; toda substancia simple se compone de átomos de un mismo elemento químico; una substancia compuesta contiene átomos de dos y más elementos.

Gentileza de Manuel Mayo

8

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Una serie de sabios argumentaron lógicamente la existencia del átomo. Quien realmente introdujo en la ciencia el átomo y lo hizo objeto de investigación, fue el sabio inglés Dalton. Este demostró que existen leyes químicas que se pueden explicar naturalmente empleando sólo los conocimientos del átomo. Después de Dalton, los átomos se introdujeron resueltamente en la ciencia. Sin embargo, durante mucho tiempo hubo sabios que aún «no creían en los átomos», Ya a fines del siglo pasado uno de ellos escribía que, dentro de unas cuantas decenas de años, los átomos «se encontrarán solamente en el polvo de las bibliotecas». Ahora, semejantes razonamientos causan risa. Ya conocemos ahora tantos detalles sobre la «vida» de los átomos, que dudar en su existencia es lo mismo que poner en duda la realidad del mar Negro. Los pesos relativos de los átomos fueron determinados por los químicos. En primer lugar, por unidad de peso atómico se tomó el peso del átomo de hidrógeno. Resultó que, aproximadamente, el peso atómico del nitrógeno era igual a 14, el del oxígeno, a 16, y el del cloro, a 35,5. Como las composiciones de oxígeno son las más difundidas, ulteriormente se hizo otra elección diferente de la unidad relativa del peso atómico, según la cual, al oxígeno se le atribuía el peso de 16,000. El peso atómico del hidrógeno resultó ser, en este escala, de 1,008. Actualmente se ha decidido tomar por base no el oxígeno y no el hidrógeno, sino el isótopo de carbono

12

C. Después de medir la masa de este átomo empleando el

método cuya descripción breve se inserta en el Libro I, cuando hacemos la exposición del sistema SI, dividimos esta masa por doce. El número obtenido se denomina unidad atómica de masa. Hoy en día el número que goza de mayor confianza es el siguiente: mA = (1,66043 ± 0,00031) x 10-24 g Ahora podemos recurrir a la imaginación del lector dándole la posibilidad de percibir la pequeñez de este guarismo. Figúrese que usted exigirá que cada hombre en el globo terráqueo le entregue mil millones de moléculas. ¿Qué cantidad de sustancia se acumulara de esta forma? Varias millonésimas partes de gramo.

Gentileza de Manuel Mayo

9

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

O bien, otra comparación: el globo terrestre es tantas veces más pesado que una manzana, ¿cuántas veces una manzana es más pesada que el átomo de hidrógeno? La magnitud recíproca de mA se llama número de Avogadro: NA = 1 /mA = 6,0220943 x 1023 Este número grandísimo tiene el significado siguiente. Tomemos una cantidad de substancia de modo que el número de gramos sea igual al peso relativo M del átomo o de la molécula. Los químicos llaman a esta cantidad, 1. átomo-gramo o 1 molécula-gramo (frecuentemente, para abreviar, en vez, de «molécula-gramo», se dice «mol»). A pesar de que mA en el sistema SI se refiere al átomo de carbono

12

C

prácticamente, los NA de cualesquiera de los átomos o moléculas tienen una masa igual a la masa relativa del átomo o de la molécula expresada en gramos. Con la introducción del «mol» en calidad de unidad independiente, el número de Avogadro dejó de ser un número abstracto, En las unidades SI tiene la dimensión de mol-1. ¿Qué es el calor? ¿En qué se diferencia un cuerpo caliente de uno frío? Hasta comienzos del siglo XIX, a esta pregunta contestaban así: el cuerpo caliente contiene más fluido calórico que el frío. Del mismo modo que la sopa está más salada si contiene más sal. Y ¿qué, es el fluido calórico? La respuesta era la siguiente: «El fluido calórico es la materia del calor, es el fuego elemental». Misterioso e incomprensible. Además de la teoría del fluido calórico, hacía mucho que existía otra opinión sobre la naturaleza de la substancia. Ésta la defendían brillantemente muchos sabios célebres de los siglos XVI y XVIII. Francisco Bacon, en su libro «Novun organum», escribía: «El mismo calor es, en su esencia, movimiento. El calor consiste en el movimiento variable de las partes ínfimas del cuerpo». Roberto Hooke, en su libro «Micrografía», afirmaba que: «El calor es el movimiento continuo de las partes del cuerpo. No existe un cuerpo, cuyas partículas estén en reposo». Manifestaciones muy claras de este tipo hallamos en el trabajo de

Gentileza de Manuel Mayo

10

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Lomonósov (año 1745). «Reflexiones sobre la causa de calor y del frío». En esta obra se niega la existencia del calórico y se dice que «el calor consiste en el movimiento interior de las partículas de la materia». Al fin del siglo XVIII, Rumford decía de una manera muy clara: «El cuerpo es tanto más caliente, cuanto más intensamente se mueven las partículas de que se compone, del mismo modo que la campana suena más fuerte, cuanto más fuertes sean las oscilaciones». Estas admirables conjeturas, que eran muy avanzadas para aquel tiempo, sirvieron de base para nuestras ideas modernas sobre la naturaleza del calor. A veces, suele haber días silenciosos, tranquilos, claros. Las hojas están quietas en los árboles, ni siquiera una ligera ondulación altera la superficie del agua. Todo alrededor se mantiene en una inmovilidad rigurosa y solemne. El mundo visible está en reposo. Pero, ¿qué es lo que ocurre en el mundo de los átomos y moléculas? La física de nuestros días puede decir mucho sobre esto. Cualesquiera que sean las condiciones,

nunca

se

termina

el

movimiento

invisible

de

las

partículas

constituyentes del mundo. ¿Por qué no vemos todos estos movimientos? Las partículas se mueven y el cuerpo está en reposo, ¿cómo puede ser esto? ¿Han tenido la ocasión de observar un enjambre de mosquitos cuando no hay viento?, el enjambre parece que está suspendido en el aire. Pero dentro de él hay una vida intensa. Cientos de insectos tiran hacia la derecha, pero en ese mismo momento, otros tantos se lanzan hacia la izquierda. Todo el enjambre se mantiene en el mismo sitio y no cambia de forma. Los movimientos invisibles de los átomos y moléculas son de igual carácter caótico y desordenado. Si algunas moléculas se escapan del volumen, otras ocupan el lugar de ellas y como los nuevos huéspedes no se diferencian en nada de los que se marcharon, el cuerpo queda como estaba. El movimiento caótico, desordenado, de las partículas, no altera las propiedades visibles del mundo. El lector puede preguntar si no es en vario esta conversación. ¿Por qué estos razonamientos, aparte de que sean más brillantes, son más explicativos que la teoría del calórico? ¿Es que alguien ha visto el movimiento térmico eterno de las partículas de la substancia?

Gentileza de Manuel Mayo

11

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El movimiento térmico de las partículas se puede ver, además, con el microscopio más simple. El primero que observó este fenómeno, más de cien años atrás, fue el botánico inglés, Robert Brown (1773 – 1857). Examinando por el microscopio la constitución interna de las plantas, observó que las partículas diminutas de la substancia que flotaban en el jugo de la planta, estaban en movimiento continuo. El botánico se interesó en saber qué fuerzas obligaban a las partículas a moverse. ¿Puede que sean seres vivientes? El sabio decidió observar por el microscopio partículas pequeñas de arcilla dispersas en agua Pero incluso éstas, que sin duda alguna no sen seres vivos, no estaban en reposo, estaban animadas de un movimiento continuo de zigzag. Cuanto menores eran las partículas, tanto más rápidamente se movían. Largo tiempo estuvo el botánico examinando esta gota de agua, pero no llegó a ver el fin del movimiento de las partículas. Como si algunas fuerzas invisibles las empujasen constantemente. El movimiento browniano de las partículas es el movimiento térmico. Esto es inherente a todas las partículas, grandes y pequeñas, concentraciones de moléculas, moléculas y átomos. La energía se conserva siempre Así pues, el mundo se compone de átomos en movimiento. Los átomos poseen masa, el átomo en movimiento posee energía cinética. Claro que la masa del átomo es pequeñísima y, por consiguiente, su energía es diminuta, pero hay que tener presente que son millones y millones de átomos. Recordemos ahora al lector que, aunque hablábamos de la ley de conservación de la energía, ésta no era una ley de conservación suficientemente universal. El impulso y el momento se conservaban en el experimento, pero la energía se conservaba sólo en el caso ideal, cuando no había rozamiento. En realidad, la energía siempre disminuía. Pero antes no decíamos nada de la energía de los átomos. Surge la idea natural: allí donde a primera vista observábamos disminución de la energía, en realidad se transmitía la energía a los átomos del cuerpo de un modo imperceptible. Los átomos se someten a las leyes de la mecánica. Claro que la mecánica es un poco original; sin embargo, esto no cambia el asunto; con respecto a la ley de

Gentileza de Manuel Mayo

12

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

conservación de la energía, los átomos no se diferencian en nada de los cuerpos grandes. Por lo tanto, la conservación de la energía total se observa solamente cuando, además de la energía mecánica del cuerpo, se tiene en cuenta también su energía interior y la del medio que le rodea. Solamente en este caso la ley es universal. ¿De qué se compone la energía total del cuerpo? En realidad, la primera componente ya la hemos nombrado: ésta es la suma de las energías cinéticas de todos los átomos. Pero no hay que olvidarse de que los átomos actúan mutuamente unos sobre otros. De este modo se agrega también la energía potencial de esta interacción. Así, pues, la energía total del cuerpo es igual a la suma de las energías cinéticas de sus partículas y de la energía potenciad de su interacción. Es fácil comprender que la energía mecánica del cuerpo, como un todo, es solamente una parte de la energía total. Pues, cuando el cuerpo está en reposo, sus moléculas no se detienen y no terminan de actuar mutuamente una sobre otra. La energía del movimiento térmico de las partículas que queda en el cuerpo en reposo y la energía de la interacción de las partículas, forman la energía interior del cuerpo. Por eso, la energía total del cuerpo es igual a la suma de las energías mecánica e interior. En la energía mecánica del cuerpo, como un todo, entra también la energía gravitacional, es decir, la energía potencial de la interacción de las partículas del cuerpo con el globo terrestre. Investigando la energía interna, ya no observamos pérdida de energía. Si examinamos la naturaleza con una lente de un aumento de millones de veces, el cuadro que se nos presenta es exclusivamente armónico. No hay ninguna pérdida de energía mecánica, y lo único que hay es su transformación en energía interior del cuerpo o del medio. ¿Se ha perdido trabajo? ¡No! La energía se ha invertido en acelerar el movimiento relativo de las moléculas o en la alteración de su posición relativa. Las moléculas se someten a la ley de conservación de la energía mecánica. En el mundo de las moléculas no hay fuerzas de rozamiento; en él rigen las transformaciones de la energía potencial en cinética, y viceversa. Solamente «se

Gentileza de Manuel Mayo

13

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

pierde energía» en el grosero mundo de las cosas grandes, donde las moléculas no se perciben. Si en algún fenómeno se pierde, total o parcialmente, la energía mecánica, en la misma magnitud aumenta la energía interna de los cuerpos y del medio que participan en el fenómeno. En otras palabras, la energía mecánica se transforma sin ninguna pérdida, en energía de las moléculas o de los átomos. La ley de conservación de la energía es el riguroso tenedor de libros de la física. En cualquier fenómeno tienen que ser equivalentes los ingresos y los gastos. Si en algún experimento no ha ocurrido esto, es porque de algo importante nos hemos olvidado, En este caso, la ley de conservación de la energía nos avisa; ¡experimentador, repite el experimento, aumenta la exactitud de las mediciones, busca la causa de la pérdida! De este modo, los físicos hacían a menudo nuevos descubrimientos importantes y una y otra vez se convencían de la justeza rigurosa de esta admirable ley. Caloría Ya tenemos dos unidades de energía, el joule o julio y el kilográmetro Al parecer es suficiente. Sin embargo, al estudiar los fenómenos del calor, usamos por costumbre otra tercera unidad, la caloría. Más tarde veremos que con la caloría no acaba tampoco la lista de las unidades de energía adoptadas. Posiblemente, en cada caso, el uso de «su» unidad de energía, resulta cómodo y tiene se justificación. Pero, en cualquier ejemplo más e menos complicado, ligado con el paso de una forma de energía a otra, se crea una confusión inconcebible con las unidades. Para simplificar los cálculos, el nuevo sistema de unidades (SI), propone una misma unidad para el trabajo, energía y cantidad de calor, denominada julio. Sin embargo, debido a la costumbre y al tiempo necesario para que el sistema de uso general y el único sistema de unidades, es conveniente dar a conocer más detalladamente la unidad de la cantidad de calor de la que «pronto nos despediremos ya», la caloría. La caloría pequeña (cal), es la cantidad de energía que hay que comunicar a 1 g de agua para elevar su temperatura en 1°C.

Gentileza de Manuel Mayo

14

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Hay que tener en cuenta que aquí hablamos de la caloría «pequeña», a diferencia de la «grande», que es mil veces mayor (frecuentemente, la caloría grande se indica así: kcal, que significa «kilocaloría»). La relación entre la caloría y la unidad mecánica de trabajo, se halla calentando agua de un modo mecánico. Muchas veces se hicieron experimentos semejantes. Por ejemplo, se puede elevar la temperatura del agua agitándola enérgicamente. El trabajo mecánico que se gasta en calentar el agua, se aprecia con bastante exactitud. Con estas mediciones se halló que: 1 cal = 0,427 kgfm = 4,18 julios. Como las unidades de energía y de trabajo son las mismas, el trabajo se puede medir también en calorías. Para levantar una pesa de un kilogramo a la altura de un metro, hay que gastar 2,35 calorías. Esto parece muy raro y, en general, comparar el levantamiento de una carga con el calentamiento del agua es muy incómodo. Por esto, en la mecánica no se emplea la caloría. Un poco de historia La ley de conservación de la energía se pudo formular solamente, cuando estuvieron suficientemente claros los conocimientos sobre la naturaleza mecánica del calor, y cuando la técnica planteó un problema práctico importante sobre la equivalencia entre el calor y el trabajo. El primer experimento que se hizo para determinar la relación cualitativa entre al calor y el trabajo, fue realizado por el conocido físico Rumford (1753-1814). Él trabajaba en una fábrica donde se construían cañones. Cuando se taladra el tubo del cañón, se desprende calor. ¿Cómo apreciarlo? ¿Qué tomar por medida del calor? Rumford le surgió la idea de relacionar el trabajo realizado al taladrar con el calentamiento de tal o cual cantidad de agua, a tal o cual número de grados. Por cierto que en estas investigaciones, por primera vez quizás se expresó con claridad la idea de que el calor y el trabajo tienen que tener una medida común.

Gentileza de Manuel Mayo

15

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El siguiente paso hacia el descubrimiento de la ley de conservación de la energía fue el establecimiento de un hecho importante de que el consumo del trabajo va acompañado de la aparición de una cantidad proporcional de calor; con esto se halló la medida común del calor y del trabajo. La primera definición del llamado equivalente mecánico del calor, fue enunciada por el físico francés Sadi Carnot. Este célebre hombre murió en el año 1832, a la edad de 36 años, dejando un manuscrito que se publicó solamente 50 años después. El descubrimiento de Carnot fue ignorado y no influyó en el desarrollo de la ciencia. En esto trabajo, Carnot calculó, que para levantar 1 m3 de agua a la altura de 1 m, se necesita la misma energía que para calentar 1 kg de agua en 2,7°C (el valor verdadero es 2,3°C). En el año 1842 publica su primer trabajo el médico alemán Julio Roberto Mayer. Aunque Mayer denomina de otro modo los conceptos físicos conocidos, el estudio detenido de su trabajo nos lleva a la conclusión de que en él se exponen los rasgos fundamentales de la ley de conservación de la energía. Mayer distingue la energía interna («calorífica»), la energía potencial de gravitación y la energía del movimiento del cuerpo. Con razonamientos puramente especulativos intenta deducir

la

necesidad

de

la

conservación

de

la

energía

en

las

diversas

transformaciones. Para comprobar esta afirmación en un experimento, hay que tener una medida común para la valoración de estas energías. Mayer calcula que elevar en un grado la temperatura de un kilogramo de agua es equivalente a levantar un kilogramo a 365 m. En su segundo trabajo, publicado tres años más tarde, Mayer señala la universalidad de la ley de conservación de la energía, la posibilidad de su aplicación a la química, a la biología y a los fenómenos cósmicos. A las diferentes formas de energía, Mayer agrega la magnética, la eléctrica y la química. En el descubrimiento de la ley de conservación de la energía, grandes méritos tuvo el admirable físico inglés (fabricante de cerveza de Salford en Inglaterra) Jaime Prescott Joule, que trabajaba independientemente de Meyer. Si Meyer era propenso a la filosofía indeterminada, el rasgo fundamental de Joule era que empleaba un método riguroso de experimentación para el estudio de los fenómenos. Joule

Gentileza de Manuel Mayo

16

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

planteaba ante la naturaleza un problema y recibía la respuesta de ella, después de realizar con extraordinario escrúpulo una serie de experimentos especiales.

Hermann Helmholtz (1821-1891), célebre sabio alemán. Helmholtz trabajó con gran éxito en las ramas de la física, matemáticas y fisiología. Dio por primera vez (año 1847) el enunciado matemático de la ley de la conservación de la energía, subrayando el carácter general de esta ley. Obtuvo grandiosos resultados en la termodinámica; aplicó por primera vez esta ciencia al estudio de los procesos químicos Con sus trabajos sobre el movimiento turbulento de los fluidos. Helmholtz estableció los fundamentos de la hidrodinámica aerodinámica. Efectuó una serie de valiosas investigaciones dedicadas a la acústica y al electromagnetismo. Creó la teoría física de la música. En sus investigaciones físicas aplicó exitosos y originales métodos matemáticos. No hay duda de que en todos has experimentos llevados a cabo por Joule, éste perseguía un fin, hallar una medida común para apreciar las acciones térmicas, químicas, eléctricas y mecánicas: mostrar que en todos estos fenómenos se conserva la energía. Joule enunció su idea así. «En la naturaleza no desaparece ninguna fuerza que realice trabajo sin que surja la acción correspondiente». Gentileza de Manuel Mayo

17

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El 24 de enero de 1843, Joule hizo una intervención sobre su primer trabajo y el 21 de agosto del mismo año informó sobre sus resultados respecto al establecimiento de una medida común del calor y del trabajo. La elevación en un grado de la temperatura de un kilogramo de agua resultó ser equivalente al levantamiento de un kilogramo a la altura de 460 m. En los años posteriores. Joule y otros investigadores realizaron un trabajo inmenso para hallar con mayor exactitud el valor del equivalente del calor y procuraron también demostrar la universalidad absoluta de él. A fines de los años cuarenta quedó claro que, sea como sea el paso del trabajo al calor, la cantidad creada de éste siempre será proporcional a la cantidad realizada de trabajo. A pesar de que Joule fundamentó experimentalmente la ley de conservación de la energía, en sus trabajos no formuló con claridad esta ley. El mérito de esto le correspondió al físico alemán Helmholtz. El 23 de julio del año 1847, Hermann Helmholtz intervino en la sesión de la sociedad física de Berlín sobre el principio de la conservación de la energía. En este trabajo, por primera vez se expuso con claridad el fundamento mecánico de la ley de conservación de la energía, El mundo se compone de átomos, éstos poseen energía potencial y cinética. La suma de las energías potencial y cinética de las partículas que componen el cuerpo o el sistema, no se puede alterar, a no ser que este cuerpo o este sistema estén sometidos a acciones exteriores. La ley de conservación de la energía fue formulada por primera vez por Helmholtz del modo que la expusimos en las páginas anteriores. Después de los trabajos de Helmholtz, a los físicos no les quedó más que comprobar y aplicar el principio de conservación de la energía. El éxito de todas estas investigaciones dio lugar a que a finales de los años cincuenta, fuese ya reconocida generalmente la ley de conservación de la energía como una ley fundamental de las ciencias naturales, Luego, en el siglo XX, observaron fenómenos que ponían en duda la ley de conservación de la energía. Sin embargo, a continuación, las divergencias advertidas tuvieron su explicación. Hasta hoy día, la ley de conservación de la energía ha pasado con honor por todas las pruebas.

Gentileza de Manuel Mayo

18

Preparado por Patricio Barros

Física para Todos II– Moléculas

Gentileza de Manuel Mayo

www.librosmaravillosos.com

19

L. D. Landau y A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 2 Estructura de la materia Contenido: •

Enlaces intramoleculares



Molécula física y molécula química



Interacción de las moléculas



El aspecto que tiene el movimiento térmico



Compresibilidad de los cuerpos



Fuerzas superficiales



Cristales y su forma



Estructura de los cristales



Sustancias policristalinas

Enlaces intramoleculares Las moléculas se componen de átomos. Los átomos están ligados con las moléculas por fuerzas llamadas químicas. Existen moléculas que se componen de dos, tres, cuatro átomos. Las moléculas más grandes, las de las proteínas, se componen de decenas y hasta de centenares de miles de átomos. El reino de las moléculas es muy variado. Actualmente, los químicos ya han extraído de las substancias naturales y creado, en los laboratorios, millones de substancias constituidas de diversas moléculas. Las propiedades de las moléculas se determinan no sólo por la cantidad de tales o cuales átomos que participan en su constitución, sino también por el orden y por la configuración de su unión. La molécula no es un conglomerado desordenado de ladrillos, más bien representa una construcción de arquitectura complicada, en donde cada ladrillo tiene su sitio y unos vecinos completamente determinados. La construcción atómica de la molécula puede ser rígida en mayor o menor grado. En todo caso, cada uno de los átomos efectúa oscilaciones alrededor de la posición de equilibrio. En algunos casos, unas partes de la molécula pueden girar con respecto a

Gentileza de Manuel Mayo

20

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

las otras, dando a la molécula libre, en el proceso de su movimiento térmico, las más diversas y extravagantes configuraciones.

Fig. 2.1 Veamos más detalladamente la interacción de los átomos. En la fig. 2.1 está representada la curva de la energía potencial de una molécula que consta de dos átomos. Esta curva tiene una forma característica, primeramente, desciende, después, asciende un poco, formando un «hoyo», y por fin, se aproxima lentamente al eje horizontal, el cual representa la distancia que hay entre los átomos. Ya sabemos que la situación es estable cuando la energía potencial alcanza el valor mínimo. Cuando el átomo forma parte de la molécula, se «encuentra» en el hoyo potencial, realizando algunas oscilaciones térmicas alrededor de la posición de equilibrio. La distancia desde el fondo del «hoyo» hasta el eje vertical se puede llamar distancia de equilibrio. A esta distancia se situarían los átomos si cesase el movimiento térmico. La curva de la energía potencial nos relata todos los detalles de la interacción de los átomos. Analizando la curva de la energía potencial se puede determinar si se

Gentileza de Manuel Mayo

21

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

atraen o se repelen las partículas a tal o cual distancia, si crece o disminuye la fuerza de interacción al separarse o al acercarse las partículas. Los puntos situados a la izquierda del «hoyo» corresponden a la repulsión. Por el contrario, el trozo de la curva a la derecha del fondo del hoyo caracteriza la atracción. La curvatura de la curva también nos proporciona informaciones importantes: cuanto mayor sea la flexión de la curva, tanto mayor será la fuerza de interacción. Estando situados a grandes distancias, los átomos se atraen entre sí, esta fuerza disminuye con bastante rapidez al aumentar la distancia entre ellos. Al acercarse, la fuerza de atracción aumenta, alcanzando el valor máximo cuando los átomos están bastaste próximos unos de otros. Al acercarse todavía más, la atracción se hace más débil y, por fin, a la distancia de equilibrio, esta se anula. Al acercarse los átomos a una distancia menor que la de equilibrio las fuerzas de repulsión, que se desarrollan bruscamente y que en seguida se hacen prácticamente imposible la disminución ulterior de la distancia entre ellos. Las distancias de equilibrio (en adelante diremos abreviadamente, distancias) entre los átomos son diferentes para diversas especies de átomos: Para diversos pares de átomos, no sólo son diferentes las distancias desde el fondo del hoyo hasta el eje vertical, sino también la profundidad del hoyo. Esta profundidad tiene un significado simple: para salir del hoyo se necesita una energía que tiene que ser precisamente, igual a la profundidad. Por esto, la profundidad del hoyo se puede llamar energía de ligadura o enlace de las partículas. Las distancias entre los átomos de las moléculas son tan pequeñas, que para medirlas hay que elegir unidades especiales; en caso contrario habría que expresar sus valores, por ejemplo, de esta forma: 0,000000012 cm. Esta es la distancia de los átomos en la molécula de oxígeno. Una unidad muy cómoda para estudiar el mundo atómico es el Ångström (en realidad, el apellido del sabio sueco, cuyo nombre lleva esta unidad, se lee Ångström; para recordar esto, sobre la letra A se pone una pequeña «o»): 1 Å = 10-8 cm O sea, es una cien millonésima parte de un centímetro,

Gentileza de Manuel Mayo

22

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La distancia entre los átomos de las moléculas se encuentra entre 1 y 4 Å. La distancia de equilibrio, citada anteriormente para el oxígeno, es igual a 1,2 Å. Como vemos las distancias entre los átomos son muy pequeñas. Ciñendo el globo terrestre por el ecuador con una cuerda, la longitud del «cinturón» sería varias veces mayor que la anchura de la palma de la mano, cuantas veces la palma de la mano es mayor que la distancia entre los átomos de las moléculas. Para medir la energía de enlace, se emplea, por lo general, la caloría, pero no relacionándola a una molécula, ya que, naturalmente, resultaría un número insignificante, sino a la molécula-gramo (mol), o sea, el número de gramos igual al peso molecular relativo (NA). Es claro que la energía de enlace de una molécula-gramo dividida por el número de Avogadro (6,023 x 1023), representa la energía de enlace de una molécula. La energía de enlace de los átomos en la molécula, así como las distancias entre los átomos, oscila entre límites insignificantes.

Figura 2.2

Gentileza de Manuel Mayo

23

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Para el mismo oxígeno, la energía de de enlace es igual a 116.000 calorías por cada gramo – molécula; para el hidrógeno, a 103.000 cal/mol, etc. Ya dijimos anteriormente que los átomos se sitúan en las moléculas, unos respecto a los otros, de un modo completamente determinado, formando a veces construcciones muy intrincadas.

Figura 2.3 Veamos unos cuantos ejemplos simples. En la molécula del CO2, (gas carbónico), los tres átomos están situados en fila, con el átomo del carbono en el medio. La molécula del agua H2O tiene una forma angular: en el vértice del ángulo (que es igual a 105°) está el átomo de oxígeno. En la molécula del amoníaco NH3, el átomo del nitrógeno está situado en el vértice de una pirámide triangular; en la molécula del metano CH4 el átomo del carbono está situado en el centro de una figura de cuatro caras con aristas iguales, llamada tetraedro.

Gentileza de Manuel Mayo

24

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Los átomos de carbono en el benceno C6H6 forman un hexágono regular. Las uniones de los átomos de carbono con el hidrógeno van desde los vértices del hexágono. Todos los átomos están situados en un plano. En las figuras 2.2 y 2.3 están representadas esquemáticamente las posiciones de los centros de los átomos de estas moléculas. Las líneas simbolizan los enlaces. Supongamos que se ha realizado una reacción química: había moléculas de una especie y se formaron otras. Unas uniones se destruyeron, otras se formaron de nuevo. Para romper el enlace entre los átomos (recordemos el dibujo), hay que realizar tanto trabajo, como para hacer salir rodando la bola del hoyo. Por el contrario, al formarse nuevos enlaces se libra energía, la bola rueda al hoyo. ¿Qué trabaje es mayor, el de destrucción o el de creación? En la naturaleza nos encontramos cutí reacciones de ambos tipos. El exceso de energía se llama efecto térmico o, de otra manera, transformación térmica

(reacción).

Los

efectos

térmicos

de

los

reacciones

suelen

ser,

frecuentemente, magnitudes de un orden de decenas de miles de calorías por cada mol. A menudo, se incluye el efecto térmico en la fórmula de la reacción como uno de los sumandos. Por ejemplo, la reacción de combustión de carbono (en forma de grafito), o sea, su unión con el oxígeno, se escribe así: C + O2 = CO2 + 94.250 cal Esto significa que al unir C con O se libra una energía de 94.250 calorías. La suma de las energías internas del átomo-gramo del carbono en el grafito y de la molécula gramo del oxígeno, es igual a lo energía interna de la molécula-gramo del gas carbónico más 94.250 calorías. De este modo, semejantes expresiones tienen un claro significado de igualdades algebraicas, escritas para los valores de las energías internas. Con estas ecuaciones se pueden hallar los efectos térmicos de las transformaciones para las que no valen, por tal o cual causa, los métodos directos de medición. Véase el ejemplo: si el carbono (grafito) se uniese con el hidrógeno, se formaría el gas acetileno:

Gentileza de Manuel Mayo

25

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

2C + H2 = C2H2 La reacción no se efectúa de este modo. Sin embargo, se puede hallar su efecto térmico. Escribamos tres reacciones conocidas, oxidación del carbono: 2C +2O2 = 2CO2 + 188.000 calorías oxidación del hidrógeno: 2O2 + ½ O2 = H2O +68.000 calorías oxidación del acetileno: C2H2 + 5/2 O2 = 2CO2 + H2O + 312.000 calorías. Todas estas igualdades se pueden considerar como las ecuaciones de las energías de enlace de las moléculas. En vista de esto, se puede operar con ellas como con las ecuaciones algebraicas. Restando las dos superiores de la inferior obtenemos: 2C + H2 = C2H2 + 56.000 calorías Por consiguiente, la transformación que nos interesa va acompañada de una absorción de 50 000 calorías por cada mol. Molécula física y molécula química Antes de que los investigadores formaran una idea clara acerca de la estructura de la materia, no se hacía semejante diferencia. Una molécula es una molécula, es decir, el representante mínimo de la sustancia. Al parecer, estas palabras lo dicen todo. Sin embargo, el asunto es distinto. Las moléculas acerca de los cuales acabamos de hablar lo son en ambos sentidos de la palabra. Las moléculas del dióxido de carbono, amoníaco y benceno a las cuales hicimos referencia, y las moléculas prácticamente de todas las sustancias orgánicas (las cuales no mencionamos) constan de átomos enlazados fuertemente entre sí. En los procesos de disolución, fusión y evaporación estos enlaces no se rompen. La

Gentileza de Manuel Mayo

26

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

molécula sigue comportándose como una partícula aislada, como un pequeño cuerpo físico a cualesquiera acciones físicas y cambios de estado. Pero los asuntos están lejos de tomar siempre este cariz. Para la mayoría de las sustancias inorgánicas sólo se puede hablar sobre la molécula en el sentido químico de esta palabra. En cambio, no existe partícula mínima de las sustancias inorgánicas tan ampliamente conocidas como la sal común, o la calcita, o la sosa. Tampoco encontramos partículas aisladas en los cristales (hablaremos sobre el particular un poco más tarde); durante la disolución las moléculas se disocian en sus partes. El azúcar es una sustancia orgánica. Por esta causa en el agua del té dulce «nadan» moléculas de azúcar. En cambio, en agua salada no hallaremos molécula alguna de sal común (o sea, de cloruro de sodio). Estas «moléculas» (tenemos que poner esta palabra entre comillas) existen en agua en forma de átomos (o, más precisamente, en forma de iones, o sea, de átomos eléctricamente cargados, de los cuales hablaremos más tarde). Análogamente, tanto en los vapores, como en las masas fundidas las partes de las moléculas llevan una vida independiente. Cuando se trata de las fuerzas que enlazan los átomos en una molécula física, dichas fuerzas se denominan de valencia. Las fuerzas intermoleculares no son de valencia. No obstante el tipo de la curva de interacción representado en la fig. 2.1 es idéntico en ambos casos. La diferencia atañe tan sólo la profundidad del pozo. En el caso de las fuerzas de valencia el pozo es centenares de veces más profundo. Interacción de las moléculas Las moléculas se atraen mutuamente. Nadie lo duda ya. Si en un instante las moléculas pararan de atraerse unas a otras, todos los cuerpos líquidos y sólidos se desharían en moléculas. Las moléculas se repelen mutuamente, puesto que en caso contrario los cuerpos líquidos y sólidos se comprimirían con una facilidad extraordinaria. Entre las moléculas actúan unas fuerzas que son, en gran parte, parecidas a las fuerzas entre los átomos, de las que se hablaba anteriormente. La curva de la energía

potencial

Gentileza de Manuel Mayo

que

acabamos

de

dibujar

27

para

los

átomos,

proporciona

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

justamente los rasgos fundamentales de la interacción de las moléculas. Sin embargo, entre estas dos interacciones hay diferencias esenciales. Comparemos, por ejemplo, la distancia de equilibrio entre los átomos de oxígeno que forman la molécula y los átomos de oxigeno de dos moléculas vecinas que se han atraído en el oxigeno sólido hasta la posición de equilibrio. La diferencia es muy notable: los átomos de oxígeno que forman la molécula se colocan a la distancia de 1,2 Å; los átomos de oxígeno de diversas moléculas se acercan unos a otros a la distancia de 2,9 Å. Para otros átomos se obtienen también resultados semejantes. Los átomos de moléculas diferentes se colocan más lejos unos de otros que lo átomos de una misma molécula. Por eso, es más fácil separar una molécula de otra que los átomos de una molécula, existiendo, además, mucha mayor diferencia en las energías que en las distancias. Si la energía necesaria para la destrucción del enlace entre los átomos de oxígeno que forman la molécula es de 100 kcal/mol, la energía para la separación de las moléculas de oxígeno os menor de 2 kcal/mol. Esto significa que el «hoyo» de la molécula, en la curva de la energía potencial, está situado más lejos del eje vertical y, además, es mucho más profundo. No obstante, la diferencia entre la interacción de los átomos que forman la molécula y la interacción de las moléculas, no estriba sólo en esto. Los químicos han demostrado que los átomos están enlazados en la molécula con un número determinado de otros átomos. Si dos átomos de hidrógeno han formado una molécula, el tercer átomo no se unirá a ellos con esto fin. El átomo de oxígeno está unido en el agua con dos átomos de hidrógeno y unir a ellos otro es imposible. En la interacción próxima, la molécula no pierde en grado alguno su «fuerza atractiva». La afluencia de moléculas vecinas continuará mientras haya sitio. ¿Qué significa «que haya sitio»? ¿Es que las moléculas son algo como las manzanas o los huevos? Claro que, en cierto sentido, esta comparación está justificada: las moléculas son cuerpos físicos que tienen «dimensiones» y «formas» determinadas. La distancia de equilibrio entre las moléculas no es otra cosa más que la «dimensión» de la molécula. El aspecto que tiene et movimiento térmico

Gentileza de Manuel Mayo

28

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La interacción entre las moléculas puede tener mayor o menor importancia en «la vida» de las moléculas. Los tres estados de la substancia: el gaseoso, el líquido y el sólido, se diferencian uno de otro por el papel que juega en ellos la interacción de las moléculas. La palabra «gas» la inventaron los sabios. Procede de la palabra griega «caos», que quiere decir desorden. En efecto, el estado gaseoso de la substancia es un ejemplo de la existencia en la naturaleza de un desorden total en la posición relativa y en el movimiento de las partículas. No hay un microscopio que permita ver el movimiento de las moléculas de gas, pero, a pesar de esto, los físicos pueden describir con bastante detalle la vida de esto mundo invisible. En un centímetro cúbico de aire, en condiciones normales (con la temperatura y la presión atmosférica de la habitación), hay una inmensa cantidad de moléculas, aproximadamente 2,5 x 109 (o sea, 25 trillones de moléculas). A cada molécula corresponde un volumen de 4 x 10-20 cm3, o son, un cubo con una arista aproximadamente de 3,5 x 10-7 cm = 35 Å. Sin embargo, las moléculas son mucho más pequeñas. Por ejemplo, las moléculas de oxígeno y nitrógeno — que forman la parte principal del aire — tienen una dimensión media de cerca de 4 Å. Por lo tanto, la distancia media entra las moléculas es unas 10 veces mayor que las dimensiones de la molécula. Y esto, a su vez, significa, que el volumen medio del aire que corresponde a una molécula es, aproximadamente, 1000 veces mayor que el volumen de la misma molécula. Figúrense una plazoleta plana en la que desordenadamente se han echado monedas, de modo que a cada superficie de 1 m2 corresponden, por término medio, cien monedas. Esto significa que a cada página del libro que están leyendo corresponde una o dos monedas. Más o menos del mismo modo están situadas las moléculas de gas. Cada molécula de gas está afectada por un movimiento térmico continuo. Observemos una de las moléculas. Ahí va, impetuosamente, moviéndose hacia la derecha. Si no encontrase dificultades en el camino, la molécula continuarla su movimiento en línea recta con la misma velocidad. Pero su camino lo interceptan sus infinitos vecinos. Los choques son inevitables y las moléculas salen disparadas

Gentileza de Manuel Mayo

29

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

como dos bolas de billar que han chocado. ¿Hacia qué lado salta nuestra molécula? ¿Adquirirá o perderá velocidad? Todo puede ser, pues los encuentros pueden ser muy diversos. Son posibles los choques por delante y por detrás, por la derecha y por la izquierda, fuertes y suaves. Claro que, sometiéndose a tales choques en estos encuentros casuales, la molécula que observamos va agitada hacia todos lados dentro del recipiente en el que está contenido el gas. ¿Qué trayecto consiguen recorrer sin chocar las moléculas de gas? Esto depende de las dimensiones de las moléculas y de la densidad del gas. Cuanto mayor sean las dimensiones de las moléculas y cuanto más cantidad de ellas haya en el recipiente, tanto más frecuentemente chocan. La longitud media del espacio recorrido por una molécula sin chocar —llamada recorrido libre medio— es, en condiciones ordinarias, igual a 11 x 10-6 cm = 1100 Å, para las moléculas de hidrógeno, o igual a 5 x 10-6 cm = 500 Å, para las moléculas de oxígeno. El valor de 5 x 10-4 cm es una veintemilésima parte de milímetro: esta distancia es muy pequeña, pero comparándola con las dimensiones de las moléculas, ya no parece tan pequeña. El recorrido de 5 x 10-6 cm para la molécula de oxígeno corresponde a la distancia de 10 m para una bola de billar. Cabe prestar atención a las particularidades del movimiento de las moléculas en un gas fuertemente enrarecido (en el vacío). El movimiento de las moléculas que «forman el vacío» cambia su carácter cuando la longitud del recorrido libre de la molécula llega a ser mayor que las dimensiones del recipiente en que se encuentra el gas. En este caso las moléculas chocan entre sí raras veces, realizando su viaje en zigzagues rectos y chocando ora contra una, ora contra otra pared del recipiente. Como acabamos de señalar, en el aire a presión atmosférica, la longitud del recorrido constituye 5 x 10-6 cm. Si la aumentamos 107 veces, ésta será igual a 50 cm, es decir, será considerablemente mayor que su recipiente de tamaño medio. Por cuanto la longitud del recorrido es inversamente proporcional a la densidad y, por consiguiente, también a la presión, la presión en este caso debe constituir una 10-7 parte de la atmosférica, o bien, 10-4 mm Hg, aproximadamente. Ni siquiera el espacio interplanetario es completamente vacío. Pero la densidad de la materia en éste constituye cerca de 5 x 10-24 g/cm3. La parte principal de la materia interplanetaria es el hidrógeno atómico. En la actualidad se considera que en el

Gentileza de Manuel Mayo

30

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

espacio cósmico a 1 cm3 corresponden varios átomos de hidrógeno. Si aumentamos la molécula de hidrógeno hasta el tamaño de un guisante y ubicamos semejante «molécula» en Moscú, resultará que su «vecina cósmica» más próxima se encontrará en Tula. La estructura de los líquidos se diferencia esencialmente de la estructura del gas, cuyas moléculas están situadas lejos unas de otras y raramente chocan. En el líquido, las moléculas están en una proximidad inmediata. Las moléculas del líquido están situadas como las patatas en un saco. Por cierto, que con una diferencia: las moléculas del líquido están en continuo y caótico movimiento térmico. Como están tan apretadas, éstas no pueden moverse tan libremente como las moléculas de gas. Cada una de estas casi no se mueve del sitio, está todo el tiempo acorralada por unos mismos vecinos y solamente, poco a poco se desplaza por el volumen ocupado por el líquido. Cuanto mayor sea la viscosidad del líquido, tanto más lento será el desplazamiento. Pero, incluso en un líquido tan «movido» como el agua, la molécula se desplaza en 3 Å en el mismo tiempo que necesita la molécula de gas para recorrer 700 Å. En los cuerpos sólidos, las fuerzas de interacción de las moléculas se resisten resueltamente al movimiento térmico. Las substancias sólidas, prácticamente, las moléculas mantienen todo el tiempo una posición constante. El movimiento térmico solamente se expresa en unas oscilaciones continuas de las moléculas alrededor de la posición de equilibrio. La causa de la denominación de «sólido», consiste en la ausencia de desplazamientos sistemáticos de las moléculas. En efecto, si las moléculas no cambian de vecinos, con más razón se mantienen unas partículas con las otras del mismo cuerpo en un enlace invariable. Compresibilidad de les cuerpos Los moléculas de gas chocan contra las paredes del recipiente del mismo modo que las gotas de agua de la lluvia golpean contra el tejado. El número de estos golpes es grandísimo y su acción conjunta crea la presión que puede mover el émbolo de un motor, explotar un proyectil o inflar un globo. La presión atmosférica, la presión que hace saltar la tapa de una tetera hirviendo, la fuerza que expulsa la bala del fusil, todo esto no es más que una serie de choques moleculares.

Gentileza de Manuel Mayo

31

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Con qué está relacionada la presión del gas? Claro que la presión será tanto mayor, cuanto más fuerte sea el golpe asestado por cada molécula. También es evidente, que la presión depende del número de golpes asestados en un segundo. Cuantas más moléculas haya en el recipiente, tanta más frecuentes serán los golpes, tanto mayor será la presión. Por lo tanto, la presión p de un gas dado es, ante todo, proporcional a su densidad. Si la masa de gas no varía, entonces, disminuyendo el volumen aumenta la densidad en el número correspondiente de veces. Por consiguiente, la presión del gas en un recipiente cerrado es, de este modo, inversamente proporcional al volumen. O en otras palabras, el producto de la presión por el volumen tiene que ser constante: pV = const Esta simple ley fue descubierta por el físico inglés Boyle y por el sabio francés Mariotte. La ley de Boyle-Mariotte es una de las primeras leyes cuantitativas en la historia de la ciencia física. Naturalmente, esta ley se cumple solamente cuando la temperatura es constante. A medida que se comprime el gas, la ley de Boyle-Mariotte va dejando de cumplirse, Las moléculas se aproximan y la interacción entre ellas empieza a influir en el comportamiento del gas. La ley de Boyle—Mariotte es válida en los casos en que la intervención de las fuerzas de interacción en la vida de las moléculas del gas es completamente imperceptible. Por eso se dice que la ley de Boyle—Mariotte es la ley de los gases ideales. El adjetivo «ideal» suena un poco risible aplicado a la palabra «gas». Ideal quiere decir perfecto, o sea, que no puede haber mejor. Cuanto más simple es el modelo o el esquema tanto más ideal es para el físico. Simplificando los cálculos, se hacen más fáciles y claras las explicaciones de los fenómenos físicos, Les denominación de «gas ideal» se refiere al esquema simple del gas. El comportamiento de los gases suficientemente enrarecidos no se distingue, prácticamente del comportamiento de los gases ideales.

Gentileza de Manuel Mayo

32

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La compresibilidad de los líquidos es mucho menor que la de los gases. En los líquidos, las moléculas están ya en «contacto». La compresión consiste solamente en el mejoramiento de la «compacidad» de las moléculas y, a presiones muy grandes, en el aplastamiento de las mismas. Los

datos

que

damos

a

continuación

muestran

en

cuánto

dificultan

la

compresibilidad de los líquidos las fuerzas de repulsión. El aumento de la presión en una o dos atmósferas da lugar a la disminución del volumen del gas en dos veces, mientras que el volumen del agua se altera en 1/20.000, y el del mercurio solamente en 1/250.000. Incluso la enorme presión existente en las profundidades del océano es incapaz de comprimir sensiblemente el agua. En efecto, la presión de una atmósfera se forma con una columna de agua de diez metros de altura. La presión bajo una capa de agua de 10 km, es igual a 1000 atmósferas. El volumen de agua ha disminuido en 1.000/20.000, o sea, en 1/20 parte. La compresibilidad de los cuerpos sólidos se diferencia poco de la de los líquidos. Esto es comprensible, pues, en ambos casos, las moléculas ya están en contacto y la compresión puede alcanzarse solamente a causa de un acercamiento ulterior de las moléculas que se repelen con gran fuerza. Con presiones súper altas, de 50 a 100 mil atmósferas, se consigue comprimir el acero en 1/1000, y el plomo, en 117 parte de su volumen. Estos ejemplos muestran que, en las condiciones terrestres, no se puede comprimir considerablemente un cuerpo sólido. Pero en el Universo hay cuerpos donde la substancia está incomparablemente más comprimida. Los astrónomos han descubierto estrellas, llamadas estrellas enanas blancas («blancas» por el carácter de su iluminación y «enanas» por sus dimensiones relativamente pequeñas), en las que la densidad de la substancia alcanza hasta 106 g/cm3, por lo cual dentro de ellas tiene que haber una presión enorme. Fuerzas superficiales ¿Puede uno salir todo seco del agua? Claro que sí, para lograrlo es necesario untarse de alguna sustancia no humectante.

Gentileza de Manuel Mayo

33

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Frote un dedo con parafina y sumérjale en agua. Cuando lo haya sacado del agua resultará que en el dedo no habrá agua, excepto dos o tres gotitas. Un ligero movimiento y estas gotitas se sacuden. En este caso se dice: el agua no humedece la parafina. El mercurio se comporta de esta manera respecto a casi todos los cuerpos sólidos: este metal líquido no humedece piel, vidrio, madera... El agua es más caprichosa. Siente gran apego a unos cuerpos y procura no entrar en contacto con otros. El agua no humedece superficies grasas, pero humecta bien el cristal limpio. El agua humedece madera, papel, lana. Si una gotita de agua se echa sobre un vidrio limpio la misma se extiende formando un pequeño charco muy fino. Pero si una gotita análoga se derrama sobre parafina quedará como gotita de forma casi esférica, aplastada un poquito por la fuerza de la gravedad. A las sustancias que se «adhieren» casi a todos los cuerpos pertenece el queroseno. En su afán de cundir por el vidrio o por el metal el queroseno se muestra capaz de salir subrepticiamente a partir de un recipiente mal cerrado. Un charco de queroseno derramado puede para un largo plazo envenenar la vida: el queroseno se extenderá por una superficie grande, se colará a las rendijas y penetrará en la vestimenta. Esta es la razón de que es tan difícil librarse de su olor poco agradable. La no humectación de les cuerpos puede dar lugar a fenómenos curiosos. Tome una aguja, úntela con grasa y colóquela, con cuidado, horizontalmente en el agua. La aguja no se hundirá. Fijándose bien, se puedo advertir que la aguja cala en el agua permaneciendo tranquilamente en el lecho formado. Sin embargo, es suficiente una presión ligera para que la aguja se vaya a pique. Para ello es necesario que una parte considerable de ésta se encuentre en agua. De esta interesante propiedad se aprovechan los insectos que corren rápidamente por el agua sin mojar sus patitas. La humectación se utiliza en el enriquecimiento por flotación de las menas. La palabra «flotación» significa «sobrenatación». Y la esencia del fenómeno de flotación consiste en lo siguiente. La mena finamente triturada se carga en una cuba con agua, a ésta se añade una pequeña cantidad de aceite especial que debe poseer la propiedad de humedecer los granitos del mineral sin hacerlo con los granitos de

Gentileza de Manuel Mayo

34

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

la ganga (así se denomina la parte inútil de la mena). Durante la agitación los granitos del mineral se cubren de una película aceitosa. A la «papilla» negra formada por mena, agua y aceite se inyecta aire. Se forma una multitud de pequeñas burbujas de aire, o sea, espuma. Las burbujas emergen a la superficie. El proceso de flotación se basa en que los granitos cubiertos de aceite se adhieren a las burbujas de aire. Una burbuja grande arrastra el granito hacia arriba a guisa de un globo. El mineral queda con la espuma en la superficie y la ganga permanece en el fondo. La espuma se quita y se envía para su ulterior elaboración teniendo por objeto la obtención del llamado «encontrado* cuyo contenido de ganga es decenas de veces menor.

Fig. 2.4 Las fuerzas de cohesión superficial son capaces de alterar la nivelación del líquido en los vasos comunicantes. Es muy fácil comprobar el carácter certero de esta afirmación. Si un tubo muy fino (con un diámetro de fracciones de milímetro) hecho de vidrio se sumerge al agua, resulta que, con infracción de la ley de los vasos comunicantes, el agua en este tubo comienza a subir rápidamente, de modo que su nivel se establece muy por encima del da un vaso ancho (fig. 2.4).

Gentileza de Manuel Mayo

35

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Pero qué ocurrió? ¿Qué fuerzas mantienen el peso de la columna de líquido que subió? La ascensión se debe a las fuerzas de cohesión que actúan entre el agua y el vidrio. Las fuerzas de cohesión superficial se manifiestan con nitidez sólo en los casos de que el líquido sube en unos tubos lo suficientemente finos. Cuanto más estrecho es el tubo, a tanta mayor altura se eleva el líquido y tanto más nítido es el fenómeno. La denominación de estos fenómenos superficiales está relacionada con el nombre de los tubos. El canal en un tubo de esta índole tiene un diámetro que se mide en fracciones de milímetro; semejante tubo se denomina capilar (del latín «capillos» que significa «cabello»). El fenómeno de elevación del líquido en los tubos finos se denomina capilaridad. ¿A qué altura son capaces de elevar el líquido los tubos capilares? Resulta que en un tubo de 1 mm de diámetro el agua sube a 1,5 mm de altura. Con un diámetro de 0,01 mm la altura de la elevación aumenta tantas veces cuantas veces disminuyó el diámetro del tubo, es decir, hasta 15 cm. Está claro que el ascenso del líquido es posible tan sólo a condición de humectación. No es difícil comprender que el mercurio no se elevará en los tubos de vidrio. Por el contrario, en los tubos de vidrio el mercurio desciende. Este elemento hasta tal grado no «soporta» estar en contacto con el vidrio que procura reducir su superficie total hasta aquel mínimo que permito la fuerza de la gravedad. Existe multitud de cuerpos que son una especie del sistema de tubos finísimos. En los cuerpos de este tipo siempre se observan fenómenos capilares. Los árboles y las plantas disponen de todo un sistema de largos canales y poros. Los diámetros de estos canales son menores que unas centésimas de milímetro. Debido a ello las fuerzas capilares hacen subir la humedad del suelo a una altura considerable esparciendo el agua por el cuerpo de la planta. Una cosa muy cómoda es el papel secante. Usted hizo un borrón, pero necesita volver la página. ¿Acaso debe esperar hasta que la mancha de tinta se seque? Se toma una hoja de papel secante, se sumerge su extremo en la gota y la tinta corre rápidamente hacia arriba en contra de la fuerza de la gravedad. Tiene lugar un típico fenómeno capilar. Si observamos el papel secante en el microscopio, se puede ver su estructura. Esto papel consta de una malla enrarecida

Gentileza de Manuel Mayo

36

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de fibras de papel que forman entre sí finos y largos canales. Justamente estos canales hacen las veces de tubos capilares. El mismo sistema de largos poros y canales formados por fibras existe en las mechas. Por la mecha sube el queroseno en los quinqués. Haciendo uso de una mecha se puede también formar un sifón, con cuyo fin un extremo de la mecha se sumerge en vaso lleno no del todo de líquido, de modo que el otro extremo echado sobre el borde se encuentre en un nivel más bajo que el primero (fig. 2.5)

Figura 2.5 En la tecnología de la industria del teñido también se utiliza con frecuencia la propiedad de las telas de hacer subir el líquido por los finos canales que forman los hilos de la tela. Más nosotros no hemos dicho todavía nada acerca del mecanismo molecular de estos interesantes fenómenos. Las diferencias en las fuerzas superficiales se explican magníficamente por las interacciones intermoleculares. Una gota de mercurio no se derrama por el vidrio.

Gentileza de Manuel Mayo

37

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Este hecho se debe a que la energía de interacción de los átomos de mercurio entre sí es mayor que la energía de enlace de los átomos de vidrio y de mercurio. Por la misma causa el mercurio no se eleva en los capilares finos. Otra cosa sucede cuando se trata del agua. Resulta que los átomos de hidrógeno que forman parte de la molécula del agua muy a gusto se aferran a los átomos de oxígeno del óxido de silicio del que, principalmente, consta el vidrio. Esas fuerzas intermoleculares agua—vidrio son mayores que las fuerzas intramoleculares agua— agua. Esta es la razón de que el agua se derrama por el vidrio y asciende en los capilares de vidrio. Las fueras superficiales o, más exactamente, la energía de enlace (la profundidad del pozo en la fig. 2.1) para diferentes pares de sustancias tanto pueden medirse, como calcularse. Pero la conversación sobre los métodos de efectuarlo nos llevaría demasiado lejos. Cristales y su forma Muchos se creen que los cristales son piedras preciosas que se encuentran raramente Estos son de diferentes colores, generalmente transparentes y, lo más sorprendente es que tienen una forma regular muy bonita. Frecuentemente los cristales representan unos poliedros, cuyas caras son idealmente planas, las aristas son rigurosamente rectas. Estos alegran la vista con su maravilloso juego de luces en las caras, con su construcción de regularidad asombrosa. Entre ellos hay cristales sencillos de sal de piedra: cloruro de sodio natural, o sea, sal común. Estos se encuentran en la naturaleza en forma de paralelepípedos rectangulares o de cubos. También es simple la forma de los cristales de la calcita, que representan unos paralelepípedos oblicuos transparentes. Los cristales del cuarzo son mucho más complicados. Cada cristalito tiene un conjunto de caras de diversas formas, que se cortan por aristas de diferente longitud. Sin embargo, los cristales no son una cosa rara para los museos. Los tenemos por doquier. Son cristales casi todos los cuerpos sólidos con los que construirnos las casas y hacemos las máquinas; las substancias que utilizamos en la vida. ¿Por qué no vemos todo esto? Pues, porque en la naturaleza pocas voces aparecen cuerpos

Gentileza de Manuel Mayo

38

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

48

solitarios,

en

forma

de

cristales

separados

L. D. Landau y A. I. Kitaigorodski

(o

como

se

suele

decir,

monocristalinos). Con más frecuencia se encuentra la substancia en forma de granitos cristalinos unidos, de diminutas dimensiones, menores de una milésima parte de milímetro. Esta estructura se puede ver solamente por el microscopio. Los cuerpos que se componen ele granitos cristalinos se llaman policristalinos («poli» en griego quiere decir «mucho»). Claro que los cuerpos policristalinos también son cristales. Entonces, resulta que casi todos los cuerpos sólidos que nos rodean son cristales. La arena y el granito, el cobre y el hierro, el salol que se vende en la farmacia y las pintura, todos son cristales. También hay excepciones: el vidrio y los plásticos no se componen de cristales. Tales cuerpos sólidos se llaman amorfos. En resumidas cuentas, estudiar los cristales significa estudiar casi todos los cuerpos que nos rodean. Es comprensible la importancia de esto. Los cristales solitarios se conocen inmediatamente por su forma regular. Los elementos característicos del cristal son sus caras planas y sus aristas rectas: es indudable que la forma regular está relacionada con su estructura interna. Si en alguna dirección, el cristal está alargado de un modo especial, esto significa que la construcción del cristal en esta dirección es singular. Pero, figúrense que de un cristal grande se ha preparado, en el torno, una bola. ¿Es posible determinar que en las manos tenemos un cristal y diferenciarlo de una bola de vidrio? La forma natural del cristal muestra que éste es diferente en todas las direcciones. Si esta diferencia se manifiesta respecto a la forma, tiene que subsistir también respecto a otras propiedades. La dureza de los cristales, sus propiedades eléctricas, la conductibilidad del calor, todas estas propiedades se pueden diferenciar en diversas direcciones. Esta particularidad del cristal se llama anisotropía. Anisótropo significa diferente en diversas direcciones. Los cristales son anisótropos. Por el contrario, los cuerpos amorfos, los líquidos y los gases son isótropos, es decir, poseen iguales («iso» en griego quiere decir igual) propiedades en diversas direcciones («tropos» quiere decir dirección).

Gentileza de Manuel Mayo

39

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La anisotropía permite apreciar si un trozo de una substancia transparente sin forma determinada es cristal o no.

Fig. 2.6 Visitemos un museo mineralógico donde examinemos atentamente las distintas muestras monocristalinas de los cristales de una misma sustancia. Es plenamente posible que en el stand se exhibirán muestras tanto de forma regular, como irregular. Algunos cristales tendrán el aspecto de fragmentos, otros presentarán una o dos caras de desarrollo «anormal». Elijamos del montón en su conjunto las muestras que nos parecerán perfectas y hagamos su dibujo. El cuadro que resultará se representa en la fig. 2.6. A título de de ejemplo figura el mismo cuarzo. En el cuarzo, al igual que en otros cristales puede desarrollarse un número distinto de caras de una misma «clase», así como un diferente número de las propias «clases» de caras. Sea que el parecido exterior no salta a la vista, no obstante, semejantes cristales se parecen unos a otros como parientes cercanos, como hermanos gemelos. ¿En qué radica su parecido?

Gentileza de Manuel Mayo

40

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Fíjense en la Fig. 2.6 en la que se representa una serie de cristales de cuarzo. Todos estos cristales son «parientes» cercanos. Y es posible hacerlos completamente idénticos si esmerilamos sus caras a distinta profundidad paralelamente a sí mismas. Es fácil ver que mediante este procedimiento el cristal II, por ejemplo, puede hacerse completamente idéntico al cristal I. Esta posibilidad se tiene porque los ángulos entre las caras homólogas de las muestras son iguales, por ejemplo, entre las caras A y B, B y C, etc. Precisamente en esta igualdad de les ángulos reside el parentesco «familiar» de los cristales. Cuando las caras se esmerilan paralelamente a sí mismas la forma del cristal cambia, pero los ángulos entre las caras conservan su valor. Durante el crecimiento del cristal, en dependencia de una serie de casualidades, unas caras pueden caer en condiciones más favorables, y otras, en menos favorables para aumentar sus dimensiones. El parecido exterior de las muestras crecidas en diferentes condiciones se hará imperceptible, sin embargo, los ángulos entre las caras homólogas de todos los cristales de la sustancia que se estudia siempre serán iguales. La forma del cristal es fortuita, mientras que los ángulos entre las caras responden (más adelante usted comprenderá por qué) a su naturaleza intrínseca. Pero el carácter plano de las caras no es la única propiedad de los cristales que los distingue de los cuerpos amorfos.

Figura 2.7 Los cristales poseen simetría. El sentido de esta palabra lo comprenderemos de la mejor forma considerando unos ejemplos.

Gentileza de Manuel Mayo

41

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fig. 2.7 se representa una escultura; ante ésta se encuentra un espejo grande. En el espejo aparece la imagen que repite exactamente el objeto. El escultor puede crear dos figuras y disponerlas de la misma manera como la figura y su imagen en el espejo. Esta escultura «doble» será una figura simétrica, pues la constituyen dos partes

especularmente

iguales.

La

parte

derecha

de

la

escultura

coincide

exactamente con la imagen de su parte izquierda. Esta figura simétrica posee un plano vertical de simetría por reflexión que pasa en medio de estas partes. El plano de simetría es un plano mental, pero lo percibimos nítidamente al examinar un cuerpo simétricamente estructurado. El plano de simetría lo poseen los cuerpos de los animales. También a través del hombre se puede trazar un plano vertical de simetría exterior. En el reino animal la simetría se realiza sólo aproximadamente, y, además, en la vida no existe simetría perfecta. El arquitecto puede trazar en el dibujo una casa compuesta de dos mitades idealmente simétricas. Pero, cuando la casa se haya edificado, resultará que por muy perfecto que sea el trabajo, siempre se podrán encontrar diferencias en las dos partes correspondientes del edificio; por ejemplo, en un lugar hay una grieta y en el correspondiente lugar de la otra parte la grieta no existe.

Fig. 2.8

Gentileza de Manuel Mayo

42

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La simetría más exacta se realiza en el mundo de los cristales, pero tampoco aquí es perfecta: unas grietas y rasguños indistinguibles a simple vista siempre dan lugar a leves diferencias en las caras iguales. En la fig. 2.8 se representa un molinete infantil de papel. Este también es simétrico, pero a través del mismo no se puede trazar un plano de simetría. ¿En qué consiste, entonces la simetría de esta figurita? Ante todo nos ponemos la pregunta acerca de sus partes simétricas. ¿Cuántas son? Evidentemente, cuatro. ¿En qué radica la regularidad de la disposición mutua de estas partes iguales? Tampoco es difícil notarle. Hacemos girar el molinete un ángulo recto en el sentido antihorario, o sea, a 1/4 parte de circunferencia. Entonces el ala 1 ocupará el lugar donde, anteriormente, se ha encontrado el ala 2; el ala 2 se trasladará al lugar ocupado antes por el ala 3: el ala 3, al lugar del ala 4; el ala 4, al lugar del ala 1. La nueva disposición es indistinguible de la anterior. Cuando se trata de semejante figurita se dice qua ésta posee un eje de simetría, o, más exactamente, un eje de simetría de 4 orden, ya que la coincidencia tiene lugar al girar 1/4 de circunferencia. Resumiendo, podemos decir que el eje de simetría es una recta tal que por girar alrededor de ésta un cuerpo a una parte de revolución, dicho cuerpo puede trasladarse a la posición indistinguible de la inicial. El orden del eje (en nuestro caso el 4) indica que dicha coincidencia tiene lugar al girar 1/4 de circunferencia. Por consiguiente, con cuatro giros consecutivos regresamos a la posición inicial. ¿Es que en el reino de los cristales tenemos que ver con la simetría de cualquier tipo? La experiencia demuestra que no es así. En los cristales nos encontramos tan sólo con los ejes de simetría ele los órdenes 2, 3, 4 y 6. Este hecho no es casual. Los cristalógrafos han demostrado que dicha circunstancia está relacionada con la estructura interna del cristal. Esta es la razón de que el número de diferentes tipos o, como se dice, de clases de simetría de los cristales es relativamente pequeño, siendo igual a 32. Estructura de los cristales

Gentileza de Manuel Mayo

43

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Por qué es tan bella y tiene tanta regularidad la forma del cristal? Sus caras, o facetas, brillantes y lisas, presentan tal aspecto como si sobre el cristal trabajase un hábil pulidor. Las distintas partes del cristal repiten una a otra, formando una hermosa figura simétrica. Esta excepcional regularidad de los cristales fue conocida ya a los hombres de la antigüedad. Sin embargo, las ideas que los antiguos sabios tenían sobre los cristales se diferenciaban poco de los cuentos y leyendas creados por los poetas cuya imaginación quedó cautivada por la belleza de aquéllos. Se creía que el cristal se formaba del hielo, y el diamante, del cristal. A los cristales se atribulan

numerosas

propiedades

misteriosas:

la

capacidad

de

curar

las

enfermedades, de proteger contra venenos e influir en el destino de las personas... Los primeros conceptos científicos respecto a la naturaleza de los cristales se remontan a los siglos XVII al XVIII. La fig. 2.9 tomada de un libro del siglo XVIII nos da una idea sobre estos conceptos. Según la opinión del autor del libro, el cristal está estructurado de pequeñísimos «ladrillitos» aplicados apretadamente unos a otros. Esta idea es bastante natural.

Figura 2.9 Rompamos con un fuerte golpe mi cristal de calcita (carbonato de calcio). Como resultado, saltarán pedacitos de distinto tamaño. Al examinarlos fijamente, descubrimos que estos fragmentos poseen forma regular totalmente similar a la del cristal grande, su ascendiente. Seguramente, razonaba el

Gentileza de Manuel Mayo

44

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

científico, la sucesiva fragmentación del cristal también se produciría de la misma manera hasta que llegásemos hasta el ladrillito mínimo, invisible para el ojo, el cual representaría el cristal de la sustancia dada. Estos ladrillitos son tan diminutos que las «escaleras» escalonadas construidas de éstos, o sea, las facetas del cristal, nos parecen perfectamente lisas. Pero, profundizándonos en la materia, ¿qué es, en fin de cuentas, aquel «último» ladrillito? El científico de aquella época no sabía contestar a esta pregunta. La teoría «de ladrillos» de la estructura del cristal resultó ser muy provechosa para la ciencia. Explicó el origen de las aristas rectas y las caras del cristal: durante el crecimiento del mismo unos ladrillitos se ajustan a otros y la cara crece a semejanza de la pared de una casa que el albañil edifica con sus manos. De este modo, en respuesta a la pregunta sobre la causa de la regularidad y la belleza de la forma de los cristales se ha dado ya hace mucho. La causa de esta circunstancia es la regularidad intrínseca. Y la regularidad radica en la repetición múltiple de las mismas partes elementales.

Fig. 2.10

Gentileza de Manuel Mayo

45

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figúrense la verja de un parque hecha de barras de distinta longitud y distribuidas al desgaire. Es un cuadro asqueroso. Una buena verja se confecciona de barras iguales dispuestas en orden regular a distancias idénticas unas de otras. El mismo cuadro que se autorrepite lo encontramos en el empapelado. Aquí el elemento del dibujo —digamos, una niña jugando a la pelota— se repite ya no en una dirección, como en la verja de parque, sino llena el plano. ¿Mas, qué relación puede existir entre una verja de parque o empapelado y un cristal? La más directa. La verja de parque consta de eslabones que se repiten a lo largo de una línea: el empapelado, de cuadros que se repiten a lo largo de un plano, y el cristal está constituido por grupos de átomos que se repiten en el espacio. Precisamente debido a ello se dice que los átomos de los cristales forman una red espacial (o cristalina). Tenemos que discutir una serie de detalles, pero, como no queremos molestar al pintor encargándole dibujar complicarlas figuras volumétricas, explicaremos lo que es necesario en el ejemplo de un fragmento de empapelado. En la fig. 2.10 se ha destacado aquel fragmento mínimo por cuya simple traslación es posible componer toda la pieza de empapelado. Con el fin de separar semejante fragmento, a partir de cualquier punta del dibujo, por ejemplo, del centro de la pelota, tracemos dos líneas uniendo la pelota elegida con las dos vecinas. Como se ve en nuestro dibujo a base de estas líneas podernos construir un paralelogramo. Trasladando este fragmento en dirección de las principales líneas de partida se puede componer todo el dibujo del empapelado. El fragmento mínimo puede escogerse de distinta manera: en el dibujo se advierte que es posible elegir varios paralelogramos diferentes cada uno de los cuales contiene una figurita. Recalcamos que para nosotros, en este caso, no tiene importancia si la figurita resulta ser entera dentro del fragmento separado o dividida en partes por las líneas que delimitan este fragmento. Sería erróneo pensar que una vez dibujada la figurita que se repite en el empapelado el pintor puede considerar su tarea como terminada. Así sería tan sólo en el caso de que el trabajo de componer el empapelado fuera posible realizar de un

Gentileza de Manuel Mayo

46

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

modo único: añadiendo al fragmento dacio que contiene una figurita otro fragmento idéntico pero dislocado paralelamente.

Figura 2.11 No obstante, además de este procedimiento sencillísimo hay otros dieciséis para llenar el empapelado de ornamento que se repite regularmente, o sea, en total, existen 17 tipos de disposición mutua en las figuritas en el plano. Estos se ilustran en la fig. 2.11. Como dibujo que se repite hemos elegido aquí, al igual que en la fig. 2.10, una figurita elemental carente de simetría propia. Sin embargo, los

Gentileza de Manuel Mayo

47

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

ornamentos compuestos a base de ésta son simétricos y su diferencia se determina por la diferencia de la simetría en la disposición de las figuritas. Vemos que, por ejemplo, en los primeros tres casos el dibujo no tiene un plano de simetría por reflexión, ya que es imposible colocar un espejo vertical de tal forma que una parte del dibujo represente una «imagen» de la otra. Por el contrario, en los casos 4 y 5 se dan planos de simetría. En los casos 8 y 9 pueden «instalarse» dos espejos mutuamente perpendiculares. En el caso 10 existen ejes de 4° orden perpendiculares al dibujo, y en el caso 11, ejes de 3er orden. En los casos 18 y 15 tenemos que ver con los ejes de 6° orden, etc. Los planos y los ejes de simetría de nuestros dibujos no se presentan uno a uno, sino en «familias» paralelas. Si hemos encontrado un punto a través del cual se puede trazar un eje (o un plano) de simetría, entonces, hallaremos muy pronto el punto vecino y, seguidamente, a la misma distancia, el tercero, el cuarto y así, sucesivamente, otros puntos a través de los cuales pasan los mismos ejes (o planos) de simetría.

Figura 2.12 Los 17 tipos de simetría de ornamento plano no agotan, por supuesto, toda la diversidad de los ornamentos que se componen de una misma figurita; el pintor debe tener presente una circunstancia más: cómo disponer la figurita con respecto a las líneas límites de la célula.

Gentileza de Manuel Mayo

48

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fig. 2.12 se muestran dos ornamentos del empapelado con la misma figurita inicial, pero situada de distinta manera respecto a los espejos. Los dos ornamentos pertenecen al caso 8. Cada cuerpo, incluyendo también el cristal, consta de átomos. Las sustancias simples se componen de átomos idénticos, y las compuestas, de átomos de dos o varias clases. Supongamos que, armándonos de un microscopio superpotente hubiéramos podido examinar detalladamente la superficie de un cristal de sal tornen y distinguir los centros de los átomos. La fig. 2.13 señala que los átomos están dispuestos a lo largo de la cara del cristal como el ornamento del empapelado. Ahora el lector ya puede comprender fácilmente cómo está estructurado el cristal. El cristal representa el «empapelado espacial». Células elementales espaciales, es decir, volumétricas, y no planas, he aquí los «ladrillos» por cuyo ajuste mutuo en el espacio se construye el cristal.

Fig. 2.13 Bueno, ¿cuántos modos existen para construir «empapelado espacial» a partir de fragmentos elementales? Este complicado problema matemático lo resolvió a finales del siglo pasado (siglo XIX), Evgraf Stepánovich Fiódorov. El científico demostró que debían existir 230 mudos de construir el cristal. Todos los datos de que disponemos hoy día referentes a la estructura interna de los cristales se han obtenido por medio del análisis estructural por rayos X del cual hablaremos en el libro IV.

Gentileza de Manuel Mayo

49

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Existen cristales simples construidos de átomos de una misma clase. Por ejemplo, el diamante es carbono puro. Los cristales de sal común constan de iones de dos clases: de sodio y cloro. Cristales más complejos pueden estructurarse de moléculas las cuales, a su vez, constan de átomos de muchas clases. Sin embargo, en un cristal siempre se puede destacar un mínimo grupo de átomos que se repite (en el caso más simple, será un solo átomo), o, en otras palabras, la célula elemental. Las dimensiones de la célula pueden ser muy diversas. Las menores distancias entre los nudos vecinos (vértices de la célula) se observan entre los cristales más simples constituidos por átomos de una sola clase; y las mayores, entre los cristales complejos de proteínas. Estas distancias oscilan de 2 a varios cientos de angstroms. Las redes cristalinas son muy variadas. Sin embargo, las propiedades comunes para todos los cristales encuentran una explicación irreprochable en la estructura reticular de éstos. En primer término, no es difícil comprender que las caras idealmente planas, son planos que pasan a través de los nodos donde se ubican los átomos. Pero, es posible trazar un número cualquiera de estos planos nodales orientándolos por las más variadas direcciones. Entonces, ¿cuáles de estos planos que pasan por los nudos delimitan el cristal crecido? Ante todo, centremos la atención en la siguiente circunstancia: en los distintos planos y líneas nodales la densidad de distribución de los nudos es diferente. La experiencia demuestra que el cristal se delimita por los planos más tupidamente poblados de nudos, y los planos se cortan por las aristas las cuales, a su vez, están máximamente pobladas con los nudos. La fig. 2.14 nos ofrece la vista de la red cristalina perpendicularmente a su cara; se han trazado huellas de algunos planos nodales perpendiculares al dibujo. De lo expuesto queda claro que en un cristal pueden desarrollarse caras paralelas a los planos nodales I y III y no habrá caras paralelas a los planos II escasamente poblados de nudos. Actualmente se conoce la constitución de muchos centenares de cristales. Veamos la estructura de los cristales mis simples y, ante todo, de los que están constituidos de átomos de una especie.

Gentileza de Manuel Mayo

50

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Fig. 2.14 Las mallas más difundidas son de tres tipos. Estas están representadas en la fig. 2.15. Los centros de los átomos están señalados por puntos; las líneas que unen les puntos no tienen sentido real. Están trazadas solamente para que el lector vea con mayor claridad la posición espacial de los átomos.

Fig. 2.15 Las fig. 2.15 a, y 2.15 b, representan mallas cúbicas.

Gentileza de Manuel Mayo

51

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Para tener una idea más clara de estas mallas figúrense que los cubos de los niños se han colocado uno sobre otro, cara con cara, arista con arista. Si ahora se colocan, mentalmente, puntos en los vértices y en los centros de los cubos, se formará la malla cúbica representada en el dibujo de la izquierda. Esta estructura se llama cúbica de volumen centrado. Si los puntos se colocan en los vértices de los cubos y en los centros de sus caras, se formará una malla cúbica, representada en el dibujo del medio. Esta se llama cúbica de caras centradas. La tercera malla (fig. 2.15 c) se llama hexagonal compacta. Para comprender el origen de este término y representarnos con mayor claridad la disposición de los átomos en esta malla, tomemos las bolas del billar y comencemos a colocarlas del modo más compacto. Formemos, ante todo, una capa compacta; ésta se parece a las bolas del billar reunidas en un «triángulo» al comienzo del juego (fig. 2.16). Anotemos que la bola que está dentro del triángulo tiene seis vecinos que están en contacto con ella, y estos seis vecinos forman un hexágono. Continuemos colocando una capa sobre otra. Si se ponen las bolas de la capa siguiente, directamente, por encima de las bolas de la primera capa, no resultará una estructura compacta.

Fig. 2.16 Para colocar el mayor número de bolas posible en un volumen determinado, tendremos que poner las bolas de la segunda capa en los «hoyos» de la primera, las de la tercera en los «hoyos» de la segunda, etc., etc. En la estructura hexagonal Gentileza de Manuel Mayo

52

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

más compacta, las bolas de la tercera capa están colocadas de tal modo, que sus centros están situados sobre los centros de las bolas de la primera capa. Los centros de los átomos de la malla hexagonal más compacta, están situados del mismo modo que los centros de las bolas colocadas densamente como acabamos de describir. En la forma de las tres mallas descritas cristalizan numerosos elementos: Malla hexagonal compacta

Be, Co, Hf, Ti, Zn, Zr

Malla cúbica de caras centradas

Al, Cu, Co, Fe, Au, Ge, Ni, Ti

Malla cúbica de cubos centrados

Cr, Fe, Li, Mo, Ta, Ti, U, V

De otra estructuras, señalemos solamente unas pocas. En la fig. 2.17 está representada la estructura del diamante. Para ella es característico que el átomo del carbono del diamante tiene cuatro vecinos próximos. Confrontemos

este

número

con

los

números

correspondientes

de

las

tres

estructuras más difundidas que acabamos de describir. Como se ve en los dibujos, en la malla hexagonal compacta, cada átomo tiene 12 vecinos próximos: la misma cantidad de vecinos tienen los átomos que forman la malla cúbica de caras centradas: en la malla de volumen centrado, cada átomo tiene 8 vecinos.

Fig. 2.17 y 2.18

Gentileza de Manuel Mayo

53

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Digamos unas cuanta; palabras sobre el grafito, cuya estructura se enseña en la fig. 2.18. La particularidad de esta estructura salta a la vista. El grafito se compone de capas de átomos, de modo que los átomos de una capa están ligados entre sí con más fuerza que los átomos de las capas vecinas. Esto se debe a las magnitudes de las distancias entre los átomos; la distancia entre los vecinos de una capa es 2,5 veces menor que la distancia más corta entre las capas.

Fig. 2.19 y 2.20 La existencia de capas de átomos débilmente ligadas da lugar a que los cristales del grafito se desintegren fácilmente a lo largo de astas capas. Por eso el grafito sólido puede servir de materia lubricante en los casos en que es imposible emplear la

Gentileza de Manuel Mayo

54

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

grasa, por ejemplo, cuando las temperaturas son muy bajas o muy altas. El grafito es un material lubricante sólido. El rozamiento entre dos cuerpos se reduce, hablando vulgarmente, a que los salientes microscópicos de un cuerpo se introducen en las hondonadas del otro. El esfuerzo necesario para desintegrar el cristalito microscópico del grafito es mucho menor que la fuerza de rozamiento; por eso, la existencia del lubricante grafitado facilita el resbalamiento de un cuerpo sobre otro. Las variedades de las estructuras de los cristales de las composiciones químicas son infinitas. Como ejemplos extremos, en el sentido de diversidad, pueden servir las estructuras de la sal gema y del dióxido de carbono, representadas en las figs. 2.19 y 2.20. Los cristales de la sal gema (fig. 2.19) se componen de átomos de sodio (las bolas pequeños oscuras) y de cloro (las grandes claras) alternados a lo largo de los ejes del cubo. Cada átomo de sodio tiene seis vecinos equidistantes de otra especie. Lo mismo se refiere al cloro. Pero, ¿dónde está la molécula del cloruro de sodio? Aquí no está; en el cristal, no sólo falta el grupo de un átomo de sodio y de un átomo de cloro, sino que, en general, ningún grupo de átomos se destaca entre otros por su aproximación. La fórmula química NaCl no sirve de fundamento para afirmar que «la substancia se compone de moléculas NaCl». La fórmula química solamente indica que la substancia se compone de igual cantidad de átomos de sodio que de cloro. El problema de la existencia de moléculas en la substancia se resuelve por su estructura. Si en ésta no se destaca ningún grupo de átomos próximos, no hay molécula. Los cristales sin moléculas se llaman atómicos. El cristal del gas carbónico, CO2 (hielo seco que llevan en las cajas las vendedoras de helados), es un ejemplo de cristal molecular (fig. 2.20). Los centros de los átomos de oxígeno y de carbono de la molécula CO2 están situados a lo largo de una línea recta (véase la fig. 2.2). La distancia C — O es igual a 1,3 Å.

Gentileza de Manuel Mayo

55

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La distancia entre los átomos de oxígeno de las moléculas vecinas es de unos 3 Å. Está claro que en estas condiciones no «reconocemos» inmediatamente la molécula en el cristal. Los cristales moleculares representan unas mallas compactas de moléculas. Para ver esto hay que describir los contornos de las moléculas. Esto se ha hecho en la fig. 2.20. Todas las sustancias orgánicas dan cristales moleculares. Las moléculas orgánicas contienen muy a menudo muchas decenas y centenares de átomos (en cuanto aquellas moléculas que están constituidas por decenas de miles de átomos, de tales moléculas hablaremos en un capítulo aparte). Es imposible representar gráficamente su empaquetamiento. Esta es la razón de que el lector puede ver en los libros dibujos semejantes al representado en La fig. 2.21. Las moléculas de la sustancia orgánica en cuestión están constituidas por átomos de carbono. Las barritas simbolizan los enlaces de valencia. Las moléculas parecen como si estuviesen suspendidas en el aire. Pero no den crédito a sus ojos. El dibujo tiene esto aspecto solamente con el fin de dar al lector la posibilidad de examinar bien cómo están dispuestas las moléculas en el cristal.

Fig. 2.21

Gentileza de Manuel Mayo

56

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Para mayor sencillez los autores del dibujo ni siquiera representaron los átomos de hidrógeno agregados a los átomos exteriores de carbono (desde luego, los químicos proceden muy frecuentemente de esta manera). Con mayor razón todavía, los autores no consideraron necesario «contornear» la molécula, o sea, darle una forma.

Si

lo

hubiéramos

hecho,

habríamos

visto

que

el

principio

de

empaquetamiento de las moléculas —llave para la cerradura— trabaja también en este caso, al igual que en otros análogos. Sustancias policristalinas Ya hemos mencionado que los cuerpos amorfos constituyen un fenómeno raro en el reino de los cuerpos sólidos. La mayoría de los objetos que nos rodean constan de pequeños granitos cristalinos cuyas dimensiones son cerca de una milésima parte de milímetro. La estructura granular de los metales los investigadores la descubrieron ya en el siglo pasado (siglo XIX). Les ayudó el más común y corriente microscopio. Solamente se tuvo que ajustarlo de modo que el análisis no se realizase «al trasluz», sino por reflexión. De la misma forma se procede también hoy en día.

Fig. 2.22

Gentileza de Manuel Mayo

57

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fig. 2.22 se representa el cuadro que se abre ante el ojo, habitualmente, los límites de los granos se ven con absoluta nitidez. Por regla general, en estos límites se acumulan las impurezas. Del tamaño de los granos, de aquello que se opera en sus fronteras, de la orientación de los granos dependen en enorme grado las propiedades del material. Por esta causa los físicos invirtieron mucho trabajo en el estudio de las sustancias policristalinas. El hecho de que cada grano es un cristal se demostró por medio del análisis estructural por rayos X del cual ya hemos prometido hablar al lector. Cualquier elaboración del metal repercute en sus granos. He aquí que se ha obtenido un lingote de metal fundido: sus granos están dispuestos caóticamente y su tamaño es bastante grande. Del metal se hace alambre, se lo trefila. ¿Cómo se comportan en esto caso los granos cristalinos? Las investigaciones han demostrado que el cambio de la forma de mi cuerpo sólido durante el trefilado del alambre o durante otro tratamiento mecánico provoca la fragmentación de los granos cristalinos. Al mismo tiempo, por acción de las fuerzas mecánicas, en la disposición de los granos aparece cierto orden. ¿De qué orden puede tratarse aquí? Es que los fragmentos de los granos son completamente informes. Esto es cierto, la forma exterior del fragmento puede ser cualquiera, no obstante, un fragmento de cristal sigue siendo, a pesar de todo, un cristal, y los átomos en su red están empaquetados con la misma regularidad que en un cristal bien tallado. Por esta razón, para cada fragmento se puede señalar cómo está dispuesta su célula elemental. Antes de someterse a la elaboración las células están ordenadas estrictamente tan sólo dentro de los límites de cada grano aislado, mientras que, habitualmente, falta el orden general. En cambio, después de elaborados, los granos se alinean de tal modo que en la disposición de sus células asoma cierto orden general llamado textura; por ejemplo, las diagonales de las células de todos los granos se orientan de una forma aproximadamente paralela a la dirección de la elaboración. La fig. 2.23 ayuda a comprender qué es la textura. Las hileras de los puntos en el seno de los granos simbolizan los planos atómicos. A la izquierda la textura falta. A la derecha, ya está presente un orden.

Gentileza de Manuel Mayo

58

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Fig. 2.23 Las diferentes clases de elaboración (laminado, forja, trefilado) dan lugar a texturas de distintos tipos. En unos casos los granos giran de modo que sus células elementales se alinean a lo largo de la dirección de la elaboración en diagonal; en otros casos, en arista de un cubo, etc. Cuanto más perfecto es el laminado o el trefilado, tanto más perfecta resulta ser también la textura de los granos cristalinos del metal. La existencia de la textura ejerce una gran influencia sobre las propiedades mecánicas del artículo. El estudio de la disposición y de las dimensiones de los granos cristalinos en los artículo metálicos puso en claro la esencia del tratamiento mecánico de los metales, recomendando el justo modo de realizarlo Con la reestructuración de los granos cristalinos está relacionado también otro importantísimo proceso técnico, el recocido. Si se somete al calentamiento el metal laminado o trefilado, entonces, a una temperatura lo suficientemente alta comienza el crecimiento de nuevos cristales a costa de los viejos, como resultado del recocido la textura va destruyéndose poco a poco; los cristales nuevos se sitúan caóticamente. A medida que alimenta la temperatura (o, simplemente, al alimentar la duración del recocido) los nuevos granos crecen y los viejos desaparecen. El recocido cambia bruscamente las propiedades del metal. Este se hace más dúctil y menos resistente, Esta

Gentileza de Manuel Mayo

59

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

circunstancia se debe a que los granos llegan a ser más grandes y la textura desaparece.

Gentileza de Manuel Mayo

60

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 3 Temperatura Contenido: •

El termómetro



Teoría del gas ideal



Ley de Avogadro



Velocidades de las moléculas



Dilatación térmica



Capacidad calorífica



Conductibilidad térmica



Convección

El termómetro Si se ponen en contacto dos cuerpos calentados de diverso modo, el más caliente se irá enfriando y el más frío se irá calentando. Sobre tal par de cuerpos se dice que se intercambian calor. Como ya se ha dicho, el intercambio de calor es una forma de trasmisión de energía; llamamos más caliente el cuerpo que cede la energía. Nosotros sentimos que el cuerpo está caliente si calienta la mano, o sea, si cede energía. Por el contrario, si sentimos que el cuerpo está frío, esto significa que absorbe energía de nuestro cuerpo. Sobre un cuerpo que da calor (o sea, que cede energía mediante un intercambio de calor), decimos: su temperatura es más alta que la del cuerpo que absorbe este calor. Observando si se enfría o se calienta el objeto que nos interesa, en presencia de tal o cual cuerpo, hallaremos para este objeto «su sitio» en la serie de cuerpos calientes. La temperatura es una especie de señal que indica para qué cuerpos el objeto que nos interesa es donador y para qué cuerpos es adquiridor de calor. La temperatura se mide con termómetros.

Gentileza de Manuel Mayo

61

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La construcción de los termómetros puede basarse en la utilización de diversas propiedades de los cuerpos sensibles a la temperatura. Frecuentemente se emplea la propiedad de los cuerpos de dilatarse con el aumento de la temperatura. Si al ponerse en contado con diversos cuerpos, el cuerpo del termómetro cambia su volumen, esto significa que los cuerpos tienen diferente temperatura. Cuando el volumen del cuerpo del termómetro es mayor, la temperatura es más alta, y cuando el volumen es menor, la temperatura es más baja. Pueden servir de termómetros los cuerpos más diversos: los líquidos, como el mercurio y el alcohol; los sólidos, como los metales y los gaseosos. Pero como diversos cuerpos se dilatan de diferente modo, los grados de mercurio, de alcohol y de gas no coincidirán. Claro que siempre se pueden marcar en todos los termómetros dos puntos fundamentales: la temperatura de fusión del hielo y la de ebullición del agua. Por eso, todos los termómetros marcan igual 0 y 100 grados Celsius. Pero entre 0 y 100 grados, los cuerpos se dilatan de diverso modo. Un cuerpo rápidamente se dilata entre 0 y 50 grados del termómetro de mercurio y lentamente en la segunda parte de este intervalo, mientras que otro cuerpo se comporta al revés. Preparando termómetros con cuerpos de diferente dilatación, observaremos distinciones notables en sus indicaciones, a pesar de que éstas coinciden en los puntos

fundamentales.

El

termómetro

de

agua

nos

ofrecería

el

siguiente

descubrimiento: si un cuerpo enfriado hasta cero grados se coloca en una cocinilla eléctrica su temperatura, según este termómetro, disminuye primero y aumenta después. La causa de esto estriba en que, al calentarse el agua, primero disminuye su volumen, y sólo después se comporta «normalmente», o sea, aumenta su volumen al calentarse. Vemos, pues, que una elección no premeditada de la substancia para el termómetro puede conducirnos a un callejón sin salida. ¿En qué hay que basarse entonces para la elección «acertada» del termómetro? ¿Qué cuerpo es ideal para esto? Sobre tales cuerpos ideales ya hemos hablado. Estos son los gases ideales. En el gas ideal no hay interacción de las partículas y, observando la dilatación del gas ideal, estudiamos cómo cambia el movimiento de sus moléculas.

Gentileza de Manuel Mayo

62

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Precisamente por esto, el gas ideal es un cuerpo ideal para el termómetro En efecto, inmediatamente salta a la vista que, a pesar de que el agua se dilata de otro modo que el alcohol, éste de otro modo que el vidrio, y éste de otro modo que el hierro, sin embargo, el hidrógeno, el oxígeno, el nitrógeno y cualquier otro gas, en estado de enrarecimiento, que es suficiente para merecer la denominación de ideal, se dilatan al calentarse exactamente igual. De esta forma, de base para determinar en física la temperatura sirve el cambio de volumen de una determinada cantidad de gas. Se sobreentiende que, en vista de la gran compresión de los gases, es necesaria una particular atención para que el gas se encuentre a una presión constante. Por lo tanto, para graduar un termómetro de gas, tenemos que medir exactamente el volumen del gas que hemos tomado a 0 °C y a 100 °C. La diferencia de volúmenes V100 y V0 la dividimos en 100 partes iguales. Mejor dicho, la variación del volumen del gas en 1/100 x (V100 - V0) corresponde a un grado Celsius (1 °C). Supongamos

ahora

que

nuestro

termómetro

señala

un

volumen

V.

¿Qué

temperatura t °C corresponde a este volumen? Es fácil calcular que

o sea

Con esta igualdad, a cada volumen V ponemos en correspondencia la temperatura t y obtenemos la escala de temperaturas que usan los físicos1. 1

La escala de Celsius, en la que por 0 °C se ha tomado la temperatura de fusión del hielo, y por 100 °C a temperatura de ebullición del agua (ambas a presión normal de 760 mm Hg), es muy cómoda. Pese a esto, los ingleses y los norteamericanos han empleado hasta ahora una escala de temperaturas que nos parece muy extraña ¿Cómo, por ejemplo, entender esta frase de una novela inglesa'’- “El verano no era caluroso, la temperatura era de 60 - 70 grados". ¿Hay alguna equivocación? No, es en la escala de Fahrenheit (°F). En Inglaterra, la temperatura rara vez baja de - 21 °C. Fahrenheit tomó como cero la temperatura de una mezcla de hielo con sal que tenía aproximadamente la temperatura mínima de Inglaterra arriba indicada. Por 100°, en esta escala, se tomó, según cuenta el autor, la temperatura normal del cuerpo humano. Sin embargo, es probable que, Gentileza de Manuel Mayo

63

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Al aumentar la temperatura, el volumen del gas crece indefinidamente: no hay ningún límite teórico para el crecimiento de la temperatura Al contrario, las temperaturas bajas (negativas en la escala de Celsius) tienen límite. En efecto, ¿qué ocurre al bajar la temperatura? El gas real, al fin y al cabo, se convierte en líquido, y, a mayor disminución, se solidifica Las moléculas de gas se reúnen en un pequeño volumen. Pero, ¿a qué será igual este volumen para nuestro termómetro, lleno de gas ideal? Sus moléculas carecen de interacción y no tienen volumen propio. Por lo tanto, la disminución de la temperatura conduce a la anulación del volumen del gas ideal. Un gas real se puede aproximar cuanto se quiera a un estado característico del gas ideal; en este caso, a un volumen cero. Para esto, hay que llenar el termómetro de un gas cada vez más enrarecido. Por consiguiente, no pecaremos contra la verdad, si suponemos que un volumen extremadamente pequeño es igual a cero. De acuerdo con nuestra fórmula, al volumen igual a cero corresponde la temperatura menor posible. Esta temperatura se llama cero absoluto. Para determinar la posición del cero absoluto en la escala de Celsius hay que poner, en la fórmula deducida de la temperatura, el valor del volumen igual a cero, V = 0. De este modo, la temperatura del cero absoluto es igual a

Resulta

que

este

punto

extraordinario

corresponde

aproximadamente

a

la

temperatura de -273 °C (más exactamente, a -273,15 °C). Así pues, no hay temperaturas más bajas del cero absoluto; puesto que éstas corresponden a volúmenes negativos de gas. Carece de sentido hablar de temperaturas más bajas. Obtener temperaturas más bajas del cero absoluto es tan imposible como preparar alambre de diámetro menor de cero.

para la determinación de este punto, Fahrenheit se sirviera de un hombre que tenía un poco de fiebre. La temperatura media normal del cuerpo humano en la escala de Fahrenheit corresponde a 98 °F. En esta escala, el agua se congela a +32 °F y hierve a 212 °F, La fórmula de conversión de °F a °C es: t°C = 5/9 (t – 32) °F Gentileza de Manuel Mayo

64

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Un cuerpo a la temperatura de cero absoluto no se puede enfriar, es decir, no se le puede quitar energía. Mejor dicho, a esta temperatura, el cuerpo y las partículas de que se compone, poseen la energía mínima posible. Esto significa que en el cero absoluto la energía cinética es igual a cero y la potencial tiene el valor mínimo posible. Como el cero absoluto es la temperatura más baja, es natural que en la física y, sobre todo, en sus ramas donde figuran temperaturas bajas, se utilice la escala absoluta de temperaturas, en la que el cálculo se lleva desde el cero absoluto Está claro que Tabs = (t + 273) °C En la escala absoluta, la temperatura de la habitación es de unos 300°. La escala absoluta de temperaturas se llama también escala de Kelvin, en nombre de un célebre sabio inglés del siglo XIX, y en lugar de la notación Tabs, se emplea la notación T °K. La fórmula del termómetro de gas que determina la temperatura T se puede escribir para la temperatura absoluta en la forma

Aplicando la igualdad

obtenemos el resultado simple:

Gentileza de Manuel Mayo

65

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Por lo tanto, la temperatura absoluta es directamente proporcional al volumen del gas ideal. Para hacer mediciones exactas de las temperaturas, los físicos tienen que valerse de todos los artificios posibles. En un intervalo de temperaturas bastante amplio, los termómetros de mercurio, de alcohol (para el Ártico) y otros, se gradúan según el termómetro de gas. Sin embargo, esto es inservible también para temperaturas muy próximas al cero absoluto (menores de 0,7 K) cuando todos los gases se licúan, y para temperaturas mayores de 600 °C, cuando los gases atraviesan el vidrio. Para temperaturas muy altas y muy bajas, se emplean otros principios de medición. En cuanto a los métodos prácticos de medición de temperaturas, éstos son muy numerosos. Tienen gran importancia los dispositivos basados en los efectos eléctricos. Es importante tener en cuenta ahora una cosa, en cualquier medición de temperatura tenemos que estar seguros de la magnitud media coincida por completo con lo que daría la medición de la expansión del gas enrarecido. Las temperaturas altas se crean en los hornos y en los mecheros. En los hornos de confitería, la temperatura alcanza 220 – 280 °C. En la metalurgia se emplean temperaturas más altas; los hornos de templar dan una temperatura de 900 - 1000 °

C, el horno de forjar, 1400 - 1500 °C. En los hornos de fundición de acero, la

temperatura alcanza 2000 °C. Las temperaturas más altas de hornos se obtienen mediante el arco voltaico (cerca de 5000 °C). La llama del arco da la posibilidad de «enfrentarse» con los metales más refractarios. Pero, ¿cuál es la temperatura la llama del mechero de gas? La temperatura del cono interior azulado de la llama es solamente de 300 °C. En el cono exterior, la temperatura alcanza hasta 1800 °C En

la

explosión

de

la

bomba

atómica

se

crean

unas

temperaturas

incomparablemente más altas. Por cálculos indirectos se ha determinado que la temperatura en el centro de la explosión alcanza muchos millones de grados. En los últimos tiempos se han hecho pruebas para obtener temperaturas ultraaltas en instalaciones especiales de laboratorios (Ogra, Zeta), que se construyen en la

Gentileza de Manuel Mayo

66

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

URSS y otros países. Se consiguió alcanzar, en un instante cortísimo, temperaturas de varios millones de grados En la naturaleza también existen temperaturas ultraaltas, pero no en la Tierra, sino en otros cuerpos del Universo En los centros de los estrellas y, en particular, en el centro del Sol, la temperatura alcanza decenas de millones de grados Las

regiones

superficiales

de

las

estrellas

tienen

una

temperatura

considerablemente más baja, que no supera los 20.000 °C. La superficie del Sol tiene una temperatura de hasta 6.000 °C. Teoría del gas ideal Las propiedades del gas ideal que nos ha proporcionado la definición de la temperatura, son muy sencillas. A temperatura constante se cumple la ley de BoyleMariotte: en los cambios de volumen o de presión, el producto pV permanece constante. Siendo constante la presión, el cociente V/T se mantiene inalterable, varíe como quiera el volumen o la temperatura, es fácil unir estas dos leyes.

Figura 3.1 Está claro que la expresión pV/T se mantiene inalterable cuando es constante la temperatura, pero varían p y V; lo mismo ocurre cuando es constante la presión, Gentileza de Manuel Mayo

67

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

pero varían V y T. La expresión pV/T permanece constante no sólo cuando varía cualquier par, sino también cuando varían a la vez, las tres magnitudes, p, T y V. Como suele decirse, la ley pV/T = const, determina la ecuación del estado del gas ideal. El gas ideal se ha elegido como substancia del termómetro, porque sus propiedades están ligadas solamente con el movimiento (pero no con la interacción) de las moléculas. ¿Cuál es el carácter de la relación entre el movimiento de las moléculas y la temperatura? Para contestar a esta pregunta hay que hallar la relación entre la presión del gas y el movimiento de sus moléculas. En un recipiente esférico de radio r están contenidas N moléculas de gas (fig. 3.1). Examinemos una molécula cualquiera, por ejemplo, la que se mueve en el momento dado de izquierda a derecha a lo largo de una cuerda de longitud l. No prestemos atención al choque de las moléculas entre sí: tales encuentros no influyen en la presión. Llegando extremo del recipiente, la molécula choca contra la pared y con la misma velocidad (choque elástico) sale despedida en otra dirección. En el caso ideal, estos recorridos por el recipiente podrían continuar eternamente. Si v es la velocidad de la molécula, cada choque se efectúa cada l/v segundos, o sea, que cada molécula choca v/l veces un cada segundo. La lluvia continua de choques de N moléculas se funde en una fuerza única de presión. Do acuerdo con la ley de Newton, la fuerza es igual a la variación del impulso por unidad de tiempo. Designemos con ∆ la variación del impulso en cada choque. Esta variación ocurre v/l veces cada segundo. Por consiguiente, la aportación de fuerza de una molécula es de ∆v/l. En la figura 3.1 están construidos los vectores de los impulsos antes y después del golpe, y también el vector del incremento del impulso ∆. De la semejanza de los triángulos que se han formado en la construcción, se deduce que N/l = mv/r. La aportación de fuerza de una molécula toma la forma: mv2/r Como la longitud de la cuerda no ha entrado en la fórmula, queda claro que las moléculas que se mueven por cualquier cuerda, aportan una misma contribución a la fuerza. Claro que la variación del impulso en un choque oblicuo es menor, pero

Gentileza de Manuel Mayo

68

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

los choques, en este caso, también son más frecuentes. Los cálculos demuestran que ambos efectos se compensan exactamente. Como en la esfera hay N moléculas, la fuerza total será igual a

donde vmedia es la velocidad media de las moléculas. La presión p del gas, que es igual a la fuerza dividida por la superficie de la esfera 4πr2, será igual a:

donde V es el volumen de la esfera. Por lo tanto,

Esta ecuación fue deducida por primara vez por Daniel Bernoulli en el año 1738. De la ecuación del estado del gas ideal resultaba que pV = const T; de la ecuación deducida vemos que pV es proporcional a vmedia. Por lo tanto,

es decir, que la velocidad de las moléculas del gas ideal, es proporcional a la raíz cuadrada de la temperatura absoluta. Ley de Avogadro

Gentileza de Manuel Mayo

69

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Supongamos que una substancia representa una mezcla de moléculas distintas, ¿Existe alguna magnitud física que caracterice el movimiento y que sea igual para todas estas moléculas, por ejemplo, para el hidrógeno y el oxígeno a igual temperatura? La mecánica da la respuesta a esta pregunta. Se puede demostrar, que la energía cinética media del movimiento de traslación

es igual para todas las moléculas. Esto significa que, siendo conocida la temperatura, los cuadrados de las velocidades medias de las moléculas son inversamente proporcionales a la masa de las partículas:

Volvamos a examinar de nuevo la ecuación

Como en condiciones de temperaturas dadas, las magnitudes

son iguales para todos los gases, el número de moléculas N, contenido en un volumen dado a presión p y a temperatura T determinadas, es igual para todos los gases. Esta ley maravillosa fue enunciada por primera vez por Avogadro. ¿Cuántas moléculas hay en 1 cm3? Resulta que en 1 cm3 a 0 °C y 760 mm Hg hay 2,7 x 1019 moléculas. Este es un número colosal. Para poder apreciar lo grande que

Gentileza de Manuel Mayo

70

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

es, veamos un ejemplo. Supongamos que el gas sale de un recipiente pequeño de 1 cm3 de volumen con tal velocidad, que en cada segundo se escapa un millón de moléculas. Es fácil calcular que el recipiente se librará totalmente del gas dentro de un millón de años. La ley de Avogadro señala que, en condiciones dadas de presión y temperatura, la razón del número de moléculas al volumen que ocupan N/V, es una cantidad igual para todos los gases. Como la densidad de los gases ρ = N m/V, la razón de las densidades de los gases es igual a la razón de sus pesos moleculares:

Por esto, los pesos relativos de las moléculas se pueden determinar pesando simplemente las substancias gaseosas. Tales mediciones jugaron en su tiempo un gran papel en el desarrollo de la química. De la ley de Avogadro se deduce también que para un mol de cualquier sustancia que se encuentra en estado de gas ideal pV = kNAT, donde k es una constante universal (ésta lleva el nombre del relevante físico alemán Ludwig Boltzmann) igual a 1,38 x 10-16 ergios/K. El producto R = kNA se denomina constante universal de los gases. La ley del gas ideal, con frecuencia, se anota como pV = μRT, donde p. es la cantidad de sustancia expresada en moles. Esta ecuación se utiliza frecuentemente en la práctica. Velocidades de las moléculas La teoría enseña que a una misma temperatura, las energías cinéticas medias de las moléculas

son iguales.

Gentileza de Manuel Mayo

71

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Con nuestra definición de la temperatura, esta energía cinética media del movimiento de traslación de las moléculas del gas es proporcional a la temperatura absoluta. A base de la ecuación del gas ideal y la de Bernoulli hallamos:

La medición de la temperatura valiéndose de un termómetro lleno de gas ideal imparte a esta medida un sentido sencillo: la temperatura es proporcional al valor medio de la energía del movimiento de avance de las moléculas. Por cuanto vivimos en el espacio tridimensional, podemos decir, refiriéndose a un punto que se mueve arbitrariamente: este punto posee tres grados de libertad. En consecuencia, a un grado de libertad de una partícula en movimiento corresponde kT/2 de energía. Determinemos la velocidad media de las moléculas de oxígeno a la temperatura de la habitación, que en cifras redondas tomaremos por 27 °C = 300 K. El peso molecular del oxígeno es 32 y, la masa de una molécula de oxígeno es igual a 32/(6 x 1023) Un cálculo sencillo muestra que vmedia = 4,8 x 104 cm/s, o sea, cerca de 500 m/s. Con mucha más rapidez se mueven las moléculas de hidrógeno. Sus masas son 16 veces menores y sus velocidades son √16 = 4 veces mayores, o sea, que a la temperatura de la habitación, alcanzan unos 2 km/s. Calculemos con qué velocidad térmica se mueve una partícula pequeña que se ve por el microscopio. El microscopio ordinario da la posibilidad de ver una partícula de diámetro de 1 micrón (10-4 cm). Si la densidad es aproximadamente la unidad, la masa de tal partícula es de unos 5 x 10-13 g. Para su velocidad obtenemos alrededor de 0,5 cm/s. No es extraño que tal movimiento sea completamente perceptible. La velocidad del movimiento browniano de un granito de 0,1 g de masa es solamente de 10-6 cm/s. No es sorprendente que no veamos el movimiento browniano de tales partículas. Hemos hablado de las velocidades medias de las moléculas. Pero no todas las moléculas se mueven con velocidades iguales; una parte de las moléculas se mueve más de prisa y otra parte más despacio. Resulta que todo esto se puede calcular. Expongamos solamente los resultados. Gentileza de Manuel Mayo

72

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

A la temperatura de unos 15 °C, por ejemplo, la velocidad media de las moléculas del nitrógeno es igual a 500 m/s; el 50% de las moléculas se mueven con velocidades de 300 a 700 m/s. Solamente el 0.6 % de las moléculas se mueven con velocidades pequeñas, de 0 a 100 m/s. En el gas sólo hay 5,4 % de moléculas rápidas, con velocidades mayores de 1000 m/s (fig. 3.2). La base de cada columna en la figura está construida en el intervalo de velocidades del que se trata y el área es proporcional a la parte correspondiente de las moléculas cuyas velocidades se encuentran en este intervalo. Se puede calcular la distribución de las moléculas por los diversos valores de la energía del movimiento de traslación.

Figura 3.2

El número de moléculas, cuya energía supera la media en dos veces, es ya menor del 10%. La parte de moléculas más «enérgicas» se hace menor a medida que aumenta la energía. Así, las moléculas cuya energía es 4 veces mayor que la media, forman solamente un 0,7%; aquellas cuya energía es 8 veces mayor que la media, un 0,06 x 10-4 %, y las que su energía es 16 veces mayor que la media, un 2 x 10-8 %. La energía de las moléculas de oxígeno que se mueven con la velocidad de 11 km/s, es igual a 23 x 10-12 ergios. La energía media de la molécula, a la temperatura de la habitación, es igual solamente a 6 x 10-14 ergios. Por lo tanto, la energía de una «molécula de once kilómetros de velocidad» es, por lo menos, 500 veces mayor que

Gentileza de Manuel Mayo

73

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

la molécula de velocidad media. No es extraño, que el porcentaje de moléculas con velocidades mayores de 11 km/s, sea un número tan pequeño, que no puede uno ni figurárselo, del orden de 10-300. Pero, ¿por qué nos ha interesado la velocidad de 11 km/s? En el primer libro decíamos, que pueden vencer la fuerza de gravedad de la Tierra solamente los cuerpos que llevan esta velocidad. Esto significa que las moléculas que han subido a gran altura pueden perder el contacto con la Tierra y marcharse a hacer un recorrido interplanetario lejano; pero para esto, tienen que tener una velocidad de 11 km/s. Como vemos, el porcentaje de tales moléculas rápidas es tan insignificante, que no hay peligro de perder la atmósfera de la Tierra durante miles de millones de años. La velocidad de escape de la atmósfera depende extraordinariamente de la energía gravitatoria

. Si la energía cinética media es muchas veces menor que la

energía gravitación, el desprendimiento de la molécula es prácticamente imposible. En la superficie de la Luna, la energía gravitatoria es 20 veces menor, lo que para la energía de «escape» de la molécula de oxígeno ofrece el valor de 1,15 x 1012 ergios. Esto valor es superior que el valor de la energía cinética media de la molécula solamente en 20—25 veces. El porcentaje de moléculas que son capaces de separarse de la Luna es igual a 10-17. Esto ya no es lo mismo que 10300, y el cálculo muestra que el aire se escaparía ligeramente de la Luna al espacio interplanetario. No es extraño que en la Luna no haya atmósfera. Dilatación térmica Calentando un cuerpo, el movimiento de los átomos (moléculas) se hace más intenso. Estos comienzan a empujarse y a ocupar más sitio. Así se explica el hecho conocido de que, al calentarse los cuerpos sólidos, líquidos y gaseosos SE dilatan. Sobre

la

dilatación

térmica

de

los

gases

hay

poco

que

hablar,

pues

la

proporcionalidad de la temperatura al volumen del gas nos sirvió de base para la escala de temperaturas.

Gentileza de Manuel Mayo

74

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fórmula V= V0T/273 se ve que, a presión constante, el volumen del gas aumenta en 1/273 (o sea, en 0,0037) de su volumen a 0 °C, si se calienta en 1 °C (a esta ley la llaman, a voces, ley de Gay Lussac.) En condiciones ordinarias, o sea, a la temperatura ambiente y siendo normal la presión atmosférica, la dilatación de la mayoría de los líquidos es dos o tres veces menor que la de los gases. Ya hemos hablado más de una vez, sobre la particularidad de la dilatación del agua. Al calentarse desde 0 hasta 4 °C, el volumen del agua disminuye con la temperatura. Esta peculiaridad en la dilatación del agua juega un papel colosal en la vida de la Tierra. En otoño, a medida que se enfría el agua, las capas superiores frescas se hacen más densas y se sumergen en el fondo y su puesto lo ocupa el agua más caliente subyacente. Este reemplazamiento del agua se efectúa mientras su temperatura no alcance 4 °C. Después, con la disminución de la temperatura, las capas superiores dejan de comprimirse y, por consiguiente, acaban por hacerse menos pesadas y ya no se sumergen al fondo. A partir de esta temperatura, la capa superior, enfriándose lentamente, llega a cero grados y se hiela. Solamente esta particularidad del agua es la que pone freno a la congelación de los ríos hasta el fondo. Si, por casualidad, el agua perdiese esta peculiaridad admirable, no se necesitaría mucha fantasía para figurarse las consecuencias desastrosas que esto traería. La dilatación térmica de los cuerpos sólidos es notablemente menor que la de los líquidos; es centenares y millares de veces menor que la de los gases. En muchos casos, la dilatación térmica suele ser un obstáculo fastidioso. Así, la variación de las dimensiones de las piezas móviles del mecanismo del reloj con el cambio de la temperatura daría lugar a la alteración de la marcha del reloj, si para estas finas piezas no se emplease una aleación especial denominada invar (de la palabra invariante, que significa que no varía). El invar es un acero con gran contenido de níquel que se emplea mucho en la construcción de instrumentos. Una varilla de invar se alarga solamente en una millonésima parle de su longitud, al variar la temperatura en 1 °C.

Gentileza de Manuel Mayo

75

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Una dilatación térmica, al parecer, insignificante de los cuerpos sólidos puede acarrear serias consecuencias. No es fácil impedir la dilatación térmica de los cuerpos sólidos debido a su pequeña compresibilidad. Al calentar una varilla de acero en 1 °C, su longitud aumenta solamente en una cienmilésima parte, o sea, en una magnitud que no se ve a simple vista. Sin embargo, para impedir la dilatación y comprimir la varilla en una cienmilésima parto, se necesita una fuerza de 20 kgf por 1 cm2. ¡Y esto, solamente para destruir la acción de la elevación de la temperatura en 1 °C! Si no se tienen en cuenta las fuerzas de empuje que se crean debido a la dilatación térmica, éstas pueden producir roturas y catástrofes. Así, para evitar la acción de estas fuerzas, los raíles de la vía férrea se colocan con cierta holgura. Hay que tener presentes estas fuerzas, al tratar con vasijas de vidrio que se rajan con facilidad al calentarlas irregularmente. Por eso, en la práctica de laboratorio se usan vasijas de vidrio de cuarzo (el cuarzo fundido es el óxido de silicio que se halla en estado amorfo), que carecen de este defecto. Calentándolas igual, una barra de cobre se alarga en un milímetro, mientras que una de vidrio de cuarzo cambia su longitud en una magnitud que no se ve a simple vista, de 30—40 micrones. La dilatación del cuarzo es tan ínfima, que un recipiente de cuarzo calentado a unos cuantos centenares de grados se le puede echar al agua sin peligro. Capacidad calorífica Es natural que la energía interna del cuerpo dependa de su temperatura. Para calentarlo más, se necesita más energía. Para calentarlo de T1 a T2, hay que comunicar al cuerpo una energía Q, en forma de calor, igual a Q = C (T2 - T1)

Aquí, C es un coeficiente de proporcionalidad que se llama capacidad calorífica del cuerpo. De la fórmula se deduce la definición del concepto de capacidad calorífica: C es la cantidad de calor necesaria para elevar la temperatura en 1 °C. La misma capacidad calorífica depende de la temperatura: el calentamiento de 0 a 1 °C, o de 100 a 101 °C, necesita diferentes cantidades de calor. Gentileza de Manuel Mayo

76

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En general, los valores de C se refieren a la unidad de masa y se llaman capacidades caloríficas específicas. En este caso, éstas se indican con la letra minúscula c. La cantidad de calor que se invierte en el calentamiento de un cuerpo de masa m viene dada por la fórmula: Q = mc (T2 – T1). En adelante emplearemos el concepto de capacidad calorífica específica, pero, para abreviar, diremos simplemente calor específico. Siempre será punto de referencia complementario la dimensión de la magnitud. Los valores de los calores específicos varían en unos límites bastante amplios. Naturalmente, el calor específico del agua en calorías por grado es igual a 1, por definición. La mayoría de los cuerpos tienen un calor específico menor que el del agua. Así, la mayoría de los aceites, de los alcoholes y otros líquidos, tienen un calor específico de cerca de 0,5 cal/(g-K). El cuarzo, el vidrio, la arena tienen un calor específico de unos 0,2. El calor específico del hierro y del cobre es, aproximadamente, de 0,1 cal/(g-K). He aquí algunos ejemplos del calor específico de ciertos gases: el del hidrógeno, 3,4 cal/(g-K), el del aire, 0,24 cal/(g-K). Por regla general, el calor específico de todos los cuerpos disminuye con la disminución de la temperatura y, para la mayoría de los cuerpos, a temperaturas próximas al cero absoluto, toma valores insignificantes. Así, el calor específico del cobre, a la temperatura de 20 K, es igual solamente a 0,0035; esto es 24 veces menor que a la temperatura ambiente. El conocimiento de los calores específicos es muy útil para la solución de diversos problemas sobre la distribución del calor entre los cuerpos. La diferencia entre el calor específico del agua y del terreno es una de las causas que determinan la diferencia entre el clima marítimo y continental. Teniendo, aproximadamente, cinco veces más calor específico que el terreno, el agua lentamente se calienta, y del mismo modo, lentamente se enfría.

Gentileza de Manuel Mayo

77

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En el verano, el agua, en las regiones litorales, calentándose más despacio que la tierra, enfría el aire; en el invierno, el mar caliente se enfría lentamente y, cediendo calor al aire, suaviza el frío. Es fácil calcular que 1 m3 de agua de mar, enfriándose en 1 °C, calienta 3000 m3 de aire en 1 °C. Por eso, en las regiones del litoral, las oscilaciones de la temperatura y la diferencia entre la temperatura del invierno y del verano no son tan considerables como en las continentales. Conductibilidad térmica Cada objeto puede servir de «puente» por el que pasa el calor del cuerpo más caliente al menos caliente. Tal puente es, por ejemplo, la cucharita del té sumergida en el vaso con té caliente. Los objetos metálicos conducen bien el calor. El extremo de la cucharita sumergida en el vaso se calienta al cabo de un segundo. Si hay que revolver alguna mezcla caliente, el mango del objeto tiene que ser de madera o de plástico. Estos cuerpos sólidos conducen el calor 1000 veces peor que los metales. Decimos que «conducen el calor», pero con el mismo éxito podíamos decir que «conducen el frío». Claro que las propiedades del cuerpo no se alteran porque el flujo del calor vaya en tal o cual sentido. En los días de mucho frío, tenemos cuidado de no tocar en calle, un objeto metálico con la mano desnuda, pero sin miedo cogemos un mango de madera. Son malos conductores del calor, llamados también aisladores del calor, la madera, el ladrillo, el vidrio, los plásticos. Con estos materiales se hacen las paredes de las casas, de los hornos y de los frigoríficos. Son buenos conductores todos los metales. Los mejores conductores son el cobre y la plata: éstos conducen el calor dos veces mejor que el hierro. Claro que no sólo los cuerpos sólidos pueden servir de «puentes» para conducir el calor. Los líquidos también conducen el calor, pero mucho peor que los metales. En conductibilidad del calor, los metales superan a los cuerpos no metálicos sólidos y líquidos en centenares de veces. Para

demostrar

la

mala

conductibilidad

del

agua,

se

realiza

el

siguiente

experimento. En el fondo de una probeta con agua se fija un trozo de hielo, y la parte superior de la probeta se calienta con un mechero de gas; el agua empezará a

Gentileza de Manuel Mayo

78

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

hervir, mientras que el hielo ni siquiera se derrite. Si la probeta fuese de metal y estuviese sin agua, el trozo de hielo comenzaría a derretirse casi inmediatamente. El agua conduce el calor, aproximadamente, doscientas veces peor que el cobre. Los gases conducen el calor decenas de veces peor que los cuerpos no metálicos. La conductibilidad térmica del aire es 20 000 veces menor que la del cobre. La mala conductibilidad térmica de los gases da la posibilidad de coger con la mano un trozo de hielo seco, cuya temperatura es de -78 °C, y hasta tener en la palma de la mano una gota de nitrógeno líquido que tiene la temperatura de -196 °C. Si no se aprietan estos cuerpos fríos con los dedos, no habrá ninguna «quemadura». Esto se debe a que, al hervir enérgicamente, la gota de líquido o el trozo de cuerpo sólido se cubre de una «camisa de vapor» y la capa formada de gas sirve de aislador térmico. El estado esferoidal del liquido (así se llama un estado en que las gotas están envueltas por una capa de vapor) se forma en el caso en que el agua cae en una sartén muy caliente. Una gola de agua hirviendo que ha caído en la palma de la mano quema mucho, a pesar de que la diferencia de temperaturas entre el agua hirviendo y el cuerpo humano es menor que la diferencia de temperaturas de la mano del hombre y del aire líquido. Como la mano está más fría que la gota de agua hirviendo, el calor se escapa de la gota, la ebullición se termina y, como resultado, no se forma la camisa de vapor. Es fácil darse cuenta de que el mejor aislador del calor es el vacío. En el vacío no hay propagadores de calor y la conductibilidad térmica es mínima. Por consiguiente, si queremos crear una defensa del calor, resguardar el calor del frío o el frío del calor, lo mejor es construir una envoltura con paredes dobles y extraer el aire del espacio entre las paredes. Aquí nos encontrarnos con la siguiente circunstancia curiosa. Si, a medida que se enrarece el gas, se va observando la variación de la conductibilidad térmica, se nota que hasta el mismo momento en que la presión alcanza unos cuantos milímetros de la columna de mercurio, la conductibilidad térmica, prácticamente, no varía, y solamente al pasar al alto vacío se realizan nuestras esperanzas: la conductibilidad térmica disminuye bruscamente. ¿A qué es debido esto?

Gentileza de Manuel Mayo

79

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Para comprender esto hay que procurar representarse claramente en qué consiste el fenómeno de propagación del calor en el gas. La propagación del calor de un lugar caliente a otros fríos, se efectúa mediante una transmisión de la energía de cada molécula a la vecina. Se comprende que, generalmente, los choques de las moléculas rápidas con las lentas dan lugar a la aceleración de las moléculas que se mueven lentamente y a la retardación de las que se mueven con rapidez. Precisamente esto significa que el lugar caliente se enfría y el otro su calienta. ¿A qué conduce la disminución de la presión en la propagación del calor? Como la disminución de la presión da lugar a la disminución de la densidad, se reduce también el número de encuentros de las moléculas rápidas con las lentas, en los cuales se efectúa la transmisión de energía. Esto rebajaría la conductibilidad térmica. Sin embargo, por otra parte, la disminución de la presión da lugar al aumento de la longitud del recorrido libre de las moléculas que, de este modo, conducen el calor a grandes distancias, y esto contribuye, a su vez, al aumento de la conductibilidad térmica. Los cálculos muestran que ambos efectos se compensan, y la capacidad de conducción del calor no se altera durante cierto tiempo al extraer el aire. Así será hasta que el vacío se llaga tan considerable, que la longitud del recorrido se pueda comparar con la distancia entre las paredes del recipiente. Ahora, la disminución ulterior de la presión ya no puede alterar la longitud del recorrido de las moléculas, que se «mueven» entre las paredes; la reducción de la densidad no se «compensa» y la conductibilidad térmica disminuye con una rapidez que es proporcional a la presión, llegando hasta valores ínfimos al alcanzar el alto vacío. La construcción del termo está basada en la aplicación del vacío. Los termos están muy difundidos y se emplean, no sólo para conservar los alimentos fríos y calientes, sino también para las necesidades de la ciencia y de la técnica. En este caso llevan el nombre de su inventor, denominándose vasos de Dewar. En estos vasos se transporta el aire, el nitrógeno y el oxígeno líquidos. Más adelante explicaremos de qué modo se obtienen estos gases en estado líquido2. 2 Quien haya visto los balones de los termos, habrá observado que siempre tienen un baño de plata. ¿Por qué? Esto se debe a que la conductibilidad térmica de que hablábamos, no es la única forma de propagación del calor. Existe también otra forma de propagación llamada radiación, de la que se tratará en otro libro. En condiciones ordinarias,

Gentileza de Manuel Mayo

80

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Convección Pero si el agua es tan mal conductor del calor, ¿cómo se calienta en la tetera? El aire conduce peor el calor; entonces, no se comprende por qué, en invierno, en todas las parles de la habitación se establece una misma temperatura. El agua hierve rápidamente en la tetera a causa de la gravitación terrestre. Las capas inferiores del agua, calentándose, se dilatan, se hacen más ligeras y se elevan, y a su sitio afluye agua fría. El calentamiento rápido se efectúa a causa de la convección (ésta es una palabra latina que significa «mezclar»). No resulta fácil calentar el agua en la tetera situada en un cohete interplanetario. Sobre otro caso de convección del agua, sin mentar esta palabra, ya habíamos hablado antes, explicando por qué los ríos no se hielan hasta el fondo. ¿Por qué las baterías de la calefacción central se colocan cerca del suelo, mientras que las ventanillas se ponen en la parte superior de la ventana? Posiblemente sería más cómodo abrir la ventanilla si ésta estuviera abajo y, para que las baterías no molestasen, no estaría mal colocarlas bajo el techo. Si atendiésemos a estos consejos, observaríamos pronto que la habitación no se calentaría con las baterías y que no se ventilaría con la ventanilla abierta. Con el aire en la habitación ocurre lo mismo que con el agua en la tetera. Cuando se conecta la batería de la calefacción central, el aire de las capas inferiores de la habitación comienza a calentarse. Este se expande, se hace más ligero y se eleva hacia el techo. A su lugar afluyen capas más pesadas de aire frío. Calentándose, éstas se marchan hacia el techo. De este modo, en la habitación se crea una corriente continua de aire: el aire caliente va de abajo hacia arriba, y el frío, de arriba hacia abajo. Abriendo la ventanilla en invierno, dejamos entrar en la habitación al flujo del aire frío. Este es más pesado que el de la habitación y tiende hacia ahajo, desplazando al aire caliente, que se eleva hacia arriba y se escapa por la ventanilla. El quinqué arde bien solamente cuando está cubierto de un cristal alto. No hay que creer que el vidrio se necesita sólo para proteger la llama del viento. Incluso cuando hace un tiempo tranquilo, la claridad de la luz aumenta inmediatamente en cuanto ésta es más débil que la conductibilidad térmica, pero, de todos modos, es bastante perceptible. El baño de plata en las paredes del termo sirve para debilitar la radiación. Gentileza de Manuel Mayo

81

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

se coloca el cristal sobre el quinqué. El papel del cristal consiste en que éste acrecienta el flujo del aire hacía la llama, crea el tiro. Esto es debido a que el aire que está dentro del cristal, escaso de oxígeno, gastado en la combustión, se calienta rápidamente y

se

escapa hacia arriba, mientras que

a

su

sitio,

introduciéndose por los orificios hechos en la mecha del quinqué, afluye el aire limpio frío. El quinqué arderá mejor cuanto más alto sea el cristal. En efecto, la rapidez con que afluyo el aire frío a la mecha depende de la diferencia de los pesos de la columna de aire caliente que está dentro del quinqué y del aire frío que está fuera de él. Cuanto más alta sea la columna de aire, tanto mayor será esta diferencia de pesos, y con ello, la rapidez del intercambio. Por eso, las chimeneas de las fábricas las hacen altas. Para los fogones de las fábricas, hace falta que haya una afluencia muy intensa de aire, que haya buen tiro. Esto se consigue con las chimeneas altas. La ausencia de convección en un cohete privado de gravedad, impide la utilización de las cerillas, el empleo del quinqué y de los mecheros de gas, los productos de la combustión ahogan la llama. El aire es un mal conductor; con su ayuda se puede conservar el calor, pero con una condición, si se evita la convección, el intercambio del aire caliente y frío, que reduce a la nada las propiedades de aislamiento térmico del aire. La eliminación de la convección se consigue aplicando diversas especies de cuerpos porosos y fibrosos. Dentro de estos cuerpos el aire se mueve con dificultad. Todos los cuerpos semejantes a éstos son buenos aisladores del calor gracias a la propiedad de retener una capa de aire. La conductibilidad de las mismas substancias fibrosas o de las paredes de los poros puede no ser muy pequeña. Es bueno el abrigo de una piel espesa que contiene gran cantidad de fibras; el edredón permite preparar sacos de dormir calientes, que pesan menos de medio kilo, debido a la finura extraordinaria de sus fibras. Medio kilo de este plumón puede «retener» tanto aire, como una decena de kilogramos de guata. Para disminuir la convección se emplean marcos dobles en las ventanas. El aire contenido entre los cristales no participa en la circulación de las capas de aire de la habitación.

Gentileza de Manuel Mayo

82

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Y viceversa, todo movimiento de aire acrecienta el intercambio y aumenta la transmisión del calor. Precisamente por esto, cuando nos hace falta que el calor se marche cuanto antes, nos abanicamos o conectamos el ventilador. Por eso, donde sopla el viento, hace más frío. Pero, si la temperatura del aire es más alta que la de nuestro cuerpo, el intercambio da lugar a un resultado inverso y el viento se siente como una respiración caliente. El problema de la caldera de vapor consiste en obtener, con la mayor rapidez posible, vapor caliente o la temperatura necesaria. Para esto no es suficiente la convección natural en el campo de gravedad. Por eso, la creación de una circulación intensa del agua y del vapor, que dé lugar al intercambio de las capas calientes y frías, es uno de los problemas fundamentales en la construcción de las calderas de vapor.

Gentileza de Manuel Mayo

83

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 4 Estados de la substancia

Contenido: •

Vapor de hierro y aire sólido



Ebullición



Dependencia de la temperatura de ebullición de la presión



Evaporación



Temperatura crítica



Obtención de bajas temperaturas



Vapor sobrecongelado y líquido sobrecalentado



Fusión



Cómo cultivar un cristal



Influencia de la presión en la temperatura de la fusión



Evaporación de los cuerpos sólidos



Punto triple



Unos mismos átomos, pero diferentes cristales



Un líquido extraordinario

Vapor de hierro y aire sólido ¿Verdad que es muy extraña esta combinación de palabras? Sin embargo, esto no es una tontería; el vapor de hierro y el aire solido existen en la naturaleza, pero no en las condiciones ordinarias. ¿De qué condiciones se trata? El estado de la substancia se determina por dos circunstancias por la temperatura y por la presión. Nuestra vida transcurre en condiciones relativamente poco variables. La presión del aire oscila entre los limites de un pequeño tanto por ciento, alrededor del valor de una atmósfera (1 kgf/cm2); por ejemplo, la temperatura del aire en Moscú, varía en el intervalo de -30 °C hasta +30 °C; en la escala absoluta de temperaturas, era la

Gentileza de Manuel Mayo

84

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

que por cero se ha tornado la temperatura más baja posible (-273 °C), este intervalo tiene un aspecto menos imponente: 240-300 K, que también forma solamente ±10% de la magnitud media. Naturalmente, estamos acostumbrados a estas condiciones ordinarias y, por eso, expresando las perogrulladas como: el hierro es un cuerpo sólido, el aire es uno gaseoso, nos olvidamos de agregar: «en condiciones normales». Calentando el hierro, primeramente se funde y después se evapora Si se enfría el aire, primero se convierte en líquido y luego se solidifica, Es probable que hasta el lector que no haya visto nunca el vapor de hierro y el aire sólido, nos creerá sin ningún reparo, ya que, cambiando la temperatura, se puede obtener el estado sólido, líquido y gaseoso, o como también suele decirse la fase sólida, liquida o gaseosa de cualquier substancia. Creer en esto es fácil, porque hay una substancia sin la cual la vida en la Tierra sería imposible, que todos la han observado en forma de gas, de líquido y de cuerpo sólido. Se trata, naturalmente, del agua. Pero, ¿en qué condiciones se efectúan las transformaciones de la substancia de un estado a otro?

Ebullición Si se sumerge el termómetro en el agua que está en la tetera, se conecta el hornillo eléctrico y se observa el comportamiento del mercurio en el termómetro, se verá lo siguiente: el nivel del mercurio inmediatamente sube. Ya llega a los 90, a los 95, y, por fin, a los 100 °C. El agua empieza a hervir y, a la vez, acaba el ascenso del mercurio. Ya hierve el agua muchos minutos, pero el nivel del mercurio no varía. Hasta que no se evapore todo el agua, la temperatura no se alterará (fig. 4.1). ¿En qué se gasta el calor, si la temperatura del agua no varía? La contestación es evidente, ya que el proceso de transformación del agua en vapor necesita energía.

Gentileza de Manuel Mayo

85

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Comparemos la energía de un gramo de agua y de un gramo del vapor que se ha formado de olla. Las moléculas del vapor están situadas más lejos una de otra que las moléculas de agua. Se comprende, por esto, que la energía potencial del agua se va a diferenciar de la energía potencial del vapor. La energía potencial de las partículas que se atraen disminuye a medida que se acercan. Por eso, la energía del vapor es mayor que la del agua y la transformación del agua en vapor necesita energía. Este exceso de energía es la que transmite el hornillo eléctrico al agua que hierve en la tetera.

Figura 4.1

La energía que se necesita para convertir el agua en vapor se llama calor de vaporización. Para convertir 1 g de agua en vapor se necesitan 530 cal (para la temperatura de 100 ° C). Si se necesitan 539 cal para 1 g, para 1 molécula-gramo de agua se gastarán 18 x 539 = 9700 cal. Esta cantidad de calor hay que gastarla para romper las ligazones entre las moléculas. Gentileza de Manuel Mayo

86

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Se puede comparar este número con la magnitud del trabajo que se necesita para romper las ligazones intermoleculares. Para disociar en átomos una molécula-gramo de vapor de agua se necesitan cerca de 220.000 cal, o sea, una energía 25 veces mayor. Esto demuestra claramente la debilidad de las fuerzas que unen las moléculas unas con otras, en comparación con las fuerzas que mantienen unidos los átomos en la molécula.

Dependencia de la temperatura de ebullición de la presión La temperatura de ebullición del agua es igual a 100 °C; puede creerse que ésta es una propiedad inmanente del agua, que en las condiciones que esté, el agua siempre hervirá a 100 °C. Pero esto no es así, y esto lo saben perfectamente los que viven en los pueblos situados a alturas considerables sobre el nivel del mar. Cerca del vértice del Elbruz hay una casita para los turistas y una estación científica. A veces, los que la visitan por primera vez, se extrañan de lo «difícil que es cocer un huevo en el agua hirviendo», o «por qué el agua hirviendo no quema». En estos casos se les indica que el agua hierve en el vértice del Elbruz a los 82 °C. ¿Qué es lo que ocurre? ¿Qué factor físico se inmiscuye en el fenómeno de la ebullición? ¿Qué importancia tiene la altura sobre el nivel del mar? Este factor físico es la presión que actúa sobre la superficie del líquido. No hay que subir a la cumbre de la montaña para comprobar que lo dicho es cierto. Colocando bajo una campana el agua que se calienta e introduciendo o extrayendo el aire de ella, puede convencerse uno de que la temperatura de ebullición sube al aumentar la presión y baja al disminuir. El agua hierve a 100 °C solamente a una presión determinada: de 760 mm Hg (o 1 atm).

Gentileza de Manuel Mayo

87

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fig. 4.2 se muestra la curva de la temperatura de ebullición en dependencia de la presión. En la cumbre del Elbruz, la presión es igual a 0,5 atm; a esta presión corresponde la temperatura de ebullición de 82 °C.

Figura 4.2

Con agua que hierve a 10 - 15 mm Hg se puede refrescar uno en un día de calor. A esta presión, la temperatura de ebullición baja hasta 10 - 15 °C. Se puede obtener también «agua hirviendo» que tenga la temperatura del agua que se congela. Para eso, habrá que bajar la presión hasta 4,6 mm Hg. Se puede observar un cuadro muy interesante, si se coloca bajo una campana un recipiente abierto con agua y se extrae el aire. La extracción obliga al agua a hervir, pero la ebullición necesita calor. Como no hay de dónde tomarlo, el agua no tiene más remedio que ceder su energía. La temperatura del agua hirviendo empieza a bajar, pero como continúa la extracción, baja también la presión. Por lo tanto, la ebullición no se detiene, a pesar de que el agua continúa enfriándose, Llegando, al fin y al cabo, a congelarse. No sólo al extraer el aire se efectúa esta ebullición del agua fría. Por ejemplo, al girar la hélice de mi barco, disminuye con rapidez la presión de la capa de agua que se mueve ligeramente cerca de la superficie metálica y, en esta capa, el agua

Gentileza de Manuel Mayo

88

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

hierve, es decir, se forma en ella una cantidad numerosa de burbujas llenas de vapor. Este fenómeno se llama cavitación (de la palabra latina cavilas que quiere decir cavidad). Bajando la presión, baja la temperatura de ebullición. ¿Y elevándola? Una gráfica, semejante a la nuestra, responde así a esta pregunta: la presión de 15 atm puede detener la ebullición del agua, ésta empieza sólo a los 200 °C; la presión de 80 atm obliga al agua a hervir solamente a los 200 °C. Resumiendo, a una presión exterior determinada corresponde una temperatura determinada de ebullición. Pero esta afirmación se puede invertirse, diciendo: a cada temperatura de ebullición del agua corresponde una presión determinada. Esta presión se llama elasticidad del vapor o presión del vapor. Le curva que representa la temperatura de ebullición en dependencia de la presión, es, al mismo tiempo, la curva de elasticidad del vapor en dependencia de la temperatura. Los números marcados en el diagrama de la temperatura de ebullición (o en el diagrama da la elasticidad del vapor) muestran que la elasticidad del vapor varía muy bruscamente con la alteración de la temperatura. A 0 °C (o sea, a 273 K) la elasticidad del vapores igual a 4,6 mm Hg; a 100 °C (373 K), es igual a 760 mm Hg; es decir, aumenta en 165 veces. Al elevar la temperatura haciéndola dos veces mayor (desde 0 °C es decir, 273 K, hasta 273 °C, es decir, 546 K), la elasticidad del vapor aumenta desde 4.6 mm Hg casi hasta 60 atm, o sea, aproximadamente, en 10.000 veces. Por el contrario, la temperatura de ebullición varía con la presión con bastante lentitud. Al doblar la presión, elevándola desde 0,5 atm hasta 1 atm, la temperatura de ebullición aumenta desde 82 °C (o sea, 355 K) hasta 100 °C (o sea, 373 K) y, al doblarla otra vez, elevándola desde 1 atm hasta 2 atm esta temperatura aumenta desde 100 °C (o sea, 373 K) hasta 120 °C (o sea, 393 K). La misma curva que ahora examinamos es la que regula la transformación del vapor en agua.

Gentileza de Manuel Mayo

89

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Se puede convertir el vapor en agua, bien por compresión, bien por enfriamiento. Tanto en la ebullición como en el proceso de la condensación, el punto no se mueve de la curva basta que no termina por completo la transformación del vapor en agua o del agua en vapor. Este también puede enunciar así: en las condiciones de nuestra curva, y sólo en estas condiciones, pueden coexistir el líquido y el vapor. Si, en este caso, no se comunica y no se quita calor, las cantidades de vapor y de líquido en el recipiente cerrado se mantienen inalterables. Se dice que este vapor y líquido están en equilibrio, y se llama saturado el vapor que está en equilibrio con su líquido. Como vemos, la curva de ebullición y condensación tiene también otro significado: es la curva de equilibrio del líquido y del vapor. La curva de equilibrio divide el campo del diagrama en dos partes. A la izquierda y arriba (hacia mayores temperaturas y menores presiones) está situada la región estable del vapor .A la derecha y abajo, la región estable del líquido. La curva de equilibrio del vapor-líquido, o sea, la curva de dependencia de la temperatura de ebullición de la presión, o, la que es lo mismo, de la elasticidad del vapor de la temperatura, es aproximadamente igual para todos los líquidos. En unos casos, la alteración puede ser un poco más brusco, en otros, un poco más lenta, pero la elasticidad del vapor siempre crece rápidamente con el aumento de la temperatura. Ya hemos empleado muchas veces las palabras «gas» y «vapor». Estas dos palabras son bastante equivalentes. Se puede decir: el gas acuoso es el vapor de agua, el gas de oxígeno es el vapor del líquido de oxígeno. A pesar de todo, al utilizar estas dos palabras, se ha establecido una costumbre. Como estamos acostumbrados a un intervalo de temperaturas determinado y relativamente pequeño, la palabra «gas» la empleamos generalmente para las substancias, cuya elasticidad del vapor, a temperaturas ordinarias, es mayor que la presión atmosférica. Por el contrario, hablamos de vapor, cuando, a la temperatura de la habitación y a la presión atmosférica, la substancia es más estable en forma de líquido.

Gentileza de Manuel Mayo

90

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Evaporación La ebullición es un proceso rápido, y en corto tiempo no queda ni huella del agua hirviendo, pues se convierte en vapor. Pero existe también otro fenómeno de transformación del agua u otro líquido en vapor, éste es el de evaporación. La evaporación se efectúa a cualquier temperatura, independientemente de la presión, que en condiciones ordinarias siempre es de unos 760 mm Hg. La evaporación, a diferencia de la ebullición, es un proceso muy lento. El frasco de colonia que nos olvidamos de tapar, queda vacío al cabo de unos días; más tiempo se mantendrá el agua en un plato, pero tarde o temprano, éste también quedara seco. En el proceso de evaporación juega un gran papel el aire. Este, de por sí, no molesta a la evaporación del agua. En cuanto abrimos la superficie del líquido, las moléculas de agua empiezan a pasar a la capa más cercana de aire. La densidad del vapor empieza a crecer en esta capa; dentro de poco tiempo, la presión del vapor se hace igual a la elasticidad, característica para la temperatura del medio ambiental. Con esto, la elasticidad del vapor será exactamente igual que cuando no haya aire. Claro que el paso del vapor al aire no quiere decir que aumente la presión. La presión total en el espacio sobre la superficie acuática no aumenta, solamente se eleva la parte de esta presión que forma el vapor y, respectivamente, disminuye la parte de aire que es desalojada por el vapor. Sobre el agua hay vapor mezclado con aire; más arriba están las capas de aire sin vapor. Estas, inevitablemente, se mezclan. El vapor de agua irá subiendo continuamente a las capas más altas y, a su sitio, a la capa inferior, afluirá el aire que no contiene moléculas de agua. Por eso, en la capa más cercana al agua, se irán librando todo el tiempo sitios para nuevas moléculas de agua. El agua se evaporará continuamente, manteniendo la presión del vapor de agua en la superficie, igual a la de la elasticidad, y el proceso continuará basta que no llegue evaporarse toda el agua. Gentileza de Manuel Mayo

91

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Hemos comenzado con el ejemplo de la colonia y el agua. Bien se sabe que estos cuerpos se evaporan con rapidez distinta. Exclusivamente volátil es el éter; con bastante rapidez se evapora el alcohol, y mucho más lentamente, el agua. En seguida comprenderemos de qué se trata, si hallamos en una guía los valores de elasticidad de estos líquidos, por ejemplo, a la temperatura de la habitación. He aquí estos valores: para el éter, 437 mm Hg; para el alcohol, 44,5 mm Hg, y para el agua, 17,5 mm Hg. Cuanto mayor sea la elasticidad, tanto más vapor habrá en la capa contigua de aire y con tanta mayor rapidez se evaporará el líquido. Ya sabemos que la elasticidad del vapor crece con el aumento de la temperatura. Es comprensible por qué aumenta la velocidad de la evaporación con el calentamiento. También se puede influir en la velocidad de evaporación de otro modo. Si queremos facilitar la evaporación, tenemos que separar más rápidamente tal vapor del líquido, es decir, tenemos que acelerar la mezcla del aire. Precisamente por esto, soplando, se acelera mucho la evaporación. El agua se disipa con bastante rapidez si se pone el plato al viento, a pesar de que posee, relativamente, poca elasticidad de vapor. Es comprensible por esto, por qué siente frío en el viento el nadador que acaba de salir del agua. El viento acelera la mezcla del aire con el vapor y, por lo tanto, acelera la evaporación; el cuerpo del hombre está obligado a entregar su calor para la evaporación. Una persona se siente mejor o peor, según que en el aire haya más o menor vapores de agua. El aire seco, así como el aire húmedo, son desagradables. La humedad se considera normal, cuando es igual a 60%. Esto significa que la densidad del vapor de agua forma el 60% de la densidad del vapor de agua saturado a la misma temperatura. Si se va enfriando el aire, la presión de los vapores de agua, al fin y al cabo, se hace igual a la elasticidad del vapor a esta temperatura. El vapor se satura y al continuar bajando la temperatura empezará a condensarse en agua. El rocío de la mañana que humedece la hierba y las hojas, aparece precisamente gracias a este fenómeno.

Gentileza de Manuel Mayo

92

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La densidad de los vapores saturados de agua a 20 °C es aproximadamente de 0,00002 g/cm3. Nosotros nos sentiremos bien, si los vapores de agua en el aire forman el 60% de esto número, que es, por consiguiente, un poco más de una cienmilésima parte de gramo en 1 cm3. A pesar de que este número es pequeño, para una habitación esto representa cantidades respetables de agua. No es difícil calcular, que en una habitación de 12 m2 de área y de 3 m de altura, puede «caber» cerca de un kilogramo de agua en forma de vapor saturado. Por lo tanto, si tal habitación se cerrase herméticamente, y se pusiese una barrica abierta de agua, la evaporación sería de un litro de agua, sea cual fuere la capacidad de la barrica. Es interesante comparar este resultado para el agua con los datos correspondientes para el mercurio. A la misma temperatura de 20 °C, la densidad del vapor saturado de mercurio es de 10-8 g/cm3. En la habitación que acabamos de citar, no habría más de 1 g de mercurio. A propósito, los vapores de mercurio son muy venenosos y 1 g de estos vapores puede perjudicar seriamente la salud de cualquier persona. Trabajando con mercurio hay que procurar que no se vierta ni siquiera la más pequeña gota.

Temperatura crítica ¿Cómo convertir el gas en líquido? El diagrama de la ebullición responde a esta pregunta. Se puede convertir el gas en líquido, bien disminuyendo la temperatura, bien aumentando la presión. En el siglo XIX, el aumento de la presión suponía un problema más fácil que la disminución de la temperatura. A comienzos de este siglo, el célebre físico inglés Michael Faraday, logró comprimir los gases hasta los valores de elasticidad de los vapores y, de este modo, consiguió convertir en líquido muchos gases (el cloro, el gas carbónico, etc.).

Gentileza de Manuel Mayo

93

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Sin embargo, no se conseguía comprimir algunos gases, como el hidrógeno, el nitrógeno y el oxígeno. Por mucho que se aumentara la presión, no se convertían en líquido. Era obvio creer que el oxígeno y otros gases no podían licuarse y los llamaron gases verdaderos o constantes. En realidad, los fracasos eran debidos a la incomprensión de una circunstancia importante. Examinemos el líquido y el vapor en estado de equilibrio y reflexionemos sobre lo que ocurrirá con ellos al aumentar la temperatura de ebullición y, naturalmente, al crecer la presión correspondiente. Mejor dicho, figurémonos que en el diagrama de la ebullición, el punto se mueve hacia arriba a lo largo de la curva. Está claro que al elevarse la temperatura, el líquido se dilata y su densidad disminuye. En lo que se refiere al vapor, es natural que, al aumentar la temperatura de ebullición, se facilite su expansión, pero como ya dijimos, la presión del vapor saturado crece con mucha mayor rapidez que la temperatura de ebullición. Por eso, no disminuye la densidad del vapor, sino que, por el contrario, crece rápidamente con el aumento de la temperatura de ebullición. Como la densidad del líquido disminuye, mientras que la densidad del vapor aumenta, moviéndose hacia «arriba» por la curva de ebullición, inevitablemente llegaremos a tal punto, en el que se igualen las densidades del líquido y del vapor (fig. 4.3). En

este

punto

extraordinario,

llamado

crítico,

se

interrumpe

la

curva

de

evaporación. Como todas las diferencias entre un gas y un líquido están ligadas a la diferencia de densidad, las propiedades de este líquido y este gas son iguales en el punto crítico. Cada substancia tiene su temperatura crítica y su presión critica. Así, para el agua, el punto crítico corresponde a la temperatura de 374 °C y a la presión de 218,5 atm. Si se comprime un gas, cuya temperatura es menor que la crítica, el proceso de compresión se representará con una flecha que corta la curva de ebullición (fig. 4.4).

Gentileza de Manuel Mayo

94

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Esto significa que en el momento en que la presión se haga igual a la elasticidad del vapor (punto de intersección de la flecha con la curva de ebullición), el gas comenzará a convertirse en líquido.

Figuras 4.3 y 4.4

Si nuestro recipiente fuese transparente, en esto momento veríamos el comienzo de la formación de la capa de líquido en el fondo del recipiente. Siendo constante la presión, la capa de líquido creciendo hasta que, por fin, se convierta todo el gas en líquido. Para la compresión ulterior, se necesita de un aumento de la presión. Otra cosa completamente distinta ocurre al comprimir el gas, cuya temperatura es mayor que la crítica. El proceso de compresión se puede representar de nuevo en forma de una flecha que va de abajo hacia arriba. Pero ahora, esta flecha no se corta con la curva de ebullición. Por lo tanto, al comprimirse, el gas no se condensa, sino que se va haciendo continuamente más compacto. A la temperatura por encima a la crítica, es imposible la existencia de líquido y gas separados por la interfase. Al comprimir hasta cualquier densidad, bajo el émbolo habrá una substancia homogénea y será difícil decir cuándo se la puede llamar gas y cuándo líquido.

Gentileza de Manuel Mayo

95

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La existencia del punto crítico muestra que, en principio, no hay ninguna diferencia entro el estado líquido y el gaseoso. A primera vista podría creerse que tal diferencia en principio existe solamente en el caso cuando se trata de temperaturas mayores que la crítica. Sin embargo, esto no es así. La existencia del punto crítico señala la posibilidad de convertir el líquido, el verdadero líquido que se puede verter en un vaso, en gas, sin recurrir a nada semejante a la ebullición. Este camino de transformación se muestra en la fig. 4.4. Con una cruz se señala el líquido verdadero. Si se rebaja un poco la presión (la flecha hacia abajo), hervirá; también hervirá si se eleva un poco la temperatura (la flecha hacia la derecha). Pero nosotros obraremos de otro modo. Comprimiremos fuertemente el líquido hasta una presión mayor que la crítica. El punto que representa el estado líquido subirá verticalmente. Después calentaremos el líquido: este proceso se representará por una línea horizontal. Ahora, después de hallarnos a la derecha de la temperatura critica, bajamos la presión hasta el valor inicial. Si se disminuye ahora la temperatura, se puede obtener verdadero vapor, que se podía haber obtenido de este líquido de un modo más simple y breve. Por consiguiente, cambiando la presión y la temperatura, evitando el punto crítico, siempre se puede obtener vapor mediante un paso continuo del líquido, o bien, líquido a partir del vapor. Para tal paso continuo no se necesita de ebullición ni condensación. Las primeras pruebas de licuación de los gases, como el oxígeno, el nitrógeno, el hidrógeno no tuvieron éxito, porque no se conocía la existencia de la temperatura crítica. Las temperaturas críticas de estos gases son muy bajas: la del nitrógeno es de -147 °C: la del oxígeno, de -119 °C; la del hidrógeno, de -240 °C, o bien, 33 K. El helio bate el récord, su temperatura crítica es igual a 4,3 K. Convertir estos gases en líquido se puede solamente de un modo: haciendo descender las temperaturas más abajo de las indicadas.

Obtención de bajas temperaturas

Gentileza de Manuel Mayo

96

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

De diversos modos se puede conseguir una disminución esencial de la temperatura. Pero la idea de todos estos métodos es la misma: hay que obligar al cuerpo que queremos enfriar a gastar su energía interna. ¿Cómo hacer esto? Uno de los métodos consiste en hacer hervir el líquido sin comunicarle calor del exterior. Como ya sabemos, para eso, hay que disminuir la presión, reducirla al valor de la elasticidad del vapor. El calor que se consume en la ebullición va a ser extraído del líquido, y la temperatura del líquido y del vapor, y junto con ella la elasticidad del vapor, irán disminuyendo. Por eso, para que no cese la ebullición y se efectúe con mayor rapidez, hay que aspirar continuamente el aire del recipiente en que está el líquido. Sin embargo, este proceso de rebajamiento de la temperatura tiene un límite: la elasticidad del vapor se reduce, al fin y al cabo, a un valor insignificante, y la presión necesaria no la pueden crear incluso las bombas aspirantes más potentes. Para continuar el decrecimiento de la temperatura se puede enfriar el gas con el líquido obtenido y convertirlo en líquido con una temperatura de ebullición más baja. Ahora se puede repetir el proceso de aspiración con la segunda substancia y, de este modo, obtener temperaturas más bajas. En caso de necesidad, se puede alargar este método de «cascada» para la obtención de temperaturas bajas. Precisamente de este modo obraron al fin del siglo pasado (siglo XIX); la licuación de los gases lo efectuaban por escalones: transformaban sucesivamente en líquido el etileno, oxígeno, nitrógeno, hidrógeno, que son substancias con temperaturas de ebullición de -103, -183, -196 y -253 °C. Disponiendo de hidrógeno líquido, se puede obtener el líquido de ebullición más baja, el helio (-269 °C). El vecino de la «izquierda» ayudaba a obtener el vecino de la «derecha». El método de enfriamiento de cascada tiene cerca de cien años. Con este método, en el año 1877 se obtuvo el aire líquido. En los años 1884-1885 fue obtenido por primera vez el hidrógeno líquido. Por fin, veinte años después, se tomó la última fortaleza: en el año 1908, en la ciudad holandesa Leyden, Kamerlingh-Onnes convirtió en líquido el helio, que es la substancia de temperatura crítica más baja.

Gentileza de Manuel Mayo

97

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

No hace mucho que se celebró el 70 aniversario de este importante descubrimiento científico. Durante muchos años el laboratorio de Leyden era el único laboratorio de «temperaturas bajas». Ahora en todos los países existen decenas de tales laboratorios, sin contar las fábricas que producen aire líquido para fines técnicos. El método de cascadas de obtención de bajas temperaturas se emplea actualmente poco. En las instalaciones técnicas, para bajar la temperatura, se emplea otro método de disminución de la energía interna del gas: se hace que el gas se expanda rápidamente y que efectúe trabajo a cuenta de la energía interna. Si, por ejemplo, se dirige el aire, comprimido hasta unas cuantas atmósferas, hacia el expansor, al efectuar el trabajo de desplazamiento del émbolo o de rotación de la turbina, el aire se enfría tan bruscamente, que se convierte en líquido. Si se despide rápidamente el gas carbónico de un balón, resulta un enfriamiento tan repentino, que inmediatamente se convierte en «hielo». Los gases líquidos se emplean ampliamente en la técnica. El oxígeno líquido se usa en la técnica de las explosiones, como componente de la mezcla combustible en los motores cohete. La licuación del aire se emplea en la técnica para la separación de los gases que componen el aire, de lo cual se hablará más abajo. La temperatura del aire líquido se usa ampliamente en diversas ramas de la técnica. Pero para muchas investigaciones físicas, esta temperatura no es suficientemente baja. En efecto, si se traducen los grados de Celsius a la escala absoluta, se ve que la temperatura del aire líquido es, aproximadamente, 1/3 de la temperatura de la habitación. Mayor interés para los físicos tienen las temperaturas de «hidrógenos», o sea, las temperaturas de unos 14-20 K y, particularmente, las temperaturas de los «helios». La temperatura más baja que se obtiene al extraer el belio líquido es de 0,7 K. Los físicos consiguieron acercarse mucho más al cero absoluto. Actualmente se han obtenido temperaturas que se acercan al cero absoluto en unas cuantas milésimas

Gentileza de Manuel Mayo

98

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de grado. Sin embargo, estas temperaturas superbajas se obtienen con métodos que no se parecen a los que hemos descrito anteriormente. En los últimos años la física de bajas temperaturas dio origen a una rama especial de la industria ocupada en la producción de aparatos que permiten mantener a una temperatura próxima a cero absoluto grandes volúmenes; se han elaborado cables de fuerzas cuyas barras conductoras de corriente trabajan a una temperatura inferior a 10 K.

Vapor sobrecongelado y líquido sobrecalentado Al pasar la temperatura de ebullición, el vapor tiene que condensarse, convertirse en líquido. Sin embargo, resulta que, si el vapor no está en contacto con el líquido, y si el vapor es muy limpio, se puede obtener vapor sobrecongelado o sobresaturado, o sea, vapor que ya hace tiempo que tenía que ser líquido. El vapor sobresaturado es muy inestable. A veces, es suficiente un golpe o un granito lanzado al espacio ocupado por el vapor para que comience inmediatamente la condensación retardada. El experimento muestra que la condensación de las moléculas de vapor puede facilitarse bruscamente, introduciendo pequeñas partículas extrañas en el vapor. En el aire polvoriento no se efectúa la sobresaturación del vapor de agua. Se puede provocar la condensación con una nube de humo, pues éste se compone de pequeñas partículas sólidas. Cayendo en el vapor, estas partículas reúnen a su alrededor las moléculas, se convierten en centros de condensación. Así pues, aunque en estado inestable, el vapor puede existir en las regiones de temperaturas adecuadas para la «vida» del líquido. ¿Puede «vivir» el líquido, en estas mismas condiciones, en las regiones de vapor? O bien, de otro modo, ¿se puede sobrecalentar el líquido? Resulta que se puede. Para esto hay que conseguir que no se separen las moléculas del líquido de su superficie. Un medio radical consiste en liquidar la superficie libre, es decir, colocar el líquido en un recipiente tal, en donde esté comprimido por todas Gentileza de Manuel Mayo

99

Preparado por Patricio Barros

Física para Todos II– Moléculas

las

partes

por

paredes

www.librosmaravillosos.com

sólidas.

De

este

L. D. Landau y A. I. Kitaigorodski

modo,

se

consigue

alcanzar

el

sobrecalentamiento de unos cuantos grados, o sea, llevar hacia la derecha de la curva de ebullición el punto que representa el estado del líquido (fig. 4.4). Sobrecalentamiento es el desplazamiento del líquido a la región del vapor; por eso, el sobrecalentamiento del líquido se puede conseguir, bien comunicando calor, bien disminuyendo la presión. Con el último método se puede lograr un resultado extraordinario. El agua u otro líquido, escrupulosamente liberado de los gases disueltos (esto no es fácil conseguir), se vierte en mi recipiente con un émbolo que esté en contacto con la superficie del líquido. El recipiente y el émbolo tienen que mojarse con el líquido. Si ahora se tira del embolo, el agua, adherida al fondo del émbolo, seguirá tras él. Pero la capa de agua adherida al émbolo arrastrará a la siguiente capa de agua, esta capa a la que está debajo y, como resultado, el líquido se dilatará. Al fin y al cabo la columna de agua se romperá (precisamente la columna de agua se desprenderá del émbolo), mas esto ocurrirá cuando la fuerza sobre una unidad de superficie alcance decenas de kilogramos. Dicho de otro modo, en el líquido se crea una presión negativa de decenas de atmósferas. Ya a pequeñas presiones positivas el estado de vapor de la substancia es estable. Pero se puede hacer que el líquido tenga presión negativa. Un ejemplo más claro de «sobrecalentamiento» es difícil aducir.

Fusión No hay cuerpo sólido que pueda aguantar cuanto se quiera el aumento de la temperatura. Tarde o temprano, el trozo sólido se convierte en líquido; cierto es que, en algunos casos, no logramos alcanzar la temperatura de fusión, pues puede producirse una reacción química. A

medida

que

aumenta

la

temperatura,

las

moléculas

se

mueven

más

intensamente. Por fin, llega un momento en que resulta imposible poner orden entre las moléculas que oscilan intensamente. El cuerpo sólido se funde. La

Gentileza de Manuel Mayo

100

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

temperatura más alta de fusión la tiene el wolframio: 3380 °C. El oro se funde a 1063 °C, el hierro a 1539 °C. Desde luego, hay metales que se funden fácilmente. Como bien se sabe, el mercurio se funde ya a la temperatura de -39 °C. Las substancias orgánicas no tienen temperaturas altas de fusión. La naftalina se funde a 80 °C y el tolueno a -4.5 °C. Es muy fácil medir le temperatura de fusión de un cuerpo, y, particularmente, si se funde en el intervalo de temperaturas que se miden con el termómetro ordinario. No es necesario estar mirando atentamente al cuerpo que se funde. Es suficiente mirar a la columna de mercurio del termómetro (fig. 4.5). Mientras no ha comenzado la fusión, la temperatura del cuerpo se eleva. En cuanto empieza la fusión, cesa el aumento de la temperatura y ésta se mantiene inalterable hasta que no termine por completo el proceso de fusión. Igual que la transformación del líquido en vapor, la transformación del cuerpo sólido en líquido necesita calor. La cantidad de calor que hace falta para esto, se llama calor latente de fusión. Por ejemplo, la fusión de un kilogramo de hielo necesita 80 calorías grandes. El hielo es uno de los cuerpos que tienen un calor mayor de fusión. La fusión del hielo necesita, por ejemplo, 10 veces más de energía que la fusión de una masa igual de plomo.

Gentileza de Manuel Mayo

101

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.5

Naturalmente, se trata de la misma fusión y no se tiene en cuenta que hasta el comienzo de la fusión del plomo hay que calentarlo basta +327 °C. Precisamente, porque el calor de fusión del hielo es grande, se retarda el deshielo de la nieve. Figúrese que el calor de fusión fuese 10 veces menor. Entonces, los deshielos de primavera darían lugar cada año a desastres que no se puede uno imaginar. Así, el calor de fusión del hielo es muy grande, pero éste incluso es pequeño (siete veces menor), si se compara con el valor de vaporización, que es de 540 calorías grandes por kilogramo. Desde llego, esta diferencia es completamente natural. Convirtiendo el líquido en vapor, deberemos que separar las moléculas unas de otras, mientras que en la fusión, solamente tenemos que destruir el orden en la posición de los moléculas, manteniéndolas casi a los mismas distancias, Está claro que en el segundo caso se necesitará menos trabajo. Un síntoma importante de las substancias cristalinas es la existencia de un punto determinado de fusión. Precisamente por este síntoma se las diferencia fácilmente de otros cuerpos sólidos, llamados amorfos o vidrios. Los vidrios se encuentran

Gentileza de Manuel Mayo

102

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

tanto entre las substancias orgánicas como entre las inorgánicas. Los cristales de las ventanas se hacen generalmente de silicatos de sodio y calcio. Sobre los escritorios, frecuentemente, se pone un vidrio orgánico (llamado también plexiglás). En contraposición a los cristales, las substancias amorfas no tienen una temperatura de fusión determinada. El vidrio no se funde, sino que se ablanda. Al calentar un trozo de vidrio, en primer término de duro se convierte en blando y fácilmente se le puede doblar o alargar; a una temperatura mucho más alta, el trozo empieza a cambiar su forma bajo la acción de su propio peso. A medida que se va calentando, la masa espesa viscosa del vidrio va tomando la forma del recipiente en donde se halla esta pasta, primero es espesa como la miel, después, como la crema agria y, por fin, se convierte en un líquido casi tan poco viscoso como el agua. Por mucho que se quiera, no se puede señalar aquí una temperatura determinada del paso del cuerpo sólido al estado líquido. Las causas de esto estriban en la diferencia radical entre la estructura del vidrio y la de los cuerpos cristalinos. Como ya se dijo anteriormente,

los

átomos

de

los

cuerpos

amorfos

están

situados

desordenadamente. Por su estructura, los vidrios se parecen a los líquidos. En el vidrio sólido las moléculas están situadas desordenadamente. Por lo tanto, el aumento de la temperatura del vidrio solamente acrecienta la amplitud de las vibraciones de sus moléculas, facilitándoles, paulatinamente, una libertad cada vez mayor de traslación. Por eso, el vidrio se ablanda lentamente y no muestra un paso brusco «sólido» —«líquido», que es característico para el paso del estado del orden riguroso de las moléculas a la posición desordenada. Cuando hablábamos de la curva de ebullición, dijimos que, aunque en estado inestable, el líquido y el vapor pueden existir en regiones extrañas: el vapor se puede sobrecongelar y trasladar a la izquierda de la curva de ebullición, el líquido se puede sobrecalentar y trasladarlo a la derecha de la misma curva. ¿Son posibles fenómenos análogos con respecto al cristal con líquido? Resulta que aquí la analogía no es completa. Si se calienta un cristal, éste empieza a fundirse a su temperatura de fusión. Sobrecalentar el cristal no se puede. Por el contrario, enfriando el líquido, y tomando ciertas medidas, se puede «pasar más allá» de le temperatura de fusión Gentileza de Manuel Mayo

103

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

con

En

una

facilidad

relativa.

algunos

líquidos

L. D. Landau y A. I. Kitaigorodski

se

logra

alcanzar

grandes

sobrefusiones. Hay también líquidos que son fáciles de sobrefundir, pero que cristalizan con dificultad. A medida que se enfría tal líquido, se hace más y más viscoso y, por fin, se solidifica sin cristalizarse, como el vidrio. También se puede sobrefundir el agua. Las gotas de la niebla pueden no congelarse, incluso durante las heladas más fuertes. Si en el líquido sobrefundido se lanza un cristalito de substancia, germen, inmediatamente comienza la cristalización. Por fin, en muchos casos, la cristalización retardada puede comenzar a causa de una agitación o de otros acontecimientos casuales. Es sabido, por ejemplo, que la glicerina cristalina fue obtenida por primera vez al transportarla por vía férrea. Los vidrios pueden cristalizarse después de estar mucho tiempo en reposo.

Cómo cultivar un cristal Casi cualquier sustancia a determinadas condiciones puede producir cristales. Los cristales pueden obtenerse a partir de la solución o de la masa fundida de la sustancia dada, así como a partir de su vapor (por ejemplo, los negros cristales romboidales de yodo precipitan fácilmente de su vapor a presión normal, sin transición intermedia al estado líquido). Comience a disolver en agua sal común o azúcar. A temperatura ambiente (20 °C) usted podrá disolver en un vaso tallado tan sólo 70 g de sal. Si sigue añadiendo sal estas cantidades suplementarias no se disolverán y se depositarán en el fondo en forma de sedimento. Una solución en la que ya no tiene lugar el proceso de la subsiguiente disolución se denomina, saturada. Si la temperatura cambia, también cambia el grado de solubilidad de la sustancia. Todo el mundo conoce bien que el agua caliente disuelve mucho mejor la mayoría de las sustancias que el agua fría. Ahora figúrese que usted ha preparado una solución saturada, digamos, de azúcar, a la temperatura de 30 °C, y comienza .a enfriarla hasta 20 °C. A 30 °C usted pude disolver en 100 g de agua 223 g de azúcar, y a 20 °C se disuelven 205 g. En este caso, al enfriar desde 30 hasta 20 °C, 18 g resultarán «sobrantes» y, como se dice,

Gentileza de Manuel Mayo

104

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

precipitarán a partir de la solución. De este modo, uno de los posibles procedimientos de obtención de cristales consiste en el enfriamiento de la solución saturada. También se puede proceder de otra forma. Prepárese una solución saturada de sal y déjela en un vaso sin tapa. Al cabo de cierto tiempo usted descubrirá la aparición de cristales pequeños. ¿Por qué éstos se han formado? Una observación atenta demostrara que, simultáneamente con la formación de los cristales se ha operado un cambio más: ha disminuido la cantidad de agua. El agua se ha evaporado y en la solución resulta encontrarse un «exceso» de sustancia. De este modo, otro procedimiento posible de formación de cristales es la evaporación de la solución. Entonces, ¿de qué modo transcurre la formación de cristales a partir de la solución? Hemos dicho que los cristales «precipitan» de la solución; ¿es que esta afirmación debe entenderse de tal manera como si durante una semana no hubiese habido ningún cristal, mas, en un instante determinado, éste, de pronto, surgiera? No, los acontecimientos se desarrollan de otra manera: los cristales crecen. Por supuesto, no se consigue captar a simple vista el mismo momento inicial del crecimiento. Al principio, pocos de les átomos o moléculas de la sustancia disuelta que se encuentran

en

movimiento

desordenado

se

acumulan

manteniéndose

aproximadamente en el orden que se necesita para formar la red cristalina. Semejante, grupo de átomos o moléculas se denomina germen (o núcleo). La experiencia demuestra que les gérmenes se forman con mayor frecuencia si en la solución se contienen algunas pequeñísimas partículas extrañas. La cristalización comienza con la mayor rapidez y facilidad cuando en la solución saturada se introduce un pequeño cristal-cebo. En este caso, la separación a partir de la solución de la sustancia sólida consistirá no en la formación de nuevos cristales, sino en el crecimiento del cebo.

Gentileza de Manuel Mayo

105

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El crecimiento del germen no se diferencia, claro está, del nacimiento del cubo. La razón de utilizar el cebo radica en que éste «arrastra» hacia sí la sustancia que se separa, impidiendo de este modo la formación simultánea de un gran número de gérmenes. Ahora bien, si se forma una gran cantidad de gérmenes, éstos se estorbarán unos a otros durante el crecimiento y no permitirán obtener cristales grandes. ¿Cómo se distribuyen en la superficie del germen las porciones de átomos o moléculas que se separan de la solución? La experiencia demuestra que el crecimiento del germen o del cebo parece como si consistiera en la traslación de las caras paralelamente a sí mismas, en la dirección perpendicular a la cara. Además, los ángulos entre las caras quedan constantes (ya sabemos que la constancia de los ángulos es la característica importantísima del cristal que deriva de su estructura reticular).

Figura 4.6

En la fig. 4.6 se representan los contornos existentes de tres cristales de una misma sustancia durante su crecimiento. Semejantes cuadros se pueden observar bajo el microscopio. En el caso mostrado a la izquierda el número de caras durante el

Gentileza de Manuel Mayo

106

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

crecimiento se conserva. El dibujo en el centro ofrece el ejemplo de aparición de una nueva cara (arriba a la derecha) y, otra vez, su desaparición. Es muy importante señalar que la velocidad de crecimiento de las caras, es decir, la velocidad de su traslación paralelamente a sí mismas, es desigual para diferentes caras. En este caso se «recubren» (desaparecen) precisamente aquellas caras cuya traslación resulta ser la más rápida, por ejemplo, la cara izquierda inferior en el dibujo del centro. Por el contrario, las caras que crecen lentamente llegan a ser las más anchas, o, como se suele decir, las más desarrolladas. Con especial nitidez este hecho se puede observar en el último dibujo. Precisamente debido a la anisotropía en la velocidad del crecimiento, un fragmento informe adquiere la misma forma que otros cristales. Las caras totalmente determinadas se desarrollan, a costa de otras, con máxima intensidad, comunicando al cristal la forma inherente a todas las muestras de esta sustancia. Unas formas transitorias muy hermosas se observan en el caso de que se tome como cebo una esfera, y la solución, alternativamente, se enfría y se calienta un poco. Durante el calentamiento la solución se torna no saturada, de modo que tiene lugar la disolución parcial del cebo. En cambio, el enfriamiento da lugar a la saturación de la solución y al crecimiento del cebo. Pero, en este caso, las moléculas se sedimentan ya de otra manera, como si diesen su preferencia a algunos puntos, de este modo, la sustancia se transfiere de unos puntos de la esfera a otros. Primeramente, en la superficie de la esfera aparecen pequeñas caras en forma de circulitos. Los circulitos, paulatinamente, aumentan en tamaño y, al entrar en contacto recíproco, confluyen por las aristas rectas.

Gentileza de Manuel Mayo

107

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.7

La esfera se transforma en un poliedro. Más tarde, unas caras adelantan a otras, una parte de caras se «recubre» y el cristal adquiere la forma que le es propia (fig. 4.7). Cuando

se

observa

el

crecimiento

de

los

cristales

sorprende

la

principal

particularidad de este crecimiento: la traslación paralela de las caras. Resulta que la sustancia que precipita construye las caras por capas: mientras una capa no está acabada, la construcción de la siguiente no se iniciará.

Gentileza de Manuel Mayo

108

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.8

En la fig. 4.8 se representa un empaquetamiento «no acabado» de átomos. ¿En la cuál de las posiciones designadas con letras se mantendrá de la forma más sólida el nuevo átomo que se adhiere al cristal? Sin duda, en la posición A, por cuanto aquí el átomo experimenta la atracción de los vecinos por tres lados, mientras que en B, por dos lados, y en C, solamente por un lado. Esta es la razón de que, en primer lugar, finaliza la construcción de la columna, seguidamente, todo el plano y tan sólo después comienza el llenado de un nuevo plano. En una serie de casos los cristales se forman a partir de una masa fundida. En la naturaleza dicho fenómeno se realiza a enorme escala: los basaltos, los granitos y otras muchas rocas nacieron del magma ígneo. Comencemos a calentar alguna sustancia cristalina, por ejemplo, la sal gema. Hasta 804 °C los cristales de la sal gema se alterarán poco: solamente se ensanchan en un grado insignificante, mientras que la sustancia sigue manteniéndose sólida. El medidor de temperatura introducido en al recipiente con la sustancia indica que ésta se eleva ininterrumpidamente con el calentamiento. A 804 °C descubrirnos de una vez dos nuevos fenómenos relacionados entre sí: la sustancia empieza a fundir y la subida de la temperatura se detiene. La temperatura no variará mientras toda la Gentileza de Manuel Mayo

109

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

sustancia no se haya transformado en líquido; el ascenso posterior de la temperatura corresponde ya al calentamiento del líquido. Todas las sustancias cristalinas tienen una temperatura determinada de fusión. El hielo funde a 0 °C; el hierro, a 1539 °C; el mercurio, a -30 °C, etc. Como ya conocemos, en cada cristal los átomos o las moléculas de la sustancia forman un empaquetamiento ordenado y realizan pequeñas oscilaciones en torno a sus posiciones medias. A medida que el cuerpo se calienta aumenta la velocidad de las partículas oscilantes junto con la amplitud de las oscilaciones. Este aumento de la velocidad del movimiento de las partículas en función del ascenso de la temperatura constituye una de las leyes fundamentales de la naturaleza que es aplicable a la sustancia cualquiera que sea el estado en que se encuentre: sólido, líquido o gaseoso. Cuando se haya alcanzado una temperatura determinada, lo suficientemente alta del cristal, las oscilaciones de sus partículas llegan a ser tan enérgicas que se hace imposible la disposición regular de éstas: el cristal funde. Con el comienzo de la fusión el calor suministrado se consume ya no para aumentar la velocidad de las partículas, sino para la destrucción de la red cristalina. Esta es la causa de que se detiene la elevación de la temperatura. El calentamiento posterior es ya el aumento de la velocidad de las partículas del líquido. En el caso que nos interesa, o sea, el de cristalización a partir de la masa fundida los fenómenos descritos con anterioridad se observan en sucesión inversa: a medida que el líquido va enfriándose sus partículas desaceleran su movimiento caótico: al alcanzar una temperatura determinada, lo suficientemente baja, la velocidad de las partículas es ya tan pequeña que algunas de éstas, por acción de las fuerzas de atracción, comienzan a juntarse unas a otras formando gérmenes cristalinos. Mientras la totalidad de la sustancia no haya cristalizado la temperatura sigue manteniéndose constante. Como regla, esta temperatura es la misma que la temperatura de fusión. Si no se toman medidas especiales, la cristalización a partir de la solución se inicia simultáneamente en muchos puntos. Los cristales crecerán era forma de poliedros regulares propios para dichos cristales, de modo completamente análogo a como lo Gentileza de Manuel Mayo

110

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

hemos descrito antes. Sin embargo, el crecimiento libre no se prolonga mucho tiempo: al aumentar su tamaño, los cristales comienzan a tropezar unos con otros, en los puntos de su contacto el crecimiento cesa y el cuerpo solidificado adquiere estructura granular. Cada grano no es sino un cristal aislado que no logra tomar su forma regular.

Figura 4.9

Un cuerpo sólido, en dependencia de muchas condiciones y, en primer lugar, de la velocidad de enfriamiento, puede poseer granos más o menos grandes. Cuanto más lento es et enfriamiento, tanto mayores son los granos. Las dimensiones de los granos de los cuerpos cristalinos oscilan desde una millonésima de centímetro hasta varios milímetros. En la mayoría de los casos la estructura cristalina granular puede observarse bajo el microscopio. Los cuerpos sólidos suelen tener precisamente semejante estructura microcristalina. Para la técnica, el proceso de solidificación de los metales reviste enorme interés. Los físicos han investigado con extraordinaria escrupulosidad los acontecimientos que se desarrollan durante la colada y la solidificación del metal en los moldes. Las más de las veces, durante la solidificación crecen pequeños monocristales arboriformes que llevan el nombre de dendritas. En algunos casos las dendritas están orientadas al azar, en otros, su orientación es paralela. Gentileza de Manuel Mayo

111

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la fig. 4.9 se ilustran las etapas de crecimiento de una dendrita. Con semejante comportamiento la dendrita puede desaparecer antes de encontrarse con otra análoga. Entonces, no hallaremos dendritas en el lingote. Los acontecimientos pueden desarrollarse de otra manera; las dendritas pueden encontrarse y en su crecimiento penetrar una en la otra (las ramas de una entrarán en los intervalos entre las ramas de la otra), mientras son «jóvenes». De este modo, pueden surgir lingotes cuyos granos (mostrados en la fig. 2.22) presentan la más variada estructura. Y del carácter de esta estructura dependen sustancialmente

las

propiedades

de

los

metales.

Es

posible

dirigir

el

comportamiento del metal durante la solidificación variando la velocidad del enfriamiento y el sistema de evacuación del calor. Ahora hablaremos de cómo cultivar un cristal solitario grande. Está claro que es necesario tomar medidas pertinentes para que el cristal crezca de un solo punto. Y si ya han empezado a crecer varios cristales, entonces, en todo caso, hay que proceder de tal modo que las condiciones de crecimiento sean favorables solamente para uno de éstos. He aquí cómo se procede a cultivar cristales de metales con bajo punto de fusión. El metal se funde en un tubo de ensayo de vidrio con un extremo alargado. Dicho tubo de ensayo suspendido de un hilo dentro de un horno vertical cilíndrico se deja bajar lentamente. El extremo alargado sale paulatinamente del horno y se enfría. Comienza la cristalización. Al principio se forman varios cristales pequeños, pero aquellos que crecen inclinados hacia un lado tropiezan con la pared del tubo de ensayo y su crecimiento se retarda. Solamente aquel cristal se encontrará en condiciones favorables que crece a lo largo del eje del tubo de ensayo, es decir, internándose en la masa fundida. A medida que el tubo de ensayo desciende, nuevas porciones de masa fundida que van a parar a la zona de temperaturas bajas «alimentarán» este único cristal. Esta es la causa de que el mismo sobrevive entre todos los demás cristales; a medida que el tubo de ensayo sigue descendiendo dicho cristal continúa Gentileza de Manuel Mayo

112

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

su crecimiento a lo largo del eje del tubo. Al fin y al cabo todo el metal fundido se solidifica en forma de cristal solitario. La misma idea constituyó la base para hacer crecer cristales de rubí con alto punto de fusión. El polvo fino de la sustancia se vierte a chorro a través de una llama. Con este proceder los aislados «polvitos» se funden; las minúsculas gotitas caen sobre un soporte refractario de base muy pequeña, formando numerosos cristales. Con la sucesiva caída de las gotitas sobre el soporte crecen todos los cristales, no obstante, otra vez, consuma su crecimiento tan sólo aquel cristal que se encuentra en posición más favorable para la «recepción» de las gotas caídas. Pero, ¿para qué se necesitan grandes cristales? Tanto la industria, como la ciencia requieren frecuentemente grandes cristales solitarios. Para la técnica tienen gran importancia Los cristales de sal de Seignette y de cuarzo que poseen la admirable propiedad de transformar acciones mecánicas (por ejemplo, la presión) en tensión eléctrica. La industria óptica necesita grandes cristales de calcita, sal gema, fluorita, etc. Para la industria relojera se requieren cristales de rubíes, zafiros y algunas otras piedras preciosas. Se trata de que distintas piezas móviles de un reloj ordinario realizan en una hora hasta de 20.000 oscilaciones. Esta carga colosal plantea requerimientos extraordinariamente altos a la calidad de las puntas de los ejes y cojinetes. El desgaste será mínimo, si en calidad de cojinete para la punta del eje de 0,07 a 0,15 mm de diámetro sirve un rubí o un zafiro. Los cristales artificiales de estas sustancias son sumamente resistentes y se desgastan muy poco por el acero. Es notorio el hecho de que las piedras artificiales en esto caso resultan ser mejor que las piedras naturales de la misma índole. Sin embargo, para la industria la mayor significación la tiene la obtención de los monocristales de los semiconductores: de silicio y de germanio.

Influencia de la presión en la temperatura de fusión

Gentileza de Manuel Mayo

113

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Si cambia la presión, se altera también la temperatura de fusión. Ya nos encontramos con tal ley cuando hablábamos de la ebullición. Cuanto mayor sea la presión, tanto mayor será La temperatura de ebullición. Por regla general, esto es cierto también para la fusión. Sin embargo, hay algunas substancias que se comportan de una manera anormal: sus temperaturas de fusión disminuyen con el aumento de la presión. La elevación de la temperatura de fusión con el aumento de la presión se debe a que la inmensa mayoría de los cuerpos sólidos son más densos que sus líquidos. Forman excepción de esta regla, precisamente, las substancias, cuyas temperaturas de fusión al cambiar la presión, varían de un modo extraordinario, como, por ejemplo, el agua. El hielo es más ligero que el agua y la temperatura de fusión del hielo disminuye al aumentar la presión. La compresión facilita la formación de un estado más denso. Si el cuerpo en estado sólido es más denso que en el líquido, la compresión ayuda a la solidificación y dificulta la fusión. Pero el hecho de que la compresión dificulte la fusión, significa que la substancia se mantiene sólida, mientras que antes, a esta temperatura, se habría fundido ya; o sea, que al aumentar la presión, crece la temperatura de fusión. En el caso anómalo, el líquido es más denso que el cuerpo sólido y la presión ayuda a la formación del líquido, o sea, rebaja la temperatura de fusión. La influencia de la presión en la temperatura de fusión es mucho menor que el efecto análogo de la ebullición. El aumento de la presión en más de 100 kgf/cm2 disminuye la temperatura de fusión del hielo en 1 °C. ¿Por qué, entonces, los patines deslizan tan sólo por el hielo y no por el parquet igual de liso? Por lo visto, la única explicación reside en que se forma agua que lubrifica el patín. Para comprender la contradicción surgida hay que recordar lo siguiente: los patines embotados deslizan muy mal por el hielo. Para que los patines corten el hielo es necesario afilarlos. En este caso el hielo presiona solamente el filo del borde del patín. Las presiones ejercidas sobre el hielo alcanzan decenas de miles de atmósferas y el hielo, a pesar de todo, se funde.

Gentileza de Manuel Mayo

114

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Evaporación de los cuerpos sólidos Cuando se dice que «la substancia se evapora», generalmente se supone que se evapora el líquido. Pero los cuerpos sólidos también pueden evaporarse. La evaporación de los cuerpos sólidos se llama sublimación. La naftalina, por ejemplo, es un cuerpo sólido que se evapora. La naftalina se funde a los 80 °C y se evapora a la temperatura de la habitación. Precisamente esta propiedad de la naftalina permite usarla para la exterminación de las polillas. Un abrigo de piel en el que se ha echado naftalina, se empapa con los vapores de la naftalina y crea una atmósfera que la polilla no puede soportar. Toda substancia sólida olorosa se sublima de modo considerable, pues el olor lo llevan las moléculas que se han separado de la substancia y que han alcanzado nuestra nariz. Sin embargo, son más frecuentes los casos en que la substancia se sublima en grado insignificante, y, a veces, tan insignificante, que no se puede percibir ni siquiera con experimentos muy escrupulosos. En principio, cualquier substancia sólida se evapora (literalmente cualquiera, hasta el hierro o el cobre). Si no observamos la sublimación es porque la densidad del vapor saturado es muy insignificante. Es posible convencerse que una serie de substancias que dan fuerte olor a la temperatura ambiente, lo pierden a la temperatura baja.

Gentileza de Manuel Mayo

115

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.10

La densidad del vapor saturado que está en equilibrio con el cuerpo sólido crece rápidamente con el aumento de la temperatura, lo que ilustra la curva para el hielo mostrada en la fig. 4.10. La verdad es que el hielo no tiene olor. En la mayoría de los casos no se puede aumentar esencialmente la densidad del vapor saturado del cuerpo sólido por la simple razón de que la sustancia se funde antes. El hielo también se evapora. Esto lo saben bien las amas de casa que en las heladas cuelgan la ropa húmeda a secar. Primero se hiela el agua y luego se evapora el hielo, con la que la ropa queda seca.

Punto triple Así, pues, existen condiciones en las que el vapor, el líquido y el cristal, pueden estar en equilibrio a pares. ¿Pueden estar en equilibrio todos los tres estados?

Gentileza de Manuel Mayo

116

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Tal punto existe en el diagrama presión-temperatura: se llama punto triple. ¿Dónde está este punto? Si en un recipiente cerrado se vierte agua a cero grados junto con hielo fundido, en el espacio libre empezará a formarse vapores de agua (y de «hielo»). A la presión de 4,6 mm Hg, le evaporación se termina y empieza la saturación. Ahora, las tres fases, el hielo, el agua y el vapor, se encuentran en estado de equilibrio. Este es el punto triple. El diagrama para el agua, representado en la fig. 4.11, muestre palpablemente y con claridad la correlación entre los diferentes estados. Tal diagrama se puede construir para cualquier cuerpo. Ya conocemos les curvas del dibujo: son las curvas de equilibrio entre el hielo y el vapor; entre el hielo y el agua, y entre el agua y el vapor. Como de ordinario, en el eje vertical se indica la presión y en el horizontal, la temperatura. Las tres curvas se cortan en el ponto triple y dividen el diagrama en tres regiones, que son los espacios de existencia del hielo, del agua y del vapor de agua. El diagrama de estado es un guía breve. El objetivo consiste en contestar a la pregunta, qué, estado del cuerpo es estable a tal presión y a tal temperatura. Si el agua o el vapor se ponen en las condiciones de la «región de la izquierda», éstos se convierten en hielo. Si se introduce en la «región inferior» un cuerpo líquido o sólido, este se evapora. En le «región de la derecha», al vapor se condensa y el hielo se funde.

Gentileza de Manuel Mayo

117

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.11

El diagrama de estado de las fases permite explicar directamente que ocurriría con la substancia al calentarle o al comprimirla. El calentamiento a presión constante se representa en el diagrama mediante una línea horizontal. El punto que representa el estado del cuerpo se mueve de izquierda a derecha por esta línea. En la figura están representadas dos líneas de éstas, una de las cuales representa el calentamiento a presión normal. La línea está situada por encima del punto triple. Por este, ésta corta, primero, la curva de fusión y, después, fuera del dibujo, la curva de evaporación. El hielo, a presión normal, se funde a la temperatura de 0 °C, y al agua formada hierve a 100 °C. Otra cosa ocurre con el hielo que se calienta a presión bastante baja, por ejemplo, un poca menor de 5 mm Hg. El proceso de calentamiento se representa por una línea que va por debajo del punto triple. Las curvas de fusión y de ebullición no se cortan con esta línea. A tan insignificante presión, el calentamiento da lugar al paso directo del hielo a vapor.

Gentileza de Manuel Mayo

118

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.12

En la fig. 4.12 este mismo diagrama muestra el fenómeno interesante que ocurrirá al comprimir el vapor de agua en el estado que está marcado en el dibujo con una cruz. Primero, el vapor de agua se convierte en hielo, y luego, se funde. El dibujo permite averiguar inmediatamente la presión a que empieza el crecimiento del cristal y el momento en que se efectúa la fusión. Los diagramas de estado de todas las substancias se parecen unos a otros. Desde el punto de vista de la vida cotidiana, surgen grandes diferencias a causa de que el lugar dando está el punto triple en el diagrama puede ser muy diferente para diversas substancias. Las condiciones en que nosotros vivimos son próximas a las «normales», o sea, a una presión es cerca de una atmósfera. Para nosotros, es muy importante saber dónde está situado el punto triple de la substancia con respecto a la línea de la presión normal.

Gentileza de Manuel Mayo

119

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Si en el punto triple la presión es menor que la atmosférica, para nosotros, que vivimos en condiciones «normales», la substancia es de las que se funden. Al elevar la temperatura, primero se convierte ese líquido y, después, hierve. En el caso contrario, cuando la presión en el punto triple es mayor que la atmosférica, al calentarla, veremos la fase líquida, el cuerpo sólido se convertirá directamente en vapor. Así se comporta el «hielo seco», que es muy cómodo para los vendedores de helados. Los helados se pueden colocar entre trozos de «hielo seco», sin tener miedo a que se moje el helado. El «hielo seco» es el gas carbónico CO2 sólido, El punto triple de esta substancia está situado a 73 atm. Por eso, al calentar el sólido CO2, el punto que representa su estado se mueve por la horizontal que corta solamente a la curva de evaporación del cuerpo sólido (igual que para el hielo ordinario a la presión de unos 5 mm Hg). Ya hemos contado al lector de qué manera se determina un grado de temperatura por la escala de Kelvin, o bien —como requiere ahora decir el sistema SI— un kelvin. Sin embargo, se trataba del principio de determinación de la temperatura. No todos los institutos de metrología disponen de termómetros de gas ideales. Por esa razón, la escala de la temperatura se construye recurriendo a la ayuda de los puntos —fijados por la naturaleza— de equilibrio entre los distintos estados de la materia. Un papel especial, en esto caso, pertenece al punto triple del agua. El grado Kelvin se define actualmente como una 273.16 parte de la temperatura termodinámica del punto triple del agua. El punto triple del oxígeno se adopta igual a 54,361 K. La temperatura de solidificación del oro se admite igual a 1337,58 K. Valiéndose de estos puntos de referencia se puede graduar con precisión cualquier termómetro.

Unos mismos átomos, pero diferentes cristales El grafito negro mate y blando con el que escribirnos y el brillante y transparente diamante sólido, que corta los cristales de las ventanas, se componen de unos mismos átomos: de átomos de carbono. ¿Por qué son, entonces, tan diferentes las propiedades de estas dos substancias de igual composición? Gentileza de Manuel Mayo

120

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Recuerden la malla del grafito de capas, cada átomo del cual tiene tres vecinos próximos, y la malla del diamante, cuyo átomo tiene cuatro vecinos próximos. En esta ejemplo se ve con claridad cómo se determinan las propiedades de los cristales por la posición relativa de los átomos. Con el grafito hacen crisoles refractarios que aguantan una temperatura de dos mil a tres mil grados, mientras que el diamante arde a la temperatura mayor que 700 °C: el peso específico del diamante es 3,5 y del grafito, 2.3: el grafito es conductor de la corriente eléctrica, mientras que el diamante no lo es, etc. No sólo el carbono posee esta particularidad de formar diferentes cristales. Casi cada elemento químico, y no solo los elementos, sino cualquier sustancia química, puedo existir en unas cuantas variedades. Se conocen seis variedades de hielo, nueve variedades de azufre, cuatro variedades de hierro. Al estudiar el diagrama de estado, no dijimos nada sobre los diversos tipos de cristales y representamos una región única del cuerpo sólido. Esta región, para muchas substancias, se divide en dominios, cada uno de los cuales corresponde a una determinada especie de cuerpo sólido o, como suele decirse, a una determinada fase sólida (una modificación cristalina determinada). Cada fase cristalina tiene su región de estado de equilibrio, limitado por un intervalo determinado de presiones y temperaturas. Las leyes de transformación de una variedad cristalina en otra son iguales que las leyes de fusión y evaporación. Para cada presión se puede señalar la temperatura en que ambos cristales pueden coexistir pacíficamente. Aumentando la temperatura, el cristal de una especie se convierte en cristal de otra especie. Disminuyendo la temperatura, se efectúa la transformación inversa. Para que el azufre rojo se convierta en amarillo a presión normal, se necesita una temperatura inferior a 110 °C. Por encima de esta temperatura, hasta el punto de fusión, el orden de colocación de los átomos, que es propio para el azufre rojo, está en equilibrio. Bajando la temperatura, disminuyen las vibraciones de los átomos, y, comenzando desde 110 °C, la misma naturaleza halla un orden cómodo para colocarlos. Se efectúa la transformación de en cristal en otro.

Gentileza de Manuel Mayo

121

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Nadie ha dado nombre a las seis especies diversas de hielo. Se dite así: Hielo uno, hielo dos... hielo siete. ¿Cómo siete, si en total habla de seis especies? Es que, repitiendo los experimentos, nunca se ha observado el hielo cuatro. Si se comprime el agua a una temperatura de cerca al cero grado, entonces, a la presión de unas 2000 atm, se forma el hielo cinco y a la presión de unas 6000 atm, en hielo seis. El hielo dos y el hielo tres están en equilibrio a temperaturas menores de cero grados. El hielo siete es hielo caliente; éste si forma al comprimir el agua caliente hasta presiones de unas 20 000 atm. Todos los hielos, excepto el ordinario, son más pesados que el agua. El comportamiento del hielo que se obtiene en condiciones exteriores normales, es anómalo; por el contrario, el hielo obtenido en condiciones diferentes de la norma, se comporta normalmente. Decíamos que a cada modificación cristalina correspondía una región determinada de existencia. Pero, entonces, ¿de qué modo existen en condiciones iguales el grafito y el diamante? Tal «arbitrariedad» se encuentra con mucha frecuencia en el mundo de los cristales. Para estos es casi una regla vivir en condiciones «extrañas». Si para trasladar el vapor o el líquido a regiones extrañas de existencia hay que recurrir a diversas artimañas, el cristal, por el contrario, casi nunca se consigue mantenerlo en los límites que le ha impuesto la naturaleza. Los sobrecalentamientos y sobrefusiones de los cristales se explican por la dificultad de transformar una variedad en otra, en condiciones de estrechez extrema. El azufre amarillo debo convertirse en rojo a 95,5 °C. Calentando con mayor o menor ligereza, «saltamos» este punto de transformación y alcanzarnos la temperatura de fusión del azufre de 113 °C. La temperatura verdadera de transformación se observa con mayor facilidad al poner en contacto los cristalitos. Si éstos se colocan uno sobre otro, estrechamente,

Gentileza de Manuel Mayo

122

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

y se mantiene la temperatura de 96 °C, el rojo absorberá al amarillo, y a 95 °C, el amarillo absorberá al rojo. En contraposición con el paso «cristal-líquido», la transformación «cristal-cristal» se retiene lo mismo al sobrefundirse que al sobrecalentarse. En algunos casos nos encontramos con estados de la substancia que tendrían que existir a otras temperaturas. El estaño blanco debe convertirse en gris al bajar la temperatura hasta +13 °C. Generalmente trabajamos con el estaño blanco, y sabemos que en el invierno no le pasa nada. Este aguanta admirablemente sobrefusiones de 20-30 grados. Sin embargo, en condiciones de un invierno crudo, el estaño blanco se convierte en gris. El desconocimiento de este hecho fue una de las circunstancias que malogró la expedición de Scott al Polo Sur (año 1912). El combustible líquido que llevaba la expedición estaba en recipientes soldados con estaño. Con los grandes fríos, el estaño blanco se convirtió en polvo gris, los recipientes se desestañaron y el combustible se derramó. No en vano, la aparición de manchas grises en el estaño blanco la llaman peste del estaño. Al igual que en el caso del azufre, el estaño blanco puede convenirse en gris a una temperatura un poco menor de 13 °C, solamente si, sobre el objeto de estaño cae un granito insignificante de la variedad gris. La existencia de unas cuantas variedades de una misma substancia y la retención de sus transformaciones mutuas tienen una gran importancia para la técnica. A la temperatura de la habitación, los átomos de hierro forman una malla cúbica de volumen centrado, en la que los átomos ocupan los vértices y el centro del cubo. Cada átomo tiene un vecinos. A alta temperatura, los átomos de hierro forman una estructura más densa, pues cada átomo tiene 12 vecinos. El hierro con un número de vecinos igual a 8, es blando: el hierro, con el número de vecinos igual a 12, es duro. Resulta que se puede obtener hierro del segundo tipo a la temperatura de la habitación. Este método de templar se emplea ampliamente en la metalurgia.

Gentileza de Manuel Mayo

123

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El temple se efectúa de un modo muy simple: se calienta el objeto metálico hasta que se ponga rojo, y cuando está candente, se sumerge en agua o en aceite. El enfriamiento se efectúa con tanta rapidez, que a la estructura que está en equilibrio a alta temperatura no le da tiempo a transformarse. De esto modo, la estructura de alta temperatura subsistirá indefinidamente en condiciones que no le son propias; la recristalización en una estructura de equilibrio se efectúa con tanta lentitud que, prácticamente, no se nota. Hablando del temple del hierro, no hemos sido muy exactos. Lo que se templa, es el acero, o sea, el hierro que contiene ciertas partes de carbono. La existencia de pequeñísimas impurezas de carbono retiene la transformación del hierro duro en blando y permite hacer el temple. En cuanto al hierro puro del todo, resulta imposible templarlo, pues, incluso con el más rápido enfriamiento, da tiempo a que se efectúe la transformación de la estructura. Cambiando la presión y la temperatura, en dependencia de la forma del diagrama de estado, se consiguen tales o cuales transformaciones. Variando únicamente la presión, se observan muchas transformaciones de un cristal en otro. El fósforo metálico fue obtenido de este modo. Sólo empleando simultáneamente una temperatura alta y una gran presión, se consiguió convertir el grafito en diamante. En la fig. 4.13 se muestra el diagrama de estado del carbono. El grafito es una modificación del equilibrio a presiones menores de diez mil atmósferas y a temperaturas menores de 4000 K. De este modo, el diamante existe en condiciones «extrañas», por eso se le puede convertir sin dificultad en grafito. Pero el problema inverso tiene interés práctico. Elevando solamente la presión, no se puede realizar la transformación del grafito en diamante. Probablemente, la transformación de la fase en estado sólido se efectúa con demasiada lentitud. La forma del diagrama de estado señala la solución justa: hay que aumentar la presión y, a la vez, calentar. Entonces se obtiene (el ángulo de la derecha del

Gentileza de Manuel Mayo

124

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

diagrama) carbono fundido. Enfriándolo a alta presión, tenemos que caer en la región del diamante.

Figura 4.13

La posibilidad práctica de semejante proceso fue demostrada en el año 1955 y, actualmente, se considera que este problema está técnicamente resuelto.

Un líquido extraordinario Rebajando la temperatura de un cuerpo, éste, tarde o temprano, se endurece y toma una estructura cristalina. En este caso, es indiferente la presión a que se efectúa el enfriamiento. Parece que esta circunstancia es completamente natural desde el punto de vista de las leyes de la física que ya conocemos. En efecto, bajando la temperatura, disminuye la intensidad del movimiento térmico. Cuando el movimiento de las partículas se haga tan débil que deje de estorbar a las fuerzas de su interacción, las moléculas se colocarán en un orden riguroso, formarán un cristal. El enfriamiento ulterior substraerá de las moléculas toda la energía de su

Gentileza de Manuel Mayo

125

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

movimiento y, en el cero absoluto, la substancia tendrá que existir en forma de moléculas inertes colocadas en malla regular. Los experimentos muestran que de este modo se comportan todas las substancias. Todas, excepto una sola: este «monstruo» es el helio. Ya comunicamos al lector algunos datos sobre el helio. El helio es el campeón por el valor de su temperatura crítica. Ninguna substancia tiene una temperatura crítica más baja de 4,3 K. Sin embargo, de por sí, esto no significa algo extraordinario. Lo que asombra es lo siguiente: enfriando el helio hasta una temperatura más baja que la crítica, alcanzando prácticamente el cero absoluto, no obtenernos helio sólido. El helio se mantiene líquido hasta en el cero absoluto. El comportamiento del helio no tiene explicación alguna desde el punto de vista de las leyes expuestas del movimiento y es uno de los síntomas de la validez limitada de estas leyes de la naturaleza, que parecían ser universales. Si el cuerpo es líquido, sus átomos están en movimiento. Pero, enfriando el cuerpo hasta el cero absoluto, le hemos quitado toda la energía del movimiento. No hay más remedio que reconocer, que el helio tiene una energía tal de movimiento, que es imposible quitársela. Esta conclusión es incompartible con la mecánica que hemos estudiado hasta ahora. De acuerdo con esta mecánica, siempre se puede frenar el movimiento de un cuerpo hasta que se pare por completo, despojándole de toda su energía cinética; del mismo modo, su puede interrumpir el movimiento de las moléculas quitándoles su energía al chocar contra las paredes del recipiente que se enfría. Para el helio, de ningún modo vale esta mecánica. La conducta «rara» del helio es señal de un hecho de gran importancia. Por primera vez nos encontramos con la imposibilidad de la aplicación de las leyes de la mecánica al mundo de los átomos, a pesar de que estas leyes fueron establecidas por el estudio directo del movimiento de los cuerpos visibles y que parecían ser un fundamento inquebrantable de la física. El hecho de que en el cero absoluto, el helio se «niegue» a cristalizarse, de ningún modo puede armonizar con la mecánica que acabamos de estudiar. La contradicción con que nos encontramos por primera vez, la insubordinación del mundo de los Gentileza de Manuel Mayo

126

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

átomos a las leyes de la mecánica, es el primer eslabón en la cadena de contradicciones todavía más agudas y violentas de la física. Estas contradicciones dan lugar a la necesidad de revisar las bases de la mecánica del mundo atómico. Esta revisión es muy profunda conduce a un cambio de toda nuestra comprensión de la naturaleza. La necesidad de una revisión radical de la mecánica del mundo atómico, no significa que haya que poner una cruz a todas las leyes de la mecánica que estudiamos. Sería injusto obligar a estudiar al lector las cosas que no hacen falta. La mecánica vieja es justa por completo en el mundo de los cuerpos grandes. Ya esta es suficiente para tener un respeto cabal a los capítulos correspondientes de la física. Sin embargo, es de importancia el hecho de que una serie de leyes de la mecánica «vieja» pasen sin modificación alguna a la mecánica «nueva». Esto se refiere, en particular, si la ley de conservación de la energía. La existencia de una energía «indespojable» en el cero absoluto, no es una propiedad particular del helio. Resulta, que energía «nula» la tienen todas las substancias. Únicamente en el helio esta energía es suficiente para impedir que los átomos formen una malla cristalina regular. No hay que creer que el helio no puede presentarse en estado cristalino. Para la cristalización del helio, solamente hay que elevar la presión hasta 25 atm, aproximadamente. El enfriamiento efectuado por encima de esta presión, conduce, a la formación del helio sólido cristalino con todas las propiedades ordinarias. El helio forma una malla cúbica de caras centradas.

Gentileza de Manuel Mayo

127

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 4.14

En la fig. 4.14 se muestra el diagrama de estado del helio. Se diferencia notablemente de los diagramas de todas las demás substancias por la ausencia del punto triple. Las curvas de fusión y de ebullición no se cortan. Este diagrama de estado, único en su género, acusa una particularidad más: existen dos diferentes ligados de helio. Pero en qué consiste su diferencia, se la daremos a conocer a usted un poco más tarde.

Gentileza de Manuel Mayo

128

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 5 Disoluciones

Contenido: •

Qué es una disolución



Disoluciones de líquidos y gases



Disoluciones sólidas



Como se congelan las disoluciones



Ebullición de las disoluciones



Cómo se purifican los líquidos de impurezas



Purificación de los cuerpos sólidos



Adsorción



Osmosis

Qué es una disolución Si se agrega sal al caldo y se revuelve con una cuchara, no queda ni una huella de sal. No hay que creer que esto es porque no se ven a simple vista los granitos de la sal. Los cristalitos de la sal no se pueden observar de ningún modo, por la simple razón de que se han disuelto. Agregando pimienta al caldo no resulta disolución alguna. Ya se puede estar revolviéndolo días enteros, que los diminutos granitos negros no desaparecen Pero, ¿qué significa que «la substancia se ha disuelto»? ¿Si los átomos o las moléculas de las que la substancia está compuesta no pueden desaparecer sin dejar huella alguna? Claro que no, éstos no desaparecen. En la disolución desaparece solamente el granito de la substancia, el cristalito, la acumulación de las moléculas de una especie. La disolución consiste en una mezcla de partículas tal, que las moléculas de una substancia se distribuyen entre las moléculas de la otra. La disolución es una mezcla de moléculas o de átomos de distintas substancias.

Gentileza de Manuel Mayo

129

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La disolución puede contener diversas cantidades de soluto. La composición de la disolución se caracteriza por su concentración, por ejemplo, por la razón del número de gramos de soluto al número de litros de la disolución. A medida que se agrega soluto, la concentración aumenta, pero no ilimitadamente, tarde o temprano, la disolución queda saturada y termina de «ingerir» soluto. La concentración de la disolución saturada, o sen, la concentración «límite» de la disolución, se llama solubilidad. En el agua caliente se puede disolver una cantidad extraordinariamente grande de azúcar. A la temperatura de 80 °C, un vaso lleno de agua puede asimilar, sin dejar residuos, 720 g de azúcar. A esta disolución saturada, espesa y viscosa, los cocineros la llaman jarabe, esta cantidad de azúcar corresponde a mi vaso de 0,2 litros de capacidad. Por lo tanto, la concentración de azúcar en el agua a 80 °C es igual a 3600 g/litro (se. lee, «gramos por litro»). La disolución de algunas substancias depende mucho de la temperatura. A la temperatura de la habitación (20 °C), la solubilidad del azúcar en el agua se reduce a 2000 g/litro. Por el contrario, la alteración de la solubilidad de la sal con el cambio de la temperatura, es harto insignificante. El azúcar y la sal se disuelven bien en el agua. Sin embargo, la naftalina es prácticamente insoluble en el agua. Substancias diversas se disuelven en distintos disolventes de un modo absolutamente diferente. Decimos una vez más que las disoluciones se utilizan en muchos casos para el cultivo de monocristales. Si en una disolución saturada se suspende un cristalito pequeñito de soluto, a medida que se va evaporando el disolvente, la substancia disuelta va sedimentándose sobre la superficie de este cristalito. En este caso, las moléculas van manteniendo un orden riguroso, y como resultado, el cristalito pequeñito se convierte en uno grande, que también es monocristal.

Disoluciones de líquidos y gases

Gentileza de Manuel Mayo

130

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

¿Se puede disolver un líquido en otro? Naturalmente que se puede. Por ejemplo, el vodka (especie de aguardiente) es una disolución de alcohol en agua (o, si se quiere, de agua en alcohol, según de lo que haya más). La vodka es una disolución verdadera, las moléculas de agua y alcohol están completamente mezcladas. No siempre ocurre esto al mezclar dos líquidos. Hagan la prueba de echar kerosene al agua. Como quiera que su mezcla, nunca se conseguirá una disolución homogénea: esto es tan imponible como disolver pimienta en la sopa. En cuanto acaben de agitar, los líquidos se situarán en capas: el agua, que es más pesada, por debajo; el kerosene, que es más ligero, por encima. Por las propiedades de disolubilidad, el kerosén con agua y el alcohol con agua, son sistemas contrapuestos. Sin embargo, hay casos intermedios. Si se mezcla el éter con el agua, se verán claramente en el recipiente dos capas. A primera vista, se podría creer que por encima se sitúa el éter y por debajo el agua. En realidad, ambas capas son disoluciones, tanto la superior como la inferior: abajo está el agua en la que está disuelta parte del éter (una concentración de 25 g de éter por un litro de agua); arriba está el éter, en el que hay una cantidad notable de agua (60 g/litro). Veamos ahora las disoluciones de los gases. Está claro que todos los gases se disuelven unos en otros en cantidades indefinidas. Dos gases siempre se mezclan de tal modo, que las moléculas de uno se introducen entre las moléculas del otro. Esto se debe a que las moléculas de los gases actúan muy débilmente unas con otras y, cada gas, en presencia de otro, se comporta, en cierto sentido, sin prestar «atención» a su cohabitante. Los gases pueden disolverse también en los líquidos. Ahora que, ya no en cantidades cualesquiera, sino en cantidades limitadas, no diferenciándose en este sentido de los cuerpos sólidos. Además, diversos gases se disuelven de distinto modo, y estas diferencias pueden ser muy grandes. En el agua se pueden disolver grandes cantidades de amoníaco (en medio vaso de agua fría, cerca de 100 g), inmensas cantidades de gas sulfhídrico y de dióxido de carbono. El oxígeno y el nitrógeno se disuelven en el agua en cantidades insignificantes (0,07 y 0,03 g para

Gentileza de Manuel Mayo

131

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

cada litro de agua fría). De esto modo, en un litro de agua fría hay solamente cerca de una centésima parte de gramo de aire. Sin embargo, en la Tierra, esta pequeña cantidad juega un gran papel en la vida, pues, los peces respiran el oxígeno del aire disuelto en el agua. Cuanto mayor sea la presión del gas, tanto más cantidad se disolverá en el líquido. Si la cantidad de gas disuelto no es muy grande, entre ésta y la presión del gas sobre la superficie del líquido existe una proporción directa. ¿Quién no ha quedado satisfecho del agua fría gaseosa que tan bien quita la sed? La obtención del agua con gas es posible gracias a la dependencia entre la cantidad de gas disuelto a la presión. El gas carbónico se introduce a presión en el agua (de los balones que tienen en cada kiosco, donde se vende el agua con gas). Cuando se vierte el agua en el vaso, la presión baja hasta la atmosférica y del agua se desprende el gas «excesivo» en forma de burbujas. Teniendo en cuenta efectos semejantes, a los buzos no se les puede sacar rápidamente del fondo del agua a la superficie. A causa de la gran presión existente en

las

profundidades,

en

la

sangre

del

buzo

se

disuelve

una

cantidad

complementaria de aire. Al subir, la presión disminuye y el aire comienza a despedirse en forma de burbujas y puede taponar los vasos sanguíneos.

Disoluciones sólidas En la práctica corriente, la palabra «disolución» se aplica a los líquidos. Sin embargo, existen también mezclas sólidas cuyos átomos y moléculas están homogénea íntimamente mezclados. Pero, ¿cómo obtener disoluciones sólidas? Con la maza y el mortero no se obtienen. Por eso, las substancias que se mezclan hay que hacerlas primero líquidas, o sea, hay que fundirlas, después hay que mezclar los líquidos y dejar endurecer la mezcla. También se puede obrar de otro modo: se disuelven las dos substancias que se quieren mezclar en un líquido y se evapora después el disolvente, de este modo se pueden obtener disoluciones sólidas. Se pueden obtener, pero ordinariamente no se obtienen. Las disoluciones sólidas son muy raras. Si se echa un trozo de azúcar en el agua salada, ésta se disuelvo Gentileza de Manuel Mayo

132

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

admirablemente. Evaporemos el agua; en el fondo de la taza se observan diminutos cristalitos de sal y de azúcar. La sal y el azúcar no proporcionan disoluciones sólidas. Se pueden fundir el cadmio y el bismuto en un crisol. Después del enfriamiento veremos por el microscopio la mezcla de los cristalitos de cadmio y de bismuto. El bismuto y el cadmio tampoco formal disoluciones sólidas. La condición necesaria, aunque no suficiente, para la creación de disoluciones sólidas, es la proximidad en forma y en dimensión de las moléculas o de los átomos de las substancias a mezclar. En este caso, al congelarse la mezcla, se forma una especie de cristalitos. Por lo general, los nudos de la malla de cada cristal están habitados desordenadamente por átomos (moléculas) de diversas especies. Las aleaciones de los metales que tienen gran importancia técnica, representan frecuentemente soluciones sólidas. Disolviendo cantidades pequeñas de mezclas, se pueden cambiar bruscamente las propiedades del metal. Una ilustración clara de esto es la obtención de uno de los materiales más difundidos en la técnica, del acero, que representa una disolución sólida en el hierro, de pequeñas cantidades de carbono, que forman alrededor del 0,5 % del peso (un átomo de carbono para 40 átomos

de

hierro);

además,

los

átomos

del

carbono

están

introducidos

desordenadamente entre los átomos del hierro. En el hierro se disuelve solamente un pequeño número de átomos de carbono. Sin embargo, al mezclar substancias en cualquier proporción, se forman algunas disoluciones sólidas. La aleación del cobre con el oro puede servir de ejemplo. Los cristales del oro y del cobre tienen una malla del mismo tipo: cúbico de caras centradas. La misma malla tiene la aleación del cobre con el oro. Para tener una idea de la estructura de una aleación con más y más partes, hay que figurarse que se separan los átomos de oro de la malla y que se sustituyen por los átomos de cobre. En este caso, la sustitución se efectúa desordenadamente los átomos de cobre se distribuyen generalmente por los nudos de la malla de cualquier modo. Las aleaciones del cobre con el oro se pueden llamar disoluciones por sustitución; el acero es una disolución de otro tipo, por penetración.

Gentileza de Manuel Mayo

133

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

En la inmensa mayoría de casos no se crean disoluciones sólidas y, como ya se dijo anteriormente, después de enfriarse, se puede ver por el microscopio que la substancia se compone de una mezcla de cristalitos pequeñitos de ambas substancias.

Cómo se congelan las disoluciones Enfriando la disolución de alguna sal en el agua, se observa que la temperatura de congelación del agua desciende. Ya ha llegado a cero grados y la solidificación no se ha efectuado. Solo a la temperatura de unos cuantos grados bajo cero se forman cristalitos en el líquido, estos son de hielo puro: la sal no se disuelve en el hielo sólido. La temperatura de congelación depende de la concentración de la disolución. Aumentando la concentración de la disolución, disminuye la temperatura de cristalización. La disolución saturada tiene la temperatura de congelación más baja. El descenso de la temperatura de congelación de la disolución no es pequeño; así, la disolución saturada de sal común en el agua congela a -21 °C. Con ayuda de otras sales se puede conseguir un mayor descenso de la temperatura: por ejemplo, el cloruro de calcio permite reducir la temperatura de cristalización de la disolución basta -55 °C. Veamos ahora cómo es el proceso de congelación. Después de desprenderse los primeros cristalitos de hielo de la disolución, la concentración aumenta. Ahora, el número relativo de las moléculas extrañas se hace mayor, aumentando también los obstáculos para la cristalización del agua y bajando la temperatura de congelación. Si no se baja más la temperatura, la cristalización se para. Al continuar bajando la temperatura, los cristalitos de agua (el disolvente) siguen desprendiéndose. Por fin, la disolución queda saturada. El enriquecimiento ulterior de la disolución con el soluto se hace imposible y la disolución se congela inmediatamente; mirando la mezcla congelada por el microscopio, se puede ver que se compone de cristalitos de hielo y de cristalitos de sal.

Gentileza de Manuel Mayo

134

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Por lo tanto, la disolución no se congela igual que el líquido simple. El proceso de congelación se alarga en un amplio intervalo de temperaturas. ¿Qué ocurre si se echa sal en una superficie congelada? Los barrenderos saben responder bien a esta pregunta: en cuanto la sal se ponga en contacto con el hielo, ésta empezará a disolverse. Para que ocurra este fenómeno, es necesario naturalmente, que la temperatura de congelación de la disolución saturada de sal sea más baja que la temperatura del aire. Si se cumple esta condición, en el diagrama, el estado de la mezcla hielo-sal se encontrará en una región extraña, en la región de disolución estable. Por esto, la mezcla del hielo con la sal se convertirá en disolución, es decir, el hielo se fundirá y la sal se disolverá en el agua formada, Al fin y al cabo, todo el hielo se derretirá o se formará una disolución de tal concentración, cuya temperatura de congelación es igual a la temperatura del medio ambiente. La superficie de un patio de 100 metros cuadrados está cubierta de una corteza de hielo de 1 cm de espesor: esto no es una cantidad pequeña de hielo, pues representa cerca de una tonelada. Calculemos la cantidad de sal que se necesita para limpiar el patio si la temperatura es de -3 °C. La disolución que tiene esta temperatura de cristalización (fusión), es la de sal con una concentración de 45 g/litro. Un litro de agua corresponde, aproximadamente, a 1 kg de hielo. Por lo tanto, para derretir una tonelada de hielo a -3 °C, se necesitarán 45 kg de sal. Prácticamente se emplean cantidades mucho más pequeñas, ya que no es necesario el derretimiento total del hielo. Al mezclar el hielo con sal, el hielo se funde y la sal se disuelve en agua. Pero, para la fusión, se necesita calor, y el hielo toma este calor de sus alrededores. De este modo, la agregación de sal al hielo da lugar a una disminución de la temperatura. Nosotros estamos acostumbrados a comprar helados preparados en la fábrica. Antes, el helado lo hacían en casa, y el papel de frigorífico lo jugaba la mezcla de hielo con sal.

Gentileza de Manuel Mayo

135

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Ebullición de las disoluciones El fenómeno de ebullición de las disoluciones tiene mucho de común con el fenómeno de la congelación. La existencia del soluto dificulta la cristalización. Por estas mismas causas, el soluto dificulta también la ebullición. En ambos casos, parece como si las moléculas extrañas lucharan por la conservación de una solución que sea lo más diluida posible. En otras palabras, las moléculas extrañas estabilizan el estado de la substancia fundamental (es decir, contribuyen a su existencia), la cual puede disolverlas. Por eso, las moléculas extrañas obstaculizan la cristalización del líquido y, por lo tanto, bajan la temperatura de cristalización. Del mismo modo, las moléculas extrañas obstaculizan también la ebullición del líquido y, por consiguiente, elevan la temperatura de la ebullición. Es curioso que hasta ciertos límites de concentración (para disoluciones no muy concentradas), la disminución de la temperatura de cristalización de la disolución, al igual que el aumento de la temperatura de ebullición, no depende en nada de las propiedades del soluto y se determina solamente por la cantidad de sus moléculas. Esta circunstancia interesante se aplica para la determinación del peso molecular del soluto. Esto se efectúa mediante una fórmula excelente (aquí no tenernos la posibilidad de exponerla), que liga la variación de la temperatura de congelación o de ebullición con la cantidad de moléculas en una unidad de volumen de la disolución (y con el calor de fusión o de ebullición). El aumento de la temperatura de ebullición del agua es unas tres veces menor que la disminución de la temperatura de su congelación. Así pues, el punto de ebullición del agua de mar, que contiene, aproximadamente, 3,5% de sales, es de 100,6 °C, mientras que su temperatura de congelación disminuye en 2 °C. Si un líquido hierve a una temperatura más alta que otro, la elasticidad de su vapor (a la misma temperatura), es menor. Por lo tanto, la elasticidad del vapor de la disolución es menor que la elasticidad del vapor del disolvente puro. Los datos siguientes dan una idea de esta diferencia: la elasticidad del vapor de agua a 20 °C Gentileza de Manuel Mayo

136

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

es igual a 17,5 mm Hg: la elasticidad del vapor de la disolución saturada de sal común, a la misma temperatura, es igual a 13,2 mm Hg. El vapor de 1 mm Hg de elasticidad no está saturado para el agua, mientras que está sobresaturado para una disolución saturada de sal. En presencia de tal disolución, el vapor comienza a condensarse y a pasar a la disolución. Naturalmente que no sólo la disolución de sal absorberá el vapor de agua del aire, sino que también hará lo mismo la sal en polvo, ya que la primera gota de agua que caiga sobre la sal, la disolverá y creará una disolución saturada. La absorción del vapor de agua del aire por la sal da lugar a que ésta se humedezca. Esto lo saben bien las dueñas de casa por los disgustos que les ocasiona. Pero este fenómeno de disminución de la elasticidad del vapor sobre la disolución también resulta útil y, en la práctica de laboratorio, se emplea para secar el aire. Este se hace pasar por el cloruro de calcio, que es el campeón en recoger la humedad del aire. Si la elasticidad del vapor de la disolución saturada de sal común es de 13,2 mm Hg, para el cloruro de calcio es de 5,0 mm Hg. Hasta este valor bajará la elasticidad del vapor de agua al hacerlo pasar por una cantidad suficiente de cloruro de calcio (1 kg del cual «acoge» en sí 1 kg de agua, aproximadamente). Después de esto la humedad en el ambiente es insignificante y se puede considerar que el aire está seco.

Cómo se purifican los líquidos de impurezas Uno de los métodos más importantes de purificación de los líquidos de impurezas es la destilación. El líquido se hierve y el vapor se conduce a un condensador. Al enfriarse en el condensador, el vapor se convierte de nuevo en líquido, pero éste es más puro que el inicial. Con la destilación es fácil librarse de las substancias sólidas disueltas en el líquido. Prácticamente, en el vapor no hay moléculas de estas substancias, de este modo se obtiene el agua desfilada, que es agua pura e insípida, despojada de mezclas minerales.

Gentileza de Manuel Mayo

137

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Empleando la destilación, también es posible librarse de las impurezas líquidas y separar los componentes de una mezcla de dos o más líquidos. Para ello nos basamos en que dos líquidos que forman una mezcla hierven con distinta «facilidad». Veamos cómo se comporta la mezcla dedos líquidos al hervirla. Sea, por ejemplo, la mezcla de agua con alcohol etílico, tomados en proporciones iguales (el vodka de 50 grados). A presión normal, el agua hierve a 100 °C, el alcohol a 78 °C. La mezcla de que se trata hierve a una temperatura intermedia, igual a 81,2 °C. El alcohol hierve con mayor facilidad, por eso, la elasticidad de su vapor es mayor, y con la composición inicial de la mezcla de cincuenta por ciento, la primera porción del vapor contendrá el 80% de alcohol. La porción obtenida de vapor se puede llevar al condensador y obtener un líquido enriquecido de alcohol. Después se puede repetir este proceso. Sin embargo, está claro que este método no es práctico, pues cada destilación siguiente va a proporcionar menor cantidad de substancia. Para que no baya tales pérdidas, se emplean los rectificadores. La idea de la construcción de este interesante aparato consiste en lo siguiente. Figurémonos una columna vertical, en cuya parte inferior hay una mezcla líquida. A la parte inferior de la columna se comunica calor, en la parte superior se produce un enfriamiento del vapor que se forma en la ebullición, se eleva y se condensa; el líquido formado se vierte hacia abajo. Comunicando constantemente calor por debajo y despidiéndolo por encima, en la columna cerrada se establece una corriente de vapor que va hacia arriba y una corriente de líquido que va a su encuentro, hacia abajo. Prestemos atención a una sección horizontal cualquiera de la columna. Por esta sección el líquido pasa hacia abajo y el vapor se eleva, sin retenerse ni una de las substancias que forman parte de la mezcla líquida. Si se trata de una columna con una mezcla de alcohol y de agua, la cantidad de alcohol que pasa hacia abajo y hacia arriba, así como la cantidad de agua que pasa hacia abajo y hacia arriba, son

Gentileza de Manuel Mayo

138

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

iguales. Como el líquido va hacia abajo y el vapor hacia arriba, en cualquier altura de la columna las cantidades de líquido y de vapor son iguales. Como se acaba de aclarar, el equilibrio del líquido y del vapor de una mezcla de dos substancias presupone, por el contrario, que sean diversas la fase liquida y la fase de vapor. Por eso, a cualquier altura de la columna, se efectúa una transformación del líquido en vapor y del vapor en líquido. Con esto se condensa la parte de la mezcla de alta ebullición, mientras que el componente de baja ebullición se con vierte de líquido en vapor. Por esto, la corriente de vapor que va hacia arriba, recogerá el componente de baja ebullición de todas las alturas, mientras que la corriente de líquido que se vierto hacia abajo irá enriqueciéndose continuamente de la parte de alta ebullición. En cada altura se establece diferente composición de la mezcla: cuanto más alto, tanto mayor es el tanto por ciento del componente de baja ebullición. En el caso ideal, arriba habrá una capa pura del componente de baja ebullición, mientras que abajo se formará una capa pura de baja ebullición. Ahora hay que obrar lo más cautelosamente posible, para no infringir el cuadro ideal descrito: elegir la substancia pura de baja ebullición por arriba y la de alta ebullición por debajo. Para efectuar prácticamente la separación, o la purificación, hay que dar la posibilidad de que se mezclen como se debe las corrientes opuestas de vapor y de líquido. Con este fin se retienen las corrientes de líquido y de vapor en unos platos, colocados uno sobre otro y comunicados por unos tubos de salida o bajantes. De los platos llenos, el líquido se puede verter a los platos inferiores. El vapor que va hacia arriba en corriente rápida (de 0,3 a 1 m/s) se abre paso a través de la capa fina de líquido, penetrando en ella por medio de unas campanas con aberturas laterales colocadas encima del plato. El esquema de la columna se muestra en la fig. 5.1.

Gentileza de Manuel Mayo

139

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 5.1

No siempre se consigue purificar por completo el líquido. Algunas de las mezclas poseen la propiedad «desagradable» siguiente: con una composición determinada de la mezcla, la correlación de las moléculas de los componentes que se evaporan es igual a la correlación en la mezcla líquida. Naturalmente que, en este caso, se hace imposible la purificación ulterior con este método. Tal es la mezcla que contiene el 96 % de alcohol y el 4 % de agua: ésta proporciona un vapor de la misma composición. Por esto, el alcohol de 96 % es el mejor que se puede obtener con el método de evaporación. La rectificación (o destilación) de los líquidos es un proceso muy importante de la tecnología química. Mediante la rectificación se consigue obtener, por ejemplo, la gasolina del petróleo.

Gentileza de Manuel Mayo

140

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Es curioso que la rectificación es el método más barato de obtención de oxígeno. Naturalmente que para esto, hay que convertir previamente el aire en líquido, después de lo cual, rectificándolo, se separa en nitrógeno y oxígeno casi puros.

Purificación de los cuerpos sólidos Por lo general, en un frasco con una substancia química, junto con la denominación química, se pueden leer las siguientes letras: «p», «p.p.a», o bien, «espe.p.». Con estas letras se señala condicionalmente el grado de pureza de la substancia: «p», significa un pequeño grado de pureza de la substancia, en donde puede haber impurezas de orden igual a 1 %; «p.p.a», significa, «puro para el análisis» y no puede contener más de unas cuantas décimas de uno por ciento de impurezas; «espe.p», significa, substancia espectralmente pura. No os fácil obtener esta substancia, puesto que en el análisis espectral se observan impurezas que constituyen una milésima parte de la mezcla. La escritura «espe.p» indica que la pureza de la substancia se caracteriza, al menos, por «cuatro nueves», es decir, que el contenido de la substancia principal no es menor de 99,99%. La necesidad de substancias sólidas puras es muy grande Para muchas propiedades físicas son perjudiciales las impurezas mayores de milésimas partes de uno por cien, y para un problema especial que interesa extraordinariamente a la técnica contemporánea, para el problema de la obtención de materiales transistores (semiconductores), se necesitan purezas de siete nueves, esto significa que para la resolución de problemas de ingeniería, un átomo innecesario entre diez millones de necesarios, representa un obstáculo. Para la obtención de tales materiales superpuros se recurre a métodos especiales. Se pueden obtener germanio y silicio superpuros (éstos son los principales representantes de los materiales semiconductores), estilando paulatinamente el cristal creciente de la fundición. En la superficie del silicio fundido (o del germanio) se coloca una varilla, en cuyo extremo está fijo el cristal germen. Después se comienza a levantar lentamente la varilla: el cristal que va saliendo de la fundición

Gentileza de Manuel Mayo

141

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

se forma con los átomos de la substancia principal; los átomos de las impurezas quedan en la fundición. El método llamado de fusión en zonas ha hallado una aplicación más amplia. Del elemento a purificar se prepara una varilla de longitud arbitraria y de unos cuantos milímetros de diámetro. A lo largo de la varilla se desplaza un pequeño hornillo cilíndrico que la abarca. La temperatura del hornillo es suficiente, para la fusión, y la porción de metal situada dentro del hornillo, se funde de este modo, a lo largo de la varilla se desplaza una pequeña zona de metal fundido. Generalmente, los átomos de la mezcla se disuelven con mayor facilidad en el líquido que en el cuerpo sólido. Por eso, en la frontera de la zona fundida, los átomos de la mezcla pasan de los lugares sólidos a la zona fundida y no retornan. La zona de fundición en movimiento va arrastrando a los átomos de las impurezas junto con la fundición. En la marcha de vuelta, el hornillo se desconecta, y la operación de arrastre de la zona fundida por la varilla de metal se repite una multitud de veces. Después de un número suficiente de ciclos no queda más que cortar el extremo impurificado de la varilla. Los materiales super-puros se obtienen en el vacío o en una atmósfera de gas inerte. Cuando hay una gran parte de átomos extraños, la purificación se efectúa por otros métodos; la fusión por zonas y la extracción del cristal de la fundición, se emplea solamente para la purificación final del material.

Adsorción Raramente se disuelven los gases en los cuerpos sólidos, es decir, raramente se introducen en los cristales. En cambio existe otro método de absorción de los gases por los cuerpos sólidos. Las moléculas de los gases se retienen en la superficie de los cuerpos sólidos. Este fenómeno singular se llama adsorción3. Así, tenemos que

3

No se debe confundir la adsorción con la absorción, pues esta última presupone introducción de las moléculas.

Gentileza de Manuel Mayo

142

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

la adsorción tiene lugar cuando la molécula no puede introducirse en el cuerpo, pero se adhiere fácilmente a su superficie. Adsorber significa retener en la superficie. Mas, ¿qué importancia puede tener este fenómeno? Una capa de una molécula de espesor, que cubre un objeto relativamente grande no pesa más que unas insignificantes partes de gramo. Hagamos el cálculo. El área de una molécula no muy grande es de unos 10 Ångström cuadrados, o sea, 10-15 cm2, Por lo tanto, en 1 cm2 entrarán 1015 moléculas. Tal cantidad de moléculas, por ejemplo, de agua, pesa poco, 3 x 10-8 g. Incluso en un metro cuadrado se distribuyen solamente 0,0003 g de agua. En superficies de centenares de metros cuadrados se forman cantidades notables de substancia. En 100 m2 se retienen 0,03 g de agua (1021 moléculas). Pero, ¿es que nos encontrarnos en los trabajos del laboratorio con superficies tan considerables? Sin embargo, no es difícil darse cuenta de que, a veces, cuerpos pequeñitos, que caben en el extremo de una cucharilla de té, tienen inmensas superficies, de cientos de metros cuadrados. Un cubo de 1 cm de arista, tiene una superficie de 6 cm2 de área. Recortamos el cubo en 8 cubos iguales de 0,5 cm de arista. Las áreas de las caras de los cubos pequeños son de 0,25 cm2. En total hay 6 x 8 = 48 caras. Su área total es igual a 12 cm2. La superficie se ha hecho el doble. De este modo, cada división del cuerpo aumenta su superficie. Dividamos ahora un cubo de 1 cm de arista en partículas de dimensiones de 1 micrón (1 micrón = 10-4 cm), por lo tanto, el cubo grande se dividirá en 1012 partículas. Cada partícula (para simplificar suponemos que éstas son cúbicas) tiene un área de 6 micrones cuadrados, o sea, 6 x 10-8 cm2. El área total de las partículas es igual a 6 x 104 cm2 o sea, 6 metros cuadrados. La división hasta micrones no representa un límite. Está completamente claro que la superficie específica (o sea, la superficie de un gramo de substancia) puede expresarse por números grandísimos. Esta crece rápidamente a medida que se desmenuza la substancia, pues la superficie de un granito disminuye proporcionalmente al cuadrado de la dimensión, pero el número

Gentileza de Manuel Mayo

143

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de granitos en una unidad de volumen aumenta proporcionalmente al cubo de la dimensión. Un gramo de agua que se ha vertido en el fondo del vaso tiene una superficie de unos cuantos centímetros cuadrados. Este mismo gramo, en forma de gotitas de agua, tendrá ya una superficie de docenas de centímetros cuadrados. Y un gramo de gotitas de niebla tiene una superficie de unos cuantos centonares de metros cuadrados. El carbón desmenuzado (y cuanto más desmenuzado mejor), es capaz de adsorber amoníaco, dióxido de carbono y otros gases venenosos. Esta última propiedad le ha valido

su

aplicación

en

las

caretas

antigás.

El

carbón

se

desmenuza

extraordinariamente bien y las dimensiones lineales de sus partículas se pueden hacer hasta de decenas de Ångström. Por eso, un gramo de carbón especial (carbón «activado»), tiene una superficie de unos cuantos centenares de metros cuadrados. La careta antigás con carbón es capaz de adsorber decenas de litros de gas. La adsorción tiene un empleo amplio en la industria química. Las moléculas de diversos gases, adsorbiéndose en la superficie, se ponen en contacto unas con otras y con mayor facilidad toman parte en las reacciones químicas. Para la aceleración de los procesos químicos, se emplea con frecuencia el carbón, así como metales finamente desmenuzados, como el níquel, el cobre y otros Las substancias que aceleran las reacciones químicas se llaman catalizadores.

Osmosis Entre los tejidos de los animales hay unas membranas originales que tienen la facultad de dejar pasar a través de ellas las moléculas de agua, manteniéndose impermeables para las moléculas de las substancias disueltas en el agua. Las propiedades de estas membranas son la causa de unos fenómenos físicos llamados osmóticos (o, simplemente osmosis). Figurémonos que tal pared semipermeable divide en dos partes un tubo preparado en forma de la letra U. En un brazo del tubo se vierte la disolución, en el otro, agua u otro disolvente. Vertiendo en ambos brazos cantidades iguales de líquido, se

Gentileza de Manuel Mayo

144

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

observa con asombro que, a igual nivel, no hay equilibrio. Después de breve tiempo, los líquidos se establecen a diversos niveles, elevándose el nivel en el brazo donde está la disolución. El agua, separada de la disolución por la pared semipermeable, tiende a diluir la disolución. Este fenómeno se llama osmosis y la diferencia de niveles presión osmótica. ¿Cuál es la causa que origina la presión osmótica? En el brazo de la derecha del tubo (fig. 5.2), la presión se realiza solamente por el agua. En el brazo de la izquierda, la presión total se compone de la presión del agua y de la presión del soluto. Pero la comunicación está libre, solamente lo separa el agua y, siendo la pared semipermeable, el equilibrio se establece, no cuando la presión de la izquierda es igual a la presión total de la derecha, sino cuando la presión del agua pura es igual a la presión de la parte «acuosa» de la disolución. La diferencia que se crea de presiones totales es igual a la presión del soluto.

Figura 5.2 Gentileza de Manuel Mayo

145

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Este exceso de presión representa la presión osmótica. Como muestran los experimentos y el cálculo, la presión osmótica es igual a la presión de un gas formado solamente por el soluto y que ocupa el mismo volumen. No es extraño por esto, que la presión osmótica se mida con números considerables. Calculemos la presión osmótica creada en 1 litro de agua al disolver 20 g de azúcar (posiblemente que la concentración de azúcar en un vaso de té sea mayor). En el experimento con la membrana semipermeable, esta presión osmótica equilibraría una columna de agua de 14 m de altura. Con riesgo de causar al lector recuerdos desagradables, veamos cómo está ligada la presión osmótica con la acción purgante de las disoluciones de ciertas sales. Las paredes de los intestinos son semipermeables para una serie de disoluciones. Si la sal no pasa por el intestino (como la mirabilita o sal de Glauber), en éste se crea una presión osmótica que aspira el agua por los tejidos del organismo al intestino. ¿Por qué el agua muy salada no apaga la sed? Resulta que la culpa es también de la presión osmótica. Los riñones no pueden efectuar la secreción de la orina con una presión osmótica mayor que la presión en los tejidos del organismo. Por eso, el organismo que ha adquirido agua de mar, no sólo no la cede a los líquidos de los tejidos, sino que, por el contrario, segrega con la orina el agua que ha extraído de los tejidos.

Gentileza de Manuel Mayo

146

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 6 Mecánica molecular Contenido: •

Fuerzas de rozamiento



Fricción viscosa en los líquidos y en los gases



Las fuerzas de resistencia a grandes velocidades



Forma aerodinámica



Desaparición de la viscosidad



Plasticidad



Dislocaciones



Dureza



Vibraciones y ondas acústicas



Sonidos audibles y no audibles

Fuerzas de rozamiento No es la primera vez que hablamos del rozamiento. Y, verdaderamente, ¿cómo se podría hablar del movimiento sin mentar el rozamiento? Casi cada movimiento de los cuerpos que nos rodean va acompañado de rozamiento. El automóvil en el que el chófer ha desconectado el motor, se para; después de muchas oscilaciones se para el péndulo; lentamente se sumerge en una lata de aceite de girasol una bolita metálica pequeñita que se ha lanzado en ella. ¿Qué obliga a pararse a los cuerpos que se mueven por una superficie? ¿A qué se debe la caída paulatina de la bolita en el aceite? Nosotros respondemos: son las fuerzas de rozamiento que se crean al moverse unos cuerpos por las superficies de otros. Pero, las fuerzas de rozamiento no sólo se crean en el movimiento. Probablemente ustedes han tenido que trasladar muebles de un lugar a otro de la habitación. Sabrán que es difícil mover de su sitio un pesado armario. La fuerza que se opone a este esfuerzo se llama fuerza estática de rozamiento. También se crean fuerzas de rozamiento cuando movemos un objeto y cuando lo rodamos. Estos son dos fenómenos físicos un poco diferentes. Por eso, se

Gentileza de Manuel Mayo

147

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

distinguen el rozamiento de deslizamiento y el rozamiento de rodadura. El rozamiento de rodadura es decenas de veces menor que el de deslizamiento. Claro que, en algunos casos, el deslizamiento también se efectúa con gran facilidad. Los trineos se deslizan fácilmente por la nieve y los patines todavía mejor por el hielo. ¿De qué causas dependen las fuerzas de rozamiento? La fuerza de rozamiento entre los cuerpos sólidos depende poco de la velocidad del movimiento, sin embargo, es proporcional al peso del cuerpo. Si el peso del cuerpo aumenta el doble, será dos veces más difícil moverlo del sitio o arrastrarlo. No nos hemos expresado con plena exactitud, pues no es tanto el peso lo que importa, sino la fuerza que presiona el cuerpo contra la superficie. Si el cuerpo es ligero, pero con la mano hacemos fuerte presión sobre él, esta presión influirá, naturalmente, en la fuerza de rozamiento. Si se indica con P la fuerza que presiona el cuerpo contra la superficie (la mayoría de las veces, ésta es el peso), para la fuerza de rozamiento Froz es valedera esta fórmula sencilla: Froz = kP. Y, ¿cómo se tienen en cuenta las propiedades de estas superficies? Pues, se sabe bien que unos mismos trineos, con unos mismos patines, se deslizan de diverso modo, según que estos patines estén forrados de hierro o no lo estén. Estas propiedades las tiene en cuenta el coeficiente de proporcionalidad k. Esto se llama coeficiente de rozamiento. El coeficiente de rozamiento del metal con la madera es igual a 1/2. Para mover un bloque metálico de 2 kg de peso, situado en una mesa pulida de madera, solamente hace falta una fuerza de 1 kgf. El coeficiente k rozamiento del acero con el hielo es solamente igual a 0,027. El mismo bloque se consigue moverlo con una fuerza que es solamente igual a 0,054 kgf. Uno de los primeros intentos de disminuir el coeficiente de rozamiento de deslizamiento está representado en el fragmento de la pintura mural de un sepulcro

Gentileza de Manuel Mayo

148

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

egipcio datado, aproximadamente, del año 1650 a.n.e (fig. 6.1). Un esclavo vierte aceite por debajo de los patines del trineo que transporta una gran estatua.

Figura 6.1 El área de la superficie no está incluida en la fórmula expuesta: la fuerza de rozamiento no depende del área de la superficie de contacto de los cuerpos. Se necesita una misma fuerza para mover del sitio o arrastrar con una velocidad constante una hoja amplia de acero de un kilogramo de peso y una pesa de un kilo que se apoya solamente en una pequeña área de la superficie. Otra observación más sobre las fuerzas de rozamiento por deslizamiento, es más difícil arrancar un cuerpo del sitio que arrastrarlo; la fuerza de rozamiento que se vence en el primer instante del movimiento (el rozamiento estático), es mayor que los valores sucesivos de la fuerza de rozamiento en un 20 a 30 %. ¿Qué se puede decir de la fuerza de rozamiento de rodadura, por ejemplo, de una rueda? Al igual que la fuerza de deslizamiento, esta es tanto mayor, cuanto mayor

Gentileza de Manuel Mayo

149

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

sea la fuerza que presiona la rueda contra la superficie. Además, la fuerza de rozamiento de rodadura es inversamente proporcional al radio de la rueda. Esto es comprensible: cuanto mayor sea la rueda, tanto menor importancia tendrán las asperezas de la superficie por la que ésta rueda. Si se comparan las fuerzas que se tienen que vencer al hacer deslizar o rodar un cuerpo, se obtiene una diferencia considerable. Por ejemplo, para arrastrar por el asfalto un bloque de acero de 1 t de peso, hay que aplicar una fuerza de 200 kgf, fuerzas que son capaces de aplicar solamente los atletas. Sin embargo, para llevar este mismo bloque en un carro se necesita una fuerza que no sobrepase de 10 kgf y lo puede hacer hasta un niño. No tiene nada de extraño que el rozamiento de rodadura «haya vencido» el rozamiento por deslizamiento. No en vano, la humanidad pasó ya hace mucho tiempo al transporte de ruedas. La sustitución de los patines por las ruedas no es todavía una victoria completa sobre el rozamiento de deslizamiento. Pues, la rueda hay que ponerla en el eje. A primera vista es imposible evitar el rozamiento de los ejes sobre los cojinetes. Así pensaban a lo largo de los siglos, y procuraron disminuir el rozamiento de deslizamiento en los cojinetes solamente con diversos lubricantes. No son pocos los servicios de los lubricantes: el rozamiento de deslizamiento disminuye en 8 a 10 veces, Pero, incluso con la lubricación, en muchísimos casos, el rozamiento de desplazamiento es tan grande que resulta demasiado caro. Esta circunstancia representaba al fin del siglo pasado un serio freno en el desarrollo de la técnica. Entonces es cuando apareció la idea admirable de sustituir en los cojinetes el rozamiento de deslizamiento por el de rodadura. Esta sustitución se efectúa con el cojinete de bolas. Entre el eje y el casquillo se colocaron bolitas. Al girar la rueda, las bolitas ruedan por el casquillo, y el eje, por las bolitas. En la fig. 6.2 se muestra la construcción de este mecanismo. De este modo, el rozamiento de deslizamiento se sustituyó por el de rodadura. Con esto, las fuerzas de rozamiento disminuyeron decenas de veces. Resulta difícil apreciar el papel de los cojinetes de rotación en la técnica moderna. Estos se hacen con bolitas, con rodillos cilíndricos, con rodillos cónicos. Todas las máquinas están provistas de cojinetes, tanto las grandes como las pequeñas.

Gentileza de Manuel Mayo

150

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Existen cojinetes de bolas, cuyas dimensiones son de un milímetro; algunos cojinetes, para máquinas grandes, pesan más de una tonelada.

Figura 6.2 Se construyen cojinetes de bolas (claro, los habrán visto Vds. en las vitrinas de las ferreterías) de los más diversos diámetros, desde unos cuantas partes de milímetro hasta unos cuantos centímetros. Fricción viscosa en los líquidos y en los gases Hasta ahora hemos hablado del rozamiento «seco», o sea, del rozamiento que surge al ponerse en contacto cuerpos sólidos. Pero, los cuerpos que flotan y los que vuelan también están sometidos a la acción de las fuerzas de rozamiento, lo que pasa, es que es otro el origen del rozamiento: el rozamiento seco se sustituye por el «húmedo». La resistencia que experimenta un cuerpo que se mueve en el agua o en el aire está sujeta a otras leyes, que se diferencian esencialmente de las leyes del rozamiento seco. En lo que se refiere al rozamiento, el comportamiento de los líquidos no se diferencia del de los gases. Por eso, todo lo que se diga a continuación, se refiere en igual grado a los gases y a los líquidos. Una de las distinciones del rozamiento «húmedo» del seco consiste en la ausencia del rozamiento estático; generalmente, se puede arrancar del sitio un objeto suspendido en el agua o en el aire con una fuerza tan pequeña como se quiera. En

Gentileza de Manuel Mayo

151

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

cuanto a la fuerza de rozamiento que experimenta un cuerpo en movimiento, ésta depende de la velocidad del movimiento, de la forma y las dimensiones del cuerpo y de las propiedades del fluido. El estudio del movimiento de los cuerpos en los líquidos y en los gases ha mostrado que no hay una ley única para el rozamiento «húmedo», sino que hay dos leyes diferentes: una, para velocidades pequeñas y, otra, pera velocidades grandes. La existencia de dos leyes significa, que a velocidades grandes y pequeñas de los cuerpos sólidos, en los líquidos y en los gases, la corriente del fluido en el que se mueven los cuerpos tiene diferente carácter. A velocidades pequeñas, la fuerza de la resistencia es directamente proporcional a la velocidad y a lo dimensión del cuerpo: F ~ vL ¿Cómo se debe comprender la proporcionalidad a la dimensión, si no se ha dicho de qué forma de cuerpo se trata? Esto significa que para dos cuerpos que tienen una forma completamente semejante o sea, que todas sus dimensiones están en igual razón), las fuerzas de resistencia se relacionan igual que las dimensiones lineales de ellos. La magnitud de la resistencia depende en gran parte de las propiedades de los fluidos. Comparando las fuerzas de rozamiento que experimentan objetos iguales, que se mueven con velocidades iguales en diferentes fluidos, vemos que los cuerpos experimentan tanto mayor resistencia, cuanto más denso sea el fluido, o como suelen decir, cuanto más viscoso sea éste. Por esto, resulta oportuno denominar el rozamiento de que tratamos, fricción viscosa. Es comprensible que el aire origina una fricción viscosa insignificante, que es aproximadamente, 60 veces menor que la del agua. Los líquidos pueden ser «no espesos», como el agua, y muy viscosos, como la crema agria o la miel. Sobre el grado de viscosidad de un líquido se puede juzgar, bien por la rapidez con que se sumergen en él los cuerpos sólidos, bien por la rapidez con que sale el líquido por los orificios.

Gentileza de Manuel Mayo

152

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Medio litro de agua sale por un embudo en unos segundos. Un líquido muy viscoso sale por el mismo durante horas, o incluso, durante días. Se puede aducir un ejemplo de líquido todavía más viscoso. Los geólogos han observado que en las pendientes interiores de los cráteres de algunos volcanes, entre las acumulaciones de lava, se encuentran trozos de forma esférica. A primera vista es incomprensible en absoluto cómo se pudo formar tal bola de lava dentro del cráter. Esto no se entiende si se habla de la lava como de un cuerpo sólido. Si la lava se comporta como un líquido, saldrá del cañón del cráter en forma de gotas, como cualquier otro líquido. Pero hay una gota que se forma, no en una parte de segundo, sino durante decenas de años. Cuando la gota se haga muy pesada, se desprenderá y «goteará» al fondo del cráter del volcán. De este ejemplo queda claro, que no se deben equiparar los cuerpos sólidos verdaderos y los cuerpos amorfos que, como ya sabemos, son más parecidos a los líquidos que a los cristales. Precisamente la lava es un cuerpo amorfo. Parece que es sólido, pero en realidad, es un líquido muy viscoso. ¿Qué les parece, el lacre, es un cuerpo sólido o no? Tomemos dos corchos y coloquémoslos en el fondo de dos tazas. Echemos en una de ellas una sal cualquiera fundida (por ejemplo, salitre, que es fácil conseguir), y en la otra echemos lacre. Ambos líquidos se cuajan (se solidifican) cubriendo y sepultando a los corchos. Coloquemos estas tazas en el armario y olvidémonos por mucho tiempo de ellas. Después de unos cuantos meses veremos la diferencia entre el lacre y la sal. El corcho cubierto de sal reposa como antes en el fondo de la taza, mientras que el corcho cubierto de lacre ha emergido a flote ¿Cómo ha ocurrido esto? Simplemente, el corcho ha emergido igual que lo hubiera hecho en el agua. La diferencia está solamente en el tiempo: cuando las fuerzas de fricción viscosa son pequeñas, el corcho emerge inmediatamente, mientras que en los líquidos muy viscosos la emergencia dura meses enteros. Las fuerzas de resistencia a grandes velocidades Pero, volvamos a examinar las leyes del rozamiento «húmedo». Como ya hemos aclarado, a velocidades pequeñas, la resistencia depende de la viscosidad del fluido, de la velocidad del movimiento y de las dimensiones lineales del cuerpo.

Gentileza de Manuel Mayo

153

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Examinemos ahora las leyes de rozamiento a velocidades grandes. Pero primero hay que decir qué velocidades se consideran pequeñas y qué velocidades se consideran grandes. No nos interesa el valor absoluto de la velocidad, pero nos interesa si ésta es suficientemente pequeña para que se cumpla la ley de la fricción viscosa examinado más arriba. Resulta que no se puede señalar un número de metros por segundo que, para todos los casos, a velocidades menores, sean aplicables las leyes de la fricción viscosa. El límite de aplicación de la ley que se estudia, depende de las dimensiones del cuerpo y del grado de viscosidad y de densidad del fluido. Para el aire son «pequeñas» las velocidades menores de: 0,75/L [cm/s] para el agua, las menores de: 0,05/L [cm/s] y para los líquidos viscosos, tales como la miel espesa, las menores de: 100/L [cm/s] Por lo tanto para el aire y, sobre todo, para el agua, son poco útiles las leyes de fricción viscosa; incluso para pequeñas velocidades de alrededor de 1 cm/s; éstas son aplicables solamente para cuerpos diminutos que miden cerca de un milímetro. La resistencia que experimenta una persona que bucea en el agua, no se somete en grado alguno a la ley de la fricción viscosa. ¿Cómo se explica que al variar la velocidad, se altera la ley de resistencia del medio ambiente? Hay que buscar las causas en la alteración del carácter aerodinámico del líquido en el que se mueve el cuerpo. En la fig. 6.3 están representados dos cilindros circulares que se mueven en un líquido (el eje del cilindro es perpendicular a la figura).

Gentileza de Manuel Mayo

154

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Si el movimiento es lento, el líquido circunda suavemente el objeto en movimiento; la fuerza de resistencia que tiene que vencer es la de fricción viscosa (fig. 6.3, a). Si la velocidad es grande, por detrás del cuerpo en movimiento se crea un complicado movimiento del liquido (fig. 6.3, b).

Figura 6.3 A veces aparecen y a veces desaparecen en el fluido unas figuras extravagantes que forman anillos, remolinos, etc. El cuadro de las figuras varía constantemente. La aparición de este movimiento, llamado turbulento, cambia radicalmente la ley de la resistencia. La resistencia al avance depende de la velocidad y de las dimensiones del objeto, pero de otro modo que la de viscosidad: aquélla es proporcional al cuadrado de la velocidad y al cuadrado de las dimensiones lineales. En este movimiento, la viscosidad del fluido ya no juega un papel importante; la propiedad determinante es ahora su densidad y, además, la fuerza de resistencia es proporcional a la primera potencia de la densidad del fluido. Por lo tanto, para la fuerza F de la resistencia al avance vale la fórmula: F ~ ρv2L2 donde v es la velocidad del movimiento; L, las dimensiones lineales del objeto y ρ, la densidad del medio ambiente. El coeficiente numérico de proporcionalidad, que no hemos escrito, tiene diferentes valores en dependencia de la forma del cuerpo. Gentileza de Manuel Mayo

155

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Forma aerodinámica Como ya se dijo anteriormente, el movimiento en el aire casi siempre es «rápido», o sea, que el papel principal lo juega la resistencia de turbulencia y no la de viscosidad. Experimentan resistencia de turbulencia los aviones, los pájaros, los paracaidistas. Si una persona cae en el aire sin paracaídas, después de cierto tiempo el descenso se hace uniforme (la resistencia se equilibra con el peso), pero con una velocidad considerable, de unos 50 m/s. La apertura del paracaídas da lugar a un retardamiento brusco del descenso: el misino peso se equilibra ahora con la resistencia de la cúpula del paracaídas. Como la fuerza de la resistencia es proporcional a la velocidad del movimiento, al igual que a las dimensiones del objeto que cae, la velocidad disminuirá en tantas veces, en cuantas se alteren las medidas lineales de éste. Como el diámetro del paracaídas es de cerca de 7 m y el «diámetro» del hombre de cerca de un metro, la velocidad del descenso disminuirá hasta 7 m/s. Con esta velocidad se puede aterrizar sin peligro alguno. Hay que subrayar que es más fácil resolver el problema del aumento de la resistencia que el problema inverso. Los problemas técnicos de descender la resistencia que el aire ofrece al automóvil y al avión, o la resistencia que ofrece el agua al submarino, son muy importantes y difíciles. Resulta que cambiando la forma del cuerpo, se puede disminuir en muchas veces la resistencia de turbulencia. Para esto hay que reducir al mínimo el movimiento turbulento, que es el origen de la resistencia. Esto se consigue dando al objeto una forma especial, o como suelen decir, una forma aerodinámica. ¿Qué forma es, en esto sentido, la mejor? A primera vista se puede creer que al cuerpo hay que darle una forma afilada por delante. Como si este filo «cortase» mejor el aire. Pero resulta que lo importante no es cortar el aire, sino perturbarlo lo monos posible, para que éste suavemente circunde el objeto. El mejor perfil para un cuerpo que se mueve en un fluido es la forma achatada por delante y afilada por

Gentileza de Manuel Mayo

156

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

detrás4. En este caso, el fluido se desliza suavemente por el borde afilado y el movimiento turbulento se reduce al mínimo. De ningún modo su deben dirigir los ángulos agudos hacia adelante, puesto que los filos provocan la formación de un movimiento turbulento. La forma aerodinámica del ala del avión, no sólo ofrece menor resistencia al movimiento, sino que crea mayor fuerza ascensional cuando la superficie fuselada está inclinada hacia arriba en dirección del movimiento. El aire, siguiendo el contorno

del

ala,

presiona,

sobre

ésta,

fundamentalmente

en

la

dirección

perpendicular a su plano (fig. 6.4). Está claro que para el ala inclinada esta fuerza está dirigida hacia arriba.

Figura 6.4 Con el aumento del ángulo, la fuerza ascensional crece. Pero un razonamiento fundado solamente en ideas geométricas nos llevaría a la conclusión errónea de que, cuanto mayor sea el ángulo en dirección del movimiento, tanto mejor. En realidad, a medida que aumenta dicho ángulo, se hace más difícil el contorneado suave del plano y, a un valor determinado del ángulo, como se ilustra en la fig. 6.5 4 Las proas afiladas de las lanchas y de los barcos se necesitan para “cortar” las olas, o sea, solamente cuando el movimiento se efectúa por la superficie.

Gentileza de Manuel Mayo

157

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

se crea una fuerte turbulencia: la resistencia aumenta bruscamente y disminuye la fuerza ascensional.

Figura 6.5 Desaparición de la viscosidad Frecuentemente explicando algún fenómeno o describiendo la conducta de tales o cuales cuerpos, nos referimos a ejemplos conocidos. Está completamente claro, solemos decir, que este objeto se muevo de tal modo, pues los otros cuerpos se mueven de acuerdo con las mismas reglas. En la mayoría de los casos es satisfactoria la explicación de lo nuevo mediante lo conocido. Por eso, no hemos experimentado dificultades especiales al explicar al lector las leyes por las que se mueven los líquidos, pues todos han visto cómo fluye el agua, y las leyes de este movimiento parecen completamente naturales. Sin embargo, hay un líquido absolutamente extraordinario, que no se parece a ningún líquido y que se mueve según unas leyes especiales, propias de él. Este es el helio líquido. Ya dijimos que el helio líquido se mantiene líquido hasta la temperatura del cero absoluto. Sin embargo, el helio a temperatura mayor de 2 K (más exactamente, de 2,19 K), y el helio a una temperatura menor, son líquidos diferentes por completo. A más de dos grados, el helio, por sus propiedades, no se distingue de los demás líquidos. Más bajo de esta temperatura, el helio se convierte en un líquido maravilloso, llamado helio II.

Gentileza de Manuel Mayo

158

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La propiedad más sorprendente del helio II es su superfluidez, descubierta por P. Kapitza en el año 1938, que consiste en la ausencia absoluta de viscosidad. Para observar la superfluidez se prepara un recipiente, en cuyo fondo haya una rendija estrecha, de medio micrón solamente. Un líquido ordinario casi no pasa por esta rendija; así se comporta también el helio a temperaturas mayores de 2,19 K. Pero, en cuanto la temperatura se hace menor de 2,19 K, la velocidad con que pasa el helio por la rendija aumenta bruscamente, por lo menos en mil veces. El helio II mana por una abertura finísima casi instantáneamente, o sea, pierde la viscosidad por completo. La superfluidez del helio da lugar a un fenómeno todavía más extraño. El helio II es capaz de «salir» del vaso o de la probeta que lo contiene. La probeta con el helio II se coloca en un vaso de Dewar (un termo) sobre un baño de helio. «Sin más ni más», el helio se eleva por la pared de la probeta en forma de una película finita, imperceptible por completo, y va saliendo del borde; de la parte inferior de la probeta se van desprendiendo las gotas. Hay que recordar, que gracias a las fuerzas capilares, de las que se ha hablado en páginas anteriores, las moléculas de cualquier líquido que moja las paredes del recipiente, suben por esta pared y forman en ésta una película finísima, cuyo espesor es del orden de una millonésima parte de centímetro. Esta película es imperceptible y, en general, no se distingue nada del líquido viscoso ordinario. Si operamos con helio privado de viscosidad, el cuadro cambia por completo. Esto es debido a que una rendija estrecha no impide el movimiento del helio superfluido, y una película superficial fina es lo mismo que una rendija estrecha. El líquido desprovisto de viscosidad fluye formando una capa finísima. La película superficial forma un sifón a través del borde del vaso o de la probeta, por el cual el helio sale del recipiente. Está claro que en el líquido ordinario no se observa nada parecido. Teniendo una viscosidad normal, el líquido no puede «penetrar» prácticamente por un sifón de un espesor insignificante. El movimiento es tan lento, que la penetración duraría millones de años. Así pues, el helio II está privado de viscosidad alguna. Sería lógico sacar la conclusión de que un cuerpo sólido tendría que moverse en tal líquido sin rozamiento. Coloquemos en el helio líquido un disco suspendido de un hilo y

Gentileza de Manuel Mayo

159

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

comencemos a torcer el hilo. Dejando libre este simple dispositivo, se crea algo parecido al péndulo: el hilo con el disco se pone en oscilación y se va retorciendo periódicamente hacia una u otra parte. Sí no hubiese rozamiento, el disco tendría que oscilar eternamente. Sin embargo, no ocurre nada semejante, Después de un tiempo relativamente corto, aproximadamente igual que para el helio I normal (o sea, para el helio a la temperatura mayor de 2,1 K), el disco se para. ¡Qué cosa más rara! Saliéndose por la rendija, el helio se comporta como un líquido sin viscosidad, mientras que en relación a los cuerpos que se mueven en él, se comporta

como

un

líquido

viscoso

ordinario.

¡Esto



que

realmente

es

extraordinario e incomprensible! Ahora no queda más que recordar lo dicho con respecto al hecho de que el helio no su endurece hasta el cero absoluto. Todo esto indica que no sirven nuestras ideas habituales sobre el movimiento. Si el helio se mantiene «ilegalmente» líquido, ¿Hay que asombrarle de la conducta ilegítima de este líquido? Solamente se puede entender el comportamiento del helio desde el punto de vista de las nuevas ideas sobre el movimiento, que han recibido el nombre de mecánica cuántica. Hagamos la prueba de dar una idea muy general sobre la explicación que da la mecánica cuántica al comportamiento del helio líquido. La mecánica cuántica es una teoría muy perspicaz y difícil de comprender, y no debe asombrarse el lector de que la explicación parezca más extraña que el mismo fenómeno. Resulta que cada partícula de helio líquido participa simultáneamente en dos movimientos: en uno, que es superfluido y que no está ligado a la viscosidad y, en otro, que es ordinario. El helio II se comporta como si estuviese compuesto de una mezcla de dos líquidos que se mueven absolutamente independientes «uno a través del otro». La conducta de un líquido es normal, es decir, que éste posee viscosidad ordinaria, mientras que la otra parte componente es superfluida. Cuando el helio fluye por la rendija o sale por el borde del vaso, observamos el fenómeno de superfluidez. Sin embargo, en las oscilaciones del disco sumergido en el helio, el rozamiento que detiene el disco se produce debido a que en la parte normal del helio el rozamiento del disco es inevitable.

Gentileza de Manuel Mayo

160

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La facultad de participar en dos movimientos diferentes origina también unas insólitas propiedades de conductibilidad térmica del fluido, que son extrañas por completo. Como ya se advirtió, generalmente, los líquidos son malos conductores del calor. El helio I se comporta de un modo semejante a los líquidos ordinarios. Cuando su efectúa la transformación en helio II, su conductibilidad térmica aumenta, aproximadamente en mil millones de veces, de aquí que el helio II conduce el calor mejor que los mejores conductores ordinarios del calor, como el cobre y la plata. Esto es debido a que el movimiento superfluido del helio no participa en la propagación del calor. Por esto, cuando en el helio II hay salto de temperatura, se crean dos flujos que van en direcciones opuestas, y uno de ellos, el normal, lleva consigo calor. Esto no se parece en nada a la conductibilidad térmica ordinaria. En el líquido ordinario, el calor se transmite por los choques de las moléculas. En el helio II, el calor se propaga junto con la parte ordinaria del helio que fluye como un líquido. En este caso, el término «flujo del calor» está completamente justificado. Este método de transmisión del calor es el que da lugar a una conductibilidad térmica elevadísima. Esta explicación de la conductibilidad térmica del helio puede parecer tan extraña que posiblemente se resistan Vds. a creerla. Pero pueden convencerse directamente de que lo dicho es justo en el siguiente experimento, cuya idea es muy sencilla. En un baño de helio líquido hay un vaso de Dewar, lleno también de helio. El recipiente está comunicado con el baño por un apéndice capilar. El helio del recipiente se calienta con una espiral eléctrica; el calor no se transmite al helio que le rodea, puesto que las paredes del recipiente no propagan calor. En frente del tubo capilar hay una laminilla colgada de un hilo. Si el calor fluye como un líquido, aquél tiene que hacer girar la laminilla. Precisamente esto es lo que ocurre. Además, la cantidad de helio en el recipiente no varía. ¿Cómo explicar este fenómeno maravilloso? De un solo modo: durante el calentamiento se crea un flujo de la parte normal del líquido que va del lugar caliente al lugar frío, y un flujo de la parte superfluida que va en dirección contraria. La cantidad de helio en cada parte no varía, pero como junto con la transmisión del calor se mueve la parte normal del

Gentileza de Manuel Mayo

161

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

líquido, la laminilla gira gracias al rozamiento de viscosidad de esta parte y se mantiene inclinada tanto tiempo, cuanto dure el calentamiento. Del hecho de que el movimiento superfluido no transmite calor, se deduce también otra consecuencia. Antes se ha dicho que el helio «sale» por encima del borde del vaso. Pero, «se escapa» del vaso la parte superfluida y se queda la parte normal. El calor está ligado solamente con la parte normal del helio y no acompaña a la parte superfluida que «se escapa». Por lo tanto, a medida que «se escapa» el helio del recipiente, una misma cantidad de calor va correspondiendo a una cantidad cada vez menor de helio; el helio que queda en el recipiente tiene que calentarse. Realmente, esto se observa en el experimento. Las masas de helio, que están ligadas con los movimientos superfluido y normal, no son iguales. Su relación depende de la temperatura. Cuanto menor sea la temperatura, tanto mayor será la parte superfluida de la masa del helio. En el cero absoluto, todo el helio se hace superfluido. A medida que aumenta la temperatura, mayor parte de helio empieza a portarse normalmente y, a la temperatura de 2,19 K, todo el helio se hace normal y adquiere las propiedades de un líquido ordinario. Pero el lector ya tendrá en la punta de la lengua las preguntas: ¿Qué helio superfluido

es

ése?,

¿cómo

puede

una

partícula

de

líquido

participar

simultáneamente en dos movimientos?, ¿cómo explicar el mismo hecho de que haya dos movimientos de una partícula?... Sintiéndolo mucho nos vemos obligados a dejar aquí sin respuesta todas estas preguntas. La teoría del helio II es demasiado complicada y para explicarla necesitaríamos mucho espacio y tiempo. Plasticidad Elasticidad es la capacidad del cuerpo de recobrar su forma después de haber dejado de actuar una fuerza sobre él. Si se suspende una pesa de un kilogramo de un alambre de acero de un metro de largo y de 1 mm2 de sección transversal, el alambre se alarga. El alargamiento es insignificante, solamente de 0,5 mm, pero es fácil observarlo. Si se quita la pesa, el alambre se encoge en los mismos 0,5 mm y la marca vuelve a su posición anterior. Tal deformación se llama elástica. Anotemos, que el alambre de 1 mm2 de sección, bajo la acción de una fuerza de 1 kgf, y el alambre de 1 cm2 de sección, bajo la acción de una fuerza de 100 kgf,

Gentileza de Manuel Mayo

162

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

están, como suele decirse, en condiciones iguales de tensión mecánica. Por esto, siempre hay que describir el comportamiento del material indicando la tensión (y no la fuerza, que carece de sentido, si no se conoce la sección del cuerpo), o sea, la fuerza por unidad de superficie. Generalmente, los cuerpos, como los metales, el vidrio, las piedras, se pueden dilatar por elasticidad, en el mejor de los casos, en algunos tantos por ciento solamente. La goma posee unas cualidades elásticas admirables. La goma se puede alargar en varios centenares de tantos por ciento (o sea, se puede hacer dos y tres veces más larga que la original), y, soltando tal cordón de goma, vemos que vuelve a la posición primitiva. Bajo la acción de fuerzas pequeñas, todos los cuerpos sin distinción tienen elasticidad. Sin embargo, el límite de elasticidad aparece en unos cuerpos antes y en otros mucho después. Por ejemplo, para los metales blandos como el plomo, su límite de elasticidad aparece cuando se suspende del extremo de un alambre de un milímetro cuadrado de sección, una carga de 0,2 a 0,3 kgf. Para los materiales duros, como el acero, este límite es, aproximadamente, 100 veces mayor, o sea alrededor de 25 kgf. Con respecto a las grandes fuerzas que superan el límite de elasticidad, los cuerpos se pueden dividir en dos clases: frágiles, tales como el vidrio, y plásticos, tales como la arcilla. Si se comprime con el dedo un trozo de arcilla, quedará en ésta una huella, que con mucha exactitud reproducirá hasta las ondulaciones más complicadas del dibujo de la piel. Si se golpea con el martillo un trozo de hierro dulce o un trozo de plomo, quedará una huella bien clara. La acción ha cesado, mientras que la deformación se mantiene; esta deformación se llama plástica o residual. Tales huellas residuales no se consiguen obtener en el vidrio; si se sobrepasa cierto límite, éste se rompe. Igual de frágiles son algunos metales y aleaciones, como, por ejemplo, el hierro colado. Un balde de hierro, golpeando con un martillo, se aplasta, mientras que un puchero de hierro colado se raja. Sobre la resistencia de los cuerpos frágiles se puede juzgar por los datos siguientes. Para convertir en polvo un trozo de hierro colado hay que obrar con una fuerza de cerca de 50 a 80 kgf sobre un milímetro cuadrado de superficie. Para el ladrillo, este número baja hasta 1,5 a 3 kgf.

Gentileza de Manuel Mayo

163

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Como para cualquier clasificación, la división de los cuerpos en frágiles y plásticos es en cierto grado convencional En primer lugar, un cuerpo que es frágil a temperatura baja puede ser plástico a temperaturas superiores. El vidrio se puede trabajar admirablemente como material plástico, si se le calienta hasta una temperatura de unos cuantos centenares de grados. Los metales dulces como el plomo se pueden forjar fríos, mientras que los metales duros se forjan solamente calentándolos mucho, en forma incandescente. El aumento de la temperatura eleva bruscamente las propiedades plásticas de los materiales. Una de las propiedades fundamentales de los metales, que los hacen ser materiales de construcción insustituibles, es su dureza a temperaturas ambientes y su plasticidad a temperaturas más altas; a los metales candentes es fácil darles la forma que se necesita, mientras que a la temperatura ambiente, solamente se les puedo alterar la forma con fuerzas considerables. La estructura interna del material ejerce una influencia esencial en las propiedades mecánicas. Está claro que las grietas y los vacíos debilitan la resistencia del cuerpo y lo hacen mis frágil. Es admirable la facultad de consolidación de los cuerpos plásticos deformables. El cristal solitario del metal, que acaba de crearse en la fundición, es muy blando. Los cristales de muchos metales son tan blandos, que es fácil doblarlos con los dedos, pero, desdoblarlos, es imposible. Se ha efectuado su consolidación. Ahora, este ejemplar se puede deformar plásticamente aplicando una fuerza sensiblemente mayor, resulta que la plasticidad no sólo es una propiedad del material, sino también una propiedad de su tratamiento. ¿Por qué se preparan los instrumentos en la forja y no fundiendo el metal? La causa es clara, el metal sometido a la forja (o a la laminación o estiramiento), es mucho más resistente que el fundido. Por mucho que se forje el metal, nunca podremos elevar su resistencia más de cierto límite, llamado límite de fluencia. Para el acero, este límite se encuentra en el intervalo de 30 a 50 kgf/mm2.

Gentileza de Manuel Mayo

164

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Este número significa lo siguiente. Si de un alambre de un milímetro cuadrado de sección se suspende una pesa de un pud5 (inferior al límite de fluencia), el alambre empieza a alargarse y a consolidarse. Por consiguiente, el alargamiento termina rápidamente y la pesa queda suspendida del alambre. Si se suspendiese del mismo alambre una pesa de dos o de tres puds (superior al límite de fluencia), el cuadro sería diferente, El alambre se estiraría continuamente hasta que se rompiese. Subrayemos de nuevo, que el comportamiento mecánico del cuerpo no se determina por la fuerza, sino por la tensión. Un alambre de 100 micrones cuadrados de sección se rompe a causa de la acción de una carga de 30 a 50 x 10-4 kgf, es decir, de 3 a 5 gf. Dislocaciones Demostrar que la deformación plástica es un fenómeno de gran trascendencia para la práctica significa forzar la puerta abierta. La forja, el estampado, la obtención de chapas metálicas, así como el estirado de los alambres, todos estos son fenómenos de una misma naturaleza. Si hubiéramos considerado que los cristalitos de los cuales está constituido el metal son fragmentos ideales de las redes espaciales, no podríamos comprender nada en la deformación plástica. La teoría de las propiedades mecánicas del cristal ideal fue creada ya a principios de nuestro siglo (siglo XX). Esta teoría se desviaba de los datos aportados por la experiencia aproximadamente mil veces. Si el cristal fuese, perfecto, su resistencia a la rotura debería ser en muchos órdenes mayor que la observada, y la deformación plástica requeriría esfuerzos descomunales. Las hipótesis germinaron antes de acumularse los hechos. Para los investigadores era evidente que la única salida que permitiese reconciliar la teoría y la práctica era admitir que los cristalitos tenían defectos. Sin embargo, en cuanto al carácter de estos defectos, por supuesto que sólo se podían hacer las más diversas conjeturas. Solamente cuando los físicos se armaron de finísimos métodos de investigación de la estructura de la materia, comenzó a proyectarse luz sobre el cuadro. Resultó que el fragmento ideal de la red (un bloque) tenía las dimensiones del orden de varias 5

1 pud es una medida rusa antigua, de poco uso en la actualidad, equivalente a 16 kg (N. del T.).

Gentileza de Manuel Mayo

165

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

millonésimas partes de centímetro. Los bloques estaban desorientados dentro de los límites de segundos o minutos de arco.

Figura 6.6 Para el final de los años veinte se acumularon ya numerosos datos que condujeron a una importante conclusión, la de que el defecto principal (aunque no el único) de un cristal real era un desplazamiento regular que recibió el nombre de dislocación. En la figura-modelo 6.6 se muestra una dislocación simple.

Figura 6.7 Como verá el lector, la esencia del defecto radica en que en el cristal hay sitios que parecen contener un plano atómico «en exceso». La línea de trazos en el centro del

Gentileza de Manuel Mayo

166

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

cristal representado en la fig. 6.6 a, separa dos bloques. La parte superior del cristal está comprimida, y la inferior, dilatada. La dislocación se disuelve rápidamente, como evidencia la fig. 6.6, b que da la vista «desde arriba» de la fig. 6.6, a. Otra clase de dislocaciones que se encuentran con frecuencia en los cristales se denominan dislocaciones espirales. Sus esquemas están expuestos en la fig. 6.7. Aquí, la red está partida en dos bloques uno de los cuales con una parte suya parece como si se deslizase en un período con respecto al bloque vecino. Las máximas dislocaciones se concentraron cerca del eje. Precisamente la zona adjunta a este eje se denomina dislocación espiral. Comprenderemos

mejor

en

qué

consiste

la

esencia

de

la

deformación

si

examinamos el esquema en esta misma figura que representa dos planos atómicos vecinos situados por uno y por otro lado del plano de corte (fig. 6.7, b). Con respecto a la figura tridimensional es la vista del plano desde la derecha. El eje de la dislocación espiral es el mismo que en la figura tridimensional. Las líneas continuas muestran el plano del bloque derecho, y las de trazos, el del bloque izquierdo. Los puntos negros están dispuestos más cerca del lector que los blancos. Como se ve en el esquema, la dislocación espiral representa otro tipo de deformación, distinto del tipo simple. Aquí no tenemos una fila sobrante de átomos. La deformación consiste en que cerca del eje de dislocación las filas atómicas cambian sus vecinos más próximos, es decir, se comban, alineándose con los vecinos que se encuentran en el piso anterior, más bajo. ¿Por qué esta dislocación se denomina dislocación espiral? Figúrese que usted anda por los átomos (reduciéndose previamente hasta dimensiones subatómicas) y se ha planteado como objetivo dar una vuelta alrededor del eje de dislocación. No es difícil advertir que al comenzar su viaje desde el plano más bajo, usted, después de cada revolución, irá a parar al siguiente piso, más alto, y así sucesivamente, basta que, al fin y al cabo, saldrá a la superficie superior del cristal, de modo que la trayectoria de su marcha recuerde la que se sigue en una escalera de caracol. En nuestra figura la subida tenía lugar en sentido contrario a las agujas del reloj. Si la dislocación de los bloques hubiera sido opuesta, el viaje se hubiera realizado en sentido de las agujas del reloj.

Gentileza de Manuel Mayo

167

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Ahora estamos en condiciones de contestar a la pregunta de cómo se desarrolla la deformación plástica. Supongamos que queremos desplazar la mitad superior del cristal respecto a la inferior en una distancia interatómica, como usted habrá advertido, para lograr este objetivo es necesario hacer rodar unas sobre otras todas las filas de átomos dispuestas en el plano de cizallamiento. El asunto resulta ser completamente distinto cuando se trata de la acción de la fuerza de cizallamiento sobre un cristal con dislocación.

Figura 6.8 En la fig. 6.8 se representa el empaquetamiento denso de las esferas (se muestran tan sólo las hileras periféricas de las filas atómicas) que contiene una dislocación simple. Comencemos a desplazar a la derecha el bloque superior con respecto al inferior. Para que sea más fácil darse cuenta de lo que sucede hemos marcado las esferas con cifras; las esferas de la capa comprimida están mateadas por medio de cifras con rayas. En cierto momento inicial la «grieta» existía entre las filas 2 y 3, y las filas 2' y 3' resultaron comprimidas. Apenas la fuerza haya actuado, la fila 2 se desplazará a la grieta: ahora la esfera 3' podrá «respirar libremente», en cambio, debe comprimirse la esfera 1'. ¿Qué ha sucedido, entonces? Toda la dislocación se ha desplazado hacia la izquierda, y su movimiento seguirá desarrollándose de la misma manera hasta que la dislocación

Gentileza de Manuel Mayo

168

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

«abandone» el cristal. El resultado será el desplazamiento a una fila de átomos, es decir, el resultado será el mismo que durante el desplazamiento de un cristal ideal. Huelga demostrar que el desplazamiento de dislocación requiere una fuerza mucho menor. En el primer caso es necesario superar la interacción entre los átomos, o sea, hacer rodar todas las filas atómicas; en el segundo caso, en cada momento rueda nada más que una sola fila atómica. La resistencia mecánica del cristal, suponiendo un desplazamiento sin que existan dislocaciones, es cien veces mayor que el valor de la resistencia mecánica observado en el experimento, Sin embargo, surge la siguiente dificultad. Como queda claro de la figura, la fuerza aplicada «expulsa» la dislocación del cristal. En consecuencia, a medida que aumenta el grado de deformación el cristal debe hacerse cada vez más resistente y, finalmente, cuando la última de las dislocaciones esté eliminada, el cristal, con arreglo a la teoría, debe alcanzar una resistencia mecánica aproximadamente cien veces mayor que la de un cristal regular perfecto. En efecto, el cristal sí que se hace más resistente en medida que se acrecienta el grado de deformación, pero dista mucho de llegar a la cifra de cien veces. Las que sacan del apuro son las dislocaciones espirales. Resulta que (pero aquí el lector nos debe creer de palabra, ya que es muy difícil ilustrar lo expuesto con mi dibujo) las dislocaciones espirales no se dejan «expulsar» tan fácilmente del cristal. Además, el desplazamiento en el cristal puede tener lugar por medio de dislocaciones de ambos tipos. La teoría de las dislocaciones explica satisfactoriamente las particularidades de los fenómenos de desplazamiento de los planos cristalinos. Desde el punto de vista moderno la deformación plástica de los cristales no es sino el movimiento de desorden a lo largo del cristal. Dureza La tenacidad (o solidez) y la dureza no van emparejadas. Un bramante, un trozo de paño, un hilo de seda, pueden tener gran tenacidad; para romperlos se necesita una tensión considerable. Naturalmente, nadie dirá que el bramante y el paño son materiales duros. Por el contrario, la tenacidad del vidrio no es grande y es, en cambio, un material duro.

Gentileza de Manuel Mayo

169

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El concepto de dureza que se emplea en la técnica se ha reproducido de la vida cotidiana. La dureza es la reacción a la penetración. Un cuerpo es duro si es difícil rayarlo, si es difícil dejar una huella en él. Al lector le puede parecer que estas definiciones son un poco confusas. Es que estamos acostumbrados a que el concepto físico se exprese por un número. ¿Cómo hacer esto con respecto a la dureza? Los mineralogistas emplean ya hace mucho un método bastante primitivo, pero útil en la práctica. Colocan en fila diez minerales determinados. Primero está el diamante, detrás le sigue el corindón, luego, el topacio, el cuarzo, el feldespato, la apatita, la fluorita, la caliza, el yeso y el talco. La serie está elegida del modo siguiente: el diamante puede rayar a todos los demás minerales, pero ninguno de éstos puede rayarle, listo significa que el diamante es el mineral más duro. La dureza del diamante se aprecia con el número 10. El siguiente, después del diamante, el corindón, es más duro que todos los demás minerales que le siguen: el corindón puede rayarlos. Al corindón le atribuyen el número 9 de dureza. Los números 8, 7 y 6 se atribuyen, por las mismas razones, al topacio, al cuarzo y al feldespato, respectivamente. Cada uno de ellos es más duro (o sea, que puede rayar) que los minerales que van a continuación y es más blando (puede ser rayado) que los minerales que tienen mayor número de dureza. El mineral más blando es el talco y tiene una unidad de dureza. La «medición» (no hay más remedio que poner esta palabra entre comillas) de la dureza, empleando esta escala, consiste en hallar para el mineral que nos interesa el lugar que le corresponde en esta seria de diez patrones elegidos. Si un mineral desconocido se le puede rayar con el cuarzo, pero él, a su vez, puede rayar el feldespato, su dureza es igual a 6,5. Los especialistas en metales emplean otro método de determinación de la dureza. Presionando una bolita de acero de 1 cm de diámetro con una fuerza patrón (ordinariamente de 3000 kgf) sobre el material que se experimenta, se deja en éste una impresión. El radio de la impresión formada se toma como número de dureza. No siempre concuerda la dureza con respecto al rayado y la dureza por indentación, y un material puede ser más duro que otro por el método del rayado y más blando por el de indentación.

Gentileza de Manuel Mayo

170

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

De este modo, no hay un concepto universal de dureza que no dependa del método de medición. Por esto, la dureza no es un concepto físico, sino técnico. Vibraciones y ondas acústicas Ya comunicamos al lector muchos conocimientos sobre las oscilaciones. Un capítulo del primer libro fue dedicado a las cuestiones relacionadas con las oscilaciones del péndulo, a las oscilaciones de la bolita suspendida de un resorte, a las leyes de las vibraciones de una cuerda. Nosotros no dijimos qué le ocurre al aire o a otro medio ambiente cuando un cuerpo situado en él efectúa vibraciones. No hay duda de que el medio ambiente no puede mantenerse indiferente ante estas vibraciones, El cuerpo que vibra empuja el aire, desplaza las partículas de aire de las posiciones que antes ocupaban. Está claro también, que la cosa no puede limitarse solamente a la influencia de las capas próximas del aire, el cuerpo comprime la capa cercana, ésta presiona sobre la siguiente, y así, capa por capa, partícula por partícula, se pone en movimiento todo el aire de alrededor. Nosotros decimos que el aire se ha puesto a vibrar o que en el aire se producen vibraciones acústicas. Las vibraciones del medio las llamamos acústicas, pero esto no significa que oímos todas las vibraciones acústicas. La física emplea el concepto de vibraciones acústicas en un sentido más amplio. Más adelante se dirá qué vibraciones acústicas oímos. Si se trata del aire es porque frecuentemente el sonido se propaga por él. Pero es natural que el aire no sea el único medio que posee propiedades para poder efectuar vibraciones acústicas. Estas pueden surgir en cualquier medio que sea capaz de comprimirse, y como en la naturaleza no hay cuerpos incompresibles, pueden encontrarse en estas condiciones las partículas de cualquier material. Por lo general, el estudio de tales vibraciones se llama acústica. En las vibraciones acústicas, cada partícula del aire se mantiene, por término medio, en un mismo sitio; ésta solamente efectúa vibraciones alrededor de la posición de equilibrio. En el más simple de los casos, la partícula de aire puede efectuar vibraciones amónicas que, como recordamos, se realizan según la ley del seno. Estas se caracterizan por el desplazamiento máximo de la posición de

Gentileza de Manuel Mayo

171

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

equilibrio: por la amplitud y por el período de vibración; o sea, por el tiempo que se tarda en efectuar una vibración completa. Para describir las propiedades de las vibraciones acústicas se emplea más a menudo el concepto de frecuencia que el de periodo. La frecuencia

, es la magnitud

inversa del período. La unidad de frecuencia es la inversa del segundo (s-1). Si la frecuencia de la vibración es igual a 100 s-1 esto significa que durante un segundo la partícula de aire efectúa 100 vibraciones completas. En lugar de decir: «100 segundos inversos», se puede decir, «100 hertzios» (Hz) o «100 ciclos». Como en la física se suele tratar a menudo con frecuencias que son muchas veces más grandes que el hertzio, tienen amplia aplicación las unidades kilohertzio (kilociclo) y megahertzio (megaciclo); 1 kHz = 103 Hz, 1 megHz. = 106 Hz. Al pasar por la posición de equilibrio, la velocidad de la partícula vibrante es máxima. Por el contrario, en las posiciones extremas de desplazamiento, la velocidad de la partícula es, naturalmente, igual a cero. Ya dijimos que, si el desplazamiento de la partícula se efectúa según la ley de las vibraciones armónicas, la variación de la velocidad de las vibraciones se efectúa según la misma ley. Si la amplitud del desplazamiento se indica con s0, y la velocidad con v0, se tiene que , o bien,

. Una conversación en voz alta provoca vibraciones de

las partículas de aire con una amplitud de desplazamiento que es solamente igual a unas cuantas millonésimas partes de centímetro. El valor de la amplitud de la velocidad es de unos 0,02 cm/s.

Figura 6.9

Gentileza de Manuel Mayo

172

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Otra importante magnitud física, que varía junto con el desplazamiento y con la velocidad de la partícula, es la presión excesiva, llamada también sonora o acústica. Las vibraciones acústicas del aire consisten en unas alternaciones periódicas de sobre presiones y depresiones del medio, en cada uno de sus puntos. La presión del aire en cualquier sitio es, ya mayor, ya menor, que cuando no había sonido. Este exceso (o escasez) de presión es lo que se llama presión acústica. La presión acústica representa una parte insignificante de la presión normal del aire. En nuestro ejemplo de la conversación en voz alta, la amplitud de la presión acústica es, aproximadamente, igual a una millonésima parte de una atmósfera, La presión acústica es directamente proporcional a la velocidad de vibración de la partícula y, además, la razón de estas magnitudes físicas depende sólo de las propiedades del medio. Por ejemplo, a la presión acústica en el aire de 1 dina/cm2 le corresponde una velocidad de vibración de 0,025 cm/s. La cuerda, que oscila según la ley del seno, anima también las partículas del aire a hacer vibraciones armónicas. Los ruidos y los sonidos musicales complicados presentan un cuadro mucho más complejo. En la fig. 6.9 están dibujadas las vibraciones acústicas, o más exactamente, se representa la presión acústica en dependencia del tiempo. Esta curva se parece poco a la sinusoide.

Figura 6.10 Resulta que cualquier oscilación, por muy complicada que sea, no puede representar como el resultado de una superposición, una sobre otra, de una gran

Gentileza de Manuel Mayo

173

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

cantidad de sinusoides de diferentes amplitudes y frecuencias. Estas oscilaciones simples forman, como suele decirse, el espectro de la oscilación compleja, en la fig. 6.10 se representa un caso sencillo de adición de vibraciones. Si el sonido se propagase instantáneamente, todas las partículas del aire vibrarían como una sola. Pero el sonido no se propaga instantáneamente y los volúmenes de aire situados en la línea de propagación se ponen en movimiento uno tras otro, como si fuesen arrastrados por la onda que parte del foco. De este mismo modo, una astilla permanecerá tranquilamente en el agua hasta que las ondas circulares del agua producidas por una piedra que se ha lanzado la alcancen y la hagan vibrar. Prestemos atención a una partícula en vibración y comparemos su comportamiento con el movimiento de otras partículas situadas en la misma línea de propagación del sonido. La partícula vecina su pone a vibrar un poco más tarde, la siguiente, todavía más tarde. El retardamiento va creciendo hasta que, por fin, nos encontramos con una partícula que se ha retardado un período entero y que, por eso, va al compás de la partícula inicial. Así, un corredor desafortunado retardándose en una vuelta entera, pasa por la línea final junto con el líder. Pero, ¿a qué distancia encontraremos el punto que vibra al compás con el punto inicial? No es difícil calcular que esta distancia λ es igual al producto de la velocidad c de propagación del sonido por el período T de las oscilaciones. La distancia λ se llama longitud de la onda, λ = cT. A cada intervalo λ encontramos puntos que vibran al compás. Los puntos situados a la distancia λ/2 efectuarán movimiento uno con relación al otro, lo mismo que un objeto que oscila perpendicularmente con relación a su imagen. Representando el desplazamiento de la velocidad, o la presión acústica de todos los puntos situados en la línea de propagación del sonido armónico, resulta de nuevo una sinusoide. No se deben confundir las gráficas del movimiento ondulatorio y de las vibraciones. Los dibujos 6.11 y 6.12 son muy parecidos, pero en el primero, en el eje horizontal está marcada ¡a distancia, mientras que en el segundo está marcado el tiempo. Un

Gentileza de Manuel Mayo

174

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

dibujo representa el desarrollo temporal de la vibración, mientras que el otro representa la «fotografía» instantánea de la onda. Confrontando estos dibujos se ve que la longitud de la onda puede llamarse también período espacial; el papel de T en el tiempo lo juega en el espacio la magnitud λ.

Figuras 6.11 y 6.12 En el dibujo de la onda sonora, los desplazamientos de la partícula están marcados en la vertical, y la dirección de la propagación de la onda, a lo largo de la cual se mide la distancia, es la horizontal. Esto puede dar lugar a la idea errónea de que el desplazamiento de las partículas es perpendicular a la dirección de propagación de la onda. En realidad, las partículas de aire siempre vibran a lo largo de la dirección de propagación del sonido. Tal onda se llama longitudinal. La luz se propaga con una velocidad incomparablemente mayor que la del sonido: es prácticamente instantánea. El trueno y el rayo se producen al mismo tiempo, pero el rayo lo vemos al instante de surgir, mientras que el sonido del trueno llega a nosotros con una velocidad, aproximadamente, de un kilómetro durante tres segundos (la velocidad del sonido en el aire es de 130 m/s). Por lo tanto, cuando se oye el trueno, el peligro de que nos caiga el rayo ya ha pasado. Generalmente, sabiendo la velocidad de propagación del sonido, se puede determinar la distancia de la tormenta. Si desde el momento en que se ve el relámpago hasta cuando suena el trueno han pasado 12 segundos, la tempestad está a 4 kilómetros de nosotros.

Gentileza de Manuel Mayo

175

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La velocidad del sonido en los gases es, aproximadamente, igual a la velocidad media del movimiento de las moléculas del gas y también depende de la densidad del gas, es proporcional a la raíz cuadrada de la temperatura absoluta. Los líquidos son mejores propagadores del sonido que los gases. En el agua, el sonido se propaga con una velocidad de 1450 m/s, o sea, 4,5 veces más rápidamente que en el aire Todavía mayor es la velocidad del sonido en los cuerpos sólidos; por ejemplo, en el hierro, es de cerca de 6000 m/s. Cuando el sonido pasa de un medio a otro, su velocidad de propagación varía. Pero, simultáneamente, ocurre también otro fenómeno interesante; la reflexión parcial del sonido en la frontera de los medios. La parte del sonido que se refleja depende, fundamentalmente, de la razón de las densidades. En el caso de que el sonido vaya del aire a una superficie sólida o líquida o, por el contrario, de medios densos al aire, el sonido se refleja casi por completo. Cuando el sonido va del aire al agua o, por el contrario, del agua al aire, en el segundo medio penetra solamente 1/1000 parte del sonido. Si los dos medios son densos, la razón entre el sonido que penetra y el reflejado puede no ser muy grande. Por ejemplo, del agua al acero o del acero al agua, pasa el 13% y se refleja el 87% del sonido.

Figura 6.13

Gentileza de Manuel Mayo

176

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El fenómeno de reflexión de sonido se emplea ampliamente en la navegación. En él se basa la construcción del aparato para la medición de la profundidad, el sondador acústico (fig. 6.13). En un borde del barco y debajo del agua se coloca un foco sonoro. Los impulsos sonoros atraviesan el espesor de agua y se reflejan en el fondo del mar o del río, volviendo parte del sonido al barco, donde es captado por unos aparatos sensibles. Unos relojes muy exactos indicar el tiempo que ha tardado el sonido en hacer este viaje. Como la velocidad del sonido en el agua es conocida, con un simple cálculo se puede obtener una información exacta de lo profundidad. Dirigiendo el sonido, no hacia abajo, sino hacia adelante o hacia los lados, se puede determinar con su ayuda si hay cerca del barco escollos o icebergs, en los cuales la mayor parte de su masa de hielo va sumergida. Todas las partículas de aire que rodean un cuerpo sonoro se encuentran en estado de vibración. Como se aclaró en el primer libro, el punto material que vibra según la ley del seno posee una energía total determinada y constante. Cuando el punto vibrante pasa por la posición de equilibrio, su velocidad es máxima. Como en ese instante, el desplazamiento del punto es igual a cero, toda su energía se reduce a la cinética:

Por consiguiente, la energía total es proporcional al cuadrarlo del valor de la amplitud de la velocidad de la vibración. Esto es cierto también para las partículas de aire que vibran junto con la onda sonora. Sin embargo, la partícula de aire es una cosa indeterminada, Por eso, la energía del sonido se refiere a una unidad de volumen. Esta magnitud se puede llamar densidad de la energía del sonido. Como la masa de una unidad de volumen es la densidad ρ, la densidad de la energía sonora será

Gentileza de Manuel Mayo

177

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Más arriba hablamos de una magnitud física importante que efectuaba vibraciones según la ley del seno con la misma frecuencia que la velocidad. Esta es la presión excesiva o sonora. Como estas magnitudes son proporcionales, se puede decir que la densidad de la energía es proporcional al cuadrado del valor de la amplitud de la presión sonora. La amplitud de la velocidad para el caso de una conversación en voz alta es igual a 0,02 cm/s. Pero 1 cm3 de aire pesa cerca de 0,001 g. Por lo tanto, la densidad de la energía es igual a

Supongamos que oscila la fuente del sonido. Este emite energía sonora al aire, que le rodea. Parece como si la energía «manase» del cuerpo sonoro. Por cada superficie perpendicular la línea de propagación del sonido pasa, durante un segundo, una cantidad determinada de energía. Esta magnitud se llama flujo de la energía que pasa a través de la superficie. Si, además se ha tomado una superficie de 1 cm2, lo cantidad de energía que pasa a través de ella se llama intensidad de la onda sonara. Es fácil cerciorarse de que la intensidad del sonido I es igual al producto de la densidad de la energía ω por la velocidad del sonido c. Figurémonos un cilindro pequeño de 1 cm de altura y de 1 cm2 de superficie básica, cuyas generatrices son paralelas a la dirección de propagación del sonido. La energía ω contenida dentro de este cilindro saldrá por completo de él después del tiempo 1/c. Por lo tanto, durante una unidad de tiempo pasará a través de una unidad de superficie la energía sea, ωc. Parece como si la energía se moviese con la velocidad del sonido. En una conversación en voz alta, la intensidad del sonido alrededor de los interlocutores será igual a (utilizamos el número obtenido anteriormente) 2 x 10-7 3 x 103 = 0,006 ergios/(cm2 seg) aprox.

Gentileza de Manuel Mayo

178

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Sonidos audibles o inaudibles ¿Qué vibraciones acústicas percibe el oído del hombre? Resulta, que éste es capaz de percibir solamente las vibraciones que están comprendidas, aproximadamente, en el intervalo de 20 hasta 20.000 Hz. Los sonidos de gran frecuencia se llaman altos, los de pequeña frecuencia, bajos. ¿Qué longitudes de ondas corresponden a las frecuencias límites audibles? Como la velocidad del sonido es aproximadamente igual a 300 m/s, por la fórmula λ = cT = c/ν, hallamos que las longitudes de las ondas sonoras audibles están comprendidas entre los 15 m para los tonos más bajos y hasta 1.5 cm para los más altos. ¿De qué modo «oímos» estas vibraciones? Hasta la fecha no se ha esclarecido definitivamente el trabajo de nuestro órgano del oído. Se trata de que en el oído interno (en el caracol, un canal de varios centímetros de longitud lleno de líquido) se dan varios miles de nervios sensibles capaces de percibir las vibraciones acústicas que se transmiten al caracol a partir del aire a través del tímpano. Según sea la frecuencia del tono vibra con mayor fuerza tal o cual parte del caracol. Aunque los nervios sensibles se disponen a lo largo del caracol de una forma tan densa que se excita de una vez un número grande de éstos, el hombre (y los animales) es capaz de distinguir, sobre todo, en la infancia, las variaciones de frecuencia ínfimas (de milésimas partes), Y hasta el momento no se conoce exactamente cómo ocurre esto. Lo único que resulta claro es que aquí el papel importantísimo lo desempeña el análisis de las irritaciones que llegan a partir de la multitud de distintos nervios. Por ahora, todavía no se ha logrado inventar un modelo mecánico que, teniendo la misma estructura, pueda distinguir tan bien como el oído del hombre la frecuencia del sonido. La frecuencia de sonido de 20 000 Hz es el límite por encima del cual el oído humano no percibe las vibraciones mecánicas del medio. Empleando distintos métodos es posible generar vibraciones de frecuencia más alta; el hombre no las oirá, pero los aparatos podrán registrarlas. Desde luego, no sólo los aparatos captan semejantes vibraciones. Muchos animales, por ejemplo, murciélagos, abejas, ballenas y delfines (como se ve, el asunto no reside en el tamaño del ser vivo) pueden percibir las vibraciones mecánicas con una frecuencia hasta de 100 000 Hz.

Gentileza de Manuel Mayo

179

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Actualmente, se consigue obtener vibraciones con una frecuencia hasta de mil millones de hertzios. Estas vibraciones, aunque son inaudibles, se denominan ultrasonoras para confirmar su parentesco con el sonido. Los ultrasonidos de pequeñas frecuencias se obtienen por medio de láminas de cuarzo Semejantes láminas se cortan de los monocristales de cuarzo.

Gentileza de Manuel Mayo

180

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 7 Transformaciones de las moléculas

Contenido: •

Reacciones químicas



La combustión y la explosión



Motores que trabajan a costa de transformaciones de moléculas

Reacciones químicas La física es el fundamento de todas las ciencias naturales. Esta es la razón de que es imposible divorciar la física de la química, geología, meteorología, biología, etc. Es que las leyes principales de la naturaleza pertenecen al objeto de la física. La teoría sobre la estructura de la materia también es un apartado inalienable de la física. No es casual que se hayan escrito libros intitulados: física geológica, física biológica, física química, física de construcciones, etc. De este modo, será completamente conveniente que en este libro que trata sobre las leyes principales. Estrictamente hablando, la química comienza allí donde la molécula se rompe en fracciones, o bien, allí donde de dos moléculas se forma una sola, o, también, en el caso en que de dos moléculas que chocaron entre sí se forman otras dos. Si al principio y al final del fenómeno nos encontramos con el hecho de que la composición química de los cuerpos participantes en el acontecimiento ha cambiado, esto quiere decir que ha tenido lugar una reacción. Las reacciones químicas pueden desarrollarse «por sí mismas», es decir, debido a los movimientos de las moléculas propias de la temperatura dada. Por ejemplo, se dice con frecuencia: «la sustancia se descompone». Esto significa que las oscilaciones internas de los átomos de la molécula conducen a la rotura de los enlaces entre los átomos: la molécula se desmorona. Con mayor frecuencia, la reacción química es resultado del encuentro de las moléculas. El metal se ha aherrumbrado. Esta es una reacción química: se han

Gentileza de Manuel Mayo

181

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

encontrado el átomo del metal y la molécula de agua, dando lugar a la formación de óxido. A un vaso con agua han echado una pulgarada de ácido cítrico y una cucharadita de sosa. Comienzan a formarse enérgicamente burbujas de gas. Como resultado del encuentro de estas dos moléculas se han formado nuevas sustancias, y entre éstas, el gas carbónico cuyas burbujas, precisamente, se desprenden del agua. De este modo, el desmoronamiento espontáneo de la molécula y las colisiones entre moléculas: he aquí de causas de la reacción química. Pero las reacciones pueden provocarse también por otras causas. Usted, con enojo, examina su traje que junto con usted viajó para veranear en el sur. La tela perdió el color, quedó deslucida. Bajo la acción de los rayos del sol tuvo lugar la transformación química del colorante empleado para teñir el material. Las reacciones que se desarrollan por impacto de la luz se denominan fotoquímicas. El

investigador

tiene

que

realizar

con

gran

cuidado

los

experimentos

correspondientes para no mezclar en un montón el calentamiento que transcurre bajo la acción de la luz (éste origina el aumento de energía cinética del movimiento de las moléculas, de modo que los choques entre las mismas serán más frecuentes y más fuertes) y las acción directa de la luz la cual consiste en que la partícula luminosa, el fotón, «rompe» los enlaces químicos. Bajo la acción de la luz se desarrolla una cadena de reacciones químicas que transcurren en las plantas verdes y que lleva el nombre de fotosíntesis. Debido a la transformación fotoquímica que tiene lugar en las plantas se realiza aquel gran ciclo de carbono sin el cual no hubiera existido la vida También otras partículas enérgicas: los electrones, los protones, etc., pueden provocar la ruptura de los enlaces químicos acompañada de diferentes reacciones químicas. La reacción química puede transcurrir tanto con absorción del calor como con su desprendimiento. ¿Qué significa este hecho en el lenguaje de las moléculas? Si se han encontrado dos moléculas lentas y de estas se han formarlo dos rápidas, entonces, resulta que el calor se ha liberado. Es que nosotros estamos al tanto de Gentileza de Manuel Mayo

182

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

que el aumento de la temperatura equivale a la aceleración de las moléculas. A estas reacciones pertenecen la combustión y la explosión de las cuales hablaremos un poco más tarde. Ahora tenemos que traducir al idioma de las moléculas la velocidad de las reacciones. Se conoce perfectamente que se dan reacciones que transcurren en un instante (explosión), en cambio, también existen reacciones que duran años enteros. Supongamos que también en este caso se trata de las reacciones en las cuales entran en colisión dos moléculas y de estas se forman otras dos. La siguiente suposición parece ser cierta. En primer término, es sustancial aquella energía de colisión que es suficiente para que se opere la rotura de las moléculas y su reestructuración: en segundo término, también es importante otra cosa: ¿cuál debe ser el ángulo de incidencia en el encuentro de las moléculas para que la reacción se desarrolle? ¿Pueden estos ángulos ser arbitrarios o solamente existen algunos determinados? La energía mínima necesaria para que la reacción transcurra lleva el nombre de energía de activación. A esta energía pertenece el papel principal en el curso de la reacción, sin embargo, tampoco debe olvidarse el segundo factor, o sea, la parte correspondiente a las colisiones «felices» de partículas con energía dada. La reacción química que transcurre con liberación de calor puede simularse mediante el cuadro mostrado en la fig. 7.1.

Figura 7.1 Gentileza de Manuel Mayo

183

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Una esfera rueda cuesta arriba, salva la barrera y se desliza cuesta abajo. Por cuanto el nivel inicial resulta ser más alto que el final, se consume menor cantidad de energía que se liberará. Este cuadro ilustra palmariamente el porqué de la ostensible dependencia de la velocidad de reacción respecto a la temperatura. Si la temperatura es pequeña, la «velocidad de la esfera» es insuficiente para subir a la montaña. A medida que la temperatura se eleva, un número cada vez mayor de esferas serán capaces de saltar por la montaña. Las velocidades de las reacciones químicas dependen en gran medida de la temperatura. Por regla general, el ascenso de la temperatura de 10 grados aumenta la velocidad de reacción de 2 a 4 veces. Si la velocidad de reacción aumenta, digamos, 3 veces al ascender la temperatura en 10 grados, resulta que la elevación de la temperatura en 100 grados proporcionará un aumento de 310 ≈ 60.000 veces; el incremento en 200 grados, ya nos dará un aumento de 320 ≈ 4 x 109 veces, y en 500 grados, un aumento igual a 350, es decir, de 1024 veces, aproximadamente. No es de extrañar, pues, que la reacción que transcurre con velocidad normal a la temperatura de 500 °C, a la temperatura ambiente, en general, no se desarrolla.

La combustión y la explosión Para que comience la combustión hay que acercar una cerilla ardiendo al objeto que se desea quemar. Pero la cerilla no se inflama por sí sola, hay que encenderla en el fósforo de la caja. De este modo, para que comience la reacción química es necesario un calentamiento previo. La inflamación crea en el momento inicial la temperatura necesaria para la reacción. A continuación, el calor que se desprende de la reacción mantiene alta la temperatura. El recalentamiento local inicial tiene que ser suficiente para que el calor desprendido en la reacción supere al calor cedido al medio frio de alrededor. Por eso, cada reacción de combustión tiene, como suele decirse, su temperatura de inflamación. La combustión empieza solamente cuando la temperatura inicial es más alta que la Gentileza de Manuel Mayo

184

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

temperatura de inflamación. Por ejemplo, la temperatura de inflamación de la madera es de 610 °C, la de la gasolina es de cerca de 200 °C, la del fósforo blanco de 50 °C. La combustión de la leña, del carbón o del petróleo, es una reacción química de unión de estas substancias con el oxígeno del aire. Por eso, tal reacción se efectúa en la superficie: hasta que no se queme la capa exterior, la siguiente no puede tomar parte en la combustión. Esta es la explicación de la lentitud relativa de la combustión. De que lo dicho es cierto, es fácil convencerse en la práctica. Desmenuzando el combustible, se puede aumentar considerablemente la velocidad de la combustión. Con este fin, en muchas instalaciones de hornos se efectúa la pulverización del carbón en los fogones. De la misma forma se desmenuza y se mezcla con el aire el combustible en el cilindro del motor. En el motor sirve de combustible no el carbón, sino sustancias más complejas, por ejemplo, la gasolina. La molécula de octano que entra en la composición de esta sustancia (fig. 7.2, a la izquierda) consta de 8 átomos de carbono y 18 átomos de hidrógeno enlazados de tal modo como se muestra en la figura.

Gentileza de Manuel Mayo

185

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 7.2

Durante la combustión, esta molécula está sometida a impactos por parte de moléculas de oxígeno. Los choques con las moléculas de oxígeno destruyen la molécula de octano. Las fuerzas que en la molécula de octano enlazan uno o dos átomos de carbono con un átomo de hidrógeno, así como las fuerzas que unen dos átomos de oxígeno en una molécula de oxígeno, no son capaces de oponerse a la mis fuerte «afinidad», como dicen los químicos, entre los átomos de oxígeno, por una parte, y los átomos de carbono o hidrógeno, por otra. Por esta causa, los viejos enlaces entre los átomos de las moléculas se alteran, los átomos se reagrupan y forman nuevas moléculas. Como representa la fig. 7.2, a la derecha, también aquí como nuevas moléculas, productos de combustión, intervienen al dióxido de carbono y el agua. En este caso el agua se presenta en forma de vapor. Otra cosa ocurre cuando no hay necesidad de la atmósfera del aire por contener la substancia todo lo necesario para la reacción. Un ejemplo de tal substancia es la mezcla del hidrógeno con el oxígeno (esta se llama gas detonante).

Gentileza de Manuel Mayo

186

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La reacción no se efectúa en la superficie, sino dentro de la substancia. A diferencia del caso de combustión, toda la energía que se forma en la reacción se cede casi instantáneamente, debido a lo cual aumenta bruscamente la presión y se efectúa la explosión. El gas detonante no se quema, sino que explota. Así, pues, la substancia explosiva tiene que contener dentro de sí los átomos y las moléculas que hacen falta para la reacción. Está claro que se pueden preparar mezclas gaseosas explosivas. Existen también substancias sólidas explosivas. Estas son explosivas, precisamente, porque en su composición figuran todos los átomos que son necesarios para la reacción química que da calor y luz. La reacción química que se efectúa en la explosión es una reacción de descomposición, de desintegración de las moléculas en partes. En la fig. 7.3 se muestra, como ejemplo, una reacción explosiva, la desintegración en partes de la molécula de la nitroglicerina. Como se ve en la parte del esquema de la derecha, de la molécula inicial se forman moléculas de gas carbónico, de agua, de nitrógeno. Entre los productos de la reacción hallamos los productos ordinarios de la combustión, pero ésta se ha efectuado sin la participación de las moléculas de oxígeno del aire; todos los átomos necesarios para la combustión se encuentran dentro de la molécula de la nitroglicerina. ¿Cómo se propaga la explosión por la substancia explosiva, por ejemplo, en el gas detonante?

Cuando

se

quema

una

substancia

explosiva

se

produce

un

calentamiento local. La reacción tiene lugar en un volumen calentado. Pero, con la reacción, se desprende calor, que, mediante una transmisión térmica, pasa a las capas próximas de la mezcla. Este calor es suficiente para que en la capa vecina se efectúe la reacción.

Gentileza de Manuel Mayo

187

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 7.3

Las nuevas cantidades de calor desprendido llegan a las siguientes capas del gas detonante, y así, con una velocidad ligada a la transmisión del calor, la reacción se propaga por toda la substancia. La velocidad de esta transmisión es de unos 20-30 m/s. Naturalmente, ésta es muy rápida. Un tubo de gas de un metro explota durante una veinteava parte de segundo, es decir, casi instantáneamente, mientras que la velocidad de combustión de la leña o de trozos de carbón, que se produce en la superficie y no en el volumen, se mide en centímetros por segundo es decir, es unos cuantos miles de veces menor. A pesar de esto, a esta explosión se le puede llamar lenta, puesto que es posible otra explosión centenares de veces más rápida que la descrita. La explosión rápida es debida a la onda de choque. Si en alguna capa de la substancia se eleva bruscamente la presión, desde este lugar empezará a propagarse la onda de choque, que como ya sabemos, la onda de choque da lugar a un salto considerable de la temperatura. Llegando a la capa vecina, la onda de choque eleva su temperatura. El aumento de la temperatura origina la reacción explosiva, y la explosión conduce a un aumento de la presión y mantiene la onda de choque, cuya intensidad, en caso contrario, disminuiría a medida que ella se

Gentileza de Manuel Mayo

188

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

propagase. De este modo, la onda de choque produce una explosión y ésta, a su vez, mantiene la onda de choque. La explosión que acabamos de describir se llama detonación. Como la detonación se propaga por la substancia con la velocidad de la onda de choque (de cerca de 1 km/s), esta es, verdaderamente centenares de veces más rápida que la explosión «lenta». No se puede plantear la cuestión de qué substancias explotan «lentamente» y cuáles

«rápidamente»,

pues

una

misma

substancia,

situada

en

diferentes

condiciones, puede explotar «lentamente» y puede detonar y, en algunos casos, la explosión «lenta» pasa a detonación. Algunas substancias, como por ejemplo, el yoduro de nitrógeno, explotan al tocarlas con una pajita, con un pequeño calentamiento o con una chispa de luz. Una substancia explosiva como la trilita, no explota al caerse, incluso al dispararla con un fusil. Para su explosión se necesita una onda de choque muy fuerte. Existen substancias que son todavía menos sensibles a las acciones exteriores. La mezcla de abono del nitrato amónico con el sulfato amónico no se creía que fuera explosiva, hasta que no ocurrió un trágico caso en una fábrica química alemana de Oppau en el año 1921. Para desmenuzar una mezcla prensada se empleó allí el método de explosión. El resultado fue que volaron el almacén y la fábrica entera. No se podía culpar a los ingenieros de la fábrica de la desgracia: unas veinte mil explosiones, aproximadamente, se efectuaron normalmente y solamente una vez se crearon las condiciones favorables para la detonación. Las substancias que explotan solamente bajo la acción de la onda de choque y que, en condiciones ordinarias, se mantienen estables, no siendo vulnerables por el fuego, son muy útiles para la técnica de las explosiones. Tales substancias se pueden producir y depositar en grandes cantidades. Sin embargo, para poner en acción estas substancias explosivas inertes, se necesitan detonantes, o como se suele decir, iniciadores de la explosión. Estas substancias explosivas iniciadoras son completamente necesarias como originadoras de las ondas de choque.

Gentileza de Manuel Mayo

189

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Pueden servir de ejemplos de substancias iniciadoras la azida de plomo o el fulminato de mercurio. Si un granito de esta substancia se coloca en una hoja de lata y se quema, se produce una explosión que hace un agujero en la lata. La explosión de estas substancias es detonadora en cualquier condición. Si se coloca un poco de azida de plomo en la carga de una substancia explosiva secundaria y se quema, la explosión del iniciador originará una onda de choque que será suficiente para la detonación de la substancia explosiva secundaria. En la práctica, la explosión se efectúa mediante una cápsula detonante (1 a 2 g de substancia iniciadora). La cápsula se puede quemar a distancia, por ejemplo, mediante un cordón largo (mecha); la onda de choque que parte de la cápsula hará explotar a la substancia explosiva secundaria. En una serie de casos, la técnica tiene que luchar contra los fenómenos de detonación. En el motor del automóvil, se produce ordinariamente una «explosión lenta» de la mezcla de la gasolina con el aire. Sin embargo, a veces surge la detonación. No se puede admitir que en el motor las ondas de choque sean un fenómeno sistemático, puesto que su acción sobre las paredes de los cilindros del motor da lugar a que se estropeen rápidamente. Para la lucha contra la detonación en los motores hay que emplear una gasolina especial (la gasolina llamada de alto octano) o bien mezclar la gasolina con substancias especiales, con antidetonantes, que no dan a la onda de choque la posibilidad de desarrollarse. Uno de los antidetonantes más difundidos es el tetraetilo de plomo. Esta sustancia es muy venenosa y las instrucciones advierten a los choferes la necesidad de manejar con cuidado esta gasolina. Hay que evitar la detonación en la construcción del cañón de artillería. Durante el disparo, no tienen que formarse dentro del cañón ondas de choque, pues, en caso contrario, éste se estropearía.

Motores que trabajan a costa de transformaciones de moléculas

Gentileza de Manuel Mayo

190

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El hombre que vive en el siglo XX está acostumbrado a utilizar los más diversos motores que cumplen por él los trabajos y decuplican sus fuerzas. En el caso más elemental resulta provechoso transformar la energía mecánica en mecánica pero de otro género. Por ejemplo, obligar al viento o una corriente de agua a hacer girar la rueda de un molino. En las centrales hidroeléctricas el proceso de transformación de la energía de una corriente de agua en movimiento circulatorio de la turbina es intermedio. La turbina pone en movimiento la máquina eléctrica que engendra la corriente eléctrica. Pero en cuanto a esta transformación de energía, hablaremos sobre el particular más adelante. Ya caen en desuso los motores a vapor. Una locomotora se ha convertido en una prenda de museo. Y la causa de ello es el rendimiento demasiado bajo de la máquina térmica. Este hecho no significa, ni mucho menos, que no se utilizan ya las turbinas de vapor. Pero también en éstas la transformación de la energía del vapor que se expande en movimiento mecánico de la rueda constituye tan sólo una etapa intermedia. Y el objetivo final es la obtención de energía eléctrica. En lo que concierne a los aviones y automóviles, cualquier intento de hacerlos moverse con la ayuda de una caldera o turbina de vapor no tiene ningún sentido, lo que es un hecho explícito, puesto que el peso total del motor y del calentador será demasiado grande contando respecto a un caballo de vapor. Sin embargo, es posible librarse del calentador ajeno. En la turbina de gas de agente de transformación sirven directamente los productos incandescentes de combustión del combustible con alto poder calorífico. En estos motores el hombre utiliza las reacciones químicas, es decir, las transformaciones de las moléculas, para obtener energía. Esta circunstancia determina tanto las importantes ventajas de la turbina de gas en comparación con la turbina de vapor, como asimismo las grandes dificultades técnicas relacionadas con la garantía de su funcionamiento seguro.

Gentileza de Manuel Mayo

191

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Las ventajas son evidentes: la cámara de combustión para quemar el combustible tiene pequeñas dimensiones y puede situarse bajo la camisa de la turbina, y los productos de combustión de la mezcla carburante que consta, por ejemplo, de queroseno atomizado y oxígeno poseen una temperatura inalcanzable para el vapor. El flujo térmico que se forma en la cámara de combustión de la turbina de gas es muy intenso, lo que da la posibilidad de obtener un alto rendimiento. No obstante, estay ventajas se convierten en inconveniencias. Los álabes de acero de la turbina trabajan en chorros de gas cuya temperatura alcanza 1200 °C y que están saturadas, inevitablemente, de partículas microscópicas de sales. Es fácil figurar cuán altos requerimientos es necesario plantear a los materiales de los cuales se fabrican las turbinas de gas. Y cuando se intentó diseñar una turbina de gas con una potencia de cerca de 200 CV para un automóvil ligero se tuvo que tropezar con una dificultad plenamente peculiar: la turbina resultó ser de dimensiones tan pequeñas que se negaron a servir,

en

general,

las

soluciones

ingenieriles

ordinarias

y

los

materiales

acostumbrados. Sin embargo, ya se están superando las dificultades técnicas. Se han creado ya los primeros automóviles con turbina de gas, pero es difícil decir si éstos tendrán un futuro. Resultó más fácil utilizar la turbina de gas en el transporte ferroviario. Las locomotoras con turbinas de gas ya han obtenido carta de naturaleza. Pero el camino real para la turbina de gas lo abrieron completamente otros motores, en los cuales dicha turbina constituye una parte integrante aunque necesaria pero subordinada. Se trata del motor turborreactor que, actualmente, es el tipo principal de motor en la aviación reactiva. El principio en que se basa un motor de reacción es extremadamente simple. En una sólida cámara de combustión se quema la mezcla carburante: los productos de combustión cuya velocidad es extraordinariamente grande (3000 m/s) cuando se quema hidrógeno en oxígeno, y algo menor para otros tipos de combustible) se expulsan a través de una tobera que se ensancha suavemente hacia el lado opuesto a

la

dirección

del

Gentileza de Manuel Mayo

movimiento.

Con

estas

192

velocidades,

incluso

cantidades

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

relativamente pequeñas de productos de combustión llevan del motor un impulso grande. Con la creación de los motores de reacción los hombres obtuvieron la posibilidad real de realizar vuelos entre planetas. Obtuvieron una gran difusión los motores cohete de propelente líquido. En la cámara de combustión de este motor se inyectan porciones determinadas de combustible (por ejemplo, alcohol etílico) y de oxidante (habitualmente, oxígeno líquido). La mezcla se quema creando la tracción. En los cohetes de altura del tipo V-2 la tracción tiene el valor del orden de 15 tf. El cohete se carga con 8,5 t de combustible y oxidante que se queman en 1,5 min. Estas cifras son bastante elocuentes. Los motores cohete de propelente líquido son convenientes tan sólo para los vuelos a grandes alturas o fuera de los límites de la atmósfera terrestre. No tiene sentido cargar grandes cantidades de oxidante especial en un avión destinado para los vuelos en las capas inferiores de la atmósfera (hasta 20 km de altura) que contiene suficiente cantidad de oxígeno. Pero en esto caso surge el problema de impeler en la cámara de combustión enormes cantidades de aire necesarias para asegurar una combustión enérgica. Este problema se resuelve de una manera natural: una parte de energía del chorro de gas que se crea en la cámara de combustión se toma para hacer girar un potente compresor que impele el aire a la cámara.

Gentileza de Manuel Mayo

193

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 7.4

Ya hemos dicho con ayuda de qué motor se puede realizar trabajo a costa de energía de un chorro de gases incandescentes, por supuesto, es la turbina de gas. Todo el sistema en cuestión se denomina motor turborreactor (fig. 7.4). Estos motores no tienen rivales en los vuelos con las velocidades de 800 a 1200 km/h. Para vuelos a grandes distancias con una velocidad de 600 a 800 km/h en el árbol del motor turborreactor se monta adicionalmente una hélice de avión ordinaria. Entonces tenemos un motor turbopropulsor de hélice. Cuando la velocidad del vuelo es cerca de 2000 km/h o más, el empuje del aire cortado por el avión es tan fuerte que se elimina la necesidad de tener un compresor. Entonces, como es lógico, tampoco se necesita la turbina de gas. El motor se transforma en un tubo (o tobera) de sección variable, y en un lugar estrictamente determinado de éste se quema el combustible. En este caso se trata ya de un estatorreactor. Está claro que un estatorreactor no puedo hacer despegar el avión; este motor comienza a funcionar sólo a una velocidad muy grande de vuelo.

Gentileza de Manuel Mayo

194

Preparado por Patricio Barros

Física para Todos II– Moléculas

Para

los

vuelos

con

www.librosmaravillosos.com

pequeñas

velocidades

los

L. D. Landau y A. I. Kitaigorodski

motores

de

reacción

son

completamente inconvenientes debido al gran consumo de combustible. Durante el desplazamiento por la tierra, el agua o el aire con las velocidades de 0 a 500 km/h al hombre le sirven fielmente los motores de pistón de combustión interna, de gasolina o Diesel. En plena correspondencia con su denominación la parte principal de este motor la constituye un cilindro dentro del cual se desplaza un pistón. El movimiento alternativo del pistón por medio del sistema de biela y manivela se transforma en el de rotación del árbol (fig. 7.5).

Figura 7.5

El movimiento del pistón se transmite a través de la biela a la manivela que es una parte del cigüeñal. Precisamente el movimiento de la manivela provoca la rotación del árbol. Por el contrario, si se hace girar el cigüeñal, esto origina el balanceo de las bielas y el desplazamiento de los pistones dentro de los cilindros. El cilindro de un motor de gasolina está dotado de dos válvulas, una de las cuales se destina para dejar entrar la mezcla carburante, y la otra, para dejar escapar los Gentileza de Manuel Mayo

195

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

gases quemados. Para lograr que el motor comience a trabajar, es necesario hacerlo girar preliminarmente utilizando la energía de alguna fuente ajena. Supongamos que en cierto momento el pistón comenzó a bajar, mientras que la válvula de admisión está abierta. Al cilindro se succiona la mezcla de gasolina atomizada y aire. La válvula de admisión está ensamblada de tal manera con el árbol del motor que se cierra en el instante en que el pistón alcanza su posición inferior extrema. Con le sucesiva rotación del árbol el pistón se eleva. El accionamiento automático de las válvulas las mantiene cerradas durante esta carrera, por lo tanto, la mezcla carburante se comprime. Cuando el pistón se encuentra en la posición superior la mezcla comprimida se enciende con una chispa eléctrica que salta entre los electrodos de la bujía de encendido. La mezcla se inflama y los productos de combustión, expansionándose, trabajan, impulsando el pistón con fuerza hacia abajo, el árbol del motor recibe un potente empuje y el volante montado en el árbol acumula considerable energía cinética. A costa de esta energía se efectúan los tres tiempos preparatorios subsiguientes: primero, el escape, estando abierta la válvula de escape, el pistón se dirige hacia arriba expulsando del cilindro los gases quemados; seguidamente, tienen lugar la espiración y la compresión que ya hemos mencionado y, luego, una nueva ignición. El motor arrancó. Los motores de gasolina tienen potencias desde fracciones de caballo de vapor hasta 4.000 CV; su rendimiento llega a 46% y el peso por un caballo de vapor es hasta 300 gf. Estos buenos índices explican su amplia aplicación en los automóviles y aviones. ¿De qué forma se puede aumentar el rendimiento de un motor de gasolina? El camino principal es el aumento del grado de compresión. Si antes de inflamarse la mezcla se comprime más fuertemente, su temperatura será mayor. ¿Y por qué es importante aumentar la temperatura? Se trata de que se puede demostrar estrictamente. La demostración es muy engorrosa y carece de interés, por cuya razón la omitirnos, exhortando al lector, como lo hiciéramos ya Gentileza de Manuel Mayo

196

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

reiteradas veces, que de cuando en cuando crea de palabra a los autores, que el valor máximo del rendimiento es igual a 1 - T0/T, donde T es la temperatura del agente de transformación, y T0, la temperatura del medio ambiente. Con el medio no podemos hacer nada, pero en cuanto a la temperatura del agente de transformación la procuramos alimentar, en todos los casos, máximamente posible. Sin embargo (lamentablemente, si que existe este «sin embargo») la mezcla fuertemente comprimida detona (véase páginas anteriores). La carrera de trabajo adquiere el carácter de una fuerte explosión que puede deteriorar el motor. Es necesario tomar medidas especiales que disminuyen las propiedades detonantes de la gasolina, lo que aumenta el precio del combustible ya de por sí no barato. Los problemas de elevación de la temperatura durante la carrera de trabajo, de eliminación de la detonación y de disminución del precio del combustible han encontrado una feliz solución en el motor Diesel. El motor Diesel, por su estructura, recuerda en alto grado el de gasolina, pero está destinado para trabajar con productos de refinación del petróleo más baratos y de peor calidad que la gasolina. El ciclo se inicia con la aspiración al cilindro de aire puro. Seguidamente, el aire se comprime por el pistón hasta 20 atmósferas, aproximadamente. Sería muy difícil conseguir tan alta compresión haciendo girar previamente el motor con la mano. Por esta causa, el motor se pone en marcha recurriendo a un motor especial de arranque, habitualmente, de gasolina, o bien, con aire comprimido. Con una compresión fuerte, la temperatura del aire en el cilindro se eleva hasta tal punto que llega a ser suficiente para la inflamación de la mezcla carburante. Pero, ¿de qué modo se la puede hacer entrar en el cilindro donde se ha derivado la alta presión? Aquí no sirve la válvula de aspiración. Esta se sustituye por un inyector que inyecta combustible en el cilindro a través de un diminuto orificio. El combatible se inflama a medida que entra, con lo cual se elimina el peligro de detonación sustancial para un motor de gasolina.

Gentileza de Manuel Mayo

197

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La eliminación del peligro de detonación permite construir motores Diesel de bajas revoluciones para barcos con una potencia de muchos miles de caballos de vapor. Naturalmente, estos adquieren dimensiones muy considerables, pero, con todo, resultan menos voluminosos que un grupo compuesto de caldera de vapor y turbina. Los barcos provistos de motores Diesel se denominan motonaves. El barco en que entre el motor Diesel y la hélice se interponen un generador y un motor de corriente continua se denomina barco propulsado por motor Dieseleléctrico. Las locomotoras Diesel que, en la actualidad, se introducen ampliamente en los ferrocarriles, están construidas de acuerdo con el mismo esquema, por cuya razón puede llamarse también locomotoras Diesel-eléctricas. Los motores de pistón de combustión interna que nosotros hemos examinado como útiles, han tornado sus principales elementos constructivos, a saber: el cilindro, el pistón, la obtención del movimiento giratorio por medio del mecanismo de biela y manivela, de la máquina de vapor que, actualmente, poco a poco se retira de las tablas. La máquina de vapor se podría llamar «motor de pistón de combustión externa». Precisamente esta combinación de una voluminosa caldera de vapor con el sistema no menos voluminoso de transformación del movimiento de avance en el de rotación priva la máquina de vapor de la posibilidad de competir con éxito con los motores más modernos. Las máquinas de vapor modernas tienen un rendimiento de cerca de 10%. Las locomotoras eliminadas hoy en día de la producción dejaban escapar por la chimenea, sin provecho alguno, hasta el 95 % del combustible que consumían. Este rendimiento «récord» por lo insignificante encuentra su explicación en el empeoramiento inevitable de las propiedades de la caldera de vapor destinada para montarse en la locomotora en comparación con una caldera de vapor estacionaria. ¿Por qué, entonces, las máquinas de vapor durante tal largo tiempo encontraron una aplicación tan amplia en el transporte?

Gentileza de Manuel Mayo

198

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Además del apego a las soluciones acostumbradas, tuvo también significación la circunstancia de que la máquina de vapor posee muy buena característica de tracción: resulta que con cuanta mayor es la carga se opone al desplazamiento del émbolo, con tanta mayor fuerza presiona sobre éste el vapor, es decir, el momento de rotación desarrollado por la máquina de vapor se acrecienta en condiciones difíciles,

lo

que

es,

precisamente,

importante

en

el

transporte.

Pero,

se

sobreentiende que el hecho de que la máquina de vapor no requiere un sistema complejo de transmisiones de cambio hacia los ejes motores no compensa, en modo alguno, su defecto principal: el bajo rendimiento. Aquí, precisamente, radica la causa de que la máquina de vapor es sustituida por otros motores.

Gentileza de Manuel Mayo

199

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 8 Principios de la termodinámica

Contenido: •

Conservación de la energía, expresada en el lenguaje de las moléculas



Cómo transformar el calor en trabajo



Entropía



Fluctuaciones



¿Quién descubrió las leyes de la termodinámica?

La conservación de la energía, expresada en el lenguaje de las moléculas Los principios de la termodinámica forman parte de la cohorte de las grandes leyes de la naturaleza. Estas leyes no son muchas. Pueden contarse por los dedos de una sola mano. El objetivo primordial de toda ciencia, incluyendo, por supuesto, la física, consiste en la búsqueda de las reglas, las regularidades, las leyes generales y las leyes magnas a que se subordina la naturaleza. Esta búsqueda comienza con la observación o con el experimento. Por esta razón decimos que todos nuestros conocimientos revisten carácter empírico. En pos de las observaciones sigue la búsqueda de las generalizaciones. Una labor persistente, las meditaciones y cálculos, una idea súbita permiten hallar las leyes de la naturaleza. Y, después, viene la tercera etapa: la de deducir, de una forma lógica y estricta, basándose en estas leyes generales, corolarios y leyes particulares que pueden comprobarse por vía experimental. A propósito, en ello, precisamente, reside la explicación del fenómeno. Explicar, significa ajustar lo particular a lo general. Desde luego que el sueño de la ciencia es reducir las leyes a un número mínimo de postulados. Los físicos, incansablemente, buscan tales posibilidades, procuran resumir en varias líneas y por medio de elegantes fórmulas toda la suma de nuestros conocimientos acerca de la naturaleza. Albert Einstein, a lo largo de treinta Gentileza de Manuel Mayo

200

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

años, aproximadamente, trató de unificar las leyes de los campos gravitacional y electromagnético. El futuro revelará si se consigue alcanzar este objetivo. Bueno, ¿que son, al fin y al cabo, estos principios de la termodinámica? Una definición breve, por regla general, peca de imprecisión. Pero, tal vez, lo que más nos acerque al quid de la cuestión será decir que la termodinámica es el estudio acerca de las reglas de acuerdo con las cuales los cuerpos intercambian energía. Sin embargo, los conocimientos sobre los principios (o, como también se denominan a veces, las leyes) de la termodinámica ya permiten hallar, por vía estrictamente lógica (matemática), las relaciones entre las propiedades caloríficas y mecánicas de los cuerpos y dan la posibilidad de establecer una serie de regularidades importantísimas que conciernen al cambio de estado de los cuerpos De este modo, puede ser que la definición más exacta de este capítulo, que nos interesa, de la física será la frase trivial: la termodinámica es el conjunto de conocimientos que derivan del primero y del segundo principio de la termodinámica. El primer principio de la termodinámica fue patentizado en una forma concisa y expresiva ya en la época en que los físicos preferían no hablar de las moléculas. Formulaciones de este tipo (que no nos obligan a «internarse» en el seno del cuerpo) llevan el nombre de fenomenológicas, es decir, «referentes al fenómeno». El primer principio de la termodinámica representa cierta precisión y ampliación de la ley de la conservación de la energía. Hemos establecido que los cuerpos poseen energías cinética y potencial y que en un sistema cerrado la suma de estas energías, la energía total, no puede ni desaparecer ni aparecer. La energía se conserva. Si

dejamos

aparte

el

movimiento

de

los

cuerpos

celestes,

resulta

que,

probablemente, podemos decir, sin exagerar, que no hay fenómeno alguno en que el movimiento mecánico no se vea acompañado de un calentamiento o enfriamiento de los cuerpos circundantes. Si un cuerpo queda parado debido al rozamiento, a primera vista parece que su energía cinética se ha perdido. Me obstante, así parece solamente a primera vista. En la realidad, se puede demostrar que la conservación tiene lugar con exactitud absoluta: la energía mecánica del cuerpo se ha consumido para el calentamiento del medio. ¿Pero qué significa esto en el lenguaje de las Gentileza de Manuel Mayo

201

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

moléculas? Esto significa lo siguiente: la energía cinética del cuerpo se ha transformado en energía cinética de las moléculas del medio. Bueno, ¿y qué ocurre en el caso cuando trituramos hielo en un mortero? El termómetro indica constantemente cero grados. Al parecer, la energía mecánica ha desaparecido. ¿A dónde se ha ido en esto caso? Aquí también la respuesta resulta muy clara: el hielo se transformó en agua. En consecuencia, la energía mecánica se ha consumido para destruir los enlaces entre las moléculas, ha cambiado la energía interna de las moléculas. Cada vez que notamos que la energía mecánica de los cuerpos ha desaparecido, descubrimos sin dificultad que este hecho tan sólo nos parece, y que, en la realidad, la energía mecánica se ha transformado en energía interna de los cuerpos. En un sistema cerrado unos cuerpos pueden perder y otros adquirir la energía interna. Pero la suma de la energía interna de todos los cuerpos adicionada a la energía mecánica queda constante para el sistema dado. Por ahora, dejemos al lado la energía mecánica. Examinemos dos momentos de tiempo.

En

el

primer

momento

los

cuerpos

se

encontraban

en

reposo,

seguidamente, tuvieron lugar ciertos acontecimientos, y ahora, los cuerpos otra vez se encuentran en reposo. Estamos seguros de que la energía interna de todos los cuerpos que integraban el sistema quedó invariable. Pero, unos cuerpos perdieron la energía y otros la adquirieron. Este acontecimiento pudo realizarse par dos caminos. Ya sea que un cuerpo ejerció sobre el otro un trabajo mecánico (supongamos que lo comprimió o dilató) o bien, un cuerpo transmitió al otro calor. El primor principio de la termodinámica afirma: la variación de la energía interna del cuerpo es igual a la suma de trabajo comunicado a este cuerpo y de calor transferido al mismo. El calor y el trabajo son dos formas distintas en que la energía puede transferirse de un cuerpo a otro. La transmisión del calor se efectúa por medio de impactos desordenados de las moléculas. La transmisión de la energía mecánica consiste en que las moléculas de un cuerpo, acordemente, moviéndose en filas, transmiten su energía a otro cuerpo.

Gentileza de Manuel Mayo

202

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Cómo transformar el calor en trabajo En el título de este párrafo utilizamos ahora con cierta negligencia la palabra «calor». Como acabamos de señalar, el calor es una forma de transmisión de energía. Por esta razón, sería más correcto plantear la cuestión de la siguiente manera: ¿cómo transformar la energía térmica, o sea, la energía cinética de movimiento de las moléculas en trabajo? Pero la palabra «calor» es familiar, corta y expresiva. Esperamos que el lector no se contunda si la empleamos en la acepción que ahora hemos definido con precisión. En

cuanto

al

calor,

lamentablemente,

éste

toda

existe

esta

alrededor

energía

de

de

nosotros

movimiento

de

en

exceso.

Pero,

las

moléculas

es

absolutamente inútil: es imposible transformarla en trabajo. Semejante energía de ningún modo puede incluirse entre nuestras reservas energéticas. Vamos a analizar este enunciado. Desviado de la posición de equilibrio, el péndulo, tarde o temprano, se para; la rueda de una bicicleta invertida al ser empujada con la mano, dará muchas vueltas, pero, al fin y al cabo, también terminará su movimiento. No hay excepciones en esta importante ley: todos los cuerpos que nos rodean y que se mueven espontáneamente, al fin y al cabo, se paran6. Si se tienen dos cuerpos, uno de los cuales está caliente y el otro frío, el calor se irá transmitiendo del primero de ellos al segundo hasta que sus temperaturas se equilibren. En esto caso terminará la transmisión de calor y pararán de alterarse los estados de los cuerpos. Se establecerá un equilibrio térmico. No existe un solo fenómeno en el que los cuerpos salgan por su cuenta del estado de equilibrio. No puede darse el caso de que la rueda situada en un eje empiece a girar por sí sola. Tampoco puede ocurrir que se caliente por sí mismo el tintero situado sobre la mesa.

6

Naturalmente, aquí no se tiene en cuenta el movimiento uniforme de traslación y la rotación uniforme de un sistema de cuerpos como un todo. Gentileza de Manuel Mayo

203

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La tendencia al equilibro significa que para los sucesos solamente hay un paso natural: el calor pasa del cuerpo caliente al frío, pero no puede pasar por sí solo del cuerpo frío al caliente. La energía mecánica del péndulo en oscilación se transforma en calor gracias a la resistencia del aire y al rozamiento en el centro de suspensión. Sin embargo, de ninguna manera comenzará a balancearse el péndulo a cuenta del calor que hay en el medio ambiente. Los cuerpos se ponen en estado de equilibrio, pero no pueden por sí solos salir de él. Esta ley de la naturaleza muestra, directamente, qué parte de la energía que está a nuestro alrededor es inútil por completo. Esta es la energía del movimiento térmico de las moléculas de aquellos cuerpos que se encuentran en estado de equilibrio. Tales cuerpos no son capaces de convertir su energía en movimiento mecánico. Esta parte de energía es enorme. Calculemos la magnitud de esta energía «muerta». Al disminuir la temperatura en 1 °C un kilogramo de tierra que tiene una capacidad calorífica de

0,2 kcal/kg, pierde

0,2 kcal. Este es un número

relativamente pequeño. Sin embargo, calculemos cuánta energía obtendríamos si se consiguiese enfriar en un solo grado esta substancia tomada en toda la masa terrestre, que es igual a 6 x 1024 kg. Multiplicando, obtenemos un número grandísimo: 1,2 x 1024 Kcal. Para que podamos figurarnos esta magnitud, señalemos inmediatamente, que actualmente, la energía anual producida por todas las céntrales eléctricas de todo el mundo es igual 1015 a 1016 kcal, o sea, es mil millones de veces menor. No hay que asombrarse de que cálculos semejantes sean hipnotizadores para los inventores poco expertos. Antes hablamos de las pruebas de construcción de un motor eterno («móvil perpetuo») que crease trabajo de la nada. Operando con las conclusiones de la física, que se deducen de la ley de conservación de la energía, es imposible rechazar esta ley con la creación de un motor eterno (ahora lo llamaremos motor eterno de primera especie). Este mismo error cometen también los inventores un poco más sutiles que hacen construcciones de motores que producen movimiento mecánico a cuenta solamente Gentileza de Manuel Mayo

204

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

del enfriamiento del medio. Este motor irrealizable se llama motor eterno de segunda especie. Aquí también se comete un error de lógica, puesto que el inventor se basa en las leyes de la física, que se deducen de la ley sobre la tendencia de todos los cuerpos a mantener el estado de equilibrio, y, mediante estas leyes, procura desmentir las bases en las que ellas se apoyan. Así, pues, no se puede efectuar trabajo substrayendo solamente calor del medio ambiente. Dicho sea de otro modo, un sistema de cuerpos que están entre sí en equilibrio es improductivo. Por consiguiente, para obtener trabajo es necesario, ante todo, hallar cuerpos que no estén en equilibrio con sus vecinos. Solamente entonces se conseguirá realizar el proceso de transmisión del calor de un cuerpo a otro o de transformar el calor en energía mecánica. La creación de un flujo de energía es la condición necesaria para la obtención de trabajo. En el «camino» de este flujo se puede transformar en trabajo la energía de los cuerpos. Por eso, solamente la energía de los cuerpos que no están en equilibrio con el medio que les rodea, se puede considerar como reservas energéticas útiles para el hombre. La ley que acabamos de explicar, o sea, la imposibilidad de crear el movimiento perpetuo de segunda especie, se denomina segundo principio de la termodinámica. Por ahora, lo hemos expresado en forma de una regla fenomenológica. Pero, por cuanto sabemos que los cuerpos están constituidos por moléculas, como asimismo sabemos que la energía interna es la suma de energías cinética y potencial de las moléculas, resulta que no nos está del todo claro cuál es la razón de que, de pronto, apareció cierta ley «complementaria». ¿Por qué la ley de la conservación de la energía formulada para las moléculas es insuficiente para formar una idea respecto a todos los fenómenos naturales? En una palabra, involuntariamente surge la siguiente pregunta: ¿y por qué, hablando

con

propiedad,

las

moléculas

se

comportan

de

tal

forma

que,

abandonadas a su propia suerte, tienden al equilibrio? Gentileza de Manuel Mayo

205

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Entropía Esta pregunta es muy importante e interesante. Para contestarla habrá que comenzar desde muy lejos. Los casos cotidianos, frecuentes, los consideramos probables. Por el contrario, se suponen improbables, los sucesos que han tenido lugar gracias a la coincidencia de una serie de circunstancias raras. El caso improbable no requiere la manifestación de ninguna fuerza sobrenatural. En él no hay nada imposible, no hay nada que contradiga a las leyes de la naturaleza. A pesar de esto, en muchos casos estamos completamente convencidos de que lo improbable es, prácticamente, idéntico a lo imposible. Vean la tabla de premios de la lotería. Calculen cuántos billetes hay cuyos números acaben con la cifra 4, o con 5, o con 6. No nos causará asombro cuando hallemos que a cada cifra corresponde aproximadamente la décima parte de los billetes premiados. Y, ¿puede ocurrir que haya una quinta parte y no una décima de billetes con números que terminen con la cifra 5? Uds. dirán que es poco probable. ¿Y si la mitad de los billetes premiados tuvieran este número? ¡No! Esto es completamente improbable..., y, por consiguiente» imposible. Reflexionando sobre las condiciones que se necesitan para que el suceso sea probable, llegamos a la conclusión siguiente: la probabilidad de un suceso depende del número de modos que se puede realizar. Cuanto mayor sea el número de estos modos, con mayor frecuencia se producirá este suceso. Más exactamente, la probabilidad es la razón del número de modos de realización del suceso dado al número de modos de realización de todos los sucesos posibles. Escriban las cifras desde 0 hasta 9 en diez redondeles de cartón y colóquenlos en un saquito. Saquen ahora un redondel, observen su número y pónganlo otra vez en el saquito. Esto es muy parecido o la rifa de la lotería. Se puede afirmar con seguridad que no sacarán una misma cifra, por ejemplo, 7 veces seguidas, incluso si dedican Gentileza de Manuel Mayo

206

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

toda la tarde, a esta obra aburrida. ¿Por qué? La extracción de siete cifras iguales es un suceso que se realiza solamente de diez modos (7 ceros, 7 unidades, 7 doses, etc.). En total hay 107 posibilidades de extraer siete redondeles. Por eso, la probabilidad de extraer, uno tras otro, siete redondeles con la misma cifra, es igual a 10/107 = 10-6, es decir, es solamente igual a una millonésima. Si se echan en un cajón granitos negros y blancos y se mezclan con una pala, se distribuirán muy pronto y uniformemente por todo el cajón. Cogiendo al azar un puñado de granitos, hallaremos en él, aproximadamente, el mismo número de granitos blancos y negros. Por mucho que los mezclemos, el resultado será siempre el mismo: la uniformidad se conserva. Pero, ¿por qué no se efectúa una división de los granos? ¿Por qué no se consigne, después de mezclarlos mucho, que queden arriba los granos negros y abajo los blancos? Todo consiste aquí también en la probabilidad. Este estado, en el que los granos se distribuyen desordenadamente, o sea, que los granos blancos y negros están mezclados uniformemente, se puede realizar por una inmensa cantidad de métodos y, por consiguiente, posee la mayor probabilidad. Por el contrario, un estado tal, en que todos los granos blancos estén por encima y todos los negros por debajo, es único. Por eso, la probabilidad de su realización es insignificante. De los granitos en el cajón, fácilmente pasaremos a las moléculas de que se componen los cuerpos El comportamiento de las moléculas se debe al azar. Esto, particularmente se ve claro en el ejemplo de los gases, como ya sabemos, las moléculas de gas chocan desordenadamente, se mueven en todas las direcciones posibles, con una u otra velocidad. Este eterno movimiento térmico baraja las moléculas, las mezcla como lo hace la pala con los granitos en el cajón. La habitación en que nos encontramos está llena de aire. ¿Por qué no puede ocurrir, en un momento dado, que las moléculas de la mitad inferior de la habitación pasen a la mitad superior, bajo el techo? Este proceso no es imposible, pero es muy improbable. Pero, ¿qué quiere decir muy improbable? Si este fenómeno fuese incluso mil millones de veces menos probable que la distribución desordenada de las moléculas, a pesar de todo, algo se podría esperar ¿Puede ser que consigamos topar con este fenómeno?

Gentileza de Manuel Mayo

207

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

El cálculo muestra que, para un recipiente de 1 cm3 de volumen, esto fenómeno se encuentra una vez cada 1030

000 000 000 000 000 000

veces. No merece la pena hacer

distinción entre las palabras «extremadamente improbable» e «imposible». Es que el número que hemos escrito es inconcebiblemente grande; dividiéndolo por el número de átomos que hay, no sólo en el globo terrestre, sino en todo el sistema solar, resultará, a pesar de todo, un número grandísimo. ¿Cuál será el estado de las moléculas de gas? El más probable. Y el más probable es el estado que se realiza por el máximo número de modos, o sea, la distribución desordenada de las moléculas en la que hay, aproximadamente, un número igual de moléculas que se mueven hacia la derecha y hacia la izquierda, hacia arriba y hacia abajo; en la que en cada volumen se encuentra igual número de moléculas, igual proporción de moléculas rápidas y lentas en las parles superior e inferior del recipiente. Cualquier alteración de este desorden, o sea, de la mezcolanza uniforme y desordenada de las moléculas respecto a los lugares y según las velocidades, está ligada con una disminución de la probabilidad, o bien, abreviando, representa un suceso improbable. Por el contrario, los fenómenos ligados con la mezcolanza, con la creación de desorden del orden, aumentan la probabilidad del estado. Esto significa que estos fenómenos son los que van a determinar el curso natural de les sucesos. La ley sobre la imposibilidad de un motor eterno de segunda especie, la ley sobre la tendencia de todos los cuerpos a mantenerse en estado de equilibrio, tienen ahora su explicación. ¿Por qué se transforma el movimiento mecánico en calor? Pues, porque el movimiento mecánico es ordenado y el térmico es desordenado. El paso del orden al desorden eleva la probabilidad de un estado determinado. Los físicos emplean frecuentemente una magnitud auxiliar, llamada entropía. La entropía caracteriza el grado de orden y está ligada por una fórmula simple con el número de modos de creación de un estado. Aquí no vamos a exponer esta fórmula, solamente apuntaremos que cuanto mayor sea la probabilidad, tanto mayor será la entropía.

Gentileza de Manuel Mayo

208

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La ley de la naturaleza que examinamos ahora, dice: todos los procesos naturales se producen de modo que aumenta la probabilidad de existencia de un estado. Dicho de otro modo, esta misma ley de la naturaleza se formula como la ley del aumento de la entropía. La ley del aumento de la entropía es una ley muy importante de la naturaleza. De ella se deduce, en particular, la imposibilidad de la construcción de un motor eterno de secunda especie o, lo que es lo mismo, la afirmación de que los cuerpos, una vez abandonados, tienden al equilibrio. La ley del incremento de la entropía es, en esencia, el segundo principio de la termodinámica. La diferencia es formal, mientras que el contenido es el mismo. Y, lo que es lo principal, hemos interpretado el segundo principio de la termodinámica en el lenguaje de las moléculas. En cierto sentido, la ubicación de estas dos leyes bajo un solo «gorro» no es del todo conveniente. La ley de la conservación de la energía es una ley absoluta. En cuanto a la ley del incremento de la entropía, esta ley, como se infiere de lo expuesto anteriormente, es aplicable tan sólo a una agrupación lo suficientemente grande de partículas, mientras que para las moléculas aisladas es meramente imposible formularla. El carácter estadístico (esto significa que se refiere a una reunión grande de partículas) del segundo principio de la termodinámica, no disminuye de ningún modo su importancia. La ley del aumento de la entropía predestina la dirección de los procesos. En este sentido se puede llamar a la entropía director-distribuidor de las riquezas naturales, mientras que la energía desempeña el papel del contador.

Fluctuaciones Ya hemos dicho que los procesos espontáneos dan lugar al estado más probable del sistema, al aumento de la entropía. Después de que la entropía del sistema haya alcanzado el máximo, cesa la evolución ulterior del sistema y se consigue el equilibrio.

Gentileza de Manuel Mayo

209

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Pero el estado de equilibrio no significa, de ningún modo, reposo interno. Dentro del sistema

tiene

lugar

un

movimiento

térmico

intenso.

Por

eso,

hablando

estrictamente, cualquier cuerpo físico, en cada instante, «deja de ser lo que es»; la posición relativa de las moléculas en cada instante sucesivo no es la misma que en el anterior. Por lo tanto, los valores de todas las cantidades físicas se conservan «por término medio», éstas no son exactamente iguales a sus valores más probables, sino que oscilan alrededor de ellos. La desviación de los valores más probables

del

equilibrio

se

llama

fluctuación.

Las

magnitudes

de

diversas

fluctuaciones son extremadamente pequeñas. Cuanto mayor sea la magnitud de la fluctuación, tanto menos probable será ésta. El valor medio de la fluctuación relativa, es decir, la parte en que puede variar la magnitud física que nos interesa, gracias a los movimientos térmicos caóticos de las moléculas, puede representarse, aproximadamente, por la expresión 1/√N donde N es el número de moléculas del cuerpo que se examina o de un trozo de él. Por lo tanto, las fluctuaciones son notables para los sistemas que están compuestos de un número pequeño de moléculas, y no se perciben en los cuerpos grandes que se componen de millones y millones de moléculas. La fórmula 1/√N muestra que en un centímetro cúbico de gas, la densidad, la presión, la temperatura y cualesquiera otras propiedades, pueden variar en 1/√(3 x 1019) o sea, aproximadamente, en los límites de 10-8 %. Estas fluctuaciones son demasiado pequeñas para que se las pueda observar experimentalmente. Sin embargo, otra cosa ocurre en el volumen de un micrómetro cúbico. Aquí N = 3 x 107 y las fluctuaciones alcanzan magnitudes mensurables, de unas centésimas de uno por ciento. La fluctuación representa un fenómeno «anormal», en el sentido de que ésta conduce a los pasos de un estado más probable a otro menos probable. Durante la «fluctuación» el calor pasa del cuerpo frío al caliente, se infringe la distribución uniforme de las moléculas, se crea un movimiento ordenado. ¿Puede ser que en estos rompimientos se consiga construir el motor eterno de segunda especie?

Gentileza de Manuel Mayo

210

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figurémonos, por ejemplo, una turbinilla diminuta, situada en un gas enrarecido. ¿Se podría hacer de modo que esta pequeña máquina reaccionase a todas las fluctuaciones de cualquier dirección? Por ejemplo, que girase, si el número de moléculas que van hacia la derecha se hiciese mayor que el número de moléculas que van hacia la izquierda. Estos pequeños golpes se podrían sumar y, al fin y al cabo, se crearía trabajo. El principio de la imposibilidad de un motor eterno de segunda especie sería desmentido. Poro, a pesar de todo, de principio, es imposible una construcción semejante. El estudio detallado, teniendo en cuenta que la turbinilla tiene sus fluctuaciones propias, que son tanto mayores, cuanto menores sean sus dimensiones, muestra que las fluctuaciones no pueden conducir, en general, a ningún trabajo. Aunque continuamente aparecen a nuestro alrededor nuevas alteraciones de la tendencia al equilibrio, éstas no pueden alterar la evolución inevitable de los procesos físicos hacia el lado que aumenta la probabilidad del estado, o sea, la entropía.

¿Quién descubrió las leyes de la termodinámica? En esto caso, no podemos limitarnos con citar un nombre. El segundo principio de la termodinámica tiene su historia. Aquí, al igual que en la historia del primer principio de la termodinámica, se tiene que recordar el nombre del francés Sadi Carnot. En el año 1824, Carnot publicó con sus medios una obra llamada «Reflexiones sobre la fuerza motriz del fuego». En esto trabajo se indicó por primera vez que el calor no podía pasar de un cuerpo frío a uno caliente sin gastar trabajo.

Gentileza de Manuel Mayo

211

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Rodolfo Clausius (1822-1888), destacado físico teórico alemán. Fue el primero en formular con precisión el segundo principio de la termodinámica, en 1850, en forma de tesis, que reza que el calor no puede pasar por sí misino de un cuerpo frío a uno caliente, y en 1865, recurriendo al concepto de entropía que él mismo introdujo. Entre los primeros, fue Clausius se dedicó a los problemas de la capacidad calorífica de los gases poliatómicos y la conductibilidad térmica de los gases Los trabajos de Clausius referentes a la teoría cinética de los gases contribuyeron al desarrollo de las ideas estadísticas sobre los procesos físicos. A él pertenece una serie de trabajos interesantes en el campo de fenómenos eléctricos y magnéticos.

Carnot mostró también, que el rendimiento máximo de una máquina térmica se determina solamente por la diferencia de temperaturas del calentador o fuente de calor y del medio refrigerante. Solamente después de la muerte de Carnot., en el año 1832, los físicos fijaron su atención a este trabajo. Sin embargo, tuvo poca influencia en el desarrollo ulterior Gentileza de Manuel Mayo

212

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

de las ciencias, puesto que toda la obra de Carnot se basaba en el reconocimiento de una «substancia» indestructible e increable, el fluido calórico. Solamente después de los trabajos de Mayer, Joule y Helmholtz, que establecieron la ley de equivalencia del calor y del trabajo, el gran físico alemán Rodolfo Clausius (1822-1888) descubrió el secundo principio de la termodinámica y lo formuló matemáticamente. Clausius introdujo la entropía y mostró que la esencia del segundo principio de la termodinámica se reduce a un aumento inevitable de la entropía en todos los procesos reales. El segundo principio de la termodinámica permite enunciar una serie de leyes generales a las que tienen que someterse todos los cuerpos, cualquiera que sea su constitución. Sin embargo, todavía queda una pregunta: ¿cómo hallar una relación entre la constitución del cuerpo y sus propiedades? A esta pregunta responde una rama de la física llamada física estadística. Está claro que se necesita un método completamente nuevo para calcular las magnitudes físicas que caracterizan los sistemas compuestos de millones y millones de partículas. Sería, pues, absurdo, por no decir absolutamente imposible observar los movimientos de todas las partículas y describir este movimiento sirviéndose de las fórmulas de la mecánica. Sin embargo, precisamente esta inmensa cantidad de partículas es la que ofrece la posibilidad de aplicar los nuevos métodos de la «estadística» para el estudio de los cuerpos. Estos métodos emplean ampliamente el concepto de probabilidad de los sucesos. Las bases de la física estadística fueron establecidas por el célebre físico austríaco L. Boltzmann (1844—1906). En una serie de trabajos, Boltzmann mostró cómo se podrían aplicar los métodos indicados para los gases. La culminación lógica de estas investigaciones fue la interpretación estadística del segundo principio de la termodinámica dada por Boltzmann en el año 1877. La fórmula que liga la entropía con la probabilidad del estado del sistema está grabada en el monumento a Boltzmann. Es difícil sobreestimar la proeza científica de Boltzmann, que halló en la física teórica caminos completamente nuevos. Las investigaciones de Boltzmann, durante

Gentileza de Manuel Mayo

213

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

su vida, fueron causa de burlas por parte del profesorado conservador alemán: en aquel tiempo, las representaciones atómicas y moleculares se tomaban como inocentes y no científicas. Boltzmann acabó suicidándose. El edificio de la física estadística se terminó, en grado considerable, con las obras del célebre físico norteamericano J. W. Gibbs (1830-1903). Este generalizó los métodos de Boltzmann y señaló el modo de aplicación del método de la estadística para todos los cuerpos. El último trabajo de Gibbs salió a la luz ya a comienzos del siglo XX. Este modesto sabio publicaba sus trabajos en el noticiero de una pequeña universidad provincial Muchos años pasaron antes de que conociesen los físicos sus investigaciones admirables. La física estadística señala el camino a seguir para poder calcular las propiedades de los cuerpos que constan de una cantidad dada de partículas. Claro que no hay que creer que estos métodos de cálculo son omnipotentes. Si el carácter del movimiento de los átomos en el cuerpo es muy complicado, tal como sucede en los líquidos, el cálculo se hace, prácticamente, irrealizable.

Gentileza de Manuel Mayo

214

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Capítulo 9 Grandes moléculas Contenido: •

Cadenas de átomos



Flexibilidad de las moléculas



El director gerente de la célula



Cristales globulares



Paquetes de moléculas



Contracción muscular

Cadenas de átomos Hace mucho que los químicos y los tecnólogos tenían que ver con las sustancias naturales constituidas por moléculas largas en las cuales los átomos estaban ligados a semejanza de eslabones de una cadena. No es necesario buscar lejos los ejemplos: las sustancias tan difundidas como caucho, celulosa, proteína son moléculas en forma de cadena que constan de muchos miles de átomos. Las representaciones estructurales sobre estas moléculas aparecieron y se desarrollaron en los años veinte del siglo XX, cuando los químicos aprendieron a prepararlas en el laboratorio. Uno de los primeros pasos en la obtención de sustancias construidas de moléculas largas fue la creación del caucho artificial. Esto magnífico trabajo lo realizó en 1921, el químico soviético Serguéi Vasílievich Lébedev. El problema de obtención del caucho que se necesitaba vitalmente para fabricar los neumáticos (por cuanto la goma se prepara del caucho) se planteó debido al hecho de que en la Unión Soviética no hay caucho natural. En la selva brasileña crece la hevea, árbol que produce en abundancia el látex, jugo lechoso, suspensión del caucho. Los indios hacían del caucho pelotas y lo utilizaban para el calzado. En 1830 los europeos aprendieron a vulcanizar el caucho. Al tratarlo con azufre, en lugar del pegajoso y fluyente caucho se obtenía goma elástica.

Gentileza de Manuel Mayo

215

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Al principio, su consumo era pequeño. En cambio, actualmente, la humanidad requiere millones de toneladas de caucho cada año. La hevea crece solamente en los bosques tropicales. De este modo, si quiere verse libre de la importación del caucho, es necesario producir esto material en las plantas. Y para alcanzar este objetivo es preciso, claro está, conocer que es, en fin de cuentas, el caucho. Para el comienzo de los trabajos de Lébedev la fórmula química del caucho ya no se ignoraba. He aquí esta fórmula:

La cadena expuesta aquí no tiene comienzo ni fin. Vemos que las moléculas están constituidas por eslabones idénticos. A raíz de ello la fórmula de caucho puede representarse en forma breve de la siguiente manera:

El número n alcanza muchos miles. Las largas moléculas estructuradas de eslabones que se repiten recibieron el nombre de polímeros. Hoy en día, en la técnica y en la industria textil tiene difusión amplísima un número muy grande de polímeros sintéticos. Entre éstos se cuentan el nilón, el polietileno, el polipropileno, el cloruro de polivinilo y muchos otros. La más simple estructura la tiene la molécula de polietileno. Ahora, en cada vivienda, en los cajones de las mesas de cocina se puede encontrar saquitos de este material. Si alargamos hasta el límite una molécula de polietileno, esta tendrá la forma representada en la fig. 9.1. Como ve el lector, los físicos lograron determinar las distancias entre los átomos y los ángulos entre los enlaces de valencia. No es obligatorio que las largas moléculas consten de eslabones que se repiten, es decir, estas moléculas no pueden representarse por la fórmula similar a la dada

Gentileza de Manuel Mayo

216

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

para el caucho. Los químicos aprendieron a «construir» moléculas constituidas por dos o más eslabones diferentes que siguen uno tras otra tanto en orden, como caóticamente.

Fig. 9.1 Si estos eslabones se alternan observando un orden determinado, digamos, siguiendo el esquema ABABABABAB entonces, semejante molécula se denomina polímero regular. Ahora bien, tenemos que ver, con frecuencia, con las moléculas que no mantienen esta regularidad de secuencia. La molécula ABBABAAABBBBABABAABBA lleva el nombre de polímero no regular. La molécula natural de proteína también se llama polímero. Las proteínas están estructuradas con 20 fragmentos de distinto género. Estos fragmentos se denominan radicales aminoácidos. Entre las moléculas de proteínas y las moléculas sintéticas formadas por varios fragmentos dispuestos desordenadamente existe una diferencia sustancial. En el

Gentileza de Manuel Mayo

217

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

fragmento de un polímero sintético no hay dos moléculas idénticas. La secuencia desordenada de los fragmentos de los cuales se forma la molécula en cadena es de un tipo en una molécula y de otro tipo en otra. En la mayoría de los casos esta circunstancia influye negativamente sobre las propiedades del polímero. Si las moléculas no se parecen unas a otras, no pueden empaquetarse bien. De principio, de estas moléculas no se puede formar un cristal ideal. Las sustancias de este tipo se caracterizan por el «grado de cristalinidad». En los últimos decenios los químicos dominaron la construcción de polímeros regulares y la industria recibió a su disposición muchos nuevos materiales valiosos. En cuanto a las proteínas naturales de una clase determinada (por ejemplo, la hemoglobina de un toro), resulta que sus moléculas, a pesar de su estructura desordenada, son todas idénticas. La molécula de proteína de la clase dada puede compararse con la página de un libro: las letras van una tras otra siguiendo un orden aleatorio, pero completamente determinado. Todas las moléculas de proteína son copias de una misma página. Flexibilidad de las moléculas La larga molécula puede compararse con un carril. En una longitud de 0,1 mm caben 106 átomos. Las dimensiones transversales de una molécula de polietileno constituyen algo como 3 ó 4 Å, aproximadamente. De este modo resulta que la longitud de la molécula supera su sección transversal centenares de miles de veces. Puesto que el carril tiene el grueso de cerca de 10 cm, la imagen visual de la molécula larga la constituirá un carril de 10 km de longitud. Esto no quiere decir, ni mucho menos, que no se den ocasiones para tratar con moléculas cortas. En general, si no se toman medidas especiales, en una sustancia polímera encontramos moléculas de diferente longitud: desde unas que constan de varios eslabones, hasta tales que vienen integradas por miles de eslabones. Así pues, una molécula larga se parece a un carril. Sí, se parece, pero no del todo, Es difícil doblar un carril, en cambio, una molécula larga, fácilmente, se somete a la flexión. La flexibilidad de la macromolécula no se parece a la de un mimbre. Dicha propiedad surge debido a una condición especial de todas las moléculas: una parte de la molécula puede girar alrededor de otra parle si éstas están unidas por enlaces

Gentileza de Manuel Mayo

218

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

que los químicos denominan unitarios (monovalentes). No es difícil comprender que debido a esta propiedad las moléculas polímeras pueden tomar las formas más caprichosas.

Fig. 9.2 En la fig. 9.2 se representa el modelo de una molécula flexible en tres posiciones Si la molécula se halla flotando en una solución entonces las más de las veces, ésta se arrolla formando un ovillo, o. como se dice, se aovilla. El alargamiento de un cordón de goma se efectúa debido a que las moléculas se desarrollan de este modo, resulta que la elasticidad de los polímeros reviste una naturaleza completamente disímil a la de los metales. Si el cordón tendido se suelta, éste se contrae. Esto quiere decir que la molécula procura pasar de su forma lineal a la parecida a un ovillo. ¿Cuál es la causa de este comportamiento? Puede haber dos causas, En primer término, se puede creer que tomar la forma de ovillo es más ventajoso desde el punto de vista energético: en segundo término, es de suponer que el arrollamiento contribuye al aumento de la entropía. Entonces, ¿cuál de los principios de la termodinámica rige esta conducta: el primero o el segundo?

Gentileza de Manuel Mayo

219

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Cabe pensar que los dos. Pero, sin duda alguna, la condición de ovillo es ventajosa también desde el punto de vista de la entropía, es que la alternancia de los átomos de la molécula arrollada en un ovillo es más caótica que en una molécula alargada. Y nosotros conocemos que el desorden y la entropía guardan un parentesco cercano. En cuanto a la ganancia energética, ésta se obtiene a causa del empaquetamiento denso de los átomos que constituyen la molécula polímera. El arrollamiento de la molécula en espiral o en ovillo se efectúa de tal manera que se asegure un número máximo de contactos entre los átomos no enlazados por valencia. El director gerente de la célula Todo lo vivo está constituido por células. Todas las células poseen núcleos. En todos los

núcleos

existen

moléculas

polímeras

especiales

que

se

podrían

llamar

«nucleares». Pero este adjetivo no está en uso. Dichas moléculas llevan el nombre de ácidos nucleicos. Entre los mismos hay algunas celebridades. Los ácidos nucleicos célebres gozan de tanta fama que sus siglas de tres letras ARN (ácido ribonucleico) y ADN (ácido desoxirribonucleico) pueden verse hasta en las páginas de novelas y relatos. Y la «superestrella» entre las macromoléculas es la molécula de ADN. La causa de ello resido en lo siguiente: esta molécula polímera es la responsable por el crecimiento del organismo, ya que la misma, aunque recurriendo a la ayuda de las moléculas de ARN, fabrica las proteínas; la molécula de ADN lleva en sí la notación codificada de los indicios que caracterizan unívocamente al organismo. En otras palabras, ADN es el responsable por la transferencia de los caracteres hereditarios desde los padres a los descendientes. Entonces, ¿qué representan las moléculas de estos polímeros? ¿Es que los eslabones que componen la molécula están ordenados o situados caóticamente? El asunto presenta el siguiente aspecto. Una molécula solitaria de ADN representa una cadena cuya armazón tiene la misma estructura para las moléculas de ADN de diferentes organismos. A la armazón de la cadena están unidas cuatro diferentes moléculas. Dos de éstas son de mayor tamaño y las dos restantes son dos veces menores. Los átomos que integran la cadena principal de la molécula están

Gentileza de Manuel Mayo

220

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

dispuestos ordenadamente, mientras que las «hojitas» unidas a la rama siguen una tras otra sin orden alguno. Sin embargo, el hecho más admirable e importantísimo es el que todas las moléculas de ADN de un mismo individuo son idénticas y no se parecen (en lo que concierne al orden de secuencia de las «hojitas») a las moléculas de otro individuo incluso perteneciente a la misma especie. Precisamente debido a la diferencia en las moléculas de ADN se distinguen unos de otros todos los hombres, todos los leones, todos los abedules. Se diferencian no sólo gracias a esta causa, sino, y esto es lo primordial, justamente debido a que las «hojitas» siguen una tras otra en distinto orden. Una molécula solitaria de ADN es una espiral. Pero en los núcleos de la célula estas moléculas se entrelazan por pares en una espiral doble. Los átomos de la espiral doble están empaquetados densamente, formando una molécula muy larga y rígida que atraviesa todo el campo visual del microscopio electrónico. La determinación de la estructura de la molécula de ADN se llevó a cabo basándose en los datos químicos acerca de los ácidos nucleicos, en el conocimiento de las reglas de arrollamiento y empaquetamiento de las moléculas que requieren crear un empaquetamiento lo más compacto posible de átomos, así como utilizando los resultados del análisis estructural por rayos X. El hecho de que la molécula de ADN forma una espiral doble dio la posibilidad de promover, inmediatamente, la hipótesis sobre la transferencia de los caracteres hereditarios. Durante la división de las células, las moléculas de ADN de los «padres» se desarrollan, y la nueva molécula de ADN del «heredero» se construye de los segmentos de dos moléculas de ADN diferentes: de la del «padre» y de la «madre». Estos segmentos de las moléculas de ADN desempeñan, precisamente, el papel de los genes de cuya existencia estaban seguros muchos biólogos ya mucho antes de que se hubiera esclarecido la estructura molecular de los portadores de los caracteres hereditarios. El trabajo de la molécula de ADN, director gerente de los procesos vitales, se conoce, en la actualidad, en todos sus detalles y está descrita en centenares de libros científicos, de divulgación científica y de texto. Cristales globulares

Gentileza de Manuel Mayo

221

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La capacidad de arrollarse en un ovillo o, como se dice con frecuencia, en un glóbulo, es inherente a muchas moléculas. Los glóbulos muy ordenados y completamente idénticos unos a otros forman las moléculas de proteínas.

Fig. 9.3 Aquí hay una causa muy fina. Se trata de que la molécula proteínica contenga partículas que «aman» el agua, así como fragmentos cuyo comportamiento respecto al agua es negativo. Los fragmentos que no «aman» el agua se denominan hidrófobos. El arrollamiento de la molécula de proteína se determina por una sola tendencia: la de que todas las partes hidrófobas deben ocultarse en el interior del glóbulo. Precisamente esta circunstancia conduce a que en la solución de la proteína flotan glóbulos que se parecen como hermanos gemelos. Los glóbulos proteínicos son más o mimos esferoidales. Un glóbulo tiene las dimensiones de 100 a 300 Å de modo que no presenta ninguna dificultad verlo en el microscopio electrónico. Los primeros cuadros mediante el microscopio electrónico fueron obtenidos hace varios decenios, cuando la técnica de la microscopía era todavía muy débil. En la fig. 9.3 se da una fotografía de este tipo para el virus del mosaico del tabaco. El virus es más complejo que la proteína, mas para ilustrar nuestra tesis acerca de la tendencia de los glóbulos biológicos a disponerse observando un alto orden, este ejemplo resulta completamente propicio. Gentileza de Manuel Mayo

222

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Pero, ¿por qué los autores no ofrecen cuadros de un cristal proteínico? El asunto radica en lo siguiente. Los cristales de proteínas son absolutamente insólitos. Estos contienen un enorme porcentaje de agua (a veces, hasta de 90%). Esta circunstancia hace imposible su fotografía con el microscopio electrónico. La investigación de los cristales de proteínas puede realizarse tan sólo manipulándolos en una solución. Un matraz finísimo contiene una solución y un monocristal de proteína, este objeto puede estudiarse empleando todos los métodos físicos, incluyendo, entre otros, el análisis estructural por rayos X que ya hemos mencionado reiteradas veces. A pesar de la enorme cantidad de agua, el agua más común y corriente que en nada se diferencia de la tomada del grifo, las moléculas globulares de proteínas se disponen en un orden estrictamente determinado. Su orientación respecto a los ejes del cristal es igual para todas las moléculas. Y el hecho de que las propias moléculas son idénticas ya lo hemos constatado con anterioridad. Este magnífico orden permite determinar la estructura de la molécula de proteína. Este problema dista mucho de ser fácil, y el investigador Perutz quien ya a principios de los años sesenta, primero en el mundo, determinó la estructura de la proteína (fue la hemoglobina); recibió por su trabajo el Premio Nobel. Actualmente se conoce la estructura de cerca de un centenar de moléculas proteínicas. El trabajo continúa. En total, en el organismo vivo se tienen cerca de diez mil de diferentes proteínas. La actividad del organismo vivo depende de cómo están arrolladas estas proteínas y en qué orden siguen uno tras otro los radicales aminoácidos. No hay duda de que el trabajo referente a la determinación de la estructura de las moléculas proteínicas continuará hasta que se llegue a una plena claridad en cuanto a todos los diez mil especies de moléculas que condicionan los procesos vitales. En la fig. 9.3 hemos dado la foto de uno de los virus. Puede ser que vale la pena decir varias palabras sobre la estructura de esta partícula, por cuanto los virus son las más primitivas partículas «vivas». Estos representan complejos de proteínas y ácidos nucleicos. Al mismo tiempo las propias proteínas y ácidos nucleicos ambos pertenecen a las moléculas bioorgánicas. Sería erróneo llamar «vivas» estas moléculas.

Gentileza de Manuel Mayo

223

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

La proteína y el ácido nucleico se combinan en el virus de tal manera que los glóbulos puedan proteger al ácido nucleico. Esta protección puede realizarse de dos formas. Ya sea que los glóbulos forman un cilindro hueco en cuyo interior se encierra el ácido nucleico, o bien, los glóbulos constituyen una esfera hueca y el ácido nucleico se ubica dentro de la cavidad. ¿Cuáles son las dimensiones de los virus? He aquí, por ejemplo, el virus del mosaico del tabaco. Su longitud es de 3000 Å, el diámetro exterior es de 170 Å y el diámetro del canal constituye 80 Å. En el virus entran 2140 moléculas de proteína Sorprende la excepcional ordenación en la disposición de las moléculas de proteína que forman la envoltura del virus. Todas las moléculas proteínicas están arrolladas en glóbulos de un modo absolutamente idéntico. También es estrictamente regular el empaquetamiento de los glóbulos. Los virus esféricos están cercanos por su forma a la esfera. Sin embargo, en la realidad, éstos son poliedros altamente simétricos que los geómetras conocen bajo el nombre de icosaedros: Es difícil sobreestimar el valor que tienen las investigaciones estructurales de las sustancias vivas más simples para la joven ciencia, la biología molecular. Paquetes de moléculas Si bien las moléculas pueden empaquetarse bien al estar estiradas hasta el límite, el material polímero sólido es capaz de formar diversas estructuras bastante complejas las cuales, sin embargo, acusan una propiedad común. En un cuerpo sólido, en tal o cual grado, se darán porciones en que las moléculas se encuentran adyacentes unas a otras, como lápices en un paquete. En dependencia de cuál será el porcentaje de tales tramos «de paquete» en el cuerpo,

como

asimismo

teniendo

en

cuenta

cuán

meticulosamente

están

empaquetadas las moléculas que constituyen este tramo, el polímero puede tener tal o cual «porcentaje de cristalinidad». La mayoría de los polímeros se opone a la simple clasificación de los cuerpos sólidos en amorfos y cristalinos. Aquí no hay nada de extraño por cuanto se trata de moléculas enormes las cuales, además, en la mayoría de los casos, son desiguales. A grandes rasgos, las porciones ordenadas

Gentileza de Manuel Mayo

224

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

(«cristalinas») en los polímeros pueden dividirse en tres clases: paquetes, esferolitos y cristales a partir de moléculas que se pliegan.

Figura 9.4 En la fig. 9.4 se representa la microestructura típica de un polímero. Es una fotografía tomada de una película de polipropileno y aumentada 400 veces. Las figuras en forma de estrella son cristalitos sui generis. Del centro de la estrella durante el enfriamiento del polímero comenzó el crecimiento del esferulito. Seguidamente, los esferolitos se encontraron, por cuya razón no adquirieron la forma esférica perfecta (si se logra observar el crecimiento de un esferolito aislado, entonces, en efecto, se ve una esfera, de modo que la denominación «esferolito» resultó plenamente justificada). En el interior del esferolito las moléculas largas están empaquetadas con bastante meticulosidad. A lo mejor, el esferolito puede imaginarse como una maroma cuidadosamente plegada. El paquete de moléculas hace las veces de maroma. Do aquí resulta que las moléculas, con su eje largo están situadas perpendicularmente al radio del esferolito. En lo misma fotografía vemos porciones plásticas. Es posible que sean los paquetes de moléculas, o, también puede ser que se trata de cristales a partir de moléculas que se pliegan. La existencia de estos y cristales es un hecho interesante y fidedigno que se refiere a la estructura de los polímeros lineales.

Gentileza de Manuel Mayo

225

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Hace unos cuatro lustros se realizó el siguiente descubrimiento notable. A partir de la solución se separaron cristales de diferentes sustancias polímeras. A los investigadores los asombró el hecho de que los cristales idénticos cuyas superficies se parecían a una escalera de caracol, crecían a partir de las soluciones de distintas parafinas. ¿Cuál es la causa de este crecimiento en espiral de los cristales, crecimiento que trae a la memoria los resultados del trabajo de un hábil pastelero fig. 9.5)? Al hablar en páginas anteriores sobre el crecimiento de los cristales hemos soslayado una circunstancia. Figurémonos que el plano en construcción de un cristal está lleno de átomos. En este caso no quedan sitios que atraigan los átomos con suficiente fuerza. Se puede calcular que según esto esquema el crecimiento debe realizarse a unas velocidades menores en un número inconcebible de veces que las velocidades de crecimiento observadas en la realidad. La salida de la situación la depara la existencia en los cristales de dislocaciones espirales. De estar presente una dislocación espiral, el crecimiento sucesivo de la cara se efectúa de tal manera que siempre quedan libres los escalones en que para los átomos es ventajoso ocupar un sitio.

Figura 9.5

Gentileza de Manuel Mayo

226

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Los físicos respiraron con alivio cuando se descubrieron las dislocaciones espirales. Para ellos quedaron dilucidadas las magnitudes de las velocidades de crecimiento llegando a ser evidente la esencia de los cuadros similares al representado anteriormente para la parafina. Estas pequeñas pirámides espirales se observan muy a menudo y no hay nada de sorprendente en qué existan. Sí, no hay motivo para asombrarse si se trata de cristales constituidos por moléculas pequeñas. Para semejantes cristales la explicación resulta plausible: el tamaño de la molécula, la altura del escalón y el espesor del cristal, todos estos datos no contradicen unos a otros. Sin embargo, cuando descubrimos el mismo cuadro para un polímero, nos enfrentamos con un nuevo fenómeno. Se trata de que el espesor de las capas del poliéster es de 100 a 120 Å y la longitud de la molécula es igual a 6000 Å- ¿Qué conclusión se puede sacar, entonces, de estas cifras? Solamente una: en estos cristales las moléculas se pliegan. La flexibilidad de las moléculas les permite combarse sin dificultad alguna, a raíz de ello lo único que queda es reflexionar (y esta reflexión sigue hasta la fecha) cuál de los tres modelos mostrados en la fig. 9.6 es mejor.

Gentileza de Manuel Mayo

227

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 9.6 Desde luego, la diferencia entre estos es secundaria... Por lo demás, el especialista estará descontento: «¿Cómo que secundaria?», dirá él. Si en la foto superior las moléculas se doblan como les dé la gana, al azar, esquivando los vecinos más próximos, en el segundo modelo, la molécula, al plegarse, resulta ser vecina de sí misma. Y la diferencia entre el segundo y el tercer modelo consiste en que la superficie del cristal en el dibujo del centro es más lisa que en el inferior». El especialista tiene razón: el carácter del empaquetamiento de las moléculas polímeras reviste excepcional importancia, influyendo cardinalmente sobre las propiedades de la sustancia. Aunque el polietileno, el nilón y otros materiales habían sido sintetizados varios decenios atrás, muchos investigadores, incluso ahora, se dedican al estudio de su estructura supramolecular y analizan los métodos que obligan las moléculas a empaquetarse de distinta forma. Contracción muscular Daremos

por terminada nuestra

conversación

sobre

las grandes moléculas

examinando uno de los ejemplos que ilustran cómo trabajan las macromoléculas en el organismo vivo. Los biólogos consideraban que su misión consiste en explicar la correspondencia entre la forma de los órganos vivos, por ejemplo, la forma de la mano o de la hoja de un árbol, y las fruiciones de estos órganos. Los físicos que decidieron recurrir a los métodos de investigación de la estructura de la sustancia y las leyes de la naturaleza para estudiar los procesos que se desarrollan en los organismos vivos Procuran comprender la vida en el nivel molecular. Hoy en día, la estructura de los tejidos puede investigarse muy detalladamente. Y después de establecer la estructura llega a ser posible idear los modelos de los eventos biológicos. Son bastante sustanciales los éxitos en la creación de la teoría de la contracción muscular. La fibra de un músculo consta de dos tipos de filamentos: finos y gruesos (fig. 9.7, a). Los filamentos gruesos están constituidos por moléculas de proteína

Gentileza de Manuel Mayo

228

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

que lleva el nombre de miosina. Los físicos establecieron que la molécula de miosina tiene forma de varilla que termina con un abultamiento. En el filamento grueso las moléculas convergen en el centro con sus extremos, «rabos» (fig. 9.7, c) Los filamentos finos están construidos por la actina cuya estructura recuerda dos sartas de cuentas que forman una espiral doble. La contracción consiste en que los filamentos gruesos se introducen en los finos. Se conocen los detalles de este mecanismo, pero no podemos detenernos en éstos. La señal para la contracción la envía el impulso nervioso. La llegada de este impulso libera los átomos de calcio que pasan de una parte del filamento a la otra. Como resultado, las moléculas giran tomando unas respecto a otras una posición tal que, desde el punto de vista energético, llega a ser ventajosa la introducción de un «peine» de moléculas en el otro. Los esquemas expuestos en la figura se basan en las fotografías tomadas valiéndose del microscopio electrónico. En la fig. 9.7, b se da el aspecto aproximado de semejante fotografía. Los originales son incomparablemente mejores.

Gentileza de Manuel Mayo

229

Preparado por Patricio Barros

Física para Todos II– Moléculas

www.librosmaravillosos.com

L. D. Landau y A. I. Kitaigorodski

Figura 9.7 Temo que esta página refleje de una forma débil el detallado carácter con que se ha estudiado el mecanismo de la contracción muscular. Pero, nuestra única finalidad consistía, precisamente, en despertar el interés del lector. Desearíamos que el lector considere esta última página del libro dedicado a sus moléculas como el preliminar para una conversación detallada sobre la física biológica, conversación que, según esperamos, un especialista en el campo de biofísica molecular llevará a cabo en uno de los futuros fascículos de la «Física para todos».

Gentileza de Manuel Mayo

230

Preparado por Patricio Barros

Física para Todos III– Electrones

Gentileza de Manuel Mayo

www.librosmaravillosos.com

1

A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Prefacio El primer libro de la serie «Física para todos» dio a conocer al lector las leyes generales del movimiento de los macrocuerpos y las fuerzas de gravedad. El segundo libro estaba dedicado a la estructura molecular de la materia y al movimiento de las moléculas. En el presente libro, en el tercero, centramos nuestra atención en examinar la estructura

eléctrica

de

la

materia,

las

fuerzas

eléctricas

y

el

campo

electromagnético. El siguiente libro, el cuarto, tratará de los fotones, la estructura del núcleo atómico y las fuerzas nucleares. Los

cuatro

libros

incluirán

datos

acerca

de

todos

los

conceptos

y

leyes

fundamentales de la física. Los hechos concretos que estos libros exponen se han elegido de una forma tal que prevea la ilustración máximamente patente del contenido de las leyes físicas, la delineación de los métodos característicos para la física de analizar los fenómenos, el conocimiento de los caminos que seguía la física en el curso de su evolución y, finalmente, la demostración, a rasgos más generales, del hecho de que la física es el fundamento de todas las ciencias naturales y de la técnica. La fisonomía de la física ha cambiado a ojos de una sola generación. Muchos de sus apartados se amplificaron transformándose en ramas independientes de enorme valor aplicado. Me permito sugerir que hoy en día uno no puede considerarse ingeniero erudito conociendo tan sólo los fundamentos de la física. Y la serie de libros con cuya ayuda los representantes de las más distintas profesiones podrán formarse idea sobre los principios de la física y ponerse al tanto de las nuevas que tuvieron lugar en las ciencias físicas durante los últimos decenios, semejante serie, precisamente, debe convertirse en física para todos. Una vez más hago recordar al lector que el libro que tiene entre las manos no es un manual sino un libro de divulgación científica. Cuando se trata de un manual el volumen concedido a tal o cual material viene condicionado por el grado de dificultad que representa su asimilación. Un libro de divulgación científica no se rige

Gentileza de Manuel Mayo

2

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

por esta regla y, por lo tanto sus diferentes páginas no se leen con la misma facilidad. Otra diferencia esencial radica en que en nuestros libros podemos permitirnos el

lujo

de exponer esquemáticamente una

serie

de apartados

tradicionales, haciendo replegarse el viejo material para dar cabida al nuevo. Ahora quiero referirme al libro «Electrones». La necesidad de hacer recordar las definiciones de los conceptos elementales mediante los cuales se describen los fenómenos eléctricos, esta necesidad me la he aprovechado en una forma algo peculiar, a saber: procurando dar a conocer al lector el enfoque fenomenológico de la física. Dos capítulos de los seis están dedicados a la física aplicada. La electrotecnia se presenta en forma compendiada, ya que una descripción detallada de esta disciplina requiere recurrir a dibujos y esquemas. Esta es la razón de que estimamos posible limitarnos a la exposición solamente de los principios básicos de electrotecnia y de los importantes datos que cada uno es susceptible de saber. Lo mismo atañe al capítulo consagrado a la radio. El pequeño volumen del libro dio la posibilidad de abordar tan sólo la historia del problema y ofrecer una exposición somera de los fundamentos de radiotecnia. Octubre de 1981 A. I. Kitaigorodski

Gentileza de Manuel Mayo

3

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 1 Electricidad Contenido: •

Corriente eléctrica



Electricidad inmóvil



Campo eléctrico



Que se debe tomar por base



La evolución de una teoría de la electricidad

Corriente eléctrica Basándose en el ejemplo de la teoría de la electricidad es posible (y, también, se debe) dar a conocer al lector que muestra interés por la física el llamado enfoque fenomenológico del estudio de la naturaleza. La palabra «fenómeno» procede del griego «phainomenon» que significa «lo que aparece». En cuanto al enfoque de que se trata, éste consiste en lo siguiente. El investigador no se interesa por la «naturaleza de las cosas». Se vale de las palabras únicamente para contar sobre los hechos. La finalidad del investigador no es «explicar», sino tan sólo describir el fenómeno. Casi todos los términos que introduce tienen para él un sentido solamente en el caso de que sea posible indicar el método de evaluar mediante un número de tales o cuales conceptos. Recurre a algunas denominaciones auxiliares con el único fin de facilitar la exposición

verbal

de

los

hechos.

Pero

el

papel

que

desempeñan

estas

denominaciones es absolutamente secundario: en lugar de las mismas hubiera sido posible proponer otros nombres o emplear «algo», o bien, «alguna cosa». El método fenomenológico es de enorme importancia para las ciencias naturales. Y los fenómenos eléctricos, a las mil maravillas, pueden servir de ejemplo para que el lector comprenda la esencia de dicho método. Al final de esto capítulo relataré sucintamente cuál fue la secuencia en el desarrollo de los acontecimientos, mientras tanto, ahora, voy a esbozar cierto esquema ideal de la creación de la teoría fenomenológica de los fenómenos eléctricos.

Gentileza de Manuel Mayo

4

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Reunamos en un personaje fantástico a Carlos Augusto de Coulomb (1730 - 1806), Alejandro Volta (1745-1827), Jorge Simón Ohm (1789 - 1854), Andrés María Ampère (1775 - 1836), Juan Cristian Oersted (1777 - 1851),Emil Jristiánovich Lenz (1804 - 1805) y a algunos otros admirables hombres de ciencia. Figurémonos que a este investigador le es inherente el modo de pensar científico actual y le pongamos en la boca la terminología moderna. Precisamente en nombre de este investigador presentemos nuestro relato. Empieza su trabajo de formación de la teoría fenomenológica de la electricidad por un examen atento del acumulador. Ante todo, presta su atención al hecho de que el acumulador tiene dos «polos». Al tocarlos simultáneamente con las manos le queda claro, de una vez, que es mejor no hacer tal cosa (porque el golpe es bastante desagradable). Sin embargo, después de esta primera experiencia se le ocurre lo siguiente: por lo visto, algo ha corrido a través de mi cuerpo. Llamemos este «algo» electricidad. Obrando con máximo cuidado el investigador comienza a conectar los polos mediante diferentes trocitos de alambre, barritas y cordoncitos. Se convence del siguiente hecho: los objetos puestos en contacto con los polos a veces se calientan fuertemente, a veces se calientan poco y en algunos casos no se calientan, en general. Cuando

procede

a

la

elección

de

palabras

idóneas

para

caracterizar

el

descubrimiento hecho el investigador se decide a hablar de éste de la siguiente manera. Cuando conecto los polos mediante un alambre por este último fluye la electricidad. Voy a llamar este fenómeno corriente eléctrica. La experiencia ha demostrado que diferentes objetos se calientan de una forma disímil. Aquellos que se calientan bien evidentemente «conducen» bien la electricidad y se denominan conductores. Muchos cuerpos se calientan mal, por lo visto, «conducen» mal la electricidad o bien crean una gran resistencia a la corriente que fluye. Y aquellos que no se calientan en absoluto se denominan aisladores o dieléctricos. El investigador comienza a trabajar con los líquidos. Se pone de manifiesto que también en esto caso diferentes sustancias se comportan de distinta manera. Y, finalmente, se llega a un interesante descubrimiento: si se toma como líquido la

Gentileza de Manuel Mayo

5

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

solución de vitriolo azul y se sumergen en el baño los electrodos de carbón (este nombre se da a los objetos fijados a los polos), el científico halla en uno de los electrodos el precipitado rojizo de cobre. Ahora el investigador ya está completamente convencido de que el fenómeno que estudia tiene una relación con la circulación de cierto fluido. Queda claro que vale la pena hablar sobre la dirección de la corriente. Convenimos en marcar con el signo «menos» el electrodo en que se deposita el cobre, considerando que el segundo electrodo es positivo. Por cuanto las expresiones «electrodo negativo» y «electrodo positivo»

son

largas

se

proponen

los

términos

«cátodo»

y

«ánodo»,

respectivamente. La corriente fluye del «más» al «menos», es decir, del ánodo al cátodo. Pero el valor del descubrimiento está lejos de agotarse sólo con hacer constancia de este hecho. Se establece que cada segundo en el cátodo se deposita una misma masa de cobre. Seguramente que los átomos de cobre llevan en su seno el fluido eléctrico. Esta es la razón de que el investigador introduce en uso dos nuevos términos. En primer lugar, supone que la masa M del cobre es proporcional a la cantidad q de electricidad que pasó por el circuito, o sea, introduce la definición q = kM donde k es el coeficiente de proporcionalidad. Y, en segundo lugar, propone denominar intensidad de la corriente la cantidad de electricidad que pasa por el circuito en unidad de tiempo: I = q/τ El investigador se ha enriquecido sustancialmente. Puede caracterizar la corriente por medio de dos magnitudes susceptibles de medirse: por la cantidad de calor que se libera en un tramo determinado del circuito en unidad de tiempo y por la intensidad de la corriente. Ahora se le ofrece otra posibilidad: comparar las corrientes engendradas por diferentes fuentes. Se mide la intensidad de la corriente f, también se mide la

Gentileza de Manuel Mayo

6

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

energía Q que se libera en forma de calor por un mismo trocito de alambre. Repitiendo los experimentos con distintos conductores el investigador averigua que la relación entre la cantidad de calor y la cantidad de electricidad que fluye a través del alambre es diferente para distintas fuentes de corriente. Sólo se requiere proponer un término apropiado para esta relación. Se ha elegido la palabra «tensión». Cuanto más alta es la tensión, tanta mayor cantidad de calor se libera. El siguiente razonamiento puede tomarse como argumento a favor de la elección de esta palabra. Cuanto mayor es la tensión con que el hombre arrastra una carretilla con carga, tanto más calor siente. De este modo, al designar la tensión con la letra U, obtendremos U = Q/q o bien Q = U/τ Resumamos, hemos hecho los primeros pasos. Se han descubierto dos fenómenos. La corriente, al pasar a través de algunos líquidos, hace precipitar una sustancia, además, la corriente libera calor. El calor sabemos medirlo. El método para medir la cantidad de electricidad se ha dado, es decir, se ha dado la definición de este concepto. Además, se han dado las definiciones de los conceptos derivados: de la intensidad de la corriente y de la tensión. Se ha escrito una serie de fórmulas elementales. Pero debe prestarse atención a la siguiente circunstancia: estas fórmulas no pueden llamarse leyes de naturaleza. En particular, el investigador dio el nombre de tensión a la relación Q/q pero no halló que Q/q es igual a la tensión. Y he aquí que ha llegado la hora para buscar la ley de la naturaleza. Para un mismo conductor pueden medirse independientemente dos magnitudes: la intensidad de la corriente y el calor o la intensidad de la corriente y la tensión (que, de principio, es lo mismo). El estudio de la dependencia entre la intensidad de la corriente y la tensión lleva al descubrimiento de una importante ley. La absoluta mayoría de los conductores está sujeta a la ley: U = IR.

Gentileza de Manuel Mayo

7

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

La magnitud R puede llamarse resistencia en plena correspondencia con las observaciones cualitativas iniciales. El lector conoce la notación: es la ley de Ohm. Al sustituir en la fórmula anterior el valor de la intensidad de la corriente de la expresión de la ley de Ohm, hallamos:

Es evidente que se puede escribir la expresión de la energía liberada por el conductor en forma de calor también de otra manera:

De la primera fórmula se infiere que la cantidad de calor es inversamente proporcional a la resistencia. Cuando se dice esta frase hay que añadir: a tensión invariable. Precisamente este caso se tenía en cuenta cuando por primera vez se hizo uso del término «resistencia». Mientras tanto, la segunda fórmula que afirma que el calor es directamente proporcional a la resistencia requiere que se agregue: a una intensidad constante de la corriente. En las expresiones presentadas el lector reconocerá la ley que lleva los nombres de Joule y Lenz. Después de haber establecido que la tensión y la intensidad de la corriente son proporcionales obteniendo de este modo la posibilidad de determinar la resistencia del conductor, el investigador, como es natural, se plantea la pregunta: ¿de qué manera esta importante magnitud está relacionada con la forma y las dimensiones del conductor y con la sustancia de la cual esto se ha fabricado? Los experimentos conducen al siguiente descubrimiento. Resulta que

Gentileza de Manuel Mayo

8

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

donde l es la longitud del conductor, y S, su sección transversal. Esta expresión elemental es válida cuando se trata de un conductor lineal de sección invariable por toda su longitud. Si se quiere, recurriendo a unas operaciones matemáticas más complicadas, podemos escribir la fórmula de resistencia para el conductor de cualquier forma. Bueno, ¿y el coeficiente ρ? ¿Qué significa esto? Dicho coeficiente caracteriza el material del cual está hecho el conductor. El valor de esta magnitud, que recibió el nombre de resistencia específica, o resistividad, oscila dentro de unos límites muy amplios. Por el valor de ρ las sustancias pueden diferenciarse miles de millones de veces. Realicemos varias transformaciones formales más que nos serán útiles en lo adelante. La ley de Ohm puede anotarse en la forma siguiente:

A menudo tenemos que ver con la relación entre la Intensidad de la corriente y el área de la sección del conductor. Esta magnitud se denomina densidad de la corriente y se suele designar con la letra j. Ahora la misma ley se escribirá así:

Al investigador le parece que en lo que concierne a la ley de Ohm todo está claro. Disponiendo de una cantidad ilimitada de conductores cuya resistencia se conoce es posible renunciar a engorrosas determinaciones de la tensión por medio del calorímetro, pues la tensión es igual al producto de la intensidad de la corriente por la resistencia. Sin embargo, pronto, el científico llega a la conclusión de que esta afirmación necesita ser precisada. Valiéndose de una misma fuente de corriente él cierra sus polos mediante diferentes resistencias. En cada experimento la intensidad de la corriente será, naturalmente, distinta. Pero resulta que también el producto de la intensidad de la corriente por la resistencia, o sea, IR, tampoco queda el mismo. Al

Gentileza de Manuel Mayo

9

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

dedicarse al estudio de este fenómeno, por ahora todavía incomprensible para él, el investigador averigua que a medida que aumenta la resistencia el producto IR tiende a cierto valor constante. Al designar con ξ este límite, hallamos la fórmula que no coincide con la establecida mediante mediciones directas de la intensidad de la corriente y la tensión. La nueva expresión tiene la siguiente forma: ξ = I (R + r) ¿Por qué tan extraña contradicción? Es necesario recapacitar. Ah, claro está, la contradicción es aparente. Es que la medición directa de la tensión empleando el método calorimétrico se refería tan sólo al conductor que cerraba el acumulador. Mientras tanto se ve claramente que el calor se desprende también en el propio acumulador (para cerciorarse de ello es suficiente tocar el acumulador con la mano). El acumulador posee su propia resistencia. El sentido de la magnitud r que aparece en la nueva fórmula es evidente: es la resistencia interna de la fuente de la corriente. En cuanto a ξ esta magnitud requiere una denominación especial. No se puede decir que la misma resultó ser muy acertada: la magnitud ξ se llama fuerza electromotriz (f.e.m.) aunque no tiene significado ni tampoco dimensión de la fuerza. Las dos fórmulas conservaron (cabe señalar que en este caso se ha observado la justicia histórica) el nombre de leyes de Ohm. Únicamente, la primera fórmula recibió el nombre de ley de Ohm para una porción del circuito, mientras que la segunda se llama ley de Ohm para el circuito total. Vaya que ahora, al parecer, no quedan ya dudas. Las leyes de la corriente continua están establecidas. No obstante, el investigador no se ve satisfecho. El empleo del calorímetro resulta engorroso. Por si esto fuera poco, ¡hace falta pesar el cátodo con el precipitado de cobre! No puedo negar que es un método muy incómodo de medir la tensión. Un buen día, ¡de veras que lo fue! el investigador, por pura casualidad, ubicó junto al conductor por el cual circulaba la corriente una aguja magnética. Él hizo un gran

Gentileza de Manuel Mayo

10

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

descubrimiento: la aguja gira cuando pasa la corriente, con la particularidad de que lo hace en distintas direcciones, según sea la dirección de la corriente. No es difícil determinar el momento de la fuerza que actúa sobre la aguja magnética. Basándose en el fenómeno descubierto es posible crear un instrumento de medida. Únicamente se necesita establecer el carácter de la dependencia del momento de la fuerza respecto a la corriente. El investigador resuelve este problema y construye magníficos instrumentos de aguja que permiten medir la intensidad de la corriente y la tensión. Sin embargo, nuestro relato sobre aquello que el investigador realizó en la primera mitad del siglo diecinueve al estudiar las leyes de la corriente continua sería incompleto, si no señalásemos que descubrió la interacción de las corrientes: las corrientes que se dirigían en un mismo sentido se atraían, mientras las de dirección diferente se repelían. Se sobreentiende que este fenómeno también se puede utilizar para medir la intensidad de la corriente. Desde luego, no me limitaré a los últimos párrafos al hablar sobre las leyes del electromagnetismo; a este fenómeno se dedica un capítulo aparte. Pero he considerado indispensable recordar estos importantes datos con el fin de contar cómo se introducen los conceptos cuantitativos fundamentales y las unidades de medida que caracterizan los fenómenos eléctricos: la corriente, la carga y el campo. Electricidad inmóvil Demos por sentado que nuestro investigador ideal está enterado de los variados fenómenos que, en los tiempos remotos, habían obtenido el nombre de eléctricos. Las propiedades peculiares del ámbar, de una varilla de vidrio frotada con piel, la aparición de una chispa que saltaba entre dos cuerpos llevados a estado «electrizado» se estudiaban (o, mejor dicho, se aprovechaban para crear efectos) ya hacía mucho. Por esta razón era lógico que el investigador, al abordar el estudio de la corriente eléctrica, se planteara la pregunta: ¿el fluido que circula por el conductor y el fluido que puede permanecer en estado inmóvil sobre cierto cuerpo hasta que no lo «descarguen», es que ambos constituyen el mismo «algo»? Por lo demás, incluso abstrayéndose de la información acumulada anteriormente, ¿acaso

Gentileza de Manuel Mayo

11

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

uno no debe poner a sí mismo la siguiente pregunta: si la electricidad es «algo» que fluye a semejanza de un líquido no sería posible «verterlo en un vaso»? Si el investigador quisiera obtener una respuesta directa a esta pregunta, tendría que proceder de la siguiente manera. Se toma una fuente de corriente con una tensión bastante alta (por ahora no hablamos sobre las unidades de medida, por lo tanto el lector, sin impacientarse, debe esperar la respuesta a la pregunta qué se suele considerar alta tensión, qué es una gran intensidad de la corriente, etc.). Uno de los polos se pone a tierra y sobre el segundo se coloca una pequeña bolita, abalorio hecho de hoja de aluminio muy fina. La bolita se suspende de un hilo de seda, de la misma manera se procede con otra bolita. Ahora arrimamos estas dos minúsculas bolitas muy cerca una a otra (digamos, a una distancia de 2 mm entre sus centros). El investigador con entusiasmo, con admiración (puede proponer cualquier otro epíteto) observa que las bolitas se repelen. Por el ángulo de desviación de los hilos y conociendo la masa de las bolitas puede calcularse la fuerza que actúa entre las mismas. El investigador saca la conclusión: si las bolitas están cargadas por contacto con el mismo polo del acumulador éstas se repelen. En cambio, si una bolita recibió la electricidad de un polo y la otra bolita del otro polo, entonces las bolitas se atraerán. Este experimento corrobora que tenemos el derecho de hablar sobre la electricidad como si fuera un líquido y demuestra que se puede tratar tanto con la electricidad móvil, como con la en reposo. Por cuanto el investigador sabe determinar la cantidad de electricidad por la masa del cobre depositado en el cátodo, existe la posibilidad de aclarar «cuánto líquido se ha vertido en el vaso», es decir, cuál es la cantidad de electricidad que la bolita «se ha apropiado» del electrodo del acumulador. En primer lugar el investigador se convence der lo siguiente. Si la bolita cargada «se pone a tierra», es decir, si se conecta mediante un conductor a la Tierra, la bolita pierde su carga. Seguidamente se demuestra que la carga «escurre» por el conductor, o sea, que por el conductor fluye la corriente. Y, finalmente, se tiene la posibilidad de medir la cantidad de cobre que precipita en el cátodo de un aparato

Gentileza de Manuel Mayo

12

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

con electrólito interpuesto en el camino a la Tierra, es decir, se puede medir la cantidad de la electricidad inmóvil que se encontraba en la bolita. Esta cantidad de electricidad el investigador la denomina carga de la bolita y le atribuye un signo: positivo o negativo, según sea el electrodo del cual se ha tomado el fluido eléctrico. Ahora se puede iniciar la siguiente serie de experimentos. Desde diferentes acumuladores, valiéndose de bolitas de distintas dimensiones, pueden tomarse diferentes cantidades de electricidad. Al colocar las bolitas a diferentes distancias unas de otras es posible medir la fuerza de interacción entre éstas. El investigador halla lo siguiente importante ley de la naturaleza:

la fuerza de interacción es directamente proporcional al producto de las cargas de las bolitas e inversamente proporcional al cuadrado de distancia entre éstas. El lector reconocerá en la fórmula que acabamos de escribir la ley de Coulomb que fue establecida de una manera absolutamente distinta a la que exponemos. Pero no olvide que nuestro investigador es un personaje extrahistórico. Campo eléctrico El investigador conoce fuerzas de dos tipos. Unas fuerzas aparecen durante el contacto directo de un cuerpo con otro. Se presentan en el caso de tracción o de empuje. En cuanto a las fuerzas que actúan a una distancia, hasta el momento el investigador tenía noción solamente de la fuerza de la gravedad o, en mayor escala, la fuerza de gravitación universal. Ahora a esta fuerza que ya conocía se agregó otra: la de atracción o repulsión culombiana entre dos cuerpos cargados. Esta fuerza se parece mucho n la fuerza de la gravedad. Hasta las formulas también se hacen recordar mutuamente. La fuerza de la gravedad que actúa sobre el cuerpo por parte de la Tierra no ponía grandes inconvenientes durante los cálculos. En lo que se refiere a las fuerzas

Gentileza de Manuel Mayo

13

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

coulombianas o, como también se llaman, fuerzas electrostáticas, aquí se puede topar con los casos en que las cargas eléctricas están distribuidas en el espacio de una forma muy complicada y, además, desconocida. Sin embargo, se puede pasar sin conocer la distribución de estas cargas. Ya estamos enterados de que estas cargas «se sienten» unas a otras a una distancia. ¿Por qué no decir: las cargas crean el campo eléctrico? Puede parecer que debe surgir una dificultad a raíz de que no vemos ningún campo eléctrico. Pero mi opinión es, dice el investigador, que el campo eléctrico no debe considerarse como una función matemática que facilita el cálculo. Si sobre una carga situada en cierto punto actúa una fuerza, este hecho significa que dicho punto (del espacio) se encuentra en un estado especial. El campo eléctrico es una realidad física, es decir, existe por sí mismo, aunque no lo vemos. Por supuesto, el investigador que trabaja a principios del siglo XIX no puede demostrar su pensamiento. Pero el futuro manifestaría que él tenía razón. La ley de Coulomb establece la fórmula con cuya ayuda se puede determinar la acción que una bolita ejerce sobre la otra. Una bolita la podemos dejar fija, mientras que la segunda se colocará en distintos puntos del espacio. En todos los puntos sobre la bolita móvil (de ensayo) actuará una fuerza. Ahora el mismo hecho se enuncia de otra forma: una bolita cargada de electricidad crea en su torno un campo de fuerzas eléctricas, o, más brevemente, un campo eléctrico. De fuente del campo eléctrico pueden servir cuerpos cargados de cualesquiera formas. En este caso la ley de Coulomb ya no es válida, pero recurriendo a la bolita de ensayo es posible medir el campo eléctrico que rodea el cuerpo cargado y definirlo de un modo completamente exhaustivo, indicando la magnitud y la dirección de la fuerza. Para conseguir que la descripción del campo sea independiente de la elección de la magnitud de la carga de la bolita de ensayo, el campo eléctrico .se caracteriza por la magnitud llamada su intensidad: E = F/q donde q es la carga eléctrica de la bolita de ensayo.

Gentileza de Manuel Mayo

14

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Existe un método patente de representación del campo eléctrico por medio de líneas de fuerza (líneas de intensidad). En dependencia de la forma de los cuerpos cargados y de su disposición mutua estos gráficos pueden tener el más variado aspecto. En la fig. 1.1 se muestran los cuadros más simples de los campos. El sentido de estos cuadros es el siguiente: la tangente a la línea de intensidad de un punto cualquiera indica la dirección de la fuerza eléctrica en este punto. El número de líneas que corresponden a una unidad del área perpendicular a las líneas de intensidad es absolutamente convencional, lo único que se exige es que sea proporcional al valor de E. Y en el caso en que se habla del número de líneas de intensidad sin utilizar los cuadros, se supone sencillamente que este número es igual al valor de E.

Figura 1.1 Si una carga eléctrica libre se sitúa en el campo eléctrico, dicha carga se desplazará a lo largo de las líneas de intensidad, a menos que tercien otras fuerzas, por ejemplo, las de la gravedad. El aspecto más sencillo lo tienen los campos eléctricos de los cuerpos de forma esférica. Si estas esferas están muy distanciadas el cuadro de las líneas de intensidad se representa como en la fig. 1.1, a la izquierda. Si dos esferas o dos cargas que se pueden representar como puntos se hacen acercarse unas a otras, los campos se van a superponer. La intensidad del campo resultante se obtendrá por la regla del paralelogramo. Al realizar la construcción mostrada en la fig. 1.1, a la

Gentileza de Manuel Mayo

15

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

derecha, se puede esclarecer cuál es la dirección de la línea de intensidad y a qué es igual la intensidad del campo dado en cualquier punto A. Si los cuerpos cargados tienen la forma de láminas, el aspecto del campo será tal como se muestra en la parte inferior de la figura. Al aproximar las láminas y aumentar su área se puede conseguir una homogeneidad casi ideal del campo; el efecto de frontera será insignificante. Dos cuerpos cargados dispuestos uno cerca del otro se denomina condensador. Como sabemos, el trabajo de traslación de un cuerpo bajo la acción de una fuerza es igual al producto de la fuerza por la longitud del camino. Para transferir la carga de una placa del condensador a la otra siguiendo a lo largo de la línea de intensidad se requiere un trabajo igual a qEl. El trabajo necesario para la transferencia de una unidad de la cantidad de electricidad es igual a El. Unamos dos placas del condensador mediante un conductor. Cuando por el conductor se transfiere la cantidad de electricidad q se libera la energía qU. Por cuanto, a todas luces, no se da una diferencia de principio entre el movimiento de la bolita cargada en el campo eléctrico y el desplazamiento del «líquido» eléctrico a lo largo de un conductor metálico, igualamos entre sí estas dos expresiones de la energía invertida por el campo:

La validez de la expresión escrita puede comprobarse fácilmente distanciando las placas del condensador y midiendo la fuerza que actúa sobre la carga de ensayo. Dicha medición puede llevarse a cabo por un método muy elegante sin recurrir para nada a la suspensión de la bolita cargada de un hilo de seda. Todo el mundo conoce muy bien que en el aire los cuerpos ligeros caen mucho más lentamente que los pesados. Cabe señalar que precisamente por esta causa con anterioridad a los experimentos de Galileo, los sabios de la Antigüedad y del Medievo suponían que la velocidad de movimiento del cuerpo (y no la aceleración) es proporcional a la fuerza. El carácter erróneo de este punto de vista se demostró espectacularmente sólo cuando se fijaron cómo caían los pedacitos de papel y una bola metálica en un tubo vertical del que se había succionado el aire. Resultó que

Gentileza de Manuel Mayo

16

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

todos los cuerpos cobran velocidad con la misma rapidez, es decir, caen a la Tierra con la misma aceleración. Sin embargo, precisamente en esta ocasión para nosotros tiene sentido «incluir» la influencia del aire cuya resistencia implica el hecho de que la ligera bolita metálica hueca valiéndose de la cual demostramos la ley de Coulomb caiga muy lentamente. Si hacemos caer la bolita cuando esta se encuentra entre las placas del condensador, entonces, variando la tensión entre las placas, es posible elegir un campo que retenga la caída de dicha bolita. El equilibrio se alcanza a condición de que la fuerza de la gravedad sea igual a la fuerza del campo mg = qE. A partir de esta igualdad se puede hallar el valor de la intensidad del campo y confirmar la certeza de nuestros razonamientos teóricos. El número de líneas de intensidad que pasan a través de cualquier superficie mental o real que se encuentra en el campo eléctrico se denomina flujo de líneas de intensidad. ¿A qué es igual el flujo de líneas de intensidad que atraviesa una superficie cerrada la cual abarca los cuerpos cargados? Al principio analicemos un caso elemental en que el campo resulta creado por una sola bolita. Describamos alrededor de la bolita una esfera. Si el radio de la esfera es R y entonces, la intensidad en cualquier punto de la superficie de la esfera es igual a Kq/R2. El área de la esfera es igual a 4πR2. En consecuencia, el flujo de líneas de intensidad que atraviesa la esfera será igual a 4πKq. Sin embargo, está claro que el flujo quedará el mismo si tomamos cualquier otra superficie. Ahora hagamos más complejo el cuadro, suponiendo que el campo es engendrado por un gran número de cuerpos cargarlos de cualquier forma. Pero es que podemos dividirlos mental mente en porciones ínfimas cada una de las cuales sea equivalente a una carga puntual. Abarquemos el sistema de las cargas con una superficie arbitraria. El flujo procedente de cada carga es igual a 4πKq. Resulta muy natural la suposición de que los flujos se sumen aritméticamente, y, por consiguiente, el flujo total a través de cualquier superficie cerrada que abarca todas las cargas es proporcional a la carga total de los cuerpos que se encuentran dentro de esta

Gentileza de Manuel Mayo

17

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

superficie.

es

Esta

afirmación

la

ley

fundamental

A. I. Kitaigorodski

que

rige

los

campos

electromagnéticos (una de los cuatro ecuaciones de Maxwell, véase el Capítulo 5). Preste atención a que no hemos deducido ni demostrado esta fórmula. Hemos adivinado que el asunto debe ir así y no de otra manera. Ello, precisamente, significa que tenemos que ver con una ley general de la naturaleza cuya justedad se establece por la confirmación experimental de cualquier corolario que se derive de la ley general. Es muy importante conocer una regla que sea válida para cualesquiera sistemas. Con la ayuda de una ley escrita, un ordenador calculará rápidamente el campo eléctrico creado por el más complejo sistema de cuerpos cargados. Entre tanto, nosotros nos satisfacemos con un problema modesto, deduciendo (y demostrando, valiéndose de este caso elemental, los procedimientos de la física teórica) una fórmula de valor práctico para la capacidad del condensador. Primeramente demos la definición de este concepto difundido. Se denomina capacidad del condensador la relación entre la carga que se acumula en sus placas y la tensión entre las armaduras, es decir, C = q/U El término «capacidad» es acertado. Efectivamente, a una tensión dada la carga que toma el condensador depende tan sólo del tamaño y la forma de las placas. En el caso del condensador las líneas de intensidad no se dirigen hacia los lados sino salen de la placa positiva y entran en la negativa. Si se desprecia la deformación del campo en los extremos del condensador, el flujo puede expresarse como producto ES. La ley general da la posibilidad de escribir la siguiente igualdad: ES = 4πKq, es decir, la intensidad del campo entre las armaduras es

Gentileza de Manuel Mayo

18

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Por otra parte, la intensidad del campo del condensador puede anotarse como E = U/d. Igualando estas dos expresiones obtenemos la fórmula para la capacidad del condensador:

Los condensadores técnicos son cintas metálicas que están en estrecho contacto con mica o con papel parafinado. Estas sustancias pertenecen a los dieléctricos. ¿Qué sentido tiene la introducción del dieléctrico entre las armaduras del condensador? La experiencia demuestra que la capacidad del condensador C está relacionada con la capacidad del condensador sin junta C0 por la fórmula C = εC0. La magnitud ε lleva el nombre de constante dieléctrica. Los valores de ε para el aire, mica, agua y la sal de Seignette son iguales, respectivamente, a 1, aproximadamente 6, 81 y 9000. Qué se debe tomar por base La ley de Ohm y la ley de Joule - Lenz vinculan entre sí la energía, la intensidad de la corriente, la tensión y la resistencia. Se puede decir que la tensión es igual al producto de la intensidad de la corriente por la resistencia. También es posible decir: la intensidad de la corriente es la tensión dividida por la resistencia. Sin embargo, estas dos definiciones que se pueden encontrar en los libros de texto llevan implícito un inconveniente: el de ser cómodos únicamente en el caso de que sea válida la ley de Ohm. Pero, como hemos dicho, esta ley no siempre resulta certera. Esta es la razón por la cual lo mejor es proceder de la forma como ya hemos hecho, o sea, considerar, precisamente, que la magnitud derivada es la resistencia del conductor que se define como la relación de la tensión en los extremos del conductor a la intensidad de la corriente que fluye a través de éste.

Gentileza de Manuel Mayo

19

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Por cuanto la energía de la corriente eléctrica puede medirse partiendo de la ley de la conservación de la energía, es decir, basándose en las acciones térmicas y mecánicas de la corriente, queda claro el carácter racional de definir la intensidad de la corriente o la tensión como magnitudes derivadas de energía. Lo más natural es determinar la intensidad de la corriente valiéndose del fenómeno de la electrólisis, y la tensión en los extremos de un tramo del circuito como el cociente de la división de la energía liberada por la cantidad de electricidad. No obstante, el lector debe darse cuenta, con toda claridad, de que este sistema de definiciones no es el único. En vez de la electrólisis, como base de determinación de la intensidad de la corriente, puede elegirse también cualquier otra acción de ésta: por ejemplo, la acción de la corriente sobre la aguja magnética o sobre otra corriente. De principio, no hay nada vicioso en el siguiente camino: se elige cierta fuente de corriente normalizada y la tensión de cualquier otra fuente se determina por la cantidad de elementos normalizados equivalentes. No es una fantasía. Semejante proposición tuvo lugar y la fuente normalizada lleva el nombre de pila Weston. Existe también otra variante: se puede construir el sistema de definiciones y unidades de medida eligiendo cierta resistencia patrón, y midiendo, igual que antes, todas las demás resistencias después de poner en claro cuántos elementos normalizados pueden sustituir el conductor en cuestión. En su tiempo, como tal unidad de resistencia se empleaba una columna de mercurio de longitud y sección prefijadas. Es útil siempre tener presente que la secuencia en que se introducen los conceptos físicos es una cosa arbitraria. Por supuesto, el contenido de las leyes de la naturaleza no se altera debido a ello. Hasta el momento teníamos que ver con los fenómenos eléctricos relacionados con la corriente eléctrica continua. Incluso sin rebasar los marcos de este grupo de fenómenos se brinda la posibilidad de construir diferentes sistemas de definiciones de los conceptos y, respectivamente, distintos sistemas de unidades de medida. Pero, en realidad, la posibilidad de elegir resulta ser aún más amplia, ya que los fenómenos eléctricos no se reducen, en modo alguno, a la corriente eléctrica continua.

Gentileza de Manuel Mayo

20

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Hasta la fecha, muchos libros de texto físicos definen el concepto de magnitud de la carga eléctrica (o, que es lo mismo, de la cantidad de electricidad) a partir de la ley de Coulomb, seguidamente, en la escena se presenta la tensión y tan sólo al fin y a la postre, una vez terminada la exposición de la electrostática, el autor introduce los conceptos de intensidad de la corriente y de resistencia eléctrica. Como ha visto el lector, seguimos por otro camino. Todavía más arbitrio se puede observar en la elección de las unidades de las magnitudes físicas. El investigador tiene el derecho de proceder tal como le parece más conveniente. Solamente no debe olvidar que la elección de las unidades repercutirá en los coeficientes de proporcionalidad que forman parle de diferentes fórmulas. No hay nada malo en escoger independientemente las unidades de la intensidad de la corriente, de la tensión y de la resistencia. Más en este caso, en la fórmula de la ley de Ohm aparecerá cierto coeficiente numérico que posee dimensión. Hasta el último tiempo, mientras el severo veredicto de la Comisión Internacional no haya expulsado todavía de la física las tan familiares calorías, la fórmula de la ley de Joule - Lenz contenía un coeficiente numérico. La causa de ello residía en el hecho de que las unidades de la intensidad de la corriente y de la tensión se determinaban de una forma completamente independiente con respecto a la elección de la unidad de energía (calor, trabajo). En los párrafos anteriores he escrito en forma de proporcionalidades y no igualdades solamente dos fórmulas: aquella que relaciona la masa de la sustancia depositada en el electrodo con la cantidad de electricidad y la ley de Coulomb. No lo he hecho casualmente, sino por la sencilla razón de que los físicos, por ahora, muy a desgana pasan al Sistema Internacional, SI, adoptado como ley, y siguen empleando todavía el llamado sistema absoluto de unidades en que el valor de K en la fórmula de Coulomb para la interacción de las cargas en el vacío se toma igual a la unidad. Al obrar de esta manera, predeterminamos el valor de la llamada unidad «absoluta» de la cantidad de electricidad (la carga es igual a la unidad si dos cargas iguales situadas a una distancia unitaria interaccionan con una fuerza unitaria). De ser consecuentes, entonces, al medir la masa en gramos, tendríamos que calcular el valor del coeficiente h en la ley de la electrólisis, indicando qué cantidad

Gentileza de Manuel Mayo

21

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

de sustancia se deposita en el electrodo en una unidad absoluta de carga. Sin embargo, absténgase de hojear las páginas de los manuales, no encontrara semejante valor para dicho coeficiente. Por cuanto los físicos estaban enterados de la categórica oposición de los físicos a renunciar al amperio y culombio, los primeros instituían en la fórmula de la electrólisis aquel número que determinaba la masa de sustancia que precipitaba al pasar a través del líquido un culombio de electricidad En los libros figuraban dos unidades para una misma magnitud. Con todo, estaba claro que el empleo de una o de otra era conveniente en los casos completamente diferentes, pues un culombio equivalía a tres mil millones unidades absolutas. Sin duda alguna, es cómodo suponer que K es igual a uno, pero los técnicos prestaban atención a que en las ecuaciones para el flujo de líneas de intensidad, de la capacidad del condensador y en otras fórmulas queda el coeficiente 4π que no hace falta a nadie y afirmaban que sería útil librarse de éste. Como suele suceder, vencieron aquellos quienes se encontraban más próximos a la práctica, que a la teoría, el sistema adoptado actualmente tomó el camino que hace mucho ya siguieron los técnicos. Los partidarios del sistema SI consiguieron también que emplease una sola unidad de energía en todos los campos de la ciencia, exigiendo, además, que como unidad eléctrica fundamental y única figúrese la intensidad de la corriente. De este modo entramos en el estudio de la electricidad cuya unidad de energía es julio. Como unidad de la cantidad de electricidad elegimos el culombio igual al amperio-segundo. Proponemos definir el amperio por la intensidad de interacción de las corrientes. Esta definición (la insertaremos en páginas siguientes, en el capítulo dedicado al electromagnetismo) se elige de modo que el coeficiente k en la fórmula de la electrólisis resulte ser el mismo a que todo el mundo se ha acostumbrado hace mucho. No obstante, hay que tener presente que este coeficiente en el sistema SI no define la magnitud del culombio. Si la exactitud de la medición crece, nos veremos obligados a medir esta magnitud de una forma tal que se conserve la definición del amperio (a decir verdad, no creo que este tiempo llegue, ya que no me puedo figurar que la exactitud en la medición de las fuerzas electrodinámicas supere la de la medición de la masa).

Gentileza de Manuel Mayo

22

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

En adelante, el sistema SI sigue por el camino que yo había obligado a recorrer a nuestro investigador. Aparece la unidad de tensión, el voltio, igual al julio dividido por el culombio; la unidad de resistencia, el ohmio, igual al voltio dividido por el amperio; la unidad de resistencia específica: el ohmio multiplicado por el metro. Pero ahora llegamos a la ley de Coulomb y vemos que ya no tenemos el derecho de manipular arbitrariamente con el coeficiente K La fuerza se mide en newtons; la distancia, en metros, y la carga, en culombios. El coeficiente K se convierte en dimensional y tiene cierto valor que debe determinarse por vía experimental. A la ley de Coulomb se suele recurrir raras veces, mientras que la expresión de la capacidad del condensador es la fórmula de trabajo en muchos cálculos técnicos. Con el fin de librarse del factor 4π en las fórmulas del flujo de líneas de intensidad, de la capacidad del condensador y en muchas otras los técnicos ya hace mucho han sustituido el coeficiente K por la expresión 1/4πε0. Debido a razones completamente comprensibles ε0 puede llamarse permeabilidad dieléctrica del vacío, sin embargo, oficialmente, esta magnitud se denomina constante eléctrica. Esta resulta ser igual a

De este modo, ahora el flujo de líneas de intensidad se expresa por medio de la fórmula

y la capacidad del condensador

La unidad de capacidad, un faradio, es igual a un culombio dividido por voltio:

Gentileza de Manuel Mayo

23

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

1 Φ = 1 C/V. La evolución de la teoría de la electricidad El orden de secuencia en que actuaba nuestro investigador «sintetizado» no tiene nada que ver con la real evolución de la teoría de la electricidad. Los fenómenos electrostáticos se conocían ya en la remota antigüedad. Es difícil decir si los sabios griegos conocían qué cuerpos, además del ámbar (en griego «electrón» significa «ámbar») adquirían, después de frotarlos, unas propiedades especiales, atrayendo las pajitas. Tan sólo en el siglo XVII William Gilbert demostró que esta extraña propiedad la poseían el diamante, el lacre, el azufre, el alumbre y muchos otros cuerpos. Al parecer, este ilustre hombre de ciencia fue el primero es crear instrumentos con cuya ayuda se podía observar la interacción de los cuerpos electrizados. En el siglo XVIII ya no se ignoraba que algunos cuerpos eran capaces de retener las cargas, mientras que por otros cuerpos las cargas «escurren-». Son pocos los que ponen en tela de juicio el hecho de que la electricidad es algo como un fluido. Se crean las primeras máquinas electrostáticas por cuyo medio pueden generarse chispas y realizarse el siguiente experimento: se hace «estremecerse» una hilera de hombres en la cual cada uno está cogido de la mano del vecino y el primero toca el conductor de la máquina eléctrica en función. La alta sociedad de muchos países visita los laboratorios de los científicos como si éstos fuesen un circo. Y los científicos, a su vez, tratan de impartir a los correspondientes fenómenos un carácter máximamente teatral En el sido XVIII ya se puede hablar sobre la electrostática como de una ciencia. Está fabricada gran cantidad de diferentes electroscopios y Coulomb comienza a efectuar mediciones cuantitativas de las fuerzas de interacción de las cargas. En 1773, Luis Galvani (1737 - 1798) comenzó a investigar las contracciones musculares de la rana operadas bajo la acción de la tensión eléctrica. Continuando los experimentos de Galvani, Volta, a finales del siglo XVIII llega a comprender que por los músculos de la rana corre un fluido eléctrico. El siguiente paso notorio es la creación de la primera fuente de corriente eléctrica: de una pila galvánica, y más tarde, también de la pila de Volta.

Gentileza de Manuel Mayo

24

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Al despuntar el siglo XIX la noticia sobre el descubrimiento de Volta ya se difundió por todo el mundo científico. Comienza el estudio de la corriente eléctrica. Un descubrimiento sigue tras otro. Una serie de investigadores estudia la acción térmica de la corriente. También estaba dedicado a estos estudios Oersted que, electivamente, por pura casualidad, descubrió la acción de la corriente sobre la aguja magnética. Los brillantes trabajos de Ohm y Ampère fueron realizados aproximadamente en un mismo período: en los años 20 del siglo XIX. Los trabajos de Ampère, rápidamente, le granjearon una gran fama. En cambio, Ohm no tenía suerte. Sus artículos en los cuales el escrupuloso experimento se compaginaba con cálculos precisos y que se distinguían por su carácter riguroso y la introducción

consecuente

de

los

conceptos

fenomenológicos,

descartando

absolutamente la «naturaleza» de las cosas, no acapararon la atención de los contemporáneos. Es extraordinariamente difícil leer los trabajos originales de los físicos que habían trabajado en aquellos tiempos. Sus hallazgos experimentales se exponen en un lenguaje ajeno para nosotros. En una serie de casos ni siquiera es posible comprender qué entendía el autor empleando tal o cual palabra. Los nombres de los grandes científicos viven en la memoria de los descendientes tan sólo gracias a la atenta labor de los historiadores de la ciencia.

Gentileza de Manuel Mayo

25

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 2 Estructura eléctrica de la materia Contenido: •

Porción mínima de electricidad



Flujos iónicos



Rayo electrónico



Experimento de Millikan



Modelo del átomo



Cuantificación de la energía



La ley periódica de Mendeleiev



Estructura eléctrica de las moléculas



Los dieléctricos



Conductibilidad de los gases



Descarga autónoma



Sustancia en estado de plasma



Metales



Salida de los electrones del metal



Fenómenos termoeléctricos



Semiconductores



Unión p—n

Porción mínima de electricidad Durante un largo período todos los datos que tenían los físicos en lo que concernía a los fenómenos eléctricos se reducían a la segundad de que la electricidad es algo como un líquido. Aun a finales del siglo XIX estaba en boga la siguiente anécdota. Un examinador deseoso de reírse sobre el estudiante no preparado dice: «Bueno, como usted no pudo dar respuesta a ninguna de mis preguntas, permítame que le ponga una más, de lo más simple: ¿qué es la electricidad?» El estudiante contesta: «Señor profesor, palabra de honor que lo conocía, pero se me olvidó». El examinador exclama. «¡Qué pérdida para la humanidad! Había una persona que sabía qué es la electricidad, pero hasta esa persona lo olvidó».

Gentileza de Manuel Mayo

26

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Las primeras conjeturas acerca de que la electricidad no es un líquido continuo, sino consta de unas partículas especiales, así como la seguridad de que las partículas eléctricas están vinculadas, de cierta forma, con los átomos se han promovido basándose en el estudio de la electrólisis. Al realizar los experimentos relacionados con la descomposición de las sustancias disueltas en agua durante el paso de la corriente a través de la solución, Miguel Faraday (1791 - 1867) había establecido que una misma corriente eléctrica da lugar a la sedimentación en los electrodos de distinta cantidad de sustancia en dependiente de qué compuesto químico estaba disuelto en agua. Faraday halló que al depositarse un mol de una sustancia monovalente a través del electrolito pasaban 96.500 C, mientras que con la sedimentación de un mol de una sustancia divalente esta cantidad se duplicaba. ¿Usted habrá pensado, tal vez, que, al llegar a este resultado, Faraday exclamara «¡eureka!», declarando que esclareció la naturaleza de la electricidad? De ningún modo. El gran experimentador no se permitió tal fantasía. Faraday, en todo caso, en lo que concernía a la corriente eléctrica, se comportaba como el protagonista del capítulo anterior. Estimaba necesario utilizar tan sólo aquellos conceptos que se podían caracterizar con un número. ¿Cómo puede ser?, preguntará, el lector. ¿Acaso no se ha demostrado que 6,02 x 1023 (se acuerda de que es el número de Avogadro) átomos transportan 96.500 culombios de electricidad? En consecuencia, al dividir el segundo número por el primero, obtendré la cantidad de electricidad que transporta cada uno de los átomos monovalentes. La operación de división nos da 1,6 x 1019 culombios. ¡He aquí la mínima porción de electricidad, o bien «átomo de electricidad», o bien «carga elemental»! Pero el número de Avogadro fue determinado tan sólo para el año 1870. Solamente entonces (figúrese, ¡nada más que hace un siglo!) los físicos propensos a inventar hipótesis (su temperamento y modo de pensar los diferencia sustancialmente del investigador, a quien no gusta salir de los marcos del fenómeno) llegaron a la conclusión de que es muy probable la siguiente conjetura. A la par de átomos eléctricamente neutros existen partículas que transportan en su seno una o varias cargas elementales de electricidad (positiva o negativa). Los átomos que portan la

Gentileza de Manuel Mayo

27

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

carga positiva (los cationes) se depositan durante la electrólisis en el cátodo; los átomos que son portadores de la carga negativa (los aniones) se depositan en el ánodo. Las moléculas de las sales solubles en agua se disocian en aniones y cationes, por ejemplo, la molécula de la sal común, o sea, del cloruro de sodio, no se disocia en átomos de cloro y átomos de sodio, si no en el ion positivo de sodio y el ion negativo de cloro. Flujos iónicos Se sobreentiende que el fenómeno de la electrólisis solamente sugiere al investigador la idea sobre la existencia de las partículas eléctricas. A finales del siglo XIX y principios del XX se propusieron numerosos procedimientos para transformar las moléculas en fragmentos cargados (dicho fenómeno se denomina ionización), se demostró por qué vía podían crearse flujos dirigidos de partículas cargadas y, por fin, se elaboraron métodos de medición de la carga y de la masa de los iones. El primer conocimiento con los flujos iónicos los físicos lo trabaron conectando al circuito de la corriente eléctrica un tubo de vidrio lleno de gas enrarecido. Si la tensión en los electrodos que están soldados en el tubo es pequeña, la corriente no pasará a través de este tubo. Sin embargo, resulta que no es nada difícil convertir el gas en conductor. La acción de los rayos X, de la luz ultravioleta y de la irradiación radiactiva conduce a la ionización del gas. También se pueden sortear las medidas especiales, pero en este caso es necesario aplicar al tubo de gas una tensión más alta. ¡El gas se convierte en conductor de corriente! Se puede suponer que las moléculas se fragmentan en aniones y cationes. Los aniones se dirigen al electrodo positivo, y los cationes, al negativo. Una etapa importante en el estudio de este fenómeno lo constituía la creación del flujo de partículas. Con este objeto es preciso practicar en el electrodo un orificio y acelerar por medio de un campo eléctrico los iones de un mismo signo que han atravesado dicho orificio. Empleando dos diafragmas es posible crear un haz estrecho de amones o cationes que se muevan a una velocidad considerable. Si el haz incide sobre una pantalla del tipo de la utilizada en el televisor, observaremos un punto luminoso. Si dejamos pasar el flujo de los iones a

Gentileza de Manuel Mayo

28

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

través de dos campos eléctricos mutuamente perpendiculares y cambiamos la tensión en los condensadores que crean estos campos es posible obligar el punto a desplazarse caóticamente por la pantalla. Valiéndonos de semejante dispositivo podemos determinar el más importante parámetro de la partícula, a saber, la relación de su carga a la masa. En un campo acelerador los iones cobran energía igual al trabajo de las fuerzas eléctricas, es decir

La tensión la conocernos, y la velocidad de las partículas se halla por los más variados procedimientos. Se puede, digamos, medir la desviación del punto luminoso en la pantalla. Está claro que la desviación será tanto mayor cuanto mayor sea el camino recorrido por la partícula y cuanto menor resulte su velocidad inicial. El problema se resuelve de una forma completamente rigurosa. Se parece al cálculo de la trayectoria de una piedra lanzada horizontalmente. También existen procedimientos para la medición directa del tiempo consumido por el ion para recorrer todo el camino. De este modo, conocemos la tensión y la velocidad del ion. ¿Qué se puede calcular, entonces, como resultado de semejante experimento? De la ecuación se infiere: se puede calcular la relación de la carga de la partícula respecto a su masa. Y es una pena que por mucho que se cambien las condiciones del experimento, por más variadas que sean las desviaciones y aceleraciones, a que se recurren, de las partículas, no se logra, de ningún modo, separar la magnitud de la carga de la masa. Solamente teniendo en cuenta los datos revelados por los químicos y el valor de la carga elemental obtenido a base de la electrólisis, se consigue sacar la firme conclusión: las cargas de todos los iones monovalentes son idénticas; las cargas de todos los iones divalentes representan el doble de las primeras, y de los iones trivalentes, el triple... Por esta razón, las diferencias en las relaciones de la carga respecto a la masa que se logran medir con una precisión extraordinariamente grande pueden considerarse como método de medición de la masa del ion.

Gentileza de Manuel Mayo

29

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Precisamente por esta causa el instrumento que desempeña un importantísimo papel en la química y la tecnología química y se basa en el principio del sencillo experimento cuya descripción hemos dado, esto instrumento lleva el nombre de espectrógrafo de masas (el libro 4), aunque, en esencia, mide la relación de la carga respecto a la masa de los iones. Rayo electrónico Dejemos de seguir el intrincado curso de los acontecimientos históricos que condujo a los físicos a la firme convicción de que no solo existía la mínima porción de electricidad, sino de que esta porción tiene su portador material denominado electrón. Presentemos la descripción del experimento que se muestra en las clases escolares. El instrumento destinado para esta tarea se denominaba, en su tiempo, tubo catódico. Actualmente lleva el nombre de tubo de haz electrónico Si usted, estimado lector, hace mucho ha terminado sus estudios y no ha visto este instrumento, no se aflija. Usted conoce muy bien el tubo de haz electrónico, ya que éste es el elemento principal de su aparato televisor en cuya pantalla el rayo electrónico dibuja cuadros que a veces le complacen y que siempre le permiten matar el tiempo libre.

Figura 2.1 Pero volvamos al experimento escolar. El esquema del tubo se representa en la fig. 2.1. El tubo está perfectamente bombeado no hay en éste moléculas susceptibles

Gentileza de Manuel Mayo

30

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

de desintegrarse. Sin embargo, al caldear con la corriente (dicha corriente se llama catódica) el filamento metálico y conectar seguidamente el cátodo y el ánodo a los polos respectivos de la fuente de tensión, usted descubrirá en la pantalla del tubo un punto luminoso y, por medio de un instrumento de medida, establecerá que del ánodo al cátodo comenzó a fluir la corriente eléctrica. Es lógico darle el nombre de corriente anódica. Por cuanto la corriente fluye a través del vacío, no hay otro remedio sino hacer la conclusión

de

que

el

filamento

incandescente

emite

partículas

cargadas

negativamente. El fenómeno lleva el nombre de emisión termoelectrónica o emisión termoiónica. Todo cuerpo incandescente posee esta capacidad. Las partículas, y no ocultamos del lector que éstas son precisamente los electrones, se dirigen a los ánodos que tienen la forma de vasos con un orificio redondo en sus fondos. Los electrones salen en forma de un haz estrecho. Este haz puede investigarse mediante los mismos procedimientos que acabamos de describir para el haz de iones. Una vez cerciorados, con ayuda de la pantalla luminosa, de que el filamento incandescente emite electrones, abordamos la determinación, utilizando placas de desviación, de la relación de la carga a la masa. El resultado es como sigue. La relación para el electrón es 1840 veces mayor que la misma relación para el ion más ligero, a saber, para el ion de hidrógeno. De aquí sacamos la conclusión de que el electrón es 1840 veces más ligero que el ion de hidrógeno. Este hecho significa que la masa del electrón es igual a 9 x 10-28 g. Sin embargo, el lector tiene el derecho de advertir que nos apresuramos demasiado. Pues no se puede, basándose en la medición de la relación de la carga a la masa del electrón, concluir que su masa es menor que la del ion. ¿Y si resulta que las cargas de un ion positivo y del electrón son completamente disímiles? La primera determinación de la relación de la carga a la masa del electrón se llevó a cabo todavía a finales del siglo XIX, por el brillante físico Joseph John Thomson (1856 - 1940). (Los amigos le llamaban J.J. A lo mejor, el empleo de estas siglas que se encuentran a menudo en las publicaciones de memorias no tanto se debe al amor que los ingleses experimentan a toda clase de abreviaturas como a la circunstancia de que en el siglo XIX había vivido y trabajado otro relevante físico

Gentileza de Manuel Mayo

31

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

que tenía el mismo apellido. Se trata de William Thomson a quien por sus méritos científicos fue otorgado el título nobiliario de modo que comenzó a llamarse lord Kelvin). Por supuesto, el tubo catódico utilizado por Joseph Thomson fue mucho menos perfecto que el oscilógrafo moderno. El científico comprendía muy bien que su medición tan sólo hace probable el carácter discreto de la carga eléctrica y la existencia de una porción mínima de electricidad. Por muy extraño que parezca, a pesar de que muchos físicos observaron el comportamiento de los rayos catódicos y anódicos había aún muchos partidarios de la

hipótesis

de

que

estos

rayos

tenían

la

naturaleza

ondulatoria.

Estos

investigadores no veían la necesidad de reconocer que las corrientes fluyentes por el alambre metálico y por el líquido, así como aquellas que pasan a través de los gases y el vacío son parientes muy próximos. Insistieron en obtener pruebas más directas. Y, sin duda alguna, podemos comprender sus razones: para que una hipótesis se convierta en hecho no bastan argumentos indirectos. De este modo, en primer término era necesario corroborar esta seguridad mediante mediciones directas de la carga de la partícula. Y en los primeros años del siglo XX el propio Thomson y sus discípulos abordaron esta tarea, y sus intentos, no se vieron frustrados, de ningún modo. Las mediciones más exactas fueron realizadas en 1909 por Roberto Millikan. Experimento de Millikan La idea sobre el carácter discreto de la electricidad se conceptúa como muy audaz, mientras que el cálculo de la carga elemental recurriendo al método con cuya exposición iniciamos el capítulo puede interpretarse también de otra forma. ¿Por qué no decir, por ejemplo, que los aniones existen realmente, mientras que la electricidad negativa es un líquido que es arrastrado por el ion positivo? Un ion capta una cantidad de este líquido; otro ion capta otra cantidad, y el experimento da cierto valor medio. Es una explicación muy sensata. Como acabamos de decir, los experimentos de Thomson resultaron ser un argumento fuerte pero no decisivo a favor de la existencia del electrón. Por esta causa huelga demostrar cuán importante fue para la física el experimento en que la existencia de la carga elemental de electricidad quedó probada con tal grado de

Gentileza de Manuel Mayo

32

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

evidencia que todas las dudas al respecto fueron eliminadas inmediatamente. Tal experimento fue puesto en 1909 por el físico norteamericano Roberto Millikan. No voy a referirme a otros trabajos de esto científico. Pero dicha investigación, por sí sola, hubiera bastado para que su nombre figurase en todos los manuales de física. La idea de este maravilloso experimento se basa en un hecho simple. De la misma manera como una varilla de vidrio que, frotada con piel, adquiere propiedades eléctricas, se comportan también otros cuerpos. Este fenómeno se denomina electrización por fricción. Mas, hablando con propiedad, ¿por qué se debe pensar que dicha propiedad es inherente tan sólo a los cuerpos sólidos? Puedo ser que también se van a electrizar las gotitas de aceite que inyectaremos a una cámara cualquiera, pues, al pasar por la boquilla del pulverizador el aceite se someterá a fricción. Resulta que todo sucedo precisamente así. Para cerciorarse de ello es necesario montar un dispositivo muy sencillo, de principio: dirigir el chorro de las gotitas de aceite al espacio entre las armaduras de un condensador dispuestas horizontalmente y adaptar un microscopio que permita observar el movimiento de las gotitas. Mientras el campo eléctrico no se haya aplicado, las gotitas, como es natural, caerán por acción de la fuerza de la gravedad. Las gotitas son ligeras y por esta razón la fuerza de la gravedad, casi de inmediato; se equilibrará por la fuerza de la resistencia del aire, de modo que dichas gotitas caerán uniformemente. Sin embargo, apenas a las placas se aplica la tensión el cuadro cambia. El movimiento de la gota o se acelera, o bien, se hace más lento en dependencia de la dirección del campo eléctrico. Millikan optó una dirección tal del campo que hizo a la gota moverse más lentamente. Aumentando poco a poco el campo él logró, por decirlo así, dejar la gota suspendida en el aire Durante horas enteras el investigador observó una sola gola. Valiéndose del campo pudo, según su deseo, dirigir su movimiento y dejarla inmóvil. ¿Qué se puede calcular, entonces, por medio de semejante experimento? En primer término examinemos los datos que se obtendrán por observación en ausencia del campo. La igualdad de las fuerzas de la gravedad y de la resistencia del campo puede escribirse en la siguiente forma: mg = av

Gentileza de Manuel Mayo

33

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Lo densidad del aceite se halla con facilidad por experimentos independientes y el diámetro de la gota se mide con el microscopio. Siendo así, no cuesta trabajo calcular la masa de la gota. La caída de la gota es lenta, en consecuencia, haciendo marcas en el vidrio del microscopio y empleando un cronómetro determinemos con bastante precisión la velocidad de caída v de la gota. Entonces, a partir de la ecuación escrita anteriormente, se halla el coeficiente de resistencia a. Ahora conectemos el campo. Lo más conveniente es conseguir tal estado de cosas, que la gota comience a ascender uniformemente. A las dos fuerzas que actuaban ya se añadió la tercera, la cual por parte del campo eléctrico cuya intensidad E nos es conocida (la relación de la tensión a la distancia entre las placas del condensador) El movimiento uniforme hacia arriba significa que las tres fuerzas se han equilibrado. La condición de este equilibrio tendrá la siguiente forma: qE – mg –av’ El nuevo valor de la velocidad v' se mide empleando el mismo microscopio. De este modo resulta que se conocen todas las magnitudes que forman parte de la ecuación, salvo la carga de la gota. Calculemos el valor de esta carga y lo anotamos en el cuaderno que, indispensablemente, debe llevar cualquier escrupuloso experimentador. Ahora sí que nos hemos aproximado a la principal invención. La corriente en el electrolito. Discurría Millikan, se transporta por iones de distinto signo. Pero los iones pueden formarse también en el gas. El aire se ioniza empleando los más diversos procedimientos. Por ejemplo, todo el dispositivo puede situarse junio a un tubo de rayos X. Estos rayos ionizan el aire; hecho perfectamente conocido también en aquella época. Pero si la gota está cargada, entonces, atraerá los iones de signo contrario. Apenas el ion se adhiera a la gota la carga de esta última cambiará. Y en cuanto la carga se modifique también la gota varía su velocidad que puede hallarse inmediatamente por medio de una nueva medición. Las observaciones demostraron que esta idea resultó ser cierta. Después de haber conectado el tubo de rayos X, diferentes gotas cada vez comenzaron a cambiar a salto su velocidad. Sin quitar los ojos de una misma gota, el observador medía la

Gentileza de Manuel Mayo

34

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

diferencia de velocidad antes y después de conectar el tubo de rayos X. A base de la fórmula que hemos insertado se calculaba, de una vez el valor de q. ¿No ha comprendido todavía cuál es la finalidad de este proceder? Recapacítelo mejor. Si la carga eléctrica elemental existe, entonces en el caso de que a la gota se ha unido un ion monovalente los valores medidos deben ser iguales a esta carga, o bien, en el caso de adherirse a la gota varios iones, dichos valores deben ser múltiplos de la magnitud de la carga elemental. A medida que Millikan llevaba a cabo sus experimentos para las gotas de aceite, de mercurio y de glicerina, cambiando, al mismo tiempo los signos de la carga de las gotas, su cuaderno se llenó de números que correspondían a los valores de q, y todos estos valores resultaron ser múltiplos de una misma magnitud, precisamente de aquella que había sido hallada debido a las investigaciones de la electrólisis. Después de que Millikan publicó sus resultados, hasta los escépticos dejaron de poner en tela de juicio el que la carga eléctrica se encontrase en la naturaleza en forma de porciones discretas. Aunque, de hecho, hablando con rigor, tampoco los experimentos de Millikan demostraban directamente la existencia del electrón como partícula. Sin embargo, las hipótesis adelantan a los hechos. Ya a principios del siglo XIX había quien estuviera seguro de la naturaleza granular de la electricidad. G. J. Stoney, en 1891, por primera vez calculó la carga del ion; también fue él quien prepuso el término «electrón», mas no para la partícula, sino para la carga de un ion negativo monovalente. Los experimentos de Thomson hicieron creer en la existencia del electrón como partícula a la absoluta mayoría de los físicos. Paul Drude fue el primero quien, sin ambages, definió el electrón como partícula que porta una carga elemental de electricidad negativa. De este modo resulta que el electrón obtuvo reconocimiento antes de haber sido «visto». En cuanto a la prueba directa de existencia del electrón de ésta sirvieron los experimentos finos realizados más tarde. Se hace incidir sobre la pantalla un haz débil de partículas y cada una de estas partículas puede calcularse. Cada electrón produce un centelleo en la pantalla luminosa. Desde luego, hace mucho ya que con este fin no se utilizan pantallas luminosas, sino contadores especiales que por el

Gentileza de Manuel Mayo

35

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

nombre de su inventor se denominan contadores de Geiger. En pocas palabras, la idea de este contador consiste en que un electrón, a guisa de gatillo de un revólver, da inicio a un fuerte impulso de corriente que es fácil de registrar. De esta manera el físico tiene la posibilidad de establecer el número de electrones que caen en una determinada trampa por un segundo. Si en calidad de dicha trampa se toma un matraz metálico a cuyo interior van a parar electrones, el matraz se cargará paulatinamente de una cantidad de electricidad suficiente para que se la pueda medir con precisión. Para hallar la carga del electrón lo único que se requiere es dividir la cantidad de electricidad por el número de electrones captados. Solamente después de estos experimentos podemos decir: la existencia del electrón dejó de ser una hipótesis. Es un hecho. Pasamos sin detenernos, a velocidad de un coche de carreras, al lado de los descubrimientos que pusieron los cimientos de la física moderna. ¡Más, qué se puede hacer! ¡Ésta es su suerte! Los nuevos acontecimientos hacen replegarse al segundo plano a los viejos y hasta los eventos cruciales que tuvieron lugar durante la edificación del templo de la ciencia pasan a ser incumbencia de los historiadores. Ahora, tal vez, podemos contestar a la pregunta de qué es la electricidad. El fluido eléctrico es el flujo de partículas eléctricas (los sinónimos son: cargadas, poseedoras de carga eléctrica). El cuerpo es eléctricamente cargado si el número de partículas de un signo supera el de partículas de otro signo. - Vaya una explicación - dice indignado el lector. ¿Qué es una partícula eléctrica? - ¿Acaso no le parece claro? Las partículas se denominan eléctricas si interaccionan de acuerdo a la ley de Coulomb. - ¿Y nada más? - pregunta con perplejidad el lector. - Nada más - responde el físico. Nada más en lo que atañe a la respuesta a su pregunta. Pero, más adelante, le esperan respuestas a muchas otras interesantes cuestiones. No olvide que todavía no hemos hecho mención de las ocasiones en que nos aguardan los encuentros con la partícula elemental de la electricidad positiva. Además, en perspectiva, nos enteraremos de que las partículas eléctricas se caracterizan no sólo por la carga y la masa, sino también por otras propiedades. Sin embargo, en primer término, nuestra conversación se referirá a la estructura del átomo.

Gentileza de Manuel Mayo

36

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Modelo del átomo ¿Cómo está estructurado el átomo de partículas eléctricas? La respuesta se ha obtenido con la ayuda de los rayos emitidos por el elemento radio. Hablaremos sobre esta maravillosa sustancia, así como sobre la gran familia de los elementos radiactivos naturales y artificiales en el cuarto libro. Mientras tanto, nos basta con saber que el radio emite ininterrumpidamente una radiación electromagnética dura (rayos gamma), el flujo de electrones (que en su tiempo se denominaba rayos beta) y rayos alfa que no son sino iones del átomo de helio doblemente cargados. El relevante físico inglés (nació en Nueva Zelanda) Ernesto Rutherford (1871 - 1937) propuso en 1911 el llamado modelo planetario del átomo, idea a la cual llegó basándose en las escrupulosas investigaciones de la dispersión de las partículas alfa mediante diferentes sustancias. Rutherford realizaba experimentos con el pan de oro cuyo espesor constituía tan sólo una décima de micrón. Resultó que entre 10.000 partículas alfa solamente una se desviaba en un ángulo superior a 10° y que raras veces también se encontraron partículas alfa desviándose en un ángulo obtuso alcanzando éste incluso 180°. En estos experimentos sorprendentes por su sencillez se fijaba el paso de cada partícula por separado. Se sobreentiende que la técnica moderna permite efectuar las mediciones de una manera totalmente automatizada. Así, pues, inmediatamente se pone en claro que los átomos constan principalmente del... vacío. Los raros choques frontales deben entenderse de la siguiente forma. Dentro del átomo existe un núcleo cargado positivamente. Cerca del núcleo se disponen los electrones. Estos son muy ligeros y, por lo tanto, no forman un obstáculo serio para la partícula alfa. Los electrones licúan la partícula alfa, pero el choque con cada electrón solitario no puede desviar la partícula de su camino. Rutherford supuso que las fuerzas de interacción entre el núcleo del átomo y la partícula alfa de cargas homónimas son fuerzas coulombianas. Al suponer, luego, que la masa del átomo está concentrada en su núcleo calculó la probabilidad de desviación de las partículas a un ángulo dado y obtuvo una coincidencia brillante entre la teoría y el experimento. Es así cómo los físicos comprueban los modelos producto de su imaginación.

Gentileza de Manuel Mayo

37

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

- ¿El modelo predice los resultados del experimento? - Sí. - Entonces, ¿resulta que refleja la realidad? - ¿Para qué hablar tan categóricamente? El modelo explica una serie de fenómenos, por consiguiente, es válido. Y precisarlo es asunto del futuro... Los resultados de los experimentos de Rutherford no dejaban dudas en cuanto a la certeza de la siguiente afirmación: los electrones, por acción de las fuerzas de Coulomb se mueven alrededor del núcleo. De la teoría derivaban también algunas evaluaciones cuantitativas que más tarde se vieron confirmadas. Las dimensiones de los núcleos atómicos más pequeños resultaban iguales a 10-13 cm, aproximadamente, mientras que las del átomo eran del orden de 10-8 cm. La confrontación de los resultados del experimento con los cálculos dio la posibilidad de evaluar también las cargas de los núcleos en colisión. Dichas evaluaciones desempeñaron un gran papel - incluso se puede decir que un papel prioritario - en la interpretación de la ley periódica de la estructura de los elementos. Bueno, el modelo del átomo está construido. Pero, inmediatamente, surge la siguiente pregunta. ¿Por qué los electrones (partículas cargadas negativamente) no caen al núcleo (cargado positivamente)? ¿Por qué el átomo es estable? ¿Pero qué hay aquí de incomprensible? - dirá el lector. Es que los planetas tampoco caen al Sol. Una fuerza de procedencia eléctrica, al igual que la de la gravedad, es fuerza centrípeta, asegurando el movimiento circular de los electrones alrededor del núcleo. Sin embargo, la cuestión reside precisamente en que la analogía entre el sistema planetario y el átomo reviste tan sólo carácter somero. Como se pondrá de manifiesto más tarde, desde el punto de vista de las leyes generales del campo electromagnético el átomo está obligado a emitir ondas electromagnéticas. Desde luego, no es indispensable conocer la teoría del electromagnetismo. La materia, es decir, los átomos, es capaz de irradiar luz y calor. Siendo así, el átomo pierde energía y, por consiguiente, el electrón debe caer al núcleo.

Gentileza de Manuel Mayo

38

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

¿Cuál es, entonces, la salida de esta situación? Es muy «simple»: hay que avenirse a los hechos y elevarlos al rango de la ley de la naturaleza. Este paso lo emprendió, precisamente, en 1913 el gran físico de nuestro siglo Niels Bohr (1885 - 1962). Cuantificación de la energía Al igual que todos los primeros pasos este también fue relativamente tímido. Procedamos a la exposición de una nueva ley de la naturaleza que no sólo salvó el modelo del átomo propuesto por Rutherford, sino también nos obligó a llegar a la conclusión de que la mecánica de los macrocuerpos es inaplicable a las partículas de masa pequeña. El carácter de la naturaleza es tal que algunas magnitudes como, por ejemplo, el momento de impulso y la energía no pueden tener una serie continua de valores para cualquier sistema de partículas que están en interacción. En cambio, el átomo de que hablamos ahora o el núcleo atómico de cuya estructura hablaremos más tarde tienen su secuencia de niveles de energía inherente tan sólo al sistema dado. Se tiene el nivel más bajo (el nivel cero). La energía del sistema no puede ser menor de este valor. Eu el caso del átomo esto quiere decir que existe un estado tal en que el electrón se encuentra a cierta distancia mínima del núcleo. La variación de la energía del átomo puede efectuarse solamente a salto. Si el salto resulta hacia «arriba» este hecho significa que el átomo absorbió energía. Si el salto ocurre hacia «abajo», entonces, el átomo irradió energía. La ley que acabamos de formular lleva el nombre de ley de cuantificación de la energía. También se puede decir que la energía reviste carácter cuántico. Cabe señalar que la ley sobre la cuantificación tiene un carácter absolutamente universal. Es aplicable no sólo al átomo, sino también a cualquier objeto que consta de miles de millones de átomos. Sin embargo, cuando se trata de grandes cuerpos, con frecuencia, meramente podemos «pasar por alto» la cuantificación de la energía. La cuestión radica en que, hablando en rasgos generales, en un objeto que consta de un millón de billones de átomos el número de niveles de energía aumenta un millón de billones de veces. Los niveles de energía se situarán tan cerca uno al otro que, prácticamente, se confundirán. Esta es la razón por la cual pasaremos por alto el carácter discreto de los valores posibles de la energía. De este modo, cuando

Gentileza de Manuel Mayo

39

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

se trata de macrocuerpos, aquella mecánica que hemos expuesto en el libro 1 prácticamente no cambia. En el libro 2 hemos aclarado que la transmisión de la energía de un cuerpo a otro puede efectuarse en forma de trabajo y en forma de calor. Ahora estamos en condiciones de explicar la diferencia entre estas dos formas de transmisión de la energía. Durante la acción mecánica (digamos, durante la compresión) los niveles de energía del sistema se desplazan. Dicho desplazamiento es sumamente insignificante y se pone de relieve sólo por experimentos finos y sólo en el caso de que las presiones sean lo suficientemente grandes. En lo que concierne a la acción térmica, ésta consiste en la traslación del sistema de un nivel de energía más bajo a otro nivel más alto (calentamiento), o bien, de un nivel más alto al nivel más bajo (enfriamiento). La cuantificación de la energía, igualmente que de otras magnitudes mecánicas, es una ley general de la naturaleza de la cual derivan, con rigor, los más variados corolarios que encuentran su confirmación en la experiencia. Es posible que usted quisiera preguntar: ¿por qué la energía se cuantifica? A esta pregunta no hay respuesta. ¡La naturaleza está estructurada así! Cualquier explicación es la reducción de un factor particular a otro más general. Por el momento no conocemos ni un solo enunciado tan general que de éste, como corolario, derive la cuantificación de la energía. Por supuesto, no queda excluido que en el futuro se descubrirán las leyes tan globales que los principios de la mecánica cuántica resulten sus corolarios. Sea como fuere, hoy en día la ley de cuantificación representa una de las pocas magnas leyes de la naturaleza que no necesitan una motivación lógica. La energía se cuantifica porque... se cuantifica. En esta forma general dicha ley fue establecida en los años 1925 - 1927 gracias a los trabajos del físico francés Luis de Broglie, el físico austríaco Erwin Schrödinger y el físico alemán Werner Heisenberg. La ciencia cuya base la constituye el principio de cuantificación (un momento, se me olvidó decir que «quantum» de que procede la palabra «cuanto» puedo traducirlo como «porción») recibió el nombre de mecánica cuántica u ondulatoria. ¿Y por qué ondulatoria? se lo daremos a conocer más tarde.

Gentileza de Manuel Mayo

40

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

La ley periódica de Mendeleiev En 1868 el gran químico ruso Dmitri Ivanovich Mendeleiev (1834 - 1907) publicó la ley periódica de secuencia de los elementos químicos que él había descubierto. No vamos a insertar aquí la tabla de Mendeleiev la cual el lector puede encontrar en un libro de texto escolar de química. Hagamos recordar que, al disponer los elementos conocidos en una serie según sus pesos atómicos, Mendeleiev prestó atención a que las propiedades químicas y algunas particularidades físicas de los elementos varían periódicamente en dependencia del peso atómico. En la tabla compuesta por Mendeleiev cada uno de los elementos pertenece a uno de los nueve grupos y a uno de los siete períodos. Los elementos pertenecientes a un mismo grupo, Mendeleiev los dispuso en forma de columnas de modo que aquellos cuyos símbolos se ubicaban uno debajo de otro poseyeran propiedades químicas similares. Resultó que este propósito se podía lograr solamente en el caso de suponer que existían elementos todavía no descubiertos. Para estos elementos hipotéticos Mendeleiev dejó en su tabla «casillas vacías». La clarividencia del gran sabio se manifestó también en el hecho de que emplazó el átomo de níquel en su «debido» lugar tras el cobalto, a pesar de que el peso atómico del cobalto era algo mayor. Algunas «casillas vacías» se llenaron ya durante la vida de Mendeleiev, con lo que se granjeó la fama mundial pues a todos quedo claro que la composición de esta tabla no es un simple acto formal, sino el descubrimiento de una gran ley de la naturaleza. El sentido del número de orden que la tabla atribuye al elemento químico devino patente tan sólo después de que los físicos ya se libraron de dudas en lo que se refería a la validez del modelo planetario del átomo propuesto por Rutherford y de la ley de cuantificación de la energía. ¿Cuál es, entonces, este sentido? La respuesta resulta extraordinariamente sencilla: el número de orden es igual a número de electrones que giran alrededor del núcleo. También se puede decirlo de otra forma: el número de orden del elemento es la carga positiva de su núcleo expresada en unidades de la carga del electrón.

Gentileza de Manuel Mayo

41

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

La ley periódica de Mendeleiev, el principio de cuantificación de la energía y el estudio de los espectros característicos ópticos y de rayos X de los átomos (hablaremos sobre estos últimos más tarde) permitieron comprender el porqué de la similitud del comportamiento químico de los átomos que se encuentran en una columna de la tabla de Mendeleiev La energía del átomo es la energía de interacción de los electrones con el núcleo (la aportación de la energía de interacción de los electrones entre sí, en el razonamiento que sigue, resulta insustancial). Por cuanto la energía se cuantifica sería lógico suponer que los electrones de cada átomo pueden disponerse en una serie según sus energías. El primer electrón está ligado al núcleo de la forma más fuerte, la ligazón del segundo electrón con el núcleo es más débil; del tercero, más débil todavía, y así sucesivamente, de modo que los electrones del átomo se disponen según escalones de energía. La lógica no nos falla, pero la experiencia lleva a precisar este cuadro. En primer lugar, resulta que cada escalón de energía lo pueden ocupar no uno sino dos electrones. Es cierto que estos electrones se distinguen uno del otro por una propiedad llamada «espín». Esta propiedad es vectorial Los aficionados a la representación patente pueden trazar en su imaginación que en el escalón lleno se encuentran dos «puntitos» provistos de flechas con la particularidad de que una flecha mira hacia «abajo» y la otra hacia «arriba». El propio término «espín» apareció de la siguiente manera. Procede de la palabra inglesa «spin» que significa «girar rápidamente». Para que uno se forme la idea de cuál es la diferencia entre dos electrones sentados en el mismo peldaño se inducía a pensar que un electrón gira en sentido horario, y otro, en sentido anti horario, haciéndolo alrededor de su propio eje. Dicho modelo fue sugerido a raíz del parecido superficial entre el átomo y el sistema planetario. Como el electrón es una especie de planeta, ¿por qué no permitirle que gire alrededor de su eje? Una vez más debo decepcionar ni lector: representar patentemente el espín del electrón es una tarea imposible. Pero en el siguiente capítulo hablaremos sobre cómo medirlo. Sin embargo, ésta no es la única conclusión importante (a la cual nos llevó el estudio escrupuloso de los espectros de los átomos). La segunda conclusión

Gentileza de Manuel Mayo

42

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

consistía en que los escalones de energía estaban separados unos de otros por unas distancias desiguales y pueden dividirse en grupos. Tras el primer escalón llamado nivel K sigue una ruptura de energía, después se tiene un grupo de 8 electrones designado con la letra L; luego sigue el grupo de 18 electrones designado con la letra M... Nos abstenemos de exponer aquí la disposición de los niveles y el orden de su llenado para todos los átomos. El cuadro resulta lejos de ser tan simple y su descripción hubiera requerido mucho espacio. En nuestro pequeño libro los detalles no importan y he hecho mención de los escalones con el único fin de explicar con mayor claridad en qué, precisamente, consiste el parecido entre los átomos que se encuentran uno debajo del otro en la tabla de Mendeleiev. Resulta que tienen el mismo número de electrones en el grupo superior de los escalones. De este modo se esclarece el concepto químico de valencia del átomo. Por ejemplo, el litio, sodio, potasio, rubidio, cesio y francio tienen un electrón en el grupo superior de peldaños, el berilio, magnesio, calcio, etc. poseen dos electrones en este grupo. Los electrones de valencia (los externos) están ligados al átomo con menor fuerza que los demás. Por esta razón, durante la ionización de los átomos que se encuentran en la primera columna se forman más fácilmente las partículas con una sola carga. Los iones de berilio, magnesio, etc. portan sobre sí dos cargas, y así sucesivamente. Estructura eléctrica de las moléculas Los químicos denominan molécula al representante mínimo de una sustancia. Los físicos, las más de las veces, hacen uso de este vocablo tan sólo en el caso de que este representante mínimo exista realmente como un cuerpo pequeño y aislado. ¿Es que existe la molécula de la sal común? Claro que sí, contesta el químico y escribirá la fórmula: NaCl. La sal común es el cloruro de sodio. Su molécula consta de un átomo de sodio y un átomo de cloro. Sin embargo, esta respuesta es correcta solamente desde el punto de vista formal. En realidad, ni en un pequeño cristal de sal común, ni en su solución acuosa, ni en el vapor de cloruro de sodio, en ninguna parte, podemos descubrir una pareja de átomos que se comporte como un todo único. Como ya mencionamos en el segundo libro, en un cristal cada átomo de

Gentileza de Manuel Mayo

43

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

sodio está rodeado de seis cloros vecinos. Todos estos vecinos gozan de igualdad de derechos y no se puede decir, de ningún modo, cuál de éstos «pertenece» al átomo dado de sodio. Hagamos disolverse la sal común en agua. Resultará que la solución es un magnífico conductor de la corriente. Por medio de rigurosos experimentos, de los cuales ya hemos hablado, es posible demostrar que la corriente eléctrica representa el flujo de átomos de cloro cargados negativamente que se mueven en una dirección y el flujo de átomos de sodio cargados positivamente que se mueven en dirección opuesta. De este modo vemos que durante la disolución los átomos de cloro y de sodio tampoco forman una pareja fuertemente ligada. Una vez establecido el modelo de átomo se pone de manifiesto que el anión del cloro no es sino un átomo de cloro con un electrón «sobrante», mientras que al catión, en cambio, le «falta» un electrón. ¿Se puede, a base de estos hechos, sacar la conclusión de que también el sólido está construido de iones y no de átomos? Sí. Esta circunstancia se demuestra por numerosos experimentos en cuya descripción no nos detenemos. ¿Y qué se puede decir en cuanto al vapor del cloruro de sodio? En el vapor tampoco encontramos moléculas. El vapor del cloruro de sodio consta de iones o de diferentes grupos - sumamente inestables - de iones. Se puede hablar de moléculas de los compuestos iónicos solamente en el sentido químico de esta palabra. Los compuestos iónicos, obligatoriamente, se disuelven en agua. Tales soluciones, cuyo ejemplo clásico lo representan las sales simples de los metales a semejanza de cloruro de sodio, acusan buena conductividad denominándose debido a ello electrólitos fuertes. Ahora aduzcamos algunos ejemplos de sustancias construidas de verdaderas moléculas, o sea, de moléculas en el sentido físico de esta palabra. Se trata de oxígeno, nitrógeno, dióxido de carbono, hidrocarburos, carbohidratos, esteroides, vitaminas... La lista puede continuarse prolongadamente. Cualesquiera clasificaciones siempre son hasta cierto grado convencionales. Por esta razón debo advertir al lector que, a veces, arrostramos también los casos cuando en un estado de agregación la sustancia consta de moléculas físicas, y en otros, no. A estas sustancias pertenece la sustancia tan importante como es el agua. Las

Gentileza de Manuel Mayo

44

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

moléculas del vapor de agua son, sin duda alguna, cuerpecitos aislados. En cambio, en los cristales de hielo ya no es fácil «delimitar el contorno» de una molécula y decir que este preciso átomo de hidrógeno está ligado solamente con aquel átomo de oxígeno, y no con otro. Sea como sea, la caso de cristales moleculares resulta ser muy amplia. En el segundo libro ya hablamos de cómo están estructurados los cristales moleculares. Recordemos que en el cristal de dióxido de carbono cuya fórmula es CO2 el átomo de carbono tiene dos vecinos de oxígeno muy cercanos. También en todos los demás casos, al estudiar la estructura de un cristal molecular, vemos inmediatamente que existe la posibilidad de dividir el cristal en grupos de átomos dispuestos estrechamente. Como están dispuestos estrechamente, esto significa que están ligados por grandes fuerzas. Así os, precisamente. Hablando en rasgos generales, las fuerzas que ligan los átomos pertenecientes a una misma molécula son cien veces - y, en ocasiones, incluso mil veces - mayores que las fuerzas que actúan entre los átomos de moléculas vecinas. ¿En qué consiste, entonces, la ligazón intramolecular? Queda bastante claro que en este caso no son suficientes las representaciones sobre la atracción de los iones eléctricamente cargados negativos y positivos. Es que existen moléculas de oxígeno, nitrógeno o hidrógeno construidas de átomos equivalentes. Es imposible suponer que un átomo pierde y otro adquiere el electrón. ¿A santo de qué el electrón debe preferir encontrarse junto a uno de los dos átomos equivalentes? La explicación de la esencia de la ligazón intramolecular llegó tan sólo junto con la mecánica cuántica. Acabamos de decir al lector que la energía de cualquier sistema se cuantifica y le hemos dado a conocer que en un nivel de energía pueden encontrarse dos electrones con «espines» de dirección opuesta. Prosigamos: de las hipótesis principales de la mecánica cuántica deriva un interesante corolario. Resulta (y ya no es una hipótesis, sino una deducción matemática rigurosa que no insertamos debido a su complejidad) que el valor más bajo de energía que puede tomar el electrón se determina por las dimensiones de la zona en cuyo seno se desplaza. Cuanto mayores son estas dimensiones tanto más baja es la energía de este «nivel cero».

Gentileza de Manuel Mayo

45

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Ahora figúrese que dos átomos de hidrógeno van acercándose uno al otro. Si éstos se unen en un sistema, entonces, el «apartamento» para cada electrón llegará a ser dos veces mayor, aproximadamente. En un mismo apartamento pueden convivir pacíficamente dos electrones con espines de dirección opuesta. Por consiguiente, tal convivencia resulta provechosa. Para ambos electrones se acrecentó la zona de existencia. Resulta que la energía total del sistema después de que los dos átomos se unieron en un todo único disminuyó. Y el hecho de que cualquier sistema tienda a pasar al estado con mínima energía – con tal de que semejante posibilidad exista - este hecho lo conocemos perfectamente. Por esta misma causa, una bola dejada a su «libre albedrio» rueda cuesta abajo. De este modo, la formación de un enlace químico significa la colectivización de los electrones. Existe cierta cantidad de electrones (se llaman internos) que giran alrededor de los núcleos de los átomos, sin embargo, algunos electrones (llevan el nombre de externos) abarcan en su recorrido por lo menos un par de los más próximos átomos y, a veces, hasta migran por todos los átomos de la molécula. Una sustancia construida de moléculas se reconoce por sus propiedades eléctricas. La solución de semejante sustancia no conduce corriente. Las moléculas no se disgregan en partes y la molécula entera es eléctricamente neutra. En los líquidos y vapores las moléculas conservan su estructura: todo el grupo de átomos se mueve como un todo único, se desplaza en movimiento progresivo y gira. Los átomos pertenecientes a una molécula sólo pueden oscilar alrededor de sus posiciones de equilibrio. La molécula neutra no porta en sí una carga eléctrica. Pero no se apresure a hacer la conclusión de que dicha molécula no crea un campo eléctrico. Si la molécula no es simétrica, los centros de gravedad de sus cargas positiva y negativa seguramente no van a coincidir. Intuitivamente, queda claro que la coincidencia de los centros de gravedad de las cargas de ambos signos tendrá lugar en tales moléculas como los de oxígeno o de nitrógeno que constan de dos átomos iguales. De la misma manera, no es difícil creer que en una molécula como, por ejemplo, la de monóxido de carbono CO, estos centros pueden encontrarse desplazados uno respecto al otro. Si esta dislocación existe, se dice acerca de la molécula que ésta posee un momento dipolar.

Gentileza de Manuel Mayo

46

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

El término tiene la siguiente procedencia: una molécula «dipolar» se comporta como un sistema de dos cargas puntuales (un punto es el centro de gravedad de las cargas negativas, y otro punto, el centro de gravedad de las cargas positivas). Un dipolo se caracteriza por la carga y por el «brazo» del dipolo, es decir, por la distancia entre los centros. No me exijan la demostración de que una molécula no simétrica posee el momento dipolar eléctrico. Podemos ahorrarnos el tiempo para los razonamientos teóricos porque la existencia de un momento dipolar constante (o, como también se dice, duro) se demuestra sin dificultad experimentalmente. Los dieléctricos Entre los conceptos de «dieléctrico», «no conductor de la corriente» y «aislador» podemos interponer signos de igualdad. Pertenecen a los dieléctricos los gases moleculares, los líquidos moleculares y las soluciones de los sólidos construidos a partir de moléculas. Son dieléctricos sólidos los vidrios tanto los orgánicos, como los inorgánicos (a base de silicatos, boratos, etc.), sustancias polímeras construidas de macromoléculas, los plásticos, los cristales moleculares, así como los cristales iónicos. En el Capítulo 1 hemos recordado al lector que la capacidad del condensador aumenta sí en el espacio entre las placas se introduce cualquier dieléctrico. Figúrense que el condensador está conectado a una fuente de tensión constante. La capacidad ha aumentado, pero la tensión sigue siendo la misma. Ello quiere decir que a las armaduras del condensador ha llegado una carga suplementaria. Al parecer, en este caso debería incrementar la intensidad del campo. Sin embargo, la intensidad del campo no ha cambiado, por la simple razón de que es igual al cociente de división de la tensión por la distancia entre las placas. ¿Cómo se puede salir de esta contradicción? Por la única vía, o sea, admitiendo que en el aislador se ha engendrado un campo eléctrico de dirección opuesta; este fenómeno lleva el nombre de polarización del dieléctrico. ¿Qué tienen de particular, entonces, estas cargas, las que surgen en el seno del dieléctrico? ¿Cómo se puede comprender el fracaso de los intentos de «derivar» a Tierra la carga del dieléctrico? Incluso de no conocer nada sobre la estructura

Gentileza de Manuel Mayo

47

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

eléctrica de la materia podemos decir que estas cargas resultan «atada» y no libres como en el metal. Y si disponemos de datos acerca de la estructura de las moléculas podremos explicar, de una forma exhaustiva, la esencia del fenómeno de polarización y esclarecer el mecanismo de formación del «anticampo» teniendo en cuenta que este último, en igualdad de las demás condiciones, es tanto mayor cuanto mayor es ε. Ante todo, es preciso contestar a la pregunta de qué puede hacer el campo eléctrico con el átomo y la molécula. Por impacto del campo eléctrico los electrones del átomo neutro y del ion pueden desplazarse en el sentido opuesto al campo. El átomo o el ion se convierten en un dipolo y se engendra un campo de dirección contraria. De este modo, la polarización de la sustancia está condicionada por la polarización de los átomos, iones o moléculas de los cuales está construida. El mecanismo de polarización al cual nos hemos referido, se denomina proceso de creación de dipolos blandos. Si no hay campo tampoco se dan dipolos. Cuanto mayor es el campo, tanto mayor es el desplazamiento del centro de gravedad de los electrones, tanto mayor es el momento dipolar «inducido» y tanto mayor es la polarización. La formación de los dipolos blandos no puede depender de la temperatura. La experiencia demuestra que existen dieléctricos sobre los cuales la temperatura no ejerce influencia. Por lo tanto, para éstos es justo el mecanismo descrito. Bueno, ¿y qué se puede idear para los casos en que se tiene una dependencia explícita de la constante dieléctrica (de la permitividad) respecto a la temperatura? Un estudio atento de la relación existente entre la estructura de la molécula y el comportamiento de la sustancia en el campo eléctrico, así como el carácter de la dependencia térmica de la polarización siempre disminuye con el crecimiento de la temperatura nos lleva al siguiente pensamiento. Si las moléculas, también en ausencia del campo, poseen un momento dipolar (dipolos «duros») y pueden variar su orientación, resulta que este hecho explicará la dependencia térmica de la constante dieléctrica. Efectivamente, sin campo, las moléculas están dispuestas «como les da la gana». Los momentos dipolares se suman de modo geométrico. Por esta causa, para un volumen que contiene muchas moléculas el momento resultante será igual a cero.

Gentileza de Manuel Mayo

48

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

El campo eléctrico hace como si «pasara el peine» por las moléculas obligándolos a mirar preferentemente a un mismo lado. Dos fuerzas entran en lid: el movimiento térmico que impone un desorden en la disposición de las moléculas y la acción ordenadora del campo. Se sobreentiende que cuanto más alta es la temperatura, tanto más difícil es para el campo «superar» el movimiento térmico de las moléculas. De aquí, precisamente, se infiere que la constante dieléctrica de tales sustancias debe disminuir con el descenso de la temperatura.

Figura 2.2 Para retener mejor en la memoria lo expuesto insertamos la fig. 2.2. El dibujo en la parte superior de la figura muestra que la polarización del átomo se reduce a la dislocación y deformación de las envolturas electrónicas. Cuanto mayor es la distancia que separa el electrón del átomo tanto más repercute en él la acción del campo. Las capas representadas en estos dibujos esquemáticos por medio de puntos simbolizan los lugares en que se hallan los electrones. Hay que recordar que el cuadro reviste un carácter sumamente convencional ya que los diferentes electrones tienen en las moléculas unas zonas de existencia distintas por su forma.

Gentileza de Manuel Mayo

49

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

En la parte media de la figura se ilustra el comportamiento de una molécula diatómica simétrica. En ausencia del campo ésta no posee momento. El campo induce el momento eléctrico. Dicho momento puede ser diferente por su valor, en función del ángulo bajo el cual la molécula se dispone respecto al campo. El momento se forma debido a la deformación de las envolturas electrónicas. Finalmente, en el esquema inferior se representa el comportamiento de una molécula que posee el momento dipolar también en ausencia del campo. En nuestro esquema la molécula sólo ha girado. Sin embargo, en el caso general, las sustancias cuyas moléculas poseen el momento en ausencia del campo acusan ambos mecanismos de polarización: a la par de girar las moléculas pueden también tener lugar las dislocaciones de los electrones No es difícil separar estos dos efectos realizando mediciones a temperaturas muy bajas cuando, prácticamente, falta la influencia del movimiento térmico. Si este modelo es certero, no debemos observar la dependencia respecto a la temperatura de la constante dieléctrica de las sustancias cuyas moléculas son simétricas, por ejemplo, como las moléculas de oxígeno o de cloro. En cambio, si la molécula diatómica se compone de dos átomos distintos, como, por ejemplo, la molécula del monóxido de carbono CO, en este caso debe tener lugar la dependencia de ε respecto a la temperatura. Y así sucede efectivamente. A las moléculas con el momento dipolar muy considerable pertenece el nitro benceno. ¿Qué ocurrirá con un dieléctrico ordinario al aumentar la intensidad del campo eléctrico? Evidentemente, debe incrementar la polarización de la sustancia. Este fenómeno tiene lugar a costa de la dilatación de los dipolos: en el átomo es la dislocación de la nube electrónica respecto al núcleo, y en la molécula puede manifestarse en forma de alejamiento recíproco de dos iones. Sea como sea, es natural poner la siguiente pregunta; ¿hasta qué momento el electrón llevado por el campo lejos del núcleo sigue siendo, como antes, electrón del átomo, y dos iones que se encuentran ya bastante distanciados uno del otro continúan formando una molécula? Indiscutiblemente, el límite sí que existe, y a una intensidad suficiente tiene lugar la llamada perforación o ruptura del dieléctrico. El orden de dicha intensidad es de varios mil kilovoltios por metro. En todo caso, la ruptura está relacionada con la liberación de electrones o de iones, es decir, con la formación de

Gentileza de Manuel Mayo

50

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

portadores libres de corriente. El dieléctrico deja de ser tal y por el mismo fluye la corriente eléctrica. Con mayor frecuencia, el fenómeno de ruptura se nos presenta cuando en el aparato de radio o el televisor falla el condensador. Sin embargo, conocemos también otros ejemplos de ruptura: se trata de descargas eléctricas en los gases. El tema de descarga eléctrica en los gases lo expondremos especialmente. Mientras tanto, trabaremos conocimiento con dos importantes miembros de la familia de los dieléctricos; los piezoeléctricos y los ferroeléctricos. El representante principal de la clase de los piezoeléctricos es el cuarzo. Los miembros de esta clase (a la cual, además del cuarzo pertenecen, por ejemplo, el azúcar y la turmalina) deben poseer una determinada simetría.

Figura 2.3 En la fig. 2.3 se representa un cristal de cuarzo. El eje principal de este cristal es un eje de simetría de 3er orden. En el plano perpendicular se encuentran tres ejes de 2do orden. Mediante el procedimiento señalado en la figura, del cristal se corta una placa de cerca de 2 cm de espesor. Vemos que ésta es perpendicular al eje principal y que los ejes de 2do orden se encuentran en su plano. Seguidamente, de esta placa gruesa, perpendicularmente a uno de los ejes de 2° orden se corta una placa delgada de cerca de 0,5 mm de espesor. Con esta delgada placa piezoeléctrica obtenida de tal manera (en la figura a la derecha está desplazada hacia abajo) pueden realizarse interesantes experimentos. Gentileza de Manuel Mayo

51

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Vamos a comprimir la placa a lo largo de la dirección A, perpendicular a los ejes de simetría, conectando al mismo tiempo a los planos laterales de la placa un electrómetro, o sea, el instrumento que detecta la carga eléctrica (para que exista el contacto eléctrico dichos planos deben platearse). Resulta que por efecto de la compresión en las caras de la placa aparecen cargas de distinto signo. Si en vez de la compresión se recurre a la tracción las cargas cambian de signo: donde durante la compresión aparecía la carga positiva durante la tracción se crea la carga negativa, y viceversa. Precisamente este fenómeno, es decir, la aparición de las cargas eléctricas bajo la acción de la presión o la tracción, recibió el nombre de piezoelectricidad. Los dispositivos piezoeléctricos de cuarzo son extraordinariamente sensibles: los instrumentos eléctricos permiten medir las cargas que se generan en el cuarzo a una fuerza despreciable que no se puede medir por otros procedimientos. El piezocuarzo es capaz también marcar las variaciones muy rápidas de la presión, hecho inaccesible para otros instrumentos de medición. Esta es la razón de que el fenómeno descrito tiene enorme importancia práctica como método de registro eléctrico de toda clase de acciones mecánicas, incluyendo el sonido. Basta con soplar ligeramente sobre la placa piezoeléctrica de cuarzo para que el instrumento eléctrico haga eco de esta acción. Las placas piezoeléctricas de cuarzo se aplican en medicina para auscultar los ruidos cardíacos del hombre. De la misma forma estas placas se aplican en la técnica al comprobar el trabajo de las máquinas: por si existen cualesquiera ruidos «sospechosos». El cuarzo como fuente del efecto piezoeléctrico se emplea en los lectores de los tocadiscos. El movimiento de la aguja por el surco del disco proporciona la compresión del piezocristal la cual, a su vez, lleva a la generación de la señal eléctrica.

La

corriente

eléctrica

se

amplifica,

se

suministra

al

altoparlante

electrodinámico y se transforma en sonido. Hasta el momento hemos hablado de sustancias cuya polarización se crea mediante el campo eléctrico, como asimismo (raras veces) por medio de la deformación mecánica. Si se quita el impacto externo, la sustancia resulta eléctricamente neutra. No obstante, a la par de este comportamiento difundido tenemos que vérselas con

Gentileza de Manuel Mayo

52

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

cuerpos especiales que poseen un momento eléctrico total en ausencia de fuerzas externas. Está claro que no encontraremos cuerpos semejantes entre los líquidos ni gases, ya que el movimiento térmico al cual no se opone la acción ordenadora del campo conducirá, inminentemente, a un caos en la disposición de las moléculas dipolares. Sin embargo, podemos figurarnos unos cristales en los cuales la disposición de los átomos es tal que los centros de gravedad de los aniones y cationes dentro de cada celdilla elemental (celdilla unidad) están dislocados de igual manera. Entonces, todos los momentos dipolares están orientados en un mismo sentido. En este caso, se podría esperar una polarización máximamente posible y, por consiguiente, una magnitud colosal de la constante dieléctrica. Semejantes cristales sí que existen. Las sustancias que poseen las propiedades en cuestión se denominan ferroeléctricas. Cabe señalar, sin embargo, que, por cuanto dicho fenómeno fue descubierto por primera vez en los cristales de la sal de Seignette, en algunos idiomas (por ejemplo, en ruso y en alemán), para esta clase de sustancias se emplea también el término «seignettoeléctricos». Entre los ferroeléctricos una enorme importancia práctica la tiene el titanato de bario.

En

su

ejemplo,

precisamente,

analizaremos

el

comportamiento

extraordinariamente peculiar de esta clase de sustancias. La celdilla elemental de su cristal se representa en la fig. 2.4. El vértice de la celdilla se ha elegido en los átomos de bario. Los pequeños circulitos claros son los aniones de oxígeno y el círculo grande en el centro corresponde al catión de titanio. La celdilla en el dibujo viene representada de tal modo como si fuese cúbica. Efectivamente, una celdilla estrictamente cúbica existe, pero tan sólo tan solo a la temperatura superior a 120 °C. Está claro que la celdilla cúbica es simétrica y no puede poseer el momento dipolar. A raíz de ello, por encima de esta temperatura, que se denomina punto de Curie, desaparecen las propiedades peculiares del titanato de bario. Por encima de esta temperatura dicha sustancia se comporta como un dieléctrico común y corriente.

Gentileza de Manuel Mayo

53

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 2.4 Cuando

la

temperatura

desciende

por

debajo

de

120

°C

tiene

lugar

el

desplazamiento de los iones de oxígeno y de titanio hacia los lados opuestos a una magnitud del orden de 0,01 nm. La celdilla adquiere el momento dipolar. Fíjense en la siguiente circunstancia importantísima. Dicho desplazamiento puede realizarse, con igual éxito, en tres sentidos: a lo largo de los tres ejes del cubo. Las dislocaciones dan lugar a las deformaciones de las celdillas. A raíz de ello, no toda partición del cristal en dominios dentro de los cuales los momentos dipolares están orientados el mismo lado, resulta ventajosa. En la fig. 2.5 se muestran las posibles particiones del cristal en zonas idealmente polarizadas (éstas llevan el nombre de dominios). Paralelamente al caso en que todo el cristal representa un solo dominio, o sea, el caso que conduce al máximo campo eléctrico, son posibles variantes menos ventajosas y, finalmente, incluso los casos del dibujo de extremo derecho de la figura) en que el campo que sale fuera de los límites del ferroeléctrico resulta igual a cero. ¿Cómo se comporta el ferroeléctrico al superponerle un campo eléctrico externo? Resulta que el mecanismo de polarización consiste en el crecimiento del dominio orientado en sentido «necesario» por medio de desplazamiento de los límites. Los dominios cuyos momentos están orientados de modo que forman un ángulo agudo

Gentileza de Manuel Mayo

54

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

con el campo «se comen» a los dominios cuyo ángulo de orientación respecto al campo, es obtuso.

Figura 2.5 Para los campos muy grandes puede observarse también el vuelco de los dominios. El titanato de bario es el ferroeléctrico industrial básico. Se obtiene en la sintetización de dos polvos: del dióxido de titanio y del carbonato de bario. Se forma una especie de materia cerámica. Los

ferroeléctricos

cerámicos

han

encontrado

una

amplia

aplicación

en

la

electrotecnia y radiotecnia. Y no es solamente el que aumentan de una manera ostensible la capacidad de los condensadores. Para estas sustancias, como queda claro a partir de la descripción del mecanismo de polarización, el valor de ε incrementará con el crecimiento de la intensidad del campo eléctrico externo. El condensador se convierte en «variconde», o sea, un condensador variable mediante el cual se realiza con máxima facilidad la modulación de frecuencia. Es un proceso que se opera en cualquier receptor de radio y televisor. En muchas ocasiones la cerámica a base de materias ferroeléctricas sustituye el cuarzo. Valiéndose de ésta es posible engendrar un sonido más fuerte. Igualmente, en este caso es mayor el coeficiente de amplificación del ultrasonido. El campo en que el cuarzo no tiene rivales es la estabilización de radiofrecuencia. La absoluta mayoría de los capítulos sobre la electricidad comienza con el relato acerca de las cargas eléctricas que se crean por fricción en las varillas de vidrio o de

Gentileza de Manuel Mayo

55

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

ebonita. Pero se suele sortear la explicación de este fenómeno. ¿Cuál es la razón de ello? En primer término se debe subrayar que la electrización de los dieléctricos por fricción no está relacionada (en todo caso, directamente) con la polarización de la cual acabamos de hablar. Efectivamente, el fenómeno de polarización es la formación de cargas eléctricas ligadas cuya singularidad consiste precisamente en que éstas no pueden «eliminarse» del dieléctrico. Las cargas engendradas en la superficie del vidrio o de la ebonita por fricción con la piel de gato son, sin duda alguna, cargas libres y, por supuesto, son electrones. En sus rasgos generales el cuadro está más o menos claro, y nada más. Por lo visto, aquella miserable cantidad de electrones libres de que dispone el aislador, en diferentes dieléctricos está enlazada con sus moléculas por distintas fuerzas. Por lo tanto si dos cuerpos se ponen en estrecho contacto, los electrones pasarán de uno de éstos al otro. Tendrá lugar la electrización. Si a embargo, el «estrecho contacto» es la puesta de las superficies a una distancia igual a la interatómica. Por cuanto en la naturaleza no existen superficies lisas a nivel atómico la fricción ayuda a eliminar salientes de todo género y aumenta, por decirlo así, el área de verdadero contacto. El paso de electrones de un cuerpo al otro tiene lugar para cualquier par de cuerpos: metales, semiconductores y aisladores. Sin embargo, se logra electrizar tan sólo los aisladores ya que solamente en estos cuerpos las cargas creadas quedan en los sitios en que se trasladaron al pasar de un cuerpo al otro. No puedo decir que esta teoría deje a uno profundamente satisfecho. No está esclarecido que especiales méritos tienen la ebonita, el vidrio y la piel de gato. Puede ponerse, además, un sinnúmero de otros interrogantes para los cuales no existe una respuesta clara. Conductibilidad de los gases Si se llena de gas un tubo de vidrio y se sueldan a éste electrodos a los cuales se aplica una tensión, tendremos a nuestra disposición una simple instalación con cuya ayuda se puede proceder al estudio de la conductibilidad de los gases. Se puede variar la sustancia a través de la cual pasa la corriente, cambiar la presión del gas y la tensión.

Gentileza de Manuel Mayo

56

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Las investigaciones referentes a la conductibilidad de los gases desempeñaron un enorme papel en el desarrollo de nuestras ideas sobre la estructura eléctrica de la materia. Los trabajos principales en este campo se llevaron a cabo en el siglo XIX.

Figura 2.6 En la fig. 2.6 se representan tubos de diferente forma valiéndose de los cuales los científicos estudiaban los fenómenos que trataríamos a continuación. Por cuanto las antiguas esculturas y cuadros hace tiempo que desaparecieron de la venta, los anticuarios pasaron a hacer comercio de equipos de laboratorio, de modo que hoy día, en las tiendas de antigüedades del Occidente es posible adquirir (y, además, por un precio bastante grande) uno de los raros ejemplares de los tubos mostrados en la figura. La causa de que en los gases se engendre la corriente eléctrica reside en que las moléculas neutras se rompen en aniones y cationes. Además, de las moléculas o de los átomos puede desprenderse un electrón. La corriente se crea por el haz de iones positivos y por los haces de iones negativos y electrones que se mueven en dirección contraria. Para lograr que el gas se convierta en conductor de corriente es necesario transformar las moléculas neutras o los átomos en partículas cargadas. Dicho proceso puedo efectuarse por acción de un ionizador externo, así como debido al choque de las partículas del gas. Como ya se ha mencionado, las fuentes externas de la ionización pertenecen los rayos ultravioleta, los rayos X, como asimismo los

Gentileza de Manuel Mayo

57

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

rayos cósmicos y radiactivos. La alta temperatura también causa la ionización del gas. El paso de la corriente a través de los gases viene acompañado, con frecuencia, de efectos luminosos. En dependencia de la sustancia, la presión y la intensidad la luminiscencia acusa distinto carácter. El estudio de esta luminiscencia también ha desempeñado un gran papel en la historia del desarrollo de la física, más precisamente, ha servido de fuente de los datos sobre los niveles de energía de los átomos y las leyes de la radiación electromagnética. La conductibilidad de los gases no está sujeta a la ley de Ohm. Aquélla viene definida por la curva de dependencia de la intensidad de la corriente respecto a la tensión. Dicha curva se denomina (no sólo en el caso de los gases, sino también para cualesquiera sistemas conductores que no se rigen por la ley de Ohm) característica tensión-corriente. Examinemos los fenómenos característicos para todo gas que tienen lugar al aumentar la tensión que se aplica al tubo de descaran de gases. El comportamiento del gas que pasa a ser objeto de nuestra descripción tiene lugar en un amplio intervalo de presiones. Hacemos caso omiso solamente de aquellas presiones pequeñas para las cuales el recorrido libre de las moléculas deviene conmensurable con las dimensiones del tubo de descarga de gases. Tampoco sometemos a nuestro examen las presiones tan grandes que la densidad de los gases se aproxime a la de los líquidos. De este modo, apliquemos al tubo de descarga de gases una pequeña tensión. Si el ionizador está ausente la corriente no fluirá a través del tubo. En presencia del ionizador en el gas se encuentran partículas cargadas: iones y electrones. Al superponer un campo éste enviará las partículas a los electrodos. La velocidad con que las partículas cargadas migrarán en dirección a los electrodos depende de muchas circunstancias y, en primer término, de la intensidad del campo y la presión del gas. Sobre el movimiento ordenado de los iones y electrones acontecido por acción de una fuerza eléctrica constante se superpone un movimiento caótico. La partícula acelerada por el campo eléctrico recorre una distancia corta.

Gentileza de Manuel Mayo

58

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Y este corto recorrido, inminentemente, termina en una colisión. Cuando las velocidades de movimiento son pequeñas estas colisiones se producen según la ley de choque elástico. La longitud media del recorrido libre se determina, ante todo, por la presión del gas. Cuanto más alta es la presión, tanto más corto es el recorrido libre y menor la velocidad media de movimiento ordenado de la partícula. La tensión aplicada al tubo de descarga de gases actúa en sentido inverso, o sea, aumenta la velocidad media de movimiento ordenado de las partículas. Si no se hubiera aplicado la tensión al tubo, en el gas se habrían desarrollado los siguientes acontecimientos: el ionizador habría creado iones y los iones de distinto signo, al encontrarse unos con otros, se habrían reunificado o, como se suele decir, se habrían recombinado. Puesto que durante la recombinación tiene lugar el encuentro de un par de partículas, resulta que la velocidad de recombinación será proporcional al cuadrado del número de partículas. Si el ionizador trabaja continuamente,

entre

ambos

procesos

se

establecerá

un

equilibrio.

Así,

precisamente, ocurre en la ionosfera que rodea nuestro globo terráqueo. Según sea la hora del día o de la noche y la estación del año el número de partículas ionizadas en un centímetro cúbico oscila desde un millón hasta cien millones de iones y electrones. De este modo, el grado de ionización es una magnitud del orden de uno por ciento (recuerde cuántas moléculas del aire se hallan en una unidad de volumen a grandes alturas). Retornemos al gas ionizado que se encuentra en el tubo bajo la tensión eléctrica. Se sobreentiendo que ésta altera el equilibrio, ya que una parte de los iones llega a los electrodos sin tener tiempo para recombinarse. A medida que aumenta la tensión la parte cada vez mayor de los iones engendrados en unidad de tiempo alcanza los electrodos: la corriente eléctrica a través del gas incrementa. Así se desarrollan los acontecimientos hasta que para la recombinación, en general, no queda tiempo; en esto caso la totalidad de los iones creados por los ionizadores llega a los electrodos. Está claro que el subsiguiente ascenso de la tensión no puede aumentar la corriente (corriente de saturación, meseta en la fig. 2.7).

Gentileza de Manuel Mayo

59

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 2.7 Cuanto menor es la densidad del gas tanto menores son las tensiones del campo para las cuales se alcanza la corriente de saturación. La intensidad de la corriente de saturación es igual a la carga de los iones formados por el ionizador en un segundo en el volumen del tubo. Habitualmente, las corrientes de saturación no son grandes: son del orden de microamperios o menores. Por supuesto, su magnitud depende del número de los proyectiles destructores que el gas recibe del ionizador. Si se trabaja en el régimen de la característica tensión-corriente que no sale de los límites de la corriente de saturación y se protege el gas contra la acción del ionizador externo, la corriente cesa. En este caso se habla de la descarga de gas no automantenida. Con un consiguiente aumento de la presión aparecen nuevos fenómenos. Llega un momento en que la velocidad de los electrones se hace suficiente para expulsar los electrones de los átomos y moléculas neutros. En esto caso la tensión, en el tubo debe alcanzar un valor tal que el electrón tenga tiempo para acumular a lo largo de su recorrido libre una energía suficiente para ionizar la molécula. La aparición de la ionización de choque, influye en la curva de dependencia de la corriente respecto a la tensión: la corriente comienza a incrementar por cuanto el aumento de la tensión Gentileza de Manuel Mayo

60

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

significa el crecimiento de la velocidad de movimiento del electrón. A su vez, el crecimiento de la velocidad implica el acrecentamiento de la capacidad ionizante del electrón y, por lo tanto, la creación de un gran número de parejas de iones y el ascenso de la intensidad de la corriente. La curva de la característica tensióncorriente va rápidamente hacia arriba. En comparación con la corriente de saturación la intensidad de la corriente aumenta centonares y miles de voces, se da comienzo a la luminiscencia del gas. Si la acción del ionizador externo se elimina ahora, la corriente no cesa. Pasamos a la región de descarga autónoma. La tensión para la cual se produce este cambio cualitativo se denomina tensión disruptiva (tensión de perforación), o bien, tensión de encendido de la descarga de gas. El brusco aumento de la corriente después de pasar esto límite crítico se explica por el crecimiento en avalancha del número de cargas. Un solo electrón formado destruye la molécula neutra dando lugar a la creación de dos cargas de energía tan grande que éstas son capaces de desintegrar otro par de moléculas que encuentran en su camino. De dos cargas se forman cuatro; de cuatro, ocho... No se puede negar que el nombre de «avalancha» está aquí completamente justificado. Se ha creado una teoría cuantitativa que presagia bastante bien la forma de las características tensión-corriente de los gases. Descarga autónoma Existen muchas variantes de esta descarga. Nos detenemos solamente en algunas de ellas. Descarga por chispas. No es difícil observar en los experimentos más elementales la chispa que salta a través del aire entre dos electrodos. Para ello basta acercar los alambres que se encuentran bajo la tensión a una distancia lo suficientemente pequeña. ¿Qué quiere decir «suficientemente»? Si se trata del aire, entonces, es preciso crear una intensidad del campo igual a 30.000 V/cm. Esto significa que a la pequeña distancia de 1 mm nos satisface la diferencia de potencial de 300 V. Cada uno de los lectores habría observado reiteradas veces en la práctica cotidiana, las pequeñas chispas ya sea ocupándose de tendido eléctrico averiado, o bien,

Gentileza de Manuel Mayo

61

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

acercando por casualidad uno a otro dos cables derivados de un acumulador (en este caso los cables deben aproximarse a una distancia igual al espesor de una hoja de afeitar). La tensión disruptiva depende de la densidad del gas. También es importante la forma de los electrodos. La chispa perfora no sólo el gas, sino también los líquidos dieléctricos y cuerpos sólidos. Al técnico electricista le es importante conocer las tensiones disruptivas de todos los materiales con que trabaja. Hoy día nos parece completamente evidente que el rayo no es sino una chispa que salta entre dos nubes cargadas de electricidad de distinto signo. Sin embargo, en su tiempo, a los físicos [Mijaíl Vasílievich Lomonósov (1711 - 1765) y Benjamín Franklin (1706 - 1790)] costó mucho trabajo encontrar la demostración de esta hipótesis. Y Georg Richman (1711 - 1753) que trabajó junto con Lomonósov perdió la vida en el intento de poner el rayo a la Tierra por medio de cordel conductor de corriente que representaba la cola de una cometa lanzada al aire durante la tormenta. Se pueden citar interesantes cifras que caracterizan la descarga por chispas en el rayo. La tensión entre la nube y la Tierra constituye de 108 a 109 V, la intensidad de la corriente oscila desde decenas hasta con centenares de miles de amperios y el diámetro del canal resplandeciente es de 10 a 20 cm. La duración del resplandor del rayo es corta: del orden de microsegundo. No es difícil calcular a grandes rasgos que las cantidades de electricidad que pasan por el canal del rayo son relativamente pequeñas. Filmando las chispas celestes se logró estudiarlas bien. Con gran frecuencia el rayo representa una serie de descargas por chispas que siguen un mismo camino. El rayo dispone de una especie de «líder» que desbroza para las cargas eléctricas el camino más conveniente y siempre caprichosamente ramificado. Frecuentemente se han observado relámpagos esféricos. Lamentablemente, este fenómeno no se deja reproducir en las condiciones de laboratorio. Los relámpagos esféricos son bolas brillantes de plasma de gas de 10 a 20 cm de diámetro. Se desplazan lentamente y, a veces, permanecen inmóviles. Su existencia dura varios segundos o, de cuando en cuando, minutos, después de lo cual desaparecen lo que

Gentileza de Manuel Mayo

62

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

se acompaña con una fuerte explosión. Se debo reconocer que hasta la fecha no se ha propuesto una teoría exhaustiva de este interesante fenómeno. Descarga en arco. Esta fue obtenida por primera vez por V. V. Petrov en 1802. Con este fin ponía en contacto dos carbones conectados a una potente fuente de tensión y luego separaba los electrodos. Este procedimiento sigue en uso hasta el día de hoy. Es cierto que ahora se utilizan carbones especiales fabricados de polvo de grafito prensado. El carbón positivo se quema más rápidamente que el negativo. Por esta causa, el aspecto exterior permite determinar inmediatamente cuál de los carbones está conectado al polo positivo, ya que en el extremo de este electrodo se forma un hoyo: un cráter. La temperatura del aire en el cráter durante la presión ordinaria alcanza 4.000 grados, si la presión aumenta la temperatura del arco puede llevarse hasta casi 6.000 grados, es decir, hasta la temperatura del superficie del Sol. El arco entre electrodos metálicos produce una llama cuya temperatura es mucho más baja. Para mantener la descarga en arco se necesita una tensión limitada, del orden de 40 a 50 V. La intensidad de la corriente puede alcanzar cientos de amperios, por cuanto la resistencia de la columna brillante, de gas no es grande. ¿Cómo explicar, entonces, la gran conductibilidad eléctrica del gas para las tensiones tan pequeñas? Los iones moleculares se aceleran hasta velocidades no grandes y sus colisiones no pueden influir en la aparición de una corriente intensa. La explicación es la siguiente. En el primer momento en el punto de contacto tiene lugar un fuerte calentamiento. Debido a ello se inicia el proceso de emisión termoiónica: el cátodo expulsa una gran cantidad de electrones. A propósito, de aquí se infiere que la alta temperatura es importante tan sólo para el cátodo, y el ánodo puede ser frío. El mecanismo de la descarga en arco de este tipo es completamente disímil al de la descarga por chispas. Huelga recordar al lector cuán grande es la importancia de este fenómeno para la práctica. La descarga en arco se emplea en la soldadura y el corte de los metales, así como en la electrometalurgia. Descarga luminiscente. Este tipo de descarga autónoma también es de gran valor práctico ya que se produce en los tubos de descarga luminiscente o, como también

Gentileza de Manuel Mayo

63

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

se llaman, en las lámparas de luz diurna. El tubo se construye y se llena de gas (siendo la presión considerablemente menor que la atmosférica) teniendo previsto asegurar su trabajo en las condiciones de tensión superior a la de encendido. La corriente eléctrica en los tubos de descarga luminiscente se engendra por ionización de las moléculas con ayuda de los electrones, así como debido a que los electrones se expulsan del cátodo del tubo. El tubo de descarga luminiscente no se enciende de una vez. La causa de ello, por lo visto, radica en que el primer impacto debe obtenerse de un número limitado de partículas cargadas que siempre están presentes en cualquier gas. Descarga silenciosa (efecto corona). Esta se observa a presión atmosférica en un campo en alto grado heterogéneo, por ejemplo, en la proximidad de alambres o puntas. Las intensidades deben ser altas: del orden de millones de voltios por metro. Es indiferente que polo está conectado a la punta. De este modo, puede existir tanto la corona positiva, como negativa. Por cuanto la intensidad del campo disminuye a medida que se aleja de la punta, la corona desaparece a una pequeña distancia. Se puede decir que el efecto corona es la perforación no completa del espacio gaseoso. La corona se origina debido a las avalanchas electrónicas que se dirigen a la punta, o bien, desde la punta al espacio exterior. Se sobreentiende que en la zona de la corona paralelamente a los electrones existen iones positivos y negativos: productos de destrucción de las moléculas neutras del aire. La corona produce luminiscencia sólo en aquel pequeño espacio cerca de la punta dentro del cual subsiste la avalancha electrónica. En la aparición de la corona influyen las condiciones atmosféricas y, en primer lugar, la humedad. El campo eléctrico de la atmósfera puede provocar la luminiscencia de las cimas de los árboles y de los mástiles de los barcos. En los tiempos pasados este, fenómeno recibió el nombre de fuegos de San Telmo. Su aparición se consideraba de mal agüero. A este prejuicio se puede

encontrar una explicación racional: es

completamente posible que lo luminiscencia surja en aquel preciso instante en que se aproxima una tormenta o huracán. Hace muy poco ha ocurrido una historia muy aleccionadora. Dos investigadores aficionados, los esposos Kirlian, durante muchos años estudiaron el siguiente

Gentileza de Manuel Mayo

64

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

fenómeno. El hombre coloca su mano que está conectada una fuente de alta tensión sobre la película fotográfica separada del segundo electrodo de este circuito de corriente por una capa de aislador. Al conectar la tensión en la película fotográfica aparece un cuadro borroso de la palma de la mano y de los dedos. Estos experimentos atrajeron suma atención de los especialistas en el campo de la llamada parapsicología, doctrina que la mayoría absoluta de los físicos y psicólogos considera como pseudociencia. La atención despertada se explica por el hecho de que los autores del descubrimiento y sus adeptos relacionaban el aspecto de la foto con el estado psíquico del sujeto. Una

amplia

propaganda

de

esta

interpretación

tan

extravagante

de

los

experimentos en cuestión impulsó a un grupo de físicos y psicólogos que trabajaron en las universidades de los EEUU a que decidieran a someter dichos experimentos a una meticulosa comprobación para encontrar una explicación más sencilla del indudable hecho que el aspecto de las fotos obtenidos por este procedimiento, efectivamente, resulta distinto para diferentes personas e, incluso, para una misma persona, siendo disímiles las condiciones de obtención de la imagen fotográfica. Los investigadores llegaron a la siguiente conclusión: «Las fotografías obtenidas por el método de Kirlian representan, generalmente, la imagen de la descarga luminiscente (efecto de corona) que tiene lugar durante la exposición. La mayoría de las diferencias en las fotos se explica por la humedad de la mano, así como por el contenido de agua en los tejidos. Durante la exposición la humedad pasa a la emulsión de la película fotográfica, cambia el campo eléctrico y el aspecto de la foto». Los investigadores suponen utilizar en lo ulterior esta técnica, la cual prefieren llamar «fotografía de la descarga luminiscente» para el «descubrimiento y determinación de la cantidad de humedad tanto en los objetos vivos, como en los no animados». Este interesante hecho que fue publicado en la revista «Scientific American» del diciembre de 1976, permite sacar dos conclusiones. Primero, cualquier fenómeno real merece que se fije en él y es completamente posible que éste resulte útil para la práctica. Segundo, el investigador que descubre un nuevo hecho debe superar, ante todo, la tentación de darle una interpretación que no cuadra dentro de los

Gentileza de Manuel Mayo

65

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

marcos de las ideas científicas de nuestro tiempo. Solamente después de que se haya demostrado de un modo exhaustivo que las teorías existentes son incapaces de explicar el nuevo hecho, se podrá presentar el descubrimiento al juicio de los especialistas. A los hechos reales a los que se da una explicación falsa les podemos llamar, recordando una vieja anécdota, experimentos con cucarachas. Su contenido es como sigue: a una cucaracha se le arrancan las patitas; esta cucaracha mutilada se pone sobre una mesa junto a otra sana y se dan unos golpecitos en la mesa. La cucaracha sana se echa a correr, mientras que la «mutilada», como es lógico, no se mueve de su lugar. Se saca la conclusión: el oído la cucaracha lo tiene en las patitas. Cada año en la prensa aparecen varios artículos describiendo «experimentos con cucarachas». Es conveniente prevenir al lector respecto de este hecho. Sustancia en estado de plasma El termino «plasmonzustand» fue propuesto por primera vez todavía en 1939 por dos científicos alemanes cuyo artículo el autor de estas líneas había traducido para la revista «Uspeji fizícheskij nauk» («Éxitos de las ciencias físicas»). El nombre parece acertado. En efecto, plasma no es cuerpo sólido, ni líquido, ni tampoco gas. Es un estado especial de la sustancia. La ionización térmica de los gases, es decir, la separación de los electrones de los átomos y la destrucción de la molécula neutra dando lugar a la formación de los iones comienza a las temperaturas superiores a 5000 a 6000 grados. ¿Vale la pena, entonces, discutir este problema? Es que no existen materiales capaces de resistir una temperatura más alta. Sin duda alguna, sí, vale la pena. La aplastante mayoría de los cuerpos celestes, aquellos como, por ejemplo, nuestro Sol, se encuentran en estado de plasma; de ejemplo de plasma puedo servir la ionosfera. Valiéndose de campos magnéticos, las llamadas botellas magnéticas, también en las condiciones de laboratorio, se puede retener el plasma en un volumen limitado. Además, podemos hablar del plasma de la descarga en un gas. El grado de ionización del gas depende no sólo de la temperatura, sino también de la presión. El hidrógeno a una presión de 1 mm de Hg

Gentileza de Manuel Mayo

66

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

resultará ionizado prácticamente por completo a la temperatura de 30 mil grados. En estas condiciones un átomo neutro corresponde a 20 mil partículas cargadas. El estado de plasma del hidrógeno representa una mezcla de partículas, que se mueven desordenadamente y chocan entro sí, de dos gases: el «gas» de los protones y el «gas» de los electrones. El plasma que se formó de otras sustancias es una mezcla de muchos «gases». En éste podemos encontrar electrones, núcleos desnudos, diferentes iones, así como una cantidad insignificante de partículas neutras. El plasma cuya temperatura es de decenas y centenares de miles de grados se llama frío. Y el plasma caliente significa millones de grados. Sin embargo, el concepto de temperatura del plasma hay que tratarlo con cuidado. Como conoce el lector, la temperatura se determina de manera unívoca por la energía cinética de las partículas. En un gas que consta de partículas pesadas y ligeras el equilibrio se establece solamente en el caso de, que tanto las partículas ligeras como las pesadas adquieren la misma energía cinética media. Esto quiere decir que en un gas que vive prolongadamente en condiciones estables el movimiento de las partículas pesadas es lento, mientras que el de las ligeras es rápido. El plazo en que se establece el equilibrio depende de aquello que había «en el principio». No obstante, en igualdad de las demás condiciones, el equilibrio se establece tanto más tarde cuanto mayor sea la diferencia entre las masas de las partículas. Precisamente con tal situación tenemos que ver en el plasma. Es que las masas del electrón y del más ligero de los núcleos se diferencian casi dos mil veces. En cada colisión el electrón transfiere al núcleo o al ion tan sólo una pequeña parte de su energía. Solamente después de un gran número de encuentros las energías cinéticas medias de todas las partículas del plasma se igualan. Semejante plasma se denomina isotérmico. Tal es, por ejemplo, el plasma que se halla en las profundidades del Sol y de las estrellas. La velocidad con que se establece el equilibrio en el plasma caliente se encuentra entre los límites de partes de segundo a segundos. De otra forma se desarrollan los asuntos en el plasma de descarga de gases (chispa, arco, etc.). En este caso, las partículas no sólo se mueven de forma

Gentileza de Manuel Mayo

67

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

desordenada, sino también crean la corriente eléctrica. El electrón de movimiento rápido en su viaje entre los electrodos meramente no tiene tiempo para ceder la mayor parte de su energía a los iones de andar perezoso. Por esta razón en la descarga de gases el valor de la velocidad media de movimiento de los electrones es mucho más alto que el correspondiente valor para los iones. Este plasma se denomina no isotérmico y se debe caracterizar por dos temperaturas (y hasta por tres, si se toman en consideración las partículas neutras). Como es natural, la temperatura electrónica es mucho más alta que la iónica. Por ejemplo, en la descarga en arco la temperatura electrónica representa de 10 mil a 100 mil grados, mientras que la temperatura iónica es próxima a 1000 grados. El comportamiento de las partículas en el plasma puede describirse empleando las mismas magnitudes que se utilizan en la teoría cinética de los gases. Se han elaborado muchos métodos que permiten determinar directa o indirectamente la longitud del recorrido libre de las partículas, el tiempo del recorrido libre y la concentración de las partículas de diferentes clases. Para que el lector tenga noción de los órdenes de las magnitudes con que se tiene que operar insertemos algunos números que caracterizan el plasma de hidrógeno de alta concentración (1020 iones por metro cúbico). Resulta que en el plasma frío (la temperatura de diez mil grados) la longitud del recorrido libre es igual a 0,03 cm y el tiempo del recorrido libre es de 4 x 10-10 s. Este mismo plasma pero calentado hasta cien millones de grados se caracteriza por los números de 3 x 106 cm y 4 x 10-4 s, respectivamente. Al citar estos datos es obligatorio añadir de qué colisiones se trata. Hemos mencionado los valores para los encuentros de los electrones con iones. A todas luces es evidente que el volumen que contiene muchas partículas será eléctricamente neutro. Pero a nosotros nos puede interesar el comportamiento del campo eléctrico en algún punto del espacio. El mismo varía de una forma rápida y brusca ya que cerca de este punto, ora pasan los iones, ora vuelan raudos los electrones. Se puede calcular la rapidez de estos cambios, también es posible calcular el valor medio del campo. El plasma, con una enorme precisión, satisface la condición de neutralidad. El espíritu riguroso exige que utilicemos la palabra «cuasi neutralidad», es decir, casi neutralidad. ¿Pero qué significa este «casi»?

Gentileza de Manuel Mayo

68

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Un cálculo no muy complicado demuestra lo siguiente. Tracemos en el plasma un segmento de un centímetro de longitud. Calculemos la concentración de los iones y electrones en cada punto de este segmento. Cuasi neutralidad significa que estas concentraciones deben ser «casi» iguales. Ahora figurémonos que en un centímetro cúbico existe un lote «sobrante» de electrones no neutralizado por iones positivos. Resultará que a la densidad de las partículas igual a la del aire atmosférico junto a la superficie de la Tierra en el segmento examinado se forma un campo de 1000 V/cm, aproximadamente, si la diferencia en las concentraciones de los iones y electrones es igual a ¡una milmillonésima parte de un tanto por ciento! He aquí lo que significa la palabra «casi». Sin embargo, incluso esta alteración ínfima de la igualdad de las cargas de dos signos durará un instante brevísimo. El campo formado irá a expulsar las partículas sobrantes. Dicho automatismo opera ya en las zonas que se miden por milésimas partes de centímetro. También en el libro 4 hablaremos sobre el plasma y las botellas magnéticas. El lector, seguramente, ha oído hablar y, puede ser que ha encontrado la descripción de las instalaciones del tipo «Tokamak». Un gran destacamento de científicos trabaja en su perfeccionamiento. El asunto reside en que la posibilidad de crear un plasma de alta temperatura pueda llevar a la fisión de los núcleos atómicos ligeros, proceso que se acompaña de liberación de una energía colosal. Los físicos consiguieron realizar este proceso en las bombas. Sin embargo, la importante cuestión de si se logra crear un plasma que posee una temperatura lo suficientemente alta, así como el suficiente tiempo de vida para que resulte realizable en la práctica una central eléctrica termonuclear, esta importante cuestión encontrará su respuesta a finales del siglo XX. Metales La división de los sólidos en distintas clases de acuerdo con el valor de su resistencia eléctrica se determina por la movilidad de los electrones. La corriente eléctrica es un flujo de partículas cargadas en movimiento. Cuando se trata de los flujos de iones o electrones, literalmente vemos la corriente eléctrica. Durante su paso a través de los líquidos la corriente eléctrica también se manifiesta

Gentileza de Manuel Mayo

69

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

de una forma completamente patente, por cuanto en los electrodos tiene lugar la sedimentación de la sustancia. En cambio, en lo que se refiere a los cuerpos sólidos debemos juzgar sólo de manera indirecta sobre aquello que representa la corriente eléctrica que por éstos circula. Existe una serie de hechos que permiten afirmar lo siguiente. En todos los sólidos los núcleos atómicos no se desplazan. La corriente eléctrica es el flujo de electrones. Los electrones se mueven impulsados por la energía suministrada por la fuente de corriente. Esta fuente la engendra dentro del cuerpo sólido el campo eléctrico. La fórmula que relaciona la tensión y la intensidad del campo eléctrico es válida para cualesquiera conductores. Esta es la razón de que aunando las fórmulas insertadas en páginas anteriores podemos escribir la ley de Ohm para un conductor sólido en la forma j = σE (σ = 1/ρ se denomina conductancia específica). Los electrones del sólido pueden dividirse en ligados y libres. Los electrones ligados pertenecen a átomos determinados y los electrones libres forman un gas electrónico sui generis. Estos electrones pueden desplazarse por el cuerpo sólido. En ausencia de tensión eléctrica, el comportamiento de los electrones libres carece de orden. Cuanto más obstaculizado ven los electrones libres su movimiento, cuanto más frecuentes son sus choques con los átomos inmóviles y entre ellos mismos, tanto mayor es la resistencia eléctrica del cuerpo. En los dieléctricos, la absoluta mayoría de los electrones tiene su amo: un átomo o una molécula. El número de electrones libres es despreciable. En los metales cada átomo entrega uno o dos electrones para el uso común. Precisamente esto gas electrónico sirve de transportador de corriente. Partiendo de un modelo muy burdo podemos determinar de una forma aproximada, el valor de la conducción eléctrica y comprobar este modelo. Análogamente como hicimos cuando razonábamos acerca del gas de las moléculas supongamos que cada electrón logra recorrer, sin sufrir una colisión, cierto trecho.

Gentileza de Manuel Mayo

70

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

La distancia entre los átomos del metal es igual a varios angstrom. Es lógico suponer que la longitud del recorrido libre de los electrones por el orden de su magnitud es igual a 10 Å, o sea. 10-7 cm. Por acción de la fuerza aceleradora eE el movimiento del electrón hasta la colisión se prolonga durante el tiempo l/v. Basándose en los datos tomados de las investigaciones de la emisión temoiónica se puede evaluar la velocidad caótica y de los electrones. El orden de esta velocidad es de 108 cm/s. Para determinar la velocidad del movimiento ordenado de los electrones, es decir, la velocidad del movimiento que engendra la corriente, es necesario multiplicar la aceleración eE/m por el tiempo del recorrido libre. Con este proceder se admite que cada colisión hace parar el electrón después de lo cual éste comienza a acelerarse de nuevo. Una vez efectuada la multiplicación obtenemos el valor de la velocidad del movimiento dirigido de los electrones que, precisamente, crea la corriente;

Ahora planteémonos el problema de calcular la resistencia específica del metal. Si el orden de la magnitud resulta correcto, entonces, esto significa que nuestro modelo «funciona». Dejemos atinar al lector que la densidad j de la corriente puede escribirse como producto del número de electrones en una unidad de volumen por la carga del electrón y la velocidad del movimiento ordenado: j = neu. Al sustituir en esta fórmula el valor de la velocidad del movimiento ordenado de los electrones, obtenemos

es decir, la conductancia específica es igual a

Gentileza de Manuel Mayo

71

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Si se considera que cada átomo entrega para el uso común un solo electrón, resultará que el conductor tiene la conductancia específica del orden de 10-5 Ω-m. ¡Es una magnitud muy razonable! Esto confirma tanto la validez de nuestro burdo modelo, como la elección acertada de los valores de los parámetros de nuestra «teoría». Pongo la palabra «teoría» entre comillas por la única causa de que es burda y elemental. No obstante, este ejemplo ilustra el típico enfoque físico en la interpretación de los fenómenos. De acuerdo con la teoría del gas electrónico libre la resistencia eléctrica debe disminuir con la caída de la temperatura. Pero cuidado con apresurarse a vincular esta circunstancia con la variación de la velocidad caótica de movimiento de los electrones. El asunto no estriba en ésta. Dicha velocidad depende poco de la temperatura. La disminución de la resistencia está relacionada con el hecho de que la amplitud de las oscilaciones de los átomos llega a ser menor debido a lo cual se acrecienta la longitud del recorrido libre de los electrones. El mismo hecho puede formularse también con las siguientes palabras: al aumentar las amplitudes de las oscilaciones de los átomos los electrones se dispersan en mayor grado por distintos lados. Por supuesto, debido a ello la componente de la velocidad en la dirección de la corriente debe disminuir, es decir, la resistencia debe crecer. El que la resistencia del metal (y no sólo del metal) crece al añadirle impurezas también se explica por el aumento de la dispersión de los electrones. En efecto, los átomos de las impurezas desempeñan el papel de defectos de la estructura cristalina y, en consecuencia, contribuyen a la dispersión de los electrones. La energía eléctrica se transmite por alambres. Debido a la resistencia eléctrica en los alambres se consume la energía de la fuente de corriente. Las pérdidas de energía son enormes y la lucha contra las mismas representa una tarea técnica de suma importancia. Se abriga la esperanza de que esta tarea pueda resolverse ya que existe el admirable fenómeno de superconductividad.

Gentileza de Manuel Mayo

72

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

El físico holandés Kamerlingh-Onnes, en 1911, descubrió que a temperaturas próximas a cero absoluto algunos cuerpos, a salto, pierden prácticamente por completo su resistencia eléctrica. Si en el anillo de un superconductor se excita la corriente eléctrica, ésta fluirá en el conductor durante días enteros sin atenuarse. Entre los metales puros es el niobio el que posee la más alta temperatura (9 K) a la cual se manifiestan las propiedades de superconductividad. Huelga decir con qué tenacidad el enorme destacamento de científicos se dedica a la búsqueda de superconductores

que

puedan

adquirir

esta

maravillosa

propiedad

a

una

temperatura más alta. Sin embargo, por ahora los éxitos no son muy grandes; se ha encontrado una aleación que se transforma en superconductora a la temperatura de cerca de 20 K. En todo caso, hay motivo para suponer que este límite podrá elevarse (y, probablemente, hasta llevar a la temperatura ambiente). La búsqueda se lleva a cabo

entre

sustancias

polímeras

especiales

y

entre

materiales

laminares

compuestos en los cuales se alternan el dieléctrico y el metal. Es difícil sobreestimar la significación de este problema. Yo asumo la responsabilidad de considerarla uno de los problemas importantísimos de la física moderna Los trabajos dedicados a la búsqueda de los superconductores que adquieren dicha propiedad a temperaturas lo suficientemente altas tomaron una gran envergadura después de haberse confirmado la teoría de este fenómeno. La teoría sugirió las vías de búsqueda de los materiales necesarios. Es característico que entre el descubrimiento del fenómeno y su explicación transcurrió un largo lapso. La teoría fue creada en 1917. Cabe señalar que las leyes de

la

física

cuántica

con

cuya

ayuda

está

construida

la

teoría

de

la

superconductividad se habían establecido todavía en 1920. De aquí se infiere que la teoría del fenómeno distaba mucho de ser simple. En este libro sólo puedo dar la explicación, por decirlo así, desde la mitad de la historia. Resulta que a medida que las oscilaciones de la red atómica se van atenuando, algunos electrones logran «aparearse». Semejante «par» se comporta de una manera acorde. Cuando tiene lugar la dispersión del par en los átomos (y, como hemos mencionado con anterioridad, precisamente esta dispersión sirve de causa de la resistencia), el rebote de uno de los miembros del par a un lado se compensa por el

Gentileza de Manuel Mayo

73

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

comportamiento de su «amigo». Se compensa en el sentido de que el impulso total del par de electrones se mantiene invariable. De este modo, la dispersión de los electrones sigue en pie, mas deja de influir en el paso de la corriente. Paralelamente a los electrones apareados en el superconductor existe también el gas electrónico ordinario. De esto modo, simultáneamente, parece como si existieran dos líquidos: uno, común y corriente, y otro, superconductor. Si la temperatura del superconductor comienza a elevarse desde cero, entonces, el movimiento térmico romperá cada vez mayor número de «pares» de electrones y la parte correspondiente al gas electrónico ordinario irá en aumento. Por fin, llegará la temperatura crítica a la cual desaparecerán los últimos electrones apareados. En el libro 2, valiéndonos del modelo de dos líquidos, el ordinario y el especial, hemos explicado el fenómeno de superfluidez observado en el helio líquido. Esos dos fenómenos guardan un parentesco próximo: la superconductividad es la superfluidez del líquido electrónico El par de electrones del que acabamos de hablar tiene el espín total cero. Las partículas cuyo espín es igual a cero o a un número entero se denominan bosones. En determinadas condiciones los bosones pueden acumularse en gran cantidad en un mismo nivel de energía. En este caso su movimiento se hace idealmente acorde y nada puede impedir su traslación. En el libro 4 volveremos a hablar sobre este fenómeno. Salida de los electrones del metal Por cuanto parte de los electrones se comporta a semejanza del gas formado de partículas rápidas es natural esperar que los electrones sean capaces de salir a la superficie del metal. Para que el electrón pueda abandonar el metal aquél debe superar las fuerzas de atracción de los iones positivos. El trabajo que el electrón debe invertir para lograr este objetivo se denomina trabajo de salida. Cuanto más alta es la temperatura del metal, tanto mayor es la velocidad cinética de movimiento de los electrones. Si el metal se pone incandescente, entonces logrará abandonarlo un número considerable de electrones. El fenómeno de emisión termoiónica -así se llama la salida del metal de los electrones - puede investigarse por medio de un sencillo experimento. En una

Gentileza de Manuel Mayo

74

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

bombilla eléctrica se suelda un electrodo adicional. Mediante un instrumento sensible es posible medir el valor de la corriente eléctrica que se creará debido a que una parte de los electrones que se «evaporan» va a parar al electrodo (una parte y no todos por la simple razón de que los electrones salen del filamento de la lámpara bajo diferentes ángulos). Si se quiero estimar el trabajo de salida conviene recurrir a la tensión «de bloqueo» (o de corte), es decir, conectar el electrodo soldado al polo negativo del acumulador. Aumentando paulatinamente la tensión llegaremos a tal valor suyo para el cual los electrones ya no pueden alcanzar el electrodo. El trabajo de salida de los electrones para el volframio es igual a 5 eV, aproximadamente. Si es necesario, empleando recubrimientos especiales se puede bajar el valor de este trabajo basta 1 eV. ¿Y qué representa esta unidad de trabajo, el electronvoltio? No es difícil comprender, basándose en su denominación, que es igual a la energía que adquiere el electrón al recorrer el tramo del camino que se encuentra bajo la tensión de 1 V, Un electronvoltio vale 1,6 x 10-19 J. Aunque las velocidades térmicas de los electrones son bastante considerables, la masa del electrón es muy pequeña. Por esta causa, la altura mencionada de la barrera es muy elevada. La teoría y la experiencia muestran que la salida de los electrones depende ostensiblemente de la temperatura. El ascenso de la temperatura desde 500 hasta 2000 K implica el incremento de la corriente de emisión en miles de veces. La salida de los electrones del metal debido al movimiento térmico es, por decirlo así, un proceso natural. Pero también se puede expulsar el electrón del metal. En primer término, se puede hacerlo bombardeando el metal también con los electrones. El fenómeno lleva el nombre de emisión electrónica secundaria. Este se utiliza para la multiplicación de los electrones en los instrumentos técnicos. Inconmensurable más esencial es la expulsión de los electrones a partir de cuerpos sólidos mediante la luz. Dicho fenómeno lleva el nombre de efecto fotoeléctrico. Fenómenos termoeléctricos Hace mucho tiempo (para la evolución de la humanidad no es sino un instante, mas para el desarrollo de la ciencia casi una eternidad), más de 150 años atrás, se había

Gentileza de Manuel Mayo

75

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

descubierto un hecho simple. Si se forma un circuito eléctrico de un trozo de alambre de cobre y otro de alambre de bismuto, soldándolos en dos puntos, por el circuito fluirá la corriente. Pero fluirá sólo en el caso de que una de las uniones soldadas se encuentro a una temperatura más alta que la otra. Dicho fenómeno se llama, precisamente, termoelectricidad. ¿Qué es, entonces, lo que obliga los electrones a desplazarse por el conductor compuesto? El fenómeno resulta ser no tan simple. La fuerza electromotriz se engendra debida o dos circunstancias. Primero, el campo eléctrico de contacto; segundo, el campo eléctrico de temperatura. Acabamos de señalar que para la salida del electrón fuera del metal se necesita un trabajo. Es lógico suponer que este trabajo de salida A no es idéntico para distintos metales. Siendo así, entre dos metales unidos por soldadura aparece una tensión igual a

Por vía experimental se puede cerciorar de la existencia de la tensión de contacto. Pero, de por sí, ésta no puede ser causa de la corriente eléctrica en un circuito cerrado. En efecto, el circuito cerrado consta de dos uniones soldadas y las tensiones de contacto se extinguirán mutuamente. ¿Por qué, entonces, la diferencia de temperatura de las uniones soldadas engendra la fuerza electromotriz? Es la lógica la que sugiere la respuesta. Evidentemente, la tensión de contacto depende de la temperatura. El calentamiento de una de las uniones soldadas torna desiguales las tensiones provocando la aparición de la corriente. Sin embargo, hace falta tomar en consideración también otro fenómeno. Es completamente natural suponer que entre los extremos del conductor exista un campo eléctrico, si estos extremos se encuentran a diferentes temperaturas. Es que a una temperatura más alta los electrones se mueven con mayor rapidez. Si es así, comenzará la difusión de las cargas eléctricas que se prolongará hasta que se forme un campo que compense la tendencia a la distribución uniforme.

Gentileza de Manuel Mayo

76

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Los experimentos no dejan duda respecto a que ambos fenómenos están presentes simultáneamente y que los dos deben tenerse en cuenta en la creación de la teoría. Las fuerzas termoelectromotrices no son grandes: son del orden de varios milivoltios para la diferencia de temperatura de 100 grados. Pero estas tensiones se miden fácilmente Por esta causa, el efecto termoelectromotriz se utiliza para la medición de las temperaturas. Es que no se puede sumergir un termómetro de vidrio en la masa fundida de un metal. Precisamente, en estos casos el par termoeléctrico (así se denomina el elemento térmico empleado para la medición de la temperatura) resulta ser un magnífico instrumento. Desde luego, el par termoeléctrico (o, simplemente, termopar) posee también otros muchos méritos). ¡Cuán esencial es la posibilidad de medir la temperatura a ¡grandes distancias! ¡Y la sensibilidad! Las mediciones eléctricas son en alto grado exactas y resulta que, empleando un termopar, pueden medirse las diferencias de temperatura iguales a millonésimas partes de grado. Esta alta sensibilidad permite utilizar los termoelementos para medir flujos térmicos que llegan desde objetos lejanos. El lector por sí mismo puedo apreciar aproximadamente las posibilidades de un termoelemento. Basta decir que para éste no representan un límite décimas partes de ergio por segundo. De la misma forma que los acumuladores los termoelementos, a veces, también se reúnen en baterías. Si no se requiere una energía muy grande, semejante batería puede servir de generador de energía, encontrando su aplicación para la comunicación por radio. Semiconductores Muchas

sustancias,

tanto

elementos

como

compuestos

químicos,

en

correspondencia con los valores de su conductibilidad llenan el amplísimo intervalo entre los conductores y los dieléctricos. Hace mucho tiempo ya se daban cuenta de la existencia de tales sustancias. Sin embargo, apenas unos seis lustros atrás alguien difícilmente había podido prever que la física de los semiconductores haría nacer una rama de la industria cuya trascendencia es imposible sobreestimar. No hay semiconductores, esto significa que no existen ordenadores modernos, ni

Gentileza de Manuel Mayo

77

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

tampoco televisores ni magnetófonos. Sin los semiconductores es inconcebible la radiotecnia moderna. La conductibilidad de los aisladores se encuentra entre 10-8 a 10-18 Ω-1 m-1, la de los metales tiene los valores entre 102 y 104 de estas mismas unidades. La conductibilidad específica de los semiconductores se ubica entre estos dos intervalos. Sin embargo, nos enteramos de que se trata de un semiconductor no solamente por el valor de su conductibilidad. Igualmente que en el caso de los metales, al fluir la corriente por los semiconductores no observamos cambios químicos algunos. Este hecho significa que los iones de estas sustancias los cuales forman la armazón de la red cristalina no se trasladan por acción del campo. Por lo tanto, al igual que en los metales, debemos atribuir la conductibilidad al movimiento de los electrones. Aunque parece que esta circunstancia es axiomática, sin embargo, en los albores del estudio de los semiconductores los físicos decidieron comprobar, por si acaso, que cargas son transportadores de corriente. En el caso de los sólidos esta comprobación puede realizarle por medio del efecto Hall. En el siguiente capítulo voy a recordar al lector que por acción del campo magnético las partículas positivas y negativas se desvían y, además, en diferentes sentidos. Si el cuerpo sólido en cuyo interior se mueven las cargas se confecciona en forma de banda y se coloca en un campo magnético correspondientemente orientado, entre los extremos de la banda aparece la tensión. EL esquema del experimento se ilustra en la fig. 2.8. Cuál fue el asombro de los físicos al descubrir que se debe tratar con los cuerpos los cuales durante su investigación, de acuerdo con el esquema señalado, se comportan en unas ocasiones como si por el alambre se desplazaran partículas positivas, mientras que en otras ocasiones parece como si los transportadores de la electricidad tuviesen signo negativo. No es difícil dar un nombre a esta actitud suya. En el primer caso hablaremos sobre la conductibilidad positiva (tipo p), y en el segundo, sobre la negativa (tipo n). Pero el quid de la cuestión no reside en el nombre, sino en la explicación de la médula del asunto. No hay duda alguna que en el seno del semiconductor se mueven

Gentileza de Manuel Mayo

78

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

electrones. ¿Cómo, entonces, salir de la contradicción? ¿De qué modo explicar la conductibilidad positiva?

Figura 2.8 Figúrense una fila de deportistas. De pronto, un hombre la abandona por cualquier causa. Queda un sitio vacante. Aunque esto suena no muy bello, digamos así: se formó un «hueco». Para alinear la fila se da la orden al vecino del «hueco» que se traslade al sitio libre. Pero entonces, como queda completamente claro, se forma un nuevo sitio vacante. Este también puede llenarse mandando al siguiente deportista ocupar la plaza correspondiente al «hueco». Si los deportistas se trasladan de derecha a izquierda, el «hueco» se desplazara de izquierda a derecha. Precisamente este esquema explica la conductibilidad positiva de los semiconductores. La concentración de los electrones libres en los semiconductores es muy pequeña. Por eso, ya el propio valor de la conductibilidad (acuérdense de la fórmula que hemos deducido hace poco para la densidad de la corriente) nos sugiere que la mayoría de los átomos del semiconductor no son iones, sino átomos neutros, sin embargo, el semiconductor, a pesar de todo, no es dieléctrico. Esta circunstancia significa que el número pequeño de electrones se ha dejado en libertad. Dichos electrones se desplazarán como en un metal creando la conductibilidad negativa, o

Gentileza de Manuel Mayo

79

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

sea, electrónica. Pero el ion positivo rodeado de átomos neutros se encuentra en estado inestable. Apenas al cuerpo sólido se aplica el campo eléctrico este ion positivo trata de «sonsacar» el electrón de su vecino; de una forma absolutamente análoga obrará el átomo vecino. El ion positivo es completamente análogo al «hueco». La intercepción de los electrones puede sobreponerse al movimiento de los electrones libres. De este modo surge la conductibilidad positiva, llamada también conducción por huecos. Pero, ¿si este modelo no lo gusta? Puedo ofrecerle otro. Como hemos dicho, la energía de las partículas se cuantifica. Esta es la ley fundamental de la naturaleza. Todos los fenómenos que se desarrollan en los semiconductores se explican perfectamente si admitimos que, al igual que en el átomo, también en el sólido los electrones están distribuidos por los niveles de energía. Sin embargo, puesto que en el sólido los electrones son muchísimos, resulta que ahora los niveles parece como si confluyeran en bandas de energía (o, llamándoles de otra forma, en zonas de energía). La interacción de los electrones internos entre sí es débil, y, por lo tanto, el ancho de la banda será no grande. Sobre los átomos internos no influye, prácticamente, el hecho de que los átomos a los cuales dichos electrones pertenecen, entran en la composición del cuerpo sólido. En cambio, cuando se trata de los electrones externos el asunto es otro. Sus niveles forman las bandas. Para diferentes cuerpos el ancho de estas bandas y las «distancias» entre éstas son distintos (en este caso se debe decir «intervalos de energía» y la palabra «distancias» empleada en este contexto es el argot físico). El cuadro presentado explica de una forma excelente la división de los cuerpos sólidos, de acuerdo con su conductibilidad eléctrica, en metales, semiconductores y aisladores (fig. 2.9). Cuando la banda está por completo llena de electrones y la distancia hasta la banda superior vacía es grande, el cuerpo es un aislador. Si la banda superior está llena de electrones parcialmente semejante cuerpo es un metal, puesto que un campo eléctrico, por muy pequeño que sea, es capaz de hacer pasar el electrón a un nivel de energía un poco más alto.

Gentileza de Manuel Mayo

80

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 2.9 Un semiconductor se caracteriza por el hecho de que su banda superior está separada de la más próxima inferior por un pequeño espacio. A diferencia de los aisladores y metales, en el caso de los semiconductores el movimiento térmico es capaz de trasladar los electrones de una banda a otra. En ausencia del campo el número de semejantes transiciones hacia arriba y hacia abajo es idéntico. El aumento de la temperatura sólo lleva aparejado el hecho de que la concentración de los electrones en la banda superior crece. ¿Pero qué ocurrirá cuando sobre el semiconductor se superponga un campo? En este caso el electrón libre que se halla en la banda superior comenzará a desplazarse haciendo una aportación a la conductibilidad negativa. Pero se alterará el equilibrio de las transiciones hacia abajo y hacia arriba. Por esta causa, en la Gentileza de Manuel Mayo

81

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

banda inferior se forma un «hueco» que por acción del campo se desplazará hacia el sentido contrario. Tales semiconductores se denominan de conductibilidad mixta (positivo-negativa o conductibilidad p - n). La teoría de bandas de los semiconductores es una teoría armoniosa. El lector no debo suponer que el modelo descrito es artificial o ideado. Este explica de una forma sencilla y clara la principal diferencia entre el metal y el semiconductor, a saber, su comportamiento especial relacionado con el cambio de la temperatura. Como se ha señalado en el párrafo anterior, con el ascenso de la temperatura disminuye la conductibilidad eléctrica de los metales, ya que los electrones más a menudo chocan contra obstáculos. En los semiconductores la elevación de la temperatura implica el aumento del número de electrones y huecos y, en consecuencia, el aumento de la conductibilidad. Este efecto, como lo demuestran los cálculos, supera considerablemente la disminución de la conductibilidad debido a los impactos contra los obstáculos. Para la técnica el valor principal lo tienen los conductores con impurezas. En este caso se logra crear cuerpos poseedores de conductibilidad solamente positiva o solamente negativa. La idea es extraordinariamente sencilla. Los semiconductores más difundidos son el germanio y el silicio. Estos elementos son tetravalentes. Cada átomo está enlazado con cuatro vecinos. El germanio perfectamente puro representará un semiconductor de tipo mixto. El número de huecos y electrones correspondientes a 1 cm3 es muy pequeño, a saber, es igual a 2,5 x 1013 a temperatura ambiente. Esto significa un electrón libre y un hueco, aproximadamente, por mil millones de átomos. Sustituyamos ahora uno de los átomos de germanio por un átomo de arsénico. El arsénico es pentavalente. Cuatro de sus electrones están destinados para enlazarse con los átomos del «amo», o sea, del germanio, mientras que el quinto será libre. El material acusará conductibilidad electrónica (negativa) puesto que la aparición del átomo de germanio, como se sobreentiende, no dará lugar a la formación de huecos. Si la impureza de arsénico es completamente despreciable constituyendo un átomo por millón, la conductibilidad del germanio aumentará ya mil veces.

Gentileza de Manuel Mayo

82

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Ya queda absolutamente claro qué se requiere para convertir el germanio en conductor del tipo p. Para lograr este objetivo es necesario sustituir el átomo de germanio por un átomo trivalente, digamos, por el átomo de indio. En este caso la situación toma el siguiente cariz. El átomo de germanio que se encuentra al lado del «huésped» se transforma en ion positivo por cuanto, de grado o por fuerza, tendrá que formar enlace con el átomo de indio al que falta un electrón. Pero ya conocemos que el ion positivo hace las veces de hueco. Por impacto del campo el «hueco» se desplazará; en cambio, no habrá movimiento de electrones libres. No es de asombrarse que la industria de los semiconductores ejerciera una enorme influencia en la técnica de formación de cristales puros. ¡Y no puede ser de otro modo si unas millonésimas partes de impurezas juegan un papel decisivo! Sería erróneo formarse la idea de que en los conductores del tipo n falla la conducción por huecos. Los huecos existen, pero su número es sustancialmente menor que el de los electrones libres. En el caso de los semiconductores del tipo n los electrones son portadores principales de corriente, mientras que los huecos, que constituyen una minoría, se denominan portadores secundarios de corriente. Por el contrario, en los semiconductores del tipo p los portadores principales son los huecos, y secundarios, los electrones. Unión p-n Después que ha quedado esclarecido qué representan los semiconductores p y los semiconductores n podemos llegar a comprender un efecto muy interesante y de gran importancia para la electrónica moderna. El efecto aparece en la zona de transición entre los .semiconductores p y n que están unidos estrechamente entre sí (unión p - n). La palabra inglesa «transition» (transición, paso) sirvió de base para nombrar toda una clase de instrumentos cuyo trabajo tiene por fundamento la unión p - n. ¿Qué ocurrirá, entonces, si se toman dos barras de igual sección con caras frontales pulidas muy, pero muy esmeradamente, con la particularidad de que una barra está hecha de germanio con impureza de indio (semiconductor del tipo p), y la otra barra, de germanio con impureza de arsénico (semiconductor del tipo n), y si, seguidamente, estas barras se juntan entre sí apretando estrechamente una a

Gentileza de Manuel Mayo

83

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

otra sus caras frontales? Obtenemos, de hecho, un cristal único de germanio con la única diferencia de que en una mitad suya habrá un exceso de electrones libres, y en la otra, un exceso de huecos.

Figura 2.10 Para evitar que las explicaciones sean muy complicadas olvidemos de los portadores de corriente secundarios. En el momento inicial de tiempo (véase la fig. 2.10, por arriba) ambas mitades del cristal son eléctricamente neutras. Pero en la parte n existe (a pesar de la neutralidad eléctrica) un número «sobrante» de electrones (puntos negros), mientras que en la parte derecha, la parte p, del «sándwich» «sobran» los huecos (circulitos).

Gentileza de Manuel Mayo

84

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Tanto los electrones, como los huecos pueden pasar libremente a través de la frontera. La causa de la transición es completamente igual a la que tenemos en el caso de mezclado de dos gases cuando se comunican los recipientes que los contienen. Sin embargo, a diferencia de las moléculas de gas, los electrones y los huecos son aptos para la recombinación. Hemos tenido a la izquierda seis puntitos negros, y a la derecha, seis circulitos. Apenas hubo comenzado la transición el circulito y el punto se aniquilaron mutuamente. El siguiente esquema muestra que en la parte izquierda quedaron menos electrones de lo necesario para que esta mitad del sándwich fuese eléctricamente neutra; la parte derecha también tiene un círculo menos. Al quitar el electrón a la parte izquierda la cargamos positivamente; por la misma causa la parte derecha adquirió una carga negativa. Para los subsiguientes huecos y electrones el paso a través de la frontera ya está obstaculizado. Tienen que moverse contra el campo eléctrico formado. La transición durará cierto lapso, mientras el movimiento térmico sea capaz de superar la barrera energética cada vez creciente, luego llegará el equilibrio dinámico. ¿Y qué será si al sándwich p-n se aplica la tensión y, además, de tal forma como se representa en el tercer esquema desde arriba? Evidentemente, en este caso a los portadores de corriente se comunica una energía suplementaria que les permite salvar la barrera. Por el contrario, si a la parte n se conecta el polo positivo, la transición de los huecos y electrones a través de la frontera sigue siendo imposible. De este modo resulta que la unión p-n posee propiedades rectificadoras Actualmente, en los más diferentes campos de la técnica se utilizan rectificadores (válvulas, diodos, nombres que, en esencia, son sinónimos), cuyo principio de funcionamiento acabamos de explicar. Nuestro esquema es sumamente aproximado. El análisis hemos hecho caso omiso de cualesquiera detalles del comportamiento de los huecos y electrones capaces de saltar a través de la frontera sin la recombinación y. lo que es lo primordial, se ha despreciado la corriente de los portadores secundarios, circunstancia que tiene por consecuencia el que la rectificación de la corriente por el sándwich p-n no es

Gentileza de Manuel Mayo

85

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

completa. En la realidad, a pesar de todo, al aplicar la tensión de acuerdo con el esquema inferior tiene lugar una corriente débil. Ahora caractericemos con mayores pormenores los acontecimientos que ocurren en la frontera cuando se establece el equilibrio dinámico. Renunciemos a la simple conjetura admitida con anterioridad, o sea, acordémonos de la existencia de los portadores secundarios. El cuadro de establecimiento del equilibrio dinámico será el siguiente. Del seno del cristal p, cada vez más cerca de la frontera, comenzará a crecer la corriente por huecos. La aportación a ésta la hacen los huecos que tendrán tiempo para llegar basta la unión p- n y salvarla sin recombinarse con los electrones. Por supuesto, estos huecos deben poseer, además, una energía suficiente como para saltar sobre la barrera de potencial. Después de atravesar la zona de transición esta corriente comienza a extinguirse poco a poco debido a la recombinación con los electrones. Al mismo tiempo en la parte n desde la profundidad, en dirección opuesta crece la corriente por huecos. En esta zona la cantidad de huecos es mucho menor, pero, en cambio, éstos no deben salvar la barrera para ir a parar a la zona p, se puede decir que la barrera se adapta de tal forma, que las corrientes directa e inversa se compensan una a otra. Todo lo expuesto se refiere también a la corriente electrónica. Es cierto que los valores de la corriente por huecos y de la electrónica pueden diferenciarse considerablemente debido a que las zonas p y n están de distinto modo enriquecidas de impurezas y, por consiguiente, de portadores libres. Si, por ejemplo, en la zona p hay mucho más huecos que electrones en la zona n, la corriente por huecos será mucho mayor que la electrónica. En este caso la zona p se denomina emisor (radiador) de portadores libres de corriente y la zona n lleva el nombre de base. Esta descripción más detallada de los acontecimientos que tienen lugar en la frontera p-n nos permite comprender que la rectificación de la corriente no puede ser completa. En efecto, si el polo positivo se conecta al cristal p la barrera su tornará más baja. La tensión instiga los electrones. Si el polo positivo está conectado a la parte n, entonces, el campo eléctrico creado por el manantial de la alimentación coincide por

Gentileza de Manuel Mayo

86

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

su dirección con el campo de la barrera. El campo en la transición aumentará. Ahora disminuirá el número de electrones capaces de salvar la barrera, al igual que el de huecos aptos para pasar al lado opuesto. De aquí el crecimiento de la resistencia en la zona de transición que conduce a la llamada característica no simétrica tensiónintensidad. Resumiendo, podemos decir que el análisis más profundo dilucida patentemente cuál es la causa de que la rectificación operada en la capa de transición no será completa.

Gentileza de Manuel Mayo

87

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 3 Electromagnetismo Contenido: •

Medida del campo magnético



Acciones del campo magnético homogéneo



Acciones del campo magnético no homogéneo



Corrientes amperianas



La nube electrónica del átomo



Momentos magnéticos de las partículas



Inducción electromagnética



Dirección de la corriente de inducción



Algunas palabras acerca de la historia del descubrimiento de la ley de la inducción electromagnética



Corrientes de inducción en torbellino



Choque de inducción



Permeabilidad magnética del hierro



Dominios



Cuerpos diamagnéticos y paramagnéticos



El campo magnético de la Tierra



Campos magnéticos de las estrellas

Medida del campo magnético Desde tiempos muy remotos los hombres se daban cuenta de la interacción de las varillas y agujas hechas de algunas menas de hierro. Estos objetos se distinguían por una propiedad singular: uno de los extremos de las agujas indicaba el norte. De este modo a la aguja se podía atribuir la posesión de dos polos: el polo norte y el polo sur. Con facilidad se demostraba que los polos homónimos se repelían y los de diferente signo se atraían. Un estudio meticuloso del comportamiento de estos cuerpos peculiares que recibieron el nombre de imanes o cuerpos magnéticos lo realizó William Gilbert

Gentileza de Manuel Mayo

88

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

(1544 - 1603). Se esclarecieron tanto las leyes generales de su comportamiento en los distintos puntos del globo terráqueo, como las reglas de su recíproca acción. El 21 de julio de 1820 el físico danés Oersted publicó, haciéndole gran propaganda, su trabajo que llevaba un título bastante extraño: «Experimenta circa effectum conflictus electrici in acum magneticam» («Experimentos referentes al efecto del conflicto eléctrico sobre la aguja magnética»). Esto pequeño escrito - tan sólo de cuatro páginas - daba a conocer al lector que Oersted (y, si queremos ser más exactos, un oyente de Oersted) prestó atención a que la aguja magnética se desviaba si ésta se disponía cerca del alambre por el cual circulaba la corriente eléctrica. Inmediatamente tras este descubrimiento siguió otro. El relevante físico francés Andrés María Ampère (1775 - 1836) descubrió que las corrientes eléctricas interaccionan entre sí. De este modo resulta que los imanes actúan sobre otros imanes y corrientes, mientras que las corrientes influyen en otras corrientes o imanes. Para caracterizar estas interacciones al igual de las eléctricas, es conveniente introducir el concepto de campo. Digamos que las corrientes eléctricas, así como los imanes naturales y artificiales, engendran campos magnéticos. Cabe subrayar que solamente por la investigación de los campos alternos se demuestra la existencia real de los campos eléctricos y magnéticos, o, en otras palabras, el hecho de que el campo es una forma de la materia. Entre tanto, el campo es para nosotros tan sólo un concepto cómodo, y nada más. En efecto, los manantiales del campo magnético pueden encontrarse ocultos detrás de un biombo, pero nosotros estamos en condiciones de juzgar sobre su presencia debido a las acciones que esto produce. Los mismos sistemas que originan el campo magnético reaccionan a su presencia, es decir, el campo magnético actúa sobre las agujas magnéticas y las corrientes eléctricas. La primera tarea que se plantea ante el investigador que estudia el magnetismo es la «palpación» del espacio en el cual existe el campo magnético. Al caracterizar el campo magnético determinamos en cada punto del campo la fuerza que afectaba la carga unitaria. ¿Y cómo conviene proceder para describir el campo magnético?

Gentileza de Manuel Mayo

89

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

En el caso general, el comportamiento de una pequeña aguja magnética es bastante complicado Esta girará de modo determinado, pero, a veces, también realizará un movimiento de avance. Para poder caracterizar el campo magnético hay que impedir a la aguja que se desplace. En primer lugar es necesario poner en claro en qué dirección mira su polo norte (os decir, aquel extremo suyo que en ausencia de corriente y de objetos magnéticos mira en el sentido del Norte). Con anterioridad, hemos señalado que un procedimiento gráfico adormido para describir el campo eléctrico es la introducción en uso de líneas de intensidad. La dirección de estas líneas indicaba adonde se desviaba la carga positiva. La densidad de las líneas correspondía al valor de la intensidad. De uno manera análoga se puede proceder también al caracterizar el campo magnético. El extremo de la aguja magnética que gira libremente indicará la dirección de las líneas de fuerza del campó magnético las cuales, en la actualidad, se suelen llamarse líneas de inducción. ¿Y qué se debe tomar por la medida de «intensidad» del campo magnético? Por supuesto, se puedo medir, empleando un simple dispositivo, el momento de fuerza que actúa sobre la aguja magnética. Sin embargo, tal vez, valga la pena buscar otro método. Es que la aguja magnética es una especie de «cosa en sí». Al realizar los experimentos con la aguja magnética, tenemos que buscar, simultáneamente, tanto la medida de «intensidad» del campo magnético, como la medida que caracteriza la aguja. Los físicos prefieren evitar tal situación. Mejor es matar primero un pájaro y sólo después el otro. De este modo, por ahora conservemos para la aguja magnética la función de determinar el perfil de las líneas de inducción. Y para introducir la medida cuantitativa de «intensidad» del campo magnético recurramos a uno de los experimentos de Ampère, quien todavía en 1820 descubrió que un cuadro plano con corriente se comporta de una forma muy parecida a la aguja magnética. Resulta que el cuadro gira en el campo magnético, con la particularidad de que la normal a su plano mira en la misma dirección que la aguja magnética, es decir, a lo largo de las líneas de inducción. Hace las veces del polo norte aquel lado del cuadro en que, al observarlo, vemos la corriente ir en el sentido antihorario.

Gentileza de Manuel Mayo

90

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

A diferencia de la aguja magnética el cuadro con corriente no es un objeto inconcebible para caracterizarlo. Las propiedades del cuadro con corriente, o sea, de un circuito con corriente, se definen unívocamente por la intensidad de la corriente, el área y la dirección de la normal al área. Es de suponer que esto cuadro será un instrumento bastante bueno para la «palpación» del campo magnético. Entonces, resulta que decidimos tomar por la medida de «intensidad» del campo magnético, el momento de rotación que actúa sobre el circuito con corriente. No conviene pensar que semejante instrumento es menos conveniente que la aguja magnética. Un experimentador hábil puede confeccionar un cuadro de área minúscula o inventará un sencillo método para compensar el giro que realiza el campo, recurriendo a la compresión de un muelle graduado. Ante

todo

tenemos

que

averiguar

el

comportamiento de diferentes circuitos de prueba en un punto determinado del campo magnético invariable. El resultado de esta investigación es el siguiente:

el

momento

de

fuerza

es

proporcional al producto de la intensidad de la corriente por el área. Esto significa que el circuito de prueba no se caracteriza por la intensidad de la corriente y el área tomados independientemente, sino por su producto. Además

de

este

producto

necesitamos

saber cómo está dispuesta la normal del circuito respecto a la dirección del campo. Es que el circuito se comporta a semejanza de una aguja magnética. Por esta razón, si disponemos el circuito de tal forma que su normal positiva (o sea, el vector que sale por el lado norte) se oriente a lo largo de las líneas de inducción, el circuito quedará justamente en esta posición (el momento de fuerza es igual a cero) (fig. 3.1, abajo).

Gentileza de Manuel Mayo

91

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Si el circuito se sitúa de modo que su normal queda perpendicular a las líneas de inducción, el momento de fuerza será máximo (fig. 3.1, arriba). De todo lo expuesto se infiere lo racional que es introducir un nuevo concepto. Un concepto muy importante, como lo comprenderemos más tarde. Vamos a caracterizar el circuito con corriente mediante el vector M al que damos el nombre de momento magnético (véase la fig. 3.1.). La magnitud del momento magnético se toma igual al producto de la intensidad de la comente I por el área del circuito S = ld: M = IS Al vector S se comunica la dirección de la normal positiva al plano del contorno. De este modo poseemos la magnitud con cuya ayuda podemos medir el campo. Lo más conveniente es medir el momento máximo de fuerza que actúa sobre el circuito de prueba. En el caso de pasar de un punto del campo al otro o modificar el campo a costa de desplazamiento de sus fuentes, o bien, cambiando las intensidades de las corrientes que crean el campo, obtendremos cada vez distintos valores del momento del par de fuerzas F que actúan sobre el circuito de prueba. El momento máximo del momento de fuerza lo podemos escribir así: N = BM donde B es una magnitud que, precisamente, tomamos por la medida del campo. Esta magnitud lleva el nombre de inducción magnética. A base de lo expuesto podemos decir que la inducción magnética es igual al momento máximo de fuerza que actúa sobre el circuito de prueba con el momento magnético unitario. Y la densidad de las líneas de inducción, es decir, su número que recae en una unidad de área, la tomaremos, justamente, proporcional a la magnitud B. El vector B está dirigido a lo largo de las líneas de inducción. El momento magnético, la inducción magnética y el momento de fuerza que es nuestro viejo conocido, son vectores. Sin embargo, al recapacitar un poco

Gentileza de Manuel Mayo

92

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

tendremos que convenir en que estos vectores se diferencian de los de desplazamiento,

velocidad,

aceleración,

fuerza

...

Efectivamente,

el

vector,

digamos, de velocidad de movimiento indica en qué sentido se mueve el cuerpo; los vectores de aceleración y de fuerza señalan en qué dirección acciona la atracción o la repulsión. La flechilla con que terminamos el segmento, símbolo del vector, tiene en estos ejemplos un sentido totalmente objetivo y real. Pero, en lo que respecta a nuestros nuevos conocidos y al momento de fuerza, los asuntos toman otro cariz. Los vectores están dirigidos a lo largo del eje de rotación. Está claro que la flecha que corona uno u otro extremo del segmento el cual define el eje de rotación reviste un carácter completamente convencional. No obstante, es necesario ponerse de acuerdo en cuanto a la dirección del vector. La flecha puesta en el «extremo» del eje de rotación no posee un sentido. Pero la dirección de la rotación sí que tiene un sentido objetivo. Y esta dirección la tenemos que caracterizar. Se conviene en poner la flecha en el eje de rotación de tal modo que, al mirar en contra del vector, observar la rotación en el sentido horario, o bien, en el sentido antihorario. Los físicos se han acostumbrado a la segunda variante. Estos dos tipos de vectores llevan nombres expresivos que hablan de por sí: vectores polares y axiales (del latín «axis», eje). Las mediciones de los campos de diferentes sistemas nos llevan a las siguientes reglas. En los imanes siempre descubrimos dos polos: el polo norte del cual parten las líneas de fuerza, y el polo sur en que éstas terminan. Y lo que sucede con las líneas de inducción en el seno del imán, esto, naturalmente, no lo podemos determinar por vía experimental. En lo que se refiere a los campos magnéticos de las corrientes (fig. 3.2). aquí se revela la siguiente regularidad: las líneas de inducción del campo magnético envuelven la corriente. En este caso se debe tener presente que, si miramos a lo largo de la corriente, las líneas de inducción tendrán la dirección en que se mueve la aguja del reloj. El punto y la crucecita en los dibujos significan (y esto esta comúnmente admitirlo) que la corriente se dirige hacia nosotros o se aleja de nosotros, respectivamente. El momento magnético, como resulta evidente de la fórmula, se mide en amperios multiplicados por metro cuadrado.

Gentileza de Manuel Mayo

93

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Hasta hace poco la unidad de inducción magnética ha sido el gausio. Un gausio es igual a 1 V-s/m2, sin embargo, puesto que el centímetro se ha expulsado, se ha propuesto otra unidad, la tesla (T): 1 T es igual a 1 V-s/m2.

Figura 3.2 La procedencia de la dimensión queda completamente clara a partir de la fórmula para la fuerza electromotriz de inducción insertada en páginas anteriores. Sin embargo, por ahora, los intentos de la Comisión Internacional de retirar del uso el gausio sufren un fracaso: los campos magnéticos, como antes, se valoran por el número de gausios. Los campos magnéticos se engendran por las corrientes y los imanes permanentes. Los campos magnéticos, a su vez, ejercen influencia sobre las corrientes y los imanes permanentes. Si por cualquier causa el investigador no quiere recurrir al concepto de campo magnético, puede dividir todos los tipos de interacciones en que toman parte los campos magnéticos en cuatro grupos; magnéticas, o sea, las acciones del imán sobre el imán; electromagnéticas, es decir las acciones de las corrientes sobre el imán; magnetoeléctricas, es decir, las acciones del imán sobre la

Gentileza de Manuel Mayo

94

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

corriente, y, por fin, electrodinámicas, es decir las acciones de la corriente sobre la corriente. Esta terminología la utilizan, fundamentalmente, los técnicos. Por ejemplo, dicen que un instrumento es magnetoeléctrico cuando el imán resulta fijo y el cuadro con corriente es móvil. Las interacciones electrodinámicas se han tomado por base de la definición actual de la unidad de intensidad de la corriente. Esta definición suena así: el amperio es la intensidad de una corriente invariable que, al pasar por dos conductores paralelos rectilíneos de infinita longitud y sección circular infinitamente pequeña dispuestos a una distancia de 1 m uno del otro en el vacío, engendra entre estos conductores una fuerza igual a 2 x 107 N por 1 m de longitud. En el sistema SI adoptado actualmente por todo el mundo, la unidad de intensidad de la corriente es fundamental. El culombio, en correspondencia, se define como amperio-segundo. Tengo que confiar al lector que a mí me gusta más el sistema de unidades en el cual la unidad de cantidad de electricidad es fundamental y viene expresada por medio de la masa de plata depositada durante la electrólisis. Sin embargo, es difícil discutir con los metrólogos. Por lo visto, la definición citada anteriormente tiene algunos méritos, aunque me parece que la medición práctica de la fuerza electrodinámica con alto grado de precisión es una tarea que dista mucho de ser simple. Al conocer cómo determinar la dirección del campo magnético, así como las reglas para hallar la dirección de la fuerza que actúa sobre la corriente por parte del campo magnético (de lo que hablaremos un poco más tarde) el lector estará en condiciones de averiguar el mismo que las corrientes que fluyen paralelamente se atraen y las dirigidas en sentidos opuestos se repelen. Acciones del campo magnético homogéneo Es homogéneo aquel campo magnético cuya acción sobre cualesquiera indicadores del campo es idéntica en sus diferentes puntos. Se logra crear semejante campo entre los polos de un imán. Es natural que cuanto más cerca uno del otro se dispongan los polos y cuanto mayor sea la superficie plana de las caras frontales del imán, tanto más homogéneo será el campo

Gentileza de Manuel Mayo

95

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Ya se ha hablado acerca de la acción del campo magnético homogéneo sobre la aguja magnética y el cuadro con corriente: si falta el muelle compensador, éstos se sitúan en el campo de una manera tal que su momento magnético coincida con la dirección del campo. El «polo norte» mirará al «polo sur» del imán. El mismo hecho puede expresarse con las siguientes palabras: el momento magnético se orientará a lo largo de las líneas de inducción del campo magnético. Analicemos ahora la acción del campo magnético sobre las cargas en movimiento. Es sumamente fácil cerciorarse de que semejante acción existe y, además, es bastante imponente: es suficiente acercar al rayo electrónico originado por el cañón electrónico, el más común y corriente imán escolar. El punto luminoso de la pantalla se despinzará y cambiará de lugar en esta pantalla en dependencia de la posición del imán. De la demostración cualitativa del fenómeno se puede pasar a la investigación cualitativa, y, en este caso, resultará que la fuerza que actúa sobre el electrón por parte del campo magnético B, teniendo en cuenta que el electrón se mueve en dicho campo con la velocidad v y forma un ángulo recto con las líneas de inducción, es igual a F = ceB donde e es la carga de la panícula (desde luego, la ley es válida no sólo para los electrones, sino también para cualesquiera otras partículas cargadas). En cambio, si la partícula se mueve a lo largo de las líneas de inducción, entonces, en efecto, ¡el campo no actúa sobre ésta! Al lector que tiene nociones de trigonometría no es difícil atinar cómo escribir la expresión de la fuerza para el caso del movimiento bajo cierto ángulo respecto al campo. Y nosotros no recargaremos el texto con fórmulas que no necesitaremos posteriormente. Pero, todavía no se ha dicho nada respecto a la dirección de la fuerza. Y ello es muy importante. La experiencia demuestra que la fuerza es perpendicular tanto a la dirección del movimiento de la partícula, como a la dirección de la inducción. O, en otras palabras: es perpendicular al plano que atraviesa los vectores v y B. Sin embargo, tampoco haciendo constancia de esto hecho lo hemos expresado todo.

Gentileza de Manuel Mayo

96

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Cada medalla tiene dos caras. ¿En qué consiste su diferencia? En la dirección del giro que hace coincidir un vector con el otro. Si vemos que el giro del vector v al vector B en un ángulo menor de 180° se opera contra el sentido de las agujas del reloj, entonces, esta cara la llamamos positiva. Los elementales esquemas vectoriales representados en la fig. 3.3, a la izquierda, demuestran que una partícula cargada positivamente se desvía hacia el lado de la normal positiva. El electrón se desvía hacia el lado opuesto.

Figura 3.3 Ahora fijémonos a qué interesante resallado conduce esta ley en el caso del electrón que entró con pequeña velocidad formando un ángulo recto en el campo magnético permanente (fig. 3.3 a la derecha). Adivine, ¿qué trayectoria describirá el electrón? Ya lo tenemos por supuesto que se moverá describiendo una circunferencia. La fuerza del campo magnético es una fuerza centrípeta y podemos calcular inmediatamente el radio de la circunferencia igualando entre sí mv2/r y evB. De este modo, el radio de la trayectoria es igual a

Gentileza de Manuel Mayo

97

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Presten atención al hecho de que por la conducta de la partícula podemos calcular sus propiedades. Sin embargo, otra vez topamos con la misma relación que se presentó cuando estudiarnos el movimiento de la partícula en el campo eléctrico. ¡No se logra determinar por separado la carga eléctrica y la masa de la partícula! También en este caso el experimento nos lleva al valor de la relación e/m. De este modo, la partícula se mueve por una circunferencia si su velocidad está dirigida bajo un ángulo recto respecto al campo magnético; la partícula se mueve según una recta si su velocidad está dirigida a lo largo del campo magnético. ¿Y qué tenemos en el caso general? Su respuesta, claro está, ya la tiene preparada. La partícula se mueve siguiendo una línea helicoidal cuyo eje es la línea de inducción. Dicha

línea

helicoidal

se

compondrá

de

espiras

arrolladas,

espaciada

o

apretadamente, en dependencia del ángulo inicial de entrada del electrón en el campo magnético. Por cuanto el campo magnético actúa sobre la partícula en movimiento, también debe ejercer su influjo en cada trocito de conductor por el cual fluye la corriente. Examinemos una «porción» del rayo electrónico de longitud l. Supongamos que en esta porción caben n partículas. La fuerza que actúa sobre un conductor de igual longitud por el cual fluye el mismo número de partículas con idéntica velocidad, esta fuerza será igual a nevB. La intensidad de la corriente es igual a la carga total que pasa a través del conductor en unidades de tiempo. El tiempo x durante el cual los electrones examinados recorrerán el camino l es igual a τ = l/v. Es decir, podemos anotar la intensidad de la corriente de la siguiente forma:

Al sustituir la velocidad

Gentileza de Manuel Mayo

98

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

tomada de esta expresión en la fórmula para la fuerza que actúa sobre la «porción» del rayo electrónico, hallaremos precisamente la fuerza que ejerce su acción en el conductor de longitud l. He aquí esta expresión: F= IlB Esta expresión es válida sólo en el caso de que el conductor es perpendicular al campo. La dirección de desviación del conductor por el cual circula la corriente puede determinarse con la ayuda del esquema representado en la fig. 3.3. En señal de respeto a los investigadores que habían trabajado en el siglo XIX inserto la fig. 3.4.

Figura 3.4 Este dibujo, desde luego, no sólo reviste interés académico. Ayuda a recordar la regla de desviación de las corrientes. La figura muestra cómo el campo propio de la corriente (que se dirige «desde nosotros») se sumará con el campo exterior. El resultado de dicha adición se representa a la derecha. Si líneas de inducción se conciben como las tensiones de la materia del éter (semejante punto de vista se había difundido ampliamente en el siglo XIX). la dirección del desplazamiento del conductor obtiene una interpretación patente: el conductor, meramente, se expulsa por el campo. Gentileza de Manuel Mayo

99

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Demostremos ahora que la acción del campo magnético sobre la carga en movimiento y un «segmento» de la corriente es el mismo fenómeno por el cual comenzamos el análisis de las acciones del campo magnético. Examinemos otra vez la fig. 3.1, por arriba. En la figura se representan los fuerzas que actúan sobre el circuito con corriente. Las fuerzas no influyen sobre los tramos del conductor que van a lo largo de las líneas de inducción; sobre otros los tramos actúan el par fie fuerzas y en la figura se ve que el momento de este par es igual, precisamente, al producto de la fuerza por el brazo:

De este modo, la expresión para el momento de fuerza como producto del momento magnético del circuito por la inducción magnética deriva directamente de la fórmula de la fuerza que actúa sobre la carga. A propósito, la fórmula F = evB con la cual comenzamos este párrafo lleva el nombre de Lorentz (Hendrick Antoon Lorentz, 1853 - 1928, físico holandés, propuso esta fórmula en 1805). Acciones del campo magnético no homogéneo No presenta ninguna dificultad crear un campo magnético no homogéneo. Por ejemplo, se puede dar a los polos del imán la forma curvilínea (fig. 3.5). Entonces, el curso de las líneas de inducción del campo será tal como se muestra en la figura. Supongamos que los polos están lo suficientemente separados uno del otro y coloquemos cerca de uno de éstos la aguja magnética. Como hemos mencionado de paso, en el caso general la aguja magnética no sólo gira sino también puede realizar el movimiento de avance. Un movimiento giratorio, únicamente, de la aguja magnética (o del cuadro con corriente) se observa en el caso de que el campo sea homogéneo. Mientras que, en un campo no homogéneo tendrán lugar los dos movimientos. La aguja girará de tal modo que se sitúe a lo largo de las líneas de inducción y, seguidamente, comenzará a atraerse al polo (véase la fig. 3.5). La aguja es atraída

Gentileza de Manuel Mayo

100

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

a aquella zona donde el campo es más fuerte. (Desde luego, el pintor puso demasiado ahínco en su trabajo: difícilmente se puede creer que hasta un campo muy fuerte romperá la brújula.)

Figura 3.5 ¿En qué reside la causa de semejante comportamiento? Evidentemente, consiste en que en un campo no homogéneo sobre la aguja actúa no un solo par de fuerzas. Las «fuerzas» que inciden en el polo norte y el polo sur de la aguja situada en un campo no homogéneo no son iguales Aquel extremo suyo que se encuentra en el campo más fuerte se somete a la acción de una fuerza mayor. Por esta razón, después del giro, el cuadro de las fuerzas presenta el aspecto mostrado en la figura: queda en exceso la fuerza actuante, en el sentido del campo más fuerte. Verdad es que el comportamiento de un circuito con corriente de espesor ínfimo será absolutamente análogo. De este modo, cuando he comenzado por el modelo de la aguja con dos «polos» solamente he rendido tributo a la tendencia para la representación patente. ¿Cuál es, entonces, la ley de la naturaleza? ¿A qué es igual la fuerza? Un experimento y los cálculos demuestran que para cualquier sistema poseedor del Gentileza de Manuel Mayo

101

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

momento magnético M, dicha fuerza es igual al producto del momento del sistema por la curvatura del aumento del campo. Sea que la aguja magnética se quedó situada a lo largo de las líneas de inducción. Los valores del campo en los puntos donde se encuentran el polo norte y el polo sur de la aguja magnética se diferencian entre sí. Tracemos el gráfico del campo a lo largo de la línea que pasa a través de los polos. Para mayor sencillez sustituyamos el tramo de la verdadera curva del campo entre los polos por una recta, lo que se puede hacer con tanta mayor precisión cuanto menor es la aguja, es decir, cuanto más próximos uno del otro son sus polos. La pendiente, o sea. la tangente del ángulo que esta recta forma en el gráfico con el eje horizontal, se expresará como el cociente de división de la diferencia de los campos por la longitud de la aguja. La fórmula tendrá el siguiente aspecto:

donde l es la longitud de la aguja, y BN y BS representan la inducción del campo en los extremos norte y sur de la aguja. (No se asombren que la tangente del ángulo resulte ser una magnitud dimensional.) Si en lugar de la fracción escrita ponemos el valor de la tangente del ángulo de la tangente a la curva que representa el curso del campo en el punto en que se encuentra lo partícula que nos interesa, los «polos desaparecerán» y la fórmula será válida para cualquier partícula o sistema de partículas. Resumiendo, podemos decir que en un campo no homogéneo el sistema o la partícula que poseen el momento magnético se atraen a los polos del imán o se repelen de éstos en dependencia de cómo está dirigido el momento magnético a lo largo o en contra de las líneas de inducción. ¿Acaso el momento magnético puede situarse en contra de la dirección del campo? ¡Sí, puede! Pero en qué casos, de ello hablaremos más tarde. Corrientes amperianas

Gentileza de Manuel Mayo

102

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Hasta el siglo XIX no fue nada difícil crear teorías físicas. El cuerpo se ha calentado, esto significa que contiene mayor cantidad de calórico. Una medicina permite conciliar más rápidamente el sueño, por consiguiente, en esta se encierra una fuerza somnífera. Ciertas varillas fabricadas de menas de hierro señalan el norte. Un comportamiento raro, pero podemos comprenderlo inmediatamente si decimos que semejantes varillas y agujas poseen «alma» magnética. Como se conoce, los agujas

magnéticas

desde

tiempos

muy

remotos

sirvieron

fielmente

a

los

navegantes. Sin embargo, a veces, se encaprichaban. No es de extrañar, el asunto queda muy claro: ¡la culpa la tienen los espíritus malignos! Tampoco es de extrañar que resultó posible imantar hierro, así como acero y algunas otras aleaciones. Sencillamente, éstos son cuerpos aptos para acoger fácilmente el «alma» magnética. Después de los descubrimientos de Oersted y Ampère se puso de manifiesto que es posible tender un puente entre los fenómenos eléctricos y magnéticos. Había una época en la cual estuvieron en boga, con la misma amplitud, dos teorías. Según el primer punto de vista todo se dilucidaba al admitir que el conductor por el cual circula el fluido eléctrico se convierte en imán. Otro punto de vista lo mantenía Ampère. Este afirmaba que el «alma» magnética de las barras de hierro constaba de corrientes eléctricas microscópicas. A muchos el punto de vista de Ampère parecía más lógico. Sin embargo, a esta teoría no se le atribuía ninguna importancia seria, no obstante en la primera mitad del siglo XIX apenas si había alguien quien pensara en la posibilidad de descubrir realmente estas corrientes, sin hablar ya de que se ponía en tela de juicio el hecho de que el mundo está construido de átomos y moléculas. Solamente cuando en el siglo XX los físicos, con una serie de brillantes experimentos, demostraron que el mundo que nos rodea, en efecto, está construido de átomos y moléculas y los átomos constan de electrones y núcleos atómicos, se comenzó a creer en las corrientes amperianas como en un hecho real basándose en el cual se puede tratar de comprender las propiedades magnéticas de la sustancia. La mayoría de los científicos convino en que las «corrientes moleculares» imaginadas por Ampère se originan debido al movimiento de los electrones en torno a los núcleos atómicos.

Gentileza de Manuel Mayo

103

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Parecía que, valiéndose de estas ideas, se lograría explicar los fenómenos magnéticos. Efectivamente, el electrón que se mueve alrededor del núcleo puede asemejarse a la corriente eléctrica, tenemos derecho de atribuir a este sistema un momento magnético y enlazarlo con el momento de impulso de una partícula cargarla en movimiento. Esta última afirmación se demuestra de una manera simplísima. Supongamos que el electrón gira por una circunferencia de radio r. Puesto que la intensidad de la corriente es igual a la carga transportada en unidad de tiempo, resulta que el electrón que gira puede asemejarse a la corriente cuya intensidad es I = Ne, donde N es el número de revoluciones por segundo. La velocidad de la partícula puede relacionarse con el numero de revoluciones mediante la expresión v = .2πrN; en consecuencia, la intensidad de la corriente es igual a

Es lógico que el momento magnético del electrón que se mueve alrededor del núcleo se denomine orbital, liste será igual a

Haciendo recordar al lector (véase el libro 1) que el momento de impulso de una partícula es igual a L = mvr, pondremos en claro que entre el momento de impulso y el momento magnético tiene lugar la siguiente relación, de suma importancia para la física atómica:

De aquí se infiere que los átomos deben poseer momentos magnéticos. Valiéndose de diferentes procedimientos en que no nos detendremos es posible obtener el gas atómico de las más variadas sustancias. Por medio de dos ranuras en Gentileza de Manuel Mayo

104

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

la cámara de gas se originan haces de átomos neutros de hidrógeno, litio, berilio... Estos pueden dejarse pasar a través de un campo magnético no homogéneo y en la pantalla aparecerán las huellas del haz. El interrogante que planteamos ante la naturaleza consiste en lo siguiente: ¿se desviarán los flujos de átomos en el campo magnético de la vía recta, y, si lo hacen, entonces, de qué modo, precisamente? El átomo posee el momento orbital y, en consecuencia, se comporta a semejanza de una aguja magnética. Si el momento magnético está dirigido a lo largo del campo, el átomo debe desviarse en el sentido del campo fuerte; en el caso de disposición antiparalela, debe desviarse a la zona del campo débil. El valor de la desviación puede calcularse por la fórmula similar a la expresión para la fuerza que actúa sobre la aguja magnética la cual insertamos anteriormente. Lo primero que nos ocurre es que los momentos magnéticos de los átomos están dispuestos al azar. Y, siendo así, estamos esperando que el haz se ensanche. No obstante, la experiencia aportó resultados completamente distintos. El haz de átomos nunca se ensancha, éste se desintegra en dos, tres, cuatro y más componentes, en dependencia de la clase de los átomos. La desintegración siempre es simétrica. En algunos casos entre los componentes del haz está presente el rayo no desviado, a veces, el rayo no desviado falta, y, finalmente, también ocurre que el haz no se desintegra en general. De este experimento que, sin duda, es uno de los más importantes entre los realizados por los físicos en cualquier época se infiere, en primer término, que el movimiento de los electrones en torno al átomo se puedo asemejar, en efecto, a la corriente eléctrica cerrada. Asemejar en un sentido estrecho y completamente determinado: al igual que a las corrientes cerradas a los átomos también puede atribuirse el momento magnético. Continuamos: los momentos magnéticos de los átomos pueden formar solamente ciertos ángulos discretos con la dirección del vector de la inducción magnética. En otras palabras, las proyecciones de los momentos magnéticos sobre esta dirección se cuantifican. El hecho de que los datos habían sido vaticinados en todos los detalles resultó ser un gran triunfo de la física teórica. De la teoría se desprende que el momento de impulso y el momento magnético del electrón que deben su origen al movimiento de los electrones atómicos en el campo del núcleo (estos momentos se denominan

Gentileza de Manuel Mayo

105

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

orbitales1) son antiparalelos, y sus proyecciones sobre la dirección del campo pueden anotarse en la forma

Aquí m es un número entero que puede tomar los valores 0,1, 2, 3…; h/2π es el valor mínimo de la proyección del momento de impulso, y el valor mínimo de la proyección del momento magnético. Las magnitudes h y μB se hallan de los experimentos: h = 6,62 x 10-34 J-s μB = 0,93 x 10-25 J/T Cabe añadir, además, que estas magnitudes constantes de tanta importancia para la física llevan los nombres de los grandes científicos que colocaron los cimientos de la física cuántica: h se denomina constante de Planck. y μB, magnetón de Bohr. Sin embarco, los postulados de la mecánica cuántica resultaron ser insuficientes para poder comprender el diferente carácter de la desintegración de los haces de los átomos de distintos elementos. Hasta los átomos más simples, los átomos de hidrógeno, se comportaban de una manera inesperada. Surgió la necesidad de añadir a las leyes de la mecánica cuántica una hipótesis de extraordinaria trascendencia, la cual ya hemos mencionado de paso. Hay que atribuir al electrón (y, como se averiguó más tarde, también a cualquier partícula elemental) el momento propio de impulso y, en correspondencia, el momento magnético propio (espín). Para comprender que es inevitable asemejar el electrón a la aguja magnética tenemos que, al principio, conocer con más detalle el carácter del movimiento de los electrones atómicos. La nube electrónica del átomo

1 Esta denominación se estableció debido a causas históricas, ya que la teoría del átomo comenzó con la hipótesis de que el átomo se parece al Sistema Solar.

Gentileza de Manuel Mayo

106

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Es imposible advertir el movimiento del electrón. Más aún, no se puede esperar que el progreso de la ciencia nos conduzca a que veremos el electrón. La causa es bastante clara. Para «ver» hay que «iluminar». Pero «iluminar» significa actuar sobre el electrón con la energía de un rayo cualquiera. Mientras tanto, el electrón es tan pequeño y posee una masa tan minúscula que toda intromisión con ayuda de un instrumento o aparato para la observación conducirá inevitablemente a que el electrón abandone el lugar en que se encontraba antes. No solamente aquellos datos módicos acerca de la estructura de los átomos que vamos a comunicar ahora al lector, sino también toda la armoniosa doctrina referente a la estructura electrónica de la materia son fruto de teoría y no del experimento. No obstante, estamos seguros de su carácter fidedigno gracias a la infinita cantidad de resultados observados en el experimento que se deducen de la teoría recurriendo a razonamientos lógicos rigurosísimos. Restablecemos el cuadro de estructura electrónica que no se puede ver con el mismo grado de seguridad con que Sherlock Holmes, guiándose por las huellas dejadas por el criminal, reconstruía el cuadro del delito. El propio hecho de que el cuadro de estructura electrónica se vaticina partiendo de las mismas leyes de la física cuántica que se establecen por otros experimentos es de por sí un gran manantial de confianza hacia la teoría. Ya hemos hecho mención de que el número atómico (el número de orden) del elemento químico en la tabla de Mendeleiev no es sino la carga de su núcleo o, lo que es lo mismo el número de electrones que pertenecen al átomo neutro. El átomo de hidrógeno posee un solo electrón; el átomo de helio los tiene dos; el de litio, tres; el de berilio, cuatro, etc. ¿Cómo, en fin de cuentas, se mueven todos estos electrones? La respuesta a esta pregunta no es nada simple y sólo reviste un carácter aproximado. La complejidad del problema consiste en que los electrones interaccionan no solamente con el núcleo, sino también uno con otro. Afortunadamente, a la repulsión mutua - fenómeno que impulsa los electrones a evitar encuentros entre ellos - a este fenómeno, en todo caso, corresponde un papel menos importante que al movimiento cuya existencia se debe a la interacción del electrón con el núcleo. Precisamente esta circunstancia - y sólo ésta - permite sacar

Gentileza de Manuel Mayo

107

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

las conclusiones acerca del carácter del movimiento de los electrones en diferentes átomos. La naturaleza concedió a cada electrón una zona espacial dentro de la cual éste se mueve. De acuerdo con la forma de estas zonas, los electrones se dividen en categorías que se designan con las letras latinas s, p, d y f. El más simple es el «apartamento» del electrón s. Es una capa esférica. La teoría señala que con mayor frecuencia el electrón se halla en el centro de dicha capa. De este modo, resulta una simplificación burda hablar sobre la órbita circular de semejante electrón. La zona del espacio en que deambula el electrón p es completamente distinta. Recuerda por su forma una haltera de gimnasia. Otras categorías de electrones tienen zonas de existencia todavía más complicadas. Para cada uno de los átomos de la tabla de Mendeleiev, la teoría (en este caso ya atrayendo datos experimentales) puede indicar cuántos electrones de tal o cual clase contiene éste. Surge la pregunta si esta distribución de los electrones de acuerdo con los tipos de movimiento guarda relación con su distribución por los niveles de energía K, L, M y... de la que hemos hablado en el capítulo anterior. Sí, guarda la más directa relación. La teoría y la experiencia demuestran que los electrones pertenecientes al nivel K pueden ser sólo del tipo s; los que pertenecen al nivel L, de los tipos s y p, los del nivel M, de los tipos s, p y d, etc. No examinemos con mucho detalle la estructura electrónica de los átomos, limitándonos con la exposición de la estructura electrónica de los primeros cinco elementos de la tabla. Los átomos de hidrógeno, helio, litio y berilio tienen solamente electrones s. El átomo de boro posee cuatro electrones s y un electrón p. La simetría esférica de la zona del espacio en que viaja el electrón s pone en tela de juicio nuestros razonamientos acerca del momento magnético del átomo que contiene un solo electrón. En efecto, si el momento de impulso puede tomar valores idénticos y dirigidos con igual probabilidad en todos los sentidos, resulta que, en promedio, el momento rotacional y, por consiguiente, también el momento magnético de semejante sistema deben ser iguales a cero. A esta deducción natural

Gentileza de Manuel Mayo

108

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

llega también la física cuántica: los átomos que contienen solamente electrones s no pueden poseer momento magnético. Pero, si es así, entonces, los haces de átomos de los primeros cuatro elementos de la tabla de Mendeleiev no deben desviarse en el campo magnético no homogéneo. ¿Y cómo resulta en la realidad? En la realidad este pronóstico no se cumple para los átomos de hidrógeno y litio. Los haces de estos átomos se comportan de una forma sumamente extraña. En ambos casos el flujo de átomos se desdobla en dos componentes desviadas en direcciones contrarias y a iguales distancias respecto a la dirección inicial. ¿Es incomprensible? Momentos magnéticos de las partículas El espín del electrón hizo su aparición en las tablas en 1925. La necesidad de introducirlo entre el número de participantes en los acontecimientos desarrollados en el micromundo la demostraron Abraham Goudsmit y George Uhlenbeck. Al enunciar la hipótesis de que el electrón posee el propio momento de impulso, estos investigadores pusieron de manifiesto que se resolvían con naturalidad todos los desatinos que se habían acumulado para aquel período durante la interpretación de los espectros atómicos. Un poco más tarde se realizaron experimentos para el desdoblamiento de los haces atómicos. Y cuando se averiguó que también aquí tan sólo basándose en el concepto de espín se lograba ofrecer una explicación exhaustiva a los hechos observados, únicamente entonces los físicos dieron crédito al espín. Transcurrió un corto período y se puso al descubierto que el propio momento de impulso, o sea, espín, era una propiedad inherente no sólo al electrón, sino también a todas las partículas elementales. Ya hemos mencionado que la denominación «espín» es testimonio de la tendencia natural a la representación palmaria. Por cuanto el momento de impulso entró en la física como característica de un sólido en rotación, resultó que, después de haberse percatado de que para salvar la ley de la conservación del momento de impulso, era necesario atribuir a las partículas elementales cierto valor del momento de impulso, muchos físicos, inmediatamente, recurrieron a un cuadro patente de rotación de la partícula alrededor de su eje. Esta ingenua representación no soporta crítica alguna:

Gentileza de Manuel Mayo

109

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Se puede hablar sobre la rotación de una partícula elemental alrededor de su eje con mayor derecho que razonar acerca de la rotación alrededor de su eje de un punto matemático. Los adeptos de la representación patente, partiendo de ciertas razones indirectas, lograron evaluar las dimensiones del electrón, o, más exactamente, establecer que incluso en el caso de que este concepto es aplicable al electrón, el tamaño del mismo debe ser menor que una magnitud determinada. La magnitud del espín se conoce: insertamos su valor más adelante en este párrafo. Al suponer que el electrón tiene forma, se puede calcular con qué velocidad giran los «puntos de su superficie». Resulta que esta velocidad es mayor que la de la luz. La persistencia nos hubiera llevado a la necesidad de abandonar la teoría de la relatividad. Probablemente, el argumento más mortífero contra la representación patente sea el hecho de que el neutrón que no porta sobre sí la carga eléctrica posee espín. Mas, ¿por qué razón esto argumento es decisivo? Júzguenlo ustedes mismos. Si la partícula se hubiera podido figurar en forma de esfera cargada, su rotación en torno al eje habría originado algo como la corriente amperiana. Pero si sucede que una partícula neutra tiene un momento de impulso, así como también un momento magnético (en el libro 4 diremos varias palabras acerca de estas propiedades del neutrón), no se puede ni hablar sobre una analogía con la corriente amperiana. Por supuesto, no conviene tomar la postura de profeta vaticinando que nunca se logrará explicar el espín y el momento magnético de las partículas elementales partiendo de cierta ley más general que todavía no está descubierta (esta tarea se resuelve parcialmente por la teoría del brillante físico inglés Pablo Dirac, pero acerca de ésta no podemos dar al lector ni siquiera una noción general por ser demasiado abstracta). Sin embargo, hoy en día debemos considerar las «flechillas» que representan el momento de impulso y el momento magnético de una partícula como conceptos primarios (que no se reducen a algo más simple). Hace unos cincuenta años la mayoría de los físicos sostenían el punto de vista de Einstein quien escribió: «Toda teoría física debe ser tal que, además de cualesquiera cálculos, se la podía ilustrar con la ayuda de las más sencillas imágenes». Lamentablemente, la opinión del gran hombre resultó ser errónea. Y ya durante muchos años los físicos operan tranquilamente con teorías en las cuales figuran

Gentileza de Manuel Mayo

110

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

magnitudes susceptibles de medirse, sin que se les pueda poner en correspondencia una imagen visual. El electrón y otras partículas elementales no tienen «polos». En una serie de casos, con seguridad, hablamos de estas partículas como de puntuales, reconocemos que a las partículas elementales el concepto de forma es inaplicable, mas, a pesar de todo, tenemos que atribuir a las partículas dos propiedades vectoriales: el momento de impulso (el espín) y el momento magnético. Estos dos vectores siempre se sitúan a lo largo de una línea. En unos casos son paralelos, y en otros, antiparalelos. La experiencia demuestra que las fórmulas generales para las proyecciones del momento de impulso y el momento magnético que aducimos en páginas anteriores son válidas también para los momentos propios. Todos los experimentos, tanto los espectrales, como los concernientes al desdoblamiento de los haces atómicos en un campo magnético no homogéneo se interpretan irreprochablemente si, para el electrón, al número m en la fórmula para la proyección del momento de impulso se le permite tomar dos valores: ±½. En lo que se refiere a la fórmula para la proyección del momento magnético, aquí el número m puede tomar dos valores: ±1. El espín del electrón tiene el valor numérico igual a ½ (h/2π) y puede disponerse tan sólo en dos direcciones: a lo largo del campo y en contra del campo. En cuanto al momento magnético del electrón, éste, siguiendo al espín, también puede tener únicamente dos orientaciones en el campo, y su valor numérico es igual a un magnetón de Bohr. Ahora pasemos a explicar los resultados de los experimentos con los haces atómicos. Demostremos cuán fácilmente se esclarecen todas las particularidades del desdoblamiento de los haces atómicos valiéndose del concepto de espín. En efecto, ¿cómo se puede comprender el fenómeno de que los haces de los átomos de helio y de berilio no se desdoblan? Este fenómeno se comprende así. Los electrones de estos átomos carecen de momento orbital, y la causa de ello reside en que pertenecen a la «clase» s. Y en lo que respecta a los espines de los electrones éstos miran hacia lados opuestos. Hablando con propiedad, esta afirmación no deriva de ninguna parte, aunque, intuitivamente, se nos representa por completo

Gentileza de Manuel Mayo

111

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

natural. El principio según el cual el par de electrones en el átomo se dispone de tal manera que las direcciones de sus espines sean opuestas se denomina principio de exclusión y lleva el nombre de Wolfgang Pauli (1900 - 1958) quien lo formuló. ¡Cuántas hipótesis...! Si, no son pocas. Pero todas ellas, en conjunto, forman el armonioso edificio de la física cuántica de la cual derivan tantas consecuencias que, ni asomo de duda queda, en cuanto a la justeza de la tesis de que al electrón se debe atribuir el espín, que el valor del número de espín debe tomarse igual a 1/2 y que los espines del par de electrones se deben subordinar al principio de exclusión de Pauli; sí, no hay físico alguno que tenga la menor duda al respecto. La suma de estas hipótesis refleja la estructura del micromundo. Volveremos a nuestros haces atómicos. Hemos explicado por qué no se desdoblan los haces de los átomos de helio y de berilio. Bueno, ¿y cómo se comportan el hidrógeno y el litio? El hidrógeno tiene un solo electrón. El momento orbital de este es igual a cero, por cuanto es un electrón s. La proyección del espín del electrón puede tomar tan sólo dos valores: ± 1/2, es decir, el espín puede disponerse en contra o a lo largo de la dirección del campo magnético. Precisamente por esta razón el flujo de átomos se desintegrará en dos componentes. Lo mismo ocurrirá a los átomos de litio debido a que dos electrones «equilibrarán» sus espines, mientras que el tercero se comportará de la misma manera que el único electrón del átomo de hidrógeno. Absolutamente análoga será la conducta de los átomos de otros elementos que contienen en la envoltura superior un electrón no apareado. Tendría que mencionar, sin demostración, algunos otros teoremas que se demuestran en la física cuántica con el fin de explicar, para los átomos de otros elementos, la desintegración en un gran número de componentes. Teniendo en cuenta el hecho de que sólo los electrones s no poseen momento orbital y que el espín del electrón se manifestará únicamente en el caso de que el electrón se encuentre solitario en su nivel de energía, los físicos lograron explicar, en su totalidad el comportamiento de los flujos de átomos de todas las especies. Al estudiar este sugestivo capítulo de la física incluso el más empedernido escéptico se cerciorará de que todas las hipótesis admitirlas por la física cuántica son leyes generales de la naturaleza.

Gentileza de Manuel Mayo

112

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Temo que muchos lectores no queden satisfechos con estas frases. Está claro que tan sólo los experimentos referentes a la desviación de los haces atómicos en el campo magnético no homogéneo no bastan, de por sí para introducir el concepto tan «raro» como es el espín. Pero nuestro libro es demasiado chico para que yo pueda aducir la colosal cantidad de datos los cuales requieren conceder al espín la carta de naturaleza. ¿Qué vale, por ejemplo, el fenómeno de resonancia magnética que no tiene nada que ver con lo expuesto anteriormente? En este fenómeno las ondas radioeléctricas de diapasón centimétrico se absorben por la sustancia cuando éstas tienen que volver el espín. La energía de interacción entre el momento magnético del electrón y el campo magnético constante en que se coloca la sustancia en los experimentos de resonancia magnética y, por consiguiente, también la diferencia de dos energías (disposición paralela y disposición antiparalela) se calculan sin dificultad. Esta diferencia es igual al cuanto de la onda electromagnética que se absorbe. Determinamos con enorme precisión el valor de la frecuencia de onda a partir del experimento y nos convencemos de la absoluta coincidencia de este valor con aquel que hemos calculado al conocer la inducción del campo y el momento magnético del electrón. Es admirable que los mismos acontecimientos, pero, naturalmente en otro diapasón de las longitudes de onda se observen para los núcleos atómicos. La resonancia magnética nuclear es el método importantísimo de estudio de la estructura química de la sustancia. Antes de seguir adelante sería, tal vez, útil hacer el balance de la totalidad de los hechos concernientes a los sistemas que crean el campo magnético y responden a la presencia del campo magnético. Subrayemos

otra

vez

que

la

hipótesis

de

Ampère

resultó

ser

justa

sólo

parcialmente: los campos magnéticos son engendrados no sólo por las cargas eléctricas en movimiento. Otro manantial del campo magnético son las partículas elementales y, en primer lugar, los electrones que poseen el momento magnético propio. La clasificación técnica de interacciones dada en páginas anteriores resulta imperfecta. Los campos magnéticos se engendran por imanes naturales y artificiales, por corrientes eléctricas (incluyendo los flujos de partículas eléctricas en

Gentileza de Manuel Mayo

113

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

el vacío) y por partículas elementales. Estos mismos sistemas, así como las partículas están sujetos a la acción del campo magnético. La magnitud principal que caracteriza el campo magnético y sus acciones es el vector del momento magnético, en el caso de las corrientes este vector viene determinado por la forma del circuito con corriente. El momento de la aguja guarda una relación compleja con la estructura atómica de la materia, mas no es difícil medirlo. Los electrones que se mueven en el campo del núcleo poseen el momento magnético «orbital» como si (fíjense, por favor, en este «como si») su movimiento alrededor del núcleo crease la corriente eléctrica. Y, finalmente, el momento magnético propio es una propiedad primaría que caracteriza las partículas elementales. Para que estos datos fundamentales se graben mejor en su memoria se inserta la fig. 3.6. Esta figura es el balance de nuestros conocimientos de hoy sobre el «alma» magnética, o bien, si quiere, sobre el corazón magnético. (Es que en francés la palabra «aimant», imán, significa, al mismo tiempo, «amante».) Desafortunadamente, no es sino un juego de palabras y, en la realidad, es un vocablo de procedencia griega que tiene parentesco con la palabra «diamante». Examinen este dibujo con atención, desde arriba hacia abajo. Su objetivo es ayudar a entender que la corriente macroscópica, el imán en forma de barra, el movimiento orbital del electrón y el propio electrón, todos ellos se caracterizan por un mismo concepto físico: el momento magnético. Inducción electromagnética La experiencia demuestra que el haz de electrones que se mueven en un campo magnético se desvía del trayecto rectilíneo. Como hemos dicho anteriormente la fuerza en cuestión que recibió el nombre de fuerza de Lorentz está dirigida perpendicularmente a las líneas de inducción y al vector de velocidad de los

Gentileza de Manuel Mayo

114

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

electrones. Su magnitud se determina por la fórmula F = evB. Es la más simple expresión de la fuerza de Lorentz válida para el caso en que la velocidad de los electrones y la dirección del campo magnético forman un ángulo recto. Si a esto hecho se añade nuestra seguridad de que en un conductor metálico se contienen electrones libres, entonces, por medio de sencillos razonamientos llegamos a la conclusión de que con ciertos movimientos de los conductores en el campo magnético en éstos debe aparecer la corriente eléctrica. Dicho fenómeno que, podernos decirlo, forma la base de toda la técnica moderna, lleva el nombre de inducción electromagnética. Ahora vamos a deducir la ley a la que aquélla se subordina.

Figura 3.7 En la fig. 3.7 se representa un circuito conductor que no es sino una barra metálica AC de longitud l que se desliza por los cables metálicos y puede desplazarse entre los polos del imán sin alterar el carácter cerrado del circuito. Si la barra se desplaza perpendicularmente a las líneas de inducción del campo magnético entonces, sobre los electrones del conductor actuará la fuerza y por el circuito fluirá la corriente eléctrica.

Gentileza de Manuel Mayo

115

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Llegamos a la conclusión cuya importancia es imposible sobreestimar: la corriente eléctrica puede surgir en un conductor cerrado aunque al circuito no está conectado un acumulador u otro manantial de corriente. Calculemos la fuerza electromotriz, es decir, el trabajo necesario para trasladar una unidad de carga a lo largo del circuito cerrado. El trabajo es igual el producto de la fuerza por el recorrido y se efectúa tan sólo en el tramo que se desplaza en el campo. La longitud del recorrido es igual a l y la fuerza por unidad de carga es igual a vB. La fuerza electromotriz aparecida se denomina f.e.m. de inducción. Su valor se determina por la fórmula ξind = vBl Es deseable generalizar esta fórmula de modo que ésta sea apropiada para cualquier movimiento de cualesquiera circuitos conductores. Llegaremos a esta generalización de la siguiente manera. En el tiempo τ la barra conductora se ha desplazado en la longitud x, siendo la velocidad de movimiento v igual a x/τ. El área del circuito conductor ha disminuido en la magnitud S = xl. La expresión de la f.e.in. de inducción adquiere la forma ξind = BS/τ ¿Pero, cuál es el sentido del numerador de la fórmula? Este es completamente evidente: BS es la magnitud en que cambió el flujo magnético (el número de líneas de inducción) que atraviesa el circuito. Por supuesto, nuestra demostración se da para un caso muy sencillo. Pero el lector me debe creer de palabra que esta demostración puede llevarse a cabo con absoluta rigurosidad para cualquier ejemplo. La fórmula obtenida tiene el valor más general y la ley de la inducción electromagnética se formula así: la f.e.m. de inducción aparece siempre en el caso de que varía el número de líneas de inducción que atraviesa el circuito. En este caso el valor de la f.e.m. de inducción es numéricamente igual a la variación del flujo magnético por unidad de tiempo.

Gentileza de Manuel Mayo

116

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Existen también tales desplazamientos del circuito en el campo magnético para los cuales la corriente no aparece. No habrá corriente si el circuito se mueve en un campo homogéneo paralelamente a las líneas de inducción. En cambio, si el circuito gira en un campo magnético homogéneo, entonces, la corriente se engendra. La corriente también aparecerá si el circuito se acerca o se aleja respecto al polo de un imán en forma de barra. La experiencia demuestra, además, que la generalización que hemos formulado es todavía más significativa. Hasta ahora se trataba de los casos en que el circuito de corriente y el manantial del campo magnético cambiaban su disposición recíproca. La última fórmula que hemos deducido no dice nada acerca del movimiento. Esta versa tan sólo sobre la variación del flujo magnético. Sin embargo, es que la variación del flujo magnético a través de un circuito conductor no requiere obligatoriamente una traslación.

Figura 3.8 Efectivamente, se puede tomar como manantial del campo magnético no un imán permanente, sino un carrete dejando pasar por éste corriente eléctrica proveniente de cualquier fuente extrínseca. Valiéndose de un reóstato o empleando cualquier otro procedimiento es posible variar la intensidad de la corriente en este carrete Gentileza de Manuel Mayo

117

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

primario que es la fuente del campo magnético. En este caso, el flujo magnético que atraviesa el circuito cambiará, siendo invariable la disposición de la fuente del campo magnético (fig. 3.8.). En estas circunstancias, ¿será también válida nuestra generalización? La experiencia da respuesta a esta pregunta. Y la respuesta resulta positiva. Independientemente de la forma en que cambia el número de las líneas de inducción la fórmula de la f.e.m. sigue en pie. Dirección de la corriente de inducción Ahora vamos a señalar que existe una sencilla regla universal concerniente a la dirección de las corrientes de inducción que se engendran. Examinemos varios ejemplos para sacar luego una conclusión general. Al volver a la fig. 3.7 prestemos atención al siguiente hecho. Si disminuimos el área del circuito el flujo magnésico que lo atraviesa también disminuye. La dirección de la corriente mostrada en la figura es tal que el momento magnético de la corriente aparecida está orientado a lo largo de las líneas de inducción. Este hecho significa que el campo propio de la corriente inducida está dirigido de tal modo que tiende a «impedir» la reducción del campo magnético. Llegaremos a la misma conclusión también para el caso inverso. Si el área del circuito aumenta, también aumentará el flujo que atraviesa el circuito. Pero ahora el momento magnético del circuito mirará contra las líneas de inducción. Es decir, otra vez el campo de la corriente de inducción engendrada obstaculiza la acción que la llamó a la vida. Otro ejemplo. Supongamos que nuestro circuito se sitúa entre los polos del imán de tal modo que el flujo que lo atraviesa es igual a cero. Comencemos a girar el circuito en el sentido de las agujas del reloj, así como en el sentido contrario. Los dos casos se ilustran en la fig. 3.9. La línea llena designa la proyección del circuito en la posición inicial, y la línea de trazos representa las proyecciones del circuito en la posición de giro, cuando apareció la corriente eléctrica. Utilizando el esquema vectorial dado en la fig. 3.3, a la izquierda, hallamos la dirección de las corrientes de inducción que se originan en ambos casos.

Gentileza de Manuel Mayo

118

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Durante el giro en el sentido de las agujas del reloj el momento magnético de la corriente de inducción mira hacia abajo, y al girar en el sentirlo antihorario, mira hacia arriba.

Figura 3.9 A medida que aumenta el ángulo de giro el campo magnético propio del circuito hace disminuir cada vez en mayor grado el campo que fue la causa de la inducción. De este modo vamos que también aquí funciona la misma regla. Ahora veamos cómo se comportarán los circuitos en los campos no homogéneos. Retornemos a la fig. 3.8. Supongamos que la intensidad de la corriente en la bobina es invariable y analicemos qué sucederá durante el desplazamiento del circuito. Si el circuito se acerca al polo norte, el momento magnético mirará en contra de las líneas de fuerza. Si el circuito se alejase, el campo propio de la corriente inducida intensificaría a éste. Semejante comportamiento puede demostrarse valiéndose del mismo esquema vectorial. ¿Y cómo se desarrollarán los acontecimientos en el caso de campos magnéticos originados por corrientes alternas? El aumento o la disminución de la intensidad de la corriente en la bobina primaria, da lugar a la variación del flujo de las líneas de

Gentileza de Manuel Mayo

119

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

inducción del campo magnético. En el circuito (véase otra vez la fig. 3.8) aparece la f.e.m. ¿Y de qué manera puede determinarse la dirección de la corriente? En este caso ya no se puede hacer uso del esquema vectorial, por cuanto no hay movimiento. Es aquí, precisamente, donde nos servirá nuestra generalización. Resulta que también en esta ocasión la dirección de la corriente de inducción engendrada debido a la disminución o el aumento del número de líneas de inducción del campo magnético que atraviesan el circuito se subordinará a aquella misma regla: la corriente de inducción engendrará un campo que parece como si compensara la variación del campo magnético que fue la causa de la inducción. Algunas palabras acerca de la historia del descubrimiento de la ley de la inducción electromagnética El descubrimiento del fenómeno de la inducción electromagnética se incluye entre aquellos acontecimientos que se pueden contar con los dedos y que ejercieron una influencia decisiva en el progreso de la humanidad. Esta es la razón de que sería imperdonable no detenernos en la historia de este descubrimiento. El mismo fue hecho mucho antes de que se investigó el comportamiento del haz de electrones en el campo magnético, y el curso histórico de los acontecimientos no coincide, en modo alguno, con el orden de exposición que hemos elegido en el párrafo anterior: la lógica y la secuencia del pensamiento no están obligadas, ni mucho menos, a ir en paralelo al desenvolvimiento histórico de los sucesos. Para el momento en que Faraday comenzó sus experimentos que llevaron al descubrimiento de la inducción electromagnética la situación en el estudio teórico de los campos eléctricos y magnéticos tomó el siguiente cariz. La obtención de la corriente continua y las leyes generales de su comportamiento en los circuitos eléctricos ya no representaban para los físicos serios problemas. Se estableció ya la acción de la corriente en el imán permanente y la interacción de las corrientes entre sí. Quedó claro que la corriente continua engendra a su alrededor un campo magnético que puede medirse tanto con la ayuda de un imán, como haciendo uso de otra corriente. Entonces, cabía preguntar: ¿y si existe un fenómeno inverso? ¿no es que el campo magnético engendra corriente en un conductor?

Gentileza de Manuel Mayo

120

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

En 1821 Faraday deja en su diario el siguiente apunte: «Convertir el magnetismo en electricidad». El gran sabio necesitó un lapso de diez años para lograr el éxito.

Miguel Faraday (1791 - 1867), gran físico ingles. Le pertenece el descubrimiento del fenómeno de la inducción electromagnética (1831). Este descubrimiento Faraday lo hizo no por casualidad, lo buscó. Las leyes de la inducción electromagnética de Faraday forman la base de la electrotecnia. Es difícil sobrestimar el valor de las leyes de la electrólisis, establecidas por Faraday. El gran hombre de ciencia introdujo en uso y dilucidó los términos tan comunes hoy en día como ánodo, cátodo, anión, catión, ion y electrólito. Faraday demostró que el medio influye en la interacción eléctrica. No se puede dejar de mencionar el descubrimiento de la rotación magnética del piano de polarización. El hecho de que todos los cuerpos pertenecen ya sea a los paramagnéticos, o bien, a los diamagnéticos también lo estableció Faraday. El mundo no conoció otro físico experimentador tan grande como fue Faraday. Los muchos años de mala suerte encontraron la explicación en el hecho de que Faraday trataba de obtener la corriente colocando el conductor en un campo permanente. En 1831 los esfuerzos tenaces del científico se coronaron con éxito. El fragmento que citamos a continuación tomado de un artículo de Faraday perteneciente al año 1831 representa la primera descripción del fenómeno descubierto:

Gentileza de Manuel Mayo

121

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

«Sobre un ancho carrete de madera fue arrollado alambre de cobre de 203 pies de longitud y entre sus espiras se arrolló alambre de igual longitud aislado del primero por hilo de algodón. Una de estas espirales estaba conectada al galvanómetro y la otra con una potente pila... Al cerrar el circuito se lograba ver una acción súbita, pero bastante débil sobre el galvanómetro, y lo mismo se observaba al interrumpirse la corriente. En cambio, durante el paso ininterrumpido de la corriente a través de una de las espirales no se ponía de manifiesto una acción sobre el galvanómetro, ni, en general, acción alguna sobre otra espiral, a pesar de que el calentamiento de toda la espiral conectada a la pila, así como la brillantez de la chispa que saltaba entre los carbones eran testimonio de la potencia de la pila». El descubrimiento del fenómeno de la inducción electromagnética fue la primera etapa de la labor de Faraday que duró cuatro lustros y cuya finalidad era hallar la ligazón única entre todos los fenómenos eléctricos y magnéticos. Sin embargo, al hablar sobre la inducción electromagnética es necesario hacer mención también de los nombres de otros físicos relevantes. Al norteamericano Joseph Henry (1797 - 1878) pertenece el descubrimiento del fenómeno de autoinducción. Si la corriente que fluye por el carrete varía, varía también el campo magnético producido por esta corriente, varía el flujo del campo que pasa a través del propio carrete y se induce la f.e.m. en su «propio» circuito. ¿Y quién fue el que descubrió la ley de la dirección de la f.e.m. de inducción? La más completa respuesta a esta pregunta se puede encontrar en los trabajos de Lenz. La regla de Lenz determina la dirección de la corriente de inducción: «Si un conductor metálico se desplaza en la proximidad de una corriente o de un imán, entonces, en esto conductor se engendra la corriente galvánica. La dirección de dicha corriente es tal que un alambre en reposo, por efecto de la misma, se hubiera puesto en movimiento directamente opuesto a la traslación real. Se supone que el alambre puede desplazarlo en dirección del movimiento real o en el sentido directamente contrario».

Gentileza de Manuel Mayo

122

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Después de 1840, paulatinamente, paso a paso, se crea el cuadro único del electromagnetismo. El descubrimiento de las ondas electromagnéticas es el último y, quizás, el más brillante trazo en este cuadro. Corrientes de inducción en torbellino Por cuanto las corrientes de inducción pueden surgir en conductores de alambre es también bastante lógico que éstas aparezcan en trozos de metal macizos y hechos de una pieza. Cada trozo de metal contiene electrones libres. Si el metal se desplaza en un campo magnético permanente, entonces, sobre los electrones libres actuará la fuerza de Lorentz. Los electrones describirán trayectorias circulares, es decir, engendrarán corrientes en torbellino. Este fenómeno lo descubrió en 1855 el físico francés León Foucault (1819-1868). Las leyes de la inducción electromagnética son igualmente justas en tanto en el caso de que el flujo magnético varíe debido al desplazamiento relativo del metal y la fuente del campo, como en el caso de que la variación del campo magnético ocurra a raíz de la variación de la corriente eléctrica que origina el campo. Por esta razón, las corrientes de Foucault se manifiestan no sólo cuando tiene lugar el movimiento relativo (el experimento más brillante es el con una moneda a la que se hace caer entre los polos de un fuerte imán; la moneda no cae con una aceleración ordinaria, sino de tal forma como si la caída tuviese lugar en un aceite viscoso: el sentido del experimento es evidente: en la moneda aparecen las corrientes de Foucault cuya dirección, de acuerdo con la regla de Lenz es tal que su interacción con el campo magnético primario frena aquel movimiento que origina la inducción), sino también cuando el campo magnético varía en el tiempo. Entre las aplicaciones útiles de las corrientes de Foucault pueden mencionarse las siguientes. En primer lugar, las corrientes de Foucault se utilizan en los llamados hemos de inducción para un fuerte calentamiento y hasta la fundición de los metales. En secundo lugar, en muchos instrumentos de medida estas corrientes proporcionan la «atenuación magnética». Un invento ingenioso (es ya en tercer lugar) es el contador de la energía eléctrica. Por supuesto, usted ha visto que su parte principal es un disco giratorio. Cuantas

Gentileza de Manuel Mayo

123

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

más bombillas u hornillos eléctricos se conectan con tanta mayor velocidad gira el disco. El principio de la estructura del contador consiste en que se crean dos corrientes. Una de éstas fluye por el circuito paralelo a la carga, y la otra, en el circuito de la corriente de carga. Estas dos corrientes circulan por los carretes asegurados sobre núcleos de hierro y se denominan precisamente así: «carrete de Volta» y «carrete de Ampère». La corriente alterna imanta los núcleos de hierro. Puesto que la corriente es alterna los polos de los imanes eléctricos cada vez se alternan. Entre éstos parece como si corriese el campo magnético. Los carretes se sitúan de modo que el campo magnético en movimiento producido por los dos, forme en el seno del disco corrientes en torbellino. La dirección de estas corrientes en torbellino será tal que el campo magnético en movimiento arrastra en pos suyo el disco. La velocidad de rotación del disco dependerá de los valores de la corriente en los dos carretes. Esta velocidad, como puede demostrarse por medio de cálculos exactos, será proporcional al producto de la intensidad de la corriente por la tensión y por el coseno del desfasaje, en otras palabras, a la potencia consumida. No nos detendremos en los sencillos procedimientos mecánicos que permiten enlazar el disco en rotación con el indicador de cifras. Sin embarco, en la mayoría de los casos se trata de deshacerse de las corrientes de Foucault. Es uno de los problemas de desvelo de los diseñadores de las máquinas eléctricas de cualquier tipo. Al igual que todas las corrientes las de Foucault absorben la energía del sistema. En este caso, además, las pérdidas pueden ser tan considerables que surge la necesidad de recurrir a toda clase de artimañas. El método más simple de lucha contra las corrientes de Foucault es la sustitución en las máquinas eléctricas de los trozos macizos de metal por material en chapas. En este caso las corrientes parásitas no tienen dónde «desplegarse», su intensidad se reduce considerablemente y, en correspondencia, disminuyen las pérdidas en calor. No hay duda de que el lector se fijaba en el calentamiento de los transformadores. Y este calentamiento por lo menos al cincuenta por ciento se debe a las corrientes en torbellino. Choque de inducción

Gentileza de Manuel Mayo

124

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Valiéndose del fenómeno de inducción electromagnética se pueden elaborar métodos sumamente perfectos de medición del campo magnético. Hasta el momento recomendamos utilizar para este fin la aguja magnética o un circuito magnético de prueba por el cual fluye la corriente eléctrica continua de intensidad conocida. La inducción magnética se determinaba por el momento de fuerza la cual actúa sobre el circuito de prueba o la aguja cuyo momento magnético es igual a la unidad. Ahora procedamos de otra manera. Conectemos a un instrumento de medición una diminuta espira del conductor bajo corriente. Coloquemos la espira en la posición perpendicular a las líneas de inducción y, seguidamente, con un movimiento rápido le damos vuelta a 90°. Durante el tiempo de giro por la bobina fluirá la corriente de inducción y pasará una cantidad completamente determinada de electricidad Q que puede medirse. ¿De qué modo esta cantidad de electricidad estará relacionada con la magnitud del campo en el punto en que colocamos la espira de prueba? El cálculo es bastante sencillo. De acuerdo con la ley de Ohm la intensidad de la corriente I es igual al cociente de la división de la f.e.m. de inducción por la resistencia, o sea

Si hacemos uso de la expresión para la ley de la inducción ξind = BS/τ y tomamos en consideración que Q = Iτ (I se toma como invariable), la inducción magnética resultará igual a

Volvemos a repetir que esta fórmula, por supuesto, es válida en el caso de que en la posición final la línea de inducción no atraviese la espira y en la posición inicial

Gentileza de Manuel Mayo

125

Preparado por Patricio Barros

Física para Todos III– Electrones

corta

el

área

de

la

www.librosmaravillosos.com

espira

formando

un

A. I. Kitaigorodski

ángulo

recto.

Desde

luego,

es

completamente indiferente que resulta ser la posición final y qué la inicial. Debido al cambio sólo variará en dirección de la corriente, pero no la cantidad de electricidad que pasó a través del circuito. La sensibilidad de este método de medición aumentará n veces si en lugar de una espira se toma una bobina. La cantidad de electricidad será proporcional al número de espiras n. Los experimentadores hábiles se las ingenian para hacer bobinas de un milímetro de tamaño, de modo que, empleando el método de choque de inducción, se puede sondear el campo con bastante detalle. Sin embargo, la mayor significación este método la tiene, probablemente, en la medición de la permeabilidad magnética de los cuerpos de hierro. Ahora hablaremos sobre esta importante propiedad del hierro. Permeabilidad magnética del hierro Como hemos esclarecido en el capítulo anterior los átomos acusan propiedades magnéticas.

Los

electrones

solitarios

poseen

el

momento

magnético

y

el

movimiento de los electrones alrededor del núcleo origina momentos magnéticos orbitales. Los núcleos de los átomos tienen momentos magnéticos. Por esta razón, la introducción de un cuerpo en el campo magnético debe afectar el aspecto del campo y, por el contrario, la presencia del campo magnético influirá en uno u otro grado sobre el comportamiento de las sustancias sólidas, líquidos y gaseosas. Unas propiedades magnéticas extraordinariamente relevantes las acusan el hierro, algunas de sus aleaciones y ciertas sustancias afines al hierro. Esta pequeña clase de sustancias lleva el nombre de ferromagnéticos. Pueden realizarse, por ejemplo, los siguientes experimentos: colgar en un hilo pequeñas varillas, de tamaño de un fósforo, y acercarlos un imán. Cualesquiera que sean otras materias utilizadas para hacer los varillas: madera, vidrio, plásticos, cobre, aluminio..., el acercamiento a éstas de un imán no ayudará a revelar las propiedades magnéticas de estas sustancias. Para demostrar la existencia de propiedades magnéticas en cualesquiera sustancias deben llevarse a cabo unos experimentos muy finos y escrupulosos, de los que hablaremos más tarde.

Gentileza de Manuel Mayo

126

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Pero los cuerpecitos de hierro se comportarán de una forma completamente diferente. Se moverán, obedientes, tras el más débil imán escolar en forma de barra. Para que el lector pueda juzgar cuán sensibles son los cuerpos constituidos por hierro frente a la presencia del campo magnético, voy a contar una historia aleccionadora en todos los sentidos cuyo protagonista fue yo mismo. Hace algunos años me pidieron que tomase conocimiento de los experimentos de un «taumaturgo» checo que se granjeó la fama mundial y a quien los gacetilleros norteamericanos ávidos de noticias sensacionales llamaron «Merlín checo», este individuo tenía en su repertorio varias decenas de experimentos los cuales, supuestamente, no se podían explicar de modo racional. Entre tanto, el propio Merlín checo atribuía los resultados de estos experimentos a su fuerza de sugestión. Uno de sus números cumbre fue la magnetización de una cerilla de madera. Primeramente, mostraba que la cerilla de madera suspendida de un hilo no se desviaba por el imán. Acto seguido, comenzaba a «hipnotizar» la cerilla haciendo ciertos pases misteriosos. Un elemento indispensable de este espectáculo era poner la cerilla en contacto con un «ídolo» metálico que, como explicaba Merlín, servía de receptor de su energía psíquica. Dedicando un par de semanas a este asunto demostré que todos los experimentos, sin excepción, del mago checo tenían una explicación racional. Pero ¿cómo conseguía imantar la cerilla? ¿Cómo lograba que después de todos sus pases otra vez colgada al misino hilo, la cerilla comenzaba a seguir obedientemente al imán? El asunto residía en lo siguiente. Al entrar en contacto con el «ídolo» metálico, al extremo de la cerilla pasaba una cantidad ínfima de polvo de hierro. Demostré que bastaba una treinta millonésima parte de gramo de hierro para que la cerilla adquiriese

propiedades

magnéticas

notables.

He

aquí

el

segundo

caso

de

«experimentos con cucarachas». Este ejemplo muestra con bastante claridad que, en primer término, no se debe dar crédito a los «milagros» que contradicen las leyes de la naturaleza, y que, en segundo término - y es precisamente esto hecho el que nos interesa - las propiedades magnéticas del hierro son completamente singulares.

Gentileza de Manuel Mayo

127

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

El experimento clásico que permite definir las propiedades magnéticas del hierro se lleva a cabo de la siguiente manera. Se compone un circuito eléctrico a base de dos bobinas puestas una sobre otra. La bobina primaria está conectada al circuito del acumulador, y la secundaria se conecta al aparato que mide la cantidad de electricidad. Si se cierra el circuito primario, el flujo magnético a través de la bobina secundaria cambiará desde el valor cero hasta cierto valor límite Φ0. El flujo puede medirse con gran precisión empleando el método de choque de inducción. El estudio de las propiedades magnéticas de la sustancia se realiza, precisamente, con la ayuda de la instalación cuya descripción acabamos de presentar. Se prepara una barra que se introduce dentro de la bobina. Se comparan los resultados de dos mediciones: sin la barra y con la barra. En el caso de que la barra está confeccionada de hierro o de otros materiales ferromagnéticos la cantidad de electricidad medida con el aparato aumenta varios miles de veces. Como característica de las propiedades magnéticas del material puede tomarse la relación entre los flujos magnéticos medidos en presencia de la barra y cuando ésta falta. Dicha relación, o sea, μ = Φ/Φ0 lleva el nombre de permeabilidad magnética de la sustancia. Resumiendo, podemos decir: el cuerpo de hierro aumenta bruscamente el flujo de líneas de inducción. Este hecho puede tener una sola explicación: el propio cuerpo de hierro añade al campo magnético de la corriente eléctrica de la bobina primaria su propio campo magnético. La diferencia Φ - Φ0 se designa habitual mente con la letra J. De este modo, J = (μ – 1) Φ0 es un flujo magnético adicional creado por la propia sustancia. Una vez terminado el experimento para medir la permeabilidad magnética y sacada la barra de la bobina descubrimos que la barra de hierro conserva la magnetización. Esta será menor que J, sin embargo, sigue siendo bastante considerable. El magnetismo remanente de la barra de hierro puede eliminarse. Con este fin la barra en cuestión debe introducirse otra vez en nuestra instalación, pero ya de tal forma que el campo propio del metal y el campo de la corriente eléctrica de la

Gentileza de Manuel Mayo

128

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

bobina primaria están dirigidos hacia los lados opuestos. Siempre se logra elegir una corriente primaria tal que con la ayuda del choque de inducción de dirección contraria se consigue quitar las propiedades magnéticas del hierro llevándolo al estado inicial. Debido a razones históricas en las cuales no nos detendremos, la magnitud del campo desmagnetizante lleva el nombre de fuerza coercitiva. Esta propiedad peculiar de los materiales ferromagnéticos de conservar el magnetismo en ausencia de la corriente y la posibilidad de eliminar este magnetismo remanente por medio de la corriente eléctrica de correspondiente dirección se llama histéresis. ¿Cuál es la procedencia de esta palabra? No es difícil comprenderlo. Procede de la palabra griega «hysteresis» que significa «retraso». En dependencia de los requisitos técnicos surge la necesidad de materiales magnéticos con diferentes propiedades. El valor de de la aleación magnética «permalloy» se aproxima a 100 000 y los valores máximos de μ para el hierro dulce son cuatro voces menores. La posibilidad de aumentar el flujo de líneas de inducción un enorme número de veces, al colocar el cuerpo de hierro dentro de una bobina de alambre, lleva a la creación de imanes eléctricos. Se sobreentiende que la potencia del imán eléctrico, es decir, su capacidad de atraer y retener cuerpos de hierro de masa grande crece con el aumento de la corriente que se hace pasar por el devanado del mismo. Este proceso no es ilimitado: existe el fenómeno de saturación, cuando los recursos internos del núcleo ferromagnético resultan agotados. Al alcanzar cierta frontera de temperatura (por ejemplo, 767 °C para el hierro y 360 °C para el níquel) las propiedades ferromagnéticas desaparecen y la permeabilidad magnética se hace próxima a la unidad, como en todos los demás cuerpos. Dominios Las peculiaridades de los ferromagnéticos se explican por su estructura de dominios. El dominio es una zona magnetizada hasta el límite. Dentro del dominio todos los átomos están alineados de tal modo que sus momentos magnéticos resultan ser paralelos unos a otros. El comportamiento de los dominios magnéticos es completamente análogo al de los dominios eléctricos en los materiales ferroeléctricos. Las dimensiones lineales de los

Gentileza de Manuel Mayo

129

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

dominios magnéticos no son tan pequeñas, a saber, son del orden de 0,01 mm. Esta es la razón de que con un artificio no complicado se logra ver los dominios valiéndose de un microscopio común y corriente. Para lograr que los dominios magnéticos se hagan visibles, a la superficie pulida de un monocristal ferromagnético se aplica una gota de una suspensión coloidal que no es sino una sustancia ferromagnética escrupulosamente triturada del tipo de magnetita. Las partículas coloidales se concentran cerca de las fronteras de los dominios,

puesto

que

a

lo

largo

de

éstas

los

campos

magnéticos

son

particularmente intensos (de una manera completamente análoga los imanes ordinarios agrupan las partículas magnéticas en las zonas próximas a sus polos). Al igual que en los ferroeléctricos, los dominios en los materiales ferromagnéticos existen no sólo en presencia del campo magnético externo, sino también cuando la muestra no está imantada. Los dominios en el monocristal no magnetizado se disponen de tal forma que el momento magnético total resulta ser igual a cero. Sin embargo, de aquí no se infiere que la disposición de los dominios es caótica. Otra vez, en completa analogía con lo expuesto en la pág. 68, el carácter de la estructura cristalina impone algunas direcciones en que para los momentos magnéticos resulta más fácil alinearse. Los cristales del hierro tienen la celdilla elemental cúbica y las direcciones de la magnetización más fácil son los ejes del cubo. Para otros metales ferromagnéticos los momentos magnéticos se orientan a lo largo de las diagonales del cubo. En un cristal no imantado se tiene igual cantidad de dominios con los momentos magnéticos dirigidos hacia un lado y de dominios con los momentos magnéticos orientarlos hacia el lado opuesto. Ya hemos aducido ejemplos de estructura de dominios en la fig. 2.5. La magnetización, al igual que la polarización, consiste en que se «devoran» los dominios cuyos momentos están situados formando un ángulo obtuso con el campo. La lucha de las tendencias al orden y al desorden en la disposición de los átomos es una particularidad indispensable de cualquier estado de la sustancia. Sobre el particular se trata detalladamente en el libro del mismo autor editado en ruso: «El orden y el desorden en el inundo de los átomos».

Gentileza de Manuel Mayo

130

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Como ya se ha aclarado en el libro 2 de la «Física para todos», la tendencia al orden es tendencia al mínimo de energía. Si el movimiento térmico es insignificante, entonces, las partículas dejadas a seguir su libre albedrío forman una maravilla de la arquitectura atómica que es el cristal. El cristal es el símbolo del orden perfecto en el mundo de los átomos. Y la tendencia al desorden sé dicta por la ley del crecimiento de la entropía. Cuando crece la temperatura, las tendencias entrópicas vencen, y el desorden llega a ser la forma dominante de existencia de la materia. En el caso de los materiales ferromagnéticos los asuntos se presentan de la siguiente manera. A medida que asciende la temperatura los momentos magnéticos comienzan a oscilar. Al principio, esta oscilación transcurre al unísono, sin alterar el orden, luego, ora uno, ora otro átomo se revuelcan ocupando una posición «incorrecta»» El número de estos átomos que «abandonaron la fila» crece de un momento al otro y, finalmente, a una temperatura estrictamente determinada (temperatura o punto de Curie) tiene lugar la completa «fusión» del orden magnético. En este libro a mí me es difícil explicar por qué una cantidad tan insignificante posee propiedades ferromagnéticas. ¿Qué detalles, precisamente, de la estructura de los átomos pusieron estas sustancias en una posición excepcional? Pero, el lector se mostraría demasiado exigente frente al autor si hubiera deseado obtener en este sucinto libro de divulgación las respuestas a todas las preguntas. Pasemos a la descripción del comportamiento de otras sustancias. Cuerpos diamagnéticos y paramagnéticos Como ya hemos dicho, a excepción de una pequeña clase de ferromagnéticos, todas las demás sustancias tienen la permeabilidad magnética muy próxima a la unidad. Los cuerpos cuyo valor de μ la supera un poco la unidad se denominan paramagnéticos y aquellos cuya permeabilidad magnética es menor que la unidad llevan el nombre de diamagnéticos. Damos a continuación ejemplos de sustancias de ambas clases indicando los valores de su permeabilidad magnética:

Gentileza de Manuel Mayo

131

Preparado por Patricio Barros

Física para Todos III– Electrones

Paramagnéticos

www.librosmaravillosos.com

μ

Diamagnéticos

A. I. Kitaigorodski

μ

Aluminio

1,000023

Plata

0,999981

Volframio

1,000175

Cobre

0,999912

Platino

1,000253

Bismuto

0,999324

A pesar de que las desviaciones respecto a la unidad son muy pequeñas se logra realizar mediciones muy exactas. Hablando con propiedad, para alcanzar este fin se puede hacer uso del método de choque de inducción, aquel mismo con que iniciamos nuestro relato sobre las mediciones magnéticas de las propiedades de la sustancia. Sin embargo, los resultados más exactos se obtienen empleando balanza magnética. En uno de los platillos de la microbalanza analítica (la cual, como es sabido, es capaz de medir las fuerzas con una precisión de diezmillonésimas partes de gramo) se practica un orificio y a través de éste se deja pasar un hilo del cual se cuelga la muestra colocada entre los polos de un imán. Los terminales del imán deben hacerse de tal manera que el campo sea no homogéneo. En este caso el cuerpo ya sea que se atrae dentro de la zona del campo intenso, o bien, se expulsa de esta zona. El cuerpo se atrae cuando el momento magnético de la muestra tiende a disponerse a lo largo del campo, y se expulsa en el caso contrario. La fórmula de la fuerza se ha dado en páginas anteriores. La muestra se equilibra mediante pesas en ausencia del campo magnético. Pero después de que la muestra resulta afectada por el campo el equilibrio se altera. En el caso de sustancias paramagnéticas será necesario añadir pesas, y en el caso de sustancias diamagnéticas habrá que aligerar el platillo de la balanza. No es difícil calcular que una buena balanza nos ayudará a cumplir esta difícil tarea, ya que (en el caso fácilmente realizable cuando la no homogeneidad del campo es del orden de centésimas de tesla por centímetro) sobre 1 cm3 de sustancia actuará una fuerza de cerca de un miligramo. Las dos propiedades, la paramagnética y la diamagnética, se explican de una forma bastante sencilla.

Gentileza de Manuel Mayo

132

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

El diamagnetismo es la consecuencia directa de la circunstancia de que en un campo magnético cada electrón describirá tina circunferencia. Estas corrientes circulares engendran sus propios momentos magnéticos dirigidos en contra del campo que produjo la rotación. El diamagnetismo es una propiedad común para todas las sustancias. El paramagnetismo, sin hablar ya del ferromagnetismo, «eclipsan» las propiedades diamagnéticas de la sustancia. Pertenecen a los paramagnéticos las sustancias cuyos átomos o iones poseen el momento magnético. El momento puede originarse por el movimiento orbital de los electrones, por el espín de un electrón solitario o por las dos causas tomadas juntas. En ausencia del campo magnético los átomos de las sustancias diamagnéticas no tienen momento magnético. Los átomos de las sustancias paramagnéticas sí que poseen momentos magnéticos, no obstante, debido al movimiento térmico éstos están dispuestos en completo desorden, absolutamente así como es característico para los cuerpos ferromagnéticos por encima del punto de Curie. Al superponerse un campo comienza la lucha entre la fuerza ordenadora del campo y el desorden impuesto por el movimiento térmico. A medida que disminuye la temperatura un número cada vez mayor de átomos se orienta de modo que su momento magnético forma un ángulo agudo con la dirección del campo. De aquí queda completamente claro que con el descenso de la temperatura aumenta la permeabilidad magnética de los cuerpos paramagnéticos. El campo magnético de la Tierra El hombre de hoy está acostumbrado a que cualquier aparato o instrumento aparece como consecuencia del desarrollo de alguna teoría física. Una vez creado el instrumento, de éste se preocupan los ingenieros, y los físicos ya no tienen nada que hacer con él; la naturaleza del fenómeno en que se basa el funcionamiento de dicho instrumento se ha comprendido antes de su creación. Sin embargo, tratándose de la brújula las cosas eran por completo distintas. Probablemente, hubiera aparecido en China en el siglo XI y durante varios siglos se utilizó como el principal instrumento de navegación, sin embargo, con todo, nadie

Gentileza de Manuel Mayo

133

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

entendía de hecho el principio de su funcionamiento. ¿Por qué un extremo de la aguja señalaba siempre el Norte? La mayoría de los sabios explicaba el comportamiento de la aguja debido a la influencia de las fuerzas extraterrestres, digamos, debido a la atracción del extremo de la aguja por parte de la Estrella Polar. En 1600 salió a la luz la brillante obra de William Gilbert intitulada «De magnete, magnetisque corporibus, et de magno magnete tellure» (Sobre el imán terrestre). El riguroso enfoque científico permitió al sabio comprender con mayor profundidad la esencia de los fenómenos magnéticos. Gilbert talló de un trozo de mena magnética una esfera y estudió meticulosamente la orientación de la aguja magnética colgada bajo las distintas partes de dicha esfera, advirtiendo el total parecido con la orientación de la aguja magnética en diferentes zonas de la Tierra. De aquí se sacó la siguiente conclusión; el funcionamiento de la brújula se puede explicar perfectamente en el caso de suponer que la Tierra es un imán permanente cuyo eje está dirigido a lo largo del eje terrestre. A partir de este momento el estudio del geomagnetismo pasa a un nuevo nivel. Una investigación más escrupulosa demostró que la aguja magnética no está orientada del todo exactamente desde el Norte hacia el Sur. La desviación de la dirección de la aguja respecto al meridiano trazado a través del punto dado se denomina declinación magnética. Los polos magnéticos están desplazados respecto al eje de rotación de la Tierra en 11,5° (fig. 3.10). La aguja no se encuentra justamente en el plano horizontal, sino gira hacia el horizonte formando cierto ángulo denominado ángulo de inclinación magnética. Al investigar la inclinación magnética en diferentes puntos se puede hacer la conclusión de que el «dipolo» magnético se ubica en las profundidades de la Tierra. Esto engendra un campo no homogéneo el cual, en los polos magnéticos, alcanza el valor de 0,6 x 10-4 Tl y en el ecuador es igual a de 0,3 x 10-4 Tl. Bueno, ¿qué imán es éste el que se encuentra en el seno de la Tierra? El «dipolo» magnético se dispone en el núcleo de la Tierra que consta de hierro en estado fundido. Pero incluso en este estado el hierro sigue siendo un buen conductor de la electricidad, y para explicar el campo magnético de la Tierra puede proponerse el modelo de una especie de «dínamo magnético». No describiremos este modelo,

Gentileza de Manuel Mayo

134

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

limitándonos con indicar que el «imán terrestre» se crea por las corrientes que circulan en el interior del hierro fundido.

Figura 3.10 El campo magnético de la Tierra varía. Los polos magnéticos se desplazan con una velocidad de 5 a 6 km al año. A escala de la Tierra este desplazamiento es despreciable; el fenómeno apenas si se nota con facilidad durante un centenar de años, por esta razón recibió el nombre de variación secular del campo magnético. Huelga demostrar cuán esencial es el conocimiento exacto de los elementos del magnetismo terrestre en cualquier sitio de la superficie de nuestro planeta. Hasta la fecha la brújula magnética sirve a los navegantes. Siendo así, éstos deben disponer de mapas de declinaciones o inclinaciones magnéticas. En las proximidades de los polos el extremo norte de la aguja magnética, como se ve en el dibujo, ya, plenamente, deja de mirar al Norte. También en las cercanías del ecuador es difícil pasar sin el mapa del campo magnético. El ecuador magnético no coincide, ni mucho menos, con la línea de las latitudes cero. El conocimiento del campo magnético de la tierra firme también reviste enorme interés, ya que sirve a los fines de prospección geológica. No podemos detenernos

Gentileza de Manuel Mayo

135

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

en estos problemas. La física geológica es un capítulo importante y vasto de la ciencia que merece una conversación especial. Cabe decir varias palabras sobre las llamadas investigaciones paleomagnéticas que permiten juzgar cuál fue el campo magnético de la Tierra en los tiempos muy remotos. Estas investigaciones se basan, fundamentalmente, en el estudio de la magnetización remanente de las rocas, etc. He aquí, por ejemplo, en qué consiste la esencia de los métodos que estudian el período prehistórico. Un ladrillo y un jarrón de barro acusan una pequeña magnetización remanente que surge en la arcilla caliente durante la cocción. La dirección del momento magnético corresponde a la del campo magnético en el momento de fabricación y enfriamiento del objeto. A veces se puede juzgar con bastante seguridad sobre la posición de dicho objeto en el momento de su confección. Citemos otro ejemplo de semejantes investigaciones: se estudia la dirección geográfica del momento magnético de la mena, mientras que su edad se determina basándose en la cantidad de isótopos radiactivos. Las investigaciones paleomagnéticas son la demostración más rigurosa de la deriva de los continentes. Resultó que las magnetizaciones de los yacimientos de hierro surgidos varios centenares de millones de años atrás en diferentes continentes pueden dirigirse a lo largo de las líneas de inducción del campo magnético de la Tierra, si estos continentes se agrupan en un supercontinente único llamado Gondvana. Más tarde este continente se fragmentó en África, Australia, Antártida y América del Sur. Hasta este momento hemos hablado solamente sobre la procedencia ultraterrestre del magnetismo y, en efecto, es su fuente principal. Sin embargo, algunas variaciones del campo magnético tienen lugar debido a las partículas cargadas que llegan desde fuera. Se trata, de modo fundamental, de las corrientes de protones y neutrones emitidos por el Sol. Las partículas cargadas se arrastran por el campo hacia los polos donde giran describiendo una circunferencia impulsados por las fuerzas de Lorentz. Dicha circunstancia conduce a dos fenómenos. En primer lugar, las

partículas

cargadas

en

movimiento

producen

un

campo

magnético

complementario, o sea, las tempestades magnéticas. En segundo lugar, ionizan las

Gentileza de Manuel Mayo

136

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

moléculas de los gases atmosféricos y como consecuencia aparece la aurora boreal. Las tempestades magnéticas fuertes tienen lugar periódicamente (a intervalos de 11,5 años). Este período coincide con el de procesos intensos que se operan en el Sol. Mediciones directas realizadas con la ayuda de los aparatos cósmicos han demostrado que los cuerpos más próximos a la Tierra, la Luna y los planetas Venus y Marte, no poseen un campo magnético propio semejante al terrestre. Entre los demás planetas del Sistema Solar solamente Júpiter y, por lo visto, Saturno poseen campos propios. En Júpiter se han descubierto campos hasta 10 Gs y una serie de fenómenos característicos (tempestades magnéticas, radioemisión sincrotrónica, etc.). Campos magnéticos de las estrellas No sólo los planetas y las estrellas frías poseen magnetismo, sino también los cuerpos celestes incandescentes. Por cuanto el más próximo a nosotros es el Sol, conocemos más sobre su campo magnético que sobre los de otras estrellas. El campo magnético del Sol puede observarse visualmente durante los eclipses solares. A lo largo de las líneas de inducción se alinean partículas de materia solar que poseen momento magnético, perfilando el cuadro del campo magnético. Se ven nítidamente los polos magnéticos y es posible evaluar la magnitud del campo magnético que, en algunas regiones cuya superficie es del orden de diez mil kilómetros, supera miles de veces la intensidad del campo magnético de la Tierra. Estas porciones se denominan manchas solares. Puesto que las manchas son más oscuras que los demás lugares del Sol resulta claro que la temperatura aquí es más baja, a saber, es 2000 grados menor que la temperatura «normal» del Sol. Es indudable que la baja temperatura y los valores elevados del campo magnético guardan una relación entre sí. Sin embargo, no existe una teoría adecuada que enlace estos dos hechos. Bueno, ¿y cómo van los asuntos en otras estrellas? Los alcances de la astrofísica en los últimos años son tan considerables que resultó posible establecer la existencia de campos magnéticos en las estrellas. Se dejó constancia de que las «manchas

Gentileza de Manuel Mayo

137

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

magnéticas estelares» tienen la temperatura de cerca de 10.000 grados y durante varios meses pueden cambiar su posición y hasta desaparecer absolutamente. Resulta más sencillo explicar este cambio si se admite que no son las manchas las que cambian de posición en las estrellas, sino que toda la estrella gira. Se juzga sobre la presencia de los campos magnéticos basándose en los intensidades anómalas de algunas líneas espectrales. Según parece, las estrellas magnéticas poseen en el ecuador magnético un contenido elevado de hierro. Los campos magnéticos en el cosmos son muy pequeños (millonésimas partes de gausio). Este hecho ni siquiera necesita una explicación puesto que en el cosmos reina un altísimo vacío. Cuando de los átomos diseminados por el Universo se forman estrellas» la condensación de la materia estelar viene acompañada con la «condensación» del campo magnético. Pero, siendo así, ¿por qué no todas las estrellas poseen un campo magnético? La Tierra existo miles de millones de años. De aquí se infiere que el campo magnético de la Tierra se mantiene todo el tiempo por las corrientes eléctricas que fluyen por sus entrañas. Algunas estrellas carentes del campo magnético, evidentemente, se han enfriado hasta tal punto que en su seno cesaron las corrientes eléctricas. No obstante, esta explicación, difícilmente, puede considerarse universal. Se conocen campos magnéticos de las estrellas que superan 10 000 Gs. Y unos campos fantásticamente intensos de 1015 Gs (¡!) deben encontrarse cerca de las estrellas neutrónicas.

Gentileza de Manuel Mayo

138

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 4 Recapitulación de la electrotecnia Contenido: •

Fuerza electromotriz sinusoidal



Transformadores



Máquinas generadoras de la corriente eléctrica



Motores eléctricos

Fuerza electromotriz sinusoidal El acumulador y la pila son fuentes de corriente continua. Y la red eléctrica nos proporciona la corriente alterna. Las palabras «continua» y «alterna» se refieren a la tensión, a la f.e.m. y a la intensidad de la corriente. Si en el proceso de paso de la corriente todas estas magnitudes quedan invariables la corriente es continua, y si se modifican, entonces, la corriente resulta ser alterna. El carácter de variación de la corriente respecto al tiempo puede ser diferente en dependencia de la instalación productora de la corriente. Por medio de un tubo de rayos catódicos puede obtenerse la curva que caracteriza la variación de la corriente eléctrica. El haz electrónico se desvía por los campos de dos condensadores planos perpendiculares entre sí. Aplicando a las placas del condensador distintas tensiones es posible lograr que el punto luminoso dejado en la pantalla por el haz deambule por toda la superficie de la misma. Para obtener el cuadro de la corriente alterna se obra de la siguiente manera. A un par de placas se conecta la llamada tensión en diente de sierra cuya curva se muestra en la fig. 4.1. Si el haz electrónico está sujeto tan sólo a la acción de ésta, el punto luminoso se desplaza uniformemente por la pantalla para luego, a salto, volver a la posición inicial. La posición del punto luminoso proporciona datos sobre el momento del tiempo. Si sobre el otro par de placas se superpone la tención alterna estudiada, ésta se «explora» de una forma absolutamente análoga a la de la «exploración» de la

oscilación

mecánica

que

se

consignó

mediante

un

sencillo

dispositivo

representado en el libro 1.

Gentileza de Manuel Mayo

139

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 4.1 Al decir la palabra «oscilación» no me he equivocado. En la mayoría de los casos las magnitudes que caracterizan la corriente alterna oscilan siguiendo la misma ley armónica de la sinusoide a la que están subordinadas las desviaciones del péndulo respecto al equilibrio. Para cerciorarse de ello basta conectar al oscilógrafo la corriente alterna urbana. Por la vertical pueden trazarse la corriente o la tensión. Las características de la corriente son las mismas que los parámetros de la oscilación mecánica. El intervalo de tiempo después del cual se repite el cuadro de las variaciones, como se sabe, lleva el nombre de período T; la frecuencia de la corriente ν - que es una magnitud inversa al período - para la corriente urbana es igual, ordinariamente, a 50 oscilaciones por segundo. Cuando se somete al examen una sola sinusoide es indiferente la elección del punto de referencia del tiempo. En cambio, si dos sinusoides se superponen de una forma tal como se muestra en la fig. 4.2, entonces, es necesario señalar en qué parte del período están desfasadas. Se denomina fase el ángulo φ = 2nτ/T. De este modo, si las curvas están desplazadas una respecto a la otra un cuarto de período se dice que están desfasadas 90°; si el desplazamiento constituye una octava parte del período, el desfasaje es de 45°, etc.

Gentileza de Manuel Mayo

140

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 4.2 Cuando se trata de varias sinusoides desfasadas, los técnicos hablan sobre los vectores de corriente o de tensión. La longitud del vector corresponde a la amplitud de la sinusoide, y el ángulo entre los vectores, al desfasaje. Muchos dispositivos técnicos no nos dan una corriente sinusoidal simple, sino una corriente cuya curva representa la suma de varias sinusoides desfasadas. Demostremos que una corriente sinusoidal simple se engendra si el cuadro conductor gira en el campo magnético homogéneo a velocidad constante. Cuando la dirección del cuadro respecto a las líneas de inducción es arbitraria, el flujo magnético que atraviesa el circuito es igual a

φ es el ángulo entre el plano de la espira y la dirección del campo. Dicho ángulo varía en función del tiempo de acuerdo con la ley φ = 2πt/T. La ley de la inducción electromagnética permite calcular la f.e.m. de inducción. Anotemos las expresiones de los flujos magnéticos para dos instantes que se diferencian en un intervalo de tiempo sumamente pequeño τ:

Gentileza de Manuel Mayo

141

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

La diferencia de estas expresiones es:

Puesto que el valor de τ es muy pequeño, resultan válidas las siguientes igualdades aproximadas:

La f.e.m. de inducción es igual a esta diferencia referida al tiempo. Por consiguiente,

Hemos demostrado que la f.e.m. de inducción se expresa por una sinusoide desfasada 90° respecto a la sinusoide del flujo magnético. En cuanto al valor máximo de la f.e.m. de inducción, o sea, de su amplitud, esto es proporcional al producto de la amplitud del flujo magnético por la frecuencia de rotación del cuadro. La ley para la intensidad de la corriente se obtiene si se divide la f.e.m. de inducción por la resistencia del circuito. Pero cometeremos un error grave si ponemos el signo de igualdad entre la resistencia a la corriente alterna que figura en el denominador de la expresión

y la resistencia óhmica, o sea, la magnitud con la cual hemos tratado hasta este momento. Resulta que Ralt (no sólo se determina por la resistencia óhmica, sino que

Gentileza de Manuel Mayo

142

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

depende también de otros dos parámetros del circuito: de su inductancia y de las capacidades incluidas en éste. El hecho de que la ley de Ohm se hace más complicada al pasar de la corriente continua a la alterna lo evidencia el siguiente experimento simple.

En la fig. 4.3 se representa el circuito de la corriente que fluye a través de una bombilla eléctrica y una bobina en que puede introducirse el núcleo de hierro. Al principio conectemos la bombilla a la fuente de corriente continua. Reiteradas veces vamos a introducir el núcleo de hierro en la bobina y, respectivamente, sacarlo. ¡No hay efecto alguno! La resistencia del circuito no cambia, por consiguiente, también queda invariable la intensidad de la corriente. Pero repetimos este mismo experimento para el caso de que el circuito está conectado a la corriente alterna. Ahora, si el núcleo está fuera de la bobina la bombilla emite una luz brillante, mas, al introducir el hierro en la bobina, la luz se torna débil. ¿No es verdad que hemos obtenido un resultado ostensible? De este modo, siendo invariables tanto la tensión externa, como la resistencia óhmica (que depende solamente del material de los conductores, su longitud y sección), la intensidad de la corriente varía en dependencia de la posición del núcleo de hierro en la bobina. ¿Qué significa este hecho? Recordamos que el núcleo de hierro hace aumentar bruscamente (miles de veces) el flujo magnético que atraviesa la bobina. En el caso de la f.e.m. alterna el flujo

Gentileza de Manuel Mayo

143

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

magnético en la bobina cambia constantemente. Pero, si bien, sin el núcleo de hierro el mismo cambiaba desde cero hasta cierta unidad convencional, en presencia del núcleo su variación será desde cero hasta varios miles de unidades. Con la variación del flujo magnético las líneas de inducción atravesarán las espiras de «su» bobina. En ésta aparecerá la corriente de autoinducción. De acuerdo con la regla de Lenz esta corriente estará dirigida de tal forma que debilite el efecto que la ha engendrado: la f.e.m. externa se encuentra con un obstáculo especial que no existía cuando la corriente era continua. En otras palabras, la corriente alterna tiene una resistencia complementaria debida a que el campo magnético, al atravesar los conductores de su circuito, engendra una f.e.m. especial llamada f.e.m. de autoinducción la cual debilita la intensidad media de la corriente. Esta resistencia complementaria se denomina inductiva. La experiencia testimonia (y, sin duda alguna, esta circunstancia parecerá al lector muy natural) que el flujo magnético que atraviesa la bobina (o, hablando de una forma más general, que atraviesa todo el circuito de la corriente) es proporcional a la intensidad de la corriente: Φ = LI. En cuanto al coeficiente de proporcionalidad L que se denomina inductancia, éste depende de la geometría del circuito conductor, así como de los núcleos que abarca. Como resulta evidente de la fórmula, el valor numérico de la inductancia es igual al flujo magnético para la intensidad de la corriente de un amperio. La unidad de inductancia L es el henrio (1 H = 1 Ω s) Se puede deducir teóricamente y confirmar en el experimento que la resistencia inductiva RL viene expresada por la fórmula RL = 2πνL Si la resistencia óhmica (que ya conocemos) y la resistencia capacitiva (con la cual vamos a entablar conocimiento un poco más tarde) son pequeñas, la intensidad de la corriente en el circuito es igual a

Gentileza de Manuel Mayo

144

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Para estar en condiciones de juzgar qué es «pequeño» a qué es «grande» calculemos aproximadamente el valor de la resistencia inductiva para la frecuencia de la corriente urbana y la inductancia de 0,1 H. Resulta unos 30 Ω. Bueno, ¿y qué representa una bobina cuya inductancia es de 1 H? Para evaluar la inductancia de las bobinas y bobinas de choque (estas últimas son bobinas con núcleo de hierro) se emplea la siguiente fórmula que insertamos sin deducción:

aquí n es el número de espiras; l la longitud de la bobina, y S, la sección transversal. De tal manera, por ejemplo, 0,002 H nos proporcionará una bobina con los siguientes parámetros: L = 15 cm, n = 1500, S = 1 cm2. Si introducimos un núcleo de hierro con μ = 1000, la inductancia será de 2 H. La existencia de la f.e.m. de cualquier origen y, en consecuencia, también de la f.e.m. de autoinducción significa que se realiza un trabajo. Como sabemos, este trabajo es igual a ξI. Si la corriente es alterna, entonces, tanto ξ, como I a cada instante cambian sus valores. Supongamos que en el momento t sus valores son ξ1 e I1 y en el momento t + τ son de ξ2 e I2, respectivamente. El flujo magnético que atraviesa las espiras de la bobina con la inductancia L es igual a LI. En el momento t, su valor fue L/I1 y en el momento t + τ, LI2. ¿A qué es igual, entonces, el trabajo necesario para incrementar la corriente desde su valor I1, hasta el valor de I2? La f.e.m. es igual a la variación del flujo magnético referido al tiempo de variación:

Para obtener el trabajo ξIτ es necesario multiplicar la expresión dada por el tiempo y la intensidad de la corriente. ¿Y qué intensidad se tiene en cuenta? Se tiene en cuenta su valor medio, es decir, (I1 + I2)/2. Llegamos a la conclusión de que el trabajo de la f.e.m. de autoinducción es igual a

Gentileza de Manuel Mayo

145

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Este resultado aritmético puede expresarse de la siguiente forma: el trabajo de la f.e.m. es iguala la diferencia de la magnitud LI2/2 en dos momentos de tiempo. Esto significa que en la resistencia inductiva la energía no se disipa, ni tampoco se transforma en calor, hecho que tiene lugar en los circuitos con resistencia óhmica, sino pasa a la «reserva». Precisamente por esta razón es lógico llamar la magnitud LI2/2 energía magnética de la corriente. Examinemos ahora cómo repercutirá en la resistencia del circuito a la corriente alterna la intercalación de un condensador. Si al circuito de corriente continua se conecta un condensador la corriente no fluirá, ya que intercalar un condensador es lo mismo que interrumpir el circuito. Pero el mismo condensador en el circuito de corriente alterna no anula la corriente. Se sobreentiende que a nosotros nos interesa la causa de semejante diferencia. La explicación es sencilla. Después de conectar el circuito al manantial de la corriente alterna la carga eléctrica comienza a acumularse en las armaduras del condensador. A una armadura llega la carga positiva, y a la otra, la negativa. Supongamos que tanto la resistencia inductiva, como la óhmica son pequeñas. La carga continuará hasta que la tensión en las armaduras del condensador llegue a ser máxima e igual a la f.e.m. del manantial. En este instante la intensidad de la corriente es igual a cero. Al medir, valiéndose de algún instrumento, la intensidad - media por un período de la corriente en un circuito con condensador, podemos cerciorarnos de que ésta será distinta en dependencia de dos magnitudes. En primer lugar, se demuestra (experimentalmente, así como por medio de razonamientos teóricos) que la corriente disminuye a medida que cae la frecuencia. En consecuencia, la resistencia capacitiva es inversamente proporcional a la frecuencia. Este resultado es completamente natural, pues cuanto menor es la frecuencia en tanto mayor grado la corriente alterna se aproxima, por decirlo así, a la continua.

Gentileza de Manuel Mayo

146

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Modificando los parámetros geométricos del condensador, o sea, la distancia entre las placas y el área de éstas, nos convenceremos de que la resistencia capacitiva es inversamente proporcional también a la capacidad del condensador. La fórmula para la resistencia capacitiva tiene el siguiente aspecto:

El condensador cuya capacidad es de 30 uF para la frecuencia de la corriente urbana da una resistencia de cerca de 100 Ω. No me propongo contar al lector cómo se calcula la resistencia de los circuitos complejos

de

corriente

compuestos

de

resistencias

óhmicas,

inductivas

y

capacitivas. Lo único que quiero advertir es que la resistencia total del circuito no equivale a la suma de resistencias aisladas. La intensidad de la comento eléctrica y la tensión en el tramo del circuito que incluye la resistencia óhmica, el condensador y la bobina de inductancia pueden medirse de una manera ordinaria empleando un oscilógrafo (tubo de rayos catódicos). Tanto la corriente, como la tensión las veremos en la pantalla en forma de sinusoides. No nos asombrará descubrir que estas sinusoides estén desfasadas una respecto a la otra formando cierto ángulo de fase φ. (El lector comprenderá muy pronto que así, precisamente, debo ocurrir, al recordar que, digamos, en un circuito con condensador la corriente es igual a cero cuando la tensión en el condensador es máxima.) El valor del desfasaje φ reviste gran importancia. No olvide que la potencia de la corriente es igual al producto de la intensidad de la corriente por la tensión. Si las sinusoides de la corriente y de la tensión coinciden dicho valor será máximo, mientras que si éstas están desfasadas de un modo propio para un circuito que posee una sola resistencia capacitiva o una sola resistencia inductiva la potencia será igual a cero. No es difícil verlo al trazar dos sinusoides desfasadas 90°, multiplicar sus ordenadas y sumar estos productos correspondientes a un período. Se puede demostrar rigurosamente que, en el caso general, durante un periodo, en promedio, la potencia de la corriente alterna es igual a

Gentileza de Manuel Mayo

147

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

El aumento del cos φ es tarea del ingeniero electricista. Transformadores Usted ha comprado una nevera. El vendedor le ha prevenido que la nevera está calculada para la tensión de la red de 220 V. Pero la tensión de la red en su casa es de 127 V. ¿Es éste un callejón sin salida? De ningún modo. Meramente, tendrá que gastar cierta suma complementaria para adquirir un transformador. Un transformador es un dispositivo muy sencillo que permite tanto aumentar, como disminuir la tensión. Este consta de un núcleo de hierro que lleva dos devanados (bobinas). El número de espiras en las bobinas es distinto. Conectamos a una de las bobinas la tensión de la red. Mediante un voltímetro podemos cerciorarnos de que en los extremos de otro devanado aparecerá la tensión diferente de la de la red. Si el devanado primario tiene ω1 espiras y el secundario ω2, la relación de las tensiones será

De este modo, el transformador aumentará la tensión si la tensión primaria está conectada a la bobina con menor número de espiras, y la disminuirá en el caso contrario. ¿Por qué resulta así? Se trata de que todo el flujo magnético, en la práctica, pasa a través del núcleo de hierro. Por consiguiente, ambas bobinas están atravesadas por igual número de líneas de inducción. El transformador funcionará solamente en el caso de que la tensión primaria sea alterna. La variación sinusoidal de la corriente en la bobina primaria originará una f.e.m. sinusoidal en la bobina secundaria. La espira de la bobina primaria y la de la secundaria se encuentran en iguales condiciones. La f.e.m. de una espira de la bobina primaria es igual a la f.e.m. de la red dividida por el número de espiras de esta bobina, U1/ω1 y la f.e.m. de la bobina

Gentileza de Manuel Mayo

148

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

secundaria es igual al producto del valor U1/ω1 por el número de espiras ω2. De principio, cada transformador puede utilizarse ya sea como transformador elevador, o bien, como reductor, según sea la bobina a la que está conectada la tensión primaria. En la práctica cotidiana, con frecuencia, es necesario tratar con los transformadores (fig. 4.4).

Figura 4.4 Además de los transformadores que utilizamos, querámoslo o no, debido a que los aparatos industriales están calculados para una tensión, mientras que la red urbana utiliza otra, además de los mismos, tenemos que vérselas con las bobinas del automóvil. La bobina es un transformador elevador. Para producir la chispa que enciende la mezcla de combustible y aire se necesita una alta tensión la que obtenemos,

precisamente,

del

acumulador

del

automóvil,

transformando

previamente la corriente continua del acumulador en corriente alterna con la ayuda de un interruptor. No es difícil comprender que, con la exactitud hasta las pérdidas de energía que se consume para calentar el transformador, al aumentar la tensión disminuye la intensidad de la corriente, y viceversa.

Gentileza de Manuel Mayo

149

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Para las máquinas de soldar se necesitan transformadores reductores. La soldadura requiere corrientes muy fuertes y el transformador de una máquina de soldar tiene tan sólo una espira de salida. El lector, de seguro, prestó atención a que el núcleo del transformador se fabrica de finas chapas de acero. Esto se hace para no perder energía durante la transformación de la tensión. Como ya señalamos antes, en el material en chapas el papel perteneciente a las corrientes de Foucault es menos importante que en el material macizo. En casa nos encontramos con transformadores pequeños. En lo que se refiere a los transformadores

potentes,

éstos

representan

estructuras

muy

grandes.

En

semejantes casos el núcleo junto con los devanados está sumergido en un recipiente lleno de aceite refrigerante. Máquinas generadoras de corriente eléctrica Las máquinas que transforman el movimiento mecánico en corriente eléctrica se crearon tan sólo unos ciento cincuenta años atrás. El primer generador de corriente fue la máquina de Faraday en la cual una espira de alambre giraba en el campo de imanes permanentes. Poco tiempo se necesitó para que naciera la idea (pero no en la cabeza de Faraday) de sustituir una espira por una bobina y, de este modo, sumar todas las f.e.m. engendradas en todas las espiras. Solamente en 1851 los imanes permanentes fueron sustituidos por los electroimanes, es decir, por bobinas puestas sobre núcleos de hierro. Surgió el término «excitación de la máquina» ya que, para conseguir que ésta comenzara a producir corriente era preciso «animar» el imán eléctrico. Al principio, para excitar la máquina al devanado del imán eléctrico se suministraba corriente de una fuente externa de alimentación. La consiguiente etapa fue el descubrimiento del principio de autoexcitación de la máquina conforme al cual para excitar los imanes eléctricos no es obligatorio tener una fuente complementaria de alimentación. Es suficiente conectar el devanado de excitación de los electroimanes, empleando uno u otro procedimiento, con el devanado principal de la máquina. Para finales de los años 80 del siglo XIX, la máquina eléctrica adquirió sus rasgos fundamentales que se conservaron hasta la fecha. En la fig. 4.5 se representa el modelo elemental del generador de corriente

Gentileza de Manuel Mayo

150

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

continua. Si en el campo de imanes permanentes su hace girar un cuadro con corriente, en este se inducirá la f.e.m. sinusoidal. En el caso de que se desea obtener corriente continua a partir de la alterna, hace falta proveer la máquina de un dispositivo especial llamado colector. Este consiste de dos semianillos A y B aislados uno del otro y puestos sobre el cilindro común (fig. 4.5). El cilindro gira junto con el cuadro. A los semianillos están aplicados los contactos P y Q (escobillas) mediante los cuales la corriente se deriva al circuito exterior.

Figuras 4.5 y 4.6 Para cada semirrevolución del cuadro sus extremos pasan de una escobilla a otra. Por esta razón, a pesar de la variación de la dirección de la corriente en el propio cuadro la corriente del circuito exterior no cambia su sentido. Puesto que la parte rotativa de una máquina real consta de un gran número de cuadros, o sea, secciones desfasadas una respecto a la otra en un ángulo determinado, y el colector está constituido por un número correspondiente de láminas llamadas delgas, resulta que en las escobillas de la máquina se obtiene, prácticamente, una tensión constante.

Gentileza de Manuel Mayo

151

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Actualmente, se construyen generadores de corriente continua con una potencia desde partes de kilovatio hasta varios miles de kilovatios. Generadores grandes se emplean para la electrólisis en la industria química y la metalurgia no ferrosa (producción de aluminio y de cinc). Los mismos están calculados para grandes corrientes y tensiones relativamente bajas (120 a 200 V, 1000 a 20.000 A). Las máquinas de corriente continua se utilizan también para la soldadura eléctrica. Sin embargo, los generadores de corriente continua no son productores principales de energía eléctrica. En la URSS, para la producción y distribución de la energía eléctrica está adoptada la corriente alterna de 50 Hz de frecuencia. Un generador de corriente alterna se diseña de tal forma que permita obtener simultáneamente tres f.e.m. de igual frecuencia pero desfasadas una respecto a la otra en un ángulo de fase de 2π/3 t En la fig. 4.6 se da una representación esquemática del generador trifásico de dicho tipo. En esta figura cada una de las bobinas viene sustituida por una espira. Los hilos de una de las espiras se designan con C1 - C4, de la segunda C2 – C5 y de la tercera, C3 - C6. Si la corriente entra en C1, entonces, ésta salo de C4, etc. (Se sobreentiende que en los momentos respectivos a distintas posiciones del rotor y del estator cualquiera de los extremos puedo servir de entrada o de salida de la corriente.) La f.e.m. en las espiras inmóviles del devanado del estator se induce como resultado de su intersección por el campo magnético del imán eléctrico giratorio, o sea, del rotor. Cuando el rotor gira a velocidad constante en los devanados de las fases del estator aparecen f.e.m. que varían periódicamente de igual frecuencia, pero desfasadas una respecto a otra en el ángulo de 120° debido a su desplazamiento espacial. Tres espiras de la bobina pueden unirse entre sí de diferente manera: en estrella o en triángulo (en delta). Estos esquemas de conexión estuvieron elaborados e introducidos en la práctica por Mijail Osipovich Dolivo-Dobrovolski (1862 - 1910) a principios de la década del 90 del siglo XIX. Para la conexión en estrella los extremos de todos los devanados del generador C4, C5 y C6 se unen con un punto que se denomina punto neutro (fig. 4.7, a).

Gentileza de Manuel Mayo

152

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 4.7 El generador se conecta a los receptores de energía mediante cuatro conductores: tres conductores «de línea» que van desde los comienzos de los devanados C1, C2 y C3, y un conductor neutro que va del punto neutro del generador. Dicho sistema se denomina con cuatro conductores o hilos. La tensión entre el punto neutro y el comienzo de la fase se llama fásica. La tensión entre los comienzos de los devanados se denomina de línea. Estas tensiones están relacionadas por medio de la expresión

Si las cargas (I, II, III) de todas las tres fases son idénticas, la corriente en el conductor neutro es igual a cero. En este caso es posible prescindir del conductor

Gentileza de Manuel Mayo

153

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

neutro, pasando al sistema trifilar. En la fig. 4.7, b se representa el esquema de conexión en estrella para tal caso.

Mijaíl Osipovich Dolivo-Dobrovolski (1862 - 1949) relevante científico o ingeniero ruso, creador del sistema de corriente trifásica que sirve de fundamento para toda la electrotecnia contemporánea. Elaboró todos los elementos, sin excepción, de los circuitos trifásicos de corriente alterna. En 1888 construyó el primer generador trifásico de corriente alterna con el campo magnético giratorio. La conexión en triángulo también permite la conducción trifilar. En este caso el extremo de cada devanado está unido con el comienzo del siguiente de modo que éstos forman un triángulo cerrado. Los conductores de línea están conectados a los vértices del triángulo. Aquí, la tensión de línea es igual a la fásica, mientras que las corrientes están relacionadas mediante la expresión

Gentileza de Manuel Mayo

154

Preparado por Patricio Barros

Física para Todos III– Electrones

Los

circuitos

trifásicos

www.librosmaravillosos.com

presentan

las

siguientes

A. I. Kitaigorodski

ventajas:

transmisión

más

económica de energía en comparación con los circuitos monofásicos y la posibilidad de obtener las tensiones, la fásica y la de línea, en una instalación. El generador de corriente alterna que hemos descrito pertenece a la clase de máquinas eléctricas sincrónicas. Este nombre lo llevan las máquinas cuya frecuencia de rotación del rotor coincide con la de rotación del campo magnético del estator. Los motores sincrónicos son productores principales de energía y tienen algunas variedades constructivas según sea el método de puesta en rotación de su rotor. El lector puedo preguntar: ¿si se emplea la denominación de «máquinas sincrónicas», por consiguiente, deben existir también las asincrónicas? ¡Justa mente! Pero éstas se utilizan como motores y hablaremos de ellas en el siguiente párrafo. En el mismo párrafo nos detendremos también en la cuestión de por qué gira el campo magnético en una máquina trifásica de corriente alterna. Motores eléctricos Más de la mitad de toda la energía eléctrica producida se transforma con la ayuda de los motores eléctricos en energía mecánica que se consume para las distintas necesidades de la industria, agricultura, transporte y fines domésticos. La mayor difusión la obtuvo el motor asincrónico, sencillo, seguro, barato y poco exigente en el servicio, inventado en 1880 por el mismo talentoso ingeniero Dolivo-Dobrovolski. Este motor, hasta la fecha, conserva sus rasgos principales. El motor asincrónico se utiliza

para

el

accionamiento

de

diferentes

máquinas-herramientas,

en

las

instalaciones de bombeo y compresión, en la maquinaria de forja y prensado, así como para el equipo elevador y de transporte y para otros mecanismos. Se debe considerar como prototipo del motor asincrónico el modelo creado por Domingo Francisco Arago (1786 - 1853). En 1824, en la Academia de Ciencias de París, Arago hizo exposición de un fenómeno que llamó «magnetismo de rotación». Demostró que un disco de cobre se pone en rotación al introducirlo en el campo de un imán permanente que está girando. Dolivo-Dobrovolski hizo uso brillante de esta idea, combinándola con las particularidades del sistema trifásico de corrientes que

Gentileza de Manuel Mayo

155

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

da la posibilidad de obtener la rotación del campo magnético sin cualesquiera dispositivos adicionales. Examinemos los esquemas de la fig. 4.8. Para la máxima simplificación aquí vienen representadas tres espiras (en la realidad, por supuesto, la máquina utiliza bobinas con gran número de espiras).

Figura 4.8 El punto negro y la crucecita señalan la entrada y la salida de la corriente en cada espira en cierto momento determinado de tiempo. Estas tres espiras forman entre sí ángulos de 120°. En la fig. 4.8 a, se dan las relaciones fásicas de tres corrientes i1, i2 e i3 que fluyen por las espiras. A nosotros nos interesa el campo magnético resultante de estas tres bobinas. En la fig. 4.8 b, se representan las líneas de inducción del campo resultante para el momento t1 (entradas en C5, C1 y C6 y en las

Gentileza de Manuel Mayo

156

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

figs. 4.8 c y d, se han hecho los mismos esquemas para los momentos de tiempo t2 t3. De este modo, vemos que el campo que nos interesa gira (fíjense en las posiciones de las crucecitas), ¡gira, en el pleno sentido de la palabra! El eje del campo en el centro del sistema se dispone según el eje de aquella espira (fase) cuya corriente es máxima en el momento dado de tiempo. La figura que acabamos de analizar permite formar una idea de cómo está distribuido el devanado trifásico de corriente alterna en el estator del motor asincrónico trifásico.

Figura 4.9 El rotor (fig. 4.9) que es arrastrado hasta ponerse en movimiento por el campo magnético giratorio es un rotor cortocircuitado, es decir, no vemos ni los comienzos ni los extremos del devanado. Este rotor se parece a una jaula de ardilla: una fila de barras y anillos que las cierran. Compáreselo con la máquina de corriente continua. ¡Cuánto más sencillo es! Conectamos al estator la corriente alterna trifásica. En la máquina se engendra un campo magnético giratorio. Las líneas del campo Gentileza de Manuel Mayo

157

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

magnético cortan las barras del rotor induciendo en éstas las corrientes. Como resultado de interacción de la barra por la cual circula la corriente y del campo magnético el rotor comienza a girar con una velocidad próxima a la del campo, pero no la alcanza. Debe suceder precisamente así, ya que, de lo contrario, no hubiera tenido lugar la intersección por las barras del rotor de las líneas de inducción del campo giratorio del estator ni se hubiera producido la rotación de la jaula de ardilla. Esta es la razón de que las máquinas de este tipo se denominan asincrónicas. El retardo del rotor se llama deslizamiento. Los motores asincrónicos abarcan un gran diapasón de potencias: desde partes de vatio hasta centenares de kilovatios. Existen también motores asincrónicos más potentes: hasta 6000 kW para la tensión de 6000 V, Las micromáquinas asincrónicas se utilizan en los dispositivos de automática como servomotores para transformar la señal eléctrica que reciben en traslación mecánica del árbol, así como en calidad de generadores tacométricos que transforman la rotación mecánica en señal eléctrica. También pueden servir de motores eléctricos las máquinas sincrónicas que hemos examinado autos y las máquinas de corriente continua. Este hecho deriva del principio evidente de reciprocidad de la máquina eléctrica el cual consiste en que cualquier máquina eléctrica puede trabajar tanto como generador, como en calidad de motor. Por ejemplo, en la composición del centro hidroeléctrico de Kiev en el rio Dniéper entra una estación hidroacumuladora equipada con grupos reversibles que pueden trabajar ya sea como bombas, o bien, como turbinas. Cuando en el sistema energético hay energía eléctrica en exceso, las bombas-turbinas elevan el agua al depósito acumulador. En este caso, la máquina sincrónica que forma parte del grupo trabaja como motor. Cuando el consumo de energía eléctrica llega a ser máximo el grupo hace «entrar en servicio» el agua acumulada. Eu las plantas metalúrgicas, minas e instalaciones frigoríficas los motores sincrónicos ponen en funcionamiento bombas, compresores, ventiladores y otros mecanismos que trabajan a velocidad invariable. En los dispositivos automáticos se emplean ampliamente micromotores sincrónicos con una potencia desde partes de vatio hasta varias centenas de vatios. Por cuanto la frecuencia de rotación de estos

Gentileza de Manuel Mayo

158

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

motores está ligada, rígidamente, con la frecuencia de la red de alimentación, dichos motores se utilizan en los lugares donde se requiere mantener la velocidad constante de rotación: en los mecanismos de relojes eléctricos, en los mecanismos de arrastre de la cinta de los instrumentos auto registradores y aparatos cinematográficos

de

proyección,

en

los

aparatos

de

radio,

dispositivos

de

programación, así como en los sistemas de comunicación sincrónica cuando la velocidad de rotación de los mecanismos se gobierna por la variación de la frecuencia de la tensión de alimentación. Por su estructura de principio el motor de corriente continua no se diferencia en nada del generador de corriente continua. La máquina tiene un sistema inmóvil de polos cuyo devanado de excitación está conectado por medio de uno u otro procedimiento con el devanado del inducido (en serie o en paralelo). La máquina puede excitarse también de un manantial independiente de corriente. El inducido tiene un devanado distribuido por las ranuras que se conecta a la fuente de corriente continua. El motor, al igual que el generador, está provisto de un colector cuya destinación consiste en que «endereza» el momento rotatorio, es decir, obliga a la máquina girar prolongadamente en un solo sentido. El motor de corriente continua con excitación en serie está especialmente apropiado para la tracción eléctrica, para las grúas y elevadores. En estos casos se requiere que, a grandes cargas, la frecuencia de rotación disminuya de un modo brusco, mientras que la tracción aumento en grado considerable. Precisamente estas propiedades las acusa el motor de corriente continua con excitación en serie. Los primeros experimentos para la tracción eléctrica no autónoma fueron realizados en Rusia por Fiodor Apollonovich Pirotski (1845 - 1898). Ya en 1876 adaptó para la transmisión de energía eléctrica la vía ferroviaria de carriles común y corriente, y en agosto de 1880 realizó la puesta en marcha del tranvía eléctrico en la línea experimental de la zona del parque Rozhdestvenski del tranvía de caballo en Petersburgo. Como primer vagón eléctrico se tomó el vagón de dos pisos del tranvía de caballo a cuya carrocería se fijó un motor eléctrico. El primer tranvía de Rusia, el de Kiev, fue inaugurado para el uso común en 1892. La alimentación de su motor eléctrico se efectuó del conductor de contacto superior. Cabo señalar, además, que la comisión para la construcción se avino a la existencia

Gentileza de Manuel Mayo

159

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

del tranvía eléctrico sólo después de haberse cerciorado, mediante cálculos, en la ventaja técnica de la tracción eléctrica frente a la de caballo en las condiciones de pesado perfil de las calles de Kiev, que resultó ser superior a las fuerzas tanto de la tracción de caballo, como a la tracción a vapor. Los primeros experimentos en el campo de «electro-navegación» fueron realizados por Boris Semiónovich Jacobi (1801 - 1874) que, en 1838, exhibió en el río Neva un bote eléctrico con cabida para catorce personas. El bote se ponía en movimiento por medio de un motor eléctrico de 550 W de potencia. Para la alimentación de este motor, Jacobi utilizó 320 pilas galvánicas. Fue la primera aplicación, en la historia, del motor eléctrico para fines de tracción. En los últimos años en la prensa comenzó a aparecer la denominación «buque con propulsión turbo-eléctrica». El sentido de dicha denominación se aclara de una forma simple: en un buque de este tipo el vapor pone en movimiento potentes generadores de corriente continua y las hélices se emplazan en los árboles de los motores eléctricos. ¿No es ésta una complicación que sobra? ¿Por qué no se puede colocar la hélice directamente sobre el árbol de la turbina? La cuestión radica en que la turbina de vapor desarrolla la potencia máxima sólo para un número de revoluciones estrictamente determinado. Turbinas potentes hacen 3000 r.p.m. Cuando la rotación se hace más lenta, la potencia disminuye. Si las hélices se hubieran encontrado directamente en el árbol de las turbinas, entonces, el barco provisto de semejante grupo propulsor habría presentado cualidades de marcha bastante malas. En cambio, el motor eléctrico de corriente continua tiene una característica de tracción ideal: cuanto mayores son las fuerzas de resistencia tanto mayor esfuerzo de tracción éste desarrolla, con la particularidad de que semejante motor puede entregar una potencia grande con un número de revoluciones pequeño en el momento de arranque. De este modo, el generador y el motor de corriente continua intercalados entre la turbina y la hélice del buque con propulsión turbo-eléctrica hacen las veces de caja de cambio de velocidades automática progresiva y sumamente perfecta. Puede parecer que esto sistema es algo engorroso, sin embargo teniendo en cuenta la gran potencia de los modernos buques con propulsión turbo-eléctrica, cualquier otro sistema sería igualmente voluminoso, pero menos seguro.

Gentileza de Manuel Mayo

160

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Existe otro camino para perfeccionar de una manera considerable la instalación de fuerza de un buque con propulsión turbo-eléctrica: es muy provechoso sustituir las voluminosas calderas de vapor por un reactor atómico. En este caso se alcanza una enorme economía en el volumen del combustible que es necesario tomar en el viaje. Se granjeó la fama mundial el primer rompehielos atómico soviético «Lenin». La instalación nuclear de fuerza de este buque con propulsión turbo-eléctrica asegura la navegación autónoma durante un periodo mayor que un año. Los motores de corriente continua están instalados en locomotoras eléctricas de servicio de línea, en trenes eléctricos suburbanos, en vagones del tranvía y trolebuses. La energía para su alimentación se suministra a partir de estaciones eléctricas estacionarias. En la URSS, para la tracción eléctrica se utiliza la corriente continua y la corriente alterna monofásica de frecuencia industrial de 50 Hz. En las subestaciones de tracción han encontrado un amplio uso los rectificadores de silicio. Cuando se trata del transporte ferroviario la rectificación de la corriente puede tener lugar tanto en las subestaciones, como en los propios trenes eléctricos.

Gentileza de Manuel Mayo

161

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 5 Campo electromagnético Contenido: •

Las leyes de Maxwell



Modelos mecánicos de irradiación



Dos aspectos del campo electromagnético



Efecto fotoeléctrico



Los experimentos de Hertz



Clasificación de la radiación electromagnética

Las leyes de Maxwell Para los años cincuenta del siglo XIX se habían acumulado muchos datos sobre la electricidad y el magnetismo. Sin embargo, estos datos parecían sueltos, a veces contradictorios y, en todo caso, no se enmarcaban en un esquema armonioso. No obstante, se conocían ya no pocas cosas. En primer término, los físicos sabían que las cargas eléctricas en reposo engendran el campo eléctrico, en segundo término, era de su conocimiento que las corrientes eléctricas crean campos magnéticos, y, en tercer término, se publicaron y obtuvieron reconocimiento universal los resultados de los experimentos de Faraday quien demostró que el campo magnético variable engendra corriente eléctrica. No cabe duda que en aquella época una serie de científicos y, en primer lugar, Faraday, formaron la idea de que en el espacio que rodea las corrientes y cargas eléctricas se desarrollan ciertos acontecimientos. Esto grupo de investigadores suponía que las fuerzas eléctricas y magnéticas se transmiten de un punto a otro. Había muchos intentos de representar en el papel un esquema similar al sistema de engranajes enlazados que demuestre patentemente en qué consiste el mecanismo de transmisión de energía eléctrica. Sin embargo, algunos hombres de ciencia propugnaban la teoría de «teleacción», suponiendo que no se da ningún proceso físico de transmisión de fuerzas eléctricas y magnéticas.

Gentileza de Manuel Mayo

162

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

James Clerk Maxwell (1831 - 1879), célebre hombre de ciencia inglés, fundador de la electrodinámica teórica. Las ecuaciones de Maxwell describen el comportamiento de las ondas electromagnéticas y del campo electromagnético independientemente de su procedencia. Maxwell es fundador de la teoría electromagnética de la luz. De sus ecuaciones derivaba automáticamente el valor de la velocidad de propagación de la luz. De la teoría de Maxwell se infería la relación entre la constante dieléctrica y la permeabilidad magnética por una parte y el índice de refracción por otra, la ortogonalidad de los vectores eléctrico y magnético en la onda, así como la existencia de la presión de la luz. También es grande la aportación que hizo Maxwell a la teoría cinética de los gases. Le pertenece la deducción de la distribución de las moléculas del gas por las velocidades. Sostenían que los conceptos del campo y de las líneas de fuerza deben considerarse tan sólo como imágenes geométricas a las cuales no se pone en correspondencia realidad alguna. Como suele suceder a menudo en la historia de la ciencia, la verdad resultó encontrarse en cierto punto intermedio: se revelaron como inconsistentes las tentativas de reducir los fenómenos electromagnéticos a los movimientos de una clase especial de materia, o sea, del «éter», mas tampoco tenían razón aquellos

Gentileza de Manuel Mayo

163

Preparado por Patricio Barros

Física para Todos III– Electrones

investigadores

quienes

www.librosmaravillosos.com

sugerían

que

las

interacciones

A. I. Kitaigorodski

electromagnéticas

se

transferían de una carga o corriente a otras instantáneamente. El científico inglés James Clerk Maxwell (1831 - 1879) a la edad de 26 años, solamente, publicó su trabajo «Sobre las líneas de fuerza de Faraday». En realidad, este trabajo ya encerraba en sí las leyes que él descubrió. Sin embargo, necesitó varios años más para, abandonando las ideas mecánicas, formular las leyes del campo electromagnético en una forma que no requiriese ilustración gráfica. El propio Maxwell dijo al respecto: «Para el bien de los hombres con diferente mentalidad, la verdad científica debe presentarse en distintas formas y debe considerarse igualmente científica independientemente de si se presenta en la clara forma y los vivos colores de una ilustración física o tomando el aspecto sencillo y deslucido de una expresión simbólica». Las leyes de Maxwell pertenecen a las leyes fundamentales, leyes universales de la naturaleza. Estas no se deducen por vía de razonamientos lógicos ni tampoco de cálculos matemáticos. Las leyes universales de la naturaleza son una sintetización de nuestro conocimiento. Las leyes de la naturaleza se descubren, se hallan... Para un historiador de ciencia y un psicólogo presenta gran interés seguir el camino de ocurrencias y revelaciones creativas que llevan a los hombres geniales al descubrimiento de las leyes de la naturaleza. Pero es un amplio tema para un libro especial. Y en cuanto a nosotros, no nos queda otra cosa que, junto con el lector, examinar cierto esquema de conjeturas consecutivas que conducen a las leyes de Maxwell. ¿De qué datos disponía Maxwell cuando planteó ante sí la tarea de expresar sucintamente en forma simbólica las leyes que rigen el comportamiento de los campos eléctricos y magnéticos? En primer término, conocía que cualquier punto del espacio en las cercanías de la carga eléctrica puede caracterizarse por el vector de fuerza eléctrica (intensidad), y todo punto cerca de la corriente eléctrica, por el vector de fuerza magnética. ¿Pero son las cargas inmóviles las únicas fuentes del campo magnético? ¿Y son las corrientes eléctricas las únicas fuentes del campo magnético? Maxwell da una respuesta negativa a estas dos preguntas y en su búsqueda de las leyes del campo electromagnético emprende el siguiente camino de conjeturas.

Gentileza de Manuel Mayo

164

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Faraday demostró que en un circuito de alambre atravesado por un flujo variable de líneas de inducción se engendra la corriente eléctrica. Pero la corriente aparece cuando sobre las cargas eléctricas actúa la fuerza eléctrica. Siendo así, es posible expresar la ley de Faraday también con la siguiente frase: en un circuito de alambre por el cual pasa un flujo magnético variable aparece el campo eléctrico. Pero, ¿acaso es esencial el hecho de que el flujo magnético se abarca por un circuito de alambre? ¿No le da lo mismo al campo eléctrico dónde aparecer: en un conductor metálico o en el espacio vacío? Supongamos que es lo mismo. Entonces, también resulta justa la siguiente confirmación: cerca del flujo variable de las líneas de inducción aparece la línea cerrada de intensidad eléctrica. Las dos primeras leyes de Maxwell concernientes al campo eléctrico ya están formuladas. Hacemos constar que el campo eléctrico se engendra por dos caminos: por cargas eléctricas (en este caso las líneas de intensidad tienen su comienzo en las cargas positivas y terminan en las negativas) y por el campo magnético variable (en este caso la línea de intensidad eléctrica está cerrada y abarca el flujo magnético cambiante). Ahora pasamos a la búsqueda de las leyes referentes al campo magnético. Este último se engendra por las corrientes, y Maxwell lo conoce. La corriente continua sirve de manantial del campo magnético permanente, mientras que la corriente alterna forma el campo magnético alterno. Pero, es que la corriente alterna se crea en el conductor por el campo eléctrico alterno. ¿Y si no se da un conductor, sino un campo eléctrico variable que existe en el vacío? ¿Acaso no es lógico suponer que cerca del flujo variable de líneas de intensidad aparece la línea cerrada de inducción? El cuadro es sumamente atrayente por su simetría: el flujo magnético variable engendra el campo eléctrico, y el flujo eléctrico variable engendra el campo magnético. De este modo, a las dos leyes que atañen al campo eléctrico se añaden otras dos que rigen el comportamiento del campo magnético. El campo magnético no tiene fuentes (no hay cargas magnéticas): ésta es la tercera ley; el campo magnético se crea por las corrientes eléctricas y el campo eléctrico variable: y ésta es la cuarta ley.

Gentileza de Manuel Mayo

165

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Las cuatro leyes de Maxwell pueden presentarse en una forma extraordinariamente elegante por medio de ecuaciones matemáticas (fig. 5.1).

Figura 5.1 Siento no poder dar a conocer al lector cómo se plasma en estas ecuaciones el sentido físico. Se requieren conocimientos matemáticos serios. Las leyes de Maxwell nos enseñan que no puede existir el campo magnético variable sin el campo eléctrico, ni el campo eléctrico alterno sin el campo magnético. Esta es la razón de que estos dos adjetivos no se separan por una coma. El campo electromagnético es un ente único. Apartándonos de las cargas que son las fuentes del campo electromagnético, tenemos que tratar con la materia electromagnética, por decirlo así, en forma pura. No es obligatorio examinar los flujos de líneas de fuerza. Las leyes de Maxwell pueden escribirse en la forma aplicable a un punto del espacio. Entonces su formulación es muy simple: en un punto donde varía en función del tiempo el vector eléctrico existe y también varía en función del tiempo el vector del campo magnético.

Gentileza de Manuel Mayo

166

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

¿Y no es que todo lo expuesto resulta ser pura fantasía? - preguntará el lector. No olvide que la medición en un punto de los valores de los vectores - que cambian rápidamente - de los campos eléctrico y magnético es una tarea prácticamente irrealizable. ¡Una observación justa! Mas se juzga sobre la grandeza de las leyes de la naturaleza

por

los

corolarios

que

de

éstas

derivan.

Y

los

corolarios

son

innumerables. No voy a exagerar, en modo alguno, si digo que toda la electrotecnia y la radiotecnia se contienen en las leyes de Maxwell. Sea como fuera, es indispensable contar sobre una deducción importantísima que se desprende de las ecuaciones de Maxwell. Por medio de cálculos absolutamente estrictos

se

puede

demostrar

que

debe

existir

el

fenómeno

de

radiación

electromagnética. Supongamos que en una porción limitada del espacio hay cargas y corrientes. En semejante sistema pueden tener lugar diversas transformaciones energéticas. Fuentes mecánicas o químicas crean corrientes eléctricas, las corrientes, a su vez, pueden poner en movimiento unos mecanismos y crear calor que se libera en los conductores. Calculemos las ganancias y las pérdidas. ¡El balance no coincide! El cálculo demuestra que cierta parte de energía de nuestro sistema se fue al espacio. ¿Puede la teoría decir algo sobre esta energía «irradiada»? Resulta que sí, puede. Cerca del manantial la solución de la ecuación tiene una forma compleja, en cambio, a unas distancias que superan sustancialmente las dimensiones del sistema «radiante», el cuadro se torna muy preciso y, lo que es lo principal, susceptible de comprobarse en el experimento. A grandes distancias, se puede caracterizar la radiación electromagnética - así denominaremos aquel déficit energético que se crea en el sistema de las cargas en movimiento - en cada punto del espacio por la dirección de propagación. La energía electromagnética se desplaza en esta dirección a una velocidad de cerca de 300.000 km/s. ¡Esto valor se deduce de la teoría! La segunda deducción de la teoría: los vectores eléctrico y magnético son perpendiculares a la dirección de propagación de la onda y son perpendiculares entre sí. Y, en tercer lugar, la intensidad de la radiación electromagnética (la

Gentileza de Manuel Mayo

167

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

energía que corresponde a una unidad de superficie) disminuye inversamente proporcional al cuadrado de distancia. Puesto que se conocía que la luz se propaga precisamente con la velocidad de 300.000 km/s calculada para la radiación electromagnética, así como había datos lo suficientemente exhaustivos acerca de la polarización de la luz, los cuales hacían pensar que la energía luminosa acusa ciertas propiedades «transversales», Maxwell llega a la conclusión de que la luz es una forma de radiación electromagnética. Al cabo de unos diez años después de la muerte de Maxwell, a finales de los años 80 del siglo XIX, el relevante físico alemán Enrique Hertz (1857 - 1894) confirmó por vía experimental todas las deducciones de la teoría de Maxwell. Después de estos experimentos, las leyes de Maxwell se afirmaron por los siglos de los siglos como una de las piedras angulares, una de aquellas que se pueden contar con los dedos,

sobre

las

cuales

descansa

el

edificio

de

las

ciencias

naturales

contemporáneas. Modelos mecánicos de radiación Los modelos mecánicos se contraponen a los matemáticos. Los primeros se pueden realizar por medio de bolitas, muelles, cuerdas, cordones de goma, etc. El modelo mecánico contribuye a que el fenómeno se haga «palmario». Al construir un modelo mecánico y mostrar su funcionamiento ayudamos a comprender el fenómeno, señalando: he aquí que esta magnitud se comporta a semejanza de aquel desplazamiento. No a cada modelo matemático, ni mucho menos, puede ponerse en correspondencia un modelo mecánico. Antes de hablar sobre la radiación electromagnética cuya existencia real se establece por un sinnúmero de experimentos y se deduce, con lógica férrea, a partir de las ecuaciones de Maxwell, tenemos que decir algunas palabras acerca de los posibles modelos mecánicos de radiación. Hay dos modelos de este tipo: el corpuscular y el ondulatorio. Se puede fabricar un juguete que «radiará» en todas las direcciones flujos de partículas pequeñas: guisantes o semillas de amapola. Este será justamente el modelo corpuscular, ya que la palabra «corpúsculo» significa «partícula».

Gentileza de Manuel Mayo

168

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Una partícula que vuela con cierta velocidad y posee una masa debe comportarse de acuerdo con las leyes de la mecánica. Las partículas son capaces de chocar entre sí cambiando la dirección de su movimiento, no obstante, deben hacerlo obligatoriamente de tal modo que la colisión se subordine a las leyes de la conservación

de

la

energía

e

impulso.

Ciertos

cuerpos

pueden

resultar

impermeables para las partículas, en este caso las partículas deben reflejarse de aquéllos según la ley, el ángulo de incidencia es igual al ángulo de reflexión. Las partículas pueden absorberse por el medio. Si en un medio para las partículas es más fácil moverse que en el otro, no es difícil explicar el fenómeno de refracción. Al pasar por un orificio en una pantalla no transparente el flujo de partículas que tiene su origen en una fuente puntual debe migrar al interior de un cono. Realmente, es posible una disipación insignificante por cuanto una pequeña parte de partículas puede reflejarse de los bordes del orificio. Pero, por supuesto, estas «reflexiones» pueden ser tan sólo caóticas y no formarán ningún dibujo regular que saiga de los límites de la sombra geométrica. El modelo ondulatorio se representa, por lo común, mediante un baño de agua. No es difícil hacer oscilar de una manera periódica el agua en un punto cualquiera. Desde este punto como de una piedra arrojada al agua se extienden círculos. La superficie ondulada del agua se advierte a simple vista. La energía se difundirá por todas las partes y una astilla que se encuentra lejos comenzará a oscilar con la frecuencia del punto al cual suministramos la energía. Es algo más difícil hacer patentes las oscilaciones sonoras. Sin embargo, es posible poner experimentos absolutamente convincentes los cuales demostrarán que la propagación del sonido es la transferencia de un punto a otro de desplazamientos mecánicos del medio. La propagación del sonido y de la luz, al igual que cualquier otra radiación electromagnética, así como la propagación de las partículas tales como los electrones o los neutrones se puede interpretar mediante los dos modelos. Se dan casos en que ambos modelos explican los fenómenos. A veces, estas explicaciones resultan ser completamente exactas y, a veces, solamente uno de los modelos se presenta como adecuado.

Gentileza de Manuel Mayo

169

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Depende de muchas circunstancias en qué casos es necesario recurrir a uno u otro cuadro patente y qué precisión se puede alcanzar empleando tal o cual modelo. Lo más esencial es la relación entre la longitud de onda de la radiación y el tamaño de los orificios u obstáculos que se encuentran en el camino del flujo de radiación. También es importante el carácter del manantial y del receptor de energía. ¿Se permite considerarlos puntuales? ¿Qué distancias separan el manantial de radiación, el obstáculo y el receptor? El modelo corpuscular exige que la energía se propague por líneas rectas, o sea, por rayos. No se admite que los rayos se encorven. Si la longitud de onda de la radiación es mucho menor que el orificio, la radiación (el sonido, la luz, etc.) se propaga por rayos. Se puede demostrar que así debe comportarse la onda; se sobreentiende que así se comporta el flujo de partículas. En semejantes casos ambos modelos son buenos. Sin embargo, también en los casos contrarios ambos modelos pueden resultar idóneos en igual grado. Si examinamos el paso del rayo luminoso a través de un cristal, o del sonido a través de una red con mallas cuyo tamaño es del orden de milímetros no descubriremos desviaciones del curso de los rayos respecto a la línea recta. En estos casos la longitud de onda de la radiación supera considerablemente las dimensiones de las ranuras. Las ondas «dejan inadvertidos» los obstáculos. También es fácil demostrar tanto por medio de razonamientos, como mediante experimentos en baño de agua que la ley de la reflexión desde las paredes cuyas irregularidades son menores que la longitud de onda se observa para el modelo ondulatorio. El lector conoce perfectamente cómo refleja el sonido o cualquier otra onda una superficie lisa plana. Interesantes problemas surgen en los casos cuando la superficie reflectora tiene forma encorvada. He aquí uno de semejantes problemas. ¿Cuál debe ser la superficie para volver a concentrar la onda que partió de una fuente puntual en un solo punto? La forma de la superficie reflectora debe ser tal que los rayos que inciden sobre esta partiendo de un mismo punto pero formando distintos ángulos se reflejen concentrándose otra vez en un punto. ¿Qué superficie debo ser ésta?

Gentileza de Manuel Mayo

170

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Recordemos al lector las propiedades de una admirable curva que lleva el nombre de elipse. La distancia desde un foco de la elipse hasta cualquier punto de la curva más la distancia desde otro foco hasta este mismo punto es la misma para todos los punto» de la elipse. Figúrense que la elipse gira alrededor del diámetro mayor. La curva que gira barrerá una superficie llamada elipsoidal. (La forma del elipsoide recuerda un huevo.) La elipse posee la siguiente propiedad. Si trazamos un ángulo que se apoya en uno de los puntos y cuyos lados pasan a través de los focos de la elipse, la bisectriz de este ángulo será normal a la elipse. En consecuencia, si una onda o un flujo de corpúsculos salen de un foco de la elipse, resultará que, al reflejarse de la superficie de ésta los mismos llegarán al otro foco. Para las ondas sonoras la superficie del techo es lisa. Y, si el techo resulta abovedado, en el local puede observarse un caso especial de reflexión del sonido: por cuanto la bóveda por su forma se aproxima a una superficie elipsoidal, el sonido que ha salido de uno de sus focos llegará al otro. Esta propiedad de las superficies abovedadas se conocía ya en la antigüedad.

Figura 5.2

Gentileza de Manuel Mayo

171

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

En la Edad Media, en el período de la inquisición, dicha propiedad se utilizó para escuchar a hurtadillas las conversaciones. Dos hombres que con voz velada, confiaban uno a otro sus pensamientos, ni siquiera sospechaban que, sigilosamente, les escuchaba el monje que parecía dormitar en otro rinconcito de la posada (fig. 5.2). Tanto el modelo corpuscular, como el ondulatorio son de la misma forma convenientes para explicar este fenómeno. Sin embargo, el modelo ondulatorio es incapaz de explicar los fenómenos del tipo de colisiones de las bolas de billar. Por otra parte, existen algunos hechos importantísimos cuya explicación es superior a las fuerzas del modelo corpuscular. En primer término, se trata de la interferencia, o sea, de la adición cuando la suma puede resultar menor que los sumandos o, incluso, igual a cero. Si dos ondas llegan a un punto y se suman, el papel cardinal lo desempeña la diferencia de sus fases en este punto. Si la cresta de una onda corresponde a la cresta de otra onda, entonces, las ondas se suman. En cambio, si la cresta de una onda coincide con la depresión de la otra y si en este caso las amplitudes de las ondas son idénticas, entonces, la adición llegará a... cero: las ondas concurridas en un punto se extinguirán recíprocamente. Al superponerse un campo ondulatorio sobre el otro, en unos sitios tendrá lugar su adición aritmética, y en otros, sustracción. En ello, de una forma precisa, consiste el fenómeno de interferencia. He aquí el primer fenómeno absolutamente imposible de interpretarse en el lenguaje de los flujos de partículas. En caso de comportarse la radiación como un flujo de guisantes, los campos superpuestos deberían intensificar uno a otro siempre y en todas las partes. El segundo fenómeno importante es la difracción, es decir, el contorneo de los obstáculos. El flujo de partículas no puede comportarse de tal manera, pero la onda debe proceder precisamente así. En las escuelas el fenómeno de difracción se muestra excitando ondas en un recipiente lleno de agua. En el camino que sigue la onda se coloca un tabique con orificio y a simple vista se deja ver cómo se contornea el ángulo. La causa de esta conducta es completamente natural. Es que en el plano del orificio las partículas de agua se han puesto en estado de oscilación. Cada punto que se encuentra en el plano del orificio da origen a una onda con el

Gentileza de Manuel Mayo

172

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

mismo derecho que el manantial primario de radiación. Y no hay nada que impida a esta onda secundaria «doblar la esquina». Los fenómenos de interferencia y de difracción se representan sin dificultad si se observa una condición: la longitud de onda debe ser conmensurable con las dimensiones del obstáculo o del orificio. En el siguiente libro precisaremos esta condición y hablaremos más detalladamente sobre la difracción y la interferencia. Mientras tanto, nos detendremos en la variación de la frecuencia de la onda percibida por el observador estando en movimiento la fuente de radiación. Ya en los albores de la física teórica Cristian Doppler (1803 - 1853) demostró el hecho de que este fenómeno es una consecuencia indispensable del modelo ondulatorio. Realicemos la deducción de la fórmula de Doppler que nos servirá más tarde. Para que el cuadro sea más patente supongamos que un automóvil va aproximándose a una orquesta en movimiento. El número de condensaciones del aire que, en una unidad de tiempo, alcanzan el oído del chófer será mayor que cuando el coche permanezca inmóvil en una relación (c + u)/u, donde c es la velocidad de propagación de la onda, y u, la velocidad relativa del manantial y del receptor de la onda. Por consiguiente, ν’ = ν (1 + u/c) Esto significa que la frecuencia percibida ν' se acrecienta para el acercamiento del automóvil y de la orquesta (el tono del sonido es más agudo, u > 0) y disminuye cuando éstos se alejan (el tono del sonido es más grave, u < 0). Adelantándonos podemos decir que para la onda luminosa esta deducción suena así: al alejarse la fuente tiene lugar el «desplazamiento rojo». El lector apreciará la importancia de esta deducción cuando hablemos sobre las observaciones de los espectros de las lejanas estrellas. Desde tiempos remotos hasta los años 20 del siglo XX, los pensadores discutían a menudo el problema de si tal o cual transmisión de energía tiene carácter ondulatorio o corpuscular. La experiencia ha demostrado que cualquier irradiación presenta dos aspectos. Y únicamente la combinación de estos dos aspectos refleja la realidad de una forma fidedigna. La teoría elevó este hecho al rango de la ley

Gentileza de Manuel Mayo

173

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

fundamental de la naturaleza. Mecánica ondulatoria, mecánica cuántica, física cuántica, todas éstas son denominaciones equivalentes de la teoría moderna del comportamiento de los campos y las partículas. Dos aspectos del campo electromagnético En algunos fenómenos la radiación electromagnética se comporta a semejanza de una onda, y en otros, como un flujo de partículas. En este sentido las leyes de Maxwell acusan un «defecto». Nos presentan tan sólo el aspecto ondulatorio de la radiación electromagnética. En plena concordancia con los experimentos la solución de las ecuaciones de Maxwell conduce a la conclusión que siempre es posible concebir la radiación electromagnética como suma de ondas de diferentes longitudes e intensidades. Si el sistema radiador representa una corriente eléctrica de frecuencia estrictamente fijada, entonces, la radiación será una onda «monocromática» (de un solo color).

Figura 5.3 La onda electromagnética se ilustra en la fig. 5.3. Con el fin de imaginarnos los cambios que se operan en el espacio durante la propagación de la energía electromagnética, hay que «extender» nuestro cuadro como un todo rígido en dirección del eje de abscisas. Dicho cuadro es el resultado de la solución de las ecuaciones de Maxwell. Precisamente aquel nos permite hablar sobre las ondas electromagnéticas. Sin embargo, al hacer uso de este término y recurrir a la analogía entre la onda Gentileza de Manuel Mayo

174

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

electromagnética y la onda que se propaga en el agua debido a echarle una piedra, conviene a proceder con suma precaución. Los cuadros patentes, con facilidad, pueden inducirnos en un error. La onda en el agua no es sino un modelo de la onda electromagnética. Esto significa que solamente en algunos aspectos las ondas electromagnéticas y las en el agua se comportan de una forma idéntica. Bueno, pero, ¿no es cierto que la onda electromagnética representada en la fig. 5.3 y la onda del mar que ora hace subir, ora descender una astilla arrojada al agua se parecen como dos gotas de agua? ¡Nada semejante! Reflexione bien sobre la esencia del dibujo. ¡Por el eje vertical está marcado el vector del campo eléctrico y no, de ningún modo, el desplazamiento espacial! Cada punto en el eje horizontal muestra que en el caso de colocar en el punto una carga eléctrica, sobre ésta habría ejercido su acción la fuerza representada por el valor de la ordenada. Hablando con propiedad, durante la migración de la onda electromagnética no hay cosa alguna que abandone su lugar. Mientras tanto, hasta para las oscilaciones muy lentas, en la práctica es absolutamente imposible realizar un experimento, que, de una forma palmaria, hubiera demostrado al lector cómo cambia el valor de la onda electromagnética en uno u otro punto. De este modo resulta que las ideas sobre la onda electromagnética revisten carácter teórico. Hablamos con seguridad sobre la existencia de la onda electromagnética por la sencilla razón de que escuchamos la radio. No dudamos, ni mucho menos, de que la onda electromagnética posee una frecuencia determinada debido a que para la recepción de tal o cual estación es necesario sintonizar el aparato receptor a una frecuencia determinada. Estamos seguros de que el concepto de longitud es aplicable a la onda electromagnética no sólo a causa de que podemos medir la velocidad de la onda y calcular la longitud empleando la ecuación c = νλ que relaciona la frecuencia, la longitud de onda y la velocidad de su propagación, sino también porque estamos en condiciones de juzgar sobre la longitud de la onda electromagnética estudiando el fenómeno de dirección, es decir, de contorneo de los obstáculos, con la particularidad de que los principios de esta medición son los mismos que para las ondas que se propagan en agua. La causa de que es absolutamente necesario prevenir al lector para que no procure formarse una idea palmaria acerca de la onda electromagnética reside en que, como

Gentileza de Manuel Mayo

175

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

ya hemos dicho al principio del párrafo, la radiación electromagnética «se parece» no sólo a la onda, sino también, en una serie de casos, nos «recuerda» el comportamiento de un flujo de partículas. Y representarnos en nuestra imaginación algo que, simultáneamente, se parece al flujo de partículas y a la onda, eso sí que resulta completamente imposible. Se trata de procesos físicos los cuales no pueden dibujarse con tiza en el encerado. Esta circunstancia no significa, claro está, que no podemos conocer, de un modo exhaustivo, el campo electromagnético. En esto caso se debe tener presente que los cuadros que nos ofrecen una representación patente no son sino material didáctico, un método para retener mejor en la memoria las leyes. Y no se debe olvidar que el cuadro ondulatorio es tan sólo el modelo de la radiación electromagnética. ¡Y no más! En los casos convenientes hacemos uso de este modelo, pero no nos debe asombrar, en modo alguno, que en una u otra ocasión dicho modelo sólo nos inducirá en error. Análogamente, tampoco se puede observar siempre el aspecto corpuscular del campo electromagnético. Sea como sea, es más simple, (desde luego, es mejor decir, fue más simple anteriormente) observar el aspecto corpuscular de la radiación electromagnética para los casos de ondas cortas. En la cámara de ionización y en otros aparatos análogos se puede observar el choque del cuanto de la radiación electromagnética con el electrón o con otra partícula. La colisión puede transcurrir como el encuentro de bolas de billar. Se excluye completamente la posibilidad de comprender tal comportamiento recurriendo a la ayuda del aspecto ondulatorio de la radiación electromagnética. Examinemos el nacimiento de la radiación electromagnética en el lenguaje de la teoría de Maxwell. El sistema de cargas oscila con cierta frecuencia. Al ritmo de estas oscilaciones varía el campo electromagnético. La velocidad de propagación de este campo igual a 300.000 km/s dividida por la frecuencia de oscilación y nos proporciona el valor de la longitud de onda de la radiación. Si pasamos al lenguaje de la física cuántica el mismo fenómeno se describirá ya de la siguiente manera. Existe un sistema de cargas para el cual es característico un sistema de niveles discontinuos de energía. Debido a cierta causa este sistema llegó

Gentileza de Manuel Mayo

176

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

al estado de excitación, no obstante, su vida en este estado duró un lapso corto, pasando al nivel más bajo. La energía que se liberó en esto caso E2 –E1 = hν se radia en forma de partícula que lleva el nombre de fotón. La constante h ya nos es conocida. Es la misma constante de Planck. Si los niveles de energía del sistema están dispuestos muy cerca unos de otros, el fotón posee pequeña energía, pequeña frecuencia y, por consiguiente, una gran longitud de onda. En este caso el aspecto corpuscular cuántico del campo electromagnético es poco perceptible, poniéndose de manifiesto tan sólo en los fenómenos de absorción relacionados con las variaciones sumamente pequeñas de energía de los electrones o de los núcleos atómicos (resonancia magnética). Para ondas de gran longitud no se logra observar colisiones entro el fotón y las partículas, similares al impacto de las bolas de billar. Exponemos de una manera sucinta los hechos que, por decirlo así, pusieron a los físicos entre la espada y la pared, obligándoles a reconocer que la teoría ondulatoria (en la que durante muchos decenios se había creído como en una verdad plena y exhaustiva) es incapaz de explicar todos los hechos concernientes a los campos electromagnéticos. Estos hechos son muy numerosos, mas por ahora nos limitamos al fenómeno que lleva el nombre de efecto fotoeléctrico. Después de que el lector se ponga de acuerdo de que el cuadro del campo electromagnético no puede crearse sin el aspecto corpuscular, nos dirigiremos a los admirables experimentos de Hertz en cuyo terreno maduró toda la radiotecnia, y señalaremos de qué modo el aspecto ondulatorio del campo electromagnético fue trazado no sólo en sus rasgos generales, sino también en los detalles. Efecto fotoeléctrico El sonoro y bello nombre de «fotón» apareció algo más tarde que el producto de la constante de Planck h por la frecuencia de la onda electromagnética ν. Como hemos dicho con anterioridad, la transición de los sistemas de un estado de energía al otro viene acompañada con la absorción o radiación de una porción de energía kν. A esta

Gentileza de Manuel Mayo

177

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

conclusión llegó en la divisoria entre el siglo XX y el siglo XIX el relevante físico alemán Max Planck. El mismo demostró que sólo por medio de este procedimiento se lograba explicar la radiación de los cuerpos incandescentes. Sus razonamientos se referían a las ondas electromagnéticas obtenidas por un procedimiento no radiotécnico. En aquel entonces todavía no se había demostrado ni universalmente reconocido que aquello que era válido para la luz era cierto también para las ondas radioeléctricas, aunque las leyes de Maxwell indicaban con toda certidumbre que entre las ondas radioeléctricas y otras ondas electromagnéticas, incluyendo la luz, no hay ninguna diferencia de principio. La comprensión y las demostraciones experimentales de la validez universal de la afirmación de Planck llegaron más tarde. En el trabajo de Planck se trataba de la emisión de la luz por porciones, es decir, por cuantos. Sin embargo, en este trabajo no se señalaba que el carácter cuántico de la radiación hace inevitable la introducción en el análisis del aspecto corpuscular del campo electromagnético. Sí, se decía en aquel tiempo, el campo se radia por porciones, mas la porción es cierto tren de ondas.

Figura 5.4 El paso más importante, es decir, el reconocimiento del hecho de que la porción emitida de energía kν es la energía de la partícula la cual, de un modo inmediato, fue bautizada con el nombre de fotón, este paso lo hizo Einstein quien demostró que Gentileza de Manuel Mayo

178

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

únicamente valiéndose de las ideas corpusculares era posible explicar el fenómeno del efecto fotoeléctrico, o sea, la expulsión de los electrones a partir de los cuerpos sólidos por impacto de la luz. En la fig. 5.4 se representa el esquema que a finales del siglo XIX dio origen al estudio detallado del fenómeno que recibió el nombre de efecto fotoeléctrico externo. Por lo visto, Enrique Hertz, en 1888, indicó por primera vez que la luz afecta de cierto modo los electrodos del tubo de vacío. Trabajando simultáneamente, Svante Arrhenius (1859 - 1927). Guillermo Hallwachs (1850 - 1922), Augusto Righi (1850 1920) y el notable físico ruso Alexandr Grigóricvich Stolólov (1839 - 1896) demostraron que la iluminación del cátodo daba lugar a la aparición de la corriente. Si un tubo mostrado en la figura (este tubo se denomina célula fotoeléctrica) no se aplica la tensión, entonces, sólo una parte insignificante de electrones que la luz arranca del cátodo llegará al electrodo opuesto. Una débil tensión «instigadora» («menos» en el fotocátodo) aumentará la corriente. Al fin y al cabo, la corriente alcanzará la saturación: todos los electrones (cuyo número a la temperatura dada es completamente determinado) llegan al ánodo. La intensidad de la corriente fotoeléctrica es estrictamente proporcional a la intensidad de la luz. Esta última se determina de modo unívoco por el número de fotones. En el acto a uno se le ocurre (y los cálculos rigurosos, así como los experimentos confirman esta idea) que un fotón expulsa de la sustancia un electrón. La energía del fotón se consume para arrancar el electrón al metal y comunicarle velocidad. Precisamente de esta manera se entiende la ecuación que por primera vez fue escrita por Einstein (1905). De aquí esta ecuación:

donde A es el trabajo de salida. La energía del fotón debe ser, en todo caso, mayor que el trabajo de salida de los electrones a partir del metal.

Gentileza de Manuel Mayo

179

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Y este hecho significa que para el fotón de cada energía (y la energía está relacionada unívocamente con la «cromaticidad») existe su frontera del efecto fotoeléctrico. Las células fotoeléctricas que utilizan el efecto fotoeléctrico externo descrito por nosotros están difundidas ampliamente. Estas encuentran aplicación en los relés fotosensibles, en la televisión y en el cine sonoro. La sensibilidad de las células fotoeléctricas puede elevarse al llenarlas de gas. En este caso, la corriente se intensifica debido a que los electrones rompen las moléculas neutras del gas, integrándolas a la corriente fotoeléctrica. El efecto fotoeléctrico, aunque no aquel que acabamos de describir, sino el llamado efecto fotoeléctrico interno que tiene lugar en los semiconductores en el límite de la capa p - n, cumple un papel de primordial importancia en la técnica moderna. No obstante, para no interrumpir la exposición, aplacemos la conversación sobre el valor aplicado del efecto fotoeléctrico hasta el siguiente libro. Por ahora, teníamos la necesidad de examinar este fenómeno únicamente para demostrar inevitabilidad del reconocimiento de las propiedades corpusculares en el campo electromagnético. Durante largo tiempo los fotones se encontraban en la situación de hijastros de la física que no sabían dónde meterse. La causa de ello residía en que la demostración de la existencia del fotón, así como la investigación de las leyes del efecto fotoeléctrico en 20 ó 30 años se adelantaron al proceso de afirmación de la física cuántica. Solamente a finales de los años 20 (del siglo XX), cuando estas leyes se establecieron, se pudo comprender por qué la misma constante numérica, o sea, la constante de Planck h, aparecía tanto en la fórmula de energía del fotón, como en la fórmula de la cual habíamos hablado en páginas anteriores y que determinaba los posibles valores del momento de impulso de las partículas. El valor de esta constante se determina a partir de los más diversos experimentos. El efecto fotoeléctrico, el llamado efecto Compton (variación de la longitud de onda de los rayos X durante la dispersión), la aparición de una radiación para la aniquilación de las partículas, todos estos experimentos, así como muchos otros Los experimentos de Hertz

Gentileza de Manuel Mayo

180

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Ahora nos referiremos al hecho de cómo fueron demostradas las hipótesis concernientes al aspecto ondulatorio del campo electromagnético. La lógica y la matemática sacan a partir de las leyes de Maxwell unas deducciones. Estas deducciones podrían ser ciertas, pero, podrían no confirmarse en el experimento. Una teoría física ocupa su lugar en la ciencia tan sólo después de su comprobación experimental. El camino del devenir de la teoría del campo electromagnético, desde hechos sueltos hacia hipótesis generales, desde las hipótesis hacia sus consecuencias, y, la última etapa, el experimento que pronuncia su fallo decisivo, es el único derrotero justo del naturalista. Y este derrotero» se observa con especial nitidez precisamente en el ejemplo de las leyes del campo electro magnético. Esta es la razón de que nos detendremos de una forma detallada en los experimentos de Hertz que incluso hoy día ayudan al profesor a mostrar al escolar o al estudiante cómo se conforma la seguridad del científico en el carácter certero de las leyes de la naturaleza. Tenemos que comenzar nuestra historia desde el año 1853 cuando el famoso físico inglés Kelvin demostró matemáticamente que durante la descarga del condensador a través de una bobina de autoinducción en el circuito se engendran oscilaciones eléctricas: la carga en las armaduras del condensador, la tensión en cualquier tramo del circuito y la intensidad de la corriente, todas estas magnitudes cambiarán según la ley de oscilación armónica. Si considerarnos que la resistencia en el circuito es ínfima, estas oscilaciones durarán eternamente. La fig. 5.5 representa el cuadro que esclarece los fenómenos acaecidos en este, así llamado circuito oscilante. En el instante inicial de tiempo el condensador está cargado. Apenas el circuito se haya cerrado en éste fluirá la corriente. Dentro de un cuarto de período el condensador resultará por completo descargado. Su energía q2/2C se transformará en energía del campo magnético de la bobina. En este instante la intensidad de la corriente será máxima. La corriente no se interrumpirá, sino seguirá fluyendo en la misma dirección disminuyendo poco a poco su intensidad. Dentro de un semiperíodo la intensidad de la corriente se anulará y desaparecerá la energía magnética LI2/2, mientras que el condensador se cargará por completo,

Gentileza de Manuel Mayo

181

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

recuperando su energía. Sin embargo, la tensión cambiará de signo. Seguidamente, el proceso se repetirá, por decirlo así, en el sentido contrario. Al pasar cierto tiempo T (período de oscilación) todo regresará al estado inicial y el proceso comenzará de nuevo.

Figura 5.5 Las oscilaciones eléctricas habrían durado infinitamente, si no hubiera sido por la inevitable resistencia a la corriente. Gracias a esta resistencia, en cada período la energía se irá perdiendo, y las oscilaciones, disminuyendo su amplitud, se amortiguarán de una manera rápida. La ostensible analogía con las oscilaciones de un peso fijado en un muelle nos permite prescindir del análisis algebraico del proceso, formándonos una idea sobre cuál será el período de oscilación en un circuito de este tipo. (El lector debe refrescar en la memoria las correspondientes páginas del libro 1.) En efecto, resulta bastante evidente que la energía eléctrica del condensador es equivalente a la energía potencial de un muelle comprimido, y la energía magnética de la bobina, a la energía cinética del peso.

Gentileza de Manuel Mayo

182

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Equiparando las magnitudes análogas, «deducimos» la fórmula del período de las oscilaciones eléctricas que tienen lugar en el circuito: q2/2C tiene como análogo kx2/2; LI2/2 tiene como análogo mv2/2; k es análogo de 1/C, y L, de m. Resulta que la frecuencia de oscilación es

ya que para la oscilación mecánica la correspondiente expresión tiene la siguiente forma

Ahora tratemos de adivinar el curso de razonamientos de Hertz quien se planteó el problema de demostrar, sin salir del laboratorio, la existencia de las ondas electromagnéticas que se propagan con la velocidad de 300.000 km/s. De este modo, resulta necesario obtener una onda electromagnética con una longitud del orden de 10 m. Si Maxwell tenía razón, entonces, para lograr esto objetivo, es preciso que los vectores eléctrico y magnético oscilasen con la frecuencia de 3 x 108 Hz... perdone, s-1. Es que en aquel entonces Hertz no conocía que su nombre sería inmortalizado con la denominación de la unidad de frecuencia. Entonces, ¿por dónde empezar? En primer término, como quiera que las oscilaciones sean amortiguadas, hay que crear un dispositivo capaz de renovar el proceso después de haber cesado la corriente. Esto se realiza sin dificultad. El esquema se representa en la fig. 5.6. Al devanado primario del transformador T se suministra la tensión alterna. Apenas ésta haya alcanzado su valor de perforación entre las esferas conectadas al devanado secundario saltará una chispa. Justamente esta chispa cierra el circuito oscilante K haciendo las veces de llave, y en el circuito con una frecuencia más o menos alta pasará una decena de oscilaciones con amplitud cada vez menor.

Gentileza de Manuel Mayo

183

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Pero la frecuencia debe ser alta. ¿Qué se debe hacer para conseguirlo? Disminuir la autoinducción, así como disminuir la capacidad. ¿De qué modo?

Figura 5.6 Sustituimos la bobina por un conductor recto, y en cuanto a las placas del condensador comenzamos a aumentar la distancia entre éstas y aminorar su área. ¿En qué degenera, entonces, el circuito oscilante? Meramente, de éste no queda nada: sólo dos varillas que terminan en esferas entre las cuales salta la chispa. Do esta forma, Hertz llegó a la idea de su vibrador u oscilador que puede servir tanto de fuente, como de receptor de las ondas electromagnéticas. A Hertz le fue difícil vaticinar de antemano a qué serían iguales la inductancia y la capacidad de este «circuito» sui géneris, del cual, por decirlo así, no quedaron ni los huesos. La inductancia y la capacidad del vibrador no están concentradas en un punto del circuito, sino están distribuidas a lo largo de las varillas. Se necesita otra teoría. Sin embargo, el examen de este nuevo enfoque de los circuitos eléctricos en los cuales fluyen corrientes de frecuencia muy alta, nos conduciría demasiado lejos. El lector puede creernos de palabra que en el vibrador de Hertz, en efecto, se engendran oscilaciones de corriente de alta frecuencia. Gentileza de Manuel Mayo

184

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

El «transmisor» y el «receptor» de ondas empleados por Hertz eran, prácticamente, idénticos. En el «transmisor» las oscilaciones se excitaban por una chispa que saltaba de un modo periódico entre las esferas en correspondencia con el trabajo del transformador que suministraba tensión al vibrador. El espacio de chispa, o sea, la distancia disruptiva, podía variarse mediante un tornillo micrométrico.

Enrique Hertz (1857 - 1894), relevante físico alemán que demostró experimentalmente, por medio de “vibrador” y “resonador” que la descarga oscilante engendra en el espacio ondas electromagnéticas. Hertz puso de manifiesto que las ondas electromagnéticas se reflejan, se refractan y se polarizan, con lo que confirmó la teoría de Maxwell. Reconociendo el mérito de Enrique Hertz cuyos experimentos pusieron los cimientos de la radiotecnia, el inventor de la radio Alexander S. Popov en su primera radiotransmisión en 1896 transmitió dos palabras: “Enrique Hertz”.

Gentileza de Manuel Mayo

185

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

De transmisores servían ya sea una espira rectangular del conductor interrumpida por el espacio de chispa, o bien, dos varillas que, según se deseaba, podían aproximarse hasta distancias de partes de milímetro. En su primer trabajo publicado en 1885 Hertz demostró que por el método descrito con anterioridad podían obtenerse oscilaciones de muy alta frecuencia y que estas oscilaciones, efectivamente, creaban en el espacio circundante un campo alterno cuya existencia se permitía apreciar debido a la chispa que saltaba en el «transmisor». El vibrador receptor Hertz lo llamó resonador. Desde el mismo comienzo al científico le era evidente el principio de detección del campo electromagnético que forma la baso de la radiotecnia contemporánea. A propósito, cabe señalar que en los trabajos de Hertz, así como varios decenios después, no estaban en boga las palabras «ondas electromagnéticas» ni «ondas radioeléctricas». Se habló de ondas eléctricas o de ondas de fuerza electrodinámica. En su siguiente trabajo Hertz demuestra que, en plena correspondencia con las exigencias de la teoría de Maxwell, el medio dieléctrico (una barra de azufre o de parafina) influye en la frecuencia del campo electromagnético. Al recibir este artículo, el editor de la revista, Helmholtz, contestó a Hertz enviándole una tarjeta: «El manuscrito se ha obtenido. Bravo. El jueves lo mando a la imprenta». Una enorme impresión a los físicos de aquel tiempo la produjo el trabajo de Hertz en que éste demostró la reflexión de las ondas electromagnéticas. Las ondas se reflejaban de una pantalla de cinc de 4 m x 2 m. El vibrador se encontraba a una distancia de 13 m de la pantalla y a una altura de 2,5 m desde el suelo. El resonador sintonizado se colocó a la misma altura y se trasladaba entre el vibrador y la pantalla. Al disponer el resonador a diferentes distancias respecto a la pantalla y observar la intensidad de la chispa, Hertz estableció la existencia de máximos y de mínimos característicos para el cuadro de la interferencia que lleva el nombre de onda estacionaria. La longitud de onda resultó próxima a 9,6 m. Quisiera subrayar que en aquel entonces nadie podía decir qué material debía servir de espejo para las ondas electromagnéticas. Ahora conocemos que las ondas de tal longitud no penetran en el metal, sino se reflejan de éste. En sus intentos de obtener demostraciones complementarias de la teoría de Maxwell, Hertz, disminuye las dimensiones geométricas de sus aparatos llevando la

Gentileza de Manuel Mayo

186

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

longitud de onda hasta 60 cm. En 1888 publica el trabajo «Acerca de los rayos de fuerza eléctrica». Logró concentrar la energía electromagnética por medio de espejos parabólicos. En el foco de los espejos se situaban las varillas del vibrador y del resonador. Valiéndose de este receptor y transmisor de espejo, Hertz demostró que las ondas electromagnéticas no pasaban a través de los metales, mientras que las pantallas de madera no retenían estas ondas.

Figura 5.7 En la fig. 5.7 se muestra cómo Hertz demostró la polarización de las ondas electromagnéticas. El camino del rayo electromagnético proporcionado por el vibrador A A, lo interceptaba la rejilla C hecha de alambres de cobre. Haciendo girar la rejilla Hertz mostró que la intensidad de la chispa en el resonador BB varía. La onda eléctrica incidente en la rejilla se desdoblaba en dos componentes: una perpendicular y otra paralela a los alambres de cobre; fue la componente perpendicular la que salvaba el obstáculo. Estos mismos razonamientos pueden referirse también al vector magnético. El carácter transversal de la onda electromagnética quedó demostrado. Finalmente, teniendo por objeto el estudio de la refracción de las ondas, Hertz prepara a partir de masa asfáltica, un prisma de más de una tonelada de peso. Para las ondas con una longitud de 60 cm se podía medir con gran precisión el coeficiente de refracción del asfalto. Dicho coeficiente resultó ser igual a 1,69. Gentileza de Manuel Mayo

187

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

¡Demostración de la existencia de las ondas electromagnéticas, medición de su longitud, establecimiento de las leyes de su reflexión, refracción y polarización! Y todo lo enumerado es resultado de un trabajo de tres años, solamente. Sobran razones para quedarse admirado. Clasificación de la radiación electromagnética Los físicos tienen que tratar con la radiación electromagnética de diapasón enorme. La

radiación

absolutamente

electromagnética despreciable.

La

de

la

corriente

posibilidad

de

práctica

frecuencia de

captar

urbana la

es

radiación

electromagnética comienza desde las frecuencias del orden de decenios de kilohercios, es decir, desde las longitudes de onda iguales a centenares de kilómetros. Las ondas más cortas tienen la longitud del orden de diezmilésimas parles del micrómetro, o sea, se trata de frecuencias del orden de miles de millones de gigahercios. Se da el nombre de ondas radioeléctricas a aquella radiación electromagnética que se crea por los medios electrotécnicos, es decir, a costa de oscilaciones de las corrientes eléctricas. Las ondas radioeléctricas más cortas son aquellas cuya longitud es de centésimas partes de milímetro. Desde varias centenas de micrómetros y más abajo se extiende la zona de las longitudes de onda de la radiación que se origina debido a las transiciones de energía en el seno de las moléculas, en el seno de los átomos y en el seno de los núcleos atómicos. Como vemos, este diapasón se solapa sustancialmente con el radioeléctrico. La irradiación de luz visible ocupa un sector estrecho. Sus límites son de 0,38 a 0,74 μm. Entre las radiaciones obtenidas por métodos no radiotécnicos la de longitudes de onda más largas se denomina radiación infrarroja, y la de longitudes de onda más cortas, ultravioleta, hasta las longitudes de cerca de 0,1 μm. La radiación electromagnética obtenida en los tubos de rayos X se solapa parcialmente con la zona de las ondas ultravioletas llegando hasta 0,01 μm donde, a su vez, se solapa con la zona de los rayos λ. Estos últimos tienen su origen en la desintegración nuclear, las reacciones nucleares y las colisiones entre las partículas elementales.

Gentileza de Manuel Mayo

188

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

La característica principal de cualquier radiación electromagnética es su espectro. Se denomina espectro el gráfico en que, por la vertical, se marca la intensidad (es decir, energía que recae en unidad de tiempo por una unidad de superficie), y por la horizontal, la longitud de onda o la frecuencia. El espectro más simple lo posee la radiación monocromática («de un solo color»).

Figura 5.8 Su gráfico consiste en una sola línea de ancho muy pequeño (fig. 5.8, arriba). El grado de monocromaticidad de la línea se caracteriza por la relación λ/∆λ. Las estaciones de radio dan una radiación casi monocromática. Por ejemplo, una estación de ondas cortas que trabaja en el diapasón de 30 m, la relación λ/∆λ es igual a 1000, aproximadamente. Los átomos excitados, por ejemplo, los átomos de los gases en las lámparas de luz diurna (la excitación tiene lugar a costa de colisiones de partículas cargadas positiva y negativamente que migran hacia el ánodo y el cátodo) ofrecen un espectro compuesto de una gran cantidad de líneas monocromáticas cuya anchura relativa es

Gentileza de Manuel Mayo

189

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

de (100.000)-1. En la resonancia magnética se observan líneas cuya anchura es hasta de 10-10. Estrictamente hablando, no existen espectros continuos. No obstante, si las líneas se solapan, el resultado lleva a la curva de intensidad representada en la parte inferior de la misma figura. Los datos sobre el espectro electromagnético pueden obtenerse tanto investigando la radiación, como estudiando la absorción. Hablando con propiedad, ambos experimentos son portadores de la misma información. Esto se pone de manifiesto a partir de la ley principal de la física cuántica. En el caso de radiación, el sistema pasa del nivel superior de energía al inferior, y en el caso de absorción, del nivel inferior al superior. Pero la diferencia de energía que determina la frecuencia de la radiación o de la absorción en ambos casos resultará ser idéntica. Y es solamente una cuestión de conveniencia la de qué espectro investigar: el de radiación o el de absorción. Al caracterizar el espectro de radiación podemos valernos, claro está, tanto del lenguaje ondulatorio, como del corpuscular. Si utilizamos el aspecto ondulatorio de la radiación, decimos que la intensidad es proporcional al cuadrado de amplitud de la onda. Al analizar la radiación en concepto de flujo de partículas, calculamos la intensidad como el número de fotones. Volvemos a repetir, una vez más, que no nos debe desconcertar, de ningún grado, la utilización alternativa de ambos aspectos del campo electromagnético. La radiación no se parece ni a la onda, ni al flujo de partículas. Los dos cuadros no son modelos propicios para utilizar cuando se explican tales o cuales fenómenos. No insertamos la escala de las ondas electromagnéticas, pero señalamos con bastante claridad que las denominaciones de sus diferentes sectores son hasta cierto punto convencionales y podemos encontrarnos con los casos en que las ondas de igual longitud tendrán nombres distintos en dependencia del método de su obtención. A la vez, la escala de las ondas electromagnéticas es continua. No hay porciones que no se puedan obtener por uno u otro procedimiento. Hay que tener presente, sin embargo, que sólo relativamente hace poco se ha puesto al descubierto el hecho de que las ondas infrarrojas se solapan con las

Gentileza de Manuel Mayo

190

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

radioeléctricas, los rayos γ con los rayos X, etc. Durante mucho tiempo existió una laguna entre las ondas radioeléctricas cortas y las infrarrojas. Ondas de 6 mm de longitud las obtuvo en 1895 el notable físico ruso Piotr Nikoláievich Lébedev, mientras que las ondas térmicas (las infrarrojas) hasta de 0,34 mm de longitud deben su descubrimiento a Rubens. En 1922, A. A. Glagóleva-Arkádieva eliminó también esta laguna, obteniendo por un método no óptico ondas electromagnéticas cuya longitud fue de 0,35 mm a 1 cm. Hoy en día las ondas de esta longitud se obtienen por los radiotécnicos sin dificultad. Sin embargo, en aquel entonces se necesitó una buena dosis de ingeniosidad e inventiva para construir el aparato que la investigadora bautizó de radiador de masa. De fuente de radiación electromagnética sirvieron limaduras metálicas que se encontraban en suspensión en el aceite para transformadores. A través de esta mezcla se dejaba pasar una descarga por chispa.

Gentileza de Manuel Mayo

191

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 6 La radio Contenido: •

Unas páginas de historia



Válvula tríodo y transistor



Radiotransmisión



Radiorrecepción



Propagación de las ondas radioeléctricas



Radiolocalización



Televisión



Microcircuitos electrónicos

Unas páginas de historia De la misma manera como Faraday no sospechaba que el descubrimiento de la inducción electromagnética conduciría a la creación de la electrotecnia y Rutherford consideraba que las conversaciones acerca de la posibilidad de extraer, en el futuro, energía a partir del núcleo atómico no eran sino una cháchara ignorante, de una forma análoga, Enrique Hertz que descubrió las ondas electromagnéticas y demostró que era posible captarlas a una distancia de varios metros, no sólo no pensó en la comunicación por radio, sino que hasta negó su posibilidad. ¿No es verdad que son tres hechos curiosos? Pero recapitular sobre éstos es tarea de un psicólogo. En cuanto a nosotros, limitándonos a constatar esta sorprendente circunstancia, vamos a ver cómo se desarrollaron los acontecimientos después de la prematura muerte de Hertz que tuvo lugar en 1894. Los experimentos clásicos de Hertz que hemos descrito bastante detalladamente atrajeron la atención de los científicos de todo el mundo. El profesor de la Universidad de San Petersburgo N. G. Egórov los imitó exactamente. La chispa en el resonador apenas si se percibía. Sólo se podía distinguir en plena oscuridad y, además, recurriendo a un cristal de aumento.

Gentileza de Manuel Mayo

192

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Alexandr Stepánovich Popov (1859 - 1906), un modesto profesor de electrotecnia en una escuela militar de la ciudad de Kronstadt2, en 1889, a la edad de 30 años comenzó a perfeccionar los experimentos de Hertz. Las chispas que obtenía en sus resonadores resultaron ser mucho más fuertes que aquellos que lograron producir otros investigadores. En otoño de 1894 en una revista inglesa apareció el artículo del conocido físico Oliverio Lodge quien daba a conocer que era posible perfeccionar el resonador de Hertz si se empleaba el tubo de Branly. El científico francés Eduardo Branly estudiaba la conductibilidad de las limaduras metálicas. Descubrió que dichas limaduras no siempre oponían igual resistencia a la corriente eléctrica. Resultó que la resistencia de las limaduras echadas en un tubo disminuía bruscamente si éste estaba situado cerca del vibrador de Hertz. La causa de ello residía en la aglutinación de las limaduras. La resistencia de las limaduras podía restituirse, pero, para lograrlo, el tubo se debía sacudir. Precisamente de esta propiedad de las limaduras metálicas se aprovechó Lodge. Este compuso un circuito a base del tubo de Branly (que recibió el nombre de cohesor, del latín «cohoesum», unido), una pila y un galvanómetro sensible. En el momento de paso de las ondas electromagnéticas la aguja del aparato se desviaba. Lodge consiguió detectar las ondas radioeléctricas hasta las distancias de cerca de 40 m. La inconveniencia de este sistema consistía en que el cohesor fallaba de una manera inmediata, apenas puesto en funcionamiento. Era necesario inventar un procedimiento que permitiría hacer volver las limaduras aglutinadas (soldadas) a su estado inicial y. además, componer el circuito tal que el sacudimiento se realizase como si «por sí mismo». Fue precisamente esta tarea la que resolvió Popov. Ensayó muchas variantes diversas del cohesor, parándose, en fin de cuentas, en la siguiente construcción. «Dentro de un tubo de vidrio, en sus paredes, están pegadas dos cintas AB y CD de fino platino en chapas, extendiéndose casi a toda la longitud del tubo. Una cinta sale a la superficie exterior por un extremo del tubo, y la otra, por el extremo opuesto. Las cintas de platino se encuentran con sus bordes a una distancia de 2 mm, siendo 2

En las cercanías de San Petersburgo; N. del T.

Gentileza de Manuel Mayo

193

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

su ancho de 8 mm; los extremos interiores de las cintas B y C no llegan a los tapones que cierran el tubo, para que el polvo colocado en este último no pueda, llenando el tapón, formar hilos conductores no destruibles por sacudimiento, como ocurrió en algunos modelos. Basta que la longitud de todo el tubo sea de 6 a 8 cm, siendo el diámetro de 1 cm. El tubo, durante su funcionamiento, se dispone horizontalmente, de modo que las cintas se encuentran en su mitad inferior y el polvo metálico las cubre. El mejor funcionamiento se logra cuando el tubo se llene no más que en una mitad».

Figura 6.1 El esquema del cohesor de Popov que se caracteriza con sus propias palabras se representa en la fig. 6.1. Popov empleaba polvo de hierro o de acero. Sin embargo, la tarea principal no consistía en perfeccionar el cohesor, sino en inventar el procedimiento para volverlo al estado inicial después de la recepción de la onda electromagnética. En el primer receptor de Popov cuyo esquema se reproduce en la fig. 6.2 este trabajo lo cumplía el timbre eléctrico común y

Gentileza de Manuel Mayo

194

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

corriente. El timbre sustituye la aguja del galvanómetro y su martillo golpea el tubo de vidrio cuando retorna a la posición inicial. ¡Qué solución tan sencilla del rompecabezas! Y de veras que es sencilla. Que el lector aprecie en su justo valor la idea principal, la que no ocurrió a los físicos tan excelentes como Hertz y Oliverio Lodge.

Figura 6.2 He aquí que en este simple esquema se utiliza por primera vez lo que los técnicos llaman circuito de relé. La ínfima energía de las ondas radioeléctricas no actúa directamente, sino se aprovecha para gobernar el circuito de una corriente. El timbre y el cohesor eran los primeros amplificadores. En los días primaverales de 1895, Popov decidió realizar su experimento en el jardín. Comenzaron a alejar el receptor del vibrador; 50 metros, el timbre responde a la chispa del vibrador; 60 metros, si, funciona; 80 metros, el timbre calla. Entonces Popov arrima al receptor un rollo de alambre de cobre, echa uno de sus extremos al árbol y el extremo inferior lo conecta al cohesor. El timbre empezó a sonar. Así fue cómo apareció la antena, primera en el mundo.

Gentileza de Manuel Mayo

195

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

El 7 de mayo celebramos el Día de la radio. En 1895, este día, Popov, en la sesión ordinaria de la Sociedad fisicoquímica rusa lee su informe que lleva el modesto título de «Acerca de la relación de los polvos metálicos a las oscilaciones eléctricas».

Alexandr Stepánovich Popov (1859 - 1906), físico y electrotécnico ruso, inventor de la radio. Los trabajos de A. S. Popov fueron altamente apreciados por los contemporáneos. En 1900, en la Exposición Mundial de París, por su invento le fue concedida la medalla de oro. Entre los circunstantes, muchas personas presenciaron unos años atrás los experimentos de Hertz, aquellos mismos experimentos en que la diminuta chispa debía observarse a través de una lupa. Sin embargo, al oír el animado tintineo del timbre del receptor de Popov todos comprendieron que nació el telégrafo sin hilos y apareció la posibilidad de transmitir señales a distancia. El 24 de marzo de 1896 Popov transmite el primer radiograma en el mundo. De un edificio a otro, a una distancia de 250 metros, cerrando la llave para intervalos

Gentileza de Manuel Mayo

196

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

breves y largos, se transmiten las palabras «Enrique Hertz» que se marcan en una cinta telegráfica. Para 1899 la distancia de la radiocomunicación entre los barcos del destacamentoescuela de minas alcanza ya 11 km. Ni siquiera las mentes más escépticas ponen en tela de juicio el valor práctico del telégrafo sin hilos. El inventor italiano Guillermo Marconi comenzó sus experimentos un poco más tarde que Popov. Seguía atentamente todos los alcances en el campo de electrotecnia y de estudio de las ondas electromagnéticas utilizándolos hábilmente para mejorar la calidad de la radiorrecepción y radiotransmisión. Su gran mérito atañe no tanto a la parte técnica del asunto, como a la organizativa. Pero ello no es poca cosa, y el nombre de Marconi se debe pronunciar con respeto, sin olvidar, al mismo tiempo, que la prioridad indiscutible y reconocida en todo el mundo en la creación de la radio pertenece al modesto científico ruso. Marconi no hacía mención de Popov en sus artículos e intervenciones. Pero no todos conocen que en 1901 invitó al profesor A. S. Popov a entrar a trabajar en la sociedad anónima cuyo presidente fue. La distancia de radiorrecepción crecía a ritmo rápido. En 1899 Marconi efectuó la radiocomunicación entre Francia e Inglaterra, y en 1901 la radio enlaza América y Europa. Bueno, ¿qué innovaciones técnicas contribuyeron a este éxito y al nacimiento de la radiodifusión? Desde el año 1899 la radiotecnia comienza a despedirse del cohesor. En vez de detectar las ondas radioeléctricas a costa de la caída de la resistencia en el circuito que tiene lugar por impacto de la onda electromagnética, se puede hacer uso de un procedimiento completamente distinto. Una onda electromagnética pulsatoria rectificada puede recibirse por un ordinario auricular telefónico. Empieza la búsqueda de distintos rectificadores. El detector de contacto sólido ampliamente difundido que se empleó hasta los años 20 del siglo XX era un cristal con conductibilidad unilateral. Cristales de este tipo se conocían desde 1874. A éstos pertenecen sulfuros de metales, piritas de cobre y centenares de diversos minerales.

Mis

coetáneos

recuerdan

semejantes

receptores

y

el

fastidioso

procedimiento de la búsqueda de un «buen contacto» por medio de una aguja muelleante el cual aparecía cuando la punta del muelle se apoyaba en el punto

Gentileza de Manuel Mayo

197

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

«propicio» del cristal (fig. 6.3). En aquella época ya trabajaban muchas estaciones de radio, por esta razón se debía sintonizar el receptor con la onda, hecho que se conseguía mediante la conmutación por contacto, si se tenía en cuenta la recepción de un número contado de estaciones, o bien, cambiando suavemente la capacidad del condensador, lo que se realiza también en los dispositivos modernos.

Figuras 6.3 y 6.4 Era muy difícil, si no imposible, obtener grandes potencias de las estaciones de radio por chispa ya que el descargador se calentaba. Estas estaciones de radio fueron relevadas por el arco voltaico y la máquina de alta frecuencia. La potencia comenzó a calcularse ya a centenas de kilovatios. Sin embargo, una verdadera revolución de la radiocomunicación que permitió pasar de la telegrafía sin hilos a la transmisión del habla humana y de la música la produjo la utilización de la válvula electrónica. En octubre de 1907, el ingeniero electricista inglés John Fleming (1849 - 1945) demostró que la corriente eléctrica de alta frecuencia podía rectificarse con la ayuda de un tubo de vacío que consta de un filamento caldeado por la corriente y rodeado por un cilindro metálico. En la fig. 6.4 se expone el esquema del mismo. Fleming se

Gentileza de Manuel Mayo

198

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

daba cuenta de la significación del diodo de vacío para transformar las oscilaciones eléctricas en sonido (también denominaba esta lámpara «audión», de la palabra latina «audio» que significa escucho), sin embargo, no pudo conseguir que su detector encontrase una amplia aplicación. Los laureles de inventor de la válvula (a veces se llama también tubo o lámpara) electrónica los cosechó el norteamericano Lee de Forest (1873 - 1961). Fue el primero en transformar la lámpara en tríodo (1907). El receptor de lámparas de Lee de Forest recibía las señales a la rejilla de la lámpara, las rectificaba y daba la posibilidad de escuchar las señales telegráficas en el teléfono. Para el ingeniero norteamericano eran patentes las posibilidades de la lámpara en concepto de amplificador. Pero se necesitaron seis años más para que el ingeniero alemán Meissner, en 1913, introdujese el tríodo en el circuito de generador. Todavía antes de utilizar la válvula electrónica como generador se hacían intentos de transmitir el habla, es decir, de modular la onda electromagnética. Pero las dificultades eran colosales y no se podía hacer amplia la banda de frecuencias de la modulación. Se consiguió transmitir de cualquier modo la voz humana, pero no la música. Solamente en los años 20 los radiotransmisores y radiorreceptores que trabajaban

a

base

de

válvulas

electrónicas

permitieron

percatarse

de

las

posibilidades, verdaderamente inagotables, de la radiocomunicación como emisión que abarca todo el diapasón de las audiofrecuencias. El siguiente salto revolucionario tuvo lugar hace muy poco tiempo, cuando los elementos semiconductores desalojaron de los circuitos de radio los tubos electrónicos. Nació una nueva rama de la física aplicada que examina un enorme conjunto

de

problemas

relacionados

con

la

transmisión,

recepción

y

el

almacenamiento de la información. Válvula tríodo y transistor Las válvulas tríodo produjeron una revolución en la radiotecnia. Pero la técnica envejece más rápidamente que los hombres. Y hoy en día podemos llamar viejecita la válvula electrónica, y si uno entra en la tienda que vende televisores, seguramente oirá cómo los impacientes clientes preguntan sobre la producción de

Gentileza de Manuel Mayo

199

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

los televisores a base de semiconductores. No dudo que para el momento en que este libro haya visto la luz en la venta habrá gran cantidad de estos televisores. No obstante, es más fácil explicar los principios de

las dos aplicaciones

fundamentales de las válvulas y los transistores, a saber, de la amplificación y generación de ondas de frecuencia determinada, en el ejemplo de la válvula electrónica. Por esta razón más tiempo analizaremos su acción de una forma más detallada que el funcionamiento del transistor. En la ampolla de una válvula de tres electrodos, además del ánodo y del filamento catódico caldeado por la corriente, está soldado también el tercer electrodo denominado rejilla. Los electrones pasan libremente a través de la rejilla. Sus orificios superan tantas veces las dimensiones de los electrones cuantas veces la Tierra es mayor que una partícula de polvo.

Figura 6.5 La fig. 6.5 ilustra cómo la rejilla permite controlar la corriente anódica. Resulta evidente que una tensión negativa en la rejilla hará disminuir la corriente anódica, y la positiva la aumentará. Realicemos un sencillo experimento. Apliquemos entre el cátodo y el ánodo una tensión igual a 100 V.

Gentileza de Manuel Mayo

200

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Después comencemos a cambiar la tensión en la rejilla, digamos de tal forma como se muestra en la fig. 6.6, o sea, dentro de los límites de -8 V a +4 V, aproximadamente.

Figura 6.6 Utilizando un amperímetro mediremos la corriente que fluye a través del circuito anódico. Se obtendrá una curva que se representa en la figura. Esta se denomina característica de la lámpara. Vamos a repetir el experimento tomando esta vez la tensión anódica de 90 V. Obtendremos una curva parecida. Ahora fíjense en el siguiente resultado notable. Como evidencia el triángulo rayado en el dibujo se puede lograr la amplificación de la corriente anódica en 5 mA por dos métodos: ya sea aumentando la tensión anódica en 10 V, o bien, elevando en 2 V la tensión en la rejilla. La introducción de la rejilla convierte la válvula tríodo en amplificador. El factor de amplificación en el ejemplo que hemos examinado es igual a 5 (diez dividido por dos). En otras palabras la tensión en la rejilla actúa sobre la corriente anódica con una fuerza cinco veces mayor que la tensión anódica. Ahora veremos cómo el tríodo permite generar ondas de determinada longitud. El esquema correspondiente, simplificado hasta el límite, se representa en la fig. 6.7. Al conectar la tensión anódica comienza a cargarse el condensador Cosc del circuito oscilante a través de la lámpara. La armadura inferior se cargará positivamente. Inmediatamente, se iniciará el proceso de descarga del condensador a través de la bobina de autoinducción Lb, se generarán oscilaciones libres. Gentileza de Manuel Mayo

201

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Estas se atenuarían si no fuese por el hecho de que de la lámpara, constantemente, llegase energía. ¿Y cómo conseguir que este apoyo energético se opere coincidiendo en el ritmo, y el circuito oscilante se intensifique a guisa de vaivén de un columpio?

Figura 6.7 Para conseguir este objetivo es necesario el llamado acople de reacción. En la bobina Lar la corriente del circuito oscilante induce la f.e.m. de inducción de la misma frecuencia que la de las oscilaciones libres. De este modo, la rejilla crea en el circuito anódico una corriente pulsatoria que intensificará el circuito con su frecuencia propia. Los dos geniales principios que hemos expuesto, de generación y amplificación de las oscilaciones electromagnéticas han creado la radiotecnia y las ramas conjugadas a ésta. La válvula electrónica abandona las tablas y cede su lugar al transistor, pero las ideas de amplificación y generación permanecen las mismas. Pero no hemos dicho todavía qué representa el transistor. Este tiene tres electrodos. El emisor corresponde al cátodo; el colector, al ánodo, y la base, a la rejilla. La borna del emisor sirve de entrada y la del colector, de salida. Como se ve en la fig. 6.8, el transistor consta de dos uniones del tipo p-n. Es posible que la capa p se encuentre en el centro, asimismo, se puede tener transistores n-p-n.

Gentileza de Manuel Mayo

202

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Al emisor siempre se suministra la tensión de polarización positiva de modo que éste puede proporcionar gran cantidad de portadores principales de carga. Cuando el circuito de emisor de baja resistencia varía la corriente en el circuito de colector de alta resistencia, entonces, en este caso obtenemos la amplificación.

Figura 6.8 En el transistor, ni igual que en la válvula tríodo, una potencia pequeña en el circuito de entrada puede controlar una potencia grande en el circuito de salida. Existe una diferencia en el carácter del control. La corriente anódica de la lámpara, como acabamos de ver, depende de la tensión de rejilla, mientras que la corriente del colector depende de la del emisor. Los esquemas de conexión de los transistores y su utilización en calidad de amplificadores y generadores, en general, son análogos a los principios de funcionamiento de la válvula tríodo. Pero aquí, nos abstenemos de discutir esta importantísima rama de la tísica moderna. Radiotransmisión Los tipos de radiotransmisiones pueden clasificarse de acuerdo con la potencia de las estaciones. Las estaciones grandes envían al éter potencias cuyo valor llega a un Gentileza de Manuel Mayo

203

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

megavatio. Un diminuto radiotransmisor con cuya ayuda el funcionario de la inspección automovilística comunica a su colega que el coche con la matrícula MMC 35 - 69 cruzó a la luz roja y tiene que ser detenido emite la potencia del orden de un milivatio. Para ciertas finalidades son suficientes las potencias incluso menores. Son esenciales las diferencias en la estructura de las estaciones que trabajan en ondas de más de varios metros de longitud y de los dispositivos transmisores que emiten ondas ultracortas cuya longitud es de docenas de centímetros y, a veces, hasta de fracciones de centímetro. No obstante, también dentro de cada diapasón de longitudes de onda y potencias, el ingeniero que diseña una estación puede elegir entre un enorme número de esquemas y esta elección viene condicionada por la localidad, los objetivos específicos, razones económicas y, meramente, por la inventiva técnica. El núcleo de un radiotransmisor lo forma el generador de las ondas radioeléctricas. ¿En qué generador quiere usted centrar su atención? Existen por lo menos cinco posibilidades. Se puede tomar un generador de tubos termoiónicos. Su diapasón es extraordinariamente amplio. Las potencias pueden oscilar entre fracciones de vatio y centenares de kilovatios; las frecuencias, desde decenas de kilohercios hasta varios gigahercios. Pero si usted necesita potencias pequeñas, del orden de unas décimas de vatio, sólo le convendrá un generador transistorizado. Por el contrario, si se requieren potencias mayores que varias centenas de vatios, por ahora (pero, probablemente, no para mucho tiempo) se tiene que renunciar a los transistores. Y cuando se trata de potencias para las cuales pueden servir ambos tipos de generadores, el diseñador, a lo mejor, dará preferencia a la variante con transistor. Sin duda alguna, ganará la elegancia de la solución ingenieril. Un transmisor a base de transistores ocupará un volumen mucho menor y, si es necesario, es más fácil hacerlo portátil que cuando se trata de un transmisor con generador de tubos termoiónicos. Una aplicación más especializada la tienen los generadores de magnetrón y de klistrón. El primero puede resultar útil en sumo grado, si es necesario enviar al espacio impulsos de varios megavatios de potencia. El diapasón de frecuencias para las cuales sirve el generador de magnetrón es mucho más estrecho, encontrándose, aproximadamente, entro 300 MHz y 300 GHz.

Gentileza de Manuel Mayo

204

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Para este mismo diapasón de ondas ultracortas se utilizan también los klistrones. Pero éstos revisten interés solamente cuando se trata de bajas potencias no superiores a varios vatios, en el diapasón centimétrico y varios miles de vatios en el diapasón milimétrico. Estos dos últimos generadores, al igual que el quinto tipo, el generador cuántico, son muy específicos y requieren un examen especial. En lo que se refiere a los dispositivos transmisores a base de transistores y lámparas, los mismos resultan ser parecidos. Existen reglas radiotécnicas precisas orientándose por las cuales se puede sustituir una lámpara por un transistor equivalente. Sin embargo, la acertada elección del generador de oscilaciones electromagnéticas dista mucho de resolver todos los problemas. Hay que decidir de qué modo amplificar la potencia creada por el generador maestro (o, como también se dice, generador piloto). También es preciso elegir el procedimiento para modular la onda portadora por medio de la audiofrecuencia. Hay muchas variantes de transmisión de energía al campo de antena. Además, la propia organización del campo de antena ofrece amplios horizontes para la inventiva del ingeniero.

Ficha 6.9 En radiotecnia se recurre muy a menudo a los llamados diagramas sinópticos. En el dibujo se presentan varios rectángulos con inscripciones. Y a medida que surge la necesidad se explica lo que se halla en cada recuadro. En la fig. 6.9 se muestra el diagrama sinóptico de una estación de radio. El generador piloto engendra

Gentileza de Manuel Mayo

205

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

oscilaciones no amortiguadas casi armónicas de aquella misma frecuencia y longitud de onda para la cual usted sintoniza su receptor si desea captar la transmisión de dicha estación. El segundo rectángulo-bloque representa el amplificador de potencia. El nombre habla por sí mismo, y en cuanto a su estructura, no la explicaremos aquí. La misión del bloque denominarlo «modulador» es transformar las oscilaciones acústicas en eléctricas y superponerlas en la onda portadora de la estación de radio. La modulación puede realizarse por distintos procedimientos. Lo más simple es explicar cómo se lleva a cabo la modulación de frecuencia. En una serie de casos el micrófono no es sino un condensador cuya capacidad varía debido a la presión acústica, ya que la capacidad depende de la distancia entre las placas. Figúrense ahora que un condensador de este tipo está conectado al circuito oscilante que genera la onda. Entonces, la frecuencia de la onda cambiará en correspondencia con la presión acústica. Por cuanto nosotros nos hemos «entremetido» con el micrófono en el circuito oscilante, resulta que al éter se envía no una frecuencia estrictamente determinada, sino cierta banda de frecuencias. Es bastante evidente que, idealmente, este ensanchamiento debe abarcar todo el intervalo acústico de frecuencias que, como sabemos, es igual a 20 kHz, aproximadamente. Si la radioemisión se realiza en ondas largas a las que corresponden las frecuencias del orden de 100 Hz, entonces, la banda de transmisión (pasante) constituye la quinta parle de la frecuencia portadora. Está claro que será imposible asegurar en las ondas largas el trabajo de un gran número de estaciones que no se recubren. Los asuntos toman un cariz del todo distinto cuando se trata de ondas cortas. Para la frecuencia de 20 MHz el ancho de la banda constituirá ya fracciones de tanto por ciento respecto al valor de la frecuencia portadora. En la Unión Soviética, a lo mejor, no se dé casa alguna en que no haya enchufe para la radio. Estas transmisiones se reciben de la llamada red de radiodistribución, que también se denomina radiodifusión por hilo. En Moscú, la primera red de difusión por hilo destinada para un programa apareció en 1925. La transmisión se realizaba simultáneamente a través de 50 altavoces.

Gentileza de Manuel Mayo

206

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

La radiodifusión de un programa se lleva a cabo en las audiofrecuencias. De los estudios de radio el programa se transmite por hilos a la estación amplificadora central. De la estación central, otra vez por hilos, las oscilaciones acústicas se transmiten a los puntos de base donde se amplifican una vez más y por las líneas de alimentación principales se transmiten a las subestaciones de transformadores. De cada subestación los hilos vuelven a distribuirse por las subestaciones de siguiente categoría, por decirlo así. En dependencia de las dimensiones de la ciudad o de la región el número de eslabones-de la red y, respectivamente, el número de reducciones de la tensión puede ser distinto. En las líneas de abonado, la tensión es igual a 30 V. Desde 1962 en las ciudades de la Unión Soviética se introduce la radiodifusión por hilo de tres programas. La transmisión de los dos programas suplementarios se efectúa por el método de modulación de amplitud con las frecuencias portadoras 78 y 120 kHz. En su casa, usted demodulará estas dos transmisiones (es decir, separará el sonido y «seleccionará» la alta frecuencia) girando la manija del receptor enchufable para tres programas. De este modo, en la radiodifusión de tres programas por un mismo hilo pasan simultáneamente tres programas: uno - el principal - en audiofrecuencias, y dos programas no demodulados. Por esta causa, sus transmisiones no se interfieren recíprocamente. Una idea sencilla, y el resultado, ¡excelente! El carácter económico, la seguridad y la alta calidad de la transmisión permiten considerar que ante la radiodifusión por hilo se abren glandes perspectivas, incluyendo la creación de redes de teledistribución. Radiorrecepción Existe un sinnúmero de construcciones de los radiorreceptores. La radioelectrónica se desarrolla con extraordinaria rapidez y, por lo tanto, los radiorreceptores, además, envejecen muy pronto, de modo que cada año aparecen en la venta nuevos modelos mejores. ¿Qué quiere decir la palabra «mejor» aplicada a un radiorreceptor? La respuesta la conoce cada uno de los lectores, incluso aquel que no está iniciado en la física. Un buen receptor debe seleccionar del caos de las ondas radioeléctricas que alcanzan la

Gentileza de Manuel Mayo

207

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

antena solamente aquellas señales que se requieren. Esta propiedad lleva el nombre de selectividad. El receptor debe ser sensible en el máximo grado, es decir, debe captar las más débiles señales. Y, al fin, debe reproducir la música y el habla de la estación que hemos sintonizado sin distorsiones de ningún género. Para reproducir satisfactoriamente el habla de los locutores basta la banda de frecuencias desde 100 Hz hasta 1 kHz. Y el moderno jazz sinfónico requiere una banda desde 30 Hz hasta 20 kHz. La creación de una banda pasante tan amplia es un problema técnico difícil. Resumiendo, podemos mencionar la sensibilidad, la selectividad y la precisión de la reproducción. Podemos añadir, tal vez, un deseo más: el receptor debe trabajar bien en todos los diapasones de ondas.

Figura 6.10 El diagrama sinóptico de un radiorreceptor de amplificación directa es bastante evidente (fig. 6.10). Ante todo, hay que seleccionar la longitud necesaria de onda y amplificar las oscilaciones de alta frecuencia generadas en la antena por la onda de la estación que nos interesa. Luego, es necesario realizar la detección, o la demodulación: así es como se denomina el proceso de «rechazo» de la frecuencia portadora y de la separación de la corriente eléctrica de la información que trae el sonido. Después, es menester instalar un amplificador más, esta vez ya para las oscilaciones de baja frecuencia. Y la etapa final consiste en transformar estas oscilaciones eléctricas en acústicas, lo que se realiza por medio de un altavoz

Gentileza de Manuel Mayo

208

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

electrodinámico o unos auriculares telefónicos que utilizan las personas delicadas que no quieren molestar a los vecinos. De ordinario, la antena del radiorreceptor está ligada de una manera inductiva con los circuitos oscilantes de varios diapasones.

Figura 6.11 Cuando giramos la manija de los diapasones, realizamos la operación cuya representación esquemática se da en la fig. 6.11. Habitualmente, efectuamos la sintonización variando la capacidad del condensador del circuito oscilante receptor dentro de los límites de cada diapasón. La capacidad del receptor de seleccionar la frecuencia de una forma óptima se determina por la curva de resonancia del circuito oscilante. Tengo ante mí el certificado del receptor para automóviles. En el certificado se dice que para la sintonización a la frecuencia de mi estación predilecta, la señal perturbadora donde la estación que trabaja con la frecuencia desplazada a 20 kHz resultará debilitada en 60 dB, es decir, 1000 veces. En los mejores receptores modernos se consigue la selectividad de 120 dB (la reducción de la interferencia un millón de veces). La sensibilidad de un receptor se caracteriza por la magnitud mínima de la f.e.m. en la antena del receptor que da la posibilidad de escuchar con suficiente claridad (de Gentileza de Manuel Mayo

209

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

20 a 30 dB por encima del nivel de los ruidos) la transmisión. En el radiorreceptor para automóviles la sensibilidad para las ondas largas es no peor de 175 μV, y para el diapasón de ondas ultracortas, no peor de 5 μV. En un automóvil es difícil montar una antena cuya longitud es más de 2 m. De aquí, es fácil hallar la intensidad de umbral del campo eléctrico de las ondas radioeléctricas buscadas. Si esta intensidad es menor, digamos, que 2 μV/m, la señal útil se «ahogará» en los ruidos. Los ruidos suelen ser de dos tipos: los extrínsecos, que incluyen ruidos industriales o los atmosféricos, y los intrínsecos, debidos a las fluctuaciones de las corrientes en los circuitos de entrada de los radiorreceptores. Cuando la señal que captamos es débil, disminuimos el ancho de la banda pasante. En este caso, los ruidos intrínsecos se reducen proporcionalmente a la raíz cuadrada del ancho de la banda pasante. Propagación de las ondas radioeléctrica El caso más simple es de propagar de la onda radioeléctrica en el espacio libre. Ya a una pequeña distancia del radiotransmisor éste puede considerarse como un punto. Y siendo así, el frente de la onda radioeléctrica puede tomarse por esférico. Si trazamos mentalmente varias esferas rodeando el radiotransmisor, queda claro que, en ausencia de absorción, la energía que pasa a través de las esferas permanecerá invariable. Ahora bien, la superficie de la esfera es proporcional al cuadrado del radio. Por consiguiente, la intensidad de la onda, o sea, la energía que corresponde a una unidad de superficie en unidad de tiempo disminuirá a medida de alejarse de la fuente y esta disminución será inversamente proporcional al cuadrado de distancia. Por supuesto, esta importante regla es válida en el caso de que no se hayan tomado medidas

especiales

para

crear

un

flujo

estrechamente

dirigido

de

ondas

radioeléctricas. Existen diferentes procedimientos técnicos para crear haces dirigidos de ondas radioeléctricas. Uno de los métodos de solución de este problema consiste en utilizar la correcta red de antenas. Las antenas deben disponerse de tal manera que las ondas que éstas emiten se dirijan en el sentido necesario «cresta con cresta». Con el mismo fin se emplean espejos de distintas formas.

Gentileza de Manuel Mayo

210

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Las ondas radioeléctricas que «viajan» por el espacio cósmico se desviarán de la dirección rectilínea, se reflejarán, se disiparán, se refractarán, en el caso de encontrar en su camino obstáculos conmensurables con la longitud de onda y hasta algo menores. Para nosotros el mayor interés lo representa el comportamiento de las ondas que pasan cerca de la superficie terrestre. En cada caso separado el cuadro puede ser muy peculiar dependiendo de cuál será la longitud de onda. El papel cardinal lo desempeñan las propiedades eléctricas de la tierra y la atmósfera. Si la superficie es capaz de conducir la corriente, entonces ésta «no permite» que las ondas radioeléctricas se aparten de ella. Las líneas de fuerza eléctricas del campo electromagnético se acercan al metal (y, más ampliamente, a cualquier conductor) formando un ángulo recto. Ahora figúrense que la radiotransmisión tiene lugar cerca de la superficie del mar. El agua marina contiene sales disueltas, es decir, es un electrólito. El agua del mar es un magnífico conductor de la corriente. Esta es la razón por la cual «retiene» la onda radioeléctrica obligándola a moverse a lo largo de la superficie del mar. Pero también las llanuras y los territorios cubiertos de bosques son buenos conductores para las corrientes de frecuencias no muy altas. En otras palabras, para las ondas largas el bosque y la llanura se comportan como un metal. Por lo tanto, las ondas largas se retienen por toda la superficie terrestre y son capaces de dar vuelta al globo terráqueo. A propósito, utilizando este método se puede determinar la velocidad de las ondas radioeléctricas. Los radiotécnicos conocen que la onda radioeléctrica necesita 0,13 s para dar vuelta al globo terráqueo. ¿Y las montañas? Bueno, no olvide que para las ondas largas las montañas ya no son tan altas, y una onda radioeléctrica de un kilómetro de longitud es capaz, más o menos, de contornear una montaña. En cuanto a las ondas cortas, resulta que la posibilidad de realizar la radiorrecepción a grandes distancias en estas ondas se debe a la existencia sobre la Tierra de la ionosfera. Los rayos solares poseen la capacidad de destruir las moléculas del aire en las zonas superiores de la atmósfera. Las moléculas se transforman en iones y a las distancias de 100 a 300 km de la Tierra forman varias capas cargadas. De este

Gentileza de Manuel Mayo

211

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

modo, resulta que para las ondas cortas el espacio en que se mueve la onda es una capa de dieléctrico apretado entre dos superficies conductoras. Por cuanto las áreas llanas y forestales no son buenos conductores para las ondas cortas, éstas no están en condiciones de retenerlas. Las ondas cortas emprenden un viajo libre, pero topan con la ionosfera que las refleja a guisa de superficie metálica. La ionización de la ionosfera no es homogénea y, por supuesto, es distinta de día y de noche. Debido a ello los caminos recorridos por las ondas radioeléctricas cortas pueden ser las más diversas. Pueden llegar a su radiorreceptor incluso después de haberse reflejado reiteradas veces por la Tierra y la ionosfera. El destino de la onda corta depende del ángulo bajo el cual incide en la capa ionosférica. Si este ángulo es próximo al recto, no se produce la reflexión y la onda se irá al espacio cósmico. Sin embargo, con mayor frecuencia tiene lugar una reflexión total y la onda retorna a la Tierra. La ionosfera es transparente para las ondas ultracortas. Por esta razón, cuando se trata de dichas longitudes de onda, es posible la radiorrecepción dentro de los límites de la visibilidad directa o por medio de los satélites. Al dirigir la onda al satélite, podemos captar las señales reflejadas de éste a enormes distancias. Los satélites abrieron una nueva época en la técnica de la radiocomunicación asegurando la posibilidad de la radiorrecepción y la recepción de televisión en ondas ultracortas. Unas posibilidades interesantes nos depara la transmisión en ondas centimétricas, milimétricas y submilimétricas. Las ondas de esta longitud pueden absorberse por la atmósfera. Sin embargo, resulta que existen «ventanas», y, al elegir de una manera adecuada la longitud de onda es posible utilizar las ondas que se introducen en el diapasón óptico. Y en lo que se refiere a los méritos de estas ondas, ya los conocemos: en un intervalo pequeño de ondas se puede «meter» un enorme número de transmisiones que no se recubren. Radiolocalización Los principios de la radiolocalización son bastante sencillos. Enviamos una señal, ésta se refleja del objeto que nos interesa y retorna adonde estamos nosotros. Si el objeto se encuentra a la distancia de 150 m la señal regresará dentro de 1 μs, y si

Gentileza de Manuel Mayo

212

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

la distancia es de 150 km, el intervalo hasta su regreso será de 1 ms. La dirección en que se envía la señal es la dirección de la línea en que se hallaba el avión, el cohete o el automóvil en el momento en que el haz de radio lo encontró. Se entiende que la onda radioeléctrica debe ir en un haz filiforme y el ángulo de abertura en que se concentra la parte principal de la potencia del haz debe ser del orden de un grado. El principio, efectivamente, no es complicado, pero la técnica dista mucho de ser simple. Comenzamos con que se plantean requerimientos altos ante el generador. En los diapasones métrico y decimétrico (las ondas más largas, con toda evidencia, no sirven) se emplean generadores de tubos termoiónicos, y en el diapasón centimétrico, klistrones y magnetrones. Como más natural se presenta el método de trabajo por impulsos. Se envían periódicamente

al

espacio

impulsos

cortos.

En

las

estaciones

de

radar

contemporáneas la duración del impulso se encuentra en los límites de 0,1 a 10 μs. La frecuencia con que el impulso se repite debe elegirse de tal forma que la señal reflejada tenga tiempo para volver durante la pausa. La distancia máxima a que se puede detectar el avión o el cohete está limitada tan sólo por la condición de visibilidad directa. Sin duda alguna, el lector está enterado de que los radares modernos son capaces de recibir las señales reflejadas de cualesquiera planetas de nuestro Sistema Solar. Se sobreentiende que en este caso deben utilizarse las ondas que, sin obstáculos, pasan a través de la ionosfera. Es una circunstancia afortunada que el acortamiento de la longitud de onda influye también de una manera directa en el aumento de la distancia de la visibilidad de localización, por cuanto esta distancia es proporcional no sólo a la energía del impulso enviado, sino también a la frecuencia de radiación. En la pantalla de un oscilógrafo (un tubo de rayos catódicos) se pueden observar saltos de los impulsos enviado y reflejado. Si el avión se acerca, entonces, la señal reflejada se desplazará en el sentido de la enviada. No es obligatorio que los radares trabajen en el régimen de impulsos. Supongamos que el avión se mueve en la dirección de la antena con la velocidad v. Desde este avión se refleja continuamente el haz de radio. El efecto Doppler lleva a que la frecuencia de la onda recibida está relacionada con la frecuencia de la onda enviada

Gentileza de Manuel Mayo

213

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

mediante la ecuación

Los métodos radiotécnicos permiten determinar las frecuencias con gran precisión. Al realizar el reglaje de resonancia hallamos vref y por su valor calculamos la velocidad. .Si, por ejemplo, la frecuencia de la señal enviada es igual a 109° Hz y el avión o el cohete avanzan hacia la antena del radar con la velocidad de 1000 km/h, resulta que la frecuencia recibida será mayor que la transmitida en una magnitud de 1850 Hz. La reflexión del haz de radio desde un avión, un cohete, desde una motonave o automóvil no es la reflexión desde un espejo. Las longitudes de onda son conmensurables o bien mucho menores que las dimensiones del objeto reflector que tiene una forma complicada. Al reflejarse desde distintos puntos del objeto entre los rayos habrá interferencia recíproca y estos se disiparán por los lados. Estos dos fenómenos darán lugar a que la superficie reflectora efectiva del objeto se diferenciará considerablemente de su superficie real. El cálculo en este caso es complicado y sólo la experiencia del operador que hace uso del radar lo ayuda a decir qué objeto se ha encontrado en el camino del rayo. El lector, de seguro, ha visto las antenas del radar, o sea, espejos esféricos de alambre que todo el tiempo se encuentran en movimiento ya que están sondeando el espacio. Es posible obligar el espejo del radar a realizar los más diversos movimientos, por ejemplo, tales que el rayo se mueva barriendo el espacio con líneas o circunferencias. Con este trabajo se puede no sólo determinar la distancia hasta el avión, sino también seguir la trayectoria de su movimiento. Empleando este método el avión se dirige al aterrizaje en condiciones de ausencia de visibilidad. Semejante tarea puede encomendarse tanto al hombre, como a un autómata. Al radar se lo puede «engañar». En primer lugar, el objeto puede empantallarse con materiales que absorben las ondas radioeléctricas. Para alcanzar esta finalidad sirven el polvo de carbón y el caucho. En este caso, además, para disminuir el

Gentileza de Manuel Mayo

214

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

coeficiente de reflexión, los recubrimientos se hacen ondulados, y este método permite conseguir que la parte leonina de radiación se disipe de una forma caótica en todas las direcciones. Si desde el avión se arrojan en paquetes tiras de hoja de aluminio o de fibra metalizada, el radar resultará completamente desorientado. Por primera vez esto método lo aplicaron los ingleses aún en los años de la segunda guerra mundial. El tercer método consiste en llenar el éter de radioseñales falsas. La radiolocalización es un capítulo interesantísimo de la técnica que encuentra un amplio uso para muchos fines pacíficos y sin la cual, en la actualidad, es imposible figurar los medios de defensa. Los principios de radiolocalización forman la base del enlace entre las naves cósmicas y la Tierra. Los radiotelescopios se sitúan de tal modo que la nave no se pierda de vista. Sus antenas tienen enormes dimensiones: hasta centenares de metros. El hecho de que se requieren antenas tan grandes se explica por la necesidad de enviar una señal muy fuerte y captar una señal débil del radiotransmisor. Es natural que sea de suma importancia tener un haz de radio estrecho. Si la antena trabaja a la frecuencia de 2.200 millones de oscilaciones por segundo (la longitud de onda es de 4 cm, aproximadamente), entonces, en la distancia hasta la Luna, el haz se ensancha tan sólo hasta el diámetro de 1000 km. Ahora bien, cuando el haz llegue a Marte (300 x 106 km), su diámetro ya será igual a 700 000 km. Televisión Por cuanto 99 lectores de los 100 pasan diariamente una que otra hora frente al televisor sería injusto no decir varias palabras acerca de este gran invento. Actualmente, hablaremos sólo de los principios de la transmisión televisiva. La idea de transmitir las imágenes a distancia se reduce a lo siguiente. La imagen que se transmite se divide en cuadrados pequeños. El fisiólogo sugerirá cuál debe ser el tamaño del cuadrado para que el ojo deje de advertir las variaciones del brillo dentro de ésta. La energía luminosa de cada porción de la imagen puede transformarse en señal eléctrica valiéndose del efecto fotoeléctrico. Hay que inventar el método con cuya ayuda sería posible leer estas señales. Por supuesto, la

Gentileza de Manuel Mayo

215

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

operación se lleva a cabo en un orden estrictamente determinado, como durante la lectura de un libro. Estas señales eléctricas se superponen en la onda magnética portadora mediante el procedimiento completamente análogo a aquel que se emplea durante la radiotransmisión. A continuación, los acontecimientos se desarrollan de una forma absolutamente idéntica a la radiocomunicación. Las oscilaciones moduladas se amplifican y detectan. El televisor debe transformar los impulsos eléctricos en imagen óptica. Los tubos transmisores de televisión llevan el nombre de vidicones. Con ayuda de una lente la imagen se proyecta en el fotocátodo. Los fotocátodos más difundidos son el de oxígeno-cesio y de antimonio-cesio. El fotocátodo se monta en una ampolla de vacío junto con el fotoánodo. De principio, la imagen podría transmitirse proyectando alternativamente el flujo luminoso de cada elemento de la misma. En este caso, la corriente fotoeléctrica debe circular solamente durante un corto tiempo, mientras dura la transmisión de cada elemento de la imagen. Sin embargo, semejante funcionamiento sería incómodo, y en el tubo transmisor se utiliza no una sola célula fotoeléctrica, sino un número grande de éstas igual al número de elementos en que se descompone la imagen transmitida. La placa receptora se denomina blanco y se confecciona en forma de mosaico. El mosaico es una placa fina de mica por uno de cuyos lados está aplicado un gran número de granitos de plata, aislados y cubiertos de óxido de cesio. Cada granito es una célula fotoeléctrica. Por otro lado de la placa de mica está aplicada una película metálica. Entre cada granito del mosaico y el metal parece como si se formase un condensador pequeño que se carga por los electrones arrancados al cátodo. Está claro

que

la

carga

de

cada

condensador

será

proporcional

al

brillo

del

correspondiente punto de la imagen transmitida. De este modo, en la placa metálica se forma una especie de imagen eléctrica latente del objeto. ¿Cómo puede ésta tomarse de dicha placa? Valiéndose del haz electrónico que debe obligarse a recorrer la placa de la misma manera como el ojo recorre las líneas de un libro. El haz electrónico hace las veces de llave que cierra instantáneamente el circuito eléctrico a través de un microcondensador. La corriente en este circuito creado momentáneamente estará vinculada de modo unívoco con el

Gentileza de Manuel Mayo

216

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

brillo de la imagen. Cada señal puede y debe amplificarse múltiples veces por medio de procedimientos ordinarios empleados en la radiotecnia. Durante la transmisión de

la

imagen

el

ojo

no

debe

advertir

que

el

haz

electrónico

recorre

consecutivamente los diferentes puntos de la pantalla luminosa. La imagen total se obtiene en la pantalla del tubo receptor por un ciclo de movimiento del haz electrónico. Se debe crear tal frecuencia de imagen que a costa de la persistencia de las imágenes en la retina no se observe el efecto de parpadeo (llamado también centelleo). ¿Y qué frecuencia de imagen debe tomarse? La sensación de continuidad del movimiento surge cuando la frecuencia de imagen es de cerca de 20 Hz, por esta causa, en la televisión la frecuencia de imagen se toma igual a 25 Hz; sin embargo, con esta frecuencia el efecto de parpadeo todavía es perceptible, por cuya razón los técnicos han recurrido a un método interesante: a saber, la exploración entrelazada. Se ha dejado la frecuencia de 25 Hz, pero el haz electrónico recorre primero las líneas impares y, luego, las líneas pares. La frecuencia con que cambian las semiimágenes se hace igual a 50 Hz, de modo que el centelleo de la imagen se suprime. Las frecuencias de exploración de imágenes y líneas deben estar estrictamente sincronizadas. En la Unión Soviética la imagen suele dividirse en 625 líneas. Y el número de elementos de la imagen en cada línea es tantas veces mayor que el número de líneas cuantas veces la longitud de la línea supera la altura de la pantalla. En los televisores soviéticos esta relación es igual a 4/3. De este modo, tenemos que transmitir 25 veces por segundo 4/3 de los 6252 elementos de la imagen. Un período basta para transmitir dos elementos. De aquí se infiere que la imagen de la televisión exige una banda con un ancho no menor de 6,5 MHz. Por consiguiente, la frecuencia portadora del emisor no puede ser menor que 40 - 50 MHz, ya que la frecuencia de la onda portadora debe ser por lo menos 6 a 7 veces mayor que el ancho de la banda de las frecuencias transmitidas. Ahora el lector comprenderá por qué para las transmisiones de televisión se pueden utilizar sólo ondas ultracortas y por qué, como consecuencia, el alcance de estas transmisiones está limitado por la visibilidad directa.

Gentileza de Manuel Mayo

217

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

Pero he dicho mal: estaba limitado. El acontecimiento revolucionario que da la posibilidad de efectuar la transmisión de televisión a cualesquiera distancias es la utilización de los satélites de comunicación que se ven tanto del punto de recepción, como del de transmisión. La Unión Soviética fue el primer país que utilizó los satélites con esta finalidad. Actualmente, los vastos espacios de la URSS están abarcados por una red de comunicación realizada por una serie de satélites. Sin tocar la cuestión acerca de la estructura de las potentes estaciones de televisión aducimos tan sólo cifras interesantes que caracterizan las enormes posibilidades de la radiotecnia moderna en el campo de amplificación de las señales. Una videoseñal corriente antes de amplificarla tiene la potencia hasta 10-3 W; el amplificador de la potencia la amplifica un millón de veces. La potencia de 103 W se suministra a la antena parabólica cuyo diámetro es del orden de 30 m. Esta antena engendra un haz estrechamente dirigido que será reflejado por el satélite. Después de que la onda electromagnética recorra unos 35.000 km hasta el satélite su potencia será igual a 10-11 W. El amplificador montado en el satélite aumenta la potencia de esta señal muy débil hasta de 10 W, aproximadamente. A su vez, la señal reflejada del satélite volverá a la Tierra con una potencia de 10-17 W. La amplificación hará retornar la potencia de la videoseñal a su valor de partida igual a 10-3 W. Yo pienso que hace dos lustros ni siquiera un ingeniero con criterios más optimistas habría dado crédito a estas cifras. La eficacia de los dispositivos de recepción aplicados se determina por el producto de las dimensiones de la antena por la amplificación útil del receptor, la cual oscila desde un millón hasta cien millones. En el límite superior, para reducir los ruidos internos, se tiene que recurrir al enfriamiento de la primera etapa de amplificación hasta la temperatura de helio líquido. Microcircuitos electrónicos No se puede terminar el capítulo dedicado a la radiotecnia sin decir aunque sea varias palabras sobre la nueva revolución que se desarrolla ante nuestros ojos. Se trata de la fantástica miniaturización de todos los aparatos radiotécnicos que llegó a ser posible debido al paso desde los aparatos constituidos por elementos

Gentileza de Manuel Mayo

218

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

aislados: resistencias, transistores, etc., conectados entre sí con la ayuda de alambres hacia los circuitos eléctricos «dibujados» mediante una técnica especial en un pedacito de silicio de varios milímetros de tamaño. La nueva tecnología (una de sus variantes) consiste en que, al utilizar estarcidos de distintos tipos y una serie de productos químicos se podría introducir en los puntos necesarios del cristal de silicio o germanio impurezas p e impurezas n. Con este fin se aplica el tratamiento con haces iónicos. Un circuito eléctrico que consta de decenas de miles de elementos (¡!) se ubica en un área con dimensiones lineales de cerca de dos milímetros. Cuando hemos dicho «dibujar» el circuito en la mente del lector podía crearse la impresión de que nos referimos tan sólo al tratamiento de la superficie de un pedacito de semiconductor. Pero no es así. El asunto es más complicado. Cada elemento radiotécnico posee una estructura tridimensional. En una diminuta porción de silicio es necesario crear varias capas que contienen diferentes cantidades de impurezas. Entonces, ¿qué es preciso hacer para conseguir este objetivo? En primer lugar, en la superficie del silicio se crea una capa de óxido. Sobre esta capa se aplica un material fotosensible. El «bizcocho» obtenido se irradia con luz ultravioleta a través del estarcido de forma calculada. Después de revelar, en la superficie del pedacito de silicio, en los puntos en que la luz pasó a través del estarcido, se forman hoyos. La siguiente etapa consiste en tratar el futuro circuito radioeléctrico con ácido fluorhídrico. Dicho ácido quita el óxido de silicio sin afectar la superficie primitiva (es decir, el silicio), ni tampoco la capa fotosensible. Ahora queda el último paso: tratamiento con otro disolvente que eliminará la capa fotosensible. Como resultado, nuestro pedacito queda recubierto de aislador, de óxido de silicio, allí donde lo requiere el diseño. Y el hoyo con forma necesaria es el silicio dejado al descubierto. Precisamente éste se somete al tratamiento con el haz iónico para introducir la cantidad necesaria de impurezas. La creación de los microcircuitos electrónicos es, hoy en día, una de las ramas más activas de la técnica. Las nuevas ideas y descubrimientos en el ámbito de la física de los semiconductores demuestran que los resultados fantásticos alcanzados para el día de hoy distan mucho de representar el límite.

Gentileza de Manuel Mayo

219

Preparado por Patricio Barros

Física para Todos III– Electrones

www.librosmaravillosos.com

A. I. Kitaigorodski

FIN

Gentileza de Manuel Mayo

220

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

1

A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Prefacio Con este libro, el cuarto, de la Serie «Física para todos» terminamos el examen de los fundamentos de física. ¿Qué se entiende por esta palabra indefinida «fundamentos»? Ante todo se trata de las leyes principales sobre las que descansa todo el edificio de la física. Su cantidad no es muy grande, de modo que incluso podemos enumerarlas: Las leyes del movimiento de la mecánica clásica; las leyes de la termodinámica; las leyes contenidas en las ecuaciones de Maxwell que rigen las cargas, las corrientes y las ondas electromagnéticas; las leyes de la física cuántica y la teoría de la relatividad. Las leyes de la física, al igual que de todas las ciencias naturales, revisten carácter empírico. Llegamos a ellas por medio de la observación y experimentación. El experimento permite establecer una multitud de hechos primarios; la estructuración de la sustancia a partir de átomos y moléculas, el modelo nuclear del átomo, el aspecto corpuscular-ondulatorio de la materia... Tanto la cantidad de leyes principales, como la de hechos y conceptos básicos necesarios para su descripción no es muy grande, en todo caso, es reducida. Durante los últimos decenios la física se extendió en tal medida que las personas que trabajan en sus diferentes ramas dejan de comprender unas a otras apenas la conversación rebasa los marcos de aquello que las vincula en una sola familia, o sea, rebasa los límites de las leyes y conceptos que forman la base de todos los apartados de la física. Algunos capítulos de la física se han entrelazado estrechamente con la técnica, con otras ramas de las ciencias naturales, con la medicina y hasta con las ciencias humanitarias. No es de extrañar que se hayan conformado como disciplinas independientes. Es poco probable que alguien discuta que a la exposición de las ramas de la física aplicada debe preceder el examen de las principales leyes y los hechos de esta ciencia. Pero es igualmente evidente que los diferentes autores, en dependencia de su gusto individual y la estrecha especialidad, cada uno a su manera, seleccionarán y compondrán el material necesario para construir la base de la física. Y dejemos al lector que juzgue sobre una de las posibles variantes de exposición de estas bases. En los prólogos a les primeros fascículos ya hemos hablado sobre el círculo de

Gentileza de Manuel Mayo

2

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

lectores de la serie «Física para Todos». Estos libros están destinados a los representantes de todas las profesiones los cuales desean recordar la física, formar una idea acerca de su estado, el influjo que ejerce sobre el progreso científicotécnico, así como su significado para la formación de la concepción materialista del mundo. Muchas páginas de la serie despertarán el interés de los maestros de la física, como así mismo de los alumnos que sienten afición a esta disciplina. Cabe pensar que los lectores a quienes «infunden pavor» las formulas algebraicas también encontrarán en estos libros algunas cosas interesantes para ellos. Se sobrentiende que dicha serie de libros no prevé que alguien, valiéndose de la misma, estudie física. Para esta finalidad existen libros de texto. Según el parecer del autor, el libro «Fotones y núcleos» debe enseñar a los lectores como actúan las leyes del campo electromagnético y de la física cuántica al analizar el comportamiento de las ondas electromagnéticas de diferente longitud. Antes de pasar a la conversación sobre los núcleos atómicos, el lector se enterará de las nociones de la mecánica ondulatoria y de la teoría especial de la relatividad. Y después de exponer los principales hechos referentes a la estructura del núcleo atómico abordaremos el tema, que inquieta la humanidad, acerca de las fuentes de energía en la Tierra. Finalmente, consumaremos nuestra narración con un breve relato sobre la Universo. El pequeño volumen del libro no da la posibilidad de detenernos en muchos temas tradicionales. Lo viejo se vio obligado a ceder su puesto a lo nuevo. A. I. Kitaigorodski

Gentileza de Manuel Mayo

3

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 1 Radiación electromagnética blanda Contenido: 

Intercambio de energía por medio de radiación



Radiación de los cuerpos incandescentes



Teoría de la radiación térmica



Espectros ópticos



Radiación de los láseres



Luminiscencia

Intercambio de energía por medio de radiación Denominamos blanda aquella radiación electromagnética cuyas longitudes de ondas se encuentran, de una forma aproximada, en el intervalo desde 0.1 hasta 100 μm. En este caso, tenemos que estipular una cosa más. Hablando sobre la radiación blanda tendremos en cuenta las ondas electromagnéticas que se originan no debido a los procedimientos radiotécnicos. Esta estipulación es necesaria por cuanto empleando métodos puramente radiotécnicos es posible «irrumpir» en el campo de la radiación blanda. Con bastante frecuencia la radiación blanda se denomina también lumínica. Al hacer uso de este término, no se debe olvidar que la luz visible ocupa solamente un intervalo estrecho de longitudes de ondas, que para el ojo humano «medio» se encuentra dentro de los límites de 380 a 780 nm (0.38 a 0,78 μm). Si utilizamos en adelante el término «luz» será tan sólo en el amplio sentido de la palabra, puesto que las leyes válidas para la porción visible del espectro también son ciertas para todos los demás representantes de la radiación blanda. Cabe recordar también que la radiación con longitudes de onda más cortas que las de la luz visible, lleva el nombre de ultravioleta, y la con longitudes de onda más larga se llama infrarroja. Ahora podemos pasar al tema del párrafo.

Gentileza de Manuel Mayo

4

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

Como

ya

conocemos,

www.librosmaravillosos.com

existen

tres

métodos

de

A. I. Kitaigorodski

intercambio

de

calor.

Los

correspondientes fenómenos llevan el nombre de conductibilidad térmica, de convección térmica y de radiación térmica. Para investigar el intercambio de energía que tiene lugar a costa de radiación térmica conviene observar cómo se comportan los cuerpos que se encuentran en el vacío (la convección se excluye) a cierta distancia unos de otros (se excluye la conductibilidad térmica o conducción de calor). La experiencia demuestra que si dos o muchos cuerpos forman un sistema cerrado (el lector recordará que esta circunstancia significa la ausencia de intercambio de energía con los objetos que no entran en el sistema), las temperaturas de estos cuerpos se igualarán. Cada uno de los cuerpos del sistema simultáneamente hace las veces de radiador y de absorbedor. Transcurre un sinnúmero de actos de transición de los átomos y moléculas desde el nivel más alto hacia otro, bajo (en este caso se emite el fotón correspondiente), y del nivel más bajo al superior (el fotón se absorbe). En el intercambio de energía toman parte fotones de todas las energías o, lo que es lo mismo, ondas electromagnéticas de todas las longitudes. Claro está que el cuerpo no absorbe toda la energía que en éste incide. Puede haber cuerpos que en mayor medida disipan o dejan pasar a través de ellos tales o cuales rayos. Pero semejante circunstancia no cambia el resultado final: el equilibrio térmico, de todos los modos, llega, tarde o temprano. La condición de equilibrio térmico requiere que la relación entre la energía de absorción y la energía de emisión de la onda de una longitud determinada sea igual para todos los cuerpos. Este teorema lo demostró rigurosamente, en 1860, el físico alemán Gustavo Kirchhoff (1824 - 1887). Para las temperaturas diferentes la relación puede variar, pero si la temperatura está prefijada la relación será la misma para los fotones de energía dada. El teorema resulta ser lo suficientemente claro. Se puede decir que ni siquiera necesita una demostración. El sentido de la ley consiste en que el número de fotones absorbidos de la clase dada (es decir, de la energía dada) para el equilibrio térmico es igual al número de fotones emitidos de la misma clase. De aquí se infiere la siguiente regla: si el objeto absorbe intensamente cualesquiera rayos, entonces, irradia enérgicamente los mismos rayos.

Gentileza de Manuel Mayo

5

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Dicha regla ayuda a predecir las condiciones en que se establece el equilibrio térmico. ¿Por qué bajo la acción de los rayos solares se calentará poco el agua vertida en una botella con paredes plateadas, mientras que el agua encerrada en un frasco de vidrio negro se calentará fuertemente? La explicación es evidente; un cuerpo de color negro absorbe con intensidad los rayos, su energía se invertirá en el aumento de la temperatura y el equilibrio térmico se establecerá después de un fuerte calentamiento. En cambio, la superficie plateada es un magnífico reflector. El objeto absorbe poca energía, el calentamiento se desarrollará tan sólo a ritmo lento y el equilibrio se establecerá a una temperatura baja. Y ahora, por decirlo así, «invierta» el experimento. Llene los dos frascos de agua caliente y métalos en el refrigerador. ¿En qué caso el enfriamiento será más rápido? Al calentamiento más rápido le corresponderá el más rápido enfriamiento. Cuando se absorbe más energía, mayor cantidad de ésta se entrega. Son muy impresionantes los experimentos con la cerámica en color. Si el objeto es de color verde, esto significa que el casco absorbe todos los colores excepto el verde. Es que el ojo percibe aquellos rayos luminosos que se reflejan o se disipan por la sustancia. Ahora calentemos el casco hasta incandescencia. ¿Cómo lo veremos? La respuesta va está en la punta de su lengua: el casco se nos presentará de color violado ya que el violado es el color complementario a verde-amarillo. Se dice de un color que es complementario a tal o cual, si mezclados estos colores dan el blanco. El término «Colores complementarios» lo introdujo en la ciencia todavía Newton cuando valiéndose de prisma de vidrio descompuso el color blanco en espectro. Radiación de los cuerpos incandescentes Se conoce bien que un trozo de metal sometido al calentamiento se pone incandescente, primero al rojo y, luego, al blanco. La mayoría de sustancias químicas no se logra caldear. Estas ya sea que se funden, o bien, se descomponen. De este modo, todo lo que exponemos a continuación se refiere, principalmente, a los metales. La circunstancia más admirable reside en que el espectro de radiación de todos los cuerpos caldeados es poco específico. La cosa consiste en lo siguiente. De la ley

Gentileza de Manuel Mayo

6

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

principal acerca de los niveles de energía queda claro que el espectro de radiación y el espectro de absorción del cuerpo deben coincidir. Los metales no son transparentes para toda la zona del espectro de la radiación blanda. De aquí se infiere que también deben irradiar fotones de todas las energías. También podemos expresarnos de otra forma: el espectro continuo se origina debido a que en un sistema poliatómico, los niveles de energía de los átomos se confundieron en bandas que se recubren. En un sistema de esta índole son posibles cualesquiera transiciones de energía, o sea, cualquier diferencia de energía de los niveles m-ésimo y ene-ésimo Em - En, y, por consiguiente, también cualesquiera frecuencias de radiación y absorción. En la fig. 1.1 se representa el aspecto que tiene el espectro de un cuerpo incandescente para varias temperaturas (hemos dado las curvas teóricas válidas para el llamado cuerpo negro).

Figura 1.1 Hay que señalar que la deducción teórica de la forma de esta curva hecha por Planck en 1900 fue el primer paso en el proceso de institución de la física cuántica.

Gentileza de Manuel Mayo

7

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Para obtener la coincidencia entre la teoría y el experimento Planck tuvo que admitir que la radiación y la absorción de la luz se producen por porciones. Planck no se decidió a hacer el siguiente paso, precisamente, a afirmar que es completamente lícito hablar sobre las partículas de luz, o sea, fotones. Este paso lo hizo Einstein en 1905. Y solamente en el año 1913 Bohr introdujo el concepto sobro la cuantificación de la energía.

Max Planck (1858-1947), relevante científico alemán que colocó los cimientos de la teoría cuántica. Al tratar de hallar la expresión matemática que describiera correctamente la distribución espectral de la radiación del cuerpo negro, Planck mostró que semejante formula podía obtenerse introduciendo en la teoría el “cuanto de acción". Planck conjeturó que el cuerpo emite energía por porciones iguales al producto de cierta constante, que más tarde recibió su nombro, por la frecuencia de la luz. Gentileza de Manuel Mayo

8

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

En cuanto a la teoría lógica y armoniosa ele la radiación térmica, su formación debe remontarse al año 1926. Al principio, discutiremos la forma de estas curvas, sólo después hablaremos sobre la teoría. En primer término prestemos atención a que, a medida que aumenta la temperatura, se acrecienta de modo rápido el área bajo la curva. ¿Qué sentido físico tiene el área barrida por la curva de radiación? Al construir el gráfico semejante al representado en la figura, se dice que por el eje de ordenadas está marcada la intensidad de la radiación para la longitud dada de onda. ¿Pero, qué significa «para una longitud dada de onda»: se tiene en cuenta, digamos, 453 nm o 453,2 nm? O bien, ¿puede ser que 453,257859987654 nm? Espero que para el lector esté claro que, al decir «para la longitud dada de onda» se trata de un intervalo pequeño de longitudes de onda. Por ejemplo, se ponen de acuerdo que éste será un intervalo igual a 0,01 nm. De aquí deriva que el sentido físico lo tiene no la ordenada, sino una columna de 0,01 nm de base. El área de esta columna es igual a la energía radiada por las ondas cuya longitud se halla, por ejemplo, en el intervalo desde 453,25 hasta 453,26 nm. Al dividir en semejantes columnas toda el área que abarca la curva y sumar sus áreas, obtendremos la intensidad total de todo el espectro. En este ejemplo he explicado la operación que los matemáticos denominan integración. De este modo, el área bajo la curva da la intensidad total de la radiación. Resulta que ésta es proporcional al cuarto grado de la temperatura. En la figura, objeto de nuestra discusión, se ve que con el crecimiento de la temperatura cambia no sólo el área abarcada por la curva, sino también tiene lugar el desplazamiento de su máximo a la izquierda, es decir, a la región ultravioleta. La relación entre la longitud de onda de la luz, en micrómetros, correspondiente a la radiación (absorción) más intensa y la temperatura, en Kelvin, se da por medio de la siguiente fórmula:

A temperaturas bajas el máximo se encuentra en la región infrarroja. Precisamente debido a esta causa la radiación infrarroja se denomina, a veces, térmica. Un hecho

Gentileza de Manuel Mayo

9

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

notable es el que disponemos de instrumentos capaces de «percibir» la radiación térmica emitida por los cuerpos cuya temperatura es ambiental o, incluso, inferior a esta. La técnica moderna sabe «ver» en plena oscuridad. La misma capacidad la poseen algunos animales. Aquí no hay nada extraño pues los rayos infrarrojos, de principio, acusan las mismas propiedades que los visibles. En particular, no se debe olvidar que cualquier animal es fuente de radiación. A menudo se dice que se puedo «sentir» en la oscuridad la presencia de una persona. No es cosa mística. Meramente, aquel que «siente» posee una percepción aguda de los rayos térmicos. No puedo prescindir de contar al lector una interesante historieta que demuestra que los rayos térmicos deben tenerse en cuenta incluso en aquellas ocasiones en que como fuentes de los rayos térmicos figuran cuerpos no calentados, en la acepción cotidiana de esta palabra. Varios años atrás me pidieron que diese mi opinión acerca de los experimentos realizados por un hombre que se hacía pasar por «mago» capaz de retener el movimiento de un motor a fuerza de su voluntad. Mi misión consistía en hallar para estos experimentos (a los hechiceros del siglo XX les gusta recurrir a la terminología seudocientífica dando a estos experimentos el nombro de telecinesia) una explicación racional.

Figura 1.2 El esquema del experimento se ilustra en la fig. 1.2. En el árbol de un pequeño motor giraba una aleta y ésta, efectivamente, se paraba cuando el «mago» se sentaba al lado de la caja a la que salía este árbol. Pronto averigüé que cualquier Gentileza de Manuel Mayo

10

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

persona que se sentaba junto a la caja con el motor ejercía sobre la aleta el mismo influjo. No se paraba el motor como lo afirmaba el «mago», sino, precisamente, la aleta. De este modo, resultó evidente que a la fuerza de cohesión del árbol del motor con la aleta se opone cierta fuerza de otro tipo relacionada con la presencia del hombre. Demostré que se puede hacer parar la aleta casi instantáneamente si a la pared de la caja se arrima una lámpara eléctrica. Quedó claro que el asunto reside en el calor que irradia el cuerpo humano. Dejé pasar a la caja un chorro de humo de tabaco con lo cual puse de manifiesto que dentro de la caja se engendraban flujos de aire debidos a la convección y dirigidos precisamente de tal modo que impedían la rotación de la aleta. Las mediciones precisas evidenciaron que en el lado de la caja vuelta al hombre se creaba una temperatura que superaba en un grado, aproximadamente, la del lado de la caja alejado del hombre. Cada uno puede percibir los rayos infrarrojos que emana el cuerpo calentado hasta 60 o 70 °C, si acerca a este la palma de la mano. Por supuesto, hay que eliminar la convección térmica. El aire caliente sube, mientras que usted aproxima la palma de la mano desde abajo. En este caso se puede estar seguro de que ha percibido precisamente los rayos térmicos. Antes de despedirnos de los rayos térmicos vamos a explicar por qué el paso desde la lámpara eléctrica de incandescencia con el filamento de carbón hacia la lámpara moderna con el filamento de volframio resultó ser un gran progreso. El quid del asunto reside en que el filamento de carbón puede caldearse hasta la temperatura de 2100 K, mientras que el de volframio, hasta 2500 K. ¿Cuál es la razón de que estos 400 K son tan importantes? Esta razón estriba en que la finalidad de una lámpara de incandescencia no es calentar, sino proporcionar luz. Por consiguiente hace falla lograr una situación tal que el máximo de la curva corresponda a la radiación visible. Como se ve del gráfico, sería ideal disponer de un filamento que soporte la temperatura de la superficie del Sol, o sea. 6000 K. Pero incluso el paso desde 2100 hacia 2500 K aumenta la parte de energía que recae en la radiación visible desde 0,5 hasta 1,6 %. Teoría de la radiación térmica

Gentileza de Manuel Mayo

11

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Si el sistema de los cuerpos que irradian y absorben está cerrado, entonces, el «gas» de los fotones con cuya ayuda los cuerpos intercambian la energía, debe encontrarse en equilibrio con los átomos progenitores de estos fotones, Él número de fotones con la energía hν depende del hecho de cuántos átomos se encuentran en el nivel E1 y cuántos en el nivel E2. Durante el equilibrio estos números son invariables. Sin embargo, el equilibrio reviste carácter dinámico por cuanto se desarrollan, simultáneamente, tanto los procesos de excitación, como de radiación. De cierta manera, ya sea debido a la colisión con otra partícula, o bien, gracias a la absorción del fotón llegado desde fuera, el átomo o el sistema atómico se traslada a un nivel alto. En este estado de excitación, el sistema permanece cierto tiempo indefinido (que, habitualmente. se mide en fracciones de segundo), y luego, se retorna al nivel bajo. Dicho proceso lleva el nombre de radiación espontánea. El átomo se comporta como una bolita que se deja retener, con dificultad, en el vértice puntiagudo de una prominencia de perfil complejo: un soplo casi imperceptible, y el equilibrio resulta alterado. La bolita se desliza en un hoyo y, además, en la mayoría de los casos, en el más profundo, del cual esta puede sacarse tan sólo golpeándola fuertemente. Acerca del átomo que se deslizó al más bajo peldaño se dice que el mismo se encuentra en estado estable. Cabe recordar, sin embargo, que, además de las posiciones «en el vértice» y «en el hoyo

profundo»

existe

también

una

situación

intermedia:

la

bolita

puede

encontrarse en un valle poco profundo de donde esta puede extraerse si no fuese con un soplo ligero, por lo menos, mediante un ligero empujón. Semejante posición se denomina metaestable. De este modo, además del nivel de excitación y el estable se da también un tercer tipo de nivel de energía, el metaestable. Resumiendo, podemos decir que las transiciones tendrán lugar en ambos sentidos. Ora uno, ora otro átomo se trasladarán al nivel superior. Transcurrido un instante descenderán al nivel bajo emitiendo luz. Pero, al mismo tiempo, otros átomos recibirán energía, ascendiendo a los niveles superiores. La ley de la conservación de la energía exige que el número de transiciones desde arriba abajo sea igual al de las transiciones desde abajo arriba. ¿Qué es lo que determina el número de transiciones hacia arriba? se trata de dos factores: en

Gentileza de Manuel Mayo

12

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

primer término, es el número de átomos que se hallan en el piso inferior y, en segundo término, es el número de impactos que los harán ascender al piso superior. ¿Y el número de las transiciones hacia abajo? Este se determina, como es lógico, por el número de átomos ubicados en el piso superior y, al parecer, no depende de ningún otro factor. Precisamente, esta fue, al principio, la opinión de los físicos teóricos. No obstante, los cabos se les ataban mal. El número de transiciones hacia arriba dependiente de dos factores se acrecentaba con la temperatura mucho más rápidamente que el número de transiciones hacia abajo que dependía tan sólo de un factor. El modelo evidente, en apariencia, llevaba a un absurdo. Resultaba que, a la corta o a la larga, todos los átomos se empujarán al nivel superior: el sistema de átomos se encontrará en estado inestable y no habrá radiación. Precisamente,

esta

deducción

imposible

la

pesó

Einstein

en

1926

de

las

elucubraciones de sus predecesores. Por lo visto, cierta circunstancia más influía en las transiciones de los átomos desde el piso superior hacia el inferior. No había otro remedio, sino conjeturar que además de la transición espontánea al nivel bajo existía también una transición forzada. ¿Qué es la radiación forzada? he aquí de qué se trata. El sistema se halla en el nivel superior. Del nivel inferior lo separa la diferencia de energías E2 – E1 = hν. Resulta que si sobre el sistema incide un fotón de energía igual a hv, este obligará el sistema a pasar al nivel inferior. En este caso, el propio fotón incidente no se absorberá sino proseguirá su camino en la misma dirección acompañado de otro fotón, un fotón nuevo engendrado por el primero y completamente idéntico a éste. No hace falta buscar lógica en esto razonamiento. Fue una revelación, una idea súbita... Y el experimento debe juzgar si es acertada. Valiéndose de la hipótesis acerca de la emisión forzada (estimulada) se consigue deducir una fórmula cuantitativa que da el gráfico de radiación en función de la longitud de onda para un cuerpo caliente. La teoría coincidía de un modo brillante con la experiencia y por esta razón justifica la hipótesis enunciada. Es interesante que las conclusiones prácticas derivadas del hecho de existir la emisión estimulada y que llevaron al descubrimiento de los láseres, sólo se sacaron al cabo de muchos años.

Gentileza de Manuel Mayo

13

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Espectros ópticos Hablando en general, cualquier cuerpo es fuente de radiación electromagnética blanca. Por medio de un espectrógrafo, o sea, de un instrumento cuya parte principal la constituye un prisma o una red de difracción, la luz se descompone en espectro. El espectro puede ser continuo, así como de bandas y de rayas. Los espectros de los cuerpos sólidos incandescentes se parecen muchísimo unos a otros. Además, tan sólo una cantidad pequeña de sustancias puede caldearse hasta luminosidad. Se sobrentiende que una cosa rara es un líquido incandescente. Una amplia información la deparan los espectros de radiación de los gases. Tales son los espectros de los rayos que llegan hacia la Tierra de las lejanas estrellas. Los rayos luminosos de materia sideral que se encuentra en estado gaseoso nos han suministrado importantísimos datos referentes a la estructura del Universo. En las condiciones terrestres no es difícil crear espectros de radiación de los átomos. A los átomos se les obliga a emitir luz dejando pasar corriente a través del gas, o bien, calentando el gas. Cabe señalar que por medio de este método es posible estudiar únicamente los espectros de los átomos, pero no los espectros de las moléculas. Antes de que el gas se ponga luminiscente, las moléculas se desintegrarán en átomos. Esta es la razón de que si al investigador le interesan líquidos o sólidos, éste estudia los espectros de absorción. En fin de cuentas, el cuadro se determina por el sistema de niveles de energía. Las transiciones desde arriba abajo o desde abajo arriba portan datos idénticos. Hay que actuar de la forma más conveniente. Los espectros constituidos por líneas nítidas aisladas pueden obtenerse tan sólo de un gas o de una solución diluida. En el libro 2 hemos hablado de que el comportamiento de las moléculas disueltas recuerda en muchos aspectos el de un gas.

Esta

tesis

resulta

válida

también

para

la

espectroscopia

óptica.

Lamentablemente, el disolvente ejerce su influencia en el carácter del espectro, pero, al comparar la forma de los espectros de las moléculas disueltas en diferentes sustancias se puede tomar en consideración dicha influencia, «sonsacando» del experimento la dactiloscopia de la molécula disuelta. El hecho de obtener el espectro característico no significa, ni mucho menos, establecer el sistema de los niveles de energía de la molécula. No obstante, para

Gentileza de Manuel Mayo

14

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

muchos fines prácticos esto tampoco se requiere. Si se dispone de un álbum en el cual se han recogido datos referentes a los espectros (es decir, la lista de líneas espectrales y de sus intensidades o las curvas de intensidad en función de la frecuencia) de cierta familia de sustancias químicas, entonces, tomando el espectro de la sustancia desconocida y comparando el cuadro obtenido en el experimento con

los

cuadros

del

álbum,

reconocemos

la

sustancia

de

una

manera

completamente análoga a como por el dibujo de los surcos en el dedo se identifica un delincuente. En los últimos tiempos el análisis espectral óptico ha obtenido un rival en la persona de radioespectroscopía. Los métodos radioespectroscópicos, por ahora (y este «por ahora», a todas luces, durará poco), son todavía inferiores a los ópticos en cuanto a su sensibilidad, pero, en cambio, superan enormemente los métodos ópticos por las posibilidades que brindan para la identificación y el análisis cuantitativo de las mezclas de sustancias. En nuestra tarea no entra el conocimiento de los espectros concretos de las sustancias.

Figura 1.3

Gentileza de Manuel Mayo

15

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Es suficiente dar a conocer al lector el cuadro de los niveles de energía de los átomos de hidrógeno y el esquema de principio de los niveles de energía de una molécula libre. En la fig. 1.3 está representado el sistema de los niveles de energía del hidrógeno. Quiero centrar su atención en la condensación característica de los niveles a medida que aumenta la distancia desde la raya cero. A propósito» no conviene pensar que el cero designado en el esquema es un cero «auténtico». Se da por sentado que el átomo de hidrógeno no excitado posee una energía determinada. Pero, puesto que en los espectros se manifiestan las diferencias de energía, es cómodo realizar el cómputo desde la raya inferior. Según sea la fuerza del «capirotazo» recibido el átomo puede subir a cualesquiera de los «pisos», permanecer un breve plazo en este estado no equilibrado y luego, mediante cualesquiera de las dos formas posibles (radiación espontánea o radiación estimulada) descender. El espectro naciente conviene dividirlo en una sucesión de «series». Cada serie está subordinada a su nivel inferior. En la zona visible se encuentra la llamada serie de Balmer. La explicación de esta constituyó el primer triunfo de la teoría de la estructura atómica de Niels Bohr. No todas las transiciones de energía son equiprobables. Cuanto más alta es la probabilidad de la transición tanto más intensa es la línea correspondiente. También existen transiciones prohibidas. Para los físicos teóricos resultó ser un éxito brillante el que supieron dilucidar de un modo exhaustivo, el espectro de los átomos de hidrógeno, resolviendo la célebre ecuación de la mecánica cuántica deducida en 1926 por Erwin Schrödinger. Los campos externos influyen sobre los espectros atómicos. Las líneas se desdoblan en varias componentes por la acción del campo eléctrico (efecto Stark) y por la acción del campo magnético (efecto Zeeman). No nos proponemos explicar estos interesantes fenómenos. Advertiremos tan sólo que se logró comprender algunos de estos únicamente después de que Goudsmit y Uhlenbeck sugirieran que el electrón poseía, el espín. En el libro 3 ya hablamos cómo el espín se descubre directamente en los experimentos.

Gentileza de Manuel Mayo

16

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Y, por fin, la última observación concerniente al cuadro de los niveles de energía. Vemos que el límite a que se acercan los niveles se designa con el número 13,53. ¿Qué significa este número? Es la tensión de ionización. Si se multiplica la carga del electrón por la magnitud de esta tensión en voltios, obtendremos la magnitud del trabajo que se debe invertir para arrancar el electrón al núcleo, en otras palabras, para destruir el átomo de hidrógeno.

Niels Bohr (1885-1962), célebre físico danés, Creó el primer modelo cuántico del átomo, descubriendo de este modo la ley de la cuantificación de la energía. Participó activamente en la elaboración de los principios de la mecánica cuántica. Demostró la inaplicabilidad, de principio, al micromundo de los conceptos idóneos para describir el comportamiento de los cuerpos macroscópicos. Hizo una gran aportación a la teoría de la estructura del núcleo atómico Los espectros de los átomos se engendran como resultado de transiciones electrónicas. Apenas pasamos de los átomos a la molécula, de inmediato, surge la

Gentileza de Manuel Mayo

17

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

necesidad de tomar en consideración dos componentes más de energía. La molécula puede girar y los átomos de la molécula pueden realizar oscilaciones unos respecto a otros. Todos estos tipos de energía también se cuantifican, estos pueden tener solamente determinados valores discretos (discontinuos). De este modo, el estado energético de la molécula se define por el estado de su nube electrónica (nivel electrónico), el estado del movimiento oscilatorio (nivel vibracional) y el estado de rotación (nivel rotacional). Se debe operar con tres tipos de datos, por decirlo así, el número de la casa, del piso y del apartamento. Pero, ¿que desempeña el papel del piso y qué del apartamento? ¿Cuáles de los niveles de energía están separados por intervalos grandes y cuáles por pequeños?

Figura 1.4 A estas preguntas contesta la fig. 1.4. En el esquema se muestran dos niveles electrónicos e’ y e" (números de las casas). Los pisos —los niveles vibracionales— están designados con la letra v, y los números de los apartamentos — niveles rotacionales— con la letra j. Es verdad que no está adoptada semejante numeración Gentileza de Manuel Mayo

18

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

de las casas. Como se sabe, se utiliza la numeración continua de los apartamentos, mientras que nosotros, al describir los espectros de la molécula, numeramos los apartamentos en cada piso comenzando por cero. Como ve el lector, los más pequeños son los intervalos entre los niveles rotacionales, y la mayor es la diferencia entre los niveles electrónicos (e’ y e”). Supongamos que para una molécula son posibles niveles electrónicos que se hallan a 100, 200, 300...unidades de energía; niveles vibracionales, a 10, 20, 30... unidades, y niveles rotacionales, a 1, 2, 3 ... unidades; entonces, una molécula que se encuentra en el segundo nivel electrónico, primer nivel vibracional y tercer nivel rotacional tendrá la energía de 213 unidades. Así pues, la energía de la molécula puede prefijarse en forma

La frecuencia de la luz emitida o absorbida siempre corresponderá a la diferencia (signo Δ) de dos niveles, es decir,

Quisiera destacar aquellas transiciones en las cuales varía tan sólo una «especie» de energía. En la práctica, esto es posible sólo para las transiciones de rotación, y comprenderemos con facilidad el motivo de ello. Comencemos a investigar la absorción de las ondas electromagnéticas por un grupo de moléculas desde las ondas más largas, es decir, desde porciones pequeñas de energía hν. La molécula no absorberá hasta que la magnitud del cuanto de energía se haga igual a la distancia entre dos niveles más cercanos. Aumentando paulatinamente la frecuencia llegaremos hasta los cuantos capaces de elevar la molécula de un peldaño «rotacional» al otro. Como demuestra la experiencia esto tendrá lugar en la zona de microondas (el límite de la banda de radiofrecuencias), o bien, expresándolo de otra forma, en la región del espectro infrarrojo lejano. Las

Gentileza de Manuel Mayo

19

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

longitudes de ondas del orden de 0.1 a 1 mm se absorberán por las moléculas. Aparecerá un espectro netamente rotacional. Nuevos fenómenos se originarán cuando hagamos incidir sobre la sustancia una radiación poseedora de cuantos de energía suficientes para trasladar la molécula de un nivel vibracional al otro. Sin embargo, nunca obtendremos un espectro puramente vibracional, o sea, una serie de transiciones tal en que se conserve el número del nivel rotacional. Por el contrario, las transiciones de un nivel vibracional al otro afectarán diferentes niveles rotacionales. Digamos, la transición del nivel vibracional cero (el inferior) al primero puede consistir en la subida desde el tercer nivel rotacional hacia el segundo, o desde el segundo hacia el primero, etc. De este modo se producirá el espectro vibracional-rotacional. Lo observaremos en la luz infrarroja (de 3 a 5 μm). Todas las transiciones desde un nivel vibracional hacia el otro se diferenciarán poco en lo que respecta a su energía y darán en el espectro un grupo de líneas muy próximas. Para una resolución pequeña, estas líneas se confundirán en una banda. Cada banda corresponde a una transición vibracional determinada. Iremos a parar a una nueva región espectral, la de luz visible, cuando la energía del cuanto se haga suficiente para trasladar la molécula de un nivel electrónico al otro. Se sobreentiende que tampoco aquí son posibles tanto las transiciones puramente electrónicas,

como

las

electrónico-vibracionales.

Se

originarán

transiciones

complejas en las cuales la transición energética viene acompañada de «mudanza» tanto de la «casa», como del «piso» y del «apartamento». Como quiera que la transición vibracional-rotacional representa una banda, resulta que el espectro de la región visible será prácticamente continuo. Los espectros característicos de los átomos y de las moléculas durante largos años han desempeñado (y siguen desempeñando hoy en día) el modesto papel de ayudantes cuando se trataba de la determinación de la estructura química y la composición de las sustancias. Sólo hace muy poco, en la esfera de espectroscopía, se han desarrollado acontecimientos revolucionarios. Radiación de los láseres

Gentileza de Manuel Mayo

20

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Los primeros treinta años de nuestro siglo transcurrieron bajo el signo de éxitos fantásticos de la física teórica. Durante estos años se descubrieron las leyes tan importantes de la naturaleza como las de la mecánica de las grandes velocidades, las de la estructura del núcleo atómico y las de la mecánica cuántica. Las cuatro décadas que siguieron a esos años demostraron éxitos no menos fenomenales en el campo de aplicación de la teoría a la práctica. En el curso de esos años la humanidad aprendió a sacar energía de los núcleos atómicos, obtuvo para su disposición los transistores semiconductores, hecho que dio lugar a un cambio radical en la radiotecnia y condujo a la creación de las máquinas electrónicas, calculadoras, y dominó la técnica del láser. Estas tres aplicaciones, hablando con propiedad, redundaron en los eventos que recibieron el nombre de revolución científico-técnica. En este párrafo hablaremos de los láseres. Vamos a recapacitar sobre las circunstancias que no nos permiten, al obrar empleando métodos tradicionales, crear un intenso haz dirigido de luz. La luz más potente acumulada en un haz estrecho hasta el límite, diverge y pierde su intensidad con la distancia. Y tan sólo en la novela de ciencia ficción de Alexei Tolstoi el protagonista inventa un «hiperboloide», aparato que permite generar rayos capaces de quemar, cortar y transportar a grandes distancias colosal energía. Por supuesto, es posible fabricar un espejo cóncavo que crea un haz paralelo de luz. Con este fin hay que disponer en el foco del espejo una fuente puntual. Pero la fuente puntual no es sino una abstracción matemática. Bueno, que no sea puntual, sino, simplemente, pequeña. Sin embargo, incluso en el caso de caldear la bolita hasta 6000 K (ningún material soporta temperatura más alta), obtendremos un haz de luz de intensidad mísera. Y apenas procedamos a aumentar las dimensiones de la fuente, inmediatamente, en lugar del haz paralelo obtendremos un abanico de «hilos» luminosos, y la intensidad del rayo del proyector irá disminuyendo rápidamente con la distancia. De este modo, resulta que el primer obstáculo en el camino de la creación de un rayo intenso es el hecho de que los átomos radian luz en todas las direcciones. Es el primer obstáculo, más no el último. Los átomos y las moléculas radian, por decirlo así, sin ponerse de acuerdo entre sí. Por esta causa, los rayos que parten de

Gentileza de Manuel Mayo

21

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

diferentes átomos emprenden el viaje de una forma no coordinada, sin esperar unos a otros. Esta circunstancia conduce a que las radiaciones de los distintos átomos no coinciden por su fase. Y siendo así, los rayos procedentes de diferentes átomos, con frecuencia, se aniquilarán recíprocamente. Lo último, como recordará el lector, tiene lugar cuando la cresta de una onda se corresponde con la depresión de la otra. Se logra superar todos estos obstáculos al crear, precisamente, la radiación de láser. La palabra «láser» no es sino una abreviatura de la denominación inglesa: Light

Amplification

by

Stimulated

Emission

of

Radiation,

lo

que

significa:

amplificación de la luz por medio de radiación estimulada. La idea se forma de varios elementos. En primer lugar, recordamos que a la par de radiación espontánea existe la estimulada, como ya hemos dicho, esta forma de radiación aparece cuando el fotón de la luz se encuentra con un átomo excitado. Si la energía de excitación del átomo es exactamente igual a la del fotón, entonces, este último obliga al átomo a des-excitarse. El átomo pasa a un nivel más bajo radiando un fotón. Una particularidad admirable de la radiación estimulada consiste en que este fotón será idéntico a aquel que lo ha engendrado, y no sólo en lo que respecta a su energía: se pondrá en marcha teniendo la misma fase y siguiendo la misma dirección. El segundo elemento de la idea consiste en lo siguiente. Si el sistema de los átomos que emiten una radiación se encierra en un tubo cuyos fondos se encuentran a una distancia determinada uno del otro y pueden hacer de espejos para aquellos fotones que nos interesan, estamos en condiciones de reunir poco a poco en este recipiente, a costa de los viajes de los fotones por aquí y por allá, una multitud de fotones engendrados por los átomos excitados en igual medida. El tercer elemento de la idea reside en retener los átomos para un plazo prolongado, en la medida de lo posible, en estado excitado y a continuación, después desemejante «bombeo», obligar a todos los átomos a des-excitarse simultáneamente. La realización de la idea del láser, o sea, la multiplicación de un fotón y la obtención de miles de millones de fotones idénticos, indistinguibles por sus propiedades, debe llevar a la generación de un rayo de luz de una intensidad sin precedente. Un haz de esta índole se ensancharía en ínfimo grado y a la sección transversal del rayo correspondería una energía enorme.

Gentileza de Manuel Mayo

22

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Pero, ¿cómo conseguir este objetivo? Durante largos decenios nadie pudo sugerir idea alguna. En los años 30, V. A. Fabrikant ya promovió importantes conjeturas sobre el particular, y más tarde, los persistentes esfuerzos de los futuros laureados con el Premio Nobel, los científicos soviéticos A. M. Prójorov y N. G. Básov y el físico norteamericano Ch. Townes, condujeron a la creación de los láseres. Supongamos que el sistema posee dos niveles de energía. La mayoría de los átomos o moléculas se encuentra en el nivel inferior. Los impactos térmicos pueden para un corto plazo trasladar la molécula al nivel superior. Pero semejante situación no puede durar un largo rato; la molécula se des-excitará. En este caso, la mayoría aplastante de los átomos pasará al nivel inferior y lo hará de manera espontánea. En cuanto a transiciones estimuladas al nivel inferior éstas ocurrirán raras veces, Puesto que el número de partículas excitadas es pequeño. Ahora supongamos que se logró hallar una sustancia cuyos átomos poseen tres niveles de energía designados en la fig. 1.5 con las cifras 1, 2 y 3, respectivamente. La distancia 1 - 3 corresponde a la frecuencia de radiación de la luz verde, y la distancia 1 - 2, a la frecuencia de la luz roja. Sea que la probabilidad de transición desde el nivel 3 hacia el nivel 2 es miles de veces mayor que la frecuencia del paso del nivel 2 al nivel 1. Vamos a irradiar la sustancia con luz verde.

Figura 1.5 Los átomos se elevarán al tercer piso, mediante transiciones espontáneas se trasladarán al nivel 2 y se retendrán en este nivel. Dicha transición se denomina transición sin radiación (transición Anger). La energía liberada se transforma en

Gentileza de Manuel Mayo

23

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

energía vibracional de los átomos. Continuemos fantaseando, imaginándonos que se logró trasladar la mayoría de los átomos al nivel 2. Hemos conseguido la inversión de la densidad de los átomos en los niveles, es decir, una densidad «anormal». Los niveles superiores 2 están «poblados» más densamente que los inferiores 1, fenómeno que resulta imposible cuando el proceso lo rige tan sólo el movimiento térmico. A pesar de todo, la transición del nivel 2 al nivel más bajo 1, comienza a realizarse. El fotón correspondiente encontrará en su camino otros átomos que están en el nivel excitado 2. Semejante encuentro conducirá no a la absorción, sino a la creación de un nuevo fotón. Al primer fotón 2 - 1 casualmente formado se unirán fotones análogos de radiación estimulada. Surge el flujo de fotones 2 - 1. Todos estos fotones serán exactamente idénticos y crearán un rayo de enorme intensidad. Los investigadores cuyos nombres acabamos de mencionar lograron reproducir precisamente este proceso. Desde el punto de vista histórico, primero fue creado el láser a rubí. El esquema de ecuaciones representado en la figura justamente caracteriza el rubí con impurezas de átomos de cromo. Para crear un láser es necesario disponer de una fuente de excitación que realiza el «bombeo» del mismo, es decir, traslada los átomos al nivel superior. En el caso de que como fuente de radiación de láser interviene un cuerpo sólido, este último se fabrica en forma de cilindro cuyas bases desempeñan el papel de espejos. Cuando se trata de líquidos o de gases se confecciona un tubo con espejos junto a la base de la columna. Al realizar el avance micrométrico de los espejos y fijar de este modo la longitud de la columna, se pueden ponerse en buenas condiciones solamente aquellos fotones cuyo número entero de longitudes de onda cabe a lo largo de la longitud de la columna. Tan sólo en esto caso todas las ondas se suman. La particularidad principal del láser consiste, tal vez, en la posibilidad de crear un flujo filiforme de radiación. Prácticamente, el rayo de láser puede tener cualquier sección transversal. Desde el punto de vista técnico esto objetivo se consigue haciendo viajar el rayo por un capilar estrecho de vidrio de una longitud lo

Gentileza de Manuel Mayo

24

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

suficientemente grande. Los fotones que se desplazan formando un ángulo con el eje del capilar no tomarán parte en el proceso de multiplicación de los fotones. La cavidad de resonancia (o sea, los espejos reflejan los fotones ora en una dirección, ora en otra en el período de trabajo del láser en que se verifica el bombeo de los átomos) multiplica sólo los fotones de una dirección. En algunos casos, cuando la divergencia angular del haz del orden de un grado no satisface, en el camino del rayo puesto en libertad se coloca, además, una lente complementaria. La instalación de láser, cuando se trata de la creación de grandes potencias, es una obra ingenieril compleja. En la columna se engendra el impulso primario, seguidamente este puede enviarse a los amplificadores cuyo principio de trabajo es el mismo que el de la columna primaria, pero cuyo bombeo es independiente de dicha columna. No vamos a retenernos en estos detalles.

Figura 1.6 Lo que nos interesa son los principios físicos del bombeo y de la creación de la radiación de los láseres. Y estos pueden ser esencialmente distintos, como lo demuestran las figs. 1.6 - 1.8 con los esquemas de la acción de los láseres empleando los cuales se obtienen hoy en día los rayos de potencia máxima. En la fig. 1.6 se representa el esquema del llamado láser a neodimio, fil nombro puede dar lugar a un error. El cuerpo del láser lo forma no el metal neodimio, sino Gentileza de Manuel Mayo

25

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

el vidrio común y corriente con impureza de neodimio. Los iones de los átomos de neodimio están distribuidos caóticamente entre los átomos de silicio y de oxígeno. El bombeo se realiza con las lámparas-relámpago. Las lámparas producen la radiación dentro de los límites de las longitudes de onda desde 0,5 hasta 0,9 μm. Aparece una banda ancha de estados de excitación. Esta banda viene representada de una forma absolutamente convencional por medio de cinco rayas. Los átomos realizan transiciones sin radiación al nivel superior de láser (en el esquema en cuestión, así como en otros dos esquemas está marcado con la cifra 2). Cada transición aporta diferente energía que se transforma en energía vibracional de toda la «rejilla» de los átomos. La radiación de láser, es decir, la transición al nivel inferior vacío marcado con la cifra 1 tiene la longitud de onda igual a 1,06 μm. La transición del nivel 1 al nivel principal representado por medio de la línea de trazos «no trabaja». La energía se desprende en forma de radiación no coherente. El láser a neodimio permite obtener mía potencia fantástica igual a 1012 W. La energía se libera en impulso» cuya duración es de 0,1 ns. Llegó a ser su rival joven el láser que utiliza las transiciones en los átomos excitados de yodo (fig. 1.7).

Figura 1.7

Gentileza de Manuel Mayo

26

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

La sustancia activa es el gas C3F7I. También aquí para el bombeo se utilizan las lámparas-relámpago, pero los procesos físicos son distintos. Para el bombeo se hace uso de la luz ultravioleta con la longitud de onda de 0.25 μm. Por impacto de esta radiación tiene lugar la disociación de las moléculas. ¡Resulta admirable el hecho de que los átomos de yodo, al desprenderse de la molécula, se presentan en estado de excitación! Como ve el lector, se trata ya de un método completamente distinto para alcanzar la inversión de la densidad de población. La transición de trabajo 2>1 conduce a la radiación de láser con la longitud de onda de 1,3 μm, después de lo cual tiene lugar la reunificación del átomo de yodo con el radical molecular. Probablemente, el lector habrá oído que se emplean ampliamente los láseres a helio y neón. Con su ayuda se obtiene un haz infrarrojo bastante fuerte con la longitud de onda de 1,13 μm. Estos láseres no se cuentan entro los recordistas en cuanto a su potencia. Por esta razón ofrecemos el esquema de los niveles para otro láser que trabaja a base de la mezcla de nitrógeno y dióxido de carbono (fig. 1.8).

Figura 1.8 Pero antes de pasar a su descripción es necesario contestar a la pregunta natural: ¿por qué hace falta utilizar la mezcla de gases? La respuesta es como sigue: unos átomos y moléculas resultan más fáciles de excitar, y otros, más fáciles de desexcitar. De este modo, en el láser que trabaja a base de una mezcla se bombeando

Gentileza de Manuel Mayo

27

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

energía, principalmente, las partículas de una especie, por colisiones éstas transfieren la energía a otros átomos o moléculas y estos últimos ya engendran el rayo de láser. Están en uso sistemas que constan de más de dos gases. Eu particular, en el láser en que el papel básico pertenece al nitrógeno y al dióxido de carbono, es racional utilizar, además de estas dos sustancias, diferentes adiciones, incluyendo helio. El bombeo del láser en que «trabajan» las moléculas de CO2 se efectúa por un procedimiento que se distingue de los dos descritos. La mezcla de los gases se introduce en un tubo de descarga de gases y se suministra una tensión lo suficientemente alta como para lograr que el sistema pase al estado de plasma. Los electrones de movimiento rápido excitan oscilaciones de las moléculas de nitrógeno. El esquema representa el salto de semejante molécula al piso superior. Es importante que tensión esté aplicada a los electrodos. La energía óptima para excitar las moléculas de nitrógeno es la de cerca de 2 eV. La molécula de nitrógeno sólo hace las veces de mediadora. Esta misma, de por sí, no da radiación y la energía recibida de los electrones la transfiere a la molécula de CO2 trasladándola al nivel superior de láser. Los niveles superiores de láser 2 son los «apartamentos del tercer piso» de las moléculas de CO2 del tiempo de vida de la molécula de gas en el nivel superior de láser es de cerca de 0,001 s. No es poco, ni mucho menos y la molécula tiene una probabilidad bastante grande de encontrarse con un fotón de energía adecuada que la obligará a «hospedarse» un piso más abajo. Cabe señalar que las transiciones «entre los apartamentos» son mucho más frecuentes que las entre «pisos». El tiempo de vida en el nivel rotacional se mide en diezmillonésimas fracciones de segundo, Esta circunstancia favorable lleva a que la población de los apartamentos de cada piso puede considerarse estable. Esta es la causa de que con la ayuda del procedimiento técnico a que nos hemos referido, o sea, creando una distancia adecuada entre los espejos, se logra aislar una transición determinada, por ejemplo, desde el apartamento sexto del tercer piso al apartamento quinto del segundo. El diseñador del láser debe disponer de datos exhaustivos acerca del tiempo de existencia del átomo en uno u otro subnivel y de las probabilidades de la transición.

Gentileza de Manuel Mayo

28

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Entonces, podrá elegir la radiación óptima de la mezcla gaseosa dada. El láser que trabaja a base del dióxido de carbono se sintoniza, habitualmente, para la longitud de onda de 10,5915 μm. Para que el láser funcione bien es necesario que las moléculas no se retengan en el nivel inferior de láser. Por decirlo así, en cuanto uno ha terminado su asunto debe ceder el lugar a otro. Bueno, siendo la presión igual a 1 mm de Hg las moléculas de dióxido de carbono experimentan 100 colisiones por segundo, despojando el nivel. Las cifras correspondientes en presencia de helio y agua son de 4000 y 100 000, respectivamente. La diferencia es enorme. Eligiendo aditivos adecuados al dióxido de carbono se puede influir de una manera sustancial en la potencia del aparato. Parece que los especialistas consideran que precisamente un láser de esta índole merece una medalla de oro. El láser que trabaja con CO2 da un haz que puede enfocarse sobre un área de 0,001 cm2, con la intensidad de 1000 kW/cm2 para el régimen permanente y la de 1.000.000 kW/cm2 para el régimen de impulso, siendo la duración del impulso igual a 1 ns. La búsqueda de materiales apropiados para los láseres es, en cierto sentido, un arte. Hace falla poseer buena intuición, inventiva y memoria para crear un láser eficiente. La extraordinaria intensidad y coherencia de la radiación de laser produjeron una revolución en muchos sectores de la técnica. En el último decenio la producción de los láseres se convirtió en una importantísima rama de la industria. Los láseres encuentran aplicación entre generadores de radiación que transmiten no sólo energía, sino también información, se lleva a cabo una intensiva investigación de la posibilidad de hacer uso de los láseres para realizar la reacción termonuclear. Se introdujo en la práctica el empleo del láser como escalpelo, como instrumento para efectuar las más finas operaciones quirúrgicas y como medio para separar los isótopos. En el curso de la ulterior exposición hablaremos de algunas aplicaciones de los láseres. Luminiscencia

Gentileza de Manuel Mayo

29

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

La radiación térmica es una propiedad universal de todos los cuerpos. El cuerpo emite rayos térmicos a cualquier temperatura comenzando por cero absoluto. El espectro térmico es continuo y se representa por medio de una curva cuyo carácter ya hemos considerado. Es cierto que se ha tomado la curva para el cuerpo negro, pero, de principio, la curva para los cuerpos coloreados se distingue en pocos aspectos de la para los cuerpos negros. La diferencia consiste tan sólo en que para los cuerpos coloreados la curva será deformada. Pero el incremento general de la energía

de

radiación

a

medida

que

crece

la

temperatura,

así

como

el

desplazamiento del máximo al lado izquierdo (si por el eje de abscisas vienen marcadas las longitudes de las ondas), son una ley general. Cualquier radiación consiste en la transición del nivel de energía más alto al más bajo. Pero las causas de excitación de los átomos o moléculas pueden ser diversas. En el caso de radiación térmica estas son los impactos obtenidos por las partículas de la sustancia debido al movimiento térmico. Sin embargo, ésta no es la única causa que obliga al cuerpo a emitir ondas. El fenómeno de luminiscencia cuya descripción abordamos tiene otra naturaleza. Este fenómeno se hace extender a los procesos de excitación de las moléculas no relacionados con el aumento de la temperatura del cuerpo. Pueden servir de causa de excitación de las partículas los encuentros con los haces de fotones o electrones, impactos mecánicos, el rozamiento, etc. Prácticamente,

todas

las

sustancias

producen

luminiscencia.

Sin

embargo,

solamente algunas entre estas —los luminóforos— acusan un brillo intenso y tienen valor práctico. Los luminóforos se utilizan como materiales con los cuales se recubren las pantallas de los televisores y oscilógrafos. En esto caso la luminiscencia se produce bajo los impactos de los electrones. Resulta muy vistosa la luminiscencia de las sustancias originada por la acción de la radiación ultravioleta. En todo caso, la energía del fotón incidente debe ser mayor que la del fotón emitido. De este modo, oí cuanto de energía incidente puede pertenecer a la parte invisible del espectro, mientras que el emitido, a la visible. Si una sustancia se somete a la radiación ultravioleta, las milmillonésimas partes de impurezas de la sustancia luminiscente revelarán su presencia. Por esta razón, el

Gentileza de Manuel Mayo

30

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

análisis luminiscente se utiliza, a veces, como uno de los procedimientos del análisis químico. Valiéndose de aquél se determinan las trazas de impurezas indeseables. Con luminóforos se recubren las paredes de las lámparas de luz diurna. Se diferencian dos tipos de luminiscencia: la fluorescencia y la fosforescencia. La fluorescencia es la luminiscencia del átomo o de la molécula que se produce sin la retención de la molécula en el nivel excitado. Por el contrario, la fosforescencia es un fenómeno que puede producirse con un retardo grande. Este hecho tiene lugar si para la excitación el sistema pasa al nivel metaestable siendo poco probables las transiciones desde este nivel hacia ahajo. Por regla general, la radiación tiene lugar después de que la molécula, primero, absorberá la energía y subirá al nivel superior y luego ya tendrá lugar la luminiscencia, con la particularidad de que la transición al nivel inferior se realiza sin retenerse en el nivel intermedio, metaestable. Cabe decir varias palabras acerca de la electroluminiscencia que se produce en algunos diodos semiconductores en la frontera de la capa p-n. Este interesante fenómeno tiene enorme importancia práctica por cuanto con su ayuda pueden crearse láseres a semiconductores. La base de este fenómeno consiste en lo siguiente: el electrón y el hueco del semiconductor pueden recombinarse con la radiación del fotón. Para conseguir que semejantes transiciones se efectúen ininterrumpidamente es necesario dejar pasar a través del diodo la corriente eléctrica. La tarea estriba en saber encontrar el material conveniente que satisfaga varios requisitos. En primer lugar, la corriente, si se puede decir así, debe inyectar los electrones en el semiconductor del tipo p, o sea, en el semiconductor que contiene más huecos, o bien, debe bombear los huecos en el cristal del tipo n. Lo expuesto es una condición indispensable. Pero otros factores, como, por ejemplo, la velocidad de transición del nivel superior al inferior, pueden jugar un papel decisivo. Se dan casos en que todos los factores favorecen la transición de los electrones desde arriba abajo y aparece la electroluminiscencia. El más apropiado para crear la electroluminiscencia resultó ser el semiconductor arseniuro de galio. Este proporciona una cantidad suficiente de fotones. Los fotones se propagan a lo largo de la frontera p-n. Dos sectores del diodo perpendiculares a la frontera se pulimentan debido a lo cual se produce la cavidad resonante. Los

Gentileza de Manuel Mayo

31

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

fotones que se forman durante la recombinación del hueco y del electrón resultan cofásicos y para las corrientes lo suficientemente grandes la radiación se hace análoga a la de los láseres descritos antes, con todas las consecuencias que de aquí derivan respecto al carácter filiforme, la directividad y la polarización de la radiación. Los láseres a semiconductores trabajan en el diapasón de ondas desde ultravioleta hasta la luz infrarroja lejana y se utilizan ampliamente para los más diversos fines.

Gentileza de Manuel Mayo

32

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 2 Instrumentos ópticos Contenido: 

El prisma



La lente



La cámara fotográfica



El ojo



El polarizador



El microscopio y el telescopio



Interferómetros



Instrumentos a base de láser



Fotometría



Holografía

El prisma El arsenal de instrumentos que se emplean en los laboratorios y en la industria varía con tanta rapidez que el investigador que debido a una u otra causa abandonó por un par de decenios su labor científica y después la reanuda, se vería obligado a estudiar de nuevo. Sin embargo, tanto hoy, como, probablemente, en un futuro lejano, siempre se encontrará con sus viejos conocidos: el prisma y la lente. A raíz de ello, vamos a recordar al lector, las sencillas layes a que se subordina el curso del rayo luminoso al encontrarse con estos objetos preparados de materiales transparentes. Desde luego, la transparencia es un concepto relativo. Para algunas ondas electromagnéticas resultan transparentes la madera y el hormigón. Las leyes del encuentro del rayo con los cuerpos capaces de reflejar y refractar este rayo son simples hasta el momento en que hace su aparición el aspecto ondulatorio de la luz. Dichas leyes se reducen a la ley de la reflexión (el ángulo de incidencia es igual al ángulo de reflexión) y a la de la refracción.

Gentileza de Manuel Mayo

33

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Como se conoce, al incidir en la frontera entre dos medios al rayo de luz se desvíe de la dirección inicial. El ángulo de incidencia i y el ángulo de reflexión r están ligados por medio de la relación

Esta ley fue establecida mediante meticulosas mediciones por el físico Willebrord Snellius (1580-1626), profesor de la Universidad de Leyden. El contenido del curso de sus conferencias en que se exponían los fenómenos del encuentro de la luz con los cuerpos transparentes fue bien conocido en el entonces estrecho círculo de hombres de ciencia europeos. Es posible que precisamente debido a esta causa los contemporáneos admitieran burlonamente el libro de Renato Descartes (1596-1650) publicado en 1637 con el título de «Discurso del método para conducir bien la razón y buscar la verdad en las ciencias»,

en

que,

supuestamente,

«demostró»

esta

ley

recurriendo

a

razonamientos que para nosotros suenan bastante extraños. Las frases confusas de Descartes no provocaron, ni mucho menos, el temblor de entusiasmo en sus colegas. Y la circunstancia de que, a resultas de sus razonamientos, Descartes llegó a la fórmula correcta, la explicaron de una manera muy sencilla: porque ajustó sus razonamientos al resultado ya conocido con anterioridad. De este modo, Descartes tuvo que soportar también que lo acusaran de plagio. Tal vez, se pueda coincidir con los contemporáneos de Descartes en su actitud escéptica respecto a este libro. Descartes examina una pelota arrojada contra una red floja. La pelota rompe la red y pierde la mitad de su velocidad. Entonces escribe el gran filósofo-, el movimiento de la pelota se diferencia por completo del de su destinación en uno u otro sentido. Es difícil comprender qué significa esto. Probablemente, empleando esta frase Descartes hubiera querido decir que la componente horizontal de la velocidad de movimiento de la pelota no varía y la vertical si varía, por cuanto precisamente en esta dirección la red impide el movimiento de la pelota. Pero, retornemos a la ley de la refracción.

Gentileza de Manuel Mayo

34

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Los ángulos i y r suelen marcarse respecto a la posición de la normal de tal forma como se representa en la fig. 2.1.

Figura 2.1 La magnitud n. llamada índice de refracción depende de los medios de los cuales se trata. Con el fin de comparar los cuerpos por sus propiedades ópticas es conveniente componer la tabla de índices de refracción para el caso de incidencia del rayo proveniente del aire (si se quiere ser puntual, hay que decir: proveniente del vacío) en el medio. En este caso el ángulo de refracción siempre será menor que el ángulo de incidencia y, por consiguiente, el índice de refracción será menor que la unidad. Hablando con propiedad, el índice de refracción se acrecienta con la densidad del medio. Por ejemplo, el índice de refracción del diamante es igual a 2.4, y el del hielo es igual a 1.3. No prestaré lugar a la tabla de índices de refracción. Sin embargo, de haberlo hecho tendría que señalar para qué longitud de onda de la luz se insertan los datos. El índice de refracción depende de la longitud de onda. Este importante fenómeno que sirve de base para el funcionamiento de una serie de instrumentos que descomponen la radiación electromagnética en espectro lleva el nombre de dispersión.

Gentileza de Manuel Mayo

35

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Si la luz incide de un medio menos denso en otro más denso, puede tener lugar la reflexión interna total. En este caso el índice de refracción es menor que la unidad. A medida que crece el ángulo de incidencia el ángulo de refracción se aproximará cada vez más a 90°. Para la condición sen r =1 y , sen i = n la luz dejará de pasar al segundo medio reflejándose totalmente de la superficie de separación. Para el agua el ángulo de la reflexión interna total equivale a 49°. La refracción de la luz mediante una lámina plana puede aprovecharse para «desplazar» el rayo, dejándolo paralelo a sí mismo. Y con ayuda de un prisma el rayo de luz puede hacerse girar. Si el lector quiere recordar la deducción de la fórmula para el ángulo de giro D del rayo

la

hallará

en

el

manual

escolar.

La

deducción

requiere

únicamente

conocimientos de geometría elemental, sin embargo, es muy engorrosa, en particular, si se lleva a cabo para un prisma grueso y el valor arbitrario del ángulo que el rayo, al incidir, forma con el prisma, una fórmula simple resulta en el caso de que el prisma es delgado y el ángulo de incidencia del rayo en la cara del prisma no difiere mucho del recto. Siendo así, tenernos D = (n - 1) p donde p es el ángulo entre las caras del prisma. Haciendo uso de un prisma, el gran Newton, a finales del siglo XVII, demostró por primera vez que la luz blanca no es monocromática, sino se compone de rayos de distintos colores. Los que más se desvían son los rayos violeta, y los que menos, los rojos.

Precisamente

por

esta

razón

decimos

rayos

«ultravioleta»

y

rayos

«infrarrojas» y no infravioleta y ultrarrojas. El mundo científico se enteró del descubrimiento de Newton en 1672. En la descripción de sus experimentos Newton es explícito y preciso. Aquí se revela su genial intelecto. Pero en lo que se refiere a la presentación verbal, su comprensión representa una ardua labor. Tan solo desbrozando a duras penas el camino a través

Gentileza de Manuel Mayo

36

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

de la fragosidad de las palabras, se logra hacer constar: aunque el autor prometió exponer

los

hechos

sin

crear

hipótesis

(el

famoso

«hipotesis

non

fingo»

newtoniano), no iba a cumplir su promesa. Muchos de estos axiomas y definiciones, a semejanza de: «el rayo de luz, es su parte ínfima» suenan excepcionalmente extrañas para el oído moderno. Hasta el momento, en la química hace su servicio el espectrógrafo cuya parte fundamental es el prisma newtoniano. El material debe poseer gran dispersión. Los prismas para el espectrógrafo se preparan de cuarzo, de fluorita y de sal gema. La luz a investigar se deja pasar a través de una rendija dispuesta en el plano focal principal de la lente de entrada. A resultas de ello sobre el prisma incide un haz paralelo de luz. Los fotones de frecuencia diferente irán en distintas direcciones. La segunda lente, la de salida, acumulará fotones iguales y en un punto del plano focal. Si se quiere, el espectro, puede verse con el ojo. Con este fin, hay que colocar un vidrio mate. El espectro puede fotografiarse. En el momento actual, el espectro se registra mediante autorregistradores. A lo largo del espectro se desliza el receptor de energía que es una célula fotoeléctrica o un termoelemento que produce corriente cuya intensidad es proporcional a la intensidad de la luz. Esta corriente hace desviarse la parte móvil del dispositivo registrador de la misma manera, exactamente, como la corriente del galvanómetro desvía su aguja. A la parte desviada se ajusta una pluma: ésta graba el espectro en un rollo de papel que se desenvuelve a velocidad constante. La lente Existe una gran rama de la industria fabricadora de lentes. Cuerpos transparentes limitados por dos superficies esféricas o por una esférica y otra plana; los hay de los más diversos tamaños. En algunos instrumentos se utilizan lentes cuyo tamaño es como el de una pequeña moneda metálica, y en los grandes telescopios el diámetro de la lente puede ser igual a varios metros. La fabricación de las lentes de grandes dimensiones es un gran arte, ya que una buena lente debe ser homogénea. Por supuesto, cada uno de nuestros lectores ha tenido en las manos una lente y está enterado de sus principales particularidades. La lente aumenta el objeto, la lente enfoca los rayos. Valiéndose de una lente que intercepta el camino del rayo

Gentileza de Manuel Mayo

37

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

del sol es fácil encender un trocito de papel. La lente «concentra» los rayos en un punto. Este es el foco de la lente. El hecho de que los rayos paralelos converjan en un punto y, por el contrario, el que la lente cree un haz paralelo de rayos, si en el foco de la lente se sitúa la fuente puntual de luz, se demuestra mediante la ley de la refracción y a base de razonamientos geométricos sencillos. Si un panto no se encuentra en el foco, sino a la distancia a del centro de la lente, entonces, las rayos que parten de éste se acumularán a una distancia a'. Estas dos distancias están relacionadas por medio de la fórmula conocida:

aquí f es la distancia focal de la lente. No es difícil demostrar que los rayos de luz que parten del objeto situado más lejos que la doble distancia focal, crearán su imagen invertida y disminuida en razón de a'/a entre el foco y la distancia focal doble. Si el objeto se traslada a la posición que ha ocupado la imagen, ésta se trasladará a la posición que ha ocupado el objeto. Actúa el llamado principio de reversibilidad del curso de los rayos. Cuando utilizamos la lente como lupa, el objeto se encuentra entre la lente y su foco. En esto caso, la imagen no se invierte y halla por el mismo lado que el objeto (fig. 2.2). Voy a recordar la diferencia que existe entre el caso de la lupa y los dos ejemplos anteriores: la lupa crea una imagen «virtual», mientras que para otras disposiciones del objeto obtenemos imágenes que su pueden ver en la pantalla o fotografiar. Con plena razón las llamamos reales. El aumento que da una lupa es tanto mayor cuanto menor es su distancia focal. Las posibilidades límites de la lupa son bastante modestas: lo máximo que se consigue es hacer el ángulo visual bajo el cual se ve la imagen virtual de 20 a 30 veces mayor que el ángulo visual bajo el cual observamos tal objeto a simple vista.

Gentileza de Manuel Mayo

38

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Muchos instrumentos ópticos serían extraordinariamente simples componiéndose de lentas unitarias si no fuese por una serie de defectos inevitables.

Figura 2.2 Nosotros queremos que la lente concentre el haz paralelo de la luz blanca en un solo punto. Pero el fenómeno de dispersión lo impide. La causa reside en que los fotones de diferente color se desviarán por la lente en direcciones distintas. Como resultado, en vez de un punto obtendremos una línea coloreada extendida a lo largo del ojo de la lente. Es la aberración cromática. Otro infortunio es la aberración esférica. Los rayos que pasan más cerca del eje de la lente se enfocarán en un punto más alejado que aquellas cuya ruta resulta más apartada del eje. Es distinto el comportamiento de los rayos que inciden en la superficie de la lente formando ángulos grandes o pequeños. En lugar de un punto obtenemos un núcleo luminoso desplazado a un lado de la posición correcta. Del núcleo parte una cola. Este efecto se denomina coma. La palabra «coma» traducida del griego significa en una de sus acepciones «cabellera suelta». Lo expuesto anteriormente está muy lejos de agotar la lista de las distorsiones que ocasiona la lente unitaria. Si examinamos un cuadrado veremos un cuadrilátero cuyos vértices vienen unidos por arcos «hundidos» por dentro. Dicho fenómeno

Gentileza de Manuel Mayo

39

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

ocurre debido a que los rayos que parten de los vértices del cuadrado y de los centros de sus lados se refractarán de diferente manera. Grandes contratiempos depara a los diseñadores de los instrumentos ópticos el defecto que lleva el nombre de astigmatismo. Si el punto se encuentra lejos del eje óptico principal de la lente, su imagen su desdoblará en dos franjas perpendiculares entre si y desplazadas hacia los lados opuestos con respecto a la posición de la imagen ideal. Hay también otras distorsiones. Los especialistas en el campo de producción de las lentes suelen reducir todas las variedades de las distorsiones a siete tipos principales. Hemos mencionado entre éstos tan sólo cinco. Como suele suceder muy a menudo en la técnica, al crear una buena lente tenemos que acoplar un compromiso. Queda absolutamente claro que junto con el tamaño de la lente incrementarán las distorsiones, mas, por otra parte, la iluminación de la imagen (o sea, el número de fotones de la luz visible correspondientes a una unidad de superficie) es proporcional al cuadrado del diámetro de la lente (es decir, a su área). Pero queda algo más. Supongamos que el objeto cuya imagen da la lente se encuentra lejos. Entonces, la imagen se concentrará en el foco. Cuanto menor sea la distancia focal, tanto menor será el tamaño de la imagen. En otras palabras, el flujo luminoso que parte del objeto se concentrará en un área menor. Esto significa que la iluminación será inversamente proporcional a la distancia focal. Debido a estas dos causas, se denomina luminosidad de una lente, el cuadrado de la relación de su diámetro a la distancia focal. La menor distancia focal la poseen lentes gruesas, o sea, lentes cuyas superficies están formadas por radios pequeños. Pero precisamente estas lentes darán mayores distorsiones. En consecuencia, el aumento de la luminosidad de la lente, ya sea a costa de sus dimensiones, o bien, a costa del radio de curvatura, conduce a la mala calidad de la imagen. Los técnicos se ven obligados a resolver un problema nada fácil. La cámara fotográfica

Gentileza de Manuel Mayo

40

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

La cámara fotográfica más simple no es sino una lente que hace las veces de ventanillo en una caja oscura. La imagen creada por la lente se fija en la placa fotográfica dispuesta enfrente del ventanillo. Sin embargo, una lente simple da una imagen deformada. A raíz de ello, se sustituye por un sistema complejo de lentes que debe contrarrestar los infortunios ópticos de toda índole. Dicho sistema lleva el nombre de objetivo. ¿De qué manera se pueden eliminar las distorsiones? Hace tiempo que se ha propuesto utilizar un sistema de lentes seleccionadas de tal forma que los defectos de cada una de éstas se compensen por los defectos de otras. Este principio de obtención de un efecto positivo por multiplicación de dos efectos negativos resulta posible realizar para la eliminación de todos los siete defectos valiéndose tan sólo de tres lentes. Sin embargo, así resulta sólo de principio. En la realidad, para crear una imagen más perfecta se utilizan combinaciones más complicadas. Una de éstas (no la más compleja, ni mucho menos) se representa en la fig. 2.3.

Figura 2.3 Este sistema de lentes convexas y cóncavas es capaz de proporcionar una imagen no deformada simultáneamente con una variación considerable del grado de aumento. La primera y la tercera componentes del sistema se desplazan una respecto a otra con lo cual se consigue la variación continua de la distancia focal en tres veces. La cámara fotográfica necesita un simple dispositivo que permite «orientar el aparato al foco». Con este fin hay que tener la posibilidad de cambiar la distancia entre el centro del objetivo y la película fotográfica. Hasta el día de hoy se han Gentileza de Manuel Mayo

41

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

conservado aparatos fotográficos cuya cámara se fabrica plegable, en forma de fuelle, y que se puede contraer. Y cabe decir que semejantes aparatos permiten sacar fotos nada malas. En un aparato fotográfico moderno que cabe en la palma de la mano esta operación se realiza de una forma más elegante, con un movimiento helicoidal de la montura del objetivo. Como resulta claro del análisis referente a la luminosidad de la lente, la calidad de la imagen mejora si reducirnos máximamente la «pupila» de la cámara. Esto se consigue con la ayuda de un diafragma de diámetro variable. Las dimensiones del diafragma se eligen de modo que sean menores, pero que dejen pasar una cantidad suficiente de luz, con la finalidad de dar una buena imagen durante la exposición prefijada. ¿Por qué parecen tan graciosas las fotografías tomadas en los tiempos en que la técnica fotográfica se encontraba todavía en pañales? Salta a la vista que las personas en la foto quedaron inmóviles en postura tiesa. La explicación resulta muy simple: el fotógrafo se veía obligado a recurrir a exposiciones prolongadas. Precisamente por esta razón tenía que proferir las palabras sacramentales: «Tranquilo, saco la foto». La lucha por obtener una buena imagen con exposición mínima se libra por dos vías. La primera es el perfeccionamiento del objetivo. Y esto se lleva a cabo no sólo a costa de selección de la geometría de las lentes que constituyen el objetivo. En un objetivo compuesto por varias lentes casi la mitad de la luz se refleja, lo que conduce, primero, a las perdidas en la iluminación de la imagen y, segundo, crea un fondo luminoso que disminuye el contraste de la imagen. Contra este fenómeno se lucha por medio del procedimiento que lleva el nombre de tratamiento antirreflejo de la óptica. A la superficie de las lentes se aplican películas finísimas. Debido al fenómeno de interferencia la parte de la luz reflejada disminuye de una manera brusca. Es fácil distinguir los objetivos con la óptica «tratada»: su cristal tiene matiz azulado. La segunda vía para mejorar las fotografías es el perfeccionamiento de la película fotográfica. Conviene decir varias palabras acerca del proceso fotoquímico que conduce a la formación de la imagen. La capa fotosensible es gelatina en la que están

Gentileza de Manuel Mayo

42

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

introducidos cristales de bromuro de plata con pequeña impureza de yoduro de plata. El tamaño de los granos cristalinos varía entre los límites desde una milésima hasta una diezmilésima de milímetro. El número de granos correspondientes a 1 cm2 de película se encuentra dentro del margen de, decenas a centenares de miles. Si la capa de la emulsión fotográfica se observa bajo el microscopio se puede ver que los granos se disponen bastante densamente. Los fotones que caen sobre el grano de la emulsión destruyen los enlaces entre los átomos de plata y los de halógeno. El número de átomos de plata que obtuvieron libertad es estrictamente proporcional al de fotones caídos en la película. El fotógrafo elige una exposición en que se destruye gran cantidad de enlaces entre los átomos de plata y de bromo. No obstante, al mismo tiempo la exposición no debe ser demasiado larga. Una exposición prolongada llevará a que los enlaces entre los átomos de plata y de bromo se destruyan totalmente. Entonces, después del revelado los cristales desprenderán toda la plata contenida en éstos y la placa resultará igualmente negra en todos los puntos. Durante una exposición correcta en la placa fotográfica se crea la imagen latente del objeto. En cada grano, el número de enlaces destruidos es proporcional al número de fotones incidentes en este grano. El proceso de revelado consiste en dar la posibilidad de reunirse a los atamos de plata potencialmente libres. En este caso, la cantidad de plata desprendida en el negativo después de revelar la película será proporcional a la intensidad de la luz. De lo expuesto queda claro que los pequeñísimos detalles que representa la fotografía del objeto no pueden ser, de ningún modo, mayores que el tamaño del grano cristalino de bromuro de plata. Una vez revelada la placa debe fijarse. Este proceso consiste en eliminar el bromuro de plata no descompuesto. Si estos granos no expuestos no se eliminan, entonces, al sacar el negativo a la luz, lo «velaremos», pues en este caso los granos desprenderán por completo toda la plata que contienen. La física de obtención de la imagen positiva es tan evidente que no nos daremos trabajo de parar en ésta.

Gentileza de Manuel Mayo

43

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

La técnica de fotografía en color moderna dista mucho de ser simple y merece gran admiración. En cuanto a la física de este proceso, ésta no tiene nada de complicado. El modelo de percepción de la luz ofrecido ya a mediados del siglo XVIII es absolutamente correcto. El ojo del hombre posee receptores de tres colores: rojo, verde y azul. Al combinar estos colores en distintas proporciones es posible crear la sensación de cualquier color. En correspondencia con lo expuesto, para obtener una imagen en color hay que disponer de una película de tres capas. La capa superior debe ser sensible a los rayos azules; la central, a los verdes, y el inferior, a los rojos. No hablaremos de cómo los químicos alcanzan semejante estado de cosas. El negativo en color se transforma en positivo en color, utilizando también el papel fotográfico de tres capas. El ojo El ojo creado por la naturaleza es un maravilloso instrumento físico. La posibilidad de distinguir decenas de miles de matices de los colores, de ver a distancias cortas y largas, de percibir con los dos ojos las relaciones volumétricas del objeto, así como la sensibilidad frente a las intensidades luminosas muy insignificantes, todas éstas son propiedades que podrán hacer honor al instrumento de la más alta clase. Es cierto que el ojo del hombre ve solamente una pequeña porción del espectro. Los ojos de una serie de animales carecen en cierto grado de esa imperfección. La estructura del ojo recuerda la de un aparato fotográfico. El papel del objetivo lo desempeña el cristalino que tiene la forma de una lente biconvexa. El cristalino es blando y es capaz de cambiar su forma por acción de los músculos que lo abarcan. En esto consiste el proceso de acomodación del ojo que permite igualmente bien ver tanto los objetos próximos, como los alejados. Con la edad, el cristalino se torna más dura y los músculos se aflojan, y en relación con ello el hombre necesita gafas «para la lejanía» y «para la lectura». La imagen del objeto se proyecta a la pared posterior del ojo. El nervio óptico transmite esta sensación al cerebro. El ojo normal de una persona joven es capaz de examinar con detalle el objeto situado a una distancia no menor de 10 cm. A medida que avanza la edad, suele desarrollarse la presbicia y esta distancia crece hasta 30 cm.

Gentileza de Manuel Mayo

44

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Delante del cristalino se encuentra la pupila que hace las veces del diafragma del aparato fotográfico. La abertura de la pupila puede variar dentro de los límites de 1,8 a 10 mm. El papel de la placa fotográfica en que se forma la imagen lo desempeña la retina cuya estructura es muy compleja. Bajo la retina se sitúa el epitelio del ojo que consta de células sensibles a la luz que se denominan conos y bastoncillos. El lector puede comparar el número de estas células con el de granos de bromuro de plata en la placa fotográfica. El número de células visuales supera cien millones. Por cuanto el hombre es capaz de distinguir colores, está claro que las células visuales poseen sensibilidad disímil respecto a las diferentes zonas del espectro. Llegaremos al mismo resultado al suponer que las células se dividen en clases sensibles a distintas zonas del espectro. Si la vista resulta normal, entonces, el foco posterior del ojo en estado tranquilo se encuentra en la retina. Si el foco se halla delante de la retina, la persona es miope, y si detrás de la retina, la persona padece presbicia. Lo que conduce a estos dos defectos difundidos es el grueso demasiado grande o demasiado pequeño del cristalino. Hay personas que padecen astigmatismo. En este caso, el cristalino en estado normal no tiene forma regular de un cuerpo limitado por dos superficies esféricas. Todos estos defectos se corrigen con la ayuda de las gafas las cuales, junto con el cristalino, deben formar un sistema óptico que enfoque la imagen del objeto en la retina. Las lentes de las gafas se caracterizan por el número de dioptrías. La dioptría es la unidad del poder óptico (vergencia) de una lente y esta magnitud es inversamente proporcional a la distancia focal. El poder óptico en dioptrías es igual a la anidad dividida en la distancia foral en metros. Las distancias focales de las lentes divergentes que utilizan en sus gafas las personas présbitas son negativas. El ángulo visual del ojo es mucho mayor que nos parece. Una serie de acontecimientos que suceden bajo el ángulo de 90° a cada lado respecto a la mirada directa se fija inmediatamente en la subconsciencia. Esta circunstancia, con frecuencia, suscita en las personas la errónea opinión de que «sienten» la mirarla

Gentileza de Manuel Mayo

45

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

de un transeúnte sin verlo. El ojo discierne mal los objetos vistos bajo un ángulo menor que un minuto de arco. Esto tiene lugar hasta con una buena iluminación. El polarizador La onda luminosa es una onda electromagnética, como se ha señalado en el libro 3, por medio de experimentos patentes puede demostrarse que el vector del campo eléctrico es perpendicular a la dirección del rayo. Si este mismo hecho se interpreta considerando la luz en el aspecto corpuscular es conveniente indicar que la partícula de luz -el fotón- no es una bolita, sino una flechilla. En una serie de cálculos complicados los físicos teóricos llegaban a la conclusión de que el fotón pasee espín (igual a 1). De este modo es bastante natural representar el fotón corro flechilla. Un rayo de luz ordinario no es sino un flujo de fotones cuyos espines están dispuestos de manera desordenada. Dicho rayo luminoso se denomina no polarizado. Sin embargo, en una serie de casos tenemos que tratar con el haz de fotones la totalidad de cuyos espines miran en el mismo sentido, o, empleando otro lenguaje, tenemos que ver con ondas electromagnéticas cuyo vector eléctrico posee una dirección completamente determinada. Tales rayos se denominan polarizados. Uno de los procedimientos para la obtención de los rayos polarizados consiste en hacer pasar el rayo luminoso a través de un cristal de baja simetría. Estos cristales orientados de una forma adecuada respecto al rayo incidente acusan la capacidad de desdoblar el rayo natural en dos rayos polarizados en dos direcciones mutuamente perpendiculares, Lamentablemente, no estoy en condiciones de dar al lector ni siquiera una noción mínima de por qué ocurre así. Este hecho está relacionado con que las moléculas del cristal «reciben» de diferente manera las ondas Con los vectores eléctricos dispuestos de una forma desigual. Pero temo que no se sienta aliviado por esta frase. Sólo me permito asegurar que la teoría del desdoblamiento de los rayos sí que existe y que, además, es una teoría excelente que describe todos los detalles de este interesante fenómeno. En particular, se puede predecir cómo variará el cuadro del paso de la luz si colocamos el cristal bajo distintos ángulos respecto al rayo luminoso.

Gentileza de Manuel Mayo

46

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Al desdoblar el rayo no polarizado en dos polarizados, podemos, seguidamente, sin especial dificultad, llegar a tal estado de cosas en que uno de estos rayos se desvíe por algún lado. Una vez conseguida esta finalidad obtenemos el instrumento llamado nicol, en honor de su creador, el físico inglés William Nicol (1768-1851). Inventó el instrumento todavía en 1820. Es interesante señalar que todas las explicaciones referentes a la polarización de la luz se daban en aquella época en el lenguaje corpuscular considerándose una confirmación magnífica de la teoría corpuscular de la luz de Newton. Al poco tiempo se descubrieron los fenómenos de interferencia y de difracción cuya explicación mediante el lenguaje ondulatorio era tan natural que la teoría de los corpúsculos luminosos resultó sepultada. Sin embargo, transcurrió un siglo y la teoría resucitó -como la fabulosa ave Fénix renace de sus cenizas- aunque en forma mucho más modesta de uno de los dos aspectos del campo electromagnético. Si el camino de la luz lo intercepta un polarizador, la intensidad del rayo disminuirá, como conviene esperar, al doble. Pero el fenómeno más interesante, el cual demuestra, precisamente, la existencia de la polarización, tendrá lugar cuando coloquemos en el camino del rayo un segundo instrumento, análogo al primero. Este se denomina analizador a pesar de que no se diferencia en nada del primer nicol. Hagamos ahora girar el nicol en torno al rayo de luz. Resultará que la intensidad de la luz que pasó a través da dos nicoles para cierta posición recíproca de éstos es la misma que en ausencia de nicoles. Decimos: en esta posición los nicoles son paralelos. Ahora hagamos girar el analizador. Cuando le damos vuelta de 90° la luz deja pasar. En este caso se dice que los nicoles están cruzados. En la posición intermedia, cuando el segundo nicol esté desviado de la posición paralela en un ángulo α, la intensidad será igual a

La fórmula se explica con facilidad si se admite que el vector del campo eléctrico está descompuesto en dos componentes: una perpendicular y otra paralela a la «rendija» del analizador. Y la intensidad, como sabemos, es proporcional al

Gentileza de Manuel Mayo

47

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

cuadrado de amplitud de la onda, es decir, al cuadrado del vector eléctrico. Por lo tanto la variación de la intensidad de la luz debe efectuarse de acuerdo con la ley del cuadrado del coseno. El análisis de la luz polarizada tiene varias aplicaciones prácticas. Imaginémonos que los nicoles están cruzados y entre éstos está colocado un cuerpo transparente capaz de hacer girar el vector eléctrico de la onda. En este caso tendrá lugar la aclaración del campo observado. Dicha capacidad la poseen los cuerpos que se encuentran baja tensión. Según sea el valor de la tensión, el giro del vector luminoso y, junto con esto, también la aclaración del campo detrás de los nicoles cruzados será diferente. Veremos cuadros hermosos (y, además, coloreados por cuanto los fotones de distintos colores se comportan de diferente manera) que permiten juzgar sobre las tensiones en la muestra, o bien, si están orientadas o no las moléculas de la misma. Son datos valiosos y, a raíz de ella, un buen microscopio está dotado de dos nicoles para que haya posibilidad de examinar la imagen del objeto en la luz polarizada. La información acerca de la estructura será más rica. También las soluciones de muchas sustancias son susceptibles de hacer girar el vector eléctrico de la onda luminosa, por ejemplo, las solucionas de azúcar. En este caso, el ángulo de giro resulta estrictamente proporcional a la cantidad de azúcar en la solución. Por lo tanto, es posible acomodar el polarímetro para medir el contenido de azúcar. Estos instrumentos se denominan sacarímetros y se pueden encontrar casi en cualquier laboratorio químico. Estos dos ejemplos no agotan las aplicaciones de los polarímetros, pero las dos expuestas son, probablemente, las principales. El microscopio y el telescopio La parte óptica del microscopio consta del ocular y el objetivo. El ocular es una lente a la que arrimamos el ojo, y el objetivo casi toca el objeto examinado. El objeto se coloca a una distancia que supera algo la distancia focal del objetivo. Entre el objetivo y el ocular aparece la imagen inversa aumentada. Es necesario que ésta se encuentre entre el ocular y el foco del ocular. El ocular desempeña el papel de lupa. Se puede demostrar que el aumento del microscopio es igual al producto de los aumentos proporcionados por el ocular y el objetivo tomados por separado.

Gentileza de Manuel Mayo

48

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

A primera vista puede parecer que valiéndose del microscopio es posible observar detalladamente todos los elementos tan pequeños como se quiera del objeto. ¿Por qué, por ejemplo, no hacer una foto que aumente el tamaño miles de veces para, luego, observarla detalladamente bajo el microscopio, obteniendo ya un aumento de millón de veces, y así sucesivamente? Un razonamiento de esta índole no resiste la crítica. Ante todo, cabe recordar que el aumento de los cuadros fotográficos está limitado por el tamaño del grano de la película fotográfica. Es que cada pequeño cristal de bromuro de plata actúa como un todo único. El lector, sin duda, habrá visto fotografías muy aumentadas, advirtiendo que el aumento no conduce, ni mucho menos, a la precisión del cuadro, sino, por el contrario, hace más borrosos los detalles. Ahora bien, si podemos evitar la operación de fotografiar aumentando la imagen por métodos ópticos -lo que es completamente posible pues no hay nada que impida elevar el número de lentes- nos convenceremos pronto que también en este caso el gran aumento no tiene sentido. El aspecto ondulatorio del campo electromagnético pone límite al aumento útil de cualquier instrumento. Ya sea que observamos el objeto a través de un diminuto cristal de aumento, ya sea que a simple vista, o bien, con la ayuda de un microscopio o telescopio, en todos estos casos, sea como sea, la onda luminosa procedente del punto luminoso debe pasar a través de un orificio. Pero en estas circunstancias aparece el fenómeno de difracción, es decir, la desviación del rayo luminoso del camino recto. En uno u otro grado el rayo «dobla la esquina». Debido a ello, la imagen del punto nunca será un punto, sino una mancha. Y por mucho que se esfuerce es imposible hacer el tamaño de esta mancha menor que la longitud de onda de la luz. Es

de

esencial

importancia

el

saber

determinar

aproximadamente

en

qué

condiciones la marcha de la onda electromagnética se desvía considerablemente del camino rectilíneo. Si designamos por x la desviación lineal desde el camino recto observada a la distancia f del manantial de la radiación, siendo igual a α el tamaño del obstáculo o del orificio que se encuentra en la trayectoria seguida por el rayo, entonces, tiene lugar la siguiente relación:

Gentileza de Manuel Mayo

49

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Aquí x es la longitud de onda. De esta ecuación se deduce que la difracción puede observarse tanto debido a partículas pequeñísimas, como a cuerpos celestes. Todo depende de qué longitudes de onda y de qué distancias se trata. Lo mismo se puede decir sobre los orificios. Para observar la difracción no es obligatorio, en modo alguno, tener que ver con orificios minúsculos. Por ejemplo, un orificio capaz de dejar pasar una pelota de tenis también permite observar los fenómenos de difracción aunque a las distancias del orden de cientos de metros. La elemental ecuación que hemos presentado permite juzgar sobre las máximas posibilidades de los microscopios y telescopios. El microscopio no nos da la posibilidad de discernir detalles del objeto con mayor precisión que un micrómetro. Y en cuanto a los detalles con dimensiones milimétricas los vemos a simple vista. De aquí resulta claro que al utilizar el microscopio óptico no tiene sentido afanarse para conseguir que el aumento sea mayor que en mil veces. Esta restricción atañe al microscopio óptico. Ahora bien, si se lograse diseñar un microscopio que pudiera trabajar no con rayos luminosos, sino con otros cualesquiera cuya longitud de onda fuese menor, entonces, incrementaría el aumento útil del microscopio. Semejante microscopio se ha creado hace tiempo y trabaja en muchos laboratorios científicos. Es el microscopio electrónico. La longitud de onda de los electrones puede elegirse muy pequeña.

Figura 2.4

Gentileza de Manuel Mayo

50

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Valiéndose del microscopio electrónico se logra ver los detalles estructurales de la materia, medidas en diezmillonésimas fracciones de milímetro. Los biólogos pudieron observar las moléculas de ADN, aquellas mismas moléculas con cuya ayuda los caracteres hereditarios se transfieren de los padres a sus descendientes. Se ven las moléculas de las proteínas, es posible dilucidar la estructura de las membranas de las células, advertir los detalles de la estructura de las fibras musculares. Inserto tan sólo una fotografía récord (fig. 2.4) que muestra la red cristalina del mineral pirofilita con un aumento mayor de 3 millones. Se ve la distancia entre los planos del cristal igual a 4,45 Å. El límite de las posibilidades del microscopio electrónico está relacionado no con su poder resolutivo, pues podemos disminuir, sin dificultad, la longitud de onda de los electrones. El quid de la cuestión reside en el grado de contraste de la imagen: la molécula que se estudia debe colocarse en un soporte, y éste, a su vez, también consta de moléculas. Y sobre el fondo de las moléculas del soporte es difícil distinguir aquella molécula que nos interesa. El microscopio electrónico es un instrumento complicado y caro. Su «estatura» ordinaria es del orden de un metro y medio. Los electrones se aceleran por la alta tensión. ¿Y a costa de qué se crea el aumento? El principio es el mismo que en el microscopio óptico. El alimento lo proporcionan las lentes. Pero, esté claro, que estas «lentes» en nada se parecen a las de un microscopio común y corriente. Los electrones se fijan por los campos eléctricos aplicados a placas metálicas con orificios, así como por campos magnéticos engendrados por las bobinas. Existe una gran variedad de procedimientos técnicos que ayudan a crear la imagen. Haciendo uso de micrótomos se preparan cortes finísimos que se observan al trasluz y las moléculas en el soporte se matizan sedimentando en éstas vapores de los metales. También puede obtenerse la «réplica» de la muestra, es decir, cubrirla de una película muy delgada de material transparente para luego, decapar el propio objeto. La microscopía electrónica es un gran e importante apartado de la física y merece que se le dedique un capítulo especial. Sin embargo, el volumen reducido del presente libro me hace avanzar.

Gentileza de Manuel Mayo

51

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Todavía en el siglo XVI se conjeturaba que con la ayuda de vidrios convexos podían observarse los objetos lejanos. No obstante, no nos equivoquemos al atribuir el descubrimiento del telescopio (mejor dicho, del anteojo) al gran Galileo. Este instrumento fue construido en julio de 1609 y ya al cabo de un año Galileo publicó sus primeras observaciones del cielo estelar. Al igual que el microscopio, el anteojo (el telescopio-refractor) es, de principio, la combinación de las mismas dos lentes: del objetivo vuelto al objeto y del ocular vuelto al ojo. Puesto que se observa un objeto infinitamente alejado, su imagen se crea en el plano focal del objetivo. El plano focal del ocular coincide con el plano del objetivo, y del ocular parten haces paralelos. Las posibilidades del telescopio crecen con el aumento del diámetro del objetivo. Así, por ejemplo, para los grandes telescopios están accesibles en la Luna cráteres de 1 km de diámetro, y en los telescopios pequeños es posible distinguir, habitualmente, cráteres de 154 km de diámetro. En un observatorio astronómico veremos no sólo telescopios-refractores. De un modo seguro, tendremos que trabar conocimiento con un telescopio-reflector. Por cuanto observamos objetos lejanos y es necesario concentrar los rayos en el foco, resulta que con este fin se puede utilizar no una lente esférica, sino un espejo esférico. La ventaja es evidente, nos libramos de la aberración cromática. Los defectos del telescopio con espejo están relacionados tan sólo con los altos requisitos, de difícil realización, a que debe responder la superficie del espejo. Por supuesto, también el telescopio tiene un límite de aumento útil relacionado con el aspecto ondulatorio de la luz. La luz de una lejana estrella se ensancha en un círculo lo que pone coto a la distancia angular entre las estrellas que podemos observar en el telescopio. También aquí el deseo de ampliar las posibilidades del telescopio está relacionado con el aumento de su diámetro. Probablemente, las posibilidades límites de los telescopios se encuentren en la región de una décima de segundo de arco. En los últimos años, para secundar los telescopios, vino la nueva técnica. Los astrónomos estudian el firmamento fijando todo el espectro de las ondas electromagnéticas que nos envía el Universo. En el capítulo 7 hablaremos un poco sobre la irrupción de la física moderna en la pacifica morada de los astrónomos.

Gentileza de Manuel Mayo

52

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Interferómetros Como ya hemos subrayado reiteradas veces, el campo electromagnético tiene el aspecto ondulatorio. De la misma manera, el aspecto ondulatorio lo poseen los flujos de partículas: los electrones, neutrones y protones. El sonido es el resultado de los desplazamientos mecánicos del medio que transcurren de acuerdo con la ley ondulatoria. Lo común para todos estos procesos físicos es la posibilidad de atribuir a cualquier radiación la longitud de onda, la frecuencia y la velocidad de propagación relacionadas por medio de la ecuación c = λν. La radiación más simple es monocromática, o sea, se define por una longitud de onda. En el caso general la radiación resulta ser un espectro complejo, es decir, una suma de ondas de diferente longitud y de diferente intensidad. El aspecto ondulatorio de la radiación se manifiesta en dos fenómenos: en la adición de las ondas que recorrieron distintos caminos, así como en el caso de la dispersión por los cuerpos que se encuentran en la trayectoria del rayo. Un caso particular importante de dispersión de ondas es la difracción. La adición de las ondas lleva el nombre de interferencia. Aquí se tratará de la interferencia de la luz. Esto fenómeno forma la base del funcionamiento de los instrumentos que ayudan a medir con precisión las distancias, así como algunas otras magnitudes físicas. Los instrumentos que se sirven

del

fenómeno

de

interferencia

para

fines

aplicadas

se

denominan,

precisamente, interferómetros. El principio de medición de las distancias se reduce al cálculo del número de ondas que caben en el tramo que se mide. A primera vista puede parecer que no es una cosa complicada realizar estas mediciones. Tomemos dos fuentes de luz y hagamos converger sus rayos en un punto. Dependiendo de cómo llegarán las ondas al punto de observación: la «cresta» con la «cresta» o la «cresta» con la «depresión», se creará una mancha clara o una mancha oscura. Planteemos ahora el problema de medir la distancia a la que queremos trasladar una de las fuentes de luz. Durante esta traslación cambiarán las relaciones fásicas de las dos ondas en el punto de observación. Lo único que nos queda es contar la cantidad de relevos de lo claro y lo oscuro, de

Gentileza de Manuel Mayo

53

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

modo que entonces, teniendo en cuenta la geometría del experimento y conociendo la longitud de onda de la luz, calcularemos sin dificultad la magnitud de la traslación. De principio, todo es cierto. Sin embargo, al proceder de esta forma no observaremos la alternancia de lo claro y lo oscuro. La pantalla quedará todo el tiempo clara. Así, pues, el simple experimento fracasó. Absolutamente indudable es el siguiente resultado: dos rayos de luz emitidos por diferentes

fuentes

y

convergentes

en

un

punto

siempre

se

intensificarán

mutuamente. Entonces, ¿puede ser que la teoría ondulatoria es errónea? No, la teoría es justa, a la radiación electromagnética le es inherente al aspecto ondulatorio. Pero, hemos procurado obrar a base de una suposición equivocada. Para que se observe la interferencia es necesario que entre las ondas que se suman se conserve siempre una diferencia de fase invariable. Mientras tanto, las relaciones de fase, incluso entre ondas que parten de dos átomos de una misma fuente, son absolutamente fortuitas. Ya hemos señalado que los átomos de luz lanzan fotones sin «ponerse de acuerdo» entre sí sobre su conducta. Por consiguiente, dos fuentes diferentes radian de una forma discorde, o, como se dice, crean una radiación no coherente. Pero, en este caso, ¿no resulta que la radiación acorde, es decir, coherente, es algo como el Pájaro Azul? No, ¡no es así! La solución del problema es extraordinariamente hermosa y, al mismo tiempo, sencilla al extremo, lo que es inherente a la mayoría de ideas originales: ¡hay que obligar la radiación del átomo sumarse a sí misma! Y para alcanzar este objetivo es necesario desdoblar el rayo, que parte de cada fuente, en dos fragmentos, hacer que estos dos fragmentos del rayo recorran diferentes caminos y sólo después llevarlos a un punto. Precisamente a esta condición, nosotros, observando la interferencia y cambiando las diferencias de los caminos de los fragmentos del rayo desdoblado, podremos, de veras, medir el desplazamiento y la longitud que nos interesan, al calcular el número de alternancias de luz y oscuridad. Hemos dado la descripción del principio que constituye la base de las mediciones de interferencia descubierto ya en 1815 por el físico francés Agustín Fresnel (17881827). Examinemos ahora los métodos que sirven de base para la acción de los

Gentileza de Manuel Mayo

54

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

interferómetros con cuya ayuda se desdobla el rayo y se crean las diferencias de marcha entre las partes desintegradas del rayo. Analicemos más detenidamente la interferencia de los rayos de luz reflejados de las partes exterior e interior de una lámina transparente o de una película. Este fenómeno merece que se le preste atención tanto por su significación práctica, como por la razón de que se observa en la naturaleza. Además, basándose en este ejemplo, se esclarecen con facilidad muchos importantes conceptos que utilizamos en

la

descripción

de

las

ondas

luminosas,

así

como

de

otras

ondas

electromagnéticas.

Figura 2.5 La fig. 2.5 permite calcular el desfasaje entre dos rayos de este tipo, La diferencia de fase se determina por la diferencia de marcha, es decir, por la diferencia de caminos recorridos por dos rayos. Como se ve en el dibujo, la diferencia de marcha

Pero, ¿cómo pasar de la diferencia de marcha de los rayos a la diferencia de fase que determina si dos ondas se intensificarán o se debilitarán una a otra? Hablaremos con el lector a quien no asusta la fórmula del coseno. La oscilación del Gentileza de Manuel Mayo

55

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

vector luminoso en cualquier punto del espacio puede anotarse de la siguiente forma:

El desfasaje al ángulo φ significa la necesidad de adicionar este ángulo al argumento del coseno. Si deseamos comparar las fases de los puntos de una misma onda separados por una distancia x, conviene tomar en consideración cuántas longitudes de onda caben en este tramo y multiplicar el número obtenido por 2π. Esta magnitud será, precisamente, el desfasaje. Así pues,

Ahora regresemos a la interferencia de los rayos en la placa. Hemos escrito ya la expresión para la diferencia de marcha, Par consiguiente, lo único que nos queda es dividir esta magnitud por λ. Pero... stop. ¿Quién nos ha dicho que la longitud de onda luminosa en el vacío y en la placa transparente es la misma? Por el contrario, tenemos todos los fundamentos para sospechar que a la onda le ocurre algo cuando ésta pasa de un medio a otro. No olvide que existe el fenómeno de dispersión: los fotones de distintas frecuencias se comportan de una manera diferente. La frecuencia, la longitud de onda y la velocidad de su propagación están relacionadas por la igualdad

¿Cuáles de estas magnitudes varían cuando la onda va a parar a otro medio? Es la experiencia la que contesta a esta pregunta. Es posible medir directamente la velocidad de propagación de la onda en el cuerpo, cerciorándose de que el índice de refracción, que obliga a la onda a cambiar la dirección de su movimiento en el caso de incidir de una manera oblicua sobro la superficie de separación de dos medios,

Gentileza de Manuel Mayo

56

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

es igual a la relación entre las velocidades de propagación de la luz en éstos. Cuando uno de los medios es aire (o, más exactamente, el vacío)

donde c es la designación adoptada de la velocidad de le luz en el vacío, y ν, la velocidad de propagación en un medio. Bueno, ¿qué más tenemos? ¿Cuál de los dos parámetros, la frecuencia o la longitud de onda, varía, al pasar la luz del aire al medio en cuestión? Para poder explicar los resultados de los experimentos relacionados con la interferencia es necesario suponer que la frecuencia del fotón queda invariable, mientras que la longitud de onda cambia. Por esta causa, para el índice de refracción es válida también la fórmula

donde λ0 es la longitud de onda en el aire. Ahora ya disponemos de todos los datos necesarios para anotar la diferencia de fase entre los rayos en el experimento con la lámina que describimos. Por cuanto uno de los rayos pasaba por el aire y el otro por el vidrio, la diferencia de fase será igual a

En resumen, ¿qué se puede medir al estudiar la interferencia de los rayos en la lámina? La fórmula nos da respuesta a esta pregunta. Si se conoce el espesor se puede determinar el índice de refracción del material. Si se conoce el valor de n, entonces se puede hallar con una precisión muy grande (correspondiente a fracciones de longitud de onda luminosa) el espesor y, finalmente, es posible medir las longitudes de onda de distinta «cromaticidad». Si el espesor de la lámina es variable, su material en todas las partes homogéneo y el ángulo de incidencia prácticamente el mismo para el sector examinado de ésta,

Gentileza de Manuel Mayo

57

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

entonces, la interferencia se pondrá de manifiesto en forma de las llamadas bandas de igual espesor. En una lámina irregular aparecerá un sistema de bandas oscuras y claras (o, en el caso de luz blanca, irisadas, ya que los fotones de cada cromicidad se comportarán de su manera) que perfilarán los lugares de igual espesor. Esto explica el porqué de los dibujos coloreados que con tanta frecuencia vemos en las películas de petróleo o aceitosas a flor de agua. Unas bandas muy hermosas de igual espesor se observan fácilmente en las películas jabonosas. Hagan un cuadro de alambre, sumérjanlo en una solución de jabón y sáquenlo. La solución jabonosa se escurre y en la parte superior la película será más delgada que en la inferior. En la película aparecerán franjas coloreadas horizontales. El método de interferencia se aplica ampliamente para medir distancias pequeñas o variaciones pequeñas de distancias. Dicho método permite notar los cambios de espesor menores que centésimas fracciones de longitud de onda luminosa. En las mediciones interferenciales de las irregularidades de la superficie del cristal se logra alcanzar una precisión del orden de 10-7 cm. Este método se utiliza de un modo amplio en la industria óptica. Si, por ejemplo, es necesario comprobar la calidad de la superficie de una placa de vidrio, esto se efectúa examinando las bandas de igual espesor del cuño aéreo creado por la placa ensayada y otra placa con una superficie perfectamente plana. Si estas dos placas se aprietan una contra otra por un extremo, se forma un cuño aéreo. Si las dos superficies son planas, entonces, las líneas de igual espesor serán rectas paralelas. Figurémonos que en la placa que se ensaya existe una depresión o una prominencia. En este caso las líneas de igual espesor se torcerán contorneando el lugar defectuoso. Al cambiar el ángulo de incidencia de la luz las bandas se mueven por uno o por otro lado en dependencia de si el defecto sea una depresión o una prominencia. En la fig. 2.6 se representa el aspecto del campo del microscopio en estos casos. Ambas figuras corresponden a muestras con defectos. La primera muestra tiene el defecto dispuesto a la derecha, al extremo mismo, y la segunda lo tiene a la izquierda.

Gentileza de Manuel Mayo

58

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Mediciones exactas de los índices de refracción de la sustancia pueden llevarse a cabo por medio de refractómetros interferenciales. En estos instrumentos se observa la interferencia entre dos rayos los cuales, en la medida de lo posible, estén alejados uno del otro.

Figura 2.6 Supongamos que el camino de uno de los rayos lo intercepta un cuerpo de longitud l y de índice de refracción n. Si el índice de refracción del medio es n0, la diferencia óptica de la marcha cambiará en

Dos rayos se hacen converger en un punto con la ayuda de una lente enfocadora. Entonces ¿qué cuadro se observará en el anteojo? Un sistema de bandas claras y oscuras. Sin embargo, éstas no son bandas de igual espesor que se ven a simple vista. El sistema de bandas que aparece en el refractómetro tiene otro origen. Es que el haz luminoso inicial no es igualmente paralelo sino un poco divergente. En consecuencia, los rayos que forman el cono incidirán sobre la placa bajo ángulos algo diferentes. Los acontecimientos interferenciales se realizarán de la misma manera para los rayos con igual inclinación. Estos, precisamente, se concentrarán en un lugar del plano focal del anteojo. Si la diferencia de marcha entre las partes desdobladas del

Gentileza de Manuel Mayo

59

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

haz varía, las bandas se pondrán en movimiento. Al variar la diferencia de marcha en la magnitud Δ, a través del ocular del anteojo pasarán Δλ bandas. La exactitud del método es muy grande, ya que se capta sin dificultad un desplazamiento igual a 0,1 de la banda. Para este desplazamiento Δ = 0,1λ. 0,5.10-5 cm, lo cual, en una longitud l = 10 cm, permitirá registrar la variación del índice de refracción en 0,5 x 10-6. Ahora es preciso referirnos al interferómetro de otro tipo que no hace uso del fenómeno de refracción. Se trata del interferómetro construido por el físico norteamericano Alberto Michelson (1852-1931). Es difícil sobreestimar el papel que dicho instrumento desempeñó en la historia de la física (hasta me atreveré a hacer una afirmación más fuerte: en la historia del pensamiento humano). Valiéndose de este interferómetro por primara vez se ha establecido el hecho de extraordinaria importancia: la velocidad de la luz en las direcciones a lo largo y a través de la órbita terrestre es igual. Esto significa que la velocidad de la luz no se suma a la velocidad de movimiento de la lámpara que da un destello luminoso siguiendo las reglas de acuerdo con las cuales la velocidad de la bala se suma a la velocidad de movimiento de un tirador con su escopeta. El descubrimiento de este notorio hecho condujo a la constitución de la teoría de la relatividad y a la revisión cardinal del sentido de los conceptos científicos fundamentales: de la longitud, tiempo, masa y energía. Pero de ello hablaremos más tarde. En cuanto al interferómetro de Michelson, de él vale le pena hablar inmediatamente por cuanto su significado se determina no sólo por el lugar que ocupa en la historia de la física, sino también por el hecho de que hasta al día de hoy los principios sencillos que forman la base de su estructura se utilizan para medir las longitudes y distancias.

Gentileza de Manuel Mayo

60

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 2.7 En este instrumento, el haz paralelo de luz monocromática incide sobre la placa planoparalela P1 (fig. 2.7) cuya parte rayada está cubierta de una capa semitransparente de plata. Dicha placa forma un ángulo de 45° respecto al rayo incidente desde la fuente desdoblándolo en dos, uno de los cuales va paralelamente al rayo incidente (hacia el espejo M1), y el otro, perpendicularmente a éste (hacia el espejo M2). Los rayos separados inciden sobre ambos espejos de una forma perpendicular y regresan a los mismos puntos de la placa semitransparente de los cuales han partido. Cada rayo, al retornar del espejo, vuelve a desdoblarse en la placa. Una parte de la luz regresa a la fuente y otra parte va a parar al anteojo. En la figura se ve que el rayo que parte del espejo que se encuentra enfrente del anteojo pasa tres veces a través de la placa de vidrio con la capa semitransparente. Por esta razón, para asegurar la igualdad de los trayectos ópticos, el rayo que parte del espejo M1 se deja pasar a través de la placa compensadora P2 idéntica a la primera, pero sin la capa semitransparente. En el campo visual del anteojo se observarán anillos circulares correspondientes a la interferencia en la capa aérea (cuyo espesor es igual a la diferencia de las distancias que separan los espejos del lugar de desdoblamiento de los rayos) de los rayos primarios que forman el cono. El desplazamiento de uno de los espejos (por ejemplo, del espejo M2, a la posición señalada por la línea de trazos) a un cuarto de longitud de onda corresponderá a la transición del máximo al mínimo, es decir, provocará el desplazamiento del cuadro en un semianillo. Este fenómeno puede

Gentileza de Manuel Mayo

61

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

registrarse nítidamente por el observador. De este modo, en los rayos ultravioleta la sensibilidad del interferómetro supera 100 mm. La aparición en la escena de los láseres operó una revolución en la técnica de la interferometría. El asunto reside en lo siguiente. El tiempo de radiación de un átomo es igual a 10-8 a 10-9 s. El acto unitario de radiación consiste en la emisión de un tren de ondas. Por cuanto el tiempo de radiación es tan pequeño, resulta que, a pesar de la gran velocidad de la luz, el tren es muy corto. Cuando desintegramos el rayo en fracciones, pueden interferir tan sólo dos partes de un mismo tren de ondas. Este hecho significa que un segmento de la sinusoide debe cubrirse esencialmente con otro segmento. Pero, para conseguirlo, es necesario, por supuesto, que la diferencia de marcha entre las partes desintegradas del rayo sea mucho menor que la longitud del tren. La diferencia máxima de marcha entre los rayos para la cual puede observarse la interferencia lleva el nombre de longitud coherente. Para la luz son fracciones de milímetro. Mas fíjense cuán radicalmente cambia la situación para la radiación de láser. Un láser de acción continua engendra fotones de radiación estimulada que emprenden el viaje en una misma fase. O bien, empleando el lenguaje ondulatorio, los trenes de ondas que parten de diferentes átomos se superponen unos a otros creando una especie de onda única. La longitud coherente, prácticamente, llega a ser ilimitada y, en todo caso, se mide en metros y kilómetros (como siempre, el ideal es inasequible; sin embargo, no voy a detenerme en los distintos factores que influyen en la longitud coherente). Utilizando la luz de láser se pueden construir interferómetros que permiten resolver problemas que antes se consideraban irrealizables. Por ejemplo, con una fuente de luz ordinaria el espejo del interferómetro de Michelson puede desplazar en tan sólo a distancias del orden de milímetro. En cambio, si el rayo de luz es engendrado por el láser, entonces, el trayecto del rayo que incide sobre el espejo M1 puede ser igual a varios centímetros, y el del rayo reflejado del espejo, M2 puede alcanzar decenas de metros.

Gentileza de Manuel Mayo

62

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Los interferómetros para el control de la esfericidad de las lentes pueden fabricarse con una sola superficie de comparación, mientras que, cuando se utiliza la luz corriente, al variar el radio de la lente sometida al ensayo era necesario cambiar también el patrón de comparación (ya que no se podía trabajar con grandes diferencias de marcha), sin hablar ya de que los cuadros interferenciales se hicieron incomparablemente más claros por cuya razón se analizan con facilidad y mayor precisión. La posibilidad de pasar sin la compensación del trayecto óptico de uno de los rayos permite fabricar interferómetros de un tipo completamente nuevo, se ofrece la posibilidad de realizar observaciones sobre el desplazamiento de las presas, la deriva geológica y las oscilaciones de la corteza terrestre. Al reflejar la luz de láser a partir de los objetos que se encuentran a grandes distancias, de modo que ésta se hace interferir con la inicial, se pueden efectuar mediciones exactas de la velocidad de movimiento de dichos objetos. Instrumentos a base de láser Por supuesto, podemos denominar instrumento el dispositivo que crea el rayo de láser, por cuanto aquél se emplea para el análisis, el control y las observaciones. Sin embargo, a diferencia de otros instrumentos ópticos, el láser tiene una importancia incomparablemente mayor para la industria. La utilización de los láseres es tan universal que más de una vez volveremos a hablar sobre ésta. En este párrafo nos detendremos en las aplicaciones del láser para el tratamiento de los materiales. Si no se necesita una potencia grande, se puede emplear el láser compacto a base de neodimio. El corazón de este láser es, como ya hemos señalado, el vidrio con liga de neodimio. La barra de vidrio es de 50 mm de longitud y de 4 mm de diámetro. El destello de luz que produce el bombeo se da por una lámpara de xenón. Con el fin de evitar pérdidas de energía luminosa la lámpara y la barra están encerradas en una cámara cilíndrica refrigerada por agua. Para las variadas aplicaciones de este instrumento o de otros semejantes son importantes las siguientes propiedades suyas: la posibilidad de localizar la energía sobre un área excepcionalmente pequeña; la posibilidad de una dosificación precisa

Gentileza de Manuel Mayo

63

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

de la porción de energía; la posibilidad de suministrar energía sin utilizar cualesquiera conductores o contactos. Es característico el empleo del láser en la industria relojera. Todo el mundo conoce bien que los relojes se fabrican utilizando los «rubíes». Posiblemente, el lector no esté enterado para qué se necesitan en un reloj las pequeños rubíes, pero, sin duda alguna, sabe muy bien que su número determina la calidad del reloj. En las arandelas de rubí es necesario taladrar orificios. Sin la ayuda del láser esta operación requería varios minutos para cada piedra. En la actualidad, el proceso está totalmente automatizado ocupando fracciones de segundo. Si se tiene en cuenta que el número de piedras necesarias para la industria se mide en muchos millones por año, llega a ser perfectamente evidente el valor de esta aplicación del instrumento. Para los mismos fines sirve el láser en la industria de diamantes. Al fabricar piedras diamantinas para el trefilado o la perforación, el láser se emplea como instrumento con cuya ayuda a la piedra se puede dar cualquier perfil, practicando en ésta orificios ¡hasta de varios micrómetros de dimensiones! Pero he interrumpido mi relato sobre la fabricación de relojes. Es que el láser presta a esta rama otro gran servicio: suelda el muelle al mecanismo del reloj. Queda completamente claro que también en todos los demás campos de la industria en los cuales es indispensable la soldadura por puntos (y la técnica moderna experimenta en este procedimiento la extrema necesidad) puede utilizarse con gran éxito el rayo de láser. Un mérito enorme de esto finísimo rayo es el que no se debe preocuparse por la protección y enfriamiento de las partes vecinas al lugar destinado para soldar. Ya se convirtió en trivial el empleo del instrumento de láser como un cuchillo para cortar cualesquiera contornos en cualquier material. Mencionemos un

campo

inesperado

de

aplicación

de

los láseres: para

la

restauración de las esculturas de mármol. Lamentablemente, la atmósfera del siglo veinte está muy lejos de representar aire puro. Diferentes gases nocivos y, en primer lugar, el óxido de azufre, forman en el mármol una corteza negra. Esta corteza es porosa y, a resultas de ello, a semejanza de una esponja, absorbe humedad y dosis complementarias de sustancias nocivas. La eliminación de la corteza recurriendo a medios mecánicos y químicos puede llevar al deterioro de la

Gentileza de Manuel Mayo

64

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

escultura. En cambio, al operar con el láser en el régimen impulsional, se elimina la corteza sin tocar el mármol. Haciendo uso del láser a base de dióxido de carbono se realiza el crecimiento de los cristales sin crisoles. Este proceso no es nuevo. Para semejante cultivo de cristales ya hace mucho se han aplicado corrientes de alta frecuencia, pero esta operación no se extendía a los dieléctricos cuya conductibilidad térmica es demasiado pequeña. Actualmente, con la ayuda de los láseres se hacen crecer, sin crisoles, los cristales de niohatos y de otras sustancias de alta demanda. Es imposible sobrestimar la importancia del crecimiento de los cristales sin crisoles para las necesidades de la microelectrónica, ya que las millonésimas partes de impurezas pueden lugar un papel negativo, mientras tanto, resulta prácticamente imposible impedir que algunos átomos «nocivos» pasen del material del crisol al cristal. No voy a detenerme en la descripción de la estructura del aparato correspondiente. En el libro 2 ya hemos tratado sobre el crecimiento de los cristales. De un modo análogo al caso de corrientes de alta frecuencia, el rayo de láser crea una pequeña zona fundida que transporta lentamente la sustancia al cristal en crecimiento. A mí me parece probable que la utilización del láser haga replegarse, en cierta medida, otros métodos de cultivo de los cristales. Fotometría Cada fuente de luz puede caracterizarse por la energía que aquélla irradia. Sin embargo, en muchas ocasiones nos interesa tan sólo aquella parte del flujo de energía que provoca la sensación visual. Como ya señalado, esta particularidad la poseen las ondas electromagnéticas cuyas longitudes se encuentran dentro de los límites de 380 a 780 nm, aproximadamente. La luz percibida por el cerebro se caracteriza por la luminosidad y el color. Si se comparan las sensaciones visuales producidas por la luz de igual intensidad, pero de diferente longitud de onda, resultará que al ojo se le presenta como más brillante la fuente de luz que engendra una onda de 555 nm de longitud lo que corresponde al color verde.

Gentileza de Manuel Mayo

65

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 2.8 La percepción de la luz puede caracterizarse por la curva de eficacia luminosa (fig. 2.8) que indica (en unidades relativas) la sensibilidad del ojo normal respecto a las ondas de diferente longitud. Sin embargo, los técnicos hacen caso omiso de esta curva dejando al ojo que dictamine sobre la intensidad integral de la luz. Siguiendo este camino, es necesario elegir cierta fuente patrón de la luz para, luego, comparar con ésta, otras fuentes. Durante mucho tiempo la unidad de intensidad luminosa conservó la denominación de bujía, debido a que los primeros intentos de elección del patrón consistían, precisamente, en seleccionar cierta llama estandarizada de una bujía. Huelga decir cuán difícil resulta hacerlo. El patrón internacional adoptado actualmente es el cuerpo negro incandescente. De material sirve el platino. El cuerpo negro emite luz irradiada por el platino calentado basta la temperatura de fusión, es decir, hasta 2046 K, a través de un orificio pequeño. La unidad de intensidad luminosa recibió el nombre de candela (del latín). La definición internacional trata de evitar hacer indicaciones directas a la temperatura de luminiscencia (para no introducir errores relacionados con la medición de la temperatura). Por esta razón la candela se determina de la siguiente forma: si se toma como fuente el platino que se encuentra en estado de solidificación a presión atmosférica normal, entonces, el área de (1/6) x 10-5 m2 da en la dirección perpendicular a la superficie una intensidad luminosa igual a una candela. Gentileza de Manuel Mayo

66

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

A unas distancias lo suficientemente grandes la fuente de luz se representa como punto. Precisamente en estos casos es conveniente medir la intensidad de la luz. Construyamos alrededor de la fuente puntual una esfera y separemos en esta superficie un elemento de área S. Al dividir S por el cuadrado de distancia del centro obtendremos el llamado ángulo sólido. La unidad de ángulo sólido es el estereorradiante. Si en la esfera de 1 metro de radio se corta el área S = 1 m2, el ángulo sólido es igual a 1 estereorradiante. Se denomina flujo luminoso la intensidad luminosa de una fuente puntual multiplicada por el valor del ángulo sólido. Que no os deje confusos el hecho de que el flujo luminoso se reduzca a cero cuando se trata de rayos paralelos. En semejantes casos no se utiliza el concepto de flujo luminoso. Por unidad de flujo luminoso se toma lumen que es igual al flujo emitido por una fuente puntual de intensidad de 1 candela, al ángulo igual a 1 estereorradiante. El flujo luminoso total emitido por el punto hacia todos lados será igual a 4π lm. La intensidad luminosa caracteriza la fuente de luz independientemente de su superficie. Al mismo tiempo, queda completamente claro que la impresión será distinta según sea la extensión de la fuente. Por esta razón se recurre al concepto de luminancia de la fuente. Esta es la intensidad luminosa referida a la unidad de superficie de la fuente de luz. La luminancia se mide en stilbs: 1 stilb es igual a 1 candela dividida por centímetro cuadrado. Una misma fuente de luz traerá igual energía luminosa a la página de un libro abierto en dependencia del lugar en que esta fuente se encuentre. Para el lector es importante cual es la iluminación de la parte de la mesa de escribir en que se halla el libro. Si las dimensiones de la fuente no son grandes (una fuente puntual), la iluminación es igual a la intensidad de la luz dividida por el cuadrado de distancia desde la fuente. ¿Por qué dividida por el cuadrado? La respuesta está clara: el flujo luminoso queda invariable dentro del ángulo sólido prefijado por muy grande que sea la distancia a la que nos alejamos del punto luminoso. En cambio, el área de la esfera y el área de la porción que corta el ángulo sólido prefijado crecerán inversamente proporcional al cuadrado de la distancia. Esta simple regla se denomina ley de cuadrados inversos. Al aumentar de 1 a 10 la distancia que separa

Gentileza de Manuel Mayo

67

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

el libro que leemos de la pequeña lámpara, disminuiremos 100 veces la iluminación de la página. La unidad de iluminación es luz. Esta iluminación la produce el flujo luminoso igual a 1 lm incidiendo sobre el área de 1 m2. La iluminación en una noche sin luna es igual a 0,0003 lx. De este modo, cuando decimos «no se ven los dedos de la mano», definimos la iluminación de esos «dedos», precisamente. En una noche de luna la iluminación es igual a 0,2 lx. Para leer sin esforzar la vista se necesita una iluminación de 30 lx. Durante el rodaje de una película se conectan potentes proyectores llevando la iluminación de los objetos hasta 10.000 lx. Todavía no hemos dicho nada acerca de los instrumentos que sirven para medir los flujos luminosos y las iluminaciones. En la actualidad, semejantes mediciones no constituyen un problema. De hecho, obramos precisamente así, como convendría proceder al dar la nueva definición de la candela. Medimos la energía que incide sobre la célula fotoeléctrica y la escala de dicha célula la graduamos en luz, teniendo en cuenta la curva de eficacia luminosa. Los fotómetros existentes en el siglo pasado trabajaron a base del principio de comparación de las luminancias de dos áreas contiguas iluminadas. Sobre una de éstas incidía la luz cuya intensidad deseábamos medir. Valiéndose de dispositivos no complicados el flujo luminoso se hacía disminuir en un número determinado de veces, de modo que, en fin de cuentas, la iluminación de las aéreas contiguas fuese la misma. Holografía La creación de los láseres significa el devenir de una nueva época en el desarrollo de la ciencia y la técnica. Es difícil hallar una esfera del saber en que la radiación estimulada no descubra nuevas posibilidades. En 1947 D. Gabor propuso utilizar la luz coherente para obtener la imagen del objeto por un método completamente nuevo. La nueva técnica que recibió el nombre de holografía se diferencia de un modo cardinal de la fotografía. La holografía resulta posible tan sólo debido a las particularidades de la radiación estimulada que la distingue de la luz ordinaria. Cabe recalcar otra vez que en la

Gentileza de Manuel Mayo

68

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

radiación de láser casi todos los fotones coinciden en lo que se refiere a todas sus características: la frecuencia, la fase, la polarización y la dirección de propagación. El rayo de láser se ensancha en ínfimo grado, o sea, es posible obtener un rayo extraordinariamente fino a grandes distancias de la fuente y al rayo de láser le es inherente una longitud coherente muy grande (longitud de tren de ondas). Debido a esta última circunstancia que es, precisamente, importante para la holografía; es posible la interferencia de los rayos desdoblados con gran diferencia de marcha. La parte superior de la fig. 2.9 explica la técnica de obtención de un holograma. El objeto observado se ilumina con un rayo de láser ancho y poco intenso (para no perjudicar el objeto). Un mismo rayo se disipa por el objeto y se refleja por el espejo que es la llamada onda de referencia. Las dos se superponen. Tiene lugar la interferencia rayo cuando se fija por la placa fotográfica.

Figura 2.9 Echen una mirada a la fig. 2.10. En la parte superior se representa el objeto y por debajo de éste su «imagen». No, no nos hemos equivocado: esta compleja

Gentileza de Manuel Mayo

69

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

combinación de anillos oscuros y claros llamada holograma, es, efectivamente, una imagen del objeto, mas una imagen latente. El holograma contiene una información completa sobre el objeto, o, más exactamente, los datos completos sobre la onda electromagnética disipada por las piezas de ajedrez. Una fotografía no contiene semejantes datos omnímodos. La mejor de las fotos transmite con exactitud todos los datos sobre la intensidad de los rayos disipados. Sin embargo, la onda disipada por cualquier punto del objeto se caracteriza plenamente no sólo por su intensidad (amplitud), sino también por su fase. El holograma es un cuadro interferencial, y carta neta de sus líneas claras y oscuras nos informa no únicamente sobre la intensidad, sino también sobra la fase de los rayos llegadas del objeto a los puntos correspondientes de la placa fotográfica. El holograma, al igual que cualquier placa fotográfica, se revela, se fija y se conserva tanto tiempo como se quiera.

Figura 2.10 Cuando tengamos ganas de admirar el objeto «holografiados», irradiaremos, como se muestra en la parte inferior de la fig. 2.9, el holograma con la luz del mismo láser, restableciendo la disposición geométrica que tenía lugar durante la toma de la foto, o sea, dirigiremos el rayo de láser de la misma forma como iba el rayo Gentileza de Manuel Mayo

70

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

reflejado del espejo. En esto caso, en el lugar donde se encontraba el objeto aparecerá su imagen que, en condiciones ideales, representará un cuadro idéntico a aquel que había visto el ojo. No podemos tratar sobre la teoría de obtención del holograma. La idea principal consiste en que al iluminar el holograma se engendran ondas de dispersión, con amplitud y fase idénticas a aquellas que crearon este holograma. Dichas ondas se unen en un frente de ondas idéntico a aquel que formó el holograma. Tiene lugar una reconstrucción original de la onda, si el holograma se ilumina en las mismas condiciones en que se iluminaba el objeto. Gracias a esta circunstancia se crea la imagen del objeto. Las investigaciones en el campo de holografía prosiguen. Hoy en día existe la posibilidad de obtener imágenes en color. Es posible mejorar los resultados tomando varios hologramas desde diferentes posiciones. Por fin (y esto es, acaso, lo más importante), resulta que se puede examinar los hologramas sin recurrir al láser. Hay libros que examinan el objeto de holografía detalladamente. La holografía merece que se lo preste atención por la razón de que es un método de gran capacidad para almacenar la información tridimensional sobre el objeto. En este ámbito la última palabra todavía no se ha pronunciado, y el futuro mostrará en qué medida la holografía se implantará en la vida cotidiana y en la técnica.

Gentileza de Manuel Mayo

71

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 3 Radiación electromagnética dura Contenido: 

Descubrimiento de los rayos X



Análisis estructural por difracción de rayos x



Espectro de los rayos X



Radiografía de los materiales

Descubrimiento de los rayos X A los rayos X corresponde la radiación que ocupa le porción del espectro electromagnético desde varias decenas hasta centésimas partes de manómetro. Rayos Inés duros, es decir, de longitud de onda más corta, se denominan rayos gamma. Como

ya

hemos

señalado,

los

nombres

de

las

porciones

del

espectro

electromagnético son bastante convencionales. Al emplear uno u otro término no nos guiamos tanto por el valor de la longitud de onda, como nos atenernos al carácter de la fuente de radiación. En fa mayoría de los casos, el término «rayos» X» se aplica a la radiación que surge al chocar el flujo de electrones contra un obstáculo. Guillermo Conrado Roentgen (1845-1923) descubrió este tipo de radiación el 8 de noviembre de 1895. En aquellos años muchos .físicos del mundo investigaban los flujos de electrones que aparecían en tubos de vidrio bombeados (algunos de estos tubos se representaron en la fig. 2.6 del libro 3). En un recipiente se soldaban dos electrodos. A éstos se suministraba alta tensión. Hace bastante tiempo se sospechaba que desde el cátodo de semejante tubo se propagaban ciertas rayas. Ya en los albores del siglo XIX diferentes investigadores observaban destellos en el interior del tubo y la luminiscencia del vidrio. Los experimentos de Guillermo Hittorf (1824-1914) y de Guillermo Crookes (1832-1919) demostraron con plena claridad que se trataba de unos rayos. En todos los libros de texto se publicó la fotografía del tubo de Crookes con la cruz: el científico inglés creó este tubo en 1879, diez

Gentileza de Manuel Mayo

72

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

años después de Hittorf. La cruz proyectaba sobre el vidrio una sombra bien visible. Este elegante experimento demostraba que desde el cátodo partían ciertos rayos y éstos se propagaban en línea recta. Cuando los rayos incidían sobre el vidrio éste fosforecía, mientras que la fina capa de metal absorbía la radiación. El hecho de que los rayos catódicos no son sino el flujo de electrones lo demostró en 1897 J. J. Thomson. Valiéndose del método cuya exposición se da en el libro 3, logró determinar la relación entre la carga y la masa del electrón. Transcurrieron otros 10 ó 15 años y quedó claro que el electrón resulta ser una partícula pequeñísima de electricidad. Pero

nos

repetimos

y

apartamos

de

la

materia.

Ahora

nos

interesa

el

descubrimiento hecho por Roentgen. Sin embargo, con esta repetición quisiéramos subrayar que el descubrimiento de Roentgen se anticipaba a la comprensión de la naturaleza

de los rayos procedentes del cátodo. Hablando con

propiedad,

precisamente debido a la falta de claridad en este campo, Roentgen trabajó con diferentes tubos que se distinguían por la disposición mutua de los lugares de soldadura de los electrodos y la forma de la envoltura de vidrio. Se conocen bien los más insignificantes pormenores de los acontecimientos de la tarde del 8 de noviembre de 1895. Roentgen echó sobre el tubo un trozo de tela negra, apagó la luz en la habitación y se preparó para ir a casa, olvidando desconectar el interruptor. Al echar una mirada al aparato con que trabajó, el científico prestó atención a que centelleaba la pantalla con cianuro de bario que se encontraba junto al tulio y poseía la rapacidad de luminiscencia, Roentgen regresó y desconectó el interruptor; al centelleo desapareció. Conectó el interruptor otra vez, la pantalla volvió a centellear. El físico sabía que en el tubo de aquella construcción los rayos catódicos no podían pasar a través de la tela que lo cubría, salvando, además, una gran capa de aire. Por consiguiente... por consiguiente, se dejó ver una nueva radiación, desconocida hasta aquel entonces. La primera información sobre su descubrimiento Roentgen la envió a la revista a finales del año. Durante este lapso supo estudiar tan detalladamente las propiedades de los nuevos rayos que, en lo que se refiere a los rayos X, no se descubrió, en esencia, nada nuevo hasta el año 1912 cuando se halló la difracción de los mismos (sobre este temo hablaremos más tarde). El propio Roentgen

Gentileza de Manuel Mayo

73

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

denominó la radiación descubierta por él «rayos X», pero en las publicaciones en ruso se da preferencia al nombre de rayos «Roentgen».

Figura 3.1 La propiedad más admirable de los rayos X, la cual Roentgen investigó y comentó en primer lugar, fue su capacidad de pasar a través de los materiales no transparentes para la luz. (La fig. 3.1 nos recuerda que semejantes dibujos chistosos aparecieron en gran cantidad, pasados nada más que dos o tres meses después de las primeras publicaciones de Roentgen.) La capacidad de penetración de los rayos X presta servicios inapreciables a la medicina. También se ofrece la posibilidad de detectar defectos en los artículos industriales. Los sorprendentes resultados proporcionados por la roentgenografía son la consecuencia del hecho de que las sustancias diferentes por su densidad absorben de distinta forma los rayos X. Cuanto más ligeros son los átomos de la sustancia tanto menos rayos absorben éstos. Bastante pronto fue establecida que la permeabilidad de los cuerpos respecto a los rayos se acrecienta con el aumento de la tensión en el tubo. Las tensiones que se utilizan habitualmente para las radiografías se encuentran dentro de los límites desde varias decenas hasta varios centenares de kilovoltios. Al estudiar las propiedades de los rayos X los investigadores establecieron que la causa de su aparición es el frenado del flujo de los electrones por un obstáculo. Es curioso que durante un largo periodo el tubo de Roentgen se haya fabricado con tres electrodos. Frente al cátodo se soldaba el «anticátodo» contra el cual, Gentileza de Manuel Mayo

74

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

precisamente, chocaban los electrones. El ánodo se disponía a un lado. Al cabo de varios años se comprendió que ésta era una complicación innecesaria, de modo que, actualmente, en el tubo se sueldan dos electrodos. El haz de electrones se frena por el ánodo cuya superficie, de ordinario, se hace sesgada. En este caso, el haz de los rayos X se dirige en el sentido correspondiente. Si la superficie del ánodo encuentra el haz electrónico bajo el ángulo recto, los rayos se propagarán del ánodo por todos los lados lo que conducirá a la pérdida de intensidad. La radiografía por medio de rayos X hizo una verdadera revolución en la industria y, sobre todo, en la medicina. En la actualidad, la técnica radiográfica se ha perfeccionado sumamente. Al cambiar la disposición del objeto estudiado respecto al tubo de rayos X es posible obtener varios cuadros con cuya ayuda no solo se logra establecer la posición del defecto en la proyección, sino también determinar la profundidad en que se encuentra. Según sean los materiales o tejidos que se someten a la investigación es racional aplicar a veces una radiación más dura (o sea, más penetrante) y, a veces otra, más blanda. La tarea primordial es conseguir el contraste que es necesario para ver el defecto que, por su densidad, se distingue aunque en una medida insignificante del material básico. La ley de la absorción de los rayos X, al igual que la ley de le absorción de cualquier radiación es bastante evidente. Lo que nos interesa es cómo cambiará la intensidad del rayo (cabe recordar que la intensidad es la energía referida a la unidad de tiempo y la unidad de área) después de pasar a través de una placa de espesor d. Por cuanto escribo este libro para los lectores que no conocen el cálculo integral, me veo obligado a limitarme con la formulación de esta ley para el paso del rayo a través de placas de pequeño espesor. El espesor es «pequeño» en el caso de que la intensidad disminuye de un modo insignificante, digamos, en un 1%. Para este ejemplo la ley resulta ser simple: la parte de la radiación absorbida es directamente proporcional al espesor de la placa. Si la intensidad ha disminuido desde el valor I0 hasta el valor I, esta sencilla regla se anota de le siguiente forma:

Gentileza de Manuel Mayo

75

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

El coeficiente de proporcionalidad p. se denomina coeficiente de absorción. He aquí una simple pregunta que muchas veces ponía en los exámenes: ¿en qué unidades se mide el coeficiente de absorción? No es difícil pensarlo. Las unidades de medida deben ser iguales en ambos miembros de la igualdad. Es una cosa clara. Pues no se puede decir, en modo alguno, qué es más: 10 kg ó 5 m. Se pueden comparar kilogramos con kilogramos, amperios con amperios, ergios con ergios, etc., etc. Por consiguiente, en cualquier igualdad, en ambos miembros deben hallarse números que se expresan en las mismas unidades. Pero, en el primer miembro de nuestra igualdad está escrita la así llamada magnitud adimensional Al decir que la parte de absorción de la radiación es igual a 1/30 ó 0,08, hemos dicho con ello todo. Las unidades de medida se «redujeron» al dividir la intensidad por la intensidad. Mas siendo así, también en el segundo miembro de la igualdad debe hallarse una magnitud adimensional. Por cuanto los espesores se miden en centímetros (u otras unidades de longitud), el coeficiente de absorción se expresa en centímetros inversos, es decir, en cm-1. Supongamos que el rayo pasa a través de una placa de 10 cm de espesor, perdiendo tan solo 1% de intensidad. El primer miembro de la igualdad resulta ser de 1/100. En consecuencia, en este ejemplo el coeficiente de absorción es igual a 0,001 cm-1. Ahora bien, si los rayos son blandos y pierden 1% de energía al atravesar apenas una hoja de un micrómetro (0,0001 cm) de espesor, entonces, el coeficiente de absorción será igual a 100 cm-1. Los físicos no disponen de una buena teoría para establecer la fórmula del coeficiente de absorción. Sólo indicaré que el coeficiente de absorción es proporcional, aproximadamente, al cubo de longitud de onda de la radiación de Roentgen y al cubo del número atómico de la sustancia a través de la cual pasa el rayo. Por cuanto las longitudes de onda de los rayos X son muy pequeñas, resulta que las frecuencias de oscilación de las ondas electromagnéticas son grandes. Esta circunstancia significa que el cuanto hν de radiación de Roentgen porta una gran energía. Esta energía no sólo es suficiente para las reacciones químicas que provocan el ennegrecimiento de la emulsión de la placa fotográfica y producen el

Gentileza de Manuel Mayo

76

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

centelleo de las pantallas fosforescentes (los rayos luminosos también son capaces de hacerlo), sino que basta, de sobra, para destruir, además, las moléculas. En otras palabras, los rayos X ionizan el aire y otros medios a través de los cuales pasan. Ahora cabe decir varias palabras acerca ole los rayos gamma. Este término se utiliza cuando se trata de una radiación de onda corta que surge durante la desintegración radiactiva. Adelantándonos, diremos que los rayos gamma emanan de las sustancias radiactivas naturales, así como se engendran por los elementos artificiales. Por supuesto, en un reactor nuclear se crea la radiación gamma. Rayos gamma fuertes y muy duros aparecen durante la explosión de la bomba atómica. Debido a que los rayos gamma pueden tener una longitud de onda muy pequeña, el coeficiente de su absorción también puede ser muy pequeño. Así, por ejemplo, los rayos gamma que se emiten durante la desintegración del cobalto radiactivo son capaces de penetrar a través de decenas de centímetros de acero. La radiación electromagnética de onda corta capaz de destruir moléculas, en dosis considerables resulta ser muy peligrosa para el organismo. Esta es la razón de que se necesita protección contra los rayos X y gamma. En la mayoría de los casos con este se utiliza plomo. Las paredes de los gabinetes de radiología se recubren de enlucido especial que contiene átomos de bario. Los rayos gamma, al igual que los rayos X, pueden utilizarse para la radiografía. Habitualmente, se recurre a los rayos gamma de las sustancias radiactivas que no son sino «ceniza» del combustible nuclear. Su ventaja, en comparación con los rayes X, es la mayor capacidad de penetración, y, además, y esto es lo principal, dan la posibilidad de utilizar como fuente de radiación una pequeña ampolla que puede situarse en los lugares inaccesibles para el tubo de rayos X. Análisis estructural por difracción de rayos X En 1912 Roentgen fue catedrático de física en la Universidad de Munich. En su cátedra se discutían de una manera incansable los problemas concernientes a la naturaleza de los rayos X. Cabe señalar que Roentgen, siendo él mismo físico experimentador, tenía en gran estima la teoría. En la cátedra de física de la

Gentileza de Manuel Mayo

77

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Universidad de Munich colaboraban muchos teóricos talentosos los cuales se devanaban los sesos tratando de comprender qué representan los rayos X. Se sobreentiende que se hacían intentos de esclarecer la naturaleza de los rayos X investigando su paso a través de une red de difracción. Recordemos al lector qué es le red de difracción con cuya ayuda se demuestra unívocamente la naturaleza ondulatoria de la luz y, además, se determina con suma precisión la longitud de onda de tal o cual radiación. Uno de los métodos de preparación de esta red consiste en que en una placa de vidrio cubierta con una capa de aluminio se hacen estrías por medio de una cuchilla blanda de marfil, empleando máquinas especiales. Las distancias entre las estrías deben ser estrictamente iguales. Una buena red debe poseer un pequeño periodo (el ancho total de la rendija y del espacio no transparente) y gran cantidad de estrías. Se logra llevar esta cantidad a centenares de miles, con la particularidad de que a 1 mm corresponden más de mil estrías. Mediante una lente se consigue que una fuente puntual luminosa de gran intensidad emita un haz paralelo de luz que incida sobre la red formando un ángulo recto. De cada rendija los rayos parten por todos los lados (en otras palabras, cada rendija se convierte en origen de una onda esférica). Sin embargo, solamente en las direcciones elegidas las ondas provenientes de todas las rendijas serán cofásicas. Para la ayuda mutua es necesario que la diferencia de marcha sea igual al número entero de longitudes de onda. Los rayos intensos partirán formando el ángulo en direcciones que se subordinan a la condición

donde a es un número entero, y n, el periodo de la red. El lector deducirá fácilmente esta fórmula sin la ayuda del autor. El número entero n se denomina orden del espectro. Si sobre la red incide un rayo monocromático, obtendremos en el plano focal del ocular varias líneas separadas por espacios oscuros. Si la luz se compone de ondas de diferente longitud, entonces, la red crea varios espectros: de órdenes primero, segundo, etc. Cada espectro posterior resultará más dilatado que el anterior.

Gentileza de Manuel Mayo

78

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Por cuanto la longitud de onda luminosa es del mismo orden que la distancia entre las rendijas, las redes de difracción descomponen la luz (y, además. no sólo la luz visible. sino también la ultravioleta y, especialmente bien, la infrarroja) en espectros. Valiéndose de estas redes se puede realizar el análisis espectral detallado. Sin embargo, cuando se trataba de los rayos X, las redes de difracción se comportaban como un sistema de puertas abiertas. Los rayos X las atravesaban sin desviarse. Se podía suponer que los rayos X son en flujo de partículas. Pero tampoco se prohibía pensar que la radiación de Roentgen es la misma radiación electromagnética que la luz y que sólo la longitud de onda es mucho más corta. Efectivamente, supongamos que λ es muy' pequeña. En este caso, resulta que de acuerdo con la condición de la difracción de la red óptica lineal a

todos los n rayos que se dirigen formando ángulos de desviación α, prácticamente se confundirán y la difracción no se advertirá. Pero es imposible preparar una red de difracción con rendijas separadas unas de otras por distancia a igual a millonésimas partes de micrómetro. ¿Cómo proceder entonces? El físico Max von Laue (1879-1960), ya en el mismo principio de su actividad científica, estaba seguro de que los rayos X representaban una radiación electromagnética. Un cristalógrafo, conocido suyo, con el que conversaba con frecuencia, tenía la firme convicción de que el cristal representa una red tridimensional de átomos. En una de las numerosas pláticas sobre los temas científicos, Laue decidió poner en correspondencia su idea acerca de la naturaleza de los rayos X con la concepción del cristal como red. «¿Y si resulta que las distancias entre los átomos en el cristal y la longitud de onda de los rayos X son magnitudes de un mismo orden?» —pensó Laue. ¿Puede la red tridimensional sustituir la red lineal de rendijas? La respuesta a esta pregunta no fue evidente: sin embargo, Laue decidió hacer una prueba. El primer experimento fue simple al extremo. Se diafragmó un par de rayos X. En el camino de los rayos se colocó un cristal grande y junto con el cristal se situó una placa

Gentileza de Manuel Mayo

79

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

fotográfica. Verdad es que no estaba del todo claro dónde poner la placa, por cuanto el cristal no es, ni mucho menos, una red lineal. El lugar para la placa fue elegido inadecuadamente, y durante cierto tiempo el experimento fallaba. Es curioso que la placa fuese llevada a la posición conveniente por casualidad, debido a una equivocación. Por supuesto, esta casualidad no jugó un papel esencial en el descubrimiento. Es que Laue, paralelamente a los intentos de descubrir el fenómeno en el experimento, se dedicó a elaborar la teoría de este fenómeno. Pronto, logró extender la teoría de la red lineal de difracción al caso tridimensional. De la teoría derivaba que los rayos de difracción aparecerían solamente para algunas orientaciones determinadas del cristal respecto al rayo incidente. De la teoría se infería también que los más intensos debían ser los rayos desviados bajo un ángulo pequeño. De aquí se deducía que la placa fotográfica debía colocarse detrás del cristal, perpendicularmente al rayo incidente. Entre los primeros que prestaron atención al fenómeno descubierto se encontraron los ingleses: padre e hijo Bragg. El padre se llamaba William Henry y el nombre del hijo era William Lawrence. Ellos, inmediatamente, repitieron el experimento de Laue, dando a su teoría una interpretación muy sencilla y patente, y demostraron en un gran número de simples ejemplos que el descubrimiento de este científico puede utilizarse como método de estudio de la estructura atómica de la sustancia. Damos a conocer al lector las ideas principales referentes al análisis estructural por difracción de rayos X que emplea también la denominación radiocristalográfico y le expliquemos las nociones del método de determinación de la estructura del cristal, guiándose por el cual pueden medirse las distancias entre los átomos con mucha precisión hasta de una centésima de ångström, así como puede representarse el cuadro de disposición espacial de los átomos en la molécula y esclarecerse el carácter del empaquetamiento de las moléculas en el cristal. Supongamos que el cristal se encuentra en un soporte especial y gira alrededor de cierto eje. El rayo X incide formando un ángulo recto con el eje de giro. ¿Qué ocurre en este caso? Examinemos los fenómenos difraccionales que se operan al incidir el rayo X sobre el cristal de tal modo como si el centro de dispersión fuese el nudo de la red.

Gentileza de Manuel Mayo

80

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Los Bragg, padre e hijo, demostraron que la dispersión de los rayos X. por los nudos de la red es equivalente a una reflexión selectiva (es decir, que tiene lugar solamente para ciertos valores discretos del ángulo) peculiar de los rayos desde los sistemas de planos nodales en que puede dividirse la red. Sea que el rayo que es una onda electromagnética de determinada longitud incide sobre el cristal, formando cierto ángulo con éste. Para distintos sistemas de planos este ángulo será diferente. Tenemos pleno derecho de suponer que cualquier plano atómico reflejara la onda de rayos X de acuerdo con le ley: el ángulo de incidencia es igual al ángulo de reflexión. Sin embargo, existe una diferencia esencial respecto al rayo óptico. El rayo X, a diferencia de la luz, penetra profundamente en el seno del cristal. Esto significa que la reflexión del rayo tendrá lugar no sólo desde la superficie exterior, sino también de todos los planos atómicos. Examinemos una de tales sistemas de planos que se caracterizan por la distancia interplanar d. Cada uno de éstos «reflejará» el rayo incidente bajo el mismo ángulo Θ. Estos rayos reflejados, deben interferir entre sí, y un intenso rayo secundario podrá engendrarse sólo en el caso de que las rayos reflejados de todos los planos de la familia se propaguen en una fase. En otras palabras, la diferencia de marcha entre los rayos debe ser igual al número entero de longitudes de onda.

Figura 3.2 En la fig. 3.2 se ha hecho una construcción geométrica de la cual se infiere que la diferencia de marcha entre los rayos reflejados vecinos es igual

Gentileza de Manuel Mayo

81

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Por consiguiente, la condición de difracción tendrá la siguiente forma:

Simultáneamente con los Bragg llegó a esta fórmula el cristalográfico ruso G. V. Wulff por cuya razón la misma lleva el nombre de ecuación de Bragg—Wulff (sería más lógico llamarlas ecuación de los Bragg y Wulff, pero está adoptada la primera denominación). El cristal puede dividirse en sistemas de planos por un número de procedimientos tan grande como su quiera. Sin embargo, resultará eficaz para la reflexión tan sólo el sistema con tal distancia interplanar y tal orientación respecto al rayo incidente para las cuales se cumpla la ecuación de Bragg-Wulff. Es evidente que, si el rayo es monocromático (es decir, la onda electromagnética tiene una longitud determinada), para una posición arbitraria del cristal respecto al rayo, la reflexión puede no tener lugar. Pero, al hacer girar el cristal, podemos, por turno, poner en posición de reflexión diferentes sistemas de planos. .Precisamente este método de trabajo resultó ser el más adecuado para los fines prácticos. En lo que se refiere al experimento de Laue, su éxito estaba predeterminado por el hecho de que sobre el cristal incidía el «espectro blanco» de los rayos X., es decir, un flujo de ondas cuyas longitudes estaban distribuidas de una forma continua en cierto intervalo (véase a continuación). Esta es la causa de que, aunque en el experimento de Laue, el cristal era inmóvil, los diferentes sistemas de planos resultaron en la posición de «reflexión» para las ondas de distinta longitud. Hoy en día, el análisis estructural por difracción de rayos X está automatizado por completo. Un pequeño cristal (de 0,9 a 1 mm) se fija en un cabezal especial que puede hacer girar dicho cristal siguiendo el programa dado, colocando en la posición de reflexión uno tras otro todos los sistemas de planos. Cada plano reflector (así se dice para abreviar, con el fin de evitar la constante repetición de la palabra «sistema») viene caracterizado, en primer término, por su distancia interplanar, en segundo término, por los ángulos que forma con los ejes de la celdilla unidad del

Gentileza de Manuel Mayo

82

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

cristal (ante todo se miden las longitudes de las aristas y los ángulos entre las aristas de la celdilla y estas mediciones también se realiza automáticamente) y, en tercer término, por la intensidad del rayo reflejado. Cuantos atrás átomos contiene la molécula tanto mayores son, naturalmente, las dimensiones de la celdilla unidad. Junto con esta complejidad crece también el volumen de la información. Es que el número de los planos reflectores será tanto mayor cuanto mayor sea la celdilla. El número de las reflexiones medidas puede oscilar desde varias decenas hasta varios miles. Hemos prometido dar a conocer al lector las ideas principales del análisis estructural por difracción de rayos X. Primero, por decirlo así, volvamos del revés el problema. Supongamos que la estructura del cristal se conoce en todos sus detalles. Esto quiere decir que sabemos el dibujo de los átomos, o sea, disponemos de datos sobre las coordenadas de todos los átomos que forman la celdilla unidad (renueven, por favor, en su memoria los datos sobre la estructura del cristal que hemos dado en el libro 2). .Examinemos cualquier sistema de planos reflectores. Queda bastante evidente lo siguiente. Si la mayoría de los átomos del cristal corresponde a los planos que pasen a través de los nudos de la red, todos los rayos se dispersarán los rayos X en una fase. Se engendrará un rayo reflector intenso. Ahora figúrense otro caso. Una mitad de los átomos cae sobre los planos nodales y otra mitad se encuentra precisamente en el medio entre las planos reflectores. Entonces, una mitad de los átomos dispersa el rayo incidente en una fase, y la otra mitad lo hace en fase opuesta. ¡Y no habrá reflexión! Estos son dos casos extremos. En los demás casos obtendremos rayos de diversa intensidad. El instrumento de medida, este se denomina difractómetro automático, es capaz de medir las intensidades de reflexión que se diferencian diez mil veces. La intensidad del rayo está relacionada unívocamente con la disposición de los átomos entre los planos nodales. La fórmula que pone de manifiesto esta relación es demasiado compleja para que la citemos. Además, esto no hace falta. Lo expuesto con anterioridad respecto a los dos casos extremos es suficiente para que el lector dé crédito a la existencia de la fórmula en la cual la intensidad viene representada en función de coordenadas de la totalidad de los átomos. Esta fórmula también

Gentileza de Manuel Mayo

83

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

toma en consideración la clase de los átomos, pues cuantos más electrones posee el átomo, con tanta mayor fuerza dispersa este los rayos X. Por supuesto, en la fórmula que relaciona la estructura y la intensidad del rayo reflejado entran también los datos acerca del plano reflector, así como acerca de las dimensiones de la celdilla unidad. Podemos escribir tantas ecuaciones de esto tipo cuantas reflexiones se han medido. Si la estructura se conoce, entonces, las intensidades de todos los rayos pueden calcularse y compararse con el experimento. ¡Pero éste no es el problema que tenemos que resolver! Tenemos que enfrentarnos con el problema inverso: por los datos sobre las intensidades de varias decenas o centenas, o bien de miles de reflexiones hallar las coordenadas de todos los átomos en la celdilla. A primera vista, puede parecer que, teniendo en cuenta las posibilidades que ofrecen actualmente los ordenadores no existe dificultad especial alguna en la resolución de este problema inverso. ¿Muchas ecuaciones? ¡Qué va! ¡La computadora sabrá hallar la resolución! No obstante, el asunto dista mucho de ser tan simple. Los datos experimentales son las intensidades de los rayos. La intensidad es proporcional al cuadrado de amplitud. La formula de la relación de que hemos hablado es, en esencia, la fórmula de interferencia. Las ondas dispersadas por los átomos del cristal interfieren entre sí. Tiene lugar la adición de las amplitudes de las ondas dispersadas por todos los átomos. Se calcula la amplitud total, y la intensidad se halla elevando la amplitud al cuadrado. No cuesta trabajo alguno resolver semejante problema. Más, ¿cómo resolver el inverso? ¿Extraer la raíz cuadrada de la intensidad con el fin de obtener la amplitud? Si, es cierto. ¡Pero es que la raíz cuadrada lleva dos signos! Espero que el lector comience a comprender lo complejo del problema. Ecuaciones de las cuales podernos hallar las coordenadas de los átomos las tenemos más que de sobra, .Pero, en el segundo miembro de la ecuación se encuentran números que conocemos con la exactitud de hasta el signo. Al parecer, el asunto no tenía remedio. En efecto, al principio, los investigadores ni siquiera trataban de resolver el problema inverso. Procedían recurriendo al método de «pruebas y errores». Basándose en los datos sobre estructuras similares, adoptaban que la estructura desconocida debía tener precisamente tal aspecto.

Gentileza de Manuel Mayo

84

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Calculaban las intensidades de urna decena de rayos y comparaban el resultado con los datos del experimento. ¿Qué no hay nada parecido? No importa, adoptemos otro modelo de la estructura. Para los casos simples, dicho modo de abordar el problema, aunque con dificultad, proporcionaba, a pesar de todo, resultados correctos. Sin embargo cuando los «estructuralistas» investigadores)

(así

habían

llamaban

en

consumado,

el

argot

científico

prácticamente,

el

a

este

estudio

de

grupo

de

todos

las

estructuras simples, tuvieron que recapacitar con enjundia la posibilidad de resolver el problema inverso. A mediarlos de los años treinta se les ocurrió que podían «resolverse» (otra vez recurro al argot) incluso las estructuras complejas si se limitaban a estudiar aquellas moléculas que contenían gran número de átomos ligeros y un átomo pesado. El átomo pesado encierra muchos electrones y dispersa los rayos X con mucha mayor fuerza que los ligeros. Por lo tanto, en la primera y burda aproximación se puede considerar que el cristal consta tan sólo de átomos pesados. Si en la celdilla no hay más que un átomo, no costará trabajo determinar las coordenadas por el método de «pruebas y errores». Entonces hallaremos las coordenadas de este átomo y suponiendo que solamente éste manda en el cristal, haremos la conjetura que los signos de las amplitudes determinados para la estructura ficticia constituida tan solo por átomos pesados son los mismos que para la estructura real. Un descubrimiento importantísimo que cuenta ya con más de cuatro lustros de vida resultó ser el teorema sobre la existencia de una relación entre las amplitud es de reflexión de diferentes familias de planos. Así por ejemplo, están relacionados entre sí los signos de las amplitudes de tres reflexiones desfasadas respecto al nudo de la celdilla en magnitudes de reflexión de diferentes familias de planos. Así, por ejemplo, están relacionados entre sí los signos de las amplitudes de tres reflexiones desfasadas respecto al nodo de la celdilla en magnitudes α, β y α+ β. Resulta que en el caso de que el producto

Gentileza de Manuel Mayo

85

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

supera 1/8 por su valor absoluto, este, indispensablemente, lleva el signo positivo. El lector puede comprobarlo. El desarrollo de esta idea condujo a los llamados métodos directos del análisis estructural. Incluso en los casos bastante complicados el instrumento experimental puede agruparse con un ordenador y la máquina «sacará a la superficie» la estructura del cristal. Cuando los signos de las amplitudes de reflexión se hayan establecido, la determinación de las coordenadas de los átomos se convierte, como ya se ha señalado, en problema de resolución de gran cantidad de ecuaciones con muchas incógnitas. En este caso tiene gran importancia que el número de ecuaciones supere, por lo menos, 10 veces o, mejor aún, cien veces el de coordenadas de átomos que se deben determinar. No voy a exponer la técnica de solución de este sistema de ecuaciones. Se recurre al rodeo, y este y este camino se reduce a la construcción de las llamadas series de Fourier de densidad electrónica. Lamentablemente, la teoría de las series de Fourier y, además, con arreglo al problema de determinación de la estructura, puede exponerse tan sólo a un lector con preparación especial. Sin embargo, me parece que ni siquiera es necesario hacerlo. A medida de mis fuerzas he cumplido mi tarea, o sea, explicado la esencia del método. ¿En qué forma entrega el físico, especialista en el campo del análisis estructural por difracción de rayos X—los datos acerca de la estructura de la sustancia que necesita el químico? Permite formar idea sobre ello la fig. 3.3 en que se representa una estructura muy simple de la sustancia denominada barbiturato de amonio. Actualmente, la determinación de una estructura que por su complejidad no supera la mostrada es una tarea «para niños». Semejante estructura el autómata la interpretará sin participación cualquiera del investigador. El ordenador puede también entregar el resultado en forma de números (valores de las coordenadas de los átomos), así como en forma de cuadros .parecidos al insertado. Los átomos de distintas clases químicas se designan con circuitos de diversos tamaños. Pero, si el investigador lo quiere, el ordenador proporcionara el cuadro de la densidad electrónica. Cada átomo se representa del mismo modo como los geógrafos contornean con líneas de iguales alturas los picos de las montañas. La diferencia

Gentileza de Manuel Mayo

86

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

consiste en que en nuestro caso las líneas cerradas no representan las alturas, sino curvas que indican la densidad de los electrones en el lugar dado, y la cumbre del «pico montañoso» es el centro del átomo.

Figura 3.3 La figura mostrada representa una minúscula parte de la aportación que el método descrito por nosotros hizo en la ciencia. El éxito de este método es muy grande. Para la fecha se han determinado las estructuras de más de 15,000 cristales, incluyendo varias decenas de estructuras de proteínas cuya molécula consta en de muchos millares de átomos. La determinación de la estructura de moléculas complejas proporciona los fundamentos de la química biológica y de la física biológica. Dichas ciencias, actualmente, viven un período tempestuoso de su desarrollo. De estas se espera el descubrimiento de los secretos de la vida, de las enfermedades y de la muerte.

Gentileza de Manuel Mayo

87

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

El análisis estructural por difracción de rayos X, a pesar de su imponente edad septuagenaria, sigue manteniéndose en la posición avanzada del frente de la ciencia. Espectro de los rayos X En el párrafo anterior hemos mencionado, de paso, que es posible encontrarse con el espectro «blanco» y con el rayo monocromático. ¿De qué modo puede esclarecerse el carácter del espectro de la radiación electromagnética dura? ¿En qué ocasiones esta es blanca y en qué monocromáticas? Si se diafragman los rayos X o los rayos gamma que parten de cualquier fuente (es decir, si se ponen en el camino de la radiación dos obturadores con pequeños orificios), obligando a incidir el haz sobre un cristal, entonces, en el caso más general, se engendrarán varios rayos reflejados de los planos que se encuentran en la posición que satisfacen la ecuación de Bragg-Wulff. Si el cristal se dispone de tal manera que alguno de sus planos (que da una fuerte reflexión) coincida con el eje de giro del instrumento especial (espectrógrafo de rayos X.), haciendo girar, luego, el cristal de tal manera que este plano se sitúe bajo el rayo incidente formando, consecutivamente, todos los ángulos Θ, entonces, para cada posición del cristal. se reflejará la componente del espectro de longitud determinada de onda. Esta onda reflejada la podemos «captar» ya sea con la ayuda del copiador de ionización, o bien, «cazando» el rayo en la película fotográfica. Esto método permite, en primer lugar, crear un rayo monocromático de cualquier longitud de onda que se contiene en el espectro de radiación y, en segundo lugar, investigar el espectro de cualquier radiación. En la fig. 3.4 se representa el espectro típico del tubo de rayos X con el ánodo de molibdeno (la atención es de 35 KV). De un modo inmediato, se puede llegar a la conclusión de que existen ciertas dos causas que llevan a la creación del espectro de rayos X. En efecto, vemos que el espectro observado no es sino una superposición de los picos agudos sobre la curva continua. Está claro que el origen de estos picos se diferencia del de la curva continua. Inmediatamente después de que había sido descubierto el fenómeno de difracción de los rayos X comenzaron las investigaciones de los espectros de estos rayos. Fue

Gentileza de Manuel Mayo

88

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

establecido lo siguiente. El espectro continuo no es característico para el material del ánodo y depende de la tensión. Su particularidad consiste en que se interrumpe de manera brusca para cierta longitud mínima de onda. En el sentido de ondas largas, al pasar por el máximo, la curva desciende suavemente y no se ve el «fin» del espectro.

Figura 3.4 Aumentando la tensión en el tubo de rayos X, los investigadores demostraron que la intensidad del espectro continuo incrementa y la frontera se desplaza en el sentido de ondas cortas. Al mismo tiempo quedó establecida la siguiente igualdad muy sencilla para la longitud limite de onda

Gentileza de Manuel Mayo

89

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

En el lenguaje cuántico la regla obtenida se formula sin dificultad. La magnitud eU es la energía que acumula el electrón en su recorrido desde el cátodo hacia el ánodo. Es natural que el electrón no sea capaz de entregar más energía que esta magnitud. Si éste entregara toda su energía para la creación del cuanto de rayos X (eU

-

hν),

Entonces

después

de

sustituir

los

valores

de

las

constantes,

obtendremos, precisamente, la igualdad anotaba anteriormente (λ en ångström, y U en kilovoltios). Puesto que surge un espectro continuo, de este hecho se desprende que los electrones, no obligatoriamente, entregan toda su energía para crear rayos X. La experiencia demuestra que la mayor parte de energía del haz electrónico se transforma en calor. El rendimiento del tulio de rayos X es muy bajo. El ánodo se calienta de una manera fuerte, de modo que es necesario enfriarlo con un flujo de agua que se suministra al interior del mismo. ¿Existe una teoría que explica la aparición del espectro continuo de los rayos X? Si, existe. Los cálculos que, lamentablemente, no podernos exponer, demuestran que de las leyes generales del campo electromagnético (de las ecuaciones de Maxwell) sobre las cuales hemos hablado en el libro 3, se deduce de una forma estricta el siguiente hecho; si los electrones se frenan, esto conduce al surgimiento de un espectro continuo de rayos X. La colisión con un cuerpo sólido es una circunstancia no

esencial.

Los

electrones

pueden frenarse

por

medio

de

un

anticampo

obteniéndose la radiación de rayos X continua, sin que en este juego participe el ánodo material. Existe también otra posibilidad de encontrarse con el espectro continuo de rayos X. Recordamos que el espectro electromagnético continuo se emite por cuerpos incandescentes. En las condiciones terrestres no se nos ofrece la oportunidad de ver el espectro de semejante origen, ya que para la más alta temperatura del cuerpo incandescente (varios mil kelvin, y no hay cuerpo sólido alguno que pueda soportar temperaturas mayores) la longitud de onda de la radiación térmica será próxima a medio micrómetro. Pero no se debe olvidar la existencia del plasma. En al plasma artificial creado en las condiciones terrestres, como asimismo en las estrellas, pueden obtenerse temperaturas iguales a millones de kelvin. En este caso el espectro térmico de la radiación electromagnética abarcara también a los rayos X.

Gentileza de Manuel Mayo

90

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Los rayos X llegados del espacio cósmico ayudan a resolver los sugestivos problemas de la astrofísica. Pasemos ahora a la conversación sobre los picos agudos superpuestos a la curva del espectro continuo. En lo referente a estos rayos se ha demostrado precisamente los regla inversa, inversa respecto a la ley del espectro continuo. Los puntos en que se encuentran los picos, o sea, sus longitudes de onda, se determinan unívocamente por el material del ánodo. Por esta razón dicha radiación lleva el nombre de característica. Su origen se explica, de modo no preconcebido, mediante el modelo cuántico del átomo. Los rayos electrónicos del tubo de rayos X son capaces de penetrar en el interior del átomo de la sustancia del ánodo y arrancar a éste, electrones que se encuentran en los niveles de energía más bajos. Apenas se libera un nivel bajo de éste pasa alguno de los electrones más alejado del centro del átomo. Tiene lugar la radiación de energía en correspondencia con la ley cuántica principal

Para diferentes átomos la disposición de los niveles de energía es distinta. De aquí resulta natural que los espectros que aparecen sean característicos. Por cuanto las líneas del espectro característico son las más intensas, éstas, precisamente, se utilizan para el análisis estructural por difracción de rayos X. Lo mejor

es

«tamizar»

el

espectro

continuo,

es

decir,

reflejarlo

del

cristal

monocromador antes de haber obligado a incidir el rayo sobre el cristal que se estudia. Como quiera que los espectros de diferentes elementos son característicos, resulta que la descomposición del rayo en espectro puede aprovecharse para los fines del análisis químico. Dicho análisis se denomina radioespectral. Se da toda una serie de esferas, por ejemplo, el estudio de los elementos de las tierras raras, en que el análisis estructural por difracción de rayos X es, literalmente, insustituible. Las intensidades de las líneas características espectrales de

rayos X permiten

determinar, con gran precisión, el contenido porcentual de tal o cual elemento en la mezcla.

Gentileza de Manuel Mayo

91

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Nos resta decir varias palabras sobre los espectros de los rayos gamma. En las condiciones terrestres nos encontramos con los rayos gamma que se engendran durante la desintegración radiactiva de la que hablaremos más tarde. La desintegración radioactiva a veces puede acompañarse, y a veces no, de radiación gamma. Pero, cualquiera que sea el tipo de la desintegración radiactiva, el espectro de la radiación gamma será el característico. Si bien los rayos X característicos surgen cuando el átomo desciende desde el nivel de biología superior al inferior, los rayos gamma se engendran como resultado de la transición análoga del núcleo atómico. Los espectros gamma de las transformaciones radiactivas son bien estudiados. Existen tablas en las cuales se pueden encontrar datos exactos sobre la longitud de onda de los rayos gamma que se engendran durante la transmutación es α o β de tal o cual isótopo radioactivo Radiografía de los materiales Me veo obligado a repetir reiteradas veces que en lo que se refiere a la terminología los asuntos de la ciencia no van del todo bien. La ciencia avanza a paso tan acelerado que el contenido atribuido a una u otra palabra cambia ante los ojos de una sola generación. Al mismo tiempo, la modificación de la terminología está relacionada con la destrucción de lo acostumbrado. Es posible eliminar de las curaciones los libros viejos. De este modo, lo único que se puede hacer es estipular estrictamente el sentido que se le da al término. Hoy en día, cuando se trata del análisis estructural por difracción de rayos X se tiene en cuenta la investigación de la estructura atómica de los cristales. El objeto del estudio es el monocristal de la sustancia. Sin embargo, el provecho que se saca del estudio de la estructura con ayuda de los rayos X está lejos de agotarse por la solución de este problema. Los cuadros característicos y ricos en información se obtienen también en el caso de que se tomen «roentgenogramas» o «radiografía». Si interpondremos en el camino del rayo X monocromático un trocito de hoja metálica, entonces, en la placa fotográfica plana aparecerá un sistema de

Gentileza de Manuel Mayo

92

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

circunferencias concéntricas. Un roentgenograma de este tipo se denomina diagrama de Debye. ¿Cuál es su procedencia? La mayoría de los cuerpos sólidos consta de pequeños cristales orientados desordenadamente uno respecto a otros. Cuando comienza solidificarse la masa fundida de cierta sustancia, la cristalización se inicia simultáneamente partir de un gran número de puntos. Cada pequeño cristal crece «como le da la gana», y este crecimiento se prolonga hasta el momento en que los cristales no se encuentren. En cada uno de los pequeños cristales están presentes los mismos sistemas de planos atómicos. El que por su estructura los cristales son idénticos. Centraremos nuestra atención en uno cualquiera de los sistemas de planos con la distancia inter planas d. La cantidad de los diminutos cristales es ingente (habitualmente, las dimensiones lineales del cristal de un cuerpo sólido, según el orden de magnitud, son iguales a una diezmillonésima de centímetro) y, por supuesto, entre éstas habrá unos cuyos planos forman con el rayo incidente el ángulo Θ que satisface la condición de Bragg-Wulff. Cada uno de estos pequeños cristales dará una mancha en la placa fotográfica. La imagen la proporcionarán todos los cristales cuyas normales a los planos forman un cono (fig. 3.5).

Figura 3.5

Gentileza de Manuel Mayo

93

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Siendo así, también los rayos reflejados caerán sobre el cono. La intersección de este cono con la placa fotográfica dará una circunferencia. Al medir los radios de esa circunferencias, al tiempo que conocemos la distancia desde el objeto hasta la placa fotográfica, hallaremos inmediatamente el ángulo de Bragg Θ y podremos calcular por este roentgenograma todas las distancias interplanares de la sustancia. Valiéndonos de semejante cuadro de difracción distinguiremos, de una vez, una sustancia amorfa de una cristalina. La sustancia amorfa no tiene planos reflectores. Por eso, no veremos en el roentgenograma el sistema de anillos de difracción nítidos. Ahora bien, en la disposición de las moléculas de una sustancia siempre se tiene cierto orden, por la mera razón de que los átomos no pueden «encaramarse» unos a otros. Esta circunstancia, como se puede demostrar mediante cálculos conduce a que el roentgenograma de una sustancia amorfa aparece uno o, raras veces, dos anillos borrosos. Sin embargo, los anillos que observamos en los roentgenogramas nos dan, además, una serie de datos valiosos acerca de la estructura de los materiales: metales, polímeros y compuestos naturales. Si la sustancia está constituida por cristalizarse grandes, en este caso el anillo de difracción no será continuo, si no se compondrá de pequeñas manchas aisladas. Si la disposición de los cristalizó no es caótica, sino que éstos están orientados a lo largo de cierto dirige un plano, como suele suceder en los alambres o chapas metálicas, en hilos polímeros y fibras vegetales, los anillos de difracción nos informarán inmediatamente al respecto. No es difícil comprender que, en el caso de existir orientaciones preferente de los cristalizó, las reflexiones de los planos atómicos no llenarán el cono de los rayos de una forma continua. En lugar de anillos veremos en el roentgenograma arcos. En el caso de que la orientación es en alto grado perfecta, estos arcos pueden degenerar en manchas pequeñas. Se sobreentiende que una descripción detallada del carácter de la estructura, basándose en el texto del roentgenograma, no es, ni mucho menos, un problema tan simple como puede parecer. También en este caso desempeñe un papel esencial el método de «pruebas y errores». El investigador inventa modelo de estructura de la sustancia, los cuadros de las reflexiones de los rayos X que

Gentileza de Manuel Mayo

94

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

deberían dar los modelos liderados por él y, confrontando el cálculo con el experimento, elige el cuadro correcto de la estructura de la sustancia. En la radiografía de los materiales, de una forma hasta cierto punto convencional, se diferencia la dispersión bajo ángulos grandes y la bajo ángulos pequeño de la fórmula de Bragg-Wulff que hemos insertado con anterioridad se ve claramente que la dispersión bajo ángulos grandes tiene lugar en el caso de que en la estructura se observa una periodicidad a través de distancias pequeñas, digamos de tres a 10 Å. En cambio, si los rayos X reflejados (o, también se puede decir, dispersados) presentan un cuadro de difracción que se acumula cerca del rayo primario, entonces, esto significa que la estructura posee unas periodicidad o través de distancias grandes. En metalografía, la más de las veces tenemos que tratar con anillos de difracción dispuestos bajo ángulos grandes por cuanto aquellos constan de cristalitos. Los átomos de los metales forman redes regulares con celdillas cuyas dimensiones tienen el orden de unidades de ångström En los casos en que como objeto de investigación figuran sustancia constituidas por macromoléculas, y a éstas pertenece una multitud de sustancias naturales, tales como, por ejemplo: la celulosa o el ADN (ácido desoxirribonucleico), como así mismo sustancias polímeras sintéticas cuyos nombres comerciales: polietileno, nylon, kaprón, etc., conoce perfectamente cualquier lector que ni noción tiene acerca de la química, en estos casos tenemos que ver con una circunstancia sumamente interesante. A veces, obtendremos roentgenogramas que nos muestran anillos solamente de gran diámetro, en otras palabras, nos encontraremos con la misma dispersión bajo ángulos grandes que en los metales. En otras ocasiones, no descubriremos anillos de gran diámetro, sin embargo, advertiremos la existencia de rayos de difracción que se desviaron tan sólo de modo insignificante de la dirección primaria, Y, por fin, también son posibles casos en que la sustancia manifiesta la dispersión de rayos X tanto bajo ángulos grandes, como bajo pequeños. Se denomina habitualmente dispersión bajo ángulos pequeños (otra vez repito que la clasificación de dispersión bajo ángulos pequeños y en la bajo ángulos grandes es hasta cierto punto convencional) aquella que abarca el diapasón desde varios minutos hasta 3 ó 4°. Naturalmente, cuanto menos es el ángulo de difracción, tanto

Gentileza de Manuel Mayo

95

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

mayor es el período de repetición de los elementos estructurales que crearon esta difracción. La dispersión bajo ángulos grandes está condicionada por el orden en la disposición de los átomos en el interior de los cristalitos. Y en lo que concierne a la dispersión bajo ángulos pequeños, ésta está relacionada con la disposición ordenada de formaciones bastante grandes que se denominan sobremoleculares. También puede ocurrir que dentro de estas formaciones compuestas de centenares o miles de átomos no existe orden alguno. Pero, si estos sistemas tan grandes forman redes unidimensionales, bidimensionales o bien tridimensionales. Entonces, la dispersión de rayos X bajo ángulos pequeños lo pondrá al descubierto. Con el fin de que el lector pueda formar una idea patente al respecto yo le prepongo figurar una estructura ordenada de sacos con papas. Reviste un interés excepcional ,y, probablemente, tiene un profundo sentido la circunstancia de que nos encontramos con semejante orden «de saco» en muchísimos sistemas biológicos. Por ejemplo, las largas moléculas que forman el tejido muscular están dispuestas de una manera tan ordenada como lapiceros de sección circular en un paquete. Como lo demuestra la dispersión de rayos X bajo ángulos pequeños, topamos con la ordenación extraordinariamente alta de este tipo en las membranas de las células, en tales sistemas proteínicos como los virus, etc. En la teoría de la difracción existe un interesante teorema que no voy a demostrar, pero que, pero según opino, parecerá natural al lector. Se puede demostrar de una forma rigurosa que el aspecto del cuadro de difracción queda el mismo, si en el objeto que produce la difracción se intercambian de lugar los orificios y los intervalos no transparentes. De vez en cuando, este teorema causa ronchas molestas al investigador. Semejante cosa sucede cuando éste, con igual éxito, puede explicar la dispersión de rayos X tanto por los poros en el seno de la sustancia, como por las inclusiones ajenas. El estudio de los poros, de su tamaño, forma y cantidad por unidad de volumen, reviste gran interés para los prácticos. De estas particularidades de la estructura de las fibras sintéticas depende, en sumo grado, la calidad de su teñido. No es difícil adivinar que una distribución irregular de los poros será causa de su tejido no uniforme. Se obtendrá una tela poco atractiva.

Gentileza de Manuel Mayo

96

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

De todo lo expuesto resulta bastante evidente que la radiografía de los materiales no sólo es un método de investigación de la sustancia, sino también método de control técnica de las más diversas producciones.

Gentileza de Manuel Mayo

97

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 4 Generalizaciones de la mecánica Contenido: 

Mecánica relativista



Partículas cuya velocidad es próxima a la de la luz



Mecánica ondulatoria



El principio de Heisenberg

Mecánica relativista La mecánica de Newton cuya exposición hemos dado en el libro 1 es el sumo alcance del genio humano. A base de ésta se calculan los derroteros de los planetas, las trayectorias de los cohetes y el comportamiento de los mecanismos. El desarrollo de la física en el siglo XX demostró que las leyes de la mecánica newtoniana tienen dos restricciones que se convierten en inadecuadas cuando se trata del movimiento de las partículas de masa pequeña; dejan de servirnos en cuerpo y en alma cuando se trata del movimiento de los cuerpos con velocidades próximas a la de la luz. Para las partículas pequeñas la mecánica de Newton se sustituye por la llamada mecánica ondulatoria, y para los cuerpos de movimiento rápido, por la mecánica relativista. La mecánica clásica también debe hacerse algo más complicada cuando nos encontrarnos con fuerzas de la gravedad muy grandes. Los campos gravitacionales inconcebiblemente enormes que rigen el comportamiento de algunas estrellas superdensas no nos permiten limitar a aquellas simples fórmulas de la mecánica que hemos conocido en el libro 1. Sin embargo, dejaremos al lado estas variaciones, deteniéndonos un dos generalizaciones más importantes que se deben hacer al examinar el movimiento de las macropartículas y al estudiar los movimientos con las velocidades próximas a la de la luz. Comencemos por la mecánica relativista. El camino que conduce hacia este notable capítulo de la física lo menos recuerda una carretera recta. No sólo es sinuoso, sino que lo desbrozaron a través de terrenos a parecer completamente distintos. La

Gentileza de Manuel Mayo

98

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

historia comienza por el éter. En general, a finales del siglo XIX los físicos reposaban plácidamente. El maestro de Max Planck no le recomendaba dedicarse a la física, ya que esta ciencia, hablando con propiedad, estaba consumada. Tan sólo dos «futilidades» deterioraban algo el aspecto del armonioso edificio: no cuajaba el asunto con la explicación de la radiación del cuerpo negro (después de poner en claro esta «nimiedad» los físicos llegaron al descubrimiento de los cuantos) y. además, estropeaba el humor el experimentado Michelson. Este experimento, demostrando que la velocidad de la luz no se suma a la velocidad de la Tierra y es igual en todas las direcciones, hizo recapacitar sobre las propiedades del éter. Había pocos quienes dudasen de la existencia de cierta materia fina cuyas vibraciones son, precisamente, las ondas electromagnéticas. Al cabo de cien años hasta parece asombroso el hecho de que a pesar de un gran número de absurdidades a las que conducía la «hipótesis del éter», la aplastante mayoría de los investigadores y, además, destacados y talentosos, emprendían cualesquiera rodeos e introducían un sinnúmero de suposiciones suplementarias con el único fin de salvar la idea sobre la luz como movimiento de una sustancia invisible. Había investigadores que se representaban el éter como mar en calma a través del cual se abren el camino los planetas; otros pensaban que el éter puede ser arrastrado, a semejanza de aire, por los cuerpos en movimiento. Por muy extraño que parezca, no había quien sugiere la idea, al parecer evidente, de que las vibraciones de los vectores eléctrico y magnético se operan en tal punto y por esta razón no puedan explicarse por desplazamientos mecánicos. No se sabe de qué modo, pero se ataban los; cabos, se construían teorías en las que se deducían expresiones matemáticas justas desde el punto de vista formal (en éstas figuraba la susodicha raíz cuadrada

donde v era la velocidad de movimiento del cuerpo, y c, la velocidad de la luz), mas a las que se daba una interpretación errónea. Fue el experimento de Michelson realizado por primera vez en 1887 el que deparó a los pensadores los mayores

Gentileza de Manuel Mayo

99

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

contratiempos. Haciendo uso del interferómetro cuya construcción hemos descrito en el capítulo 2, Michelson demostró que las velocidades de la luz tanto a lo largo, como transversalmente al movimiento de la Tierra por la órbita son prácticamente iguales. Sin embargo, ni siquiera esto hecho, fatal para la teoría de la existencia del éter, podía convencer a los relevantes físicos a renunciar a su fe en la finísima materia que atraviesa todos los cuerpos. Se consideraba que el experimento de Michelson hacia despedirnos del viento etéreo. Que así sea. El cuadro del mundo sería todavía más hermoso si considerábamos el éter como inmóvil y reconocíamos el espacio absoluto newtoniano respecto al cual realizan su recorrido los cuerpos celestes. Para explicar el experimento de Michelson los físicos tan grandes como Joseph Larmor (1857-1942) y Hendrick Antoon Lorentz (1853-1928) aplicaron la hipótesis de la contracción de los cuerpos en la dirección de su movimiento. Sin embargo, las contradicciones lógicas y el carácter artificial de explicación de muchos fenómenos que atañen la electrodinámica seguían dejando el sentimiento de insatisfacción. Cortar el nudo gordiano de todas las contradicciones le toca la suerte a Albert Einstein (1879-1955), el físico más relevante de nuestro siglo XX. De punto de partida para los razonamientos de Einstein sirvió el principio de la relatividad. Había pocos quienes, después de Galileo, dudasen el hecho de que en relación a los movimientos mecánicos todos los sistemas inerciales son equivalentes (hagan el favor de retornar al libro 1, refrescando en la memoria todo lo dicho sobre el particular). Resulta una cosa algo extraña y, además, imperfectas desde loa posiciones estéticas: la igualdad de derechos para los movimientos mecánicos y le ausencia de ésta para los electromagnéticos. Renunciemos a este punto de vista «antiestético», admitiendo que el principio de la relatividad resulta válido para todos los fenómenos. Ahora recapacitemos sobre el resultado del experimento de Michelson. Los intentos de explicar el resultado de este experimento considerando la propagación de la luz en el éter a semejanza de la del sonido en el aire tampoco satisfacen a Einstein. Percibe que aquí «algo» no cuadra. Hablando con propiedad, ¿por qué estamos obligados a «medir por el mismo rasero» la luz y el sonido? ¿Por la mera razón de que tanto el uno como el otro son capaces de difractar?

Gentileza de Manuel Mayo

100

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

No es este un argumento muy fuerte. De este modo, renunciemos a este criterio y adoptemos el siguiente postulado (que a primera vista parece descabellado): la velocidad de la luz en el vacío es la misma desde el punto de vista de todos los observadores que se mueven en diferentes sistemas inerciales.

Albert Einstein (1879-1955), hombre de ciencia genial, creador de la teoría de la relatividad que revolucionó el pensamiento físico. En 1905 Einstein publica un trabajo dedicado a la teoría especial de la relatividad. En 1907 obtuvo la fórmula que relaciona la energía y la masa del cuerpo. En 1915 publica la teoría general de la relatividad. De la teoría se desprendían nuevas leyes de le gravitación y las deducciones acerca de la curvatura del espacio. La aportación que hizo Einstein a la física no se limita e la teoría de la relatividad. Del trabajo de Planck saca la conclusión sobre la existencia del fotón, o sea de una partícula de la luz, y pone de manifiesto cómo, basándose en estas posiciones, se puede dar una explicación a una serie de fenómenos fundamentales, incluyendo el efecto fotoeléctrico. Cualquiera que sea la dirección en que corre la onda electromagnética, cualquiera que sea el cuerpo que sirvió de su fuente, tanto los terrícolas, corno los foráneos Gentileza de Manuel Mayo

101

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

que habitan otra galaxia (cuán vehemente es el deseo de muchos fantaseadores de creer en su existencia) medirán la misma velocidad, la de 299.792 km/s. A lo largo de su tramo rectilíneo de la vía férrea con velocidad constante v rueda un tren. Paralelamente al ferrocarril está tendida una carretera. Por ésta, en la misma dirección va a todo correr un motociclista. El inspector del servicio estatal automovilista cuyo puesto está situado cerca del ferrocarril silba en pos del infractor quien pasó al lado del inspector a una velocidad u que excede mucho de la permitida. El pequeño radar con que hoy día están provistos muchos inspectores indica 85 km/h. El maquinista echa una que otra mirada al motociclista que, rápidamente, alcanza y, después, deja atrás el tren. A este observador no le será difícil medir la velocidad del motociclista. Esta será igual a u' = 35 km/h. No necesito demostrar al lector que la velocidad del tren es igual a 50 km/h. Es válida la ley de adición de los velocidades: u = v + u' Y esta regla, al parecer, más que evidente, resulta inconsistente en el caso del rayo luminoso. Los fotones se mueven a una misma velocidad respecto a dos observadores que se encueraran en diferentes sistemas inerciales. El genio de Einstein consistía precisamente en que él renunció a esta deducción patente no sólo para la luz, sino que, en su afán de conservar el enfoque único de todos los fenómenos físicos, tanto de los electromagnéticos, como de los mecánicos, se atrevió a rehusar la ley de adición de las velocidades para todos los cuerpos. Se sobreentiende que desde estas posiciones no hay necesidad de explicar siquiera el experimento de Michelson. Por cuanto la velocidad de la luz es universal, tanto a lo largo de la órbita terrestre, como transversalmente al camino de revolución de la Tierra alrededor de nuestro Astro. De los principios que hemos formulado se infiere, de inmediato, que la velocidad de la luz es la velocidad máxima1. En efecto, si la velocidad de la luz no se suma a la 1 Propiamente hablando, a la mecánica relativista no le contradice la existencia de partículas que se mueven con velocidades tanto como se quiera mayores que la velocidad de la luz. Los teóricos, incluso han asignado un nombre a estas partículas: el de taquiones, sin embargo, en el caso de existir semejantes partículas, la velocidad de la luz, sea como fuere, quedaría para éstas como velocidad límite, pero no máxima, sino, por al contrario, mínima, El autor del libro supone que la teoría de los taquiones no es otra cosa que un juego matemático elegante. Si el

Gentileza de Manuel Mayo

102

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

velocidad de movimiento del manantial, esto significa que es imposible adelantar a la luz. En sus memorias Einstein escribe que ya en 1894 le surgió la pregunta: «Si se hubiera podido perseguir la onda luminosa a la velocidad de la luz, ¿acaso tendríamos ante nosotros un campo ondulatorio independiente del tiempo? Semejante cosa, a pesar de todo, parece imposible». Así pues, ningún cuerpo, ninguna partícula pueden moverse a velocidad mayor que la de la luz. Piensen, por favor, bien lo que dice este enunciado. A raíz de su aparente carácter paradójico lo repetimos una vez más. Si en la Tierra o en otro planeta, de un lugar a otro, emprendo el viaje una onda electromagnética, su velocidad de propagación medida por el observador terrestre y por el observador que sobrevuela la Tierra en un cohete que se mueve con una velocidad fantástica será la misma. Este mismo enunciado será válido también para toda partícula que se mueve con la velocidad igual a la de las ondas electromagnéticas. En la teoría de Einstein la luz no es una excepción. Bueno, ¿y de qué manera se desarrolla el asunto cuando la velocidad del cuerpo en movimiento es menor que la de la luz? Es evidente que en este caso tampoco es válido el sencillo principio de adición de las velocidades que siempre utilizamos con tanta seguridad. Sin embargo, la desviación con respecto a la regla ordinaria de adición de las velocidades comienza a percibirse únicamente en el caso de que la velocidad del cuerpo será muy, pero muy grande. La mecánica relativista, tal es el nombre de la mecánica de los cuerpos de movimiento rápido, lleva a la siguiente regla de adición de las velocidades

Calculen, aproximadamente, cuáles deben ser los valores de v y v' para que sean necesarias las correcciones de la sencilla regla de adición de las velocidades.

mundo de los taquiones hubiere existido, éste, de principio, no podría influir en los acontecimientos que se desarrollan en nuestro Universo. Gentileza de Manuel Mayo

103

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

¿Cómo, por ejemplo, resultan los asuntos en el caso de vuelos cósmicos? ¿Es que sigue en pie la regla ordinaria de adición de las velocidades cuando se trata de movimientos

con

velocidades

de

decenas

de

kilómetros por segundo? Como

se

conoce,

es

sumamente

racional

el

lanzamiento de un cohete «secundario» a partir de una nave portacohetes cósmica. Se puede que precisamente

mediante

este

procedimiento

se

envíen los cohetes a las regiones periféricas del Sistema Solar. Designemos con v la velocidad de la nave cósmica respecto a la Tierra y con v' la velocidad

del

cohete

lanzado

desde

la

nave

cósmica con relación a esta nave. Supongamos que ambas velocidades, v y v', son iguales a 10 km/s. Ahora, por la fórmula exacta de adición de las velocidades calculemos a qué será igual la velocidad del cohete con respecte a la Tierra. En este caso a la unidad en el denominador hay que añadir la fracción 102/(9 x 1010) ≈ 10-9. La corrección es sumamente insignificante, es decir, sigue siendo válida la regla clásica de adición de las velocidades. Entonces, ¿qué valor práctico tiene la mecánica relativista?

A

su

debido

tiempo

llegaremos

también a la respuesta a esta pregunta. .Y mientras tanto, extraigamos corolarios de las hipótesis formuladas. Por cuanto tenemos que despedirnos del principio de adición de las velocidades, ya estarnos preparados al hecho de que será necesario introducir correcciones sustanciales también en otras fórmulas de la mecánica. Como hemos subrayado antes, el papel decisivo en el proceso de establecimiento de la teoría de la relatividad lo desempeñó el experimento de Michelson, experimento

Gentileza de Manuel Mayo

104

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

mediante el cual se demostró que la velocidad de la luz, tanto a lo largo, como transversalmente respecto al movimiento de la Tierra por la órbita solar es la misma. No examinemos la marcha de los rayos en el interferómetro de Michelson limitándonos a discutir acontecimientos más sencillos. En algún lugar de la Tierra se ha creado una instalación muy simple. En un poste, a la fig. 4.1. la altura l desde la superficie terrestre está montado un laser. Su rayo finísimo se dirige a lo largo del radio terrestre, se refleja en el espejo colocado en el suelo, retorna y se recibe por la célula fotoeléctrica; y a esta última los ingenieros se las ingeniaron para disponerla de tal modo que tenemos derecho de considerar que la fuente y el receptor de la luz se encuentran en un punto. En la fig. 4.1 este punto se designa por la letra S. Por medio de un cronómetro ultraperfecto pueden registrarse dos instantes: primer instante, cuando la luz comienza su viaje; segundo instante, cuando la luz llega a la célula fotoeléctrica. Dos observadores contemplan este fenómeno. Uno se encuentra aquí mismo, al lado de la instalación que hemos inventado, y al otro observador, el pintor le emplazó en una lejana estrella. Ambos observadores miden el intervalo de tiempo τ entre dos acontecimientos: la partida y el retorno de la luz al punto S. El primer observador dibuja el cuadro de la marcha del rayo tan elemental que no se puede inventar nada más simple. Este supone que los caminos del rayo allí y de regreso coincide totalmente. Se convence de que su razonamiento es justo con la ayuda pie la igualdad

El observador sideral contempla el destello de la luz en el momento de la partida y en el momento de su llegada a la celda fotoeléctrica. El intervalo de tiempo medido por este observador es igual a τ. También él, para comprobar si todo es correcto construye el cuadro de la marcha del rayo. Pero para el segundo observador las posiciones del punto S en el momento de poner en marcha el cronómetro y en el momento de advertir la reacción de la célula fotoeléctrica no coinciden. Por lo tanto, él construye otro cuadro de la marcha del

Gentileza de Manuel Mayo

105

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

rayo. El observador sideral conoce la velocidad de la Tierra respecto a su persona. De este modo, su dibujito representa un triángulo equilátero cuya base es igual a vτ y la altura es l. Valiéndose del teorema de Pitágoras, el observador sideral establece que el camino recorrido por el rayo luminoso es igual a

Este camino es igual a cτ, ya que la velocidad de la luz es idéntica para todos los observadores. Siendo así, el intervalo de tiempo entre dos instantes será igual a

¡Qué resultado más inesperado! No olvide que desde el punto de vista del observador

terrestre

este

mismo

intervalo

de

tiempo

entre

los

mismos

acontecimientos es igual a 2l/c. Recurramos a la ayuda de la lógica haciendo una conclusión inevitable: el tiempo que cuenta el observador en reposo se diferencia de aquel que cuenta el observador en movimiento. El tiempo del observador inmóvil se denomina tiempo propio y se designa con τ0. Hallamos que el tiempo del observador que se mueve con la velocidad v1 está relacionado con el tiempo propio mediante .la expresión

Es decir, el reloj en movimiento marcha más lentamente que el inmóvil, una vez adoptados los postulados principales de la teoría, no hay dónde ocultarse de esta deducción. Y ésta nos lleva a un corolario tan extraño a primera vista como la necesidad de renunciar al concepto de simultaneidad. Gentileza de Manuel Mayo

106

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

En este caso, ¿no será que desde el punto de vista de un observador Jaime disparó y Juan cayó después del disparo matado por la bala, mientras que desde el punto de vista de otro observador primeramente cayó Juan a quien mataron y sólo después Jaime disparó? Me tomo la libertad de asegurar al lector que la mecánica relativista no da lugar a ninguna absurdidad. Nunca será violado el principio de causalidad. Sería posible explicar todo esto de una forma completamente accesible, pero, por desgracia, no lo permite el volumen del presente libro. Hay que decir, además, varias palabras acerca de la paradoja de los hermanos gemelos la cual, hasta la fecha, se cita a veces como una demostración de la inconsistencia de la teoría. Juan y Pedro son hermanos gemelos. Pedro se despide de Juan y va al viaje cósmico con una velocidad próxima a la de la luz, regresando al cabo ele cierto lapso de tiempo. El reloj de Pedro marcha más lentamente. Por esta razón volverá a la Tierra sin arrugas y canas para encontrarse con su hermano que se lea convertido en un vejestorio. Sin embargo, lamentable (o afortunadamente, según el punto de vista) no se logrará organizar este encuentro observando las condiciones para las cuales son válidas las fórmulas en cuestión. La cosa reside en que, para conseguirlo, Pedro deberá cambiar su velocidad para la inversa y debido es ello no se extienden a este caso las deducciones que se refieren a los sistemas inerciales. La relatividad del tiempo no es la única consecuencia de la nueva teoría. De la misma manera como el propio reloj del observador marcha más rápidamente que otro cualquiera, así la longitud de la barra l0 que usted sujeta en las manos es máxima. Desde el punto de vista de cualquier observador que se mueve a velocidad v a lo largo de la barra, esta misma longitud será igual a

También en la expresión para la masa aparece la misma raíz. La masa m0 del cuerpo que el observador «sujeta en las manos» se denomina masa en reposo. Esta es mínima. Para un observador en movimiento

Gentileza de Manuel Mayo

107

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Es completamente natural que la masa se acrecienta con el aumento de la velocidad. En efecto, si la velocidad tiene un límite, entonces, a medida que se está acercando a éste, carta vez es más difícil acelerar la partícula. Y este hecho significa, precisamente, que la masa de la partícula se incrementa. En las fórmulas de distancia y tiempo durando largo periodo no se presentó la oportunidad de tratar con grandes velocidades que hicieran tomar en consideración la diferencia entre la raíz cuadrada y la unidad. Tan sólo hace poco se logró confirmar la validez de la fórmula para el tiempo. Ahora bien, en lo que atañe a la dependencia de la masa respecto a la velocidad, ésta fue descubierta para el flujo de electrones ya antes de la aparición del articulo de Einstein. La fórmula para la masa es una fórmula técnica en el pleno sentido de la palabra. Como veremos en el siguiente párrafo, sin ésta es imposible calcular y construir un acelerador de partículas moderno. En estas máquinas muy caras las partículas se aceleran con tanta intensidad que la raíz cuadrada llega a ser mucho más próxima a cero que a la unidad. La fórmula de dependencia de la masa respecto a la velocidad fue propuesta por primera vez aun con anterioridad a Einstein. Solamente, antes de haberse afirmado la mecánica relativista, esta fórmula se interpretaba de una forma equivocada. Sin embargo, fue Einstein el que dedujo la célebre expresión

que relaciona la masa y la energía. Esta fórmula, al igual que las variaciones de l, τ. y m en función de la velocidad, derivan de una forma rigurosa de los postulados de la teoría. Multipliquemos la masa por el cuadrado de la velocidad de la luz. Para un cuerpo en movimiento será mc2, y para el mismo cuerpo en reposo tendremos m0c2. Escribamos la diferencia de estas dos expresiones:

Gentileza de Manuel Mayo

108

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Hagamos uso de le igualdad aproximada cuyo carácter justo el lector puede comprobar sin dificultad:

La diferencia que estamos calculando tiene la siguiente forma:

Como ve el lector, esta es igual a le energía cinética del cuerpo. Meditando sobre esta igualdad, Einstein llegó a la siguiente conclusión fundamental. La energía del cuerpo en movimiento puede representarse por la expresión

Dicha energía se compone por la energía de un cuerpo en repeso m0c2 y la energía del movimiento. Sin disponer de datos algunos sobre la estructura del cuerpo, sin saber el carácter de interacción de sus partículas se puede afirmar que su energía interna es igual a

La energía interna de un cuerpo cuya masa es de 1 kg es igual a 1017 J. Esta cantidad de calor se liberaría durante la combustión de 3 millones de toneladas de carbón. Como se enterará el lector más tarde, los físicos aprendieron a liberar sólo

Gentileza de Manuel Mayo

109

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

una parte pequeña de esta energía, desintegrando los núcleos atómicos o fusionándolos. Cabe subrayar que la ecuación de Einstein E = mc2 se refiere no sólo a la energía intranuclear. Esta ecuación es universal Pero aquí los asuntos toman el mismo cariz que en el caso del reloj de los cosmonautas. Las más de las veces la relación entre la energía y la masa no puede ser comprobada. En efecto, si calentarnos 1 t de molibdeno a 1000 K, la masa incrementará en 3 millonésimas de gramo. Tan sólo la enormidad de las fuerzas intranucleares permitió convencerse en el carácter justo de le ecuación E = mc2. Sería útil, tal vez, prevenir al lector acerca de la formulación negligente y muy difundida de esta admirable ecuación. Se dice: la masa se transforma en energía: o, lo que es peor todavía: la materia se transforma en energía. En realidad, la fórmula E = mc2 dice lo siguiente: cualesquiera que sean las transformaciones mutuas de las diferentes clases de la materia, a la variación de la energía operada en el sistema corresponde la variación equivalente de la masa. La energía y la masa son dos características de la materia vinculados unívocamente. Partículas cuya velocidad es próxima a la de la luz El deseo de llegar hasta los ladrillos elementales a partir de los cuales está construido el mundo es tan viejo como el mundo. Pero durante largos siglos este objetivo se encontraba sujeto tan sólo a las elucubraciones escolásticas de los sabios. Apenas aparecieron las posibilidades reales de destruir moléculas, átomos y núcleos atómicos, los físicos, con inspiración y perseverancia, abordaron esta labor. Esta labor no se interrumpe hasta la fecha y, cabe reconocerlo, por ahora no se advierte que se puede consumar. Está claro que, para obtener la respuesta a la pregunta de qué está construido el mundo, es necesario destruir las partículas. Y para lograr esta finalidad hacen falta «proyectiles», y cuanto mayor energía posean éstos, tanta mayor esperanza existe de descubrir este enigma de la naturaleza. La historia de producción de las partículas rápidas se remonta al año 1932, cuando los colaboradores de Rutherford construyeron una instalación para obtener protones que se aceleraban hasta las energías de 500 keV. A ésta le siguieron los ciclotrones

Gentileza de Manuel Mayo

110

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

que permitieron alcanzar tales energías de los protones que se debían ya medir por megaelectronvoltios (recordemos que mega corresponde a millón). La siguiente etapa la constituyó el sincrotrón que dio la posibilidad de embalar los protones hasta miles de millones de electronvoltios. Comenzó la era de gigaelectronvoltios (giga corresponda a mil millones). Pero, actualmente, se está diseñando máquinas en que se contará ya con millones de millones de electronvoltios. En particular, los físicos que se reunieron en 1975 en una conferencia internacional en la ciudad de Sérpujov (en los alrededores de Moscú) donde está instalado uno de los más potentes aceleradores de este tipo consideraban que hubiera sido necesario construir una máquina anular de 16 km de diámetro. Bueno, el lector ya tendrá en la punta de la lengua la pregunta de en qué consiste el principio de acción de estas máquinas. ¿Por qué es preciso darles una forma anular y, finalmente, para qué se necesitan. En esencia, sirve de acelerador de partículas cualquier aparato a vacío a cuyos extremos está alimentada la alta tensión. La energía cinética de una partícula acelerada hasta una gran velocidad es igual a (desde luego, no es la primera vez que citamos esta fórmula, pero en ello no hay ningún inconveniente, ya que, en este caso, el lector de seguro la guardará en le memoria);

Tanto los tubos de rayos X, como los de televisión pueden llamarse aceleradores. Pero, basándose en este principio, no se pueden obtener velocidades muy grandes. El término «acelerador» se emplea cuando se trata de máquinas que aceleran la partícula hasta velocidades próximas a la de la luz. Con este fin es necesario obligar la partícula a pasar consecutivamente por muchos campos. De entrada, es fácil comprender que un acelerador lineal es poco adecuado, por cuanto para obtener unas míseras decenas de miles de electronvoltios ya se necesitan tramos iguales a muchos centímetros. Para llegar a diez mil millones de electronvoltios hace falta un tramo del orden de diez kilómetros.

Gentileza de Manuel Mayo

111

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

¡No, semejante resolución frontal del problema no sirve! En 1936, Ernesto Lawrence (1901-1958) dio comienzo a la construcción de los aceleradores anulares modernos los cuales denominó ciclotrones. En una instalación se combina la aceleración de la partícula por el campo eléctrico y su reiterado retorno al intervalo acelerador con la ayuda del campo magnético. El acelerador de Lawrence se parece a una lata de conservas cortada en dos partes por el diámetro. A las dos mitades se aplica una tensión rápidamente variable. Las partículas cargadas se aceleran en aquellos momentos en que pasan las distancias que separan las mitades del aparato. En el interior de la «lata de conservas» hacemos moverse las partículas por la circunferencia, superponiendo al aparato al campo magnético cuyas líneas de inducción son perpendiculares al fondo de dicha «lata». Como se sabe, en este caso la partícula cargada describe una circunferencia de radio

El tiempo de una revolución es

Para que el campo eléctrico entre las dos mitades «empuje» las partículas es necesario elegir la tensión variable de tal modo que su signo cambie precisamente para aquel instante en que la partícula haya llegado al intervalo entre las mitades. Las cargas se crean en el centro del aparato (por ejemplo, la ionización del hidrógeno proporciona protones). La primera circunferencia tendrá un radio pequeño. Sin embargo, cada circunferencia subsiguiente tendrá un radio mayor por cuanto, de acuerdo con la fórmula insertada, éste es proporcional a la velocidad de movimiento de la partícula. A primera vista parece que, aumentando las dimensiones del ciclotrón y, a la par de ello, también el radio de la trayectoria anular, podemos comunicar a la partícula cualquier energía. Una vez alcanzada la energía que deseamos, lo único que nos Gentileza de Manuel Mayo

112

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

queda es dejar salir afuera el haz con la ayuda de una placa deflectora. Todo se habría desarrollado a las mil maravillas si no hubiera sido por la dependencia de la masa respecto a la velocidad. La fórmula de Einstein para la masa que en su tiempo parecía carecer de cualquier valor práctico, se convierte en fundamental para calcular los aceleradores anulares. Por cuanto con el aumento de la velocidad incrementa la masa de la partícula, resulta que el período de revolución no permanece invariable sino crece. La partícula comienza a tardar. Llegará al intervalo acelerador no en el momento en que la fase de la tensión cambie en 180°, sino más tarde. A medida que crece la velocidad, llegaremos a la situación en que el campo eléctrico no solo dejará de «empujar» las partículas, sino que hasta las frenará. El ciclotrón permitió acelerar los protones hasta 20 MeV, aproximadamente. Al parecer, no está mal. Pero, como ya he señalado, a los físicos, para su trabajo, son necesarios aparatos cada vez más potentes. Claro está que para conseguir mayores energías, conviene buscar nuevos caminos. La forma de la expresión para el período de giro de la partícula les sugiere qué camino hay que elegir. Con el aumento de le velocidad la masa crece. Entonces, esto significa que para mantener el período es necesario aumentar «al compás» la intensidad del campo magnético. Sin embargo, esta solución sólo a primera vista es simple. No se debe olvidar que el radio de giro aumenta para cada revolución de la partícula. De este modo, se requiere que el crecimiento sincrónico de la masa y del campo magnético sea válido para la partícula que pasa consecutivamente por las circunferencias de radios cada vez mayores. Centrando muestra atención en esta relación de las magnitudes, pondremos en claro que existen tales partículas «afortunadas» para las cuales, para cierto ritmo dado de crecimiento de la intensidad del campo magnético, esta condición se cumplirá. Y, lo que es lo principal, resulta que tendrá logar una especie de autopuesta en fase. La partícula que posee más energía que la necesaria para el radio de su giro se retardará debido al incremento excesivo de masa; por el contrario, la insuficiente energía llevará a la aceleración. Por medio de cálculos muy simples, valiéndose de fórmulas del radio y del periodo de giro de la partícula, el lector puede cerciorarse por si mismo de que los asuntos

Gentileza de Manuel Mayo

113

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

se desarrollarán precisamente de esta forma (prefije el ritmo de incremento de la intensidad del campo magnético, calculen las trayectorias de las partículas y tracen un gráfico, y, entonces, ustedes percibirán el principio de antepuesta en fase). También pueden creerme de palabra que mediante este procedimiento es posible, de principio, aumentar la velocidad de las partículas hasta el límite. Sólo que será necesario utilizar para la aceleración el método de impulso. Al crecer la intensidad del campo la instalación funciona. La marcha atrás es marcha en vacío. Pero no nos detendremos en este método. Este ya constituye una etapa recorrida. En el caso de conservar dicho principio, para crear aceleradores modernos es necesario fabricar imanes con una masa de millones (¡!) de toneladas. Los

aceleradores

anulares

modernos

llamados

sincrofasetrones

efectúan

la

aceleración de las partículas por una órbita. Por lo tanto, toda la parte central del imán parece como si se recortase. Estas máquinas también trabajan según el método de impulso. Se varían de forma acorde tanto la intensidad del campo magnético, como el período del campo eléctrico. Las partículas afortunadas aumentarán constantemente su velocidad, moviéndose por una órbita estrictamente anular. Las menos afortunadas oscilarán en torno a una órbita buena, pero, a pesar de todo, también irán a aumentar constantemente su velocidad. De principio, la aceleración puede llevarse a valores fantásticos. Puede alcanzarse la velocidad de los protones que apenas se diferencia de la de la luz. Nos queda contestar a la pregunta de para qué se necesitan semejantes máquinas. Un acelerador se construye con el objeto de profundizarse en la física de las partículas elementales. Cuanto más alta es la energía de las partículas cargadas utilizadas como proyectiles que bombardean el blanco, tanto mayor es la probabilidad de hallar las leyes de transformación mutua de las partículas elementales. Hablando con propiedad, el mundo está constituido tan sólo por tres partículas: electrones, protones y neutrones. Por ahora, no hay fundamento para considerar el electrón una partícula compuesta. Pero en lo que concierne a los protones y neutrones, éstos pueden descomponerse en partes. Debido a diferentes colisiones entre los «fragmentos» se engendran nuevas partículas. Hoy en día su número se estima en unas 250, y toda le desgracia radica en que esto número aumenta sin

Gentileza de Manuel Mayo

114

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

cesar a medida que crece la potencia de los aceleradores. Los especialistas en el ámbito de la física de las partículas elementales no pierden la esperanza de descubrir para éstas una especie de sistema de Mendeleiev, reduciéndolas a un número limitado de «protopartículas», si se permite llamarlas así, análogamente a como se consiguió reducir a combinaciones de electrones, protones y neutrones el centenar de elementos y varios cientos de sus isótopos. Es plenamente lícito que el lector se interese en qué sentido, atribuimos, entonces, a la frase: el mundo está constituido por tres partículas. El asunto consiste en lo siguiente. Tan sólo el protón y el electrón son partículas completamente estables. El neutrón no es del todo estable, si entendemos la palabra «estable» en su acepción cotidiana. Pero su tiempo de vida en el mundo de las partículas es enorme: es de 103 s. aproximadamente. En lo que se refiere a la multitud de las demás partículas elementales que tantas preocupaciones deparan a los teóricos, sus tiempos de vida son menores de 10-6 s. Se sobreentiende que los dos últimos números son inconmensurables. No obstante, se aspira a poner en sistema también estos fragmentos de materia de vida corta. Para las partículas elementales se proponían muchos sistemas de esta índole. Mas apenas aparecía en la escena un acelerador de mayor potencia, se descubrían con su ayuda nuevos fenómenos que no se ajustaban al esquema adoptado. En el momento cuando se escriben estas líneas los especialistas miran con optimismo al futuro. Parece que se logra reducir todo el sistema de las partículas elementales a «protopartículas» que recibieron el nombre de «quarks». El inconveniente radica en que los quarks, a diferencia de los protones y electrones, no se observaron y, con toda probabilidad, no pueden observarse, de principio. Para crear el «sistema de Mendeleiev» de las partículas elementales es necesario atribuir al quark una carga eléctrica igual ya sea a un tercio, o bien, a dos tercios de la carga del electrón, como así mismo asignar dos parámetros complementarios a los cuales no se puede poner en correspondencia ninguna imagen, cualquiera que sea. Dichos parámetros llevan los nombres de «extrañeza» y «charme» (encanto).2

2 En los últimos años se puso de manifiesto la necesidad de tener un nuevo parámetro al que dieron el nombre de «beauty», es decir, belleza.

Gentileza de Manuel Mayo

115

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

El autor de esto libro no se propone detenerse en los problemas relacionados con las partículas elementales. No lo hace no porque es difícil explicar de forma popular las estructuras existentes, sino por la simple razón de que todavía es prematuro sentir seguridad de su encanto y belleza. No está descartado que aparecerán unas ideas nuevas por completo en lo que atañe a las partículas elementales y unos principios absolutamente nuevos en el modo de abordar estas porciones minúsculas del Universo que se miden (en centímetros) por una unidad dividida por uno con trece ceros. Mecánica ondulatoria En 1923, en un trabajo que se distinguía por su extraordinaria audacia y genial sencillez., el físico francés Luis de Broglie escribió: «En la óptica, durante siglos se despreciaba demasiado el método corpuscular de análisis en comparación con el ondulatorio. ¿No es que en la teoría de las micropartículas se incurría en un error inverso?» En esto trabajo de Broglie señaló el camino siguiendo el cual se podía relacionar con las partículas las ideas ondulatorias. Su labor la prosigue y consuma el declarado físico alemán Erwin Schrödinger. Y algo más tarde, para 1926-1927, queda claro que, en esencia, la mecánica ondulatoria y la mecánica cuántica son términos equivalentes. Esta nueva mecánica representa una

rama

importantísima

de

la

física

que

nos

enseña

cómo

analizar

el

comportamiento de las micropartículas en los casos en que ni el aspecto corpuscular, ni tampoco el ondulatorio son suficientes para interpretar los acontecimientos. Hemos prevenido al lector que no se debe entender de una forma demasiado literal la expresión «onda electromagnética». Tanto la emisión radioeléctrica, como la luz y los rayos X pueden considerarse en dos aspectos: el ondulatorio y el corpuscular. Una afirmación totalmente análoga es válida también para les flujos de partículas. Aunque los flujos de partículas tienen diferencias nítidas respecto a la emisión electromagnética (la principal consiste en que los electrones, los núcleos, los neutrones y les iones pueden moverse cualesquiera velocidad, mientras que los fotones, sólo con la de 300 000 km/s), esta clase de materia también revela en los diversos experimentos ora las propiedades de onda, ora las de corpúsculos.

Gentileza de Manuel Mayo

116

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

¿Cual es, entonces, la longitud de onda que debe atribuirse a una partícula en movimiento? Recurriendo a razonamientos que vamos a exponer ahora en una forma algo simplificada, de Broglie demuestra (mejor es decir, adivina) a qué debe ser igual la longitud de onda relacionada con el flujo de partículas. Examinamos las relaciones fundamentales que vinculan el aspecto corpuscular de la radiación electromagnética con el ondulatorio. La porción de energía de la radiación electromagnética que transporta consigo el fotón se expresa por la fórmula

La energía del fotón, al igual que de cualquier otra porción de materia, está sujeta a la ecuación de Einstein. De este modo, la energía del fotón puede representarse también por la fórmula E = mc2. De aquí se infiere que la masa del fotón3 es

. Multiplicando la masa por la velocidad obtendremos el valor del impulso del fotón:

Pero a nosotros nos interesa la longitud de onda de una partícula cuya masa en reposo es distinta de cero. ¿Cómo se puede adivinar a qué es igual? Suponiendo que el razonamiento expuesto se da por sentado, y admitiendo que la relación entre el impulso y la longitud de onda ¡es universal! resta volver a escribir esta expresión en la forma

3 La masa del fotón es masa de una partícula en movimiento; en lo que respecta a la masa en reposo del fotón, ésta es prácticamente, es igual a cero: el experimentador puede garantizar que es menor que 0,6 x 10-20 MeV. Cabe señalar también que la relación para el impulso del fotón puede comprobarse en una forma directa midiendo la presión de la luz.

Gentileza de Manuel Mayo

117

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Esta es, precisamente, la célebre fórmula de la Broglie. Indica que el aspecto ondulatorio del flujo de partículas debe revelarse con particular nitidez cuando la masa y la velocidad de la partícula no son grandes. Este hecho se confirma precisamente por el experimento, ya que resulta que la difracción de las partículas es fácil de observar en el caso de electrones y neutrones lentos. La comprobación de la certeza del razonamiento que acabamos de citar —y que, a propósito,

se

completamente

percibía

en

rectilínea.

su

tiempo

De una

como

misma

un

juego

sustancia

es

con

conceptos—

necesario

tomar

es el

roentgenograma, el electronograma y el neutronograma. Ajustando las velocidades de las partículas de tal modo que las longitudes de onda sean las mismas en todos los casos, debemos obtener diagramas de Debye idénticos (en lo referente a los radios de los anillos). Resulta justamente así. Era 1927, de un modo casual, se realizó la primera comprobación de la fórmula de la Broglie. Los físicos norteamericanos Davisson y Germer llevaban a cabo experimentos consagrados a la dispersión de los electrones sobre la superficie de los metales y, trabajando con el instrumento, sucedió que llevaron a incandescencia el objeto. Este último fue policristalino y después del calentamiento resultó recristalizado, de modo que los rayos se dispersaban ya por un monocristal. El cuadro obtenido se asemejaba tanto a los correspondientes roentgenogramas que no quedó duda alguna de que los electrones poseían la capacidad de difractar al igual que los rayos X. Bastante pronto, la observación de la difracción electrónica se convirtió en método de investigación de la estructura de la sustancia que, en muchos casos, resultó más adecuado que el análisis roentgenoestructural, La esfera principal de aplicación de la electronografía es el estudio de la estructura de las películas finas. Los principios no difieren en nada de aquellos que hemos discutido en el capítulo 3. La diferencia consiste en que los rayos electrónicos se dispersan por los electrones y núcleos, mientras que los rayos X se dispersan tan solo por los electrones. Puesto que la longitud de onda de la partículas es inversamente proporcional a la masa, se entiende que la difracción de las moléculas es difícil de observar. En todo caso, hasta la fecha no se ha conseguido hacerlo. La difracción de los protones sí

Gentileza de Manuel Mayo

118

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

puede observarse, pero ésta no reviste ningún interés: los protones no sirven para la investigación de una estructura volumétrica debido a su pequeño poder de penetración, y para tal estudio de la superficie es mejor recurrir a la difracción de los electrones, ya que ésta aporta una información incomparablemente más rica sobre la estructura. Los asuntos toman otro cariz cuando se trata de los neutrones. La investigación de la difracción de estas partículas se convirtió en objeto de ocupación de muchos científicos. Este campo de la ciencia tiene el nombre de neutronografía. Desde el punto de vista técnico es mucho más difícil obtener un neutronograma que un roentgenograma. En primer lugar, un haz lo suficientemente intenso de neutrones con una longitud de onda adecuada (la longitud de onda se controla por la velocidad de los neutrones) puede crearse tan solo dejando salir estas partículas a través de un canal especial en el reactor atómico. La segunda dificultad consiste en que la dispersión de los neutrones no es grande, ya que éstos pasan fácilmente a través de la sustancia sin chocar contra los núcleos de sus átomos. Por esta razón hay que trabajar con cristales grandes, con dimensiones del orden de un centímetro. Y no es tan fácil obtener semejantes cristales. Y por fin, la tercera circunstancia: los neutrones no dejan huellas en la placa fotográfica, y en los instrumentos de ionización solo manifiestan su presencia de una forma indirecta. Más tarde diremos algunas palabras sobre cómo se cuentan los neutrones. ¿Por

qué,

entonces,

a

pasar

de

todo,

los

investigadores

se

ocupan

de

neutronografía? El quid radica en que los neutrones, a diferencia de los rayos X, no se dispersan por los electrones, sino se desvían de su camino al encontrarse con los núcleos de los átomos. Pueden citarse, muchos ejemplos de sustancias cuyos átomos difieren de un modo insignificante por el número de electrones, mientras que para las propiedades de los núcleos la diferencia es ostensible. En semejantes casos, los rayos X no distinguirán entre los átomos, al mismo tiempo la neutronografía llevará al éxito. Pero, la circunstancia primordial estriba tal vez, en que los neutrones se dispersan fuertemente por los núcleos de los átomos de hidrógeno, mientras que los rayos X, sólo con dificultad, son capaces de establecer la disposición de los átomos de este elemento, pues el átomo de hidrógeno posee un solo electrón. Y el conocimiento de la disposición de este átomo as de suma

Gentileza de Manuel Mayo

119

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

importancia. En una cantidad enorme de sistemas biológicos y orgánicos el átomo de hidrógeno enlaza entre sí las partes de una molécula o las moléculas vecinas. Este enlace especial se denomina precisamente así: enlace de hidrógeno. Tampoco tiene rival la posibilidad de la neutronografía de distinguir los núcleos atómicos poseedores de diferentes propiedades magnéticas. Todas estas causas bastan para convertir la neutronografía en un importante método de investigación de la estructura de la sustancia. El principio de Heisenberg Muchos físicos, durante largo tiempo no podían avenirse al hecho del que la luz y las partículas

poseen

simultáneamente

propiedades

ondulatoria

y

propiedades

corpusculares. Les parecía que en esta dualidad se encierra algo que contradice a la teoría del conocimiento. Y una posición especialmente irreconciliable estos físicos la adoptaron respecto al principio de Heisenberg. Aquel importantísimo enunciado de la física del micromundo establece los límites de la aplicabilidad del aspecto corpuscular de cualquier fenómeno relacionado con el movimiento de las partículas de la sustancia. El principio de Heisenberg se anota en la signiente forma; ∆x∆v > h/m Aquí ∆x y ∆v es la «borrosidad» de nuestro conocimiento en lo que se refiere, respectivamente, a la coordenada y a la velocidad de movimiento (en dirección del mismo eje de coordenadas) de un coágulo de materia que examinamos en el aspecto corpuscular, en pocas palabras, Δx y Δv es la incertidumbre en el conocimiento de la coordenada y la velocidad de la partícula. Es preciso subrayar que no se trata de las dificultades técnicas de medición. La relación insertada vincula las incertidumbres que no se logra eliminar ni en el experimento más perfecto. Actualmente, revisten un interés tan solo histórico los diferentes esquemas que se proponían para medir con absoluta precisión las trayectorias y las velocidades de movimiento de las partículas. Sometiendo un

Gentileza de Manuel Mayo

120

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

esquema de este tipo a un análisis minucioso, siempre se podía descubrir su defecto de principio. Tratemos de esclarecer, aunque sea con varias palabras, por qué el experimento no puede dar mayor exactitud de la que permite el principio de Heisenberg. Supongamos que se trata de determinar la posición de la partícula en el espacio. Para enterarse de dónde se halla, éstos deben iluminarse. Como ya hemos señalado antes, las posibilidades de discernir los detalles se determinan por la longitud de onda y la radiación utilizada. Cuanto menor es longitud de onda, tanto mejor. Pero, al disminuir la longitud de onda, aumentamos la frecuencia de la onda y, por consiguiente, elevamos la energía del fotón. El impacto que soportaría la partícula examinada nos privará de la posibilidad de juzgar acerca de la velocidad que ésta tenía al encuentro con el fotón. He aquí otro ejemplo clásico. Interponemos en el camino del electrón una ranura estrecha. Al volar a través de dicha ranura el electrón incide sobre una pantalla. Se ve un destello. De este modo, con una precisión correspondiente al ancho do la ranura se localiza la posición del electrón en el momento en que pasaba a través del orificio en búsqueda de exactitud comencemos a disminuir el tamaño de la ranura. Pero en este caso más ostensiblemente se pondrán de manifiesto las propiedades ondulatorias del electrón. El electrón puede desviarse cada vez, más lejos del camino recto. Y esto significa que nosotros, cada vez en mayor grado, perderemos los datos sobre la componente de su velocidad en dirección del plano en que está practicada la ranura. Podemos idear docenas de semejantes ejemplos, podemos examinarlos desde el punto de vista cuantitativo (lo que hacían, precisamente, los físicos de los años 1930), y cada vez llegaremos a la fórmula insertada anteriormente. Vamos a discutir las evaluaciones de Δx y Δv que se pueden hacer en relación con las partículas de diferente masa utilizando la desigualdad de Heisenberg. Supongamos que se trata de un electrón que pertenece al átomo. ¿Es posible acaso poner un experimento que establezca en qué lugar se encuentra el electrón en el instante dado? Por cuanto las dimensiones del átomo son del orden de 10-8 cm, esto significa que es deseable la exactitud, digamos, de 10-9 cm. Bueno, de principio (y sólo de principio) semejante experimento es realizable. Sin embargo,

Gentileza de Manuel Mayo

121

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

apreciemos, con la ayuda de la desigualdad, la pérdida de información sobre este electrón Para el electrón, la magnitud h/m es igual, aproximadamente, a 7 cm2/s, y para éste el principio de Heisenberg se escribirá de la siguiente forma: ΔxΔv > 7 Entonces tenemos, Δv > 7 x 109 cm/s, lo que carece totalmente de sentido, o sea, no se puede decir nada acerca de la velocidad del electrón. ¿Y si intentáramos conocer algo más exactamente la velocidad del electrón atómico? También para conseguir esta finalidad se puede idear un experimento realizable de principio. Pero en este caso se perderá por completo el conocimiento sobre el lugar donde se encuentra el electrón. La desigualdad aplicada al electrón atómico muestra que en esto caso el aspecto corpuscular un trabaja. Resulta privado de sentido el concepto de trayectoria del electrón, tampoco se puede decir cosa alguna sobre los caminos de transición del electrón desde un nivel de energía hacia el otro. El cuadro varía en el caso de que nos interesamos por el movimiento del electrón en las cámaras de ionización. La estela dejada por el electrón puede ser visible. En consecuencia, ¿tiene una trayectoria? Sí. la tiene ¿Y cómo acertar a ligar esto con el cálculo anterior? No hay necesidad de ligarlo. Ahora, todos los razonamientos deben llevarse a cabo de nuevo. El espesor de la estela es del orden de 10-2 cm. Por consiguiente, la incertidumbre en el valor de la velocidad, incluso para un electrón lento que vuela a través de la cámara con una velocidad de cerca de 1 km/s, es prácticamente, despreciable en comparación con esta magnitud: ésta es igual a 7 m/s. Estos ejemplos numéricos nos señalan que el aspecto corpuscular empieza a desaparecer a medida que nosotros «escudriñamos»: tratamos de examinar más detalladamente la porción de la materia. Con mucha frecuencia se puede hablar de los protones y neutrones como de partículas. Sin embargo, cuando se trata de su comportamiento en el seno del núcleo atómico cuyas dimensiones son de 10-13 cm, en este caso no se pone de manifiesto su aspecto corpuscular.

Gentileza de Manuel Mayo

122

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Tampoco es difícil darse cuenta de que sobre una molécula grande con una masa molecular del orden de un millón podemos hablar tranquilamente como de un guisante. Dicha molécula se comporta como una partícula «honesta». Incluso se puede trazar la trayectoria de su movimiento térmico caótico. Hace mucho pasaron los tiempos en que el dualismo ondulatorio - corpuscular se percibía como algo extraño, que necesitaba una interpretación profunda. Los hombres de ciencia renombrados, incluso tales como Einstein y Bohr disentían apasionadamente cómo debía interpretarse la conducta tan «extraña» de los electrones y de otras partículas. En la actualidad, la absoluta mayoría de los naturalistas no ve nada particular en la utilización de los dos aspectos durante la descripción de diversos fenómenos en que toman parte electrones, núcleos o fotones. Unos diez años atrás, un grupo de especialistas cienciología llevó a cabo una encuesta entre un numeroso (cerca de diez mil personas) grupo de físicos. Entre otras fue puesta la siguiente pregunta; ¿opina el preguntado que el problema de dos aspectos de la materia reviste interés y no puede considerarse aclarado hasta el final? Tan sólo veinte personas contestaron que, según su opinión, la desigualdad de Heisenberg y los problemas adjuntos no son verdad en última instancia. La dificultad de reconciliarse con esta importante ley de la naturaleza se explicaba, por lo visto, por el error lógico que constituía la base de la protesta la cual se formulaba así: «¡Yo puedo convenir con que el comportamiento de la partícula de la materia es imposible de predecir». El vicio de la frase radica en que al hablar sobre la porción de la materia ésta se considera como una partícula en la acepción habitual, cotidiana, de esta palabra. Mientras tanto, la porción de la materia, en realidad, ya sea que se trata de la luz, las microondas, el electrón, o bien, del núcleo, no se parece, ni mucho menos, a un guisante. Es imposible figurarse visualmente una partícula de la materia. ¡Y cada uno se pondrá de acuerdo con ello! Basta recordar que al electrón o al protón no son aplicables los conceptos de color, dureza, temperatura... Todas estas propiedades pertenecen tan sólo a los cuerpos macroscópicos. Pero si no se puede figurar una porción de materia, tanto más es imposible figurarse su movimiento. El movimiento de la porción de la materia

Gentileza de Manuel Mayo

123

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

conjuga en sí dos aspectos: el ondulatorio y el corpuscular. Esta es la razón por la cual es imposible de predecir tan sólo el comportamiento de uno de sus aspectos. La mecánica cuántica (mecánica ondulatoria: repetimos una vez más que son sinónimos) nos proporciona una relación de reglas precisas con cuya ayuda podemos vaticinar el comportamiento de las porciones de la materia. La descripción de las partículas empleando los métodos de la mecánica cuántica refleja de una forma exhaustiva las leyes generales del micromundo. Con ayuda de esta ciencia predecimos inequívocamente los acontecimientos y la obligamos a servir a la práctica. Por supuesto, lo dicho no significa que, en adelante, no se descubrirán leyes más generales de la naturaleza en cuyo corolario particular se convertirá la mecánica cuántica

moderna,

newtoniana.

Estas

análogamente leyes

a

generales

como deben

esto ser

sucediera aplicables

con

la

para

mecánica definir

el

comportamiento de partículas de masa pequeña que se mueven con grandes velocidades. Esperamos con impaciencia, y hay que reconocerlo, esta espera ya dura mucho tiempo, la creación de una teoría que unifique todas las «mecánicas» en un todo único. Para esta, lamentablemente no creada, teoría existe incluso el nombre: mecánica cuántica relativista. Parece asombroso que la cascada de descubrimientos hechos en el primer cuarto del siglo XX se haya refrenado inesperadamente. Al lector le puede parecer extraña esta afirmación. Sin embargo, los hechos, hechos son. A pesar del fantástico progreso de las ciencias aplicadas, a pesar de que en los dos cuartos de siglo subsiguientes se ha desarrollado y se desarrolla a altos ritmos la revolución científico-técnica, a pesar de todo ello, después del descubrimiento de la mecánica cuántica no se han hallado nuevas leyes de la naturaleza... Hay que esperar.

Gentileza de Manuel Mayo

124

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 5 Estructura de los núcleos atómicos Contenido: 

Radiactividad



Desintegración radiactiva



Reacciones nucleares y el descubrimiento del neutrón



Propiedades de los núcleos atómicos



Rosones y fermiones



La masa y la energía del núcleo atómico



Energía de las reacciones nucleares



Reacción nuclear en cadena

En el libro 3 hemos referido cómo, con la ayuda de los campos eléctricos y magnéticos, puede separarse el haz de partículas que se diferencian por la relación de la carga a la masa. Ahora bien, si las cargas son iguales, llega a ser posible separar las partículas por la magnitud de sus masas. Para estos objetivos sirve el instrumento que lleva el nombre de espectrógrafo de masas. Este se utiliza ampliamente para el análisis químico. El esquema de este instrumento se representa en la fig. 5.1.

Figura 5.1

Gentileza de Manuel Mayo

125

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Su idea consiste en lo siguiente. Al campo eléctrico del condensador llegan partículas con diferentes valores de las velocidades. Destaquemos mentalmente un grupo de partículas con igual relación e/m. El flujo de estas partículas va a parar al campo eléctrico donde se desintegra: las partículas rápidas se desviarán menos en el campo eléctrico, y las lentas lo harán en mayor grado. Seguidamente, el abanico de estas partículas entra en el campo magnético perpendicular al dibujo. El campo está conectado de tal modo que desvía las partículas hacia Asia el lado opuesto. También aquí las partículas rápidas se desviarán en menor grado, y las lentas se desviarán más. De aquí se infiere que en algún lugar fuera de los límites del campo el haz de partículas iguales que hemos destacado mentalmente, volverá a acumularse en un punto, o sea, se enfocará. Las partículas con un valor distinto de e/m también se acumularán en un punto, pero en otro. El cálculo demuestra que los focos para todos los e/m se situarán muy cerca de cierta recta. Si a lo largo de esta recta se dispone una placa fotográfica, las partículas de cada clase anunciarán su presencia por medio de una línea aparte. Debido a la utilización del espectrógrafo de masas se descubrieron los isótopos. El honor de este descubrimiento pertenece a J. J. Thomson. En 1912, al estudiar la desviación de un haz de los iones del neón en los campos eléctrico y magnético el investigador prestó atención a que el haz se desdoblaba. La masa atómica del neón (o, más exactamente, la masa atómica relativa) está conocida con bastante precisión: ésta equivalía a 20,200. Se puso de manifiesto que, en la realidad, los átomos del neón pueden ser de tres clases. Sus números de masa son 20, 21 y 22 (los números de masa son masas atómicas relativas redondeadas hasta números enteros). Por cuanto las propiedades químicas del neón no dependían de su masa, los físicos, bastante pronto, se cercioraron de que las diferencias están relacionadas tan sólo con el núcleo. La carga del núcleo y el número de electrones quedan sin variar, en consecuencia, las distintas clases de los átomos del neón deben ocupar el mismo lugar en la tabla de Mendeleiev. De aquí, precisamente, deriva su nombre: isótopos significa los que ocupan el mismo lugar. En los años de 1920 el espectrógrafo de masas adquirió sus rasgos contemporáneos y comenzó el estudio de la composición isotópica de todos los elementos. Todos los

Gentileza de Manuel Mayo

126

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

elementos, sin excepción, representan una mezcla de isótopos. Entre aquéllos se dan tales como hidrógeno u oxígeno que constan, principalmente, de un isótopo (el hidrógeno con el número de masa igual a 1 constituye un 99,986%; el oxígeno con el número de masa 10, un 99,76%). Pero existen también elementos con otra relación de los isótopos. A éstos pertenecen, por ejemplo, el cloro (el 75%, el isótopo con el número de masa 35, y el 25%, el isótopo con el número de masa 37). También hay elementos que se componen de un gran número de isótopos, hemos citado ejemplos de isótopos estables. Más adelante hablaremos sobre las variedades radiactivas (inestables, susceptibles de desintegrarse) de un mismo elemento. Muy pronto, la calidad del instrumento se elevó hasta tal punto que se logró establecer: las masas de los isótopos se expresan por números enteros solamente hasta el segundo-cuarto signo decimal. Las causas de esta desviación se expondrán después. Por cuanto la masa de los núcleos no influye en el comportamiento químico, queda claro que existen muchos compuestos químicos que se diferencian por su composición isotópica. Se dice que hay dos variedades de agua: agua común y agua pesada, en el agua común está presente el isótopo de hidrógeno con el número de masa 1, y en el agua pesada, el llamado deuterio, o sea, el isótopo de hidrógeno con el número de masa 2. Sin embargo, en la naturaleza se encuentran tres isótopos de oxígeno, con los números de masa 16, 17 y 18, por consiguiente, el agua es una mezcla de moléculas de seis tipos diferentes. Si las moléculas de la sustancia constan de un gran número de átomos, entonces, el número de variedades isotópicas puedo medirse por decenas y centenas. La separación de los isótopos es una rama importante de la industria. Esta tiene un valor especialmente grande para una serie de procesos que acompañan la obtención de energía atómica. Es necesario tener la posibilidad de separar el agua pesada de la ligera, distribuir por diferentes receptores los átomos de distintas clases del combustible nuclear: del uranio y del torio. Se podría continuar la lista de semejantes tareas que la industria plantea ante los físicos. La complejidad consiste en que por su estructura electrónica y, en consecuencia, también por sus propiedades químicas, los átomos se diferencian en un grado

Gentileza de Manuel Mayo

127

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

extremadamente insignificante. Para los átomos ligeros, con enorme dificultad, aplicando la extracción química multi-etápica se logra llevar a cabo tal separación. Y para los átomos pesados se consideraba que era posible aplicar tan sólo los métodos físicos que utilizan las pequeñas diferencias en la masa de un progreso los núcleos atómicos.

Figura 5.2 Hasta el día de hoy el método que goza de mayor extensión es el de difusión de los gases. Las moléculas que contienen isótopos de masas distintas se diferenciarán ligeramente por la velocidad de paso a través de una barrera porosa. Las moléculas ligeras salvan el obstáculo con mayor rapidez que las pesadas. Se sobreentiende que también se puede recurrir a la separación basada en el principio del espectrógrafo de masas que acabamos de describir. No obstante, estos dos métodos requieren mucho tiempo y su aplicación cuesta muy caro. Tan sólo unos años atrás se ha demostrado que la separación de los isótopos puede realizarse por un procedimiento nuevo de principio, utilizando los láseres. El

Gentileza de Manuel Mayo

128

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

carácter idóneo del láser para este fin, está relacionado con el hecho de que con su ayuda puede generarse un rayo de monocromaticidad excepcionalmente alta. Por supuesto, la diferencia de las distancias entre los niveles de energía ocupados por los electrones de dos variedades isotópicas de un mismo elemento es sumamente insignificante. Es que dicha diferencia viene condicionada únicamente por la masa del núcleo, puesto que las cargas de los núcleos de dos isótopos son iguales. Y son precisamente las cargas las que determinan, en lo fundamental, la disposición de los niveles electrónicos. El rayo de láser es tan estrictamente monocromático que es capaz de poner en estado de excitación los isótopos de una variedad, dejando en estado no excitado los átomos de otra variedad. En la figura 5.2 vienen representadas dos operaciones de separación de los isótopos empleando el láser. El gas de átomos o moléculas sale del orificio del horno. El rayo de láser excita los átomos de una variedad isotópica. Por regla general, los átomos excitados poseerán un momento eléctrico o magnético. Por esta razón, el campo magnético o eléctrico no homogéneo los desviará hacia cierto lado (el esquema superior). El segundo procedimiento se utiliza en el caso de que los átomos excitados se desexcitan rápidamente. En esto caso, al pasar por el espacio dominado por el rayo de láser, el mismo átomo se excita por segunda vez, es decir experimenta varias colisiones inelásticas con los fotones. Cada absorción del fotón lleva a que el átomo adquiere un impulso dirigido hacia el lado de acción del rayo de láser. Los átomos capaces de excitarse, simplemente se empujan hacia arriba, mientras que los átomos de la variedad que no absorbe fotones se propagan sin desviarse. El primer experimento de este tipo coronado con éxito fue efectuado con un haz de átomos del bario que se irradiaban con la luz de láser cuya longitud de onda era de 0,55535 μm. La absorción de un fotón desplazaba el átomo en 0,8 cm durante 1 s, siendo la velocidad longitudinal de 50 000 cm/s. Radiactividad En el libro 3 se ha relatado brevemente de qué modo Rutherford había establecido que el átomo consta de un minúsculo núcleo y de electrones que se mueven

Gentileza de Manuel Mayo

129

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

alrededor de éste. Ahora tenemos que abrir ante el lector una de las más importantes páginas de la física, aquella en la que vienen anotados los hechos acerca de la estructura del núcleo atómico de protones y neutrones. Por muy extraño que parezca, la historia de este descubrimiento comienza quince años antes de que Rutherford, con sus experimentos sobre la dispersión de las partículas alfa (α) por medio de hoja fina, demostrara la validez del modelo nuclear del átomo. En primavera de 1896, el físico francés Enrique Becquerel (1852-1908) descubrió que el uranio emite rayos cuya acción se asemeja a la de los rayos X. De la misma manera que los rayos X de Roentgen descubiertos unos meses antes, los rayos de uranio velan las placas fotográficas y pasan a través de objetos no transparentes. Su absorción es proporcional a la densidad del objeto interpuesto entro el uranio y la placa fotográfica. Si el cuerpo es no transparente a estos rayos, en la placa se perfilan los contornos nítidos del objeto. Los rayos de uranio, lo señalamos otra vez, al igual que los rayos X son capaces de ionizar el aire, y por esta ionización se puede muy bien valorar su intensidad. En los descubrimientos de Becquerel y de Roentgen hay un parecido, es el elemento de casualidad. Sin embargo, la casualidad por sí sola nunca interviene, origen de un importante descubrimiento científico. Al igual que después del descubrimiento de Roentgen había personas quienes, con antelación de varios años, «habían visto» los rayos X, de la misma manera, después del descubrimiento de Becquerel se esclareció que por lo menos tres personas habían observado el ennegrecimiento de la placa fotográfica que se encontraba cerca de las sales de uranio. Pero, ¡no basta con «ver»! Es necesario fijarse y poner en claro la verdadera causa del fenómeno, Roentgen y Becquerel lo hicieron, y no sus precursores. Esta es la razón de que ellos, precisamente, se granjearon el honor y la fama. El camino hacia el descubrimiento de Becquerel pasó por las siguientes etapas. Como hemos relatado ya, los rayos Roentgen en los primeros tubos incidían sobre el vidrio. Por acción de los rayos catódicos el vidrio se ponía fluorescente. Debido a ello, lógicamente surgía la idea de que los rayos penetrantes acompañan la fluorescencia. Becquerel inició sus trabajos efectuando, precisamente, experimentos con sustancias que se ponen fluorescentes por impacto de la luz solar. Bastante pronto el científico averiguó que los rayos penetrantes tienen su origen en

Gentileza de Manuel Mayo

130

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

diferentes minerales que contienen uranio. Esto de por sí ya era un descubrimiento. Sin embargo, Becquerel no tenía prisa de anunciarlo al mundo científico. Era necesario repetir los experimentos varias veces. Pero el sol, como a despecho, durante algunos días se empecinó en no aparecer en el cielo. Las placas fotográficas, junto con los minerales estudiados, en espera del cariñoso sol se encontraban en el cajón de la mesa de laboratorio. Por fin, el 1 de marzo de 1896 relució un día de sol. Podían comenzarse los experimentos. Pero antes de comenzar el trabajo Becquerel decidió comprobar la calidad de las placas. Se dirigió al cuarto oscuro, reveló una de las placas y vio en ésta siluetas nítidas de las muestras del mineral. Más no había fluorescencia alguna. Por consiguiente, no en ésta reside el quid de la cuestión. Becquerel repite los experimentos «a oscuras», cerciorándose de que sus minerales dan origen a una radiación penetrante que se crea «por sí misma», sin asistencia alguna de la luz externa. El minucioso examen de numerosas muestras llevó a Becquerel a la idea de que el manantial de los rayos es el uranio. Si el mineral no contiene uranio, tampoco aparece la radiación penetrante. Para que la demostración fuese completa era necesario investigar uranio puro. Y este elemento constituía una gran rareza. Becquerel consiguió uranio de su amigo químico Moissan. En la misma reunión de la Academia de Ciencias francesa, Moissan informó sobre su método de obtención de uranio puro y Becquerel comunicó que el uranio emite rayos. Estos informes fueron hechos el 23 de noviembre de 1869. Tan sólo cincuenta años separan este descubrimiento de la bomba atómica lanzada sobre Hiroshima. Transcurrió un año. En otoño de 1897 comienzan sus experimentos dos jóvenes físicos, los esposos Curie. Los jóvenes entusiastas trabajan en un frío cobertizo. María Curie (1807-1934) eligió como tema de su tesis la investigación de las particularidades químicas de las muestras que dan la radiación penetrante de Becquerel. El intenso trabajo conduce a un descubrimiento tras otro. En primer término, se esclarece que además del uranio también el torio emite rayos penetrantes. La intensidad de los rayos se mide por la intensidad de la corriente de ionización. Curie corrobora la conjetura de Becquerel de que la intensidad de los rayos penetrantes

Gentileza de Manuel Mayo

131

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

no depende del hecho de en la composición de cuáles compuestos químicos entran el uranio y el torio, sino es estrictamente proporcional al número de sus átomos. Y, de repente, un tiro fallado: la pechblenda, la mena de uranio con que trabajaban, da una ionización cuatro veces mayor de lo que le convendría de acuerdo con su contenido de uranio. Precisamente en los momentos de encontrarse en tales puntos cruciales se revela el talento del investigador. Una persona sin talento no se hubiera renunciado a sospechar que la culpa de todo la tenían los átomos de uranio.

María Sklodowska Curie (1807-1934), destacada mujer de ciencia. En 1898, al investigar la radiación (cuya naturaleza en aquel entonces se ignoraba) del uranio y del torio, puso de manifiesto que en las menas de estos elementos se contienen sustancias cuya capacidad de radiación es mucho más fuerte. Separó el polonio y el radio. Madame Curie junto con su esposo Pierre Curie introdujeron en uso el término “radiactividad”. Los descubrimientos de María Sklodowska-Curie en el acto, Gentileza de Manuel Mayo

132

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

fueron mantenidos por Rutherford llevando al establecimiento de las leyes de la desintegración radiactiva de los átomos. Más María Curie se da cuenta de que este fenómeno puede tener otra explicación. Puede suceder que la pechblenda contiene, en una cantidad pequeña, algún elemento químico hasta entonces desconocido que acusa la propiedad de producir una radiación penetrante intensísima. La conjetura resultó ser justa. La gigantesca labor de María Curie, que, sin hiperbolizar, puede llamarse heroica, conduce a que, al principio, ella separa el elemento polonio (este nombre no es casual, y es que Maria Curie, nacida Sklodowska, es de nacionalidad polaca) y, seguidamente, el radio (de «radiante»). El radio manifestó ser casi mil veces más activo que el uranio puro. Sin embargo, prosigamos nuestra conversación en un ritmo más acelerado, sin tocar la sucesión histórica de los acontecimientos. Después del descubrimiento del radio se hallaron también otras sustancias manantiales de rayos penetrantes. Todas éstas recibieron el nombre de sustancias radiactivas. ¿Qué es, en fin de cuentas, la radiación radiactiva? El preparado radiactivo se colocaba en una caja de la que, bombeándolo, se eliminó el aire. Tras el preparado se situaba un obturador con ranura. El rayo pasaba a través de la ranura, incidía en una placa fotográfica y dejaba en ésta una huella. Pero, apenas la caja fue puesta entre los polos de un imán, en la placa revelada se detectaron tres trazas. El rayo radiactivo se separó en tres componentes. Una se desvió hacia el lado a que debía doblar el flujo de

partículas cargadas

negativamente, la segunda componente no era sino un flujo de partículas positivas y la tercera componente no se desviaba. Por lo visto, era pariente del rayo X. Empleando los métodos que ya hemos discutido se logró demostrar que, en el caso general, la radiación radiactiva se compone del flujo de electrones (antes de haber averiguado que se trata de electrones, estos rayos llevaban el nombre de rayos beta), del flujo de núcleos de los átomos de helio (partículas alfa) y de una radiación electromagnética dura (rayos gamma).

Gentileza de Manuel Mayo

133

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Desintegración radiactiva ¿Ocurren algunos acontecimientos con los átomos fuentes de radiación radiactiva? Sí, ocurren. Y estos acontecimientos son absolutamente sorprendentes. En 1902, el mismo Rutherford (sobre cuyo descubrimiento de la estructura del átomo en 1911 hemos relatado ya hace mucho, despreciando la sucesión histórica de los acontecimientos) demuestra que a resultas de la radiación radiactiva tiene lugar la transformación de una clase de átomos en otra. Rutherford presumía que los químicos recibirían a bayoneta calada su hipótesis aunque ésta se basaba en rigurosas pruebas experimentales. Electivamente, al demostrar que existen las transmutaciones de los átomos, atentamos contra el sanctasanctórum: contra la indivisibilidad del átomo. Y al afirmar que podemos obtener plomo a partir del uranio realizamos el sueño de los alquimistas cuya «fama» no era, en modo alguno, más honorífica que la de los astrólogos. Sin embargo, muy pronto, los adversarios retrocedieron bajo el peso de las pruebas y. pasado cierto tiempo, el fenómeno de la desintegración radiactiva natural de algunos átomos fue demostrado de una manera incuestionable tanto por los métodos

químicos,

como

por

los

físicos.

¿En

qué

consiste,

entonces,

la

transformación radiactiva? En primer lugar, resultó que los rayos electrónicos que entran en la composición de la radiación radiactiva salen del núcleo. Ahora bien, si es así, la carga del núcleo aumenta en una unidad, y el átomo radiactivo se transforma en átomo subsiguiente, según el orden de la tabla de Mendeleiev. La partícula alfa es portadora de doble carga positiva y tiene una masa que supera cuatro veces la del átomo de hidrógeno. Si el núcleo expulsa semejantes partículas, debe tener lugar el «desplazamiento» del átomo a la izquierda según el orden de los elementos en la tabla de Mendeleiev con la correspondiente transformación de isótopos. Será completamente trivial (a semejanza de «el hierro se extrae de las menas de hierro») la afirmación de que están sujetos a la desintegración radiactiva los átomos inestables. Ignoramos si habían existido muchas clases de tales átomos cuando el globo terráqueo comenzó a enfriarse. Pero sabemos de modo perfecto qué átomos

Gentileza de Manuel Mayo

134

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

inestables pueden hallarse en la naturaleza actualmente. Resulta que son miembros de tres clanes. Los progenitores son el átomo de uranio con el número de masa 238, el átomo de uranio con el número de masa 235 y el átomo de torio con el número de masa 232. En la fig. 5.3 se ilustra la primera familia. La primera transmutación consiste en lo transición de

238

Ua

234

Th que se produce debido a la expulsión de partículas alfa.

Figura 5.3 Le siguen dos transmutaciones beta que transforman torio en protactinio y protactinio otra vez en uranio, pero ya en isótopo con el número de masa 234. A continuación tenemos cinco transmutaciones consecutivas alfa que nos hacen descender hasta el isótopo inestable de plomo con el número de masa 214. Dos «zigzagueos» más y el proceso de desintegración se consuma: el isótopo de plomo con el número de masa 200 es establo. La destrucción de cada átomo aislado es Gentileza de Manuel Mayo

135

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

accidental. Existen átomos «felices» que poseen gran longevidad, pero también se dan otros que viven pocos instantes. Pero cualquiera que sea el caso, es imposible prever cuándo tendrá lugar la transformación del átomo dado. ¿Acaso podemos adivinar el día de «defunción» de nuestro gato casero? Sin embargo, cada especie de animales tiene su plazo medio de vida. De la misma forma, cada especie de átomos tiene su tiempo medio de existencia sumamente estricto. Por lo demás, el comportamiento de los átomos difiere sustancialmente del modo de vida de los animales. La vida de los átomos inestables, a diferencia del plazo medio de vida de los seres animados no depende de ninguna condición exterior. No hay nada que sea capaz de variar el tiempo medio de desintegración. Por cada unidad de tiempo se fisiona siempre la misma parte de los átomos:

Esta fórmula es idónea tan sólo para el caso de que el quebrado ΔN/N no es grande. La magnitud λ es constante para cada transición radiactiva. En vez de utilizar esta constante, es más patente caracterizar la velocidad del proceso por el «tiempo de semi desintegración», es decir, por el tiempo que se necesita para que la mitad de cierta cantidad de sustancia radiactiva se someta a transformación. Para distintos elementos radiactivos este tiempo puede oscilar entre enormes límites. Por ejemplo, el período de semi desintegración del progenitor de la familia del

238

U que hemos

examinado constituye 4,5 mil millones de años. Por el contrario, la mitad de los átomos del isótopo de plomo con el número de masa de 214 se desintegra en una millonésima de segundo. Reacciones nucleares y el descubrimiento del neutrón La transformación radiactiva es completamente análoga a la reacción química de descomposición. Había una sustancia química que más tarde, por acción del calor o de la luz, se desintegró en otras dos. Por ejemplo, el ácido carbónico se descompuso en agua y dióxido de carbono, de la misma manera, en el cuadro de

Gentileza de Manuel Mayo

136

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

fisión que acabamos de examinar el núcleo del torio con el número de masa 230 se desintegra en el núcleo de radio y en el de helio. Por cuanto es posible la desintegración radiactiva, también, por lo visto, deben existir las reacciones nucleares que se desarrollan siguiendo el principio A + B —> C + D Para conseguir que transcurra dicha reacción química conviene hacer chocar las moléculas de las sustancias A y B. Y para realizar una reacción nuclear es necesario hacer chocar dos núcleos atómicos. Experimentos de esta índole, precisamente, comenzó a efectuar Rutherford desde 1919. Antes de haber aparecido en la escena los aceleradores de partículas. Las reacciones nucleares se llevaban a cabo bombardeando cierta sustancia con partículas alfa. Después de que se consiguió obtener flujos potentes de protones y de otros núcleos se descubrieron nuevas reacciones nucleares. Quedó claro que, de principio, se puede transformar un isótopo de todo elemento químico en otro. También es posible obtener oro a partir de otras sustancias. El sueño de los alquimistas se convirtió en realidad. La primera reacción nuclear descubierta del tipo A + B —> C + D fue la transformación del nitrógeno y helio en oxígeno e hidrógeno. He aquí cómo se anota semejante reacción:

Presten atención a que las sumas de las cifras superiores, así como las de las inferiores quedan invariables. Las cifras inferiores indican la carga del núcleo, y las superiores, la masa redondeada hasta un número entero, es decir, los números de masa, de este modo, actúa rigurosamente la ley de conservación de la carga eléctrica. En cuanto a la ley de conservación de la masa, ésta, como veremos a continuación, se realiza tan sólo aproximadamente. Ahora bien, la suma de los números de masa se conserva con el mismo rigor que la carga.

Gentileza de Manuel Mayo

137

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Aún en 1920 Rutherford sugirió que debía existir una partícula exenta de carga eléctrica y próxima por su masa al protón. A Rutherford le parecía que de otro modo sería difícil comprender cómo la partícula alfa cargada positivamente penetraba en el núcleo también cargado positivamente, pues las partículas de carga homónima se repelen. La partícula sin carga que recibió el nombre de neutrón fue descubierta en 1932. No es difícil comprender por qué su descubrimiento se «demoró». Es que nosotros divisamos las partículas cargadas por las huellas (estelas) que dejan en el gas o en la emulsión fotográfica debido a su capacidad de ionizar las moléculas que encuentran en su camino.

Ernesto Rutherford (1871-1937) ilustre físico y gran experimentador inglés. Por medio de finos y originales experimentos demostró en qué consiste la desintegración radiactiva. Con sus experimentos clásicos referentes a la dispersión Gentileza de Manuel Mayo

138

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

por la sustancia del flujo de partículas alfa fundamentó la teoría moderna de la estructura del átomo como sistema constituido por el núcleo y los electrones que se mueven alrededor de estos. Continuando sus experimentos en que bombardeaba con los núcleos diferentes blancos, fue el primero en realizar la transmutación artificial de los elementos Pero una partícula eléctricamente neutra no interacciona con los electrones por cuya razón no deja huellas en su recorrido. De este modo, sólo se puede juzgar sobre la existencia de los neutrones por los efectos secundarios. El neutrón fue descubierto al bombardear el berilio con partículas alfa. Esta reacción se escribe así:

El símbolo n pertenece al neutrón. ¿Pero cómo se puede creer en la existencia de una partícula que, por si misma, no deja huellas? Basándose en sus efectos. Figúrense que en el paño verde de la mesa de billar se halla una bola de billar invisible para el ojo. Por la mesa rueda una bola bien vista la cual, de pronto, «sin más ni más», rebota a un lado. El físico no puede admitir que las leyes de conservación de la energía y del impulso le juegan una mala pasada. Por consiguiente, llega a la conclusión de que la bola visible chocó contra otra, invisible. Más aún, valiéndose de las leyes de conservación, puede determinar todas las características de la bola invisible, averiguando a qué ángulo se desvió la bola visible respecto a la línea de su vuelo y cómo varió su velocidad. El número de neutrones se determina de la siguiente forma. En el camino del haz de neutrones se coloca una sustancia que contiene átomos de boro. Al encontrarse con el núcleo de este elemento, el neutrón deja de existir. Se desarrolla la siguiente reacción:

Gentileza de Manuel Mayo

139

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

El neutrón desapareció, en cambio, hizo su aparición la partícula alfa. Al registrar estas partículas cargadas que dejan una huella visible en los receptores de distinta clase, podremos medir con precisión la intensidad del haz de neutrones. Existe una multitud de otros procedimientos que permiten determinar de un modo plenamente fidedigno todos los parámetros que caracterizan el neutrón y, en general, una partícula eléctricamente neutra. El conjunto de pruebas indirectas que se ajustan perfectamente es, a veces, no menos convincente que el examen atento de huellas visibles. Propiedades de los núcleos atómicos Antes del descubrimiento del neutrón los físicos suponían que el núcleo atómico está constituido

por

electrones

y

protones.

Esta

hipótesis

implicaba

muchas

contradicciones, de modo que se frustraban los intentos de crear la teoría de la estructura del núcleo. Apenas se hubo encontrado el neutrón surgido durante las colisiones nucleares, inmediatamente apareció la idea de que el núcleo atómico estaba constituido por neutrones y protones. Por primera vez esta hipótesis fue enunciada por el físico soviético D. D. Ivanenco. Desde el mismo principio quedó claro que la masa del neutrón, si bien no es igual a la del protón, por lo menos es próxima a ésta. Debido a ello, inmediatamente surgió la interpretación precisa de las diferencias entre los isótopos de un mismo elemento. Como vernos, a cada isótopo se puede asignar dos números. Uno de éstos es el número atómico Z en la tabla de Mendeleiev que es igual a la cantidad de protones en el núcleo. Por esta causa, el número atómico determina el número de electrones ligados con el núcleo. Y, siendo así, resulta claro que es precisamente el número atómico el que debe responder por el comportamiento químico de los elementos (ya que las reacciones químicas no afectan los núcleos). En lo que se refiere al número de masa este es igual al número total de neutrones y protones, de esto modo, los isótopos de un mismo elemento se diferencian entre sí por el número de neutrones en el núcleo. Por medio de experimentos muy precisos se hallaron las características de ambas partículas que forman el núcleo. La masa del protón es igual a 1,6726 x 10-24 g, o

Gentileza de Manuel Mayo

140

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

sea, ésta es 1836 veces mayor que la masa del electrón. El espín del protón es igual a 1/2, y el momento magnético es de 1,41 x 10-23 unidades CGS. La masa del neutrón supera insignificantemente la del protón, a saber, es igual a 1, 6749 x 10-24 g. El espín del neutrón es de 1/2. El momento magnético del neutrón es antiparalelo al espín y vale 0,966 x 10-23 unidades CGS. Los espines y los momentos magnéticos de los núcleos atómicos se investigan por diferentes métodos: se aplican la espectroscopia óptica, la radioespectroscopía, el estudio de la desviación de los haces de partículas en el campo magnético no homogéneo. Nos hemos detenido en los principios generales de estas mediciones en el libro 3 y en los capítulos anteriores del presente libro. Por el momento, nos limitaremos tan sólo con la exposición de los datos principales obtenidos en los últimos decenios por la gran cohorte de los físicos. En primer lugar, hay que subrayar que las leyes de la física cuántica referentes al momento de impulso son válidas para todas las partículas. Por esta razón, también para los núcleos atómicos del momento de impulso puede representarse por la fórmula

Aquí, la magnitud h es la constante de Planck con la que se debe topar en todas las fórmulas de la física cuántica. Habitualmente, no es esta expresión la que se denomina espín, sino el parámetro S. La teoría demuestra rigurosamente y el experimento confirma a la perfección que el espín de cualquier partícula puede ser igual tan sólo a 0, 1/2, 1, 3/2, etc. Examinando las tablas de valores de los espines de distintos núcleos atómicos (obtenidos en diferentes experimentos) podremos ver una serie de regularidades interesantes. En primer término, los núcleos que contienen un número par de protones y, también, un número par de neutrones tienen el espín del núcleo igual a cero (4He,

12

C,

18

O). En general, al número de nucleones (es decir, partículas

nucleares) que es múltiplo de cuatro le pertenece, por lo visto, un papel grande. En muchos casos (pero no en todos, ni mucho menos) el espín del núcleo atómico

Gentileza de Manuel Mayo

141

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

puede obtenerse de la siguiente manera: del número de masa 1 sustraemos el múltiplo de cuatro más próximo a dicho número y multiplicamos el otro que queda por 1/2. Por ejemplo, el espín del litio-6 es igual a 2 x 1/2 -1; el del litio-7, 3/2; el del boro-10, 1, y el del boro-11, 3/2, Resulta ser una regla la circunstancia bastante evidente: los núcleos con el número de masa A par tienen el espín entero o igual a cero, y el espín de los núcleos con A impar es múltiplo de 1/2. El principio de exclusión de Pauli es aplicable a los protones y neutrones del núcleo. Dos partículas idénticas pueden disponerse en un nivel de energía tan sólo a condición de espines anti paralelos. Puesto que el protón y el neutrón son partículas diferentes, en un nivel pueden existir dos protones y dos neutrones. En este nutrido grupo con el espín igual a cero reconocemos el núcleo del átomo de helio (partícula alfa). La existencia del espín significa la existencia del momento magnético. Entre el impulso mecánico L y el momento magnético M existe, como sabemos, una proporcionalidad directa. Al mismo tiempo, el momento magnético puede ser ya sea paralelo, o bien, anti paralelo al espín. Bosones y fermiones Hemos recalcado reiteradas veces que un nivel de energía lo pueden ocupar únicamente dos partículas con espines orientados en direcciones opuestas. Llegó el momento de señalar que este principio (principio de exclusión de Pauli) es válido sólo para una clase de partículas que recibió el nombre de fermiones. Pertenecen a los fermiones los electrones, los protones y los neutrones. También conviene decir que todo sistema conexo compuesto de un número impar de fermiones también es fermión. La segunda variedad de partículas se denomina bosones. Entre éstos se incluyen el fotón, algunas partículas elementales de vida corta (tales como, por ejemplo, el pión) y, lo que es lo principal, todas las partículas que constan de un número par de fermiones. El número de bosones que encuentran en un nivel de energía no está limitado. Para que el lector asimile mejor la diferencia entre los bosones y los fermiones, insertamos la fig. 5.4. En esta figura cada círculo simboliza una pareja de partículas

Gentileza de Manuel Mayo

142

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

con espines opuestos. A temperaturas muy bajas los bosones, fundamentalmente, se acumulan en el nivel de energía más bajo. Los fermiones están dispuestos en la figura en forma de una columna.

Figura 5.4 Resulta bien evidente que las diferencias en el comportamiento de los fermiones y los bosones se manifiestan con mayor claridad a bajas temperaturas. Y a las temperaturas extremadamente bajas el número de bosones dispuestos en la «bodega» puede ser casi igual al total de estas partículas. Lo que hemos expuesto hasta el momento dado no es necesario «comprender» ¡basta con retenerlo en la memoria! Pues lo dicho es la verdad en última instancia. No obstante, siento pesar cada vez que me veo obligado a comunicar al lector, sin demostrarlas, algunas tesis que pueden demostrarse pero tan sólo de ecuaciones matemáticas que distan mucho de ser simples. De este modo resulta que los Gentileza de Manuel Mayo

143

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

bosones en algunos casos pueden, y en otros no, acumularse en un nivel de energía en grandes cantidades. Si pueden hacerlo, decimos que tuvo lugar la condensación de Bose— Einstein. Cuando va a parar a un nivel un número grande de partículas, entonces, en este caso, su movimiento llega a ser idealmente concordado. Las partículas-gemelas, sin hacer caso al caos térmico, se desplazan de una forma absolutamente idéntica. En el libro 2 hemos relatado sobre un admirable líquido que a baja temperatura posee superfluidez. Esto líquido es la acumulación de átomos de 4He. Los átomos de este isótopo son bosones. A la temperatura de 2,19 K tiene lugar la condensación de las partículas que imparte al líquido la admirable propiedad de superfluidez. La pérdida de rozamiento en rasgos generales puede explicarse de la siguiente forma: si solamente un átomo logra pasar a través de la finísima ranura, en pos de éste signen obedientes todos los demás. Hemos trabado conocimiento no con uno, sino con dos fenómenos en los cuales el flujo de partículas se mueve sin hacer caso a los obstáculos. El movimiento superfluido de los átomos de 4He recuerda la corriente eléctrica sin resistencia que se descubre en muchos metales y aleaciones también a bajas temperaturas. Pero, los electrones son fermiones. No pueden formar una fila única. La salida de la situación fue hallada en 1956 cuando los científicos norteamericanos promovieron una teoría de acuerdo con la cual por debajo de cierta temperatura los electrones pueden concatenarse en parejas. Como hemos dicho desde el mismo principio, una pareja de fermiones es un bosón. Por consiguiente, la superconductividad aparece en el momento en que tales bosones se condensan en un nivel de energía. En esencia, a estos dos admirables fenómenos: la superconductividad y la superfluidez, se da una misma explicación. Una partícula elige el camino que es «más trillado y fácil» y todas las demás la siguen. Si la idea de transformación de los fermiones en bosones a costa de la concatenación en parejas es justa, entonces surge mía pregunta lícita: ¿no puede el isótopo 3He que posee un espín y es un fermión también resultar superfluido, al igual que 4He? Desde el mismo principio era evidente que, incluso si dicho fenómeno existe, en todo caso, éste tiene lugar a temperaturas mucho más bajas que la de transición al

Gentileza de Manuel Mayo

144

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

estado superfluido del isótopo básico 4He. La causa está clara: el núcleo del átomo de 3He consta de dos protones y un neutrón. En consecuencia, pesa un 25% menos que su compañero, se sobreentiende que, por esta causa, el movimiento térmico de 3

He será más intenso, y la organización de un desfile armonioso de los bosones

llegará a ser posible a temperaturas más bajas. Pero, ¿a cuáles temperaturas, precisamente? Por desgracia, la teoría no acertó a vaticinar la temperatura de transición del 3He al estado de superfluidez. Se requirió una tenacidad fantástica y la superación de enormes dificultades antes de que, en 1974, se obtuviera el 3He superfluido. ¿A qué temperatura se produce esta transición? He aquí la respuesta He aquí la respuesta que merece que la impriman en letra gruesa: a una temperatura igual a 0,0027 K. Es posible que el lector diga: «Qué va, tan sólo dos grados menos que la temperatura de la transición análoga del

4

He». ¡Cuánto se equivoca! Estos dos

grados valen mucho más que, digamos, el enfriamiento en 2 grados desde la temperatura de 20 hasta la de 18 °C. En este suceso cotidiano la temperatura disminuyó 293/291 veces, y en el caso a que nos referimos la temperatura disminuyó mil veces. Este es un enorme éxito de la física experimental y triunfo de la teórica que presagió el apareado de los átomos de 3He en un par bosónico. Una imagen patente ayuda a recordar, con este objeto, en la fig. 5.5 inserta el esquema del par. Los momentos magnéticos de dos átomos están orientados en una dirección. De este modo, lo transición del 3He al estado de condensación de Bose— Einstein debe acompañarse por la variación a salto de la frecuencia de la resonancia magnética. La causa de ello reside en que el par se comporta como un todo

único.

Precisamente

esta

circunstancia

se

puso

de

manifiesto

en

el

experimento. Es, realmente, una página brillante de la física y sería injusto no contar sobre ésta al lector, a pesar de que falta la posibilidad de esclarecer en qué condiciones y en base de qué causas tiene lugar el apareado de los fermiones en un par bosónico. La masa y la energía del núcleo atómico Hemos mencionado de paso que el número de masa redondea el valor exacto de la masa del núcleo basta el número entero.

Gentileza de Manuel Mayo

145

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Hoy en día, se suele elegir la unidad de masa atómica (hablarnos sobre el particular en el libro I) como 1/12 parte de masa del isótopo de carbono

12

C.

Las masas relativas de los isótopos de todos los átomos se diferencian de los números enteros aunque insignificante, pero tan esencialmente que no se puede, de ningún modo, atribuir estas diferencias a los errores del experimento. La masa del 1

H es igual a 1,00807, y la masa del deuterio no es, en absoluto, dos veces mayor,

sino constituye 2,01463.

Figura 5.5 Al estudiar con atención las tablas de masas de los isótopos se puede llegar a la siguiente conclusión importante: la masa del núcleo es menor que la suma de masas de las partículas elementales que forman el núcleo. Por ejemplo, la masa del neutrón es de 1,00888, la masa del protón es de 1,008807; la masa de dos neutrones y dos protones es igual a 4,0339 (en unidades de masa atómica: 1 u.m.a.= 1,66 x 10-27 kg). Al mismo tiempo, la masa del núcleo del átomo de helio que consta de dos neutrones y dos protones no es igual a este número, sino es de 4,0038. De este modo, la masa del núcleo de helio es menor que la suma de masas de las partículas constituyentes del núcleo en la magnitud de 0,0301 u.m.a. que supera miles de veces la exactitud de las mediciones.

Gentileza de Manuel Mayo

146

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Indudablemente, estas pequeñas diferencias encierran un profundo sentido. ¿Pero qué sentido? La respuesta a esta pregunta la aportó la teoría de la relatividad. Y su aparición en las tablas en este momento fue, sin duda alguna, más impresionante que en la época en que el experimento había confirmado la dependencia de la masa del electrón respecto a la velocidad de su movimiento. El hecho de que la suma de masas de los protones y neutrones que constituyen el núcleo es menor que la masa del núcleo, fenómeno que recibió el nombre de defecto de masa (una mala traducción del inglés, ya que la masa no acusa una imperfección, sino disminuye) obtiene una interpretación precisa y clara a la luz de la célebre fórmula E = mc2 Cuando un sistema adquiere o pierdo la cantidad de energía ΔE, la masa de este sistema aumenta o disminuye, respectivamente en el valor Δm = ΔE / c2 El defecto de masa del núcleo (desde el punto de vista de este principio) obtiene una interpretación natural: es la medida de la energía de enlace (de ligadura) de las partículas nucleares. En química y física se entiende por energía de enlace el trabajo que se debe invertir para conseguir la completa destrucción de este enlace. Si se lograse dividir el núcleo en varias partes, la masa del sistema incrementaría en el valor del defecto de masa Δm. La destrucción del núcleo llevaría a la liberación de colosal energía. No es difícil calcular a grandes rasgos que la variación de la masa en una milésima parte de unidad de masa atómica, es decir, en 1,66 x 10-27 g equivale a 1 Mev, aproximadamente. Teniendo conocimiento de la masa atómica del núcleo, el lector, sin dificultad, descubrirá el siguiente hecho interesante. Si la energía que liga los protones y los neutrones en el núcleo se divide por el número de partículas, se obtiene el mismo

Gentileza de Manuel Mayo

147

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

resultado, a saber: 8 MeV, para todos los núcleos (salvo algunos, los más ligeros). De aquí, incuestionablemente, deriva una importante consecuencia: entran en acción recíproca tan sólo los más próximos protones y neutrones, o sea, las fuerzas nucleares actúan a distancias cortas. Se convierten en prácticamente iguales a cero si se aleja del protón o del neutrón a una distancia del orden del tamaño de estas partículas (es decir, a 10-13 cm). Es aleccionador comparar la magnitud 8 MeV con las energías de enlace químico de las moléculas. Dichas energías, habitualmente, son iguales a varios electronvoltios por átomo. Por consiguiente para desintegrar una molécula en átomos se requiere un consumo de energía varios millones de veces menor que para la fisión de un núcleo. Los ejemplos aducidos evidencian de modo claro que las fuerzas nucleares alcanzan enormes valores. También es evidente que las fuerzas nucleares representan una nueva clase de fuerzas, puesto que son capaces de concatenar partículas cargadas de electricidad homónima. Las fuerzas nucleares no pueden reducirse a las eléctricas. Las leyes a que se subordinan estas dos clases de fuerzas son sumamente distintas. Las fuerzas electromagnéticas disminuyen lentamente y los instrumentos registran los campos electromagnéticos a enormes distancias de las partículas cargadas. Por el contrario, las fuerzas nucleares se reducen con la distancia de una manera muy rápida. En realidad, fuera de los límites del núcleo cesan su acción. Otra importante diferencia consiste en que las fuerzas nucleares (aproximadamente como las fuerzas de valencia químicas) acusan la propiedad de saturación. Cada nucleón, o sea, el protón o el neutrón entra en interacción con un número limitado de vecinos más próximos. En cambio, para las fuerzas electromagnéticas no existe tal limitación. En

consecuencia,

¿existen

tres

géneros

de

fuerzas:

gravitacionales,

electromagnéticas y nucleares? Por ahora, no se puedo contestar con certidumbre a esta pregunta. Los físicos conocen también la cuarta clase de fuerzas que recibió el nombre poco acertado de «interacción débil». No hablaremos con el lector sobre ésta, tanto más que se abriga la esperanza de reducir esta interacción a las fuerzas electromagnéticas.

Gentileza de Manuel Mayo

148

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Energía de las reacciones nucleares Hemos dilucidado dos hechos importantes. En primer término, entre los núcleos atómicos pueden desarrollarse reacciones de acuerdo con los esquemas muy parecidos a aquellos que conocen los químicos; en segundo término, los núcleos originarios y las nuevas partículas surgidas siempre se diferenciarán algo por la masa (ya que se conserva la suma de números de masa, y no la suma de masas de los moleos antes y después de la reacción). Además, hemos visto que las más insignificantes diferencias en las masas se acompañarán de liberación o absorción de enormes cantidades de energía. Las energías que se liberan o se absorben para las transformaciones nucleares no tienen punto de comparación alguno con el calor de las reacciones químicas. Con el fin de hacer una confrontación patente insertemos los siguientes ejemplos. Un gramo de carbón durante la combustión desprende una cantidad de calor suficiente para calentar hasta ebullición medio vaso de agua. Y he aquí qué cantidad de calor da la transformación nuclear: si se hubiera conseguido desintegrar por medio de partículas alfa todos los núcleos de un gramo de berilio, entonces, se desprendería una cantidad de calor suficiente para llevar a ebullición mil toneladas de agua. Todo ello conocían perfectamente Rutherford y sus colaboradores. No obstante, el científico consideraba absolutamente irrealizable la utilización de las reacciones nucleares para finas prácticos (en aquel período a ninguno de los físicos se le ocurrió la idea sobre, la posibilidad de las reacciones en cadena). Recalquemos que en su falta de previsión de la revolución a la que dio origen su descubrimiento, Rutherford se unió a Faraday y Hertz, de lo que ya hemos hecho mención en el libro 3 citándolo como un interesante enigma psicológico. Pero, por cuanto sabemos qué siguió tras los modestos experimentos de Rutherford, se sobreentiende que necesitamos poco espacio para recordar al lector cuál es la esencia del mecanismo de desprendimiento y absorción de energía durante las reacciones. Ante todo, quiero destacar no la diferencia, sino la semejanza de las reacciones químicas y nucleares. Las reacción es del tipo en que las partículas A y B se transforman en partículas C y D liberan o absorben calor en dependencia de si se formaron partículas rápidas a

Gentileza de Manuel Mayo

149

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

partir de las lentas, o bien, partículas lentas a partir de las rápidas. Así se desarrollan los acontecimientos en las reacciones químicas y, de manera idéntica, también en las reacciones nucleares. Prosigamos. Si de partículas lentas se formaron rápidas, esto significa que aumentó la energía cinética del sistema. Pero la ley de conservación de la energía admite semejante hecho sólo en el caso de que disminuyera la energía potencial del sistema. Es decir, en este caso la suma de energías internas de las partículas A y B es mayor que la suma de dichas energías de las partículas C y D. Así van las cosas en las reacciones químicas y precisamente así se comportan las energías internas de los núcleos. De acuerdo con la ley de Einstein en la disminución de la energía interna está ligada de una manera unívoca con la disminución de la masa. El incremento de la energía interna conduce al crecimiento de la masa. Esto es característico para las reacciones químicas y también para las reacciones nucleares. Pero en la química la ley de conservación de; la masa sí que se realiza. La suma de masas de las moléculas de A y B es igual a la suma de masas de las moléculas de C y D. En cambio, en las reacciones nucleares esta igualdad no se observa. De este modo, ¿se da una diferencia? No, de ningún modo. Se trata tan sólo de divergencias cuantitativas. Durante la transformación química las variaciones de energía y, por consiguiente, también de la masa, son tan insignificantes (insignificantes desde el punto de vista de la teoría relativista) que es imposible detectar en el experimento el cambio de las masas de las moléculas. Por lo tanto, la analogía entre ambos tipos de reacciones es de cien por cien. Debido al importante carácter de lo dicho (con mucha frecuencia piensan que el desprendimiento de la energía nuclear es cierto proceso especial, mas no conviene pensar de esto modo) voy a exponer un razonamiento análogo para el caso en que la partícula A se desintegra en partículas B y C. Si la partícula se divide en partes «por sí misma», se dice de la partícula A que ésta es inestable. Si A es una molécula, se dice de la sustancia que ésta se descompone; si A es un núcleo, la sustancia es radiactiva. En ambos casos tiene lugar el desprendimiento de calor. Las partículas B y C poseerán cierta energía cinética que antes «no había». Esta energía surgió de la energía potencial. Hablando metafóricamente, se rompió el muelle que unía las partículas B y C en un todo único, y, empleando el lenguaje científico,

Gentileza de Manuel Mayo

150

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

desapareció la energía de enlace. A costa de esta energía obtuvimos las partículas rápidas B y C, o sea, liberamos energía en forma de calor. En el caso de reacción química no se descubre diferencia entre la masa de la molécula A y la suma de masas de las moléculas B y C formadas de ésta debido a la pequeñez de la energía. Pero en el caso de reacciones nucleares esta diferencia con facilidad se pone de manifiesto en el experimento. Los núcleos B y C se diferenciarán por su masa del núcleo A en el valor del defecto de masa. El hecho de que cierta reacción produce calor no significa todavía, de por sí, que dicha reacción tendrá valor práctico. La condición de inestabilidad del sistema, el hecho de que la sustancia inicial se encuentra en un nivel de energía más alto que los productos de reacción es, como dicen los matemáticos, una condición necesaria pero no suficiente. En el libro 2 hemos discutido detalladamente qué requerimientos deben ser llenados para que una sustancia pudiera servir de combustible químico. Sólo nos queda continuar la analogía entre las reacciones químicas y nucleares. Así, pues, recordemos: no es suficiente que la reacción química produzca calor; es necesario que este calor «encienda» las moléculas vecinas. De aquí queda claro que los físicos, también después de aprender a hacer chocar entre sí los núcleos atómicos con liberación de enormes cantidades de energía, no se acercaron, ni en menor grado, a la creación del combustible atómico. En la transformación con partículas alfa tanto el berilio, como el litio no se comportan como combustible. Satisfacen el primer requisito planteado ante el combustible: producen energía. El litio y el berilio se comportan como pedacitos de carbón cada uno de los cuales debe encenderse por separado con un fósforo. Hasta el mismo final de los años de 1930 la creación del combustible nuclear parecía una tarea absolutamente desahuciante. Reacción nuclear en cadena Comenzando por el año 1934, los trabajos realizados en lo fundamental por el físico italiano Enrique Fermi (1901—1954) y sus discípulos demostraron que los núcleos de los átomos de la mayoría de los elementos eran capaces de absorber neutrones lentos y a resultas de esto proceso se convertían en radiactivos.

Gentileza de Manuel Mayo

151

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

En aquel tiempo eran conocidas las transmutaciones radiactivas que consistían en la emisión de electrones y partículas alfa (estas transmutaciones se acompañan de radiación gamma). Pero en 1938, una serie de investigadores (es interesante que el descubrimiento fundamental sobre el cual hablaremos ahora no tiene un autor único) revelaron que en el uranio activado con neutrones por el método de Fermi estaba presente un elemento parecido al lantano. Existía una sola explicación: por impacto de los neutrones el átomo de uranio se dividía en dos partes más o menos iguales. Inmediatamente se puso de manifiesto la extraordinaria importancia de este descubrimiento. Se trata de que para aquella época ya se conocía la siguiente ley: cuanto mayor es el número atómico, tanta mayor cantidad de neutrones contiene el núcleo. En el uranio, la relación del número de neutrones al de protones es igual a 1,6, aproximadamente. Y para los elementos tales como el lantano que se encuentran en la parte media de la tabla de Mendeleiev, esta relación oscila entre 1,2 y 1,4. Pero, si el núcleo del uranio se divide en dos mitades aproximadamente iguales, entonces, los núcleos de los productos de fisión, de un modo inevitable, contendrán un «exceso» de neutrones. Estos núcleos expulsarán neutrones. Y los neutrones, precisamente, hacen las veces de «fósforos». Se dilucida la posibilidad de una reacción en cadena. El primer cálculo de este fenómeno se remonta al año 1939. El curso dramático de los acontecimientos: la puesta en funcionamiento del primer reactor nuclear, la creación de la bomba atómica y su explosión en Hiroshima, se expone en todos los detalles en decenas de libros. Nos falta espacio para describir estos acontecimientos, de modo que hablaremos sobre el estado contemporáneo del problema. En primer lugar, tenemos que esclarecer en qué consiste la reacción nuclear en cadena: en segundo lugar, cómo hacerla controlada y, en tercer lugar, en qué caso ésta conduce a la explosión. En la fig. 5.6 se representa el esquema de una de las más importantes reacciones de este tipo: la de fisión del núcleo del uranio-235. No habrá problema con el primer neutrón, éste se encontrará en la atmósfera. Pero, en el caso de que se desee poner un «fósforo» más eficiente, se podrá valer de una cantidad despreciable de mezcla de radio y berilio.

Gentileza de Manuel Mayo

152

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Al ir a parar al núcleo del uranio-235 que consta de 92 protones y 143 neutrones empaquetados densamente en una esfera de radio de 10-12 cm, aproximadamente, el neutrón penetra en este núcleo formando el isótopo del uranio-236. El forastero deforma el núcleo.

Figura 5.6 Dentro de un intervalo de tiempo del orden de 10-14 s, dos mitades del núcleo sólo se mantienen unidas por un pequeño puente. Otro intervalo de tiempo igual de pequeño, y el núcleo se fisiona en dos partes. Al mismo tiempo, ambos fragmentos formados expulsan de su seno dos o tres neutrones (en promedio, 2,56 neutrones). Los fragmentos se separan volando conteniendo colosal energía cinética. Un gramo de uranio-235 da la misma cantidad de energía que 2,5 t de carbón, en otras palabras, 22 000 kWh. Al cabo de 10-12 s los núcleos formados después de la fisión se «tranquilizan» más o menos irradiando en este caso ocho fotones de rayos gamma.

Gentileza de Manuel Mayo

153

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Los núcleos engendrados son radiactivos. Según sean los fragmentos que se hayan formado el proceso ulterior de desintegración puede durar desde varios segundos hasta muchos años acompañándose de emisión de rayos gamma y expulsión de electrones.

Figura 5.7 La fig. 5.7 muestra que con mayor frecuencia el núcleo del uranio-235 se fisiona en dos fragmentos desiguales. Como se ve de la curva, el número máximo de fisiones corresponde a la formación de núcleos con números de masa 141 y 95. En todo caso, el surtido de fragmentos radiactivos que se forman es bastante grande. Pueden satisfacerse las más diversas demandas de la industria en elementos radiactivos artificiales. Si los neutrones formados en la fisión de un núcleo son capaces de desintegrar los núcleos de otros átomos de uranio, la reacción en cadena será realizable. Puesto que la sustancia es extraordinariamente «agujereada» respecto a su estructura nuclear, resulta en sumo grado considerable la probabilidad de que los

Gentileza de Manuel Mayo

154

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

neutrones formados durante la fisión de algún núcleo abandonen la sustancia sin dar lugar a la desintegración de otros núcleos. Además, es necesario tener en cuenta el hecho de que no todo encuentro de los núcleos con los neutrones conducirá a la fisión. La reacción en cadena se desarrollará en el caso de que en cada momento posterior el número de neutrones que se hallan en el interior del pedazo de la sustancia sea igual a mayor que en el momento de tiempo precedente. El físico formula esta condición de la siguiente forma: el coeficiente de multiplicación de los neutrones (factor de multiplicación neutrónica), que es igual al producto del número de neutrones por la probabilidad de los encuentros del neutrón con el núcleo y la probabilidad de captura del neutrón por el núcleo, no debe ser menor que la unidad. Esta es la razón de que el combustible atómico puro tiene masa crítica. Si esta masa es menor que la crítica, entonces se puede llevar tranquilamente (digamos mejor, más o menos tranquilamente) este trozo de combustible nuclear en el bolsillo. No le cargará mucho pues la masa crítica es próxima a un kilogramo. Se sobreentiende cuán importante es saber la magnitud de la masa crítica. El primer cálculo de esta magnitud lo dio en 1939 F. Perrin, hijo de Joan Perrin. Hoy en día, este cálculo reviste tan sólo interés histórico ya que en aquella época todavía se ignoraba que en el uranio natural la reacción en cadena es imposible cualquiera que sea la cantidad de éste que se tomaba. Pero se necesitó muy poco tiempo para que el cuadro se aclarase. La coacción en cadena en el uranio natural no se desarrolla debido a que los neutrones obtenidos durante la fisión de los núcleos del uranio-235 se absorben a costa de la captura «de resonancia» por los átomos de uranio-238, formándose uranio-239 el cual, como resultado de dos consecutivas

desintegraciones

beta,

se transforma

en

neptunio

y

plutonio.

Solamente el uranio-235 y plutonio poseen masa crítica. Precisa monte aquellas sustancias que poseen masa crítica intervienen como combustible nuclear. Tales eran los datos de que los físicos ya disponían a principios de los años 40. Si se crea una estructura en la cual, con sólo presionar el botón, se pueden unir dos pedazos de combustible nuclear, cada uno de los cuates tiene una masa menor que la crítica, pero cuya masa unida supera la crítica, se producirá la explosión. Sobre este principio sencillo se basa precisamente el funcionamiento de la bomba atómica.

Gentileza de Manuel Mayo

155

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

¿Y cómo se debe proceder si se quiere controlar la marcha de la reacción? La respuesta es bastante evidente: hay que crear un sistema en que, además de los átomos del combustible, se encuentren también otros átomos que absorben neutrones y, por decirlo así, los ponen fuera del combate. Son completamente idóneas las barras de cadmio. Este elemento absorbe fuertemente los neutrones y, al crear una estructura constituida por barras de combustible nuclear y las de cadmio, se puede, introduciendo las barras y sacándolas del cuerpo del reactor nuclear (o de la pila atómica porque a este sistema le fue dado semejante nombre), dar inicio a la reacción nuclear en cadena haciendo el factor de multiplicación neutrónico un poco mayor que la unidad y, seguidamente, después de llevar el desprendimiento del calor hasta el nivel deseado, introducir las barras de tal modo que el factor de multiplicación llegue a ser exactamente igual a la unidad.

Gentileza de Manuel Mayo

156

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 6 Energía alrededor de nosotros Contenido: 

Fuentes de energía



El combustible



Centrales eléctricas



Reactores nucleares



Energía termonuclear



Hayos solares



Energía eólica

Fuentes de energía En fin de cuentas, toda la energía de la que podemos disponer nos llega del Sol. En las profundidades de nuestro Astro, a temperaturas del orden de millones de kelvin se desarrollan reacciones entre los núcleos atómicos. Transcurre la síntesis termonuclear no controlarla. El hombre aprendió a realizar semejantes reacciones, que vienen acompañadas de liberación de cantidades fabulosas de energía, en condiciones terrestres. Se trata de la bomba de hidrógeno. Se llevan a cabo trabajos encaminados a crear la síntesis termonuclear controlada de la cual hablaremos más tarde. Estas frases introductorias nos sirven ahora para justificar el hecho de que precisamente después de la conversación sobre la estructura de los núcleos es natural pasar a la charla dedicada a las fuentes de energía en la Tierra. En las condiciones terrestres podemos obtener energía por tres vías. En primer término, podemos extraerla a costa de combustible: químico o nuclear. Con este fin es necesario provocar una reacción en cadena en cuyo curso se produce la reunificación o destrucción de moléculas o de núcleos atómicos. El combustible químico que, por ahora, tiene valor práctico incluye carbón, petróleo y gas natural. El combustible nuclear es uranio y torio (rotura de las partículas) y elementos ligeros, ante todo, hidrógeno (reunificación de las partículas).

Gentileza de Manuel Mayo

157

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

El segundo camino es la transformación de la energía cinética en trabajo. Pueden obligarse a realizar trabajo los torrentes de agua. La energía hidráulica —el «carbón blanco»— se convierte en importantísima fuente de energía si el agua se hace precipitar de una gran altura, construyendo presas o aprovechándose de cascadas naturales, como la catarata del Niágara. Este mismo camino de transformación de la energía en trabajo hace girar las aletas de los molinos de viento. Veremos que los flujos aéreos —el «carbón azul»— merecen que se les traten con toda seriedad. Los molinos de viento renacen en un nivel técnico nuevo y harán un aporte notable a la caja energética. A esta categoría de fuentes de energía pertenece también la utilización de la energía de las mareas. Las leyes de la termodinámica nos sugieren también la tercera solución del problema energético. De principio, siempre es posible crear un motor que utilice las diferencias de temperatura. Como sabemos, el flujo de calor, al pasar de un cuerpo caliente a otro frío, puede convertirse, parcialmente, en trabajo mecánico. Nos encontramos con las diferencias de temperatura tanto en la corteza terrestre y el Océano Mundial, como en la atmósfera. Al internarse en el seno de la Tierra, nos convenceremos de que en cualquier lugar del globo terráqueo se observa el aumento de la temperatura. Estas tres variantes posibles se originan (lo repetimos una vez más) debido a la llegada a nuestro planeta de la radiación solar. La Tierra recibo tan sólo una parte ínfima de la energía que portan los rayos del Sol. No obstante, hasta esta parte minúscula es colosal y resulta suficiente para que los terrícolas no sólo satisfagan sus necesidades cotidianas, sino también para que realicen los más fantásticos proyectos. Pero la energía solar puede emplearse también de una forma directa. Nos referimos a que hemos aprendido a transformar la energía de radiación en corriente eléctrica con la ayuda de células fotoeléctricas. Y la obtención de la corriente eléctrica es el camino más importante de utilización de energía para fines prácticos. Por supuesto, en muchas ocasiones tanto la energía interna de la sustancia, como la de los movimientos de los flujos hidráulicos y aéreos puede aprovecharse directamente, soslayando la etapa de transformación en corriente eléctrica. Pero, probablemente, en todos los casos, excepto el movimiento de los aviones y cohetes,

Gentileza de Manuel Mayo

158

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

sea racional obtener del manantial primario la energía eléctrica en las centrales eléctricas y sólo después de haberlo realizado hacer que ésta sirva a nuestros fines. La importancia de la energía eléctrica aumentará todavía más cuando sepamos confeccionar pequeños y ligeros acumuladores de gran capacidad que sustituirán los usados actualmente (pesados y de poca capacidad) en los automóviles. Antes de pasar a la discusión concreta de los diversos manantiales de energía, otra vez atraigamos la atención del lector a dos importantes clasificaciones de dichos manantiales. En primer término, una divisoria importante pasa entro el combustible y la energía del Sol, entre el carbón blanco y el azul. En el primer caso consumimos irrevocablemente las reservas de las riquezas de la Tierra. En lo que concierne al Sol, el aire y el agua, éstos son fuentes gratuitas de energía. Gratuitas en el sentido de que la utilización de su energía no implica la disminución de cualesquiera valores terrestres. El trabajo de los aeromotores no disminuye la cantidad de aire en el globo terráqueo, el trabajo de las centrales hidroeléctricas no reduce la profundidad de los ríos, tampoco se gastan las reservas de los materiales terrestres durante el trabajo de las máquinas solares. Existe también otro problema. Es preciso preocuparse por la protección de la flora y fauna que nos rodean: éste es el problema cuya importancia es imposible sobreestimar. La quema del combustible no sólo tiene el inconveniente de consumir los recursos de la Tierra, sino que, además, invade el suelo, el agua y el aire con una cantidad enorme de desechos nocivos. En este respecto, no es muy favorable la situación con las centrales hidroeléctricas. El cambio del régimen hidráulico de los ríos afecta el clima y lleva a consecuencias desastrosas para una parte considerable de la población de peces en nuestro planeta. Sin duda alguna, el método óptimo de obtención de energía es la utilización directa de la radiación solar. Después de estas palabras generales pasemos a la discusión más detallada de las posibilidades de aprovechar la energía en las condiciones terrestres, permitiendo al lector que se formo una idea sobre las cifras que figuran en los manuales de energética.

Gentileza de Manuel Mayo

159

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Empecemos por la característica de la energía solar. A las fronteras de la atmósfera, por cada metro cuadrado, llega energía con potencia media de cerca de 1,4 kW (si calculamos este valor respecto al período de 1 año, obtendremos cerca de 1010 J de energía): tal cantidad de calor la proporcionan centenas de kilogramos de carbón. ¿Cuánto calor, entonces, recibe del Sol todo el globo terráqueo? Después de calcular la superficie de la Tierra, teniendo en cuenta, además, que los rayos solares iluminan la superficie terrestre de una forma irregular, obtendremos cerca de 1014 kW. Es 100 mil veces más que la energía que obtienen a partir de todas las fuentes de ésta en la Tierra todas las fábricas, las plantas industriales, las centrales eléctricas, los motores de aviones y automóviles, resumiendo, 100 mil veces más que el potencial energético consumido por la totalidad de la población del globo terráqueo (del orden de mil millones de kilovatios). Hasta la fecha, la energía solar se emplea a escala completamente insignificante. Se razonaba del siguiente modo: es verdad que nuestro cálculo aportó una cifra gigantesca, pero esta cantidad de energía se distribuye por todos los puntos de la superficie terrestre, yendo a parar a las cuestas de montañas inaccesibles, a la superficie de los océanos que ocupan la mayor parte de nuestro globo y a las arenas de los despoblados desiertos. Además, la cantidad de energía que corresponde a una superficie limitada dista mucho de ser grande. Y dudamos que sea racional construir receptores de energía que se extiendan a kilómetros cuadrados. Finalmente, tiene sentido de dedicarse a la conversión de la energía solar en calor en aquellas localidades en que se dan muchos días de sol. El hambre energética y los enormes éxitos en la producción de células fotoeléctricas a base de semiconductores modificaron de modo radical la psicología de los energéticos.

Se

confeccionó

una

multitud

de

proyectos

e

instalaciones

experimentales con cuya ayuda los rayos solares se enfocan en miles (y, en el futuro, en millones y miles de millones) células fotoeléctricas. A los técnicos no les asustan los días nublados y la absorción de los rayos por la atmósfera. No hay duda de que a la utilización directa de la energía solar pertenece un gran futuro. Do la misma manera, exactamente, cambió nuestra actitud respecto al carbón azul. Nada más que unos veinte años atrás se decía; no cifraríamos grandes esperanzas en el viento como manantial de energía. Este manantial tiene el mismo

Gentileza de Manuel Mayo

160

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

inconveniente que la energía solar: la cantidad de energía que corresponde a una unidad de superficie es relativamente pequeña; los álabes de una turbina eólica, si ésta se va a crear para la producción de energía a escala industrial, deberían alcanzar dimensiones prácticamente irrealizables. Otro defecto, no menos esencial, es la inconstancia de la fuerza del viento. Por esta causa, sólo vale la pena emplear la energía del viento en motores pequeños: «aerogeneradores». Cuando hace viento, éstos producen energía eléctrica para alimentar máquinas agrícolas y alumbrar viviendas. Si se forma un exceso de energía ésta se «almacena» en los acumuladores, para poder utilizarlo después en los días de calma. Claro que no se puede contar con el aeromotor: éste sólo es capaz de desempeñar un papel secundario, auxiliar. Hoy en día, los razonamientos de los ingenieros que se dedican al problema de lucha contra el hambre energética resultan ser completamente otros. Están cercanos a la realización los proyectos de centrales eléctricas constituidas por miles de «molinos» dispuestos con regularidad, con aletas gigantes. La utilización del carbón azul también hará una aportación sustancial al libro de ingresos de energía necesaria para la humanidad. Un manantial gratuito de energía es el agua en movimiento, o sea, la marea de los océanos que ataca continuamente la tierra firme, así como los torrentes de aguas fluviales que corren hacia los mares y océanos. En la URSS, la producción de energía eléctrica en las centrales hidroeléctricas constituyó en 1969 115,2 mil millones de kWh, y en los Estados Unidos, 253,3 mil millones de kWh, pero en la Unión Soviética los recursos hidráulicos se utilizan sólo en 10,5%, y en los Estados Unidos, en 37%. Las cifras citadas de producción de energía eléctrica en las centrales hidroeléctricas son muy imponentes, sin embargo, en el caso de privarse nosotros de carbón, petróleo y de otras fuentes de energía pasando exclusivamente a la explotación del carbón blanco, es decir, a la energía de los ríos, tendríamos que disminuir el consumo de energía en el globo terráqueo, incluso a condición de que en todos los ríos hubieran sido construidas todas las centrales hidroeléctricas posibles desde el punto de vista técnico.

Gentileza de Manuel Mayo

161

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Bueno ¿y qué se puede decir con respecto a la ola de la marea? Su energía es bastante considerable, aunque resulta aproximadamente diez veces menor que la de los ríos. Lamentablemente, esta energía se utiliza por ahora tan sólo en un grado extremadamente insignificante, ya que lo dificulta el carácter pulsatorio de la marea. Sin embargo, los ingenieros soviéticos y franceses hallaron caminos prácticos para superar esta dificultad. Actualmente, una central mareomotriz asegura la entrega de una potencia garantizada en las horas de consumo máximo. En Francia se ha construido una central mareomotriz en el estuario del río Rance, y en la URSS, en Kíslaya Guba, en los alrededores de Múrmansk.

Figura 6.1. Esta última central servirá de planta piloto para la construcción de potentes (cerca de 10 GW) centrales mareomotrices que se proyectan en las rías del mar Blanco. El agua de los océanos, a grandes profundidades tiene una temperatura que se diferencia de la de las capas superficiales en 10—20 ºC. En consecuencia, se puede construir una máquina térmica de cuyo calentador, en las latitudes medias, serviría la capa superior del agua, y de refrigerador, la capa de profundidad. El rendimiento de esta máquina será de 1 ó 2%. Pero ésta también es una fuente muy poco concentrada de energía. Entre las fuentes gratuitas de energía se cuenta la geotérmica. No nos referiremos a los países ricos en geiseres. Estos países son pocos. Y allí donde los geiseres abundan su calor se utiliza con fines industriales. Sin embargo, no se debe olvidar que casi en cualquier punto del globo terráqueo, profundizándonos a 2 ó 3 km, Gentileza de Manuel Mayo

162

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

encontraremos temperaturas del orden de 150 a 200 ºC. El principio de creación de una central geotérmica es evidente. Hay que perforar dos cantiles. A uno de éstos se suministrará agua fría y del otro se bombeará agua caliente (fig. 6.1). El combustible Todas las fuentes de energía que describimos hasta el momento poseen grandes ventajas en comparación con el combustible. El combustible se quema. La utilización de la energía del carbón de piedra, del petróleo y de la madera significa la destrucción irrevocable de las riquezas de la Tierra. ¿Cuáles son las reservas de combustible en el globo terráqueo? Al combustible ordinario, es decir, a aquel que arde al acercarle fuego, pertenecen el carbón, el petróleo y el gas subterráneo. Sus reservas en nuestro planeta son muy pequeñas. Con el nivel actual de consumo de petróleo sus reservas comprobadas se acabarán ya para el comienzo del siguiente milenio; lo mismo se refiere al gas. Las reservas de carbón de piedra son algo mayores. La cantidad de carbón en la Tierra se expresa con el número de diez billones de toneladas. Un kilogramo de carbón, durante su combustión, da varios miles de kilocalorías. (Se sobreentiende que el combustible puede ser de la más diversa calidad. La cifra mencionada es una especie de unidad de medida, como se dice, unidad de combustible convencional que se aplica al comparar las fuentes de energía de distinto origen.) De este modo, las reservas energéticas totales de carbón se miden con una cifra del orden de 1026 Kcal. Es aproximadamente mil veces más que el consumo anual de energía. La reserva de combustible para mil años debe apreciarse como muy pequeño. Mil años son mucho tan sólo comparando con la duración de la vida humana, pero la vida humana no es sino un instante ínfimo en comparación con la vida del globo terráqueo y con el tiempo de existencia del mundo civilizado. Además, crece sin cesar el consumo de energía por cápita. Esta es la causa de que si las reservas de combustible se hubieran reducido a petróleo y carbón, la situación en la Tierra referida a los recursos energéticos debería considerarse catastrófica. Pero, ¿acaso es obligatorio reducir el combustible químico a aquellas sustancias que hallarnos en la naturaleza? Claro que no. En una serie de ocasiones puede resultar

Gentileza de Manuel Mayo

163

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

que el combustible sintético gaseoso y líquido sustituye, con ventaja, el petróleo y el gas. En los últimos años se presta especial atención a la producción industrial de hidrógeno. Como combustible el hidrógeno manifiesta muchos méritos. Puede obtenerse en cantidades ilimitadas mediante distintas vías. Existe en todas partes, de modo que no surge el problema de transportarlo. El hidrógeno se purifica fácilmente de impurezas indeseables. En una serie de casos resultará más ventajoso utilizar directamente el calor de combustión de este elemento. Se puede omitir la etapa de transformación en energía eléctrica. Actualmente, se estiman rentables tres procesos principales de obtención de hidrógeno: el método electrolítico, la descomposición termoquímica y, finalmente, la irradiación de compuestos hidrogenados con neutrones, rayos ultravioleta, etc. También resulta ventajosa desde el punto de vista económico la obtención de hidrógeno a partir de carbón y de petróleo en reactores nucleares. En estos casos se puede prever el transporte del hidrógeno al lugar de consumo por tuberías, como esto se realiza ahora cuando se trata del gas subterráneo. Con esto demos por terminada nuestra breve revista de los combustibles químicos y hagamos la pregunta: ¿cómo van los asuntos con el combustible nuclear? ¿Cuáles son sus reservas en la Tierra? Es que se necesita tan pequeña cantidad de éste. Un kilogramo de combustible nuclear proporciona 2,5 millones de veces más energía que la misma cantidad de carbón. Los cálculos aproximados demuestran que las reservas de combustible nuclear potencial (de lo que vamos a exponer posteriormente el lector se enterará de por qué

empleamos

este

calificativo)

pueden

representarse

por

las

siguientes

cantidades: cerca de 2 millones de toneladas de uranio y 4 millones de toneladas de torio. Estas son las sustancias de las cuales, hoy día, sabemos extraer energía en los reactores nucleares por el método de fisión de los núcleos. ¿Es que a éstas se añadirán otras sustancias? ¿Quién sabe? Esto no puede considerarse exceptuado. El número de reacciones nucleares que dan energía es enorme. La cuestión reside únicamente en cómo conseguir que la reacción se desarrolle en cadena. Mientras tanto conversaremos sobre aquello que sabemos hacer en el momento presente. Como se infiere del capítulo anterior, existe una sola sustancia —que se

Gentileza de Manuel Mayo

164

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

encuentra en la naturaleza— que es combustible nuclear. Esta sustancia es el isótopo uranio-235. El uranio que se extrae de las minas contiene el 99.3 de uranio238 y tan sólo 0,7% de uranio 235. A primera vista puede parecer que la idea más simple es separar el isótopo que necesitamos y crear reactores compuestos de trozos o barras de esta sustancia, introduciendo en el volumen de reacción barras de control absorbedores de neutrones, para regular la reacción nuclear. Ante todo, se debe destacar que no es ventajoso absorber neutrones privándolos de la posibilidad de participar en la reacción en cadena si estamos preocupados por la potencia de la instalación, es decir, si aspiramos a obtener de una unidad de masa del combustible nuclear la máxima cantidad posible de energía en un segundo. En cambio, es sumamente útil retardar los neutrones hasta velocidades térmicas, o sea, conseguir que los neutrones «rápidos» que se forman durante la desintegración del núcleo se tornen «lentos»; repito, esto es sumamente útil para aumentar la eficiencia de trabajo de la pila, ya que los núcleos del uranio-235 absorben los neutrones lentos con mucha mayor probabilidad. Si hacemos caso omiso de estructuras experimentales que no lograron salir fuera de los laboratorios, podemos decir que se utilizaba como moderador (retardador) ya sea el agua pesada, o bien, agua ordinaria. El mérito del agua pesada radica en que, de un modo absoluto, no absorbe neutrones. Pero ésta retarda los neutrones mucho peor que el agua ordinaria. De esto modo, el más sencillo camino consiste, aparentemente, en la separación del isótopo uranio-235. Ya hemos mencionado que la realización de esta separación costará un enorme caudal. El quid de la mistión reside en que no valen los métodos químicos, pues se trata de sustancias idénticas por sus propiedades químicas. Actualmente se considera como más rentable el método de centrifugación. Antes de proceder a esta operación es necesario obtener algún compuesto gaseoso del uranio. El único compuesto de esto tipo que a temperatura ambiente se encuentra en estado gaseoso es el hexaflluoruro de uranio. La diferencia entre las masas de las moléculas del gas que contienen los isótopos uranio-288 y uranio 235 es tan insignificante que la mejor centrifugadora enriquece el gas de moléculas más ligeras tan sólo en 12%. Para obtener uranio que contiene 3% del isótopo uranio- 235

Gentileza de Manuel Mayo

165

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

(este combustible ya es cómodo utilizar en el reactor nuclear) es necesario repetir el proceso 13 veces. Está claro que la obtención del isótopo puro uranio-235 no se puede considerar como solución acertada del problema ingenieril. Pero existen también otras razones, tal vez más importantes. Sin uranio-235 es imposible convertir la masa principal del uranio, así como el torio en combustible nuclear. Esta es la razón por la cual los llamamos combustible potencial. En lo que se refiere al propio isótopo uranio-235, este combustible postergará el momento de llegada del hambre energética nada más que en varios cientos de años. Por consiguiente, si se supone que la humanidad debe durante muchos siglos utilizar el combustible nuclear es necesario buscar otros caminos. ¡El combustible nuclear puede producirse en el reactor! Primero, podemos producir en el reactor plutonio-239 que se obtiene del uranio-238, y, segundo, uranio-233 que se obtiene del torio-232. Pero no se puede dar comienzo al asunto sin uranio235. Los reactores que producen energía creando simultáneamente nuevo combustible se denominan superregeneradores (reactores breeder). Se puede llegar a una situación en que el reactor producirá más combustible nuevo que consume, o sea, como se dice, hacer que el coeficiente (relación) de regeneración sea mayor que la unidad. De este modo, ya estamos enterados de las vías técnicamente realizables de aprovechamiento de todas las reservas de uranio y torio. Por consiguiente, el combustible que sabemos utilizar nos bastará (valorando a escala más modesta) para muchos miles de años. Y, no obstante... La incorporación a los combustibles del uranio y del torio no resuelve el problema de principio de liberar la humanidad del hambre energética, ya que las reservas de minerales en la corteza terrestre están limitadas. Otra cosa es la reacción termonuclear. Si se logra llevar a cabo la síntesis controlada de núcleos ligeros y conseguir que la reacción se auto mantenga, entonces

podremos

decir,

efectivamente,

que

hemos

resuelto

el

problema

energético. ¿Hasta qué punto es real la solución de esta tarea? En el período muy reciente los físicos aprendieron a obtener plasma de hidrógeno que se encuentra a una temperatura de cerca de 60 millones kelvin. La reacción termonuclear

Gentileza de Manuel Mayo

166

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

transcurre a esta temperatura. Pero cómo hacer que esta reacción sea auto mantenida, cómo realizar un reactor termonuclear, esto todavía no lo sabemos. En el Océano Mundial se halla almacenada tanta energía termonuclear que será suficiente para cubrir todas las demandas energéticas de la humanidad durante el período que supera la edad del Sistema Solar. Este sí que es, de veras, un manantial inagotable de energía. La conversación sobre el combustible se da por terminada. Ahora pasemos al examen de los dispositivos con cuya ayuda el combustible se obliga a trabajar. Centrales eléctricas Por supuesto, se pueden citar muchos ejemplos cuando la utilización directa de energía no está relacionada con la producción de corriente eléctrica. Arde el gas en la cocina de su apartamento, se aleja de la Tierra el cohete que se mueve a costa de reacción de los productos de combustión del combustible, además, también las antiguas máquinas a vapor encuentran aplicación en una u otra parte. En una serie de

casos

es

racional

transformar

en

movimiento

también

la

energía

que

proporcionan tales fuentes gratuitas como el viento Pero en la absoluta mayoría de los casos necesitamos corriente eléctrica. La necesitamos para que nos dé luz, la necesitamos para alimentar motores eléctricos, crear tracción eléctrica, asegurar el funcionamiento de los hornos de soldadura eléctrica y calentadores y para cargar acumuladores. Y, en todo caso, hoy en día no podemos concebir otra forma de transmitir la energía a distancia que no sea con la ayuda de la corriente eléctrica. Por esta razón, de seguro, no será una exageración decir que la central eléctrica, como antes, sigue siendo la protagonista de la técnica. Hasta la fecha, existen dos métodos industriales básicos de poner en movimiento las partes giratorias de las máquinas eléctricas, o sea, máquinas que engendran corriente eléctrica. Si este trabajo lo cumple la energía de agua que cae, hablamos sobre centrales hidroeléctricas, si la fuerza motriz es la presión del vapor sobre los álabes de una turbina, hablamos sobre centrales térmicas. De la clase de centrales térmicas se destacan especialmente las atómicas, aunque, en esencia, éstas se distinguen de las ordinarias sólo por el hecho de funcionar a

Gentileza de Manuel Mayo

167

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

base de otro combustible. Sin embargo, en ambos casos obtenemos color que sirve para obtener el vapor. Hoy día, el habitante de una ciudad se encuentra muy a menudo con la denominación «central termoeléctrica» o «central eléctrica de calefacción». Estas se destinan para abastecer a los consumidores no sólo de energía eléctrica, sino también, y, además, en primer término, de energía térmica en forma de vapor de agua o agua caliente. La energía de agua que cae se emplea por el hombre desde los tiempos inmemoriales. La rueda hidráulica del antiguo molino es el prototipo de la turbina hidráulica moderna. Al chocar contra la paleta de la rueda, el chorro de agua le entrega una parte de su energía cinética. La paleta se pone en movimiento y la rueda comienza a girar. No es nada simple disponer las paletas de la rueda de modo que se obtenga el máximo rendimiento. Los especialistas resuelven este problema ingenieril de diferente manera, según sean las condiciones de caída del agua. Se sobreentiende que la turbina trabajará tanto mejor cuanto mayor sea la altura (y estas alturas llegan a 300 m) desde la cual se precipita sobre la turbina el potente flujo de agua. Las turbinas hidráulicas fabricadas en correspondencia con el alto nivel del moderno arte de ingeniería se diseñan para las potencias superiores o 500 MW. Por cuanto estas potencias se crean para el número de revoluciones relativamente bajo (del orden de 100 r.p.m.), las turbinas hidráulicas que se construyen actualmente sorprenden por su tamaño y peso. Por la dirección del flujo en la rueda de trabajo las turbinas hidráulicas se dividen en las de flujo axial y radial-axiales (turbinas de Francis). En la Unión Soviética trabajan con éxito turbinas hidráulicas de Francis de 508 MW de potencia con el diámetro del rodete de 7,5 m. Actualmente, las centrales eléctricas producen la más barata energía eléctrica, pero su construcción cuesta varias veces más que la de las centrales térmicas y se prolonga

más.

En

las

centrales

eléctricas

están

instalados

generadores

hidroeléctricos que se ponen en rotación por medio de turbina hidráulica. Los generadores (alternadores) hidroeléctricos son máquinas sincrónicas muy grandes y, las más de las veces, con árbol vertical. El diámetro del rotor de esta máquina

Gentileza de Manuel Mayo

168

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

supera de 7 a 10 veces su longitud y en las máquinas más grandes llega a ser mayor de 15 m. Esto es necesario para que la máquina pueda funcionar de una manera estable al cambiar la velocidad de la turbina hidráulica que pone en rotación a aquélla. El rotor del generador hidroeléctrico tiene gran número de polos salientes. Por ejemplo, los generadores de la central hidroeléctrica del Dniéper poseen 72 polos. Para la alimentación del devanado de los polos por corriente continua se utiliza un generador de corriente continua, especial llamado excitador. La frecuencia de rotación de los generadores hidroeléctricos no es grande, siendo de 80 a 250 r.p.m. EL generador de la central hidroeléctrica de Krasnoyarsk (de 500 MW de potencia) tiene la frecuencia de rotación de 93,8 r.p.m., el diámetro de su rotor es de 16 m, y la masa, de 1640 t. Para la central hidroeléctrica Sayano-Shúshenskaya se diseña un generador para 850 MW. Como ya he mencionado, el empleo de la energía hidráulica cuesta caro al medio ambiente. No obstante, las ventajas de las centrales eléctricas en comparación con las térmicas son incuestionables. En primer lugar, las centrales hidroeléctricas no consumen combustible cuyas reservas son insignificantes. Además, las centrales térmicas tienen otro defecto grande. Durante la conversión de la energía del combustible en eléctrica, una parte considerable de energía se escapa sin ningún provecho. A pesar de todo, algo como el 80% de energía eléctrica se produce en las centrales térmicas con la ayuda de turbogeneradores en los cuales la fuerza es la presión del vapor. Para que el rendimiento del generador sea grande, es necesario elevar en un grado máximo posible la temperatura del vapor. Se entiende que este objetivo se puede alcanzar tan sólo aumentando simultáneamente la presión. En las centrales térmicas modernas con una potencia de 200 a 300 MW a las turbinas se suministra vapor cuya temperatura es de 565 ºC y la presión es de 24 MPa. ¿Pero por qué hay que aspirar a altas temperaturas? El asunto consiste en lo siguiente. Una turbina de vapor utiliza, en fin de cuentas, el mismo fenómeno que hace saltar la tapa no apretada de la tetera cuando en ésta comienza a hervir el

Gentileza de Manuel Mayo

169

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

agua. En otras palabras, en una turbina de vapor tiene lugar la transformación de la energía térmica en energía mecánica y, sólo después, la energía mecánica se transforma en eléctrica. Y téngase presente que en la primera transformación (lo que se puede demostrar estrictamente) se pierde una cantidad de energía no menor que la parte igual a la relación de la temperatura ambiente a la temperatura del vapor (en kelvin). Es muy lamentable que en los dispositivos modernos para la extracción de energía sea preciso pasar a través de la «etapa térmica». Semejante transición siempre está ligada a una pérdida enorme de energía, y una central eléctrica ideal del futuro será una planta donde cualquier energía, independientemente de su origen, se transformará de modo directo en energía eléctrica. Ahora bien, mientras este importantísimo problema no está resuelto, lo único que nos queda es afanarse por obtener las máximas temperaturas del vapor, del gas o del plasma. En las centrales térmicas, aunque esto resulta muy complicado, se logra conseguir un rendimiento de 40%, aproximadamente. El generador de turbina de vapor no es sino una máquina eléctrica con árbol horizontal. El rotor se fabrica junto con los extremos del árbol en forma de una sola pieza forjada, empleando un acero especial para turbinas y rotores, ya que debido a la gran frecuencia de rotación (3000 r.p.m.) las tensiones mecánicas en éste alcanzan valores en el límite de lo admisible para los materiales modernos. Por la misma razón el rotor no tiene polos salientes. En una parte de su superficie cilíndrica se dan ranuras en que se coloca el devanado de excitación. En las ranuras del estator está puesto el devanado trifásico de corriente alterna. Debido a grandes tensiones mecánicas el diámetro del rotor está limitado, por lo tanto, para obtener suficiente potencia, es necesario aumentar la longitud de la máquina. Los primeros turbogeneradores soviéticos de 500 kW de potencia fueron construidos en Leningrado, en la fábrica «Elektrosila», en 1925. Y en 1964, «Elektrosila» fabricó un turbogenerador que por su potencia superaba mil veces al «primogénito», o sea, era de 500 000 kW. El deseo de obtener de una máquina una gran potencia, sin aumentar sus dimensiones, enormes ya de por sí, condujo a complicación muy considerable. Por

Gentileza de Manuel Mayo

170

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

ejemplo, con el fin de disminuir las pérdidas en el devanado del estator, este devanado se hace de conductores huecos de cobre por cuyo interior se deja pasar agua. El devanado de excitación se enfría con hidrógeno bajo la presión de cerca de 4 atm. La aplicación del hidrógeno cuya densidad es 14 veces menor que la del aire permitió aumentar la potencia de los turbogeneradores de 15 a 20%. En el Plan de desarrollo de la economía nacional para 1981—1985, ante la industria electrotécnica

se

plantea

el

problema

de

dominar

la

producción

de

los

turbogeneradores de 1 a 1,5 millones de kW para las centrales eléctricas térmicas y atómicas. Se ha creado en la URSS una de las más interesantes centrales eléctricas del mundo. Su nombre es У-25 y suministra a la red eléctrica cerca de 7000 kW de energía eléctrica, es la instalación mayor en el mundo para generar la energía eléctrica por los métodos de magnetohidrodinámica; en forma abreviada estas instalaciones se denominan instalaciones MHD. Un generador MHD no posee piezas giratorias. La idea que sirve de base de este interesante generador es extremadamente sencilla. Un flujo de iones poseedores de considerable energía cinética (un chorro de plasma) pasa a través del campo magnético cortando las líneas de inducción magnética. Sobre los iones actúa la fuerza de Lorentz. Como sabemos, la intensidad del campo eléctrico inducido es proporcional a la velocidad del flujo iónico y al valor de

la

inducción

magnética.

La

f.e.rn.

está

dirigida

perpendicularmente

al

movimiento de los iones. Precisamente en esta dirección aparece la corriente eléctrica que se cierra a través de la carga externa. Los electrodos que reciben la corriente se encuentran en contacto directo con el plasma. La energía eléctrica se genera a costa de la caída de la energía del chorro de plasma. El generador magneto-hidrodinámico permite llevar el rendimiento de la central eléctrica hasta 60% y más. El factor crítico durante la obtención de la energía barata desde una instalación MHD es el campo magnético en el canal. Dicho campo debe ser muy intenso. Semejante campo lo puede crear un imán eléctrico ordinario dotado de bobina de cobre, pero será muy grande, complicado por su estructura y costoso; además, el propio imán consumirá mucha energía eléctrica. En relación con ello se elaboró una nueva

Gentileza de Manuel Mayo

171

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

concepción referente al diseño de los imanes con devanado superconductor. Un imán de este tipo puede engendrar el campo magnético necesario con un pequeño consumo de energía y un calentamiento insignificante. Como lo demuestran los cálculos, los grandes gastos para obtener temperaturas próximas a cero absoluto se compensan. El examen somero que hemos hecho en las páginas anteriores nos permite ver que no se han agotado todavía los métodos tradicionales de aumento de la producción de la energía. Sin embargo, es poco probable que a base de ello saquemos la conclusión de que la humanidad seguirá durante un largo período por este camino. Sin hablar ya de que las reservas de combustible y las posibilidades de utilizar la energía hidráulica se aproximan a su fin, no se puede olvidar del considerable influjo que la construcción de nuevas centrales hidroeléctricas ejerce sobre el medio ambiente. Los ecólogos nos previenen sobre la necesidad de tomar una actitud muy mesurada cuando se trata de la intromisión en la vida de los ríos. También atraen la atención de los energéticos a las enormes cantidades de ceniza que se arrojan a la atmósfera al quemar el combustible. En un año, la atmósfera terrestre recibe 150 millones de toneladas de ceniza y cerca de 100 millones de toneladas de azufre. Es sobre todo alarmante el aumento en la atmósfera de la cantidad de dióxido de carbono. Su incremento anual es de 20 mil millones de toneladas. En los últimos cien años el contenido de dióxido de carbono en la atmósfera creció en 14%. Existen dos causas de esto crecimiento: la destrucción de la flora terrestre y, que es lo principal, la expulsión a la atmósfera de las «cenizas gaseosas» que se forman durante la combustión del combustible ordinario. Este incremento ininterrumpido puede acarrear consecuencias funestas, la más importante entre las cuales es el aumento de la temperatura de la atmósfera en 1,5 a 3 kelvin. Aparentemente, ¡es un aumento pequeño! Sin embargo, éste puede provocar el derretimiento irreversible de los hielos que se hallan en los polos. Los climatólogos suponen que el limite admisible del ulterior crecimiento de la cantidad de dióxido de carbono en la atmósfera no debo superar varias decenas de por ciento. Reactores nucleares

Gentileza de Manuel Mayo

172

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Como ya hemos dicho, las centrales atómicas pertenecen a la clase de centrales térmicas. La diferencia reside en el procedimiento de generación del vapor de agua que se dirige a los álabes de la turbina. El término «reactor nuclear» con plena razón puede sustituirse por el de «caldera nuclear», subrayando con ello el parentesco de los procedimientos de obtención de la energía. Al reactor nuclear se le da, habitualmente, la forma de un edificio cilíndrico. Sus paredes deben ser muy gruesas y fabricadas de materiales absorbentes de neutrones y de radiación gamma. Un reactor que produce algo como 1000 MW de energía eléctrica puede tener diferentes dimensiones según sea el combustible que se utiliza y de los procedimientos empleados para retardar los neutrones y derivar el calor. Pero, en todos los casos, estas dimensiones son imponentes. La altura puede alcanzar la de una casa de 5 a 10 pisos y el diámetro será del orden de diez metros. La energética nuclear comenzó a desarrollarse inmediatamente después de haber terminado la segunda guerra mundial. En la Unión Soviética las importantísimas investigaciones en esto campo las encabezó Igor Vasílievich Kurchótov, admirable científico y organizador. Tanto en la Unión Soviética, como en otros países se han probado las más diversas construcciones. En primer lugar, se resuelve el problema sobre la composición isotópica del uranio utilizado o del otro combustible nuclear. Seguidamente, el ingeniero debe decidir en qué forma quiere utilizar el combustible: en forma de disolución de sales de uranio o en forma de fragmentos sólidos. Al elemento combustible sólido pueden darse diversas formas. Se puede trabajar con barras, pero son más adecuadas las varillas largas. Desempeña un papel sustancial la geometría de disposición de los elementos de combustión. Los cálculos ingenieriles ayudarán a hallar la disposición más racional de las barras de control que absorben neutrones. Su desplazamiento (automático, claro está) debe asegurar el valor necesario del factor de multiplicación neutrónica. La diferencia en el comportamiento de los neutrones lentos (térmicos) y rápidos permite dividir los tipos de los reactores en dos categorías, a saber, en reactores con moderador de los neutrones y reactores superregenadores (reactores breeder). El reactor en que se prevé la retardación de los neutrones puede trabajar a base de uranio natural. La cantidad de moderador debe ser tal que a los núcleos del uranio-

Gentileza de Manuel Mayo

173

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

238 no se les ofrezca la posibilidad de absorber un número considerable de neutrones. Y es que la cantidad de estos núcleos supera 140 veces, aproximadamente, la de los del uranio-235. Si la cantidad de moderador es pequeña, los neutrones no tendrán tiempo para disminuir su velocidad basta la térmica, se absorberán por los núcleos del uranio-238, y la reacción en cadena no podrá continuarse. No obstante, el reactor que trabaja a base del uranio natural o del uranio enriquecido en un grado insignificante por el uranio-235 creará un nuevo combustible: el plutonio. Pero éste se formará en una cantidad mucho menor que los núcleos que se «queman». Por ahora, en las centrales atómicas se utilizan reactores de neutrones térmicos. Con mayor frecuencia se aplican cuatro tipos de reactores: de agua-agua, con agua ordinaria en calidad de moderador y portador de calor; de grafito-agua, con agua como portador de calor y moderador de grafito; reactores en que sirve de moderador agua pesada y de portador de calor, agua ordinaria, y, finalmente, reactores de grafito-gas.

Gentileza de Manuel Mayo

174

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Igor Vasílievich Kurchótov (1903-1960) destacado físico soviético y magnífico organizador que encabezó los trabajos para la elaboración del problema atómico en la Unión Soviética. Comenzó su actividad científica en el campo de la física del sólido, asentó las bases de la teoría sobre los ferroeléctricos. A principios de los años 30 se dedicó a las investigaciones en el ámbito de la física del núcleo atómico. Bajo su dirección se llevaron a cabo importantes trabajos en la esfera de estudios de la isomería nuclear, la absorción de resonancia de los neutrones y la radiactividad artificial. La causa de que los especialistas en el campo de la energética atómica centraron su atención en los reactores que trabajan a base de neutrones térmicos radica, por lo visto, en que el enriquecimiento del uranio con el isotopo 235 es una tarea difícil. Pero conviene recordar la observación hecha con anterioridad: al aprovechar como combustible tan sólo el isótopo uranio-235 nos privamos a nosotros de la posibilidad de emplear las enormes reservas de combustible nuclear potencial. Actualmente se perfila la tendencia a pasar hacia los reactores nucleares de otro tipo que trabajan a base de combustible altamente enriquecido y no utilizan el moderador de neutrones.

Gentileza de Manuel Mayo

175

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 6.2 Supongamos que en la «caldera» se encuentra una mezcla en la cual a una parte de uranio-235 corresponde una parte de uranio-238. En este caso, el número de neutrones que quedan al margen de la reacción en cadena debido a su captura por el uranio-238 puede ser mayor que el número de neutrones que desintegran los núcleos del uranio-235 y continúan la reacción en cadena. Semejante reactor será, precisamente, reactor superregenerador (reactor breeder). Según sea la geometría de disposición de las barras o de los «ladrillos» del combustible nuclear activo y potencial, se puede crear el reactor breeder con una relación porcentual más variable de estas dos clases de combustible y con distinto coeficiente de regeneración. Para que el lector se forme la idea acerca de los parámetros de los reactores nucleares insertemos dos ejemplos. La fig. 6.2 nos da una idea general sobre la estructura del reactor nuclear que hoy día se utiliza en los submarinos norteamericanos. De refrigerador sirve agua ordinaria.

Por

cuanto

esta

agua

capta

los

neutrones

con

una

eficacia

aproximadamente 600 veces mayor que el agua pesada, semejante reactor puede

Gentileza de Manuel Mayo

176

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

trabajar solamente a base de uranio-238 enriquecido con uranio-235. En lugar de la parte natura) de 0,72%, el combustible de estos reactores contiene desde 1 hasta 4 % de uranio-235. El reactor capaz de proporcionar 1100 MW de energía eléctrica, tiene el diámetro de cerca de 5 m, la altura de 15 m y el espesor de las paredes de 30 cm (¡una casa de 5 pisos!). Si en esto reactor se cargan 80 t de óxido de uranio que contiene 3,2 % de uranio-235, dicho reactor trabajará de 10 a 12 meses (después de lo cual habrá que cambiar las barras). El agua en el reactor se calienta hasta 320 °C. Esta circula bajo presión de cerca de 300 atm. El agua caliente se transforma en vapor y se suministra a los alabes de la turbina. Detengámonos ahora, en breve, en el proyecto francés de un potente reactor breeder, el cual recibió el nombre de «Superfénix». Se propone utilizar como combustible una mezcla de plutonio-239 y de uranio-238. No se empleará moderador, de modo que los neutrones no pierden la velocidad desde el momento de su nacimiento durante la fisión del núcleo hasta el encuentro con otro núcleo atómico del material combustible. El hecho de que el reactor trabaje a base de neutrones rápidos lleva a una mayor compacidad. El núcleo del reactor no excede de 10 m3. De este modo puede liberarse gran cantidad de calor por unidad de volumen. La evacuación del calor no puede llevarse o cabo con agua puesto que ésta retarda los neutrones. Para este objetivo puede utilizarse sodio líquido. El sodio funde a la temperatura de 98 ºC y hierve a 882 °C a presión atmosférica. Por causas técnicas, la temperatura del sodio líquido no debe superar 550 ºC. Debido a esta razón no hay necesidad de elevar la presión del líquido refrigerante, procedimiento en cual se recurro en los casos cuando de refrigerador sirve el agua. Las dimensiones del «Superfénix» son las siguientes: el diámetro interior, 64 m; la altura, 80 m. ¡Un imponente edificio de 20 pisos! El núcleo del reactor es un prisma hexagonal montado (como un paquete de lápices) de barras delgadas de 5,4 m de longitud. Las barras de material combustible se alternan con las barras de control. Nos falta espacio (y, además, en un libro de física no es indispensable) para describir de qué modo está organizada la refrigeración del núcleo del reactor. Es suficiente decir que este se lleva a cabo en tres etapas. La primera tubería es sódica, ésta toma el calor del reactor y lo entrega a la caldera de donde el calor se

Gentileza de Manuel Mayo

177

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

transmite a la segunda tubería, también sódica, y, luego, a la tercera, por la cual circula la mezcla de agua y vapor. Seguidamente, tenemos un camino ordinario hacia la turbina de vapor. Los cálculos demuestran que la instalación debe proporcionar 3000 MW de potencia térmica y 1240 MW de eléctrica. No puedo dejar de recalcar una vez más que la necesidad de transformar la energía nuclear en eléctrica pasando por la etapa térmica depara un sentimiento de gran insatisfacción. Es algo como si instalásemos un motor de automóvil con los accionamientos correspondientes en un carro común y corriente. Sin embargo, por ahora no tenemos idea alguna de cómo podemos prescindir de esta etapa que, tal vez, crea las principales dificultados en la construcción de las centrales atómicas. Al inconveniente general de todas las centrales térmicas se añade aquí la necesidad de introducir tuberías intermedias debido a que es preciso excluir la radiactividad inadmisible del vapor que llega a la turbina. Citemos algunos datos más sobre este proyecto. El flujo máximo de neutrones por 1 cm2 en un segundo debe ser igual a 6,2 x 1015. El factor de multiplicación será igual a 1,24. La sustitución de los elementos quemados por los nuevos debe realizarse una vez por año. La rapidez del flujo de sodio líquido (los especialistas le dan el nombre de velocidad de la masa) será de 16,4 t/s (esta cifra se refiere a la tubería primaria). El vapor sobrecalentado que sale se expulsará bajo la presión de 18 MPa y a la temperatura de 490 °C. Dediquemos varias palabras a las «cenizas» del combustible nuclear. Como resultado de la fisión de los núcleos del combustible se origina un gran número de isótopos radiactivos, y este proceso es incontrolable; sin embargo, tenemos la posibilidad de obtener cualesquiera isótopos colocando en el reactor ciertas sustancias. Absorbiendo neutrones éstas engendrarán nuevos átomos. Por

supuesto,

los

isótopos

radiactivos

pueden

producirse

también

en

los

aceleradores, sometiendo los materiales al bombardeo con protones o con núcleos de otros elementos. El número de elementos artificiales obtenidos para el momento presente es bastante alto. Se llenaron los «sitios vacantes» en la tabla de Mendeleiev: los elementos con los números atómicos 61, 85 y 87 no tienen isótopos estables de

Gentileza de Manuel Mayo

178

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

vida larga y a raíz de ello no se encuentran un la naturaleza. También se logró prolongar la tabla de Mendeleiev hasta el número 105. Los elementos con los números

más

altos

que

92

se

denominan

transuránicos.

Cada

elemento

transuránico se obtuvo en más de una variante isotópica. Además de nuevos elementos químicos se produjo una gran cantidad de isótopos radiactivos de los elementos químicos que en su forma estable se hallan en la corteza terrestre. Una serie de aplicaciones de los isótopos radiactivos se conoce ya durante muchos años. La esterilización de los productos con rayos gamma, la defectoscopía, creación de generadores de energía eléctrica que utilizan los electrones producidos durante la fisión... La lista podría prolongarse. Desafortunadamente,

el

provecho

aportado

por

los

isótopos

radiactivos

es

conmensurable con las preocupaciones que deparan a los ingenieros, debido a la necesidad de proteger a las personas contra sus radiaciones radiactivas. La ceniza del combustible nuclear contiene 450 variedades de átomos, entre éstas figuran uranio-237 y neptunio-239 que se transforman en neptunio-237 y plutonio239. A diferencia del carbón o el petróleo el combustible nuclear no se quema hasta el fin. En una serie de casos, los reactores nucleares trabajan a base de combustible enriquecido, con el contenido de uranio-235 entre 2,5 y 3,5%. En cierto instante el reactor cesa la producción de energía, ya que en el proceso de desintegración se forma una gran cantidad de isótopos que capturan los neutrones impidiendo que se continúe la reacción de desintegración. Al parar el reactor en el combustible nuclear se queda, aproximadamente, 1% de uranio-235 y una cantidad algo menor de plutonio-239. Huelga decir que es en sumo grado inconveniente desechar esta ceniza que contiene una cantidad tan considerable de combustible valioso. Por esta causa, se puede «fundir» con la central atómica una gran planta química. Dicha empresa debe ser totalmente automatizada por cuanto es necesario someter al tratamiento, materiales de radiactividad muy elevada. La necesidad de medidas serias se impone por el requerimiento de proteger al personal contra la radiación gamma.

Gentileza de Manuel Mayo

179

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

En estas plantas los elementos combustibles sometidos al tratamiento deben ser triturados y disueltos. El combustible puro se debe separar (uranio y plutonio) y retornar para la preparación de nuevos elementos combustibles. Quedan cantidades considerables de disolución fuertemente radiactiva inútil; ésta debe enterrarse en algún lugar. Además, debe existir una seguridad absoluta de que durante muchos siglos con los lugares de entierro no sucederá ningún acontecimiento dramático. Las opiniones de los especialistas en este sentido son más o menos optimistas. Consideran que la conservación de los recipientes con disolución radiactiva a unas profundidades del orden de 1 km en localidades elegidas especialmente con esta finalidad garantiza una seguridad del cien por cien. ¿Y qué lugares son idóneos? Lo deben decidir los geólogos. Se sobreentiende que se trata de regiones en las cuales se excluye la posibilidad de terremotos. Además, debe garantizarse la ausencia de torrentes subterráneos de agua. Estos requisitos los satisfacen los lugares de yacimientos salinos. No se puede arrojar simplemente los recipientes al pozo de un kilómetro de profundidad. Para asegurar la disipación del calor desprendido por cada recipiente es necesario disponerlos a una distancia no menor de 10 metros uno del otro. Energía termonuclear Como ya se ha dicho, las reacciones químicas y nucleares se parecen mucho entre sí. Por cuanto el calor se desprende no sólo en las reacciones de descomposición, sino también, con frecuencia, cuando dos moléculas se combinan en una, se puede esperar que los núcleos atómicos se comporten de una forma similar. Si se conocen las masas de los núcleos atómicos no es nada difícil contestar a la pregunta de qué reacciones de fusión de los núcleos pueden ser ventajosas desde el punto de vista energético. El núcleo del deuterio tiene una masa ríe 2,0146 u.m.a. Si dos núcleos se fusionan en uno se forma 4He. Pero su masa es de 4,0038, y no de 4,0292. El exceso de masa de 0,0254 u.m.a. es equivalente a una energía igual, aproximadamente, a 25 MeV, o bien, 4 x 10-11 J. Un gramo de deuterio contiene 0,3 x 1024 átomos. De este modo, en el caso de realizarse semejante reacción, 2 g producirían ¡1013 julios de

Gentileza de Manuel Mayo

180

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

energía...! Resulta que las más prometedoras son las reacciones de fusión de isótopos pesados de hidrógeno; del deuterio y del tritio. Sin embargo, también el hidrógeno ordinario puede servir de combustible termonuclear. Los términos que utilizamos revisten carácter plenamente convencional. En todos los casos se trata de energía nuclear. Pero resultó que la energía de fisión de los núcleos atómicos comenzó a llamar energía atómica, y la energía de fusión, energía termonuclear. Poca lógica encierran estos términos. Pero a éstos se han acostumbrado. Las reacciones termonucleares podrían proveer de energía a los habitantes de la Tierra para millones de años, con la particularidad de que, en este caso, no bajaría notoriamente el nivel de agua en el Océano Mundial. Por consiguiente, la energía termonuclear podría considerarse gratuita. Pero una idea y la realización de esta idea están separadas por una distancia enorme. Es que todos los núcleos atómicos están cargados positivamente. Y queda claro que, para llevarlos a una distancia próxima entro éstos, se necesita colosal energía. ¿De dónde tomarla? La única posibilidad es hacer pasar la sustancia al estado de plasma, es decir, «desnudar» los núcleos atómicos para, luego, elevar la temperatura del plasma hasta tal grado que los núcleos comiencen a chocar (es decir, que se acerquen a una distancia de 10-13 cm), despreciando la repulsión eléctrica. Los resultados del cálculo son extremadamente desconsoladores. Ofrezco a los lectores la posibilidad de calcular ellos mismos el valor de la energía de la repulsión electrostática por la fórmula e2/r, y, luego, determinar (con esto fin, hace falta recordar la fórmula que relaciona la temperatura con la energía cinética de cualquier partícula) qué temperaturas se deben alcanzar. Resultará que las de decenas de millones de kelvin. Bueno, es preciso crear el plasma de altas temperaturas. Existen dos caminos: uno, por el cual los destacamentos de físicos marchan ya más de dos decenios, y otro que es unos quince años más joven. El primer camino de creación del reactor termonuclear consiste en hacer «entrar» el plasma en una «botella magnética».

Gentileza de Manuel Mayo

181

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Si a un tubo de descarga de gases se superpone al campo magnético que coincide por su dirección con el campo eléctrico, en este tubo se formará un cordón de plasma. Como sabemos, las partículas cargadas del plasma describirán trayectorias espirales. Se puede considerar que el movimiento de las partículas confluye en un flujo superficial circular. Cuanto más intenso es el campo magnético tanto menor es el radio del cordón del plasma. La fuerza que actúa sobre el flujo de partículas cargadas por parte del campo magnético es, precisamente, la causa de formación del cordón que no entra en contacto con las paredes del tubo de descarga de gases. De este modo, de principio, es posible crear el plasma que queda «suspendido en el aire». El cálculo demuestra que para la presión inicial del hidrógeno del orden de 0,1 mm de Hg, el radio del cordón de 10 cm y la intensidad de la corriente de descarga igual a 500 000 A, la temperatura del plasma debe ser suficiente para que comience la síntesis termonuclear. En el camino de la realización de la reacción termonuclear controlable se encuentran dificultades muy grandes. Se trata de que el cordón de plasma, debido a una serie de causas, resulta ser muy inestable y al cabo de unos instantes se ensancha. El problema se resuelve solamente en el caso de poder crear una «botella magnética» con «retroacción»: se requiere que las fluctuaciones casuales que ensanchan el cordón conduzcan a la aparición de fuerzas orientadas a contrarrestar el ensanchamiento. A mediados de 1978 un grupo de físicos norteamericanos que trabajaban en la Universidad de Princeton logró calentar el plasma hasta 60 millones de kelvin. Este éxito fue alcanzado en «botellas magnéticas» cuya estructura había sido elaborada en la Unión Soviética (hemos hablado sobre éstas en el libro 3) y que recibieron el nombre de «Tokamak» (el nombre proviene de la combinación de tres palabras: toroide, cámara, magnético). La temperatura alcanzada es suficiente para que tenga lugar la fusión de los núcleos del deuterio y tritio. Es un gran logro. Sin embargo, no se ha hecho aún el segundo paso. No se consigue retener el plasma caliente durante un tiempo lo suficientemente prolongado. Las vías de la realización de esta tarea técnica todavía no son evidentes. La creación de la síntesis termonuclear controlable puede resultar un

Gentileza de Manuel Mayo

182

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

problema

www.librosmaravillosos.com

extraordinariamente

costoso.

Sea

A. I. Kitaigorodski

como

fuere,

prosiguen

las

investigaciones en este ámbito. Se llevan a cabo trabajos encaminados a crear la síntesis termonuclear controlada valiéndose de la radiación de láser. En la actualidad, se han creado láseres con la potencia de radiación de cerca de 1012 W, la cual, en forma de impulsos luminosos de 10-9 a 10-10 s de duración, puede enviarse a la sustancia que queremos convertir en plasma. Es natural que cuando la luz de esta potencia colosal incide sobre el cuerpo sólido, la sustancia se ioniza instantáneamente y pasa al estado de plasma. Hay que conseguir una situación en que se forme el plasma de deuterio- tritio con una temperatura de 108 K, y que esta temperatura se mantenga hasta el momento en que comience la reacción en cadena. Para realizar esta tarea es necesario crear el plasma de una densidad máximamente posible con el fin de aumentar el número de colisiones de los núcleos. En estas consideraciones se basa el esquema del reactor representado en la fig. 6.3. Una bolita sólida (congelada) compuesta de isótopos de hidrógeno está cayendo en un recipiente bombeado hasta croar alto vacio. Cuando la bolita pasa a través del centro del recipiente se conectan láseres fuertes que transforman el sólido en plasma. Para que el reactor comience a trabajar hace falta conseguir una situación tal que durante un intervalo de tiempo entre el inicio y el fin de la reacción se libera la energía necesaria para que la reacción se desarrolle. Los cálculos evidencian que la densidad del plasma debe superar la del sólido de 103 a 104 veces, o sea, en 1 cm3 deben caber algo como 1026 partículas. El láser es capaz de crear semejante compresión.

Gentileza de Manuel Mayo

183

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 6.3. De principio, es posible obtener la temperatura necesaria y la densidad necesaria. ¿Cómo se desarrollarán los acontecimientos a continuación? La energía de fusión de los núcleos se transmite a los neutrones que se liberan durante la reacción. Estos neutrones inciden sobre la envoltura de litio del recipiente. El litio, por medio de un intercambiador de calor, transmite la energía al turbogenerador. Una parte de los neutrones reacciona con el litio dando lugar a la formación de tritio que es necesario como material combustible. El principio es sencillo. Pero su realización está lejana y, además, es completamente posible encontrarse con nuevos fenómenos inesperados. Por ahora, es muy difícil presagiar qué requisitos deben plantearse ante esta instalación para que se convierta en manantial de energía. Los investigadores están seguros de que en el camino de creación de una potencia tan grande dentro de volúmenes pequeños de la sustancia se descubrirán nuevos fenómenos. Rayos solares

Gentileza de Manuel Mayo

184

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Ya hace mucho se conoce la transformación de la energía solar en eléctrica por medio de las células fotoeléctricas. No obstante, hasta los últimos tiempos nadie consideraba la posibilidad de poner este fenómeno como base para la acción de una central eléctrica. A primera vista, semejante proposición puede parecer una fantasía descabellada. Para crear una central eléctrica de 1000 MW de potencia conviene emplazar las células solares, así se denominan las células fotoeléctricas adaptadas especialmente para transformar la energía solar en eléctrica, en un área de 6 x 6 km2. ¡Y esto se refiere al territorio tan soleado como el desierto del Sahara! Y. digamos, en Europa central donde los días de sol no abundan tanto, el área debe ser duplicada, como mínimo. ¡Es pura fantasía, exclamará el lector, sin hablar ya de cuánto costará semejante empresa! Es una objeción justa. Sin embargo, coloquen en el segundo platillo de la balanza las ventajas de este procedimiento de obtención de energía. No consumimos materia terrestre alguna ni contaminamos el medio ambiente con ningún género de desechos. ¿Acaso estos dos argumentos no son lo suficientemente sólidos como para obligar a ocuparse de forma seria con investigaciones encaminadas a crear células solares baratas, en la medida de lo posible, así como a elaborar métodos de emplazamiento óptimo de las células y de concentración de rayos del Sol? Muchos investigadores no sólo están convencidos de que el problema merece una seria atención, sino también esperan que las centrales eléctricas del futuro funcionen basándose, precisamente, en esto principio. Esta opinión la sostiene también el autor del presente libro. No está excluido que este problema —y no otro cualquiera— se presentará dentro de varios años como problema número uno. ¿No es prematuro semejante optimismo? ¿Cómo van los asuntos en el día de hoy? Ante todo es necesario dar a conocer qué células solares puede ofrecer la industria ya en el momento presente. La fig. 6.4 nos hace recordar el principio de transformación de la energía solar en corriente eléctrica. La célula está constituida por una unión p — n semiconductora encerrada entre electrodos metálicos. La luz solar crea electrones libres y huecos que por medio de la tensión de contacto se envían en direcciones opuestas y proporcionan corriente.

Gentileza de Manuel Mayo

185

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 6.4 Están elaborados tres tipos de dichas células. Primero, de contacto homogéneo, en las cuales el «bizcocho» p — n se produce aleando el silicio. Por medio de proceso de difusión se crea una capa n delgada (de 0,3 μm) y una capa p relativamente gruesa (de 300 pin). Segundo, de contacto heterogéneo, constituidas por dos semiconductores distintos. Sobre un soporte metálico se polvoriza una capa n de sulfuro de cadmio de 20 a 30 μm de espesor y sobre su superficie, recurriendo a procedimientos químicos, se crea una capa p de sulfuro de cobre de 0,5 μm de espesor. El tercer tipo de células utiliza la tensión de contacto entre el arseniuro de galio y el metal que están separados por una película finísima (de 0,002 μm) de dieléctrico. Para el aprovechamiento óptimo de la energía de todo el espectro solar resultan adecuados los semiconductores con la energía de enlace del electrón de cerca de 1,5 eV, De principio, para una célula solar es posible alcanzar un rendimiento de 28%. Las células de contacto homogéneo a base del silicio que poseen una serie de ventajas técnicas y están estudiadas de la forma más detallada dan un rendimiento Gentileza de Manuel Mayo

186

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

de 11 a 15%. Las células solares a base del silicio se producen ya más de veinte años. De material sirve la arena de cuarzo (el óxido de silicio) a partir de la cual se obtiene silicio puro. De éste se producen monocristales de 0,3 mm de espesor que tiene la forma de una arandela redonda. En los últimos años se ha elaborado el proceso de obtención de una cinta monocristalina. Está bien asimilada la tecnología de introducción de impurezas que permite crear en la arandela de silicio la capa p. Paro conseguir que los rayos solares se reflejen lo menos posible del silicio, la superficie se recubre con una película delgada de óxido de titanio. Siendo la intensidad de la luz igual a 100 mW/cm2 la arandela produce una tensión de 0,6 V. La densidad de la corriente de cortocircuito es de 34 mA/cm2. Por medio de diferentes

procedimientos

las

células

se

pueden

montar

en

baterías.

Está

organizada la producción de las arandelas monocristalinas de silicio con el diámetro de 5 a 7,5 cm. Estas se fijan entre placas de vidrio. Al conectarlas, se puede montar un manantial de corriente de suficiente potencia. Pero también se puede elaborar un proceso tecnológico tal en que se producirán células de área mucho mayor. La principal causa que impide actualmente utilizar las células solares con fines de obtención industrial de energía es su gran costo. Este se debe a la necesidad de obtener la cinta monocristalina de alta calidad. Grandes esperanzas se cifran en la fabricación de células solares de capas policristalinas finas. Dicho proceso no será costoso, pero disminuirá de una manera considerable el rendimiento. El trabajo de búsqueda de procedimientos baratos para obtener células solares eficientes está en su apogeo. Simultáneamente, los investigadores buscan los procedimientos para aumentar la energía que recae en una célula. Se han creado proyectos de centrales eléctricas constituidas por 34 mil espejos que reflejan los rayos solares y los dirigen hacia el receptor que se encuentra en la cumbre de una torre de 300 m de altura.

Gentileza de Manuel Mayo

187

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 6.5 Si se utiliza la energía solar concentrada hay que ocuparse de que la elevación de la temperatura de la célula influya en pequeña medida sobre el rendimiento. En este aspecto las ventajas las poseen las células fabricadas del arseniuro de galio. Se examinan las propuestas de emplazar las centrales eléctricas, que trabajan en base de energía de rayos solares, en las montañas, a grandes alturas, donde están aseguradas las buenas condiciones de iluminación por el Sol. También está elaborado detalladamente el proyecto de creación de centrales eléctricas instaladas en los satélites de la Tierra. Tales centrales eléctricas cósmicas pueden recibir la energía de los rayos solares sin pérdidas y enviarla en forma de microondas a la Tierra donde aquélla se transformará en energía eléctrica. A primera vista, esta idea puede parecer tomada de una novela de ciencia-ficción. No obstante, los ingenieros piensan seriamente en el proyecto de centrales eléctricas instaladas en un satélite, con una superficie de 25 x 5 km2. ¡En tal área pueden caber 14 mil millones de células fotoeléctricas! La central tendrá un peso de 100 000 toneladas. Una central de este tipo puede

Gentileza de Manuel Mayo

188

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

proporcionar la misma cantidad de energía que una decena de las más grandes centrales atómicas, es decir, un monto del orden de 10 000 MW. Los proyectos están elaborados en detalles y se procede a ensayar sus modelos reducidos. Pasaron tan sólo tres años desde la salida a la luz de la primera edición (rusa; N. del T.) de este libro. Sin embargo, se convirtieron en fenómenos que no pueden ponerse en tela de juicio el crecimiento de la atención prestada a las fuentes no triviales de energía y la tendencia de la técnica moderna de librarse de la utilización de las fuentes de energía peligrosas o aquellas que «saquean» el globo terráqueo. Para concluir este párrafo citaré un fragmento del reportaje sobre la exposición técnica en Japón donde se exhibían diferentes modelos de fuentes de energía «no estandarizadas» («Literaturnaia Cazeta» del 29 de julio de 1981). «... Un pabellón que por su forma recuerda una pirámide de Antiguo Egipto. Las paredes son de bloques de vidrio encerrados en brillantes marcos metálicos. Este pabellón está constituido por 800 colectores de rayos solares. El largo de cada colector es de 1820; con ancho, de 860, y el espesor, de 105 mm. Debido a estos colectores el Sol proporcionaba calefacción al pabellón con un área de 4000 m2 y una altura equivalente a la de un edificio de cinco pisos, haciéndolo en marzo y abril cuando, con frecuencia se inician días de frío, y ahora, con la llegada del verano, asegura la refrigeración de la sala y produce, además, diariamente, 19 kg de hielo para fines alimenticios que se utiliza aquí mismo, en los quioscos de refrescos. El pabellón vecino es no menos fantástico por su aspecto exterior e igual de utilitario por su destinación. La diferencia consiste únicamente en que aquí el papel de colectores del calor solar lo desempeñan no los bloques de vidrio llenos de agua, sino tres mil recipientes de vacío. En uno de los «pabellones solares» hay un espejo esférico. Lo ilumina un potente proyector que imita el Sol. El calor acumulado por el espejo pasa a través de varias etapas de transformación en energía eléctrica, la cual, a su vez, pone en movimiento un motor en miniatura. La construcción de centrales eléctricas solares que trabajan a base de este principio comenzará mañana, mientras que hoy se comprueba qué tipo de tales centrales eléctricas resulta ser el más ventajoso.

Gentileza de Manuel Mayo

189

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

En los alrededores de la ciudad de Nio en la isla de Sikoku se alza una torre de 69 m de altura. En su parte superior está dispuesto el colector de rayos solares, y al pie de ésta se halla el generador que produce electricidad. Al lado de la torre está ubicado otro sistema que compite con el primero. El último consta de varias hileras de espejos parabólicos cada uno de los cuales concentra independientemente los rayos del Sol. La energía acumulada por los espejos también se envía al generador. A finales del año en curso se determinará cuál de los sistemas es más rentable y, por consiguiente, resulta más idóneo para las necesidades del futuro próximo.» Energía eólica Las masas de aire de la atmósfera terrestre se encuentran en constante movimiento.

Los

ciclones

y

tempestades,

los

vientos

alisios

que

soplan

constantemente y las suaves brisas. ¡Cuán variable es la manifestación de la energía de los flujos de aire! Ya en los tiempos remotos la energía del viento se utilizó para el movimiento de los barcos de vela y en los molinos de viento. El total de la potencia anual media de los flujos de aire en toda la Tierra constituye ni más ni menos que 100 mil millones de kilovatios. Los meteorólogos están bien enterados de las velocidades del viento en diferentes lugares del globo terráqueo y a distintas alturas respecto a la superficie terrestre. El viento es antojoso; esta es la causa de que para todos los cálculos aproximados se operaran la velocidad media: 4 m/s a la altura de 90 m, y ésta es una estimación modesta para la zona costanera. Por lo visto, los poblados más favorables para la utilización de la energía azul son aquellos que están situados en el litoral de los mares y océanos. Resulta que, contando incluso con un tiempo apacible. Gran Bretaña (entre los países europeos es la más rica en vientos) podría obtener del viento tal cantidad de energía que supere seis veces la producida actualmente por todas las centrales eléctricas del país. Y en Irlanda la energía de los vientos es cien veces mayor que el consumo de energía eléctrica en este país (desde luego, es posible que el problema radique no en tanto ciento, sino en el pequeño número de centrales eléctricas). Nada más que unos veinte años atrás no se ponían grandes esperanzas en el viento como manantial de energía. Pero las tendencias de la energética moderna varían a

Gentileza de Manuel Mayo

190

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

ojos vistas. Una tras otra se organizan comisiones cuya tarea es pensar sobre el empleo de los manantiales gratuitos de energía. Se ha cambiado la actitud —en comparación con el período anterior— para con las riquezas del subsuelo de nuestro planeta: la humanidad comienza a pensar que ha llegado la hora de preocuparse por un aprovechamiento racional, y no saqueador, de las riquezas ocultadas bajo la corteza terrestre.

Figura 6.6 Por esta razón, precisamente, se han dedicado con seriedad a la energía eólica. Estimando con cordura las posibilidades técnicas, se puede considerar como real la utilización de fracciones de un tanto por ciento de los cien mil millones de kilovatios. Pero hasta esta cifra es muy grande. Se han creado proyectos de «molinos» gigantescos. La envergadura de las aletas supera 100 metros, la altura de la torre es aproximadamente del mismo tamaño y la velocidad del extremo de la aleta es de cerca de 500 km/h. La potencia de este molino en el tiempo corriente alcanza de 1 a 3 MW. Varios miles de molinos de esto tipo, trabajando en un país donde los vientos fuertes no son raros, pueden abastecerlo de energía. En Europa Occidental, en 1973, fueron producidos 1261,6 miles de millones de kWh de energía eléctrica. ¡De principio (si no se escatiman inversiones básicas) es una fracción minúscula de energía que es posible, Gentileza de Manuel Mayo

191

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

técnicamente, obtener del viento! Ya ha comenzado la construcción de gigantescos «aeromotores». Los cálculos demuestran que el motor eólico proporciona energía máxima cuando el rotor disminuye la velocidad del viento en un tercio. No conviene pensar que un motor eólico debe imitar, de un modo obligatorio, un molino. Es posible aplicar rotores con un eje vertical de dar una potencia del orden de 20 kW. La ventaja de semejante rotor es su independencia respecto a la dirección del viento, y el inconveniente consiste en que es adecuado tan sólo en el caso de que la fuerza del viento es grande. Los rotores de este tipo se fabrican con un diámetro de 5,5 m. Es completamente comprensible que los generadores que funcionan a costa del viento deban instalarse en un área pequeña, pero, a pesar de todo, las distancias entre éstos deben ser tales que su acción reciproca no tenga importancia. Para crear una central eléctrica de 1000 MW de potencia se necesita un área del orden de 5 a 10 km2.

Gentileza de Manuel Mayo

192

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Capítulo 7 Física del Universo Contenido: 

Medición de las distancias hasta ios estrellas



El Universo en expansión



Teoría general de la relatividad



Estrellas de distintas edades



Radioastronomía



Rayos cósmicos

Medición de las distancias hasta las estrellas Hoy, es casi imposible trazar una divisoria entre la astronomía y la física. Mientras los astrónomos, a semejanza de geógrafos, se limitaban a la descripción del firmamento, el objeto de la astronomía atraía poco la atención de los físicos. Sin embargo, el cuadro cambió radicalmente en los últimos decenios, en particular, cuando empezaron a efectuarse observaciones del cielo estelar desde los satélites y la Luna Si la atmósfera terrestre no lo impide, se logra recibir todas las señalas que llegan hacia nosotros de todos los confines del Universo. Tanto son los flujos de diferentes partículas, como la radiación electromagnética prácticamente del espectro en su totalidad: desde los rayos gamma hasta las ondas radioeléctricas. Se acrecentaron en una forma colosal las observaciones del cielo estelar también a la luz visible. El estudio de los flujos de partículas y del espectro electromagnético es incuestionablemente de incumbencia de la física. Y si añadimos, además, a lo expuesto el hecho de que el estudio del cosmos nos hace tropezar con una multitud de fenómenos a los cuales, por ahora, no se logra dar una interpretación unívoca, si tomamos en consideración que podemos y debemos estar preparados a que la física del Universo es susceptible de conllevar el descubrimiento de nuevas leyes de la naturaleza, entonces, queda claro por qué hoy en día son los físicos los que

Gentileza de Manuel Mayo

193

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

intervienen como investigadores del mundo de las estrellas, los físicos por formación y por al método de razonar. Comencemos nuestra conversación sobre al Universo por el problema astronómico clásico. ¿Cómo medir la distancia desde la Tierra hasta los cuerpos celestes? En la actualidad, las distancias que nos separan del Sol y de los planetas se miden con una gran precisión valiéndose de los radares. La distancia media hasta el Sol es igual a 141.397.800 ± 2000 km. No obstante, los astrónomos supieron medir las distancias dentro del sistema planetario, así como hasta las estrellas más próximas (que se encuentran de la Tierra a una distancia hasta de 300 años de luz) también sin el radar, utilizando el método que, de principio, es poco sofisticado y que lleva el nombre de triangulación.

Figura 7.1 Lejos de nosotros se encuentra una alta torre. Llegar hasta la misma es bastante difícil. Digamos, por ejemplo, que nos separan de esta torre pantanos intransitables. Gentileza de Manuel Mayo

194

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Orientamos a la torre un anteojo y fijamos la dirección. Ahora nos alejamos varios kilómetros, siguiendo una recta perpendicular a la dirección hacia la torre y repetimos nuestra observación. Se sobreentiende que ahora, con respecto al paisaje que está en el lejano fondo, la torre se verá bajo otro ángulo. El ángulo de desplazamiento se denomina paralaje y la distancia a la que nos apartamos desde el primer punto de observación lleva el nombre de base. La paralaje se ha medido y la base se conoce. Construimos un triángulo rectángulo y hallamos la distancia hasta la torre. Precisamente de este método se valen los astrónomos para determinar la paralaje, cuando observan el astro a partir de dos observatorios situados en una recta a una distancia igual al radio de la Tierra. Primero, con la ayuda de unos dispositivos sencillos y, más tarde, por medio de los telescopios, los astrónomos medían los ángulos entre las direcciones hacia distintas estrellas (fig. 7.1). Entonces, prestaron atención a que se puede buscar un grupo de estrellas que se mueve por el cielo como un todo único. Cualesquiera que sean las posiciones de observación los ángulos entre las direcciones permanecen los mismos. Pero entre estas estrellas, con frecuencia, se identificaba una cualquiera que, ostensiblemente, se desplazaba con respecto a sus vecinas. Al tomar una de las estrellas «inmóviles» por una especie de punto de referencia se puede medir al desplazamiento angular de la estrella que cambiaba su disposición respecto a la constelación invariable. Este ángulo de desplazamiento tiene el sentido de paralaje. Ya en el siglo XVII, después de que Galileo inventara el telescopio, los astrónomos midieron las paralajes de los planetas observando sus desplazamientos respecto a las estrellas «inmóviles». En aquella época se había calculado que la distancia que separa la Tierra del Sol es igual a 140 millones de kilómetros. ¡Una precisión nada mala! A simple vista, la disposición mutua de las estrellas queda siempre invariable. Sin embargo, al fotografiar el firmamento de diferentes posiciones puede descubrirse el desplazamiento paraláctico de las estrellas. Si se hacen dos fotografías de cierto sector del firmamento encontrándose en un mismo observatorio, pero con un intervalo de medio año, resultará que la distancia entre los puntos de observación será igual casi a 300 millones de kilómetros.

Gentileza de Manuel Mayo

195

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Es imposible medir las distancias hasta las estrellas con la ayuda del radar. Por eso el esquema de medición que ilustra la fig. 7.1 está absolutamente al día. Las fotos de este tipo nos llevan a la conclusión de que existen estrellas que se desplazan visiblemente con respecto a otras. Sería en sumo grado ilógico suponer que hay estrellas móviles y las hay inmóviles. Surge de por sí la conclusión de que las estrellas cuya disposición mutua permanece invariable se encuentran mucho más lejos que la estrella errante. Sea como fuere, se nos ofrece la posibilidad de medir las paralajes de muchos astros empleando instrumentos de alta calidad. Para muchas estrellas las mediciones de la paralaje se han llevado a cabo con una precisión de una centésima de segundo de arco. Resultó que las más próximas entre ellas se encuentran a distancias superiores a un parsec. Un parsec es una distancia que da el desplazamiento angular de un segundo si se toma como base el radio medio de la órbita terrestre. Es fácil calcular que un pársec es igual a 30,80 billones de kilómetros. Para medir las distancias se utilizan, con frecuencia, años de luz. Un año de luz equivale al camino que la luz recorre en un año. Un parsec es igual a 3,20 años de luz. El método paraláctico sirve hasta las distancias del orden de cientos de años de luz. ¿Y cómo medir las distancias hasta las estrellas más lejanas? Este asunto resulta extraordinariamente

complicado,

y

la

seguridad

de

que

las

evaluaciones

aproximadas son correctas (se puede dar crédito, en lo mayoría de los casos, tan sólo a una cifra significativa) se consigue comparando los resultados de diferentes mediciones. Uno de los métodos (éstos son muchos y no tenemos la posibilidad de detenernos en ellos) consiste en lo siguiente. Si se conoce la distancia hasta la estrella R y la magnitud estelar visual m (medida de iluminación creada por la estrella en la Tierra), entonces, utilizando la ley de acuerdo con la cual la intensidad varía inversamente proporcional al cuadrado de distancia desde la fuente, se puede deducir la siguiente fórmula:

Gentileza de Manuel Mayo

196

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Aquí M es la llamada magnitud estelar absoluta. Es la magnitud que tendría la estrella si se encontrase de nosotros a cierta distancia normalizada que se toma igual al 10 parsec. Suponemos con pleno fundamento que esta fórmula es válida también para las estrellas lejanas. Pero, ¿cómo aprovecharla para determinar la distancia hasta la estrella? Por desgracia, precisamente en este problema —el más interesante— no podemos detenernos con mayor detalle: nos falta espacio en nuestro pequeño libro. Resulta que para cierta categoría de estrellas se logra construir un gráfico que muestra cómo varía la relación de las intensidades de los pares determinados de líneas del espectro estelar en función de la magnitud M. Y en cuanto a las intensidades de las líneas espectrales los astrónomos las saben medir. Para algunas estrellas que cambian periódicamente su brillo (éstas pertenecen a la clase de las llamadas cefeidas) está demostrado que la luminosidad, es decir, la magnitud del flujo luminoso encerrado en una unidad de ángulo sólido (puede referirse tanto a la zona del espectro, como o la radiación total) incrementa paulatinamente con el aumento del período. Se sobreentiende que la luminosidad está relacionada de una manera estrecha con la magnitud M. Para estas estrellas variables su distancia hasta el observador se establece con considerable exactitud. He aquí otra idea de la que también se puede hacer uso para medir la «envergadura» del Universo. Los astros del Universo no están diseminados por éste al azar. A unas distancias inconcebiblemente

enormes

de

nosotros

están

situados

diferentes

cúmulos

estelares, estos se mueven de la más variada manera respecto al Sistema Solar, este movimiento nos ayuda a determinar las distancias hasta dichos cúmulos. También acude en nuestra ayuda el efecto Doppler. Las fórmulas que hemos examinado en el libro 3 son válidas para cualesquiera oscilaciones. Por esta razón, las frecuencias de las líneas espectrales observadas en el espectro de la estrella permiten determinar la velocidad de su movimiento en dirección desde la Tierra o hacia ésta. Puesto que c en la fórmula

Gentileza de Manuel Mayo

197

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

es la velocidad de la luz igual a 300.000 km/s se comprende que el movimiento de la estrella debe ser lo suficientemente rápido y el espectrógrafo tiene que ser de muy alta calidad para que descubramos el desplazamiento de las líneas espectrales. Nótese que el naturalista está absolutamente seguro de que el hidrógeno que se encuentra en las entrañas de una estrella y que anuncia su presencia en el objeto situado a una distancia cuya enormidad es inconcebible, este hidrógeno es el mismo que aquel con que tenemos que ver en las condiciones terrestres. Si la estrella se encontrase en reposo, entonces, el espectro del hidrógeno estaría obligado a tener un aspecto absolutamente análogo a aquel que manifiesta el espectro de un tubo de descarga de gases (¡tanta es la seguridad del físico en la unidad del mundo!). Pero las líneas resultan visiblemente desplazadas, y las velocidades de las galaxias representan centenares y, a veces, decenas de miles de kilómetros por segundo. Nadie pone en tela de juicio la explicación insertada. Y, además, ¿acaso se puede hacerlo? Es que el espectro del hidrógeno consta de un número muy grande de líneas, y vemos el desplazamiento no de una sola línea, sino de todas las líneas del espectro de acuerdo con la fórmula de Doppler. Pero retornemos a la medición de las distancias siderales. ¿Qué ayuda puede prestarnos el conocimiento de las velocidades de movimiento de los astros? Todo es muy sencillo... pero, por supuesto, solamente en el caso de advertir que durante un año la estrella se ha desplazado (recordemos otra vez, si lo ha hecho con respecto a otras estrellas que en la medición dada pueden considerarse «inmóviles») a una distancia determinada. Si se conoce el desplazamiento de arco de la estrella, φ, (perpendicularmente al rayo de luz que llega hacia nosotros), entonces, al saber la velocidad tangencial hallaremos la distancia hasta la estrella R por la fórmula

Gentileza de Manuel Mayo

198

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

En lugar de t conviene poner el tiempo invertido para el desplazamiento de la estrella. Un momento, dirá el lector, es que en la fórmula entra la velocidad tangencial, mientras que la dirección del movimiento de la estrella la ignoramos. Es una objeción absolutamente justa. Esta es la razón de que es necesario proceder de la siguiente forma. Se selecciona un gran número de estrellas con igual periodo de variación de la luminosidad. Para todas estas estrellas se mide la velocidad radial. Esta oscilará desde cero (si la estrella se mueve perpendicularmente al rayo) hasta el máximo (si la estrella se mueve a lo largo del rayo). Suponiendo que, en promedio, las velocidades tangenciales y radiales son iguales, podemos sustituir en la fórmula insertada al valor medio de las velocidades que hemos medido. El Universo en expansión Como resultado de mediciones de las distancias podemos describir el reino de los astros de la siguiente forma. El Universo observable está partido en un número enorme de cúmulos estelares que recibieron el nombre de galaxias. Nuestro Sistema Solar forma parte de la Galaxia que cada uno habrá visto en el firmamento. Es la Vía Láctea. Nuestra Galaxia tiene la forma de disco cuyo diámetro es de cerca de 100 mil años de luz. La Galaxia incluye algo como 1011 estrellas de diferentes tipos. El Sol es uno de estos luceros y se encuentra en la periferia de la Galaxia. Las estrellas están alejadas unas de otras a enormes distancias. En promedio, la distancia entre las estrellas supera 10 millones de veces el tamaño de la estrella. Si se quisiera alcanzar un enrarecimiento análogo del espacio aéreo haría falta disminuir la densidad del aire 1018 veces. Ahora bien, en lo que se refiere a la disposición mutua de las galaxias, aquí el cuadro es distinto. Las distancias medias entre las galaxias son tan sólo varias veces mayores que las dimensiones de las propias galaxias. Los astrofísicos pueden comunicar numerosos detalles acerca del carácter del movimiento recíproco de las estrellas que pertenecen a una misma galaxia. No nos detendremos en esta materia. No obstante, incluso en un libro que expone el ABC de la física no podemos hacer caso omiso de una observación de extraordinaria importancia. Debido al estudio del efecto Doppler en los espectros pertenecientes a

Gentileza de Manuel Mayo

199

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

las estrellas de diferentes galaxias, se ha establecido de un modo fidedigno une las galaxias se alejan con grandes velocidades «de nosotros». En este caso se ha demostrado que la velocidad de alejamiento de una galaxia es directamente proporcional a la distancia que la separa «de nosotros». Las más lejanas galaxias visibles se mueven con unas velocidades que se aproximan a la mitad de la de la luz. ¿Por qué puse entre comillas las palabras «de nosotros»? Por la simple razón de que en esta afirmación se encierra una absurdidad explícita. Semejante posición podría satisfacer solamente a una persona creyente en que dios nuestro señor había creado la Tierra y emplazado alrededor de ésta las estrellas. Semejante cuadro había sido adoptado en los tiempos antiguos por Aristóteles y predominaba en la Edad Media. El Universo tenía límites tras los cuales se extendía el reino de dios, el empíreo. Para el hombre contemporáneo es totalmente inadmisible la idea del Universo que tiene límites. Si existe un límite, entonces, de inmediato, sigue la pregunta: ¿y qué se encuentra tras éste? De este modo, es necesario pasar sin el concepto del límite del Universo. Por otra parle, de ningún modo se puede creer que la Tierra o el Sol son cuerpos especiales del Universo. Esto contradice evidentemente todos los datos obtenidos por los astrofísicos. ¡Pero es que las galaxias se alejan «de nosotros»! ¿Cómo pueden avenirse a este hecho los requisitos que planteamos ante el modelo del Universo? Queremos que no tenga límites; deseamos que sea más o menos homogéneo: exigimos que el cuadro del Universo sea el mismo desde el punto de vista del habitante de cualquier estrella. La necesidad intelectual de existencia de semejante modelo llevó a Einstein a la siguiente deducción fundamental. La geometría de Euclides que utilizamos con éxito en nuestra vida cotidiana deja de ser válida cuando se trata de distancias inconcebiblemente gigantescas y con las cuales nos encontramos al estudiar el mundo estelar. La renuncia a la geometría de Euclides significa la renuncia a los modelos patentes del Universo. ¡Qué se puede hacer! No es la primera vez que debemos renunciar a la posibilidad de formar una idea tangible sobre el mundo que nos rodea.

Gentileza de Manuel Mayo

200

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Al despedirnos de la geometría de Euclides, podemos proponer un modelo del Universo que, simultáneamente, está cerrado y no tiene límites ni centro, de este modelo todos los puntos del espacio serán equivalentes. A primera vista puedo parecer que Einstein exige de nosotros un gran sacrificio. Estamos tan acostumbrados a que dos líneas paralelas nunca se intersecan, que la suma de los cuadrados de los catetos es igual al cuadrado de la hipotenusa. Estamos acostumbrados... Mas, un momento... Recuerden las clases de geografía. En la esfera que representa el globo terráqueo las líneas de las latitudes son paralelas. ¿Y en un mapa geográfico? El lector tendrá pleno derecho a preguntar: ¿en un mapa de qué tipo? Puesto que los mapas geográficos se trazan por diferentes procedimientos. Si el globo terráqueo se representa en forma de dos hemisferios, los paralelos pierden su carácter paralelo. Si se recurre a la llamada proyección rectangular, las distancias entro las latitudes dejan de ser iguales. ¿Acaso queda aquí algo de la geometría de Euclides? Si el lector quiere, puede cerciorarse de que el teorema de Pitágoras sufrió un fracaso. En el mapa de principales rutas aéreas tracé el triángulo (fig. 7.2) MoscúCiudad de El Cabo-Londres.

Figura 7.2

Gentileza de Manuel Mayo

201

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Lo escogí ya que, por casualidad, en el mapa es exactamente un triángulo rectángulo. A raíz de ello, la suma de los cuadrados de los catetos debe ser igual al cuadrado de hipotenusa. ¡Nada de eso! Pruebe calcular: la distancia Moscú-Londres es de 2.490 km; la distancia Moscú-Ciudad de El Cabo, 10.130 km, y la distancia Londres-Ciudad de El Cabo, 9.660 km. El teorema no funciona, nuestra geometría no sirve para el mapa geográfico. Las leyes de la geometría sobre el plano que representa el globo terráqueo se distinguen de las leyes «corrientes». Al examinar al mapa de los hemisferios vemos que éste tiene «bordes». Pero si ésta es una ilusión. En la realidad, al avanzar por la superficie del globo terráqueo nunca llegaremos al inexistente «borde de la Tierra». Se cuenta una anécdota. El pequeño hijo de Einstein le pregunta: « ¿Papá, por qué eres tan célebre?» Einstein le contesta: «Tuve suerte, fui el primero en advertir que un escarabajo, arrastrándose por el globo, puede darle una vuelta por el ecuador y regresar al punto de partida». Por supuesto, ateniéndose a esta forma, no hay descubrimiento. Pero extender este razonamiento al espacio tridimensional del Universo; afirmar que éste es finito y cerrado a semejanza de una superficie bidimensional que limita el globo; sacar de ello la conclusión de que todos los puntos del Universo son completamente equivalentes en el mismo sentido en que lo son todos los puntos de la superficie del globo es evidente que esto exige una audacia intelectual extraordinaria. De aquí deriva la siguiente conclusión. Si nosotros, los terrícolas, observamos que todas las galaxias se alejan de nosotros, entonces, el habitante de un planeta de cualquier estrella también verá el mismo cuadro. Llegará a las mismas conclusiones sobre el carácter del movimiento del mundo estelar y medirá las mismas velocidades de las galaxias que el morador de la Tierra. El modelo del Universo propuesto por Einstein en 1917 es un corolario natural derivado de la llamada teoría general de la relatividad que elaboró él mismo (aquella parte de la teoría que hemos expuesto en el capítulo 4 se denomina especial o restringida). Sin embargo, Einstein no suponía que el Universo cerrado puede cambiar sus dimensiones. Dicha tesis la promovió en 1922—1924 el científico soviético Alexandr Alexándrovich Friedman (1888—1925). Resultó que la teoría requiere ya sea una

Gentileza de Manuel Mayo

202

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

expansión del Universo, o bien, expansiones y contracciones alternantes. En todo caso, éste no puede ser estático. Tenemos derecho a adoptar cualquiera de estos dos puntos de vista, es decir, tanto suponer que vivimos ahora en la época de expansión

del

Universo,

a

la

cual

precedían

contracciones

y

expansiones

alternantes, como admitir que el Universo, cierto tiempo atrás (el tiempo puede calcularse y éste resulta igual a varias decenas de miles de millones de años), no era sino un «huevo cósmico» que explotó y se expansiona desde aquel período. Es necesario comprender, con toda precisión, que la variante de la explosión inicial no está relacionada en modo alguno con el reconocimiento de la creación del mundo. Puede ser que los intentos de mirar demasiado lejos hacia el futuro y hacia al pasado, así como las distancias desmesuradas, son ilícitos dentro del marco de las teorías existentes. Con arreglo al esquema que ahora nos parece racional examinemos este ejemplo simple. Medimos el corrimiento hacia el rojo de las líneas espectrales de la radiación que llega a nosotros desde las lejanas galaxias. Haciendo uso de la fórmula de Doppler valoramos las velocidades de movimiento de dichas galaxias. Cuanto más lejos de nosotros se encuentran éstas, con tanta mayor celeridad se mueven. El telescopio nos da a conocer las velocidades de alejamiento de las galaxias cada vez más alejadas: diez mil kilómetros por segundo, cien mil kilómetros... Sin embargo, este crecimiento de los valores de la velocidad debe tener un límite. Es que si la galaxia se aleja de nosotros a velocidad de la luz, entonces, de principio, no la podemos ver: la frecuencia de la luz calculada por la fórmula de Doppler se reducirá a... cero. La luz no llega hacia nosotros de una galaxia de este tipo. ¿Cuáles son, entonces, las distancias máximas que sabremos medir cuando tengamos a nuestra disposición unos instrumentos «super excelentes»? Está claro que la evaluación puede ser extremadamente aproximada. Pero, en todo caso, de ningún modo nos toca a lamentar que no estemos en condiciones de mirar lo suficientemente lejos: ¡el número de que se trata se mide en miles de millones de años de luz! En lo que se refiere a distancias todavía mayores, la conversación sobre éstas, a todas luces, carece de sentido. Podemos expresarlo también de la siguiente forma: dentro de los marcos de las ideas contemporáneas la conversación sobre las

Gentileza de Manuel Mayo

203

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

distancias que exceden de miles de millones de años de luz carece de sentido físico puesto que no se puede proponer un método de medición. Aquí los asuntos toman el mismo cariz que en la situación con la trayectoria del electrón: ésta no puede medirse, de ninguna manera, simplemente porque la representación de ella no tiene sentido. Teoría general de la relatividad La teoría especial de la relatividad implicó la necesidad de introducir correcciones en las leyes de la mecánica para los cuerpos que se mueven a velocidades próximas a la de la luz. La teoría general de la relatividad introduce correcciones en las ideas acostumbradas sobre el espacio cuando se trata de distancias exorbitantes. Precisamente ésta es la razón de que la conversación sobre esta teoría viene al caso en el capítulo dedicado a la física del Universo. La teoría general de la relatividad se basa en el siguiente principio; no existen experimentos con cuya ayuda se podría distinguir al movimiento de los cuerpos bajo la acción del campo gravitacional del movimiento en un sistema de referencia no inercial elegido de modo correspondiente. Examinemos algunos ejemplos elementales. Nos encontramos en un ascensor que cae con una aceleración a. Soltamos de la mano una bolita y recapacitamos qué carácter tendrá su caída. Apenas la bolita resulta suelta, desde el punto de vista de un observador inercial comenzará su caída libre con una aceleración g. Por cuanto el ascensor baja con la aceleración a, la aceleración de la bola con respecto al suelo de éste será (g - a). El observador que se halla en el ascensor puede caracterizar el movimiento del cuerpo que cae por medio de la aceleración g' = g - a. En otras palabras, el observador en el ascensor puede no hablar sobre el movimiento acelerado del ascensor «variando» la aceleración del campo gravitatorio en su sistema. Ahora comparemos dos ascensores. Uno de éstos pende inmóvil sobre la Tierra y el otro se mueve en el vacío interplanetario con una aceleración a respecto a las estrellas. Todos los cuerpos que se encuentran en el ascensor el cual pende inmóvil sobre la Tierra poseen la capacidad de caer libremente con la aceleración g. Pero, la

Gentileza de Manuel Mayo

204

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

misma capacidad la tienen los cuerpos en el interior del ascensor interplanetario. Estos «caerán» con la aceleración -a, al «fondo» del ascensor. Resulta que la acción del campo gravitatorio y las manifestaciones del movimiento acelerado son indistinguibles. El comportamiento del cuerpo en un sistema de coordenadas que se mueve con aceleración es equivalente al comportamiento del cuerpo en presencia de un campo equivalente de gravedad, sin embargo, esta equivalencia puede ser completa si nos limitamos a hacer las observaciones en sectores pequeños del espacio. En efecto, figurémonos un «ascensor» con las dimensiones lineales del suelo de miles de kilómetros. Si un ascensor de este tipo pende inmóvil sobre al globo terráqueo, los fenómenos en aquél ocurrirán en forma distinta a la del caso en que el ascensor se mueva con aceleración a respecto a las estrellas inmóviles. Esto se ve claramente en la fig. 7.3: en un caso los cuerpos caen oblicuamente al suelo del ascensor, y en al otro caso, verticalmente.

Figura 7.3 De este modo, el principio de equivalencia es válido para aquellos volúmenes del espacio en los cuales el campo puedo considerarse homogéneo.

Gentileza de Manuel Mayo

205

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

El principio de equivalencia del campo de gravedad con un sistema de referencia local elegido de manera adecuada conduce a una conclusión importante: el campo gravitatorio está relacionado con la curvatura del espacio y la desfiguración del curso del tiempo. Dos observadores están ocupados en medir la distancia y los intervalos de tiempo. Les interesan los acontecimientos que se desarrollan en un disco en rotación. Un observador se encuentra en el disco y otro permanece inmóvil (con respecto a las estrellas). Desde luego, sólo aquel observador trabaja quien, por decirlo así, es el morador del disco. El observador inmóvil tan sólo mira cómo trabaja su colega. El primer experimento consiste en medir la distancia radial, es decir, la distancia entre dos objetos instalados en un mismo radio del disco a diferentes distancias del centro. La medición se efectúa de una forma ordinaria, a saber: entre los extremos del segmento que interesa a los investigadores cabe tantas y tantas veces la regla patrón. Desde el punto de vista de ambos investigadores la longitud de la regla dispuesta perpendicularmente a la dirección del movimiento es la misma y, por lo tanto, entre los dos no surgirán discordancias en cuanto a la longitud del segmento radial. Ahora el morador del disco procede a la realización del segundo experimento. Quiere medir la longitud de la circunferencia. La regla debe colocarse a lo largo del movimiento. Por supuesto, es necesario tener en cuenta la curvatura de la circunferencia. Por esta causa, la medición debe llevarse a cabo con una regla pequeña, de modo que la longitud del segmento tangente se pueda igualar a la longitud del arco. Los observadores no discutirán con motivo de cuántas veces ha cabido la regla en la longitud de la circunferencia. No obstante, sus opiniones no coincidirán en lo que se refiere a la propia longitud de la circunferencia. Se trata de que el observador inmóvil considere que la regla se ha reducido, ya que en este segundo experimento está situada a lo largo del movimiento. De este modo, al radio de la circunferencia para ambos observadores es el mismo, mientras que la longitud de ésta es distinta. El observador inmóvil llega a la conclusión de que la fórmula de la longitud de la circunferencia 2π no es correcta Para mí, dirá el observador inmóvil, la longitud de la circunferencia es menor que 2π.

Gentileza de Manuel Mayo

206

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Este ejemplo muestra al lector cómo la teoría de la relatividad llega a renunciar a la geometría euclidiana, o bien (es lo mismo pero expresado en otras palabras) llega a la idea sobre la curvatura del espacio. «Escándalos» análogos suceden también con los relojes. Los relojes fijados a diferentes distancias del eje de rotación van con distinta velocidad. Todos éstos marcharán más lentamente que un reloj inmóvil. En este caso, además, la desaceleración es tanto mayor cuanto más lejos del centro del disco se encuentra el reloj. El observador fijo dirá que si uno vive sobre un disco puede valerse de relojes y reglas tan sólo en el caso de encontrarse a una distancia determinada del centro. El espacio y el tiempo acusan particularidades locales. Ahora

recordemos

el

principio

de

equivalencia.

Por

cuanto

semejantes

particularidades locales del tiempo y del espacio se manifiestan en un disco que gira, eso quiere decir de la misma forma se desarrollan los fenómenos también en el campo de gravedad. En un disco los asuntos loman el mismo cariz que en el ascensor representado en la fig. 7.3. El movimiento acelerado es indistinguible del movimiento en el campo gravitatorio dirigido hasta el lado opuesto a la aceleración. Do esto modo, la curvatura local del espacio y del tiempo equivale a la existencia de un campo de gravedad. El carácter cerrado del Universo a que nos referimos en el párrafo anterior puede considerarse, sin duda alguna, como una confirmación de la teoría general de la relatividad. Sin embargo, el lector debe tener en cuenta que la hipótesis sobre el carácter cerrado del Universo no es, hoy en día, la única posible. Existe la posibilidad de deducir a partir de las ecuaciones ingeniosas de la teoría general de la relatividad, por medio de un razonamiento matemático riguroso, una serie de corolarios cuantitativos. Einstein demostró que, en primer lugar, los rayos luminosos, al pasar en las cercanías del Sol, deben desviarse. El rayo que pasa en una proximidad inmediata al Sol debe desviarlo en 1,75". Las mediciones arrojaron un valor de 1,70. En segundo lugar, la órbita del planeta Mercurio (mejor dicho, su perihelio) debe girar en su plano. El cálculo muestra que este desplazamiento, en un siglo, tiene que ser de 43". Precisamente este número lo dan las observaciones. Y un vaticinio más confirmado por al experimento: el fotón consumo energía (y, por consiguiente, varía la frecuencia de la luz) al superar las fuerzas de la gravedad.

Gentileza de Manuel Mayo

207

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

La teoría general de la relatividad es una de las más grandes conquistas del pensamiento humano. Su creación desempeñó un papel transcendental en el desarrollo de las concepciones acerca del Universo, revolucionando la física. Estrellas de distintas edades La física del Universo atraviesa una etapa de desarrollo tempestuoso. De ningún modo puede llamarse rama consumada de ciencia, como, digamos, la mecánica de pequeñas velocidades o la termodinámica. Debido a ello no está excluido que, a medida que prosiguen las investigaciones de las estrellas, se descubrirán nuevas leyes de la naturaleza. Por ahora, no sucedió tal cosa. Sea como fuere, el cuadro del Universo que de cuando en cuando esboza uno u otro físico en algún artículo de divulgación, siempre sufre variaciones. De este modo, también aquello que yo expongo en este capítulo habrá de revisarse dentro de dos o tres lustros. Los astrónomos, ya hace mucho tiempo, se han dado cuenta de que existen diferentes estrellas. Por medio del telescopio, espectrógrafo e interferómetro se consiguen determinar muchas magnitudes físicas que pueden registrarse en la carta de identidad de la estrella. Como se puede suponer por analogía con los experimentos realizados en la Tierra, el carácter del espectro determina la temperatura de la superficie de la estrella Con esta temperatura está relacionado unívocamente el color observado de la estrella. Si la temperatura es de 3000 a 4000 K, el color es rojizo; si es de 6000 a 7000 K, amarillento. Las estrellas blanco-azuladas tienen la temperatura superior a 10 000 a 12 000 K. Al salir a los espacios cósmicos, los físicos hallaron estrellas al máximo de cuya radiación se encuentra en la región de los rayos X e incluso de los rayos gamma. Esto significa que la temperatura de las estrellas puede alcanzar también millones de kelvin Otra característica importante de la estrella es la energía total del espectro que llega a nosotros. Es la luminosidad de la estrella. Las diferencias colosales en la luminosidad pueden guardar relación con el tamaño y la masa de la estrella, así como con su temperatura y el alejamiento de nosotros. En

cuanto

a

la

composición

química

de

las

estrellas

éstas

representan,

principalmente, los plasmas de hidrógeno y helio. El Sol es una estrella bastante

Gentileza de Manuel Mayo

208

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

típica. Su composición química está determinada con mayor o menor exactitud a partir del cuadro de los espectros y basándose en los cálculos teóricos de la energía de la radiación. El hidrógeno constituye el 70% y el helio, 29%. A otros elementos les corresponde cerca de 1%. En la atmósfera de muchas estrellas se descubrieron campos magnéticos intensos, miles de veces mayores que el campo magnético de la Tierra. Esto nos da a conocer el mismo análisis espectral, por cuanto las líneas espectrales se desdoblan en los campos magnéticos. El medio interestelar está enrarecido hasta límites inconcebibles. En un centímetro cúbico del cosmos se halla un átomo. Recuerden que en 1 cm3 de aire que respiramos se contienen 2,7 1019 moléculas. La cifra aducida es media. Existen zonas

del

espacio

en

las

cuales

la

densidad

del

gas

interestelar

supera

sustancialmente a la media. Además del gas nos encontramos también con el polvo que se compone de partículas cuyas dimensiones son de 10-4 a 10-5 cm. Se sugiere que las estrellas se forman del medio de gas y polvo. Por influjo de las fuerzas de gravedad cierta nube comienza a contraerse en una bola. Pasados cientos de miles de años esta nube se comprime y la temperatura de la estrella aumentará, haciéndola visible en el firmamento. Se sobreentiendo que este tiempo depende en gran medida del tamaño y, correspondientemente, de la masa de la nube que se condensa. A medida que continúa la compresión, la temperatura en al seno de la estrella se acrecienta alcanzando un valor para el cual se inicia la reacción termonuclear. Cuatro núcleos de los átomos de hidrógeno se transforman en un núcleo del átomo de helio. Acuérdese que en este caso 4,0339 u.m.a. de los cuatro átomos de hidrógeno se transforman en 4,0038 u.m.a. de helio. Se desprende una energía equivalente a 0,0301 u.m.a. La quema del hidrógeno que tiene lugar en el centro de la estrella puede durar un lapso distinto, en dependencia de su masa. Para el Sol este tiempo es igual a 10 a 20 mil millones de años. Tal es el período del estado estable de una estrella. Las fuerzas de atracción gravitacional se compensan por la presión interna de los núcleos calientes que tratan de inflar la estrella. De este modo, la estrella es algo

Gentileza de Manuel Mayo

209

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

como una botella con gas comprimido. Sólo que el papel de las paredes del recipiente lo asumen las fuerzas de gravedad. Cuando las reservas de combustible de hidrógeno comiencen a tocar a su fin, la presión interna disminuirá. El núcleo de la estrella empezará a comprimirse. ¿Y qué ocurrirá a continuación? —comenzamos a preguntar al teórico. Este, después de efectuar los cálculos correspondientes, nos contesta que el destino ulterior del astro depende del hecho de si logra o no arrojar su envoltura exterior. Si semejante proceso resulta posible y la masa de la estrella llega a ser dos veces menor que la del Sol, entonces, se crearán fuerzas capaces de contrarrestar las gravitacionales. Se forma una estrella pequeña con una temperatura alta de la superficie. Esta estrella se llama enana blanca. Bueno, ¿y más tarde? Otra vez el destino de la estrella viene determinado por su masa. Si la masa de la enana blanca es menor que una vez y media la masa del Sol, se extinguirá lentamente, sin que ocurra ningún acontecimiento dramático. Su radio disminuirá y descenderá la temperatura. Finalmente, la enana se convertirá en una estrella fría de tamaño de la Tierra. Tal es la «muerte» de la mayoría de las estrellas. Pero si la masa de la enana blanca, formada después de que la estrella con el combustible quemado había arrojado su envoltura, es mayor que una vez y media la masa del Sol, entonces la compresión no se detendrá en la etapa de enana blanca. Los electrones se fusionarán con los protones dando lugar a la formación de una estrella de neutrones cuyo diámetro medirá tan sólo varias decenas de kilómetros, de acuerdo con los cálculos, la estrella de neutrones debe tener una temperatura del orden de diez millones de kelvin. El máximo de su radiación corresponde a la región de los rayos X. Hemos relatado lo que debe suceder con una estrella si ésta logra deshacerse de su envoltura exterior. Pero las ecuaciones matemáticas no imponen la necesidad de semejante pérdida. Ahora bien, si el cuerpo celeste conserva una masa del orden de la del Sol, la atracción gravitacional simplemente aniquilará la estrella. En el lugar donde ésta se encontraba quedará un agujero negro. ¿En qué etapa de compresión debo tener lugar la aniquilación de la estrella y por qué al punto donde ésta se hallaba recibió el nombre de agujero negro?

Gentileza de Manuel Mayo

210

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Recordemos la siguiente sencilla ley en que se basa el lanzamiento de los cohetes que abandonan la Tierra para dirigirse al cosmos (véase el libro 1). Para abandonar la Tierra se necesita una velocidad de 11 km/s. Esta velocidad se determina por la fórmula

De la fórmula queda claro que a medida que la bola de masa determinada se comprime, la velocidad con que el cohete puede salir al cosmos desde este cuerpo celeste incrementará constantemente. ¡Mas la velocidad límite es igual a 300 000 km/s! Si la bola estelar de masa dada se comprime hasta una bolita cuyo radio será igual a

entonces resulta imposible dejar semejante bola. En otras palabras, en el lugar donde se encontraba la estrella puede llegar todo lo que se quiera, incluyendo el rayo luminoso o el rayo de otra radiación electromagnética, pero no logrará salir de esto agujero. Acepten que la denominación «agujero negro» es completamente acertada. No es difícil calcular a ojo, por la formula escrita, que los agujeros negros con las masas de 3 a 50 masas solares tendrán los diámetros de 60 a 1000 km. Ahora voy a detenerme más o menos pormenorizadamente en las búsquedas de los agujeros negros. Por supuesto, el lector puede decir que es un problema particular al que no convendría prestar atención en el pequeño libro dedicado a la física en general. Pero yo estimo aleccionador el propio método de abordar esta búsqueda. El talento del naturalista se manifiesta, precisamente, en al hecho de hallar los procedimientos para la demostración indirecta de la validez del modelo cuyos propiedades no pueden demostrarse de una forma directa. A primera vista, el problema, en efecto, parece inmensamente complicado, si no irresoluble. Ni siquiera el más perfecto instrumento es capaz de advertir una

Gentileza de Manuel Mayo

211

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

manchita negra de 1000 km de tamaño a distancias inconcebiblemente grandes. El físico soviético Ya. D. Zeldóvich más de 20 años atrás propuso comenzar la búsqueda de agujeros negros basándose en la idea de que su presencia en el firmamento debe influir en el comportamiento de los cuerpos visibles que se encuentran en la proximidad de estos agujeros. Junto con sus colaboradores emprendió el examen sistemático de los catálogos de estrellas con el fin de encontrar una estrella visible que girase alrededor de un agujero negro. Semejante estrella debe parecer solitaria y su rotación da lugar a que las líneas» espectrales se desplazarán de manera periódica hacia el rojo o hacia el azul en función de si la estrella se aleja de nosotros o se dirige hacia nosotros. A este trabajo se incorporaron los investigadores también de otros países y se encontró cierto número de estrellas aparentemente adecuadas. De la magnitud del desplazamiento de Doppler se puede evaluar, a grandes rasgos, la masa de la estrella alrededor de la cual gira el satélite visible. Se eligieron candidatos invisibles con una masa tres veces mayor que la del Sol. De este modo, no podía tratarse ni de enanas blancas, ni de estrellas de neutrones. Sin embargo, todo ello no es suficiente para afirmar que existe en realidad un sistema tan exótico con el agujero negro. Los oponentes podían promover una serie de otras explicaciones del desplazamiento periódico de Doppler. Pero existe un fenómeno que puede llamarse en ayuda. Se trata de que el agujero negro posee la capacidad de atraer en su seno el gas de su satélite. Al caer al agujero negro este gas debe calentarse fuertemente emitiendo rayos X. Es cierto que también las enanas blancas y las estrellas de neutrones dan lugar a semejante atracción del gas. No obstante, éstas pueden distinguirse del agujero negro por la magnitud de su masa. Hace muy poco se ha encontrado una estrella que satisface todos los requisitos a que debe someterse el satélite de un agujero negro. No hay duda de que tras este descubrimiento seguirán nuevos experimentos y cálculos teóricos detallados cuya finalidad es predecir las particularidades del espectro de rayos X que emana del entorno del agujero negro. El futuro muy próximo debe revelar con cuánta frecuencia estos «cuerpos» maravillosos se encuentran en el Universo. Hay fundamento para suponer que es posible la existencia tanto de agujeros negros

Gentileza de Manuel Mayo

212

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

grandes como de miniagujeros negros con una masa del orden de 1016 g. Estos agujeros cuyas dimensiones son menores que las de un núcleo atómico pueden sucumbir inesperadamente, devolviendo la energía que encierran. Y ésta basta para satisfacer durante muchos años todas las necesidades energéticas de la Tierra. ¡Qué magnífico tema para los autores de las novelas de ciencia-ficción! Radioastronomía En la fig. 7.4 se representa la fotografía de una antena parabólica. Esta enfoca los rayos radioeléctricos paralelos que inciden sobre ella. Los rayos se concentran en un punto en que está situado un receptor especial. Seguidamente, la señal se amplifica por métodos radiotécnicos. La antena parabólica mostrada en la figura está instalada en la ciudad de Effelsberg (RDA4). Con ayuda de esta antena cuyo diámetro es de 100 metros realizan sus investigaciones los científicos de muchos países, incluyendo la Unión Soviética.

4 República Democrática Alemana, fue un Estado socialista de la Europa Central que se estableció en 1949 en el territorio de Alemania ocupado por la URSS, al final de la Segunda Guerra Mundial, y existió hasta 1990, cuando los länder (estados federados) que la formaban se incorporaron a la República Federal Alemana (RFA), dando lugar a la reunificación alemana y a la creación de la actual Alemania. (Nota PB)

Gentileza de Manuel Mayo

213

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

Figura 7.4 Las antenas de esto tipo acusan una sensibilidad sorprendente. Al hacerlas girar de modo que el eje del espejo mire a la dirección que nos interesa, estamos en condiciones de captar los flujos de energía del orden de 10-28 W s/m2. ¿No es verdad que resulta fantástico? La radioastronomía llevó a descubrimientos fundamentales en el campo de la física del Universo. En la Luna y en algunos satélites se han instalado radiotelescopios. De este modo, dejan de ser un obstáculo para el observador la absorción y la reflexión de las ondas electromagnéticas por la atmósfera. Por ahora existen dos «ventanas» en el espectro electromagnético. Una de estas ventanas deja pasar la luz visible, y la Gentileza de Manuel Mayo

214

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

otra, la radiación radioeléctrica dentro de los límites de las longitudes de onda desde 2 cm (15 000 MHz) hasta 30 m 10 (MHz). En las observaciones radioastronómicas no influyen las condiciones meteorológicas. El «radiofirmamento» tiene un aspecto completamente distinto de aquel que admiramos por las noches. La radioemisión proveniente del espacio cósmico no es muy intensa, y su estudio se hizo posible tan sólo debido a los éxitos fenomenales de la radiotecnia. Basta con señalar que la radioemisión del Sol es millones de veces menor por su potencia que la emisión en el diapasón luminoso. A pesar de todas estas circunstancias, sin la radioespectroscopía no habríamos podido establecer muchos datos importantes. Por ejemplo, un papel importante en la comprensión de los procesos que tienen lugar en el Universo lo desempeña la medición de la radiación residual de las explosiones de las supernovas. El hidrógeno neutro irradia una onda fuerte de 21 cm de longitud. La medición de la intensidad de esta radioemisión dio la posibilidad de esbozar el cuadro de distribución en el cosmos del gas interestelar y seguir el movimiento de las nubes de gas. Se ha hallado un gran número de radiogalaxias y cuásares que se encuentran a unas distancias tan grandes de nosotros que éstas representan el límite de lo accesible para la observación. Es suficiente indicar que el corrimiento hacia el rojo de la radiación que llega de estos manantiales alcanza el valor de —3,5. El corrimiento hacia el rojo se define como la relación de la diferencia de las longitudes de onda recibida al valor de la longitud de onda emitida. De este modo, resulta que la diferencia es 3,5 veces mayor que la longitud de onda de la radiación. Los radiométodos permitieron echar un vistazo a la periferia misma del Universo. Las investigaciones radioastronómicas dieron la posibilidad de comprender la naturaleza de los rayos cósmicos que llegan hacia nosotros de las profundidades del cielo. Rayos cósmicos Las investigaciones que en el día de hoy pueden efectuarse cómodamente en el cosmos demuestran que sobre nuestra Tierra incide sin cesar un flujo de partículas

Gentileza de Manuel Mayo

215

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

nucleares que se mueven con velocidades iguales prácticamente a la de la luz. Su energía se encuentra en los límites de 108 a 1020 eV. ¡La energía de 1020 supera en ocho órdenes las energías que pueden crearse en los más pótenles aceleradores! Los rayos cósmicos primarios constan, en su mayoría, de protones (cerca del 90%); además de los protones en estos rayos están presentes también núcleos más pesados. Se sobreentiendo, que en las colisiones con otras moléculas, átomos y núcleos los rayos cósmicos son capaces de crear partículas elementales de todos los tipos. Pero a los astrofísicos les interesa la radiación primaria. ¿Cómo se engendrarán los flujos de partículas que poseen tanta energía? ¿Dónde se encuentran las fuentes de estas partículas? Hace un tiempo bastante grande fue demostrado que no es el Sol el que representa la fuente principal de la radiación cósmica. Pero siendo así, tampoco se puede cargar la responsabilidad por la creación de los rayos cósmicos sobre otras estrellas, por cuanto éstas, de principio, no se diferencian en nada del Sol. ¿Quién, entonces, es el responsable? En nuestra Galaxia existe la nebulosa del Cangrejo que se formó como resultado de la explosión de una estrella en el año 1054 (no se debe olvidar que los científicos observan el cielo estelar varios miles años). La experiencia demuestra que esta nebulosa es una fuente tanto de ondas radioeléctricas como de partículas cósmicas. Dicha coincidencia nos da la respuesta al enigma de la enorme energía de los protones cósmicos. Basta con admitir que el campo electromagnético formado a resultas de la explosión de la estrella hace las veces de sincrotrón, para comprender que, en este caso, la enorme energía que está acumulándose por la partícula, la cual, en el transcurso de miles de años de luz, viaja, siguiendo una espiral, alrededor de las líneas de inducción magnética, puede alcanzar las cifras fantásticas que hemos citado. Los cálculos demuestran que la partícula cósmica, al recorrer la distancia igual al diámetro de nuestra Galaxia, no puede acumular más que 1019 eV de energía. Por lo visto, las partículas con energía máxima llegan hacia nosotros de otras galaxias. Evidentemente, no hay ninguna necesidad de suponer que con sólo las explosiones de las estrellas dan lugar a la aparición de partículas cósmicas. Toda fuente estelar de ondas radioeléctricas puede ser simultáneamente una fuente de rayos cósmicos.

Gentileza de Manuel Mayo

216

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

www.librosmaravillosos.com

A. I. Kitaigorodski

La existencia de rayos cósmicos fue descubierta ya a principios de nuestro siglo. El investigador que instalaba electroscopios en un globo aerostático advertía que, a grandes alturas, éstos se descargaban con mucha mayor rapidez comparando con el caso cuando este antiguo instrumento, que tantos servicios prestó a los físicos, se disponía al nivel del mar. Quedó claro que la aproximación de las laminillas del electroscopio que siempre ocurría no era consecuencia de la imperfección del instrumento, sino se debía a la acción de ciertos factores externos. En los años 20 los físicos comprendían ya que la ionización del aire que quitaba la carga del electroscopio era indudablemente de origen extraterrestre. Millikan fue el primero quien anunció firmemente esta hipótesis y dio al fenómeno su nombre actual: radiación cósmica. En 1927, el científico soviético P. V. Skobeltsin, como primero, obtuvo la fotografía de las huellas de los rayos cósmicos en una cámara de ionización. Por medio de procedimientos ordinarios que hemos expuesto anteriormente se determinó la energía de las partículas cósmicas. Esta resultó enorme. Al estudiar la naturaleza do los rayos cósmicos, los físicos realizaron una serie de descubrimientos

admirables.

En

particular,

precisamente

por

esta

vía

fue

demostrada la existencia del positrón. De la misma forma, también los mesones, que son partículas con una masa intermedia entre la del protón y la del electrón, fueron descubiertos por primera vez en los rayos cósmicos. Las investigaciones de los rayos cósmicos siguen siendo una de las ocupaciones más interesantes de los físicos. *** El carácter no consumado de la astrofísica hace difícil su exposición en un solo capítulo de un pequeño libro cuya finalidad consiste en introducir al lector en al círculo de los principales hechos e ideas de la ciencia física. Entre los problemas físicos que atañen al Universo elegí tan sólo varias cuestiones que, a mi parecer, revisten mayor interés. ***

Gentileza de Manuel Mayo

217

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

218

A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

219

A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

220

A. I. Kitaigorodski

Preparado por Patricio Barros

Física para Todos IV – Fotones y núcleos

Gentileza de Manuel Mayo

www.librosmaravillosos.com

221

A. I. Kitaigorodski

Preparado por Patricio Barros